text stringlengths 20 1.01M | url stringlengths 14 1.25k | dump stringlengths 9 15 ⌀ | lang stringclasses 4
values | source stringclasses 4
values |
|---|---|---|---|---|
# Обработка sms на куче одинаковых gsm модемов без насилия над udev
**Дано:**
Есть бухгалтерия, которая работает с множеством коммерческих организаций. Банковские web-клиенты шлют коды подтверждения для той или иной банковской операции в виде sms. Одинаковые GSM модемы воткнуты в USB хаб Linux сервера. На сервере установлен пакет smstools3 для приёма и обработки sms и пакет usb\_modeswitch для правильного определения модемов через udev.
**Задача:**
Организовать приём sms и их подачу бухгалтерам. Помечать приходящие смс наименованием организации.
**Проблемы:**
Модемы китайские, без индивидуальных серийных номеров и нет возможности их различить с помощью правил udev. При перезагрузке сервера или перестановке того или иного модема происходит переименование этих устройств.
**Решение.**
1. Создаём генератор (/usr/local/bin/smsdconfgen) кофигурационного файла (/etc/smsd.conf) для демона smsd:
```
#!/bin/sh
# Считаем кол-во доступных системе USB терминалов и создаём строку с их названиями.
num=`ls /dev/ttyUSB* | awk -F tty '{print $2}' | awk -F USB '{print $2}' | awk 'BEGIN { ORS = " " } { print }' | sed 's/.$//'`
devlist=`ls /dev/ttyUSB* | awk -F tty '{print $2}' | awk 'BEGIN { ORS = "," } { print }' | sed 's/.$//'`
# Подпрограмма с настройками для каждого устройства
selection () {
echo "["USB$i"]" >>/etc/smsd.conf
echo 'init = AT+CPMS="ME","ME","ME"' >>/etc/smsd.conf
echo "device = /dev/ttyUSB"$i >>/etc/smsd.conf
echo "baudrate = 115200" >>/etc/smsd.conf
echo "incoming = yes" >>/etc/smsd.conf
echo "memory_start = 1" >>/etc/smsd.conf
echo "eventhandler = /usr/local/bin/sms2mail" >>/etc/smsd.conf
echo >>/etc/smsd.conf
}
# Обнуляем конфигурационный файл /etc/smsd.conf
echo >/etc/smsd.conf
# Заносим в конфигурационный файл основные параметры sms демона
echo "devices = "$devlist >/etc/smsd.conf
echo "outgoing = /var/spool/sms/outgoing" >>/etc/smsd.conf
echo "checked = /var/spool/sms/checked" >>/etc/smsd.conf
echo "incoming = /var/spool/sms/incoming" >>/etc/smsd.conf
echo "receive_before_send = no" >>/etc/smsd.conf
echo "incoming_utf8 = yes" >>/etc/smsd.conf
echo >>/etc/smsd.conf
# Заносим настройки устройств в конфигурационный файл
for i in $num;
do selection;
done
```
Этот скрипт пропишет все имеющиеся в системе USB терминалы в конфиг smsd. Для своего удобства вы можете внести изменения в init скрипт smsd (обычно он находится в /etc/init.d) и прописать запуск генератора конфига перед стартом самого smsd. Это избавит вас от ручного запуска перед рестартом демона.
2. Создаём скрипт обработчик входящих смс. Он будет сканировать каждую входящую смс и определять принадлежность смс конкретной симке через код [IMSI](https://www.google.ru/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0ahUKEwjZ9NWHnurLAhWK8XIKHZ2vA48QFggcMAA&url=https%3A%2F%2Fru.wikipedia.org%2Fwiki%2FIMSI&usg=AFQjCNF-xOacRSmG1Yrw0FrUoKPtsh_EDw&sig2=OYbFpId5nSAE9kxbMhGHtg).
```
#!/bin/bash
#IMSI наших симок.
#Иванов - 250014712255725
#Петров - 250014712342902
#Сидоров - 250014712553982
#Яшин - 250014710661053
#$1 и $2 - это переменные самого smsd для каждой смс
status="$1"
file="$2"
#Вычленяем код IMSI из файла с смс
imsi=`head -12 $file | grep -e "IMSI: " | awk -F" " '{print $2}'`
#Проверяем чья смс
case "$1" in
RECEIVED)
if [ $imsi = 250014712255725 ]; then
name="Иванов"
fi
if [ $imsi = 250014712342902 ]; then
name="Петров"
fi
if [ $imsi = 250014712553982 ]; then
name="Сидоров"
fi
if [ $imsi = 250014710661053 ]; then
name="Яшин"
fi
head -12 $file | grep -e "^From: " -e "^Sent: " -e "^Received: " >> /tmp/sms.log
#Если смс приходят в кодировке UCS, перекодируем в UTF-8
if grep "Alphabet: UCS2" $file >/dev/null; then
echo "$name" >> /tmp/sms.log
tail -n +13 $file | iconv -f UCS-2BE -t UTF-8 >> /tmp/sms.log
tail -n +13 $file | iconv -f UCS-2BE -t UTF-8 | mutt -x -s "$name" x@mail.com
else
echo "$name" >> /tmp/sms.log
tail -n +13 $file >> /tmp/sms.log
tail -n +13 $file | mutt -x -s "$name" x@mail.com
fi
echo >> /tmp/sms.log
echo >> /tmp/sms.log
;;
esac
```
Из скрипта видно, что каждая смс подписывается и отсылается на определённый почтовый ящик. Кроме этого она попадает и в лог файл /tmp/sms.log. Что делать с смсками решать вам, моим бухгалтерам, кроме отправки на почту, я транслирую лог файл на пять последних смс через веб страницу. Для этого достаточно поднять веб сервер и закинуть в корень сайта файл index.php вроде этого:
```
SMS-ки
php
$output = shell_exec('tail -n 30 /tmp/sms.log');
echo "<pre$output
```
";
?> | https://habr.com/ru/post/280574/ | null | ru | null |
# АнтиAJAX
Некоторые сайты злоупотребляют аяксом и подгружают в фоновом режиме рекламу, разные свои фишки, типа статистики, аяксовых чатов и т.п. А я просто хочу почитать, например, статью на сайте.
В Firefox аякс убивается вводом в адресной строке простой команды:
`javascript:void(XMLHttpRequest=null)`
Можно просто добавить эту строку в закладки или даже вывести кнопулю на панель.
Навеяно [постом Cooler-а](http://cooler-online.com/sc.php?cl121107.html&15). | https://habr.com/ru/post/16156/ | null | ru | null |
# Java и время: часть первая
Восемь лет назад я принимал участие в проектировании и разработке сервиса, который был должен обслуживать запросы пользователей со всех уголков земного шара и координировать их действия. Работая над проектом я понял, что очень часто многие важные аспекты работы со временем просто игнорируются. Иногда это действительно не очень критично: если сервис локален и им пользуются только на определенной территории, либо пользователи естественным образом разделены на почти не взаимодействующие между собой географические кластеры. Однако же, если сервис объединяет пользователей по всему миру, то без четкого понимания принципов работы со временем уже не обойтись. Представим сервис, в котором общие события (совещания например) начинаются в какое-то строго определенное время, а пользователи рассчитывают на это. Какое время им показывать, в какой момент их беспокоить уведомлениями, что такое день рождения и когда можно поздравить человека — в статье я попробую это осмыслить.

Статья не претендует на глубину и/или академичность. Это попытка систематизировать опыт и обратить внимание разработчиков на не очень очевидные аспекты.
В JDK8 появилось новое [Date Time API](http://www.oracle.com/technetwork/articles/java/jf14-date-time-2125367.html), в котором появилось множество [новых полезных классов](https://docs.oracle.com/javase/8/docs/api/java/time/package-summary.html), но я не буду его упоминать, также как и об [отличных сторонних библиотеках](http://www.joda.org/joda-time/). Это отдельная, большая тема, которая заслуживает отдельной статьи; плюс, как я уже упомянул, я стараюсь рассказывать не о какой-то конкретной технологии, а о принципах работы в целом, а в этом плане новое API принципиально ничем не отличается от старого.
Временная ось
=============
Начнем сильно издалека. Прямо очень издалека. Нарисуем ось [времени](https://ru.wikipedia.org/wiki/%D0%92%D1%80%D0%B5%D0%BC%D1%8F).

Прямо тут начинаются разные вопросы. Идет ли время всегда [в одном направлении](http://elementy.ru/lib/430702/)? Идет ли оно равномерно? Непрерывно ли оно? Что принять за единичный вектор? Едина ли эта ось для всех? Зависит ли от положения в пространстве? От скорости движения? Каков минимально измеряемый отрезок?
Собственно тут я готов только задавать вопросы, но никак не отвечать на них. Есть мнение, что [никакого времени нет](http://www.newscom.md/rus/fiziki-sdelali-shokiruyushee-zayavlenie-vremeni-ne-sushestvuet.html), но я также пока не готов к обсуждению этого вопроса.
Но есть и уже решенные моменты.
Про [единицу измерения](https://ru.wikipedia.org/wiki/%D0%A1%D0%B5%D0%BA%D1%83%D0%BD%D0%B4%D0%B0) все ясно — она четко и однозначно специфицирована.
Расстояние от Москвы до Вашингтона составляет примерно 7840000 метров и свет проходит это расстояние по поверхности земли минимум за 0.026 секунды, что совсем немало. Запрос на создание учетной записи пользователем во Владивостоке, будет отработан на московском сервере только через некоторое время. Таким образом информация о происходящих событиях доступна совсем не сразу и зависит от расстояния между точками в пространстве.
Кроме того, сама скорость течения времени зависит от скорости перемещения объекта, причем даже для вполне [рядовых около-земных технологий вроде GPS](http://habrahabr.ru/company/ivideon/blog/230117/).
Текущая стандартная библиотека обработки времени на Java считает, что никаких релятивистских эффектов не существует и никто не движется на около-световых скоростях, а ось времени одна и едина для всех (по крайней мере в масштабах одной планеты) — и это вполне всех нас устраивает. Возможно впоследствии в JDK #6543 будет реализован новый Java Date Time API, который позволит написать сервис для внутренней офисной системы [«Сокола Тысячелетия»](https://ru.wikipedia.org/wiki/%D0%A2%D1%8B%D1%81%D1%8F%D1%87%D0%B5%D0%BB%D0%B5%D1%82%D0%BD%D0%B8%D0%B9_%D1%81%D0%BE%D0%BA%D0%BE%D0%BB) с учетом скорости его движения и наличия/отсутствия [кротовых нор](https://ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%BE%D1%82%D0%BE%D0%B2%D0%B0%D1%8F_%D0%BD%D0%BE%D1%80%D0%B0) рядом.
Теперь отметим на временной оси некий момент. Вот, например, прямо сейчас я нажму на кнопку «точка». (Нажал)

Теперь нужно придумать способ, с помощью которого я смог бы сообщить вам о том, в какой именно момент я нажал эту кнопку. Самый простой способ сделать это — обозначить какой-то момент времени, общий для нас всех, с которого мы все постоянно отсчитываем временные отсчеты. Если этот момент времени обозначен (*тот-самый-момент*), то я смогу передавать вам число своих отсчетов с этого общего момента, а вы сможете понять отношение между временем нажатия кнопки и своим текущим временем при получении моего значения.
В примитивном физическом мире мы могли бы встретиться и одновременно запустить одинаковые песочные часы. После чего спокойно разойтись по своим делам, а времена событий сообщать в виде высоты песочного столба на нашем экземпляре часов (вероятно часы должны быть очень большими и громоздкими).

Используемый нами *тот-самый-момент*, в свою очередь, может быть также измерением — но уже относительно какого-то более общего и важного события. В нашем случае так и происходит, *тот-самый-момент* в системе [Unix-time](https://ru.wikipedia.org/wiki/UNIX-%D0%B2%D1%80%D0%B5%D0%BC%D1%8F) (числовое значение 0), которая используется в Java — это временная точка с меткой 00:00:00 1 января 1970 от Р.Х. по UTC уже по другой шкале — [Григорианскому календарю](https://ru.wikipedia.org/wiki/%D0%93%D1%80%D0%B8%D0%B3%D0%BE%D1%80%D0%B8%D0%B0%D0%BD%D1%81%D0%BA%D0%B8%D0%B9_%D0%BA%D0%B0%D0%BB%D0%B5%D0%BD%D0%B4%D0%B0%D1%80%D1%8C).
При чем тут Java
================
Для задания временной точки на временной оси в Java существует класс [java.util.Date](https://docs.oracle.com/javase/7/docs/api/java/util/Date.html). Вообще, java.util.Date — это позор Java, начиная с самых ранних версий. Во-первых, у него название не отражает суть; а во-вторых, он mutable. Однако жизнь будет проще, если вы будете воспринимать его как простую обертку над внутренним полем типа long в котором хранится количество миллисекунд с *того-самого-момента* — и ничего более. Все остальные методы помечены как устаревшие и использовать их не нужно ни в коем случае. Просто запомните, что java.utl.Date тождественен (по своей сути) простому числовому long-значению Unix-time в миллисекундах.
```
Date moment = new Date(1451665447567L); // Задаем количество миллисекунд Unix-time с того-самого-момента
moment.getTime(); // Узнаем количество миллисекунд Unix-time с того-самого-момента.
```
Если немного подумать, то становится понятно, что в любом языке есть ограничения точности представления времени. Поэтому java.util.Date (как и любые другие подобные типы) представляет собой вовсе не точку на временной оси, а отрезок. В нашем случае — отрезок миллисекундной длительности. Но с практической точки зрения такая точность нас устраивает, поэтому и дальше будем называть это точкой.
Поскольку представление в Java с самого начала 64-битное, то на наш век хватит точно:
**Нам хватит**
```
Date theEnd = new Date(Long.MAX_VALUE);
DateFormat dateFormat = SimpleDateFormat.getDateTimeInstance(SimpleDateFormat.LONG, SimpleDateFormat.LONG);
dateFormat.setTimeZone(TimeZone.getTimeZone("UTC"));
String text = dateFormat.format(theEnd);
System.out.println(text);
# August 17, 292278994 7:12:55 AM UTC
```
Для различных операций с временем таких как чтение/установка/модификация отдельных календарных полей (год, месяц, день, часы, минуты, секунды и прочее) существует класс [java.util.Calendar](https://docs.oracle.com/javase/7/docs/api/java/util/Calendar.html). Он также не без греха — при операциях помните, что месяцы идут с 0 (лучше использовать константы), а дни идут с 1.
**java.util.Calendar**
```
@Test
public void testSunday() throws Exception {
Calendar calendar = Calendar.getInstance();
calendar.setTimeZone(TimeZone.getTimeZone("UTC"));
calendar.set(2016, Calendar.JANUARY, 5, 12, 30, 0);
calendar.add(Calendar.DAY_OF_YEAR, -2);
Assert.assertEquals(Calendar.SUNDAY, calendar.get(Calendar.DAY_OF_WEEK));
}
```
Другой мутный момент в java.util.Calendar состоит в том, что при установке в нем полной даты (yyyy,MM,dd,HH,mm,ss) количество миллисекунд не сбрасывается в 0, а остается равным количеству миллисекунд от предыдущего установленного момента (текущего времени, если календарь не менялся). Поэтому, если по условиям задачи в миллисекундах должно быть 0, то это поле нужно сбросить еще одним дополнительным вызовом:
**java.util.Calendar**
```
@Test
public void testCalendarMs() throws Exception {
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
Calendar calendar = Calendar.getInstance(tz);
calendar.setLenient(false);
calendar.set(2016, Calendar.APRIL, 20, 12, 0, 0);
System.out.println(calendar.getTimeInMillis());
calendar.set(Calendar.MILLISECOND, 0);
System.out.println(calendar.getTimeInMillis());
}
```
```
1461142800808
1461142800000
```
Первое число гуляет в первых трех разрядах в зависимости от времени вызова. Это поведение может быть достаточно критичным в тестах.
Для перевода временных меток в точки на оси и обратно существует класс java.text.DateFormat и его наследники.
**java.text.DateFormat**
```
@Test
public void testFormat() throws Exception {
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
DateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
dateFormat.setLenient(false);
dateFormat.setTimeZone(tz);
Date moment = dateFormat.parse("2005-03-27 01:30:00");
Assert.assertEquals("2005-03-27 01:30:00", dateFormat.format(moment));
}
```
Про java.text.DateFormat и java.util.Calendar обязательно нужно сказать следующее:
* У обоих классов есть метод setTimezone() для явной установки временной зоны. Крайне желательно всегда его использовать для того, чтобы обозначить, что вы полностью контролируете процесс, а не полагаетесь на временную зону по-умолчанию.
* У обоих классов есть метод setLenient() для установки «мягкого» режима. В таком режиме оба класса будут снисходительно относиться к ошибкам в календарных метках, пытаясь угадать что же вы имели в виду на самом деле. Тут зависит от ситуации, но я бы рекомендовал угадывание отключать (по умолчанию «мягкий» режим включен).
* Оба класса потоко-небезопасны. И, если для java.util.Calendar это совершенно ожидаемо (поскольку мы понимаем что у него есть внутреннее состояние), то, в случае java.text.DateFormat, это для многих оказывается сюрпризом.
Также есть (в старом АПИ) еще несколько классов:
[java.sql.Timestamp](https://docs.oracle.com/javase/7/docs/api/java/sql/Timestamp.html) — расширение (subclass) java.util.Date с наносекундной точностью для работы с типом TIMESTAMP в БД
[java.sql.Date](https://docs.oracle.com/javase/7/docs/api/java/sql/Date.html) — расширение (subclass) java.util.Date для работы с типом [DATE](https://en.wikipedia.org/wiki/SQL#Data_types) в БД.
[java.sql.Time](https://docs.oracle.com/javase/7/docs/api/java/sql/Time.html) — расширение (subclass) java.util.Date для работы с типом [TIME](https://en.wikipedia.org/wiki/SQL#Data_types) в БД.
Кроме того, любую временную точку можно хранить в виде обычного long-значения [Unix-time](https://ru.wikipedia.org/wiki/UNIX-%D0%B2%D1%80%D0%B5%D0%BC%D1%8F) в миллисекундах.
Временные зоны
==============
Любой, кто работал в глобальной компании со множеством офисов по всему миру (или даже просто по России) знает, что информация которая содержится во фразе «совещание будет в 01 января 2016 в 14:00:00» практически бесполезна. Метка «14:00» не соответствует какой-то конкретной точке на временной оси, а вернее сказать — соответствует сразу нескольким. Для того, чтобы все собрались в видео-переговорках в одно и то же время, организатору совещания нужно указать кое-что еще, а именно временную зону, в которой мы будем интерпретировать метку «14:00». Часто временная зона подразумевается по главенству головного офиса («работаем по московскому времени»), в противном же случае, если временная зона по-умолчанию вообще никак не подразумевается, то нужно задать ее в явном виде, например «01 января 2016 в 14:00:00 MSK» — в этом случае точка на временной оси задается совершенно однозначно и все соберутся на совещание в одно и тоже время.
Для устранения неоднозначности при операциях с временными метками в формате ЧЧ:MM:CC временная зона должна быть указана как при *выводе* временной метки, так и при *вводе*.
Можно не указывать временную зону явно, в случаях когда ее можно каким-либо образом подразумевать неявно:
* временная зона подразумевается одной и той же по умолчанию для всего сервиса;
* временная зона явно указана в профиле самим пользователем;
* временную зону пользователя можно вычислить по его положению через гео-координаты;
* временную зону пользователя можно вычислить по его положению через IP адрес;
* временную зону пользователя можно вычислить по его положению через косвенные признаки (анализ поведения);
* текущее смещение временной зоны пользователя можно вычислить [через JavaScript](http://www.w3schools.com/jsref/jsref_gettimezoneoffset.asp);
Наверное стоит отметить, что временная зона сервиса (по умолчанию) и временная зона сервера (по умолчанию) — это в общем совсем не одно и то же. BIOS, cистема, приложение и утилиты могут, например, работать во временной зоне UTC, но при всем этом временной зоной сервиса будет временная зона Москвы. Хотя конечно сильно проще когда они совпадают — в таком случае админы настраивают временные зоны на серверах, а программисты о них не думают вообще. Если это как раз ваш случай — дальше можете не читать.
Одну и ту же временную метку можно выводить по-разному для пользователей — с использованием той временной зоны, которая наиболее привычна для каждого. Например, следующие временные метки указывают на одну и ту же временную точку на временной оси:
```
Fri Jan 1 16:29:00 MSK 2016
Fri Jan 1 13:29:00 UTC 2016
Fri Jan 1 14:29:00 CET 2016
Fri Jan 1 21:29:00 SGT 2016
Fri Jan 1 22:29:00 JST 2016
```
[Википедия про временные зоны](https://ru.wikipedia.org/wiki/%D0%A7%D0%B0%D1%81%D0%BE%D0%B2%D0%BE%D0%B9_%D0%BF%D0%BE%D1%8F%D1%81).
В Java информация о временной зоне представлена классом [java.util.TimeZone](https://docs.oracle.com/javase/7/docs/api/java/util/TimeZone.html).
Нужно сказать, что временная зона — это не смещение. Нельзя сказать что GMT+3 — это Europe/Moscow. Но можно сказать, что в течение всего 2016-го года временная зона Europe/Moscow будет соответствовать смещению GMT+3. Временная зона — это вся история смещений полностью за весь исторический период, а также другие данные, которые позволяют нам правильно вычислять смещения в разные исторические моменты, а также производить правильные временные расчеты.
Поисследуем временные зоны — для начала посмотрим на Europe/Moscow:
**Europe/Moscow**
```
@Test
public void testTzMoscow() throws Exception {
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
System.out.println(tz.getRawOffset());
System.out.println(tz.getOffset(System.currentTimeMillis()));
System.out.println(tz.useDaylightTime());
System.out.println(tz.getDisplayName(false, TimeZone.LONG, Locale.ENGLISH));
System.out.println(tz.getDisplayName(false, TimeZone.SHORT, Locale.ENGLISH));
System.out.println(tz.getDisplayName(true, TimeZone.LONG, Locale.ENGLISH));
System.out.println(tz.getDisplayName(true, TimeZone.SHORT, Locale.ENGLISH));
System.out.println(tz.getDisplayName(false, TimeZone.LONG, Locale.FRENCH));
System.out.println(tz.getDisplayName(false, TimeZone.SHORT, Locale.FRENCH));
System.out.println(tz.getDisplayName(true, TimeZone.LONG, Locale.FRENCH));
System.out.println(tz.getDisplayName(true, TimeZone.SHORT, Locale.FRENCH));
}
```
```
10800000
10800000
false
Moscow Standard Time
MSK
Moscow Daylight Time
MSD
Heure standard de Moscou
MSK
Heure avancée de Moscou
MSD
```
Видим, что у зоны Europe/Moscow текущее базовое смещение составляет +3 часа относительно UTC, а общее смещение *в данный момент* составляет также +3 часа. Перевод стрелок на летнее время в перспективе отсутствует. У зоны есть отдельные имена для летнего и зимнего времени.
Теперь посмотрим на парижское время:
**Europe/Paris**
```
@Test
public void testTzParis() throws Exception {
TimeZone tz = TimeZone.getTimeZone("Europe/Paris");
System.out.println(tz.getRawOffset());
System.out.println(tz.getOffset(System.currentTimeMillis()));
System.out.println(tz.useDaylightTime());
System.out.println(tz.getDisplayName(false, TimeZone.LONG, Locale.ENGLISH));
System.out.println(tz.getDisplayName(false, TimeZone.SHORT, Locale.ENGLISH));
System.out.println(tz.getDisplayName(true, TimeZone.LONG, Locale.ENGLISH));
System.out.println(tz.getDisplayName(true, TimeZone.SHORT, Locale.ENGLISH));
System.out.println(tz.getDisplayName(false, TimeZone.LONG, Locale.FRENCH));
System.out.println(tz.getDisplayName(false, TimeZone.SHORT, Locale.FRENCH));
System.out.println(tz.getDisplayName(true, TimeZone.LONG, Locale.FRENCH));
System.out.println(tz.getDisplayName(true, TimeZone.SHORT, Locale.FRENCH));
}
```
```
3600000
3600000
true
Central European Time
CET
Central European Summer Time
CEST
Heure d'Europe centrale
CET
Heure d'été d'Europe centrale
CEST
```
Базовое смещение составляет +1 час относительно UTC, общее смещение *в данный момент* составляет также +1 час. Переход на летнее время в перспективе у зоны есть. Также присвоено два имени — для зимнего и для летнего времени отдельно.
Теперь посмотрим на зону «GMT+5». Это фактически не совсем временная зона — у нее нет истории, нет летнего времени, а смещение постоянно.
**GMT+5**
```
@Test
public void testGmt5() throws Exception {
TimeZone tz = TimeZone.getTimeZone("GMT+5");
System.out.println(tz.getRawOffset());
System.out.println(tz.getOffset(System.currentTimeMillis()));
System.out.println(tz.useDaylightTime());
System.out.println(tz.getDisplayName(false, TimeZone.LONG, Locale.ENGLISH));
System.out.println(tz.getDisplayName(false, TimeZone.SHORT, Locale.ENGLISH));
System.out.println(tz.getDisplayName(true, TimeZone.LONG, Locale.ENGLISH));
System.out.println(tz.getDisplayName(true, TimeZone.SHORT, Locale.ENGLISH));
System.out.println(tz.getDisplayName(false, TimeZone.LONG, Locale.FRENCH));
System.out.println(tz.getDisplayName(false, TimeZone.SHORT, Locale.FRENCH));
System.out.println(tz.getDisplayName(true, TimeZone.LONG, Locale.FRENCH));
System.out.println(tz.getDisplayName(true, TimeZone.SHORT, Locale.FRENCH));
}
```
```
18000000
18000000
false
GMT+05:00
GMT+05:00
GMT+05:00
GMT+05:00
GMT+05:00
GMT+05:00
GMT+05:00
GMT+05:00
```
Так и есть, смещение постоянно, составляет +5 часов относительно GMT и никогда не меняется.
Примеры
=======
Продолжим рассказывать примерами то, что слишком долго объяснять на словах. Для начала посмотрим, что происходило в 2005 году во временной зоне «Europe/Moscow»:
**Europe/Moscow - 2005**
```
$ zdump -v /usr/share/zoneinfo/Europe/Moscow | grep 2005
/usr/share/zoneinfo/Europe/Moscow Sat Mar 26 22:59:59 2005 UT = Sun Mar 27 01:59:59 2005 MSK isdst=0 gmtoff=10800
/usr/share/zoneinfo/Europe/Moscow Sat Mar 26 23:00:00 2005 UT = Sun Mar 27 03:00:00 2005 MSD isdst=1 gmtoff=14400
/usr/share/zoneinfo/Europe/Moscow Sat Oct 29 22:59:59 2005 UT = Sun Oct 30 02:59:59 2005 MSD isdst=1 gmtoff=14400
/usr/share/zoneinfo/Europe/Moscow Sat Oct 29 23:00:00 2005 UT = Sun Oct 30 02:00:00 2005 MSK isdst=0 gmtoff=10800
```
Отлично, мы видим перевод стрелок на летнее и обратно на зимнее время. Посмотрим на то, что происходит в эти моменты с временными метками. Для начала — переход на зимнее время:
**переход на зимнее время**
```
@Test
public void testWinterTime() throws Exception {
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
DateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss z");
dateFormat.setLenient(false);
dateFormat.setTimeZone(tz);
Calendar calendar = Calendar.getInstance();
calendar.setLenient(false);
calendar.setTimeZone(TimeZone.getTimeZone("UTC"));
calendar.set(2005, Calendar.OCTOBER, 29, 22, 0, 0);
for (int i = 0; i < 62; i++) {
String mark = dateFormat.format(calendar.getTime());
System.out.printf("%s - %d, %s\n", mark,
tz.getOffset(calendar.getTimeInMillis()),
tz.inDaylightTime(calendar.getTime()));
calendar.add(Calendar.MINUTE, +1);
}
}
```
```
2005-10-30 02:00:00 MSD - 14400000, true
2005-10-30 02:01:00 MSD - 14400000, true
...
2005-10-30 02:58:00 MSD - 14400000, true
2005-10-30 02:59:00 MSD - 14400000, true
2005-10-30 02:00:00 MSK - 10800000, false
2005-10-30 02:01:00 MSK - 10800000, false
```
Видим, что после 02:59:00 MSD стрелки сдвигаются на час назад и следующей меткой идет уже 02:00:00 MSK — зимнее время. Также временная зона говорит о том, что летнее время закончилось, а смещение изменилось с GMT+4 на GMT+3.
В примере есть интересный нюанс: c помощью зоны «Europe/Moscow» совершенно невозможно установить в календаре точку соответствующую метке 02:00:00 MSD — устанавливается точка 02:00:00 MSK, что на час позже чем нужно нам. Чтобы задать эту точку как начало отсчета, приходится прибегать к услугам временной зоны UTC, в которой можно установить все. Другим вариантом может быть установка точки 01:00:00 MSD в зоне «Europe/Moscow» и прибавление часа.
Теперь — переход на летнее время:
**переход на летнее время**
```
@Test
public void testSummerTime() {
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
DateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss z");
dateFormat.setLenient(false);
dateFormat.setTimeZone(tz);
Calendar calendar = Calendar.getInstance();
calendar.setLenient(false);
calendar.setTimeZone(TimeZone.getTimeZone("UTC"));
calendar.set(2005, Calendar.MARCH, 26, 22, 0, 0);
for (int i = 0; i <= 60; i++) {
String mark = dateFormat.format(calendar.getTime());
System.out.printf("%s - %d, %s\n", mark,
tz.getOffset(calendar.getTimeInMillis()),
tz.inDaylightTime(calendar.getTime()));
calendar.add(Calendar.MINUTE, +1);
}
}
```
```
2005-03-27 01:00:00 MSK - 10800000, false
2005-03-27 01:01:00 MSK - 10800000, false
...
2005-03-27 01:58:00 MSK - 10800000, false
2005-03-27 01:59:00 MSK - 10800000, false
2005-03-27 03:00:00 MSD - 14400000, true
2005-03-27 03:00:01 MSD - 14400000, true
```
Видно, что после 01:59:00 MSK сразу следует 03:00:00 MSD — то есть перевод стрелок на час вперед. Временная зона сигнализирует, что в этот момент смещение меняется с GMT+3 на GMT+4, а также появляется флаг летнего времени.
Но что будет если мы попробуем обработать метку «2005-03-27 02:30:00» в зоне «Europe/Moscow» — в теории такой метки существовать не должно?
**несуществующая метка**
```
@Test
public void testMissing() throws Exception {
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
DateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
dateFormat.setLenient(false);
dateFormat.setTimeZone(tz);
Date moment = dateFormat.parse("2005-03-27 02:30:00");
System.out.println(moment);
}
```
```
java.text.ParseException: Unparseable date: "2005-03-27 02:30:00"
```
Все верно — в строгом режиме мы получаем исключение.
Посчитаем длительность дня в день перевода стрелок на зимнее время:
**перевод на зимнее время**
```
@Test
public void testWinterDay() {
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
Calendar calendar = Calendar.getInstance();
calendar.setLenient(false);
calendar.setTimeZone(tz);
calendar.set(2005, Calendar.OCTOBER, 30, 0, 0, 0);
Date time1 = calendar.getTime();
calendar.add(Calendar.DAY_OF_YEAR, +1);
Date time2 = calendar.getTime();
System.out.println(TimeUnit.MILLISECONDS.toHours(time2.getTime() - time1.getTime()));
}
```
```
25
```
С 2005-10-30 00:00:00 MSD до 2005-10-31 00:00:00 MSK прошло 25 часов, а не 24.
Теперь проверим день перехода на летнее время:
**переход на летнее время**
```
@Test
public void testSummerDay() {
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
Calendar calendar = Calendar.getInstance();
calendar.setLenient(false);
calendar.setTimeZone(tz);
calendar.set(2005, Calendar.MARCH, 27, 0, 0, 0);
Date time1 = calendar.getTime();
calendar.add(Calendar.DAY_OF_YEAR, +1);
Date time2 = calendar.getTime();
System.out.println(TimeUnit.MILLISECONDS.toHours(time2.getTime() - time1.getTime()));
}
```
```
23
```
C 2005-03-27 00:00:00 MSK до 2005-03-28 00:00:00 MSD прошли 23 часа, а не 24.
Эти два последних примера посвящены тем, кто прибавляет 24\*60\*60\*1000 миллисекунд не как 24 часа, а как календарный день. Вы можете сказать, теперь такой проблемы нет, так как больше нет и переводов на летнее/зимнее время. На это я могу ответить следующее:
* ваша программа должна работать корректно в любой временной зоне, а не только зоне «Europe/Moscow»;
* расчеты «назад» (в прошлое) все равно требуют корректного подхода;
* в 2016 году у нас будут выборы госдумы, а в 2018 будут выборы президента — так что я думаю, что история еще не закончена.
java.sql.Time, java.sql.Date
============================
Типы предназначаются для работы с SQL типами [TIME и DATE](https://en.wikipedia.org/wiki/SQL#Data_types) соответственно. Подразумевается, что оба значения от временной зоны не зависят, но к сожалению это не совсем так. Поскольку оба типа являются наследниками java.util.Date — интерпретация дней-часов зависит от временной зоны:
**Проблема с типами java.sql**
```
@Test
public void testSqlTime() throws Exception {
// Предположим что сейчас 2015-01-01 01:00:00 MSK
Calendar calendar = Calendar.getInstance();
calendar.setTimeZone(TimeZone.getTimeZone("Europe/Moscow"));
calendar.setTimeInMillis(0);
calendar.set(2015, Calendar.JANUARY, 10, 1, 0, 0);
long now = calendar.getTimeInMillis();
// Создаем инстанс java.sql.Time
java.sql.Time sqlTime = new java.sql.Time(now);
java.sql.Date sqlDate = new java.sql.Date(now);
// Теперь выводим значение времени в временной зоне Europe/London
DateFormat timeFormat = new SimpleDateFormat("HH:mm:ss");
timeFormat.setTimeZone(TimeZone.getTimeZone("Europe/London"));
Assert.assertEquals("22:00:00", timeFormat.format(sqlTime));
// Теперь выводим значение даты в временной зоне Europe/London
DateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd");
dateFormat.setTimeZone(TimeZone.getTimeZone("Europe/London"));
Assert.assertEquals("2015-01-09", dateFormat.format(sqlDate));
}
```
В принципе оба типа справляются с задачей переноса информации от бизнес-логики в JDBC-драйвер поскольку обычно код и там и там работает в одной временной зоне, но в более продвинутых случаях, включая сериализацию, надо быть очень аккуратным при использовании этих классов.
В новом API для соответствующих типов подобные проблемы решены.
UTC, GMT
========
Большинство знают, что GMT и UTC — это особые обозначения, относительно которых оформляются смещения в других временных зонах. Но не все знают, что UTC и GMT — это [не совсем одно и тоже](http://www.timeanddate.com/time/gmt-utc-time.html) (формально). Я имею в виду то, что метки «2015-12-01 00:00:00 GMT» и «2015-12-01 00:00:00 UTC» обозначают различные (хоть и близкие) точки на временной оси.
[GMT](https://ru.wikipedia.org/wiki/%D0%A1%D1%80%D0%B5%D0%B4%D0%BD%D0%B5%D0%B5_%D0%B2%D1%80%D0%B5%D0%BC%D1%8F_%D0%BF%D0%BE_%D0%93%D1%80%D0%B8%D0%BD%D0%B2%D0%B8%D1%87%D1%83) вычисляется астрономически по положению земли относительно других объектов. GMT также напрямую используется в [качестве временной зоны](http://www.timeanddate.com/time/gmt-utc-time.html) в некоторых странах.
Поскольку вращение земного шара хаотично замедляется, земля оказывается в одном и том же положении через все увеличивающиеся промежутки времени. Таким образом расстояние между временными точками по соседним меткам по GMT (например «10:00:01» и «10:00:02») может точно не равняться одной [секунде](https://ru.wikipedia.org/wiki/%D0%A1%D0%B5%D0%BA%D1%83%D0%BD%D0%B4%D0%B0).
[UTC](https://ru.wikipedia.org/wiki/%D0%92%D1%81%D0%B5%D0%BC%D0%B8%D1%80%D0%BD%D0%BE%D0%B5_%D0%BA%D0%BE%D0%BE%D1%80%D0%B4%D0%B8%D0%BD%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D0%B5_%D0%B2%D1%80%D0%B5%D0%BC%D1%8F) введен на замену GMT и рассчитывается по атомным часам. Непосредственно в качестве временной зоны не используется (только как опора для смещения).
В UTC расстояние между временными метками (например «10:00:01» и «10:00:02») совершенно одинаковое и строго равно одной секунде. Замедление земного вращения и накапливающееся отличие от GMT решается вводом лишней секунды в году (или даже двух) — а именно [секунды координации](https://ru.wikipedia.org/wiki/%D0%A1%D0%B5%D0%BA%D1%83%D0%BD%D0%B4%D0%B0_%D0%BA%D0%BE%D0%BE%D1%80%D0%B4%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8) (leap second).
Таким образом разница между точками с одинаковыми метками в GMT и UTC никогда не превышает одной секунды.
[Пишут](http://astro.uni-altai.ru/~orion/blog/2011/10/gmt-ili-utc/), что время UTC практически повсюду вытеснило GMT, и что использовать обозначения смещений в виде GMT+3 уже давно моветон — правильно использовать обозначение UTC+3.
Ни GMT ни UTC летнего времени не имеют.
Надо сказать что [Unix-time](https://ru.wikipedia.org/wiki/UNIX-%D0%B2%D1%80%D0%B5%D0%BC%D1%8F), который используется в Java, ни UTC ни GMT напрямую не соответствует. С одной стороны в Unix-time разница между соседними метками составляет всегда равно 1 секунду, с другой стороны наличие leap second в Unix-time не предполагается.
Временная зона по умолчанию
===========================
Отображаете ли вы временную зону при выводе явно или не отображаете, запрашиваете ли вы временную зону при вводе или не запрашиваете, указываете ли вы временную зону при операциях над временем или не указываете — какая-то временная зона все равно присутствует в этих операциях неявно. Если вы не указали свою — будет использована временная зона по-умолчанию.
Термин *временная зона по-умолчанию* уже был упомянут несколько раз по тексту выше. Все потому что без этого понятия ничего и объяснить толком нельзя. Все операции с временем, вывод и ввод временных меток требуют временную зону. То что вы ее не указываете, не означает что ее нет — просто она берется по-умолчанию.
Но все снова не так-то просто — по умолчанию для *кого и чего*?
Начнем с ядра. В [мануале к hwclock](http://linux.die.net/man/8/hwclock) сказано, что в ядре есть внутренняя концепция временной зоны, но ее почти никто не использует, кроме некоторых редких модулей — вроде драйвера файловой системы FAT. Проинформировать ядро о смене временной зоны можно этой же командой hwclock.
Прикладные приложения определяют временную зону по-умолчанию несколькими способами.
Во-первых, общесистемная временная зона (полная информация о ней) в Ubuntu хранится в файле (может быть симлинком) /etc/localtime, а имя этой временной зоны — в файле /etc/timezone:
```
$ cat /etc/timezone
Europe/Moscow
$ file /etc/localtime
/etc/localtime: timezone data, version 2, 15 gmt time flags, 15 std time flags, no leap seconds, 77 transition times, 15 abbreviation chars
$ zdump -v /etc/localtime | head -n 10
/etc/localtime -9223372036854775808 = NULL
/etc/localtime -9223372036854689408 = NULL
/etc/localtime Wed Dec 31 21:29:42 1879 UT = Wed Dec 31 23:59:59 1879 LMT isdst=0 gmtoff=9017
/etc/localtime Wed Dec 31 21:29:43 1879 UT = Thu Jan 1 00:00:00 1880 MMT isdst=0 gmtoff=9017
/etc/localtime Sun Jul 2 21:29:42 1916 UT = Sun Jul 2 23:59:59 1916 MMT isdst=0 gmtoff=9017
/etc/localtime Sun Jul 2 21:29:43 1916 UT = Mon Jul 3 00:01:02 1916 MMT isdst=0 gmtoff=9079
/etc/localtime Sun Jul 1 20:28:40 1917 UT = Sun Jul 1 22:59:59 1917 MMT isdst=0 gmtoff=9079
/etc/localtime Sun Jul 1 20:28:41 1917 UT = Mon Jul 2 00:00:00 1917 MST isdst=1 gmtoff=12679
/etc/localtime Thu Dec 27 20:28:40 1917 UT = Thu Dec 27 23:59:59 1917 MST isdst=1 gmtoff=12679
/etc/localtime Thu Dec 27 20:28:41 1917 UT = Thu Dec 27 23:00:00 1917 MMT isdst=0 gmtoff=9079
```
Установить временную зону для системы можно специальной командой [для вашего дистрибутива](http://www.wikihow.com/Change-the-Timezone-in-Linux), для Ubuntu это:
```
$ dpkg-reconfigure tzdata
```
А также есть вежливая утилита tzselect:
```
$ tzselect
Please identify a location so that time zone rules can be set correctly.
Please select a continent, ocean, "coord", or "TZ".
1) Africa
2) Americas
3) Antarctica
4) Arctic Ocean
5) Asia
6) Atlantic Ocean
7) Australia
8) Europe
9) Indian Ocean
10) Pacific Ocean
11) coord - I want to use geographical coordinates.
12) TZ - I want to specify the time zone using the Posix TZ format.
#?
```
Вторым способом указания временной зоны является переменная окружения TZ, в которой можно указать идентификатор временной зоны индивидуально для каждой программы и/или пользователя.
```
$ echo $TZ
$ date
Wed Dec 30 20:18:18 MSK 2015
$ TZ=UTC date
Wed Dec 30 17:18:25 UTC 2015
$ TZ=Europe/London date
Wed Dec 30 17:18:35 GMT 2015
$ TZ=Europe/Paris date
Wed Dec 30 18:18:40 CET 2015
```
Некоторые программы можно попросить о специфической временной зоне в настройках и/или аргументах командной строки:
```
$ date --utc
Fri Jan 1 08:34:36 UTC 2016
```
Кстати, можно попросить date вывести только текущую временную зону без времени:
```
$ date +%Z
MSK
```
Но это для обычных программ под libc, а у нас целая платформа Java. Поэтому кроме этих двух перечисленных возможностей у нас есть еще две.
Можно указать аргумент для запуска JVM.
```
$ cat << EOF | scala -Duser.timezone=Europe/Paris
print("%s\n%s\n".format(java.util.TimeZone.getDefault().getID(), new java.util.Date()))
EOF
...
Europe/Paris
Wed Dec 30 19:24:00 CET 2015
```
А можно прямо в коде установить временную зону по умолчанию через метод TimeZone.setDefault(TimeZone timeZone):
```
$ cat << EOF | scala
> java.util.TimeZone.setDefault(java.util.TimeZone.getTimeZone("America/Los_Angeles"))
> print("%s\n%s\n".format(java.util.TimeZone.getDefault().getID(), new java.util.Date()))
> EOF
...
America/Los_Angeles
Wed Dec 30 10:25:45 PST 2015
```
Или даже все сразу:
```
$ TZ=Europe/London cat << EOF | scala -Duser.timezone=Europe/Paris
java.util.TimeZone.setDefault(java.util.TimeZone.getTimeZone("America/Los_Angeles"))
print("%s\n%s\n".format(java.util.TimeZone.getDefault().getID(), new java.util.Date()))
EOF
...
America/Los_Angeles
Wed Dec 30 10:37:28 PST 2015
```
База временных зон
==================
Законодатели и [правительства](http://lenta.ru/news/2011/02/08/zimynebudet/) различных [стран](http://www.gazeta.ru/science/2015/10/26_a_7844459.shtml) и даже регионов не сидят сложа руки, регулярно включая/отключая летнее время или даже [перемещая регионы](http://lenta.ru/news/2015/11/24/time/) между [часовыми поясами](http://www.timeanddate.com/news/time/north-korea-new-time-zone.html). Критически важно иметь на системах всю последнюю информацию о подобных изменениях — в противном случае время будет вводиться и выводиться неправильно, люди будут получать СМС-ки во время своего сна, а расчеты вроде "+2 календарных дня" будут неправильными.
В Linux обычные программы на libc используют базу временных зон состоящую из файлов в директории /usr/share/zoneinfo. Эти файлы принадлежат пакету tzdata, за которым активно присматривают разработчики каждого из дистрибутивов. Этот пакет своевременно обновляется и проблем с ним я не помню. В крайнем случае всю информацию можно обновить вручную, если ваша развернутая версия Linux уже больше никем не поддерживается.
К счастью, мне не придется расписывать тут формат содержимого этих файлов, ни историю их возникновения — поскольку на Хабре уже есть [отличная статья на эту тему](http://habrahabr.ru/post/130401/). Не [менее отличная](https://ru.wikipedia.org/wiki/Tz_database) статья есть в википедии.
Но не все так просто.
Java использует свою собственную базу с временными зонами. И, если, для OpenJDK как правило можно просто и легко обновить пакет tzdata-java штатным пакетным менеджером, то для Oracle JDK придется либо [апгрейдить](http://www.oracle.com/technetwork/java/javase/downloads/index.html) всю JDK целиком на новую версию, либо пользоваться отдельной [специальной утилитой](http://www.oracle.com/technetwork/articles/javase/tzupdater-readme-136440.html) для обновления базы временных зон в уже установленной JDK.
Кстати, упомянутая выше библиотеке Joda-time не использует ни системную базу tzdata, ни базу из JVM — да, у нее есть еще одна своя внутренняя база временных зон, которую нужно также обновлять [отдельным и неповторимым способом](http://joda-time.sourceforge.net/tz_update.html).
Для python нужно ставить (и затем также не забыть обновлять) [отдельную библиотеку](https://pypi.python.org/pypi/pytz/).
Для javascript есть куча каких-то сторонних библиотек, как минимум я точно помню что поддержка [есть в Google Closure](https://google.github.io/closure-library/api/class_goog_i18n_TimeZone.html).
Вообще тема того, что тот или иной софт использует свои личные базы с временными зонами, всплывает регулярно. Например, модуль календаря Lightning для почтового клиента Thunderbird хранит свою личную sqlite-базу с часовыми зонами, и поэтому при последних изменениях в нашем государстве мне приходилось делать прямые интервенции в эту базу для корректировки. Иначе все митинги просто плыли по времени.
Вообще, есть ощущение, что в основной массе разработчики не страдают паранойей (как я), про временные зоны никто не думает и в базовые поставки своих платформ tzdata никто не включает — кроме разработчиков JVM.
Отдельное слово я хотел бы сказать про Android. Буду краток — временные зоны в Android это боль. При разработке платформы никто не подумал про отдельный механизм обновления tzdata, как и про то, что у законодателей по всему миру есть страшный зуд к переменам (кто бы мог подумать). Базы с временными зонами меняются только в случае, если вендор прошивки этого захочет. Учитывая то, что некоторые вендоры перестают узнавать свои собственные телефоны уже через полгода, то можно сказать, что на многих аппаратах tzdata просто не обновляется никогда. Продвинутые пользователи меняют текущую временную зону в своих аппаратах на другую, более-менее подходящую текущим условиям (например Europe/Minsk вместо Europe/Moscow). Непродвинутые пользователи все также живут в Europe/Moscow (GMT+4) и просто переводят стрелки — в результате чего временные метки событий во всех программах сдвигаются на час назад. Есть конечно вариант с рутированием и использованием сторонних решений для обновления, но всех пользователей рутировать телефоны не заставишь.
Календари
=========
Про необходимость указания временной зоны вместе с меткой уже было сказано. Однако настоящие параноики должны бы указывать еще и систему летоисчисления. Мы не делаем этого, потому как наиболее развитая часть населения земного шара уже договорилась использовать [григорианский календарь](https://ru.wikipedia.org/wiki/%D0%93%D1%80%D0%B8%D0%B3%D0%BE%D1%80%D0%B8%D0%B0%D0%BD%D1%81%D0%BA%D0%B8%D0%B9_%D0%BA%D0%B0%D0%BB%D0%B5%D0%BD%D0%B4%D0%B0%D1%80%D1%8C), хотя мы до сих пор в удовольствием празднуем новый год по [юлианскому календарю](https://ru.wikipedia.org/wiki/%D0%AE%D0%BB%D0%B8%D0%B0%D0%BD%D1%81%D0%BA%D0%B8%D0%B9_%D0%BA%D0%B0%D0%BB%D0%B5%D0%BD%D0%B4%D0%B0%D1%80%D1%8C), а некоторые из нас высказывают [другие, отличающиеся точки зрения](http://www.kp.ru/daily/25655/818406/) на то, как именно правильно считать даты.
Есть совершенно другие, порой достаточно странные системы счисления, в которых одно и ту же временную точку можно отобразить совершенно по-иному. Например — [календарь Чучхе](https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D0%BB%D0%B5%D0%BD%D0%B4%D0%B0%D1%80%D1%8C_%D1%87%D1%83%D1%87%D1%85%D0%B5). Вообще таких систем оказывается [достаточно много](https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D1%82%D0%B5%D0%B3%D0%BE%D1%80%D0%B8%D1%8F:%D0%9A%D0%B0%D0%BB%D0%B5%D0%BD%D0%B4%D0%B0%D1%80%D0%B8), а все мы просто не задумываемся, что [наш календарь](https://ru.wikipedia.org/wiki/%D0%93%D1%80%D0%B8%D0%B3%D0%BE%D1%80%D0%B8%D0%B0%D0%BD%D1%81%D0%BA%D0%B8%D0%B9_%D0%BA%D0%B0%D0%BB%D0%B5%D0%BD%D0%B4%D0%B0%D1%80%D1%8C) лишь один из многих, возможно самый используемый, но не единственный. Поиграться с некоторыми можно [тут](http://www.direct-time.ru/index.php?id=12).
Leap year
=========
Високосный год — год в котором 366 дней, а не 365 дней как в обычном году. В високосном году добавляется один день к февралю — 29 февраля.
Формула определения того, что год високосный проста и описана в [википедии](https://ru.wikipedia.org/wiki/%D0%92%D0%B8%D1%81%D0%BE%D0%BA%D0%BE%D1%81%D0%BD%D1%8B%D0%B9_%D0%B3%D0%BE%D0%B4)
Leap second
===========
А вот с лишней секундой ([секунда координации](https://ru.wikipedia.org/wiki/%D0%A1%D0%B5%D0%BA%D1%83%D0%BD%D0%B4%D0%B0_%D0%BA%D0%BE%D0%BE%D1%80%D0%B4%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8)) все сильно сложнее. Суть процесса в том, что земля постоянно немножко замедляется и ее положение относительно звезд по одним и тем же меткам времени постоянно меняется. Если не производить коррекцию то время дня и ночи будет постоянно сдвигаться. Чтобы этого не происходило ученые отслеживают положение земли, вычисляют необходимую коррекцию и вносят ее в план корректировки. Поскольку процесс замедления хаотичен, долгосрочный план по коррекции составить невозможно — определение необходимости ввода секунды коррекции происходит по текущей ситуации. Также теоретически возможен ввод отрицательной секунды координации — в случае если земной шар вдруг наоборот ускорится.
Подразумевается, что при наличии секунды координации, время по UTC течет с появлением 60-й секунды:
```
23:59:58
23:59:59
23:59:60 # leap second
00:00:00
00:00:01
```
В концепции Unix-time [не существует](https://en.wikipedia.org/wiki/Unix_time) понятия секунды с номером 60: «Because it does not handle leap seconds, it is neither a linear representation of time nor a true representation of UTC.»
Для того, чтобы хоть как-то соответствовать времени по UTC [используется трюк](https://access.redhat.com/articles/15145#understanding) с переводом времени на секунду назад в полночь:
```
23:59:58
23:59:59
23:59:59 # leap second
00:00:00
00:00:01
```
Трюк [проводится](https://access.redhat.com/articles/15145#handling) либо через сервисы точного времени, либо самим ядром автономно на основании данных в файле таймзоны.
Это именно хак, который имеет свои негативные последствия:
* Количество секунд между 23:59:00 и 00:01:00 следующего дня равно 120, а не 121 как должно быть
* Поскольку одну секунду мы съедаем, все прошлое смещается на секунду вперед
В Java, поскольку все время завязано на концепцию Unix-time, также [нет никакого учета](http://stackoverflow.com/questions/30984599/how-does-the-oracle-java-jvm-know-a-leap-second-is-occurring/30989049#30989049) leap-second. Нет ни в старом API, ни в новом API, ни в библиотеке Joda-time. При этом сама информация о leap-second в базах tzdata [есть](http://stackoverflow.com/a/30985583/827139), а в JavaDoc к методу [java.util.Date#getSeconds](http://grepcode.com/file/repository.grepcode.com/java/root/jdk/openjdk/6-b14/java/util/Date.java#840) говорится о том, что в неких, пока несуществующих, гипотетических Java-машинах значение поля секунд может быть равно 60 или даже 61.
Сначала проверим то, что в момент leap second классы Java эту секунду не учитывают.
**старое API**
```
@Test
public void testLeapSecond1() throws Exception {
TimeZone tz = TimeZone.getTimeZone("UTC");
Calendar calendar = Calendar.getInstance();
calendar.setLenient(false);
calendar.setTimeZone(tz);
calendar.set(2015, Calendar.JUNE, 30, 23, 59, 0);
Date d1 = calendar.getTime();
calendar.set(2015, Calendar.JULY, 1, 0, 1, 0);
Date d2 = calendar.getTime();
long elapsed = d2.getTime() - d1.getTime();
System.out.println(TimeUnit.MILLISECONDS.toSeconds(elapsed));
}
```
```
120
```
Результат — 120 секунд, а не 121 как должно быть.
Теперь проверим новое API:
**новое API**
```
@Test
public void testLeapSecond2() throws Exception {
ZonedDateTime beforeLeap = ZonedDateTime.of(2015, 6, 30, 23, 30, 0, 0, ZoneOffset.UTC);
ZonedDateTime afterLeap = ZonedDateTime.of(2015, 7, 1, 0, 30, 0, 0, ZoneOffset.UTC);
long elapsed = afterLeap.toInstant().toEpochMilli() - beforeLeap.toInstant().toEpochMilli();
System.out.println(TimeUnit.MILLISECONDS.toSeconds(elapsed));
}
```
```
3600
```
Ровно 3600 секунд, а должно быть 3601.
Выясним, сколько именно секунд координации было за все время. Самое простое — проверить это на [странице в вики](https://ru.wikipedia.org/wiki/%D0%A1%D0%B5%D0%BA%D1%83%D0%BD%D0%B4%D0%B0_%D0%BA%D0%BE%D0%BE%D1%80%D0%B4%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8).
Проверим и другими способами. Информация о секундах координации есть в дубликатах временных зон в директории /usr/share/zoneinfo/right.
```
$ file /usr/share/zoneinfo/right/UTC
/usr/share/zoneinfo/right/UTC: timezone data, version 2, 1 gmt time flag, 1 std time flag, 26 leap seconds, no transition times, 1 abbreviation char
$ zdump -v /usr/share/zoneinfo/right/UTC | grep '59:60' | wc -l
26
```
В основной директории /usr/share/zoneinfo файлы таймзон информацию о секундах координации не содержат.
```
$ file /usr/share/zoneinfo/UTC
/usr/share/zoneinfo/UTC: timezone data, version 2, 1 gmt time flag, 1 std time flag, no leap seconds, no transition times, 1 abbreviation char
$ zdump -v /usr/share/zoneinfo/UTC | grep '59:60' | wc -l
0
```
Как бы мы не смотрели — всего получается 26 таких секунд.
Теперь посчитаем сколько секунд прошло между 1970-01-01 00:00:00 UTC и 2016-01-01 00:00:00 UTC. Посчитаем двумя способами: в Java (по Unix-time) и каким-нибудь другим, более высокоточным способом.
Сначала Java:
**1970-01-01 00:00:00 UTC и 2016-01-01 00:00:00 UTC - Java**
```
@Test
public void testEpochDiff() throws Exception {
ZonedDateTime s = ZonedDateTime.of(1970, 1, 1, 0, 0, 0, 0, ZoneOffset.UTC);
ZonedDateTime f = ZonedDateTime.of(2016, 1, 1, 0, 0, 0, 0, ZoneOffset.UTC);
long elapsed = f.toInstant().toEpochMilli() - s.toInstant().toEpochMilli();
System.out.println(TimeUnit.MILLISECONDS.toSeconds(elapsed));
}
```
```
1451606400
```
Получилось 1451606400, перепроверим:
```
$ dateutils.ddiff --from-zone "right/UTC" -f '%S' "1970-01-01 00:00:00" "2016-01-01 00:00:00"
1451606400
```
Все сходится — также 1451606400 секунд, теперь натравим высокоточное оружие:
```
$ dateutils.ddiff --from-zone "right/UTC" -f '%rS' "1970-01-01 00:00:00" "2016-01-01 00:00:00"
1451606425
```
Вот оно, теперь 1451606425 секунд. Мне не очень понятно почему разница составляет 25, а не 26 секунд, но других точных калькуляторов я пока что не нашел.

Становится понятно, что с путешествиями во времени есть серьезные проблемы — по крайней мере если мы делаем движок управления с использованием стандартной Java. Установив точное время, мы не сможем точно рассчитать количество секунд на которые мы должны откатиться — ошибка составит до полуминуты. Точные путешествия в будущее невозможны вообще в принципе — поскольку количество секунд координации заранее предопределить невозможно.
currentTimeMillis(), nanoTime()
===============================
Как практически на любой другой платформе в Java существует два источника времени: первый отображает текущую метку на общей временной оси, второй — считает время с момента подачи питания на процессор.
* java.lang.System#currentTimeMillis — возвращает количество миллисекунд прошедших с полночи 1 января 1970 (по временной зоне UTC). Именно этот метод используется при создании новых экземпляров java.util.Date и java.util.Calendar. Несмотря на то, что возвращаемое значение измеряется в миллисекундах, реальная гранулярность может быть сильно выше — до десятков миллисекунд. Никаких гарантий на монотонность нет, значение может скакать вперед и назад — в результате перевода системных часов оператором или сервисами точного времени.
* java.lang.System#nanoTime — возвращает некоторое абстрактное количество наносекундных «тиков». Значение тиков не обязательно берется с процессорных счетчиков — во-первых, на современном железе есть множество других источников точных сигналов; во-вторых — на многопроцессорных системах есть проблема с тем, что у каждого из процессора счетчик свой и поэтому последовательные вызовы метода могут возвращать скачущие значения в разных потоках. Конкретная реализация зависит от железа, типа и версии операционной системы. Также, несмотря на наносекундную точность результата, никаких гарантий на реальную гранулярность не дается — точность также может снижаться до десятков миллисекунд, но никак не хуже гранулярности java.lang.System#currentTimeMillis
Эти и другие вопросы подробно разобраны тут:
* [Inside the Hotspot VM: Clocks, Timers and Scheduling Events](https://blogs.oracle.com/dholmes/entry/inside_the_hotspot_vm_clocks)
* [Is System.nanoTime() completely useless?](https://stackoverflow.com/questions/510462/is-system-nanotime-completely-useless/4588605#4588605)
* [Linux FAQ for clock\_gettime(CLOCK\_REALTIME)](http://juliusdavies.ca/posix_clocks/clock_realtime_linux_faq.html)
Измерение длительности операций
===============================
Исходя из из предыдущей главы, казалось бы можно сделать только один-единственный вывод о правильном измерении времени — нужно использовать только метод java.lang.System#nanoTime. Метод java.lang.System#currentTimeMillis не подходит, поскольку его значение может скакать при изменении системного времени. Этот вывод подтверждается также чтением JavaDoc к обоим методам.
Тем не менее, мы смотрим в методы класса java.lang.Thread и видим нечто очень странное:
**java.lang.Thread#join(long)**
```
public final synchronized void join(long millis)
throws InterruptedException {
long base = System.currentTimeMillis();
long now = 0;
if (millis < 0) {
throw new IllegalArgumentException("timeout value is negative");
}
if (millis == 0) {
while (isAlive()) {
wait(0);
}
} else {
while (isAlive()) {
long delay = millis - now;
if (delay <= 0) {
break;
}
wait(delay);
now = System.currentTimeMillis() - base;
}
}
}
```
По всей видимости, это что-то очень древнее, поскольку, например в java.util.concurrent.ExecutorService, используется уже System.nanoTime.
Этот же вопрос также очень актуален для различных сторонних библиотек, а уже сколько измерений длительности на базе System.currentTimeMillis() реализовано в самописном коде — просто не сосчитать.
Время при тестировании
======================
Не буду растекаться по древу в этом вопросе — просто расскажу про свой успешный опыт в уже упомянутом вначале проекте восьмилетней давности.
Проект был достаточно ответственным — деньги, баллы, сложная бизнес-логика, откаты операция по таймаутам, смена статусов по истечении времени и все подобное.
Разработчиков было два: я и фронтендер, тестировщиков не было вообще. На сервере у нас был фреймворк для IoC, инжекции, принципы low-coupling и high-cohesion. Не то, что бы это был необходимый запас для разработки. Но если начал читать соответствующие книги, становится трудно остановиться. Единственное что вызывало у меня опасение — это тесты. Нет ничего более беспомощного, безответственного и испорченного, чем разработчик начавший писать тесты. Но я знал, что рано или поздно мы перейдем и на эту дрянь.
В общем, я сразу же решительно завел интерфейс:
**org.myproject.Chronometer**
```
public interface Chronometer {
Date getCurrentMoment();
long getCurrentMs();
long getCurrentTicks();
}
```
Этот интерфейс инжектится практически везде, где нужно текущее время. Класс для отслеживания длительности (org.myproject.Timer) получает этот интерфейс в конструктор.
Самое тяжелое при таком подходе — помнить, что можно, а что нельзя:
**Можно и нельзя**
```
# Так нельзя
user.setCreated(new Date());
user.setModified(new Date());
# Так можно
Date now = chronometer.getCurrentMoment();
user.setCreated(now);
user.setModified(now);
# Так нельзя
Calendar calendar = Calendar.getInstance();
calendar.add(Calendar.DAY_OF_YEAR, -3);
Date expiration = calendar.getTime();
# Так можно
Calendar calendar = Calendar.getInstance();
calendar.setTimeZone(this.operationTimeZone)
calendar.setTime(chronometer.getCurrentMoment());
calendar.add(Calendar.DAY_OF_YEAR, -3);
Date expiration = calendar.getTime();
```
Полностью отследить такие куски конечно можно только в своем личном коде, но нам важно чтобы этот правильный подход реализовывался в коде отвечающем за персистентность и бизнес-логику.
При обсуждении вопросов тестирования никак невозможно не вспомнить про базы данных.
**Удаление устаревших записей**
```
# Плохой вариант - нетестируем вообще
DELETE FROM records
WHERE created <= DATE_SUB(NOW(), INTERVAL 30 DAY)
# Вариант уже тестируем - но все равно не очень хорошо
DELETE FROM records
WHERE created <= DATE_SUB(:now, INTERVAL 30 DAY)
# А так надо - параметр полностью вычисляется в бизнес логике и/или тестах
DELETE FROM records
WHERE created <= :expiration
```
При таком подходе, если он корректно реализован везде, все автотесты можно отправить в любое время — весь код можно легко выполнить в 1953 году или в 2312:
**Пример теста**
```
// Устанавливаем "текущее" время
mockChronometer.setCurrentTime("2120.06.10 15:33:11");
// Сохраняем запись с параметрами относительно "текущего" времени
Period period = new Period();
period.setStart(TimeUtils.parse("2120.06.01 00:00:00"));
period.setEnd(TimeUtils.parse("2120.07.01 00:00:00"));
period.setIndex("wdwwddwwdw");
period.setType(PeriodType.MONTH);
period.setDescription("efefef");
periodsDao.save(period);
// Что-то проверяем - вся логика будет думать что сейчас на часах "2120.06.10 15:33:11".
// Время не двигается, пока мы его не сдвинем вручную.
// Поэтому в самом коде теста мы можем делать что-угодно и сколь угодно долго (готовить данные например).
checkSomething1();
// ... прошло 2 дня и еще немного
mockChronometer.setCurrentTime("2120.06.12 15:38:14");
// Проверка того как код реагирует на повторный вызов по истечению времени
checkSomething2();
```
Если вы уже ткнули пальцем в монитор и сказали мне кг/ам за то, что я не поставил временную зону в вызовах MockChronometer и TimeUtils — то тогда вот мой вам респект. Оставлять их в тестах на откуп текущей временной зоне — значит сделать тест хрупким. На самом же деле оба класса по-умолчанию оперируют в временной зоне UTC всегда, когда зона не указана специально в аргументах методов.
В Java 8 в новом Date Time API появился интерфейс [java.time.Clock](https://docs.oracle.com/javase/8/docs/api/java/time/Clock.html), который введен ровно для тех же целей — но я не уверен, что общественность это уже оценила.
Альтернативный подход — запускать тесты в отдельной [JVM с указанием агента](http://habrahabr.ru/post/230239/), который будет производить инструментацию кода с целью перехвата вызовов к System.nanoTime() и System.currentTimeMillis(). Такой подход я не пробовал, а беглый поиск готовых решений [не](http://stackoverflow.com/questions/17398279/is-it-possible-to-freeze-system-currenttimemillis-for-testing) [предлагает](http://stackoverflow.com/questions/2001671/override-java-system-currenttimemillis-for-testing-time-sensitive-code). Более здравым вариантом кажется простой препроцессинг исходного кода в процессе сборки — замена вызовов System.nanoTime(), System.currentTimeMillis(), new Date(), Calendar.getInstance() на вызовы к своему классу.
Spring Framework
================
8 лет назад в Spring был LocaleResolver, но не было TimezoneResolver (что, как мне кажется, вполне характеризует общее отношение к проблеме). Пришлось написать свой комплект, а заодно сделать сабкласс DispatcherServlet.
После не очень многочисленных, но достаточно настойчивых [просьб сообщества](https://jira.spring.io/browse/SPR-1528) (моих в том числе), [штатный резолвер временной зоны](https://docs.spring.io/spring/docs/current/javadoc-api/org/springframework/context/i18n/TimeZoneAwareLocaleContext.html) запроса был введен в 4-й версии фреймворка.
MVC
===
Отдельный вопрос — как, зная временную зону в контроллере, правильно установить ее для шаблонизатора.
В FreeMarker предусмотрена специальная [настройка](http://freemarker.incubator.apache.org/docs/ref_directive_setting.html) для текущего рендеринга:
```
<#setting time_zone="Europe/Moscow">
```
Для JSP также можно указать временную зоны индивидуально для [одиночного вывода](http://www.tutorialspoint.com/jsp/jstl_format_formatdate_tag.htm) или сразу для [всего блока](http://www.tutorialspoint.com/jsp/jstl_format_settimezone_tag.htm):
```
```
В Velocity тоже [что-то есть](https://velocity.apache.org/tools/devel/javadoc/org/apache/velocity/tools/generic/DateTool.html#format%28java.lang.String,%20java.lang.Object,%20java.util.Locale,%20java.util.TimeZone%29), но я лично не пробовал.
Хранение времени в БД
=====================
Самый бронебойный способ хранения временной точки в БД — эта передача значения java.util.Date#getTime() в базу в виде простого числового long-значения Unix-time. Соответственно при чтении мы преобразуем long в java.util.Date с помощью конструктора. Это можно сделать в конверторах Hibernate или RowMapper'ах. База данных в этом случае ничего не знает про время, поэтому никаких внезапных эффектов мы получить не сможем. Если очень надо вывести временную точку в виде метки, то, например в MySQL, всегда можно вызвать метод FROM\_UNIXTIME.
Такой способ подходит, если в запросах в БД и/или в хранимых процедурах нет операций с временем. Если же такие операции есть (чего, для простоты разработки, лучше конечно бы избегать), то вы уже в курсе, что без временной зоны они не проходят. В этом случае, надо понять какая именно временная зона действует в ходе операции преобразования или ввода/вывода:
* временная зона указанная по-умолчанию для сервера;
* временная зона указанная по-умолчанию для СУБД;
* временная зона указанная по-умолчанию для базы данных;
* временная зона указанная по-умолчанию для таблицы;
* временная зона указанная по-умолчанию для соединения;
* временная зона хранящаяся в ячейке вместе с временной меткой.
Я ни в коем случае не хочу сказать, что не надо хранить время в специально предназначенных для этого типах. Просто вариант с прямым хранением long очень сложно как-либо сломать (я не смог придумать как) и такой способ никак не зависит от типа хранилища.
При хранении времени в специально предназначенных для этого типах нужно обязательно проверить, что при указанных настройках БД и ее драйвера указанное значение времени пишется, читается и выводится в родной консоли управления этой БД консистентно даже при смене часовых поясов на ходу.
Неконсистентность может быть вызвана тем, что БД на самом деле может хранить временную метку, а не точку. Например в случае MySQL для хранения времени существуют два стандартных типа: TIMESTAMP and DATETIME.
Судя по официальной документации, TIMESTAMP хранит именно временную точку и, получив значение «2015-01-01 12:00:00 MSK» от клиента в московской временной зоне, вернет «2015-01-01 09:00:00 UTC» для другого клиента во временной зоне UTC, что соответствует одной временной точке и совершенно правильно по своей сути. А с типом DATETIME, получив от MSK-клиента «2015-01-01 12:00:00 MSK», сервер MySQL вернет UTC-клиенту «2015-01-01 12:00:00 UTC», что соответствует уже другой временной точке и все дальнейшие расчеты будут неверными.
Проверим MySQL. Сначала все подготовим:
**Запуск БД**
```
$ sudo docker run --name mysql-time -e MYSQL_ROOT_PASSWORD=root -d mysql/mysql-server:5.7
$ sudo docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
82bb3eebc8bc mysql/mysql-server:5.7 /entrypoint.sh mysq 5 minutes ago Up 5 minutes 3306/tcp mysql-time
$ sudo docker exec -it 82bb3eebc8bc bash
[root@82bb3eebc8bc /]# TZ=Europe/Moscow mysql -u root -p
Enter password:
mysql> CREATE DATABASE test;
Query OK, 1 row affected (0.00 sec)
mysql> use test;
Database changed
mysql> CREATE TABLE dates (id INTEGER, t1 TIMESTAMP, t2 DATETIME);
Query OK, 0 rows affected (0.02 sec)
```
Устанавливаем в сессии зону «Europe/Moscow» и создаем запись:
**Europe/Moscow**
```
mysql> SET time_zone = 'Europe/Moscow';
Query OK, 0 rows affected (0.00 sec)
mysql> SELECT @@session.time_zone;
+---------------------+
| @@session.time_zone |
+---------------------+
| Europe/Moscow |
+---------------------+
1 row in set (0.00 sec)
mysql> INSERT INTO dates VALUES (1, '2015-01-01 12:00:00', '2015-01-01 12:00:00');
Query OK, 1 row affected (0.00 sec)
mysql> SELECT * FROM dates WHERE id = 1;
+------+---------------------+---------------------+
| id | t1 | t2 |
+------+---------------------+---------------------+
| 1 | 2015-01-01 12:00:00 | 2015-01-01 12:00:00 |
+------+---------------------+---------------------+
1 row in set (0.00 sec)
```
Меняем временную зону сессии на «UTC» и читаем запись снова:
**UTC**
```
mysql> SET time_zone = 'UTC';
Query OK, 0 rows affected (0.00 sec)
mysql> SELECT @@session.time_zone;
+---------------------+
| @@session.time_zone |
+---------------------+
| UTC |
+---------------------+
1 row in set (0.00 sec)
mysql> SELECT * FROM dates WHERE id = 1;
+------+---------------------+---------------------+
| id | t1 | t2 |
+------+---------------------+---------------------+
| 1 | 2015-01-01 09:00:00 | 2015-01-01 12:00:00 |
+------+---------------------+---------------------+
1 row in set (0.00 sec)
```
Видим, что временная метка поля t1 изменилась — как и должно быть, а временная метка для поля t2 при смене временной зоны не изменилась и теперь соответствует другой точке на числовой оси.
Для большинства БД существуют специфичные типы, которые хранят только дату и только время. Такие типы невозможно привести к временной точке, не указав временную зону (о чем мы уже знаем), но также необходимо дополнить эти значения недостающей частью (временем или датой соответственно). На самом деле, можно и не приводить такие типы к временным точкам, если в этом нет никакой необходимости — например в случае простого вывода дня исторического события. Просто нужно помнить, что это метка (или даже ее часть), а не временная точка на оси.
Многие БД имеют разновидности типов, которые кроме самой временной точки хранят дополнительную и информацию о временной зоне в которой она была введена. Например, это может быть полезно, если нужно знать какая именно временная зона была первична для этого значения.
NTP
===
Вне зависимости от причин, по которым локальное время в системе отклоняется от реального, на помощь приходят сервисы поставки точного времени с различными протоколами, самый популярный из которых — это протокол [NTP](https://ru.wikipedia.org/wiki/NTP).
Атомные часы — достаточно дорогое удовольствие, поэтому чтобы не перегрузить связанные с ними сервера, в NTP выстраивается [целая иерархия](http://habrahabr.ru/post/79461/) для обслуживания запросов рядовых пользователей.
Клиент регулярно опрашивает сразу несколько сервисов точного времени в разных подсетях одновременно, [производит компенсацию](https://en.wikipedia.org/wiki/Network_Time_Protocol#Clock_synchronization_algorithm) времени потраченного на отправку и прием UDP датаграмм, откидывает значения являющиеся выбросами и затем усредняет их [специальным алгоритмом](https://ru.wikipedia.org/wiki/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC_%D0%9C%D0%B0%D1%80%D0%B7%D1%83%D0%BB%D0%BB%D0%BE).
[Заявляется](https://ru.wikipedia.org/wiki/NTP), что при использовании в публичных сетях возможная точность синхронизации может достигать 10мс.
Уведомления
===========
В большинстве сервисов мобильные уведомления (пуши и СМС) можно поделить на два класса: срочные (сообщения, новые дружбы, платежи) и несрочные (промо, реклама, предложения, изменения регламента). Первые пользователь скорее всего ожидает получить сразу же при наступлении события, для вторых же события как такового может и не быть, и пользователя лучше беспокоить в комфортное для него время. Комфортным временем по-умолчанию можно считать например период с 10 утра до 20 вечера. Если это критично, комфортное время можно позволить указывать вручную индивидуально.
Так или иначе, этот период мы обязаны трактовать в какой-то временной зоне и вполне очевидно, что это будет временная зона пользователя. В принципе, если сервис работает только для какой-то ограниченной территории (например для одного города) все это можно не учитывать и считать, что временная зона всех пользователей совпадает с временной зоной сервера, но для распределенных сервисов этого недостаточно.
Поэтому временную зону необходимо сохранять для фоновых задач — как минимум индивидуально для пользователя, а еще лучше отдельно для каждого устройства пользователя. В современных реалиях одна и та же учетная запись приложения может использоваться сразу на нескольких устройствах: например на стационарном Android TV, который всегда находится дома в Москве; и на Android-планшете, которые уезжает вместе с пользователем в отпуск в Таиланд. Поэтому возможно, что уведомления на оба устройства придется отсылать в разное время. Имея временную зону пользователя и комфортное для него время, всегда можно рассчитать точку на временной оси, когда мы можем начать его спамить.
**Пример**
```
Date now = chronometer.getCurrentMoment();
TimeZone timeZone = userDeviceRecord.getTimeZone();
Calendar calendarFrom = Calendar.getInstance(timeZone);
calendarFrom.setTime(now);
calendarFrom.set(Calendar.HOUR_OF_DAY, comfortHourFrom);
Calendar calendarTill = Calendar.getInstance(timeZone);
calendarTill.setTime(now);
calendarTill.set(Calendar.HOUR_OF_DAY, comfortourHourTill);
if (now.after(calendarTill.getTime())) {
calendarFrom.add(Calendar.DAY_OF_YEAR, +1);
}
long delayMs = Math.max(calendarFrom.getTime().getTime() - now.getTime(), 0);
notificationService.sendNotificationWithDelay(msg, delayMs);
```
A.M. / P.M.
===========
Я предполагаю, что тут нет людей, которые бы уже не поняли, что речь идет о [12-часовом представлении](https://ru.wikipedia.org/wiki/12-%D1%87%D0%B0%D1%81%D0%BE%D0%B2%D0%BE%D0%B9_%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%82_%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%B8) временных меток.
Но не только лишь все знают, как именно переводятся эти аббревиатуры: a.m. (лат. ante meridiem дословно — «до полудня») и p.m. (лат. post meridiem дословно — «после полудня»).
А сюрпризом для многих будет то, что полночь — это не 12pm и даже не 0am, а очень даже 12am. Аналогично, полдень — это не 12am и не 0pm, а 12pm. В таких обозначениях путаются даже жители привычных к такому формату стран, поэтому придумывают [различные трюки](https://ru.wikipedia.org/wiki/12-%D1%87%D0%B0%D1%81%D0%BE%D0%B2%D0%BE%D0%B9_%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%82_%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%B8#.D0.9F.D1.80.D0.BE.D0.B1.D0.BB.D0.B5.D0.BC.D1.8B_.D0.B2_.D0.BE.D0.B1.D0.BE.D0.B7.D0.BD.D0.B0.D1.87.D0.B5.D0.BD.D0.B8.D1.8F.D1.85_.D0.BF.D0.BE.D0.BB.D1.83.D0.B4.D0.BD.D1.8F_.D0.B8_.D0.BF.D0.BE.D0.BB.D1.83.D0.BD.D0.BE.D1.87.D0.B8).
Часы реального времени
======================
На любой железке с любой архитектурой есть специальный чип с подключенной батарейкой — это [часы реального времени](https://ru.wikipedia.org/wiki/%D0%A7%D0%B0%D1%81%D1%8B_%D1%80%D0%B5%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%B8) или в терминологии Linux «The Hardware Clock».

Они бесшумно тикают своими электронами вне зависимости от внешних условий: подано ли основное питание на системный блок, установлена ли операционная система, а также от наличия или отсутствия каких-либо ваших действий. Их ход прерывается только после того как энергия в батарейке иссякнет, что на самом деле произойдет с вашим оборудованием [достаточно нескоро](https://www.maximintegrated.com/en/design/tools/calculators/product-design/battery.cfm).
Для управления часами Hardware Clock (фактически для отправки команд в этот чип) в Linux существует специальная команда hwclock. Поскольку она напрямую общается с оборудованием (как правило это /dev/rtc), выполнять ее нужно с правами root.
```
$ sudo hwclock
Wed 30 Dec 2015 17:59:12 MSK -0.328637 seconds
```
Команда автоматически приводит время полученное из Hardware Clock к временной зоне системы. Но что это за странное смещение в конце вывода?
Дело в том, что на самом деле в ядре Linux есть еще другие, свои собственные часы (The System Time). Ядро Linux считывает показания с чипа один раз, в начале загрузки ядра, после чего тикает уже само по себе в ходе прерываний. Скорее всего это сделано по одной простой причине — читать данные с железного чипа Hardware Clock по последовательной шине на каждый пользовательский запрос относительно долго, поэтому проще вести свой локальный, исключительно программный счетчик. После того как ядро Linux прочитало значение с Hardware Clock, с последними теоретически можно производить любые операции — на время в приложениях это никак не повлияет.
Таким образом в системе параллельно тикают двое часов — настоящие электронные часы и программные часы в ядре. Между ними неизбежно возникает разница, которая и отображена в выводе команды hwclock
Есть два варианта решения этой проблемы (а для кого-то это и вовсе не проблема).
Рассмотрим первый вариант, предположив также что система не подключена к сети. Поскольку железные часы Hardware Clock работают круглыми сутками без каких либо перерывов — то и ошибаются они в среднем на одну и ту же величину каждый день. Утилита hwclock может нивелировать это через специальный механизм коррекции при чтении значения из чипа. Пользователю достаточно два раза установить Hardware Clock с каким-то существенным промежутком времени между установками. Утилита hwclock сама посчитает на сколько именно ошибаются Hardware Clock в течении суток, после чего сохранит эту величину в файле /etc/adjtime. После этого мы можем периодически читать значение из Hardware Clock и устанавливать значение System Time по нему, при этом утилита сама произведет коррекцию накопленной ошибки на сохраненную ранее величину дневной ошибки.
Второй вариант предполагает, что у нас есть какой-то способ периодической правильной установки System Time в ядре. Скорее всего, это какой-то внешний источник точного времени, с помощью которого мы можем приводить System Time в актуальное состояние. Все что остается после этого — попросить ядро периодически (раз в 11 секунд) скидывать верное значение ядра System Time в чип Hardware Time.
Подробнее обо всем этом можно прочитать в [мануале команды hwclock](http://linux.die.net/man/8/hwclock).
Также наверное стоит рассказать о том, что система Linux может интерпретировать значения из Hardware Clock двумя способами. Связано это с тем, что Hardware Clock хранит время в [виде счетчиков yyyy, MM, dd, HH, mm, ss](https://wiki.archlinux.org/index.php/Time#Hardware_clock_and_system_clock). А как было уже сказано выше, без временной зоны эти счетчики нельзя привязать к точке на временной оси.
На самом деле тут всего два варианта: это будет или UTC, или локальная временная зона (та, что установлена в операционной системе по-умолчанию).
Для начала зайдите в BIOS и посмотрите на часы в главном меню. Сравните показания часов в BIOS и своих наручных часов, если они совпадают, то у вас часы BIOS идут по локальному времени (поздравляю — скорее всего у вас Windows компьютера); а если не совпадают, то часы BIOS установлены во временной зоне UTC (или другой вариант — они идут неправильно).
Windows по умолчанию требует, чтобы время в чипе Hardware Clock соответствовало локальному времени. А Linux легко может работать как с локальным временем в Hardware Clock, так и временем по UTC (последнее предпочтительнее). Поэтому, как правило, при двойной загрузке системы часы в BIOS идут по локальному времени специально для Windows, а Linux к этому приспосабливается.
Посмотреть текущий режим в Debian/Ubuntu можно так:
```
$ cat /etc/default/rcS | grep UTC
# assume that the BIOS clock is set to UTC time (recommended)
UTC=yes
```
Хаки времени
============
Если нужно заставить какую-то программу думать, что в данный момент для нее время отличается от времени всей системы, то в репозиториях Ubuntu/Debian уже есть [утилита faketime](http://manpages.ubuntu.com/manpages/wily/man1/faketime.1.html), которая перехватывает и модифицирует системные вызовы.
```
$ date
Wed Dec 30 22:53:11 MSK 2015
$ faketime -f '+2y' date
Fri Dec 29 22:53:39 MSK 2017
```
День рождения
=============
Если кто-то скажет, что родился «15 апреля», мы получим возможность поздравлять этого человека с днем рождения каждый год. Если он скажет, что родился «15 апреля 2001 года», мы получим возможность узнать еще и его возраст. Но и в том, и другом случае это никак не соответствует никакой временной точке на оси. Во-первых, не указано время рождения. Во-вторых, не указана временная зона рождения. Хотя, теоретически, временную зону даты рождения можно узнать, если указано точное место рождения.
Как именно нам рассчитывать временную точку в которую мы можем отправить поздравления самому пользователю, а в какую временную точку отправлять уведомления о его дне рождения его друзьям? Как вариант, можно предложить следующее:
* Отправка нотификации пользователю — t(u). Поскольку временная зона рождения нам неизвестна, используем текущую временную зону пользователя. Поскольку время рождения неизвестно, используем комфортное для пользователя время.
* Отправка нотификации другу — t(f). Также комбинируем дату рождения пользователя, временную зону друга и комфортное время друга.
**Japan-France**
```
@Test
public void testBirthday() throws Exception {
TimeZone japanTz = TimeZone.getTimeZone("Japan");
Calendar japanCalendar = Calendar.getInstance(japanTz);
japanCalendar.setLenient(false);
japanCalendar.setTimeInMillis(0);
japanCalendar.set(2016, Calendar.APRIL, 15, 9, 0, 0);
System.out.println("Japan 2016-04-15 09:00:00: " + japanCalendar.getTimeInMillis());
japanCalendar.set(2016, Calendar.APRIL, 15, 21, 0, 0);
System.out.println("Japan 2016-04-16 21:00:00: " + japanCalendar.getTimeInMillis());
TimeZone franceTz = TimeZone.getTimeZone("Europe/France");
Calendar franceCalendar = Calendar.getInstance(franceTz);
franceCalendar.setLenient(false);
franceCalendar.setTimeInMillis(0);
franceCalendar.set(2016, Calendar.APRIL, 14, 9, 0, 0);
System.out.println("France 2016-04-14 09:00:00: " + franceCalendar.getTimeInMillis());
franceCalendar.set(2016, Calendar.APRIL, 14, 21, 0, 0);
System.out.println("France 2016-04-14 21:00:00: " + franceCalendar.getTimeInMillis());
franceCalendar.set(2016, Calendar.APRIL, 15, 9, 0, 0);
System.out.println("France 2016-04-15 09:00:00: " + franceCalendar.getTimeInMillis());
franceCalendar.set(2016, Calendar.APRIL, 15, 21, 0, 0);
System.out.println("France 2016-04-15 21:00:00: " + franceCalendar.getTimeInMillis());
}
```
```
Japan 2016-04-15 09:00:00: 1460678400000
Japan 2016-04-16 21:00:00: 1460721600000
France 2016-04-14 09:00:00: 1460624400000
France 2016-04-14 21:00:00: 1460667600000
France 2016-04-15 09:00:00: 1460710800000
France 2016-04-15 21:00:00: 1460754000000
```

Время t(f) может быть сильно больше чем время t(u) — например, если пользователь находится в Японии, а его друг — в Европе. В этом случае получается, что к моменту, когда другу в Европе рано утром придет уведомление, сам пользователь в Японии уже возможно закончит праздновать свое ДР. В таком случае можно сдвинуть время уведомления друга на день назад, а во фразу уведомления добавить слово «завтра».
Пограничный возраст
===================
Есть еще один, крайне интересный для меня момент, уже юридического характера. Есть целый ряд граничных возрастов: возраст совершеннолетия, возраст сексуального согласия, возраст уголовной ответственности.
Предположим, что некто родился в 2000.01.10 00:00:01 во Владивостоке. Совершил нетяжкое преступление 2016.01.09 23:59:59 в Москве. По записи дня рождения в паспорте (2000.01.10) и дня преступления в протоколе (2016.01.09) получается что 16 лет человеку еще не исполнилось. Однако 2016.01.09 23:59:59 в Москве — это уже будет 2016.01.10 во Владивостоке (где он родился) и тогда 16 лет ему уже есть. В обратной ситуации, человеку родившемуся в Москве и совершившему преступление во Владивостоке уже исполнится 16, а вот если посчитать по московскому времени — получается что еще нет.
Для устранения этого казуса в судебной практике [используется норма](http://citizen.joosy.ru/questions/240219-%D0%9A%D0%BE%D0%B3%D0%B4%D0%B0-%D1%8E%D1%80%D0%B8%D0%B4%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8-%D0%BD%D0%B0%D1%87%D0%B8%D0%BD%D0%B0%D0%B5%D1%82%D1%81%D1%8F-%D1%81%D0%BE%D0%B2%D0%B5%D1%80%D1%88%D0%B5%D0%BD%D0%BD%D0%BE%D0%BB%D0%B5%D1%82%D0%B8%D0%B5--%D0%B2-%D0%B4%D0%B5%D0%BD%D1%8C-%D1%80%D0%BE%D0%B6%D0%B4%D0%B5%D0%BD%D0%B8%D1%8F-%D0%B8%D0%BB%D0%B8-%D0%BD%D0%B0-%D1%81%D0%BB%D0%B5%D0%B4%D1%83%D1%8E%D1%89%D0%B8%D0%B9-%D0%B4%D0%B5%D0%BD%D1%8C-), при которой активация прав/ответственности наступает с 00:00:00 в день, следующий за ожидаемым. То есть уголовная ответственность наступит в 2016.01.11 00:00:00 по месту совершения события — в этом случае человеку точно будет 16 лет, где бы он не находился.
Выводы
======
* Не игнорируйте таймзону
* Если у вас почти готова машина времени, то я не рекомендую использовать стандартную библиотеку Java для точного расчета смещения в прошлое. Точные путешествия в будущее по временным меткам невозможны в принципе.
* Также текущая версия JDK не подходит для написания внутренних систем планирования на космических кораблях Галактической империи.
[Вторая часть статьи](http://habrahabr.ru/post/274905/) — про новое Date Time API в Java 8. | https://habr.com/ru/post/274811/ | null | ru | null |
# Что такое dinghy или как ускорить docker

Однажды я заглянул на Хабр, чтобы посмотреть как разработчики используют динги (dinghy) и вообще ускоряют работу докера на маке. На моё удивление по запросу динги я нашёл ровно ноль статей. Было бы нечестно не упомянуть, что тот же запрос вывел 4 комментария. С другой стороны этот факт не изменил картины в целом.
Так вышло, что динги очень удачно вписался в мой технологический стек, а так же помог мне решить некоторые проблемы, самые важные из которых:
* Производительность докера на osx
* Запуск нескольких контейнеров, которые работают на порте 80
Под катом более подробное описание вышеперечисленных проблем, а так же способы их решения.
Проблема 1: низкая производительность докера на маке
----------------------------------------------------
Поскольку докер написан поверх линуксовсого ядра, для других ОС необходимо использовать виртуальные машины. Это, в свою очередь, негативно сказывается на производительности вашего рабочего окружения. Действительно, теперь, чтобы ваши изменения попали в контейнер вам необходимо предпринять дополнительные шаги.
### Docker toolbox

Если у вас небольшой проект, то возможно вас устроит [докер тулбокс](https://www.docker.com/products/docker-toolbox). В комплекте с ним находится [бут ту докер](http://boot2docker.io/) в качестве виртуальной машины. В этом случае, вам так же необходимо иметь виртуал бокс, где данная виртуальная машина и будет запущена.
В моём случае тулбокс оказался достаточно медленным. Данный инструмент хорошо подходит для запуска «статических» контейнеров. Когда же нужно интенсивно разрабатывать приложение, необходимо создавать mounted volumes (уже давно пытаюсь найти русский эквивалент, есть идеи?) вашей рабочей директории, то есть директории с кодом вашего приложения. И вот тут начинаются проблемы. Выяснив, что тулбокс не использует ни NFS ни rsync, я стал искать другие решения.
*Преимущества:*
— легко устанавливается и настраивается
*Недостатки:*
— медленный при разработке больших проектов
### Docker for mac

В отличие от тулбокса, докер для мака не использует виртуал бокс. В качестве слоя виртуализации он использует HyperKit. Особенность — вы можете использовать только одну виртуальную машину. Впрочем, если необходимо, вы можете запустить докер для мака параллельно с тулбоксом.
К сожалению, докер для мака оказался ещё медленней. Никакого очевидного (и неочевидного) способа как ускорить сие приложение я не нашёл.
*Преимущества:*
— ещё легче устанавливается и настраивается
*Недостатки:*
— ужасно медленный
### docker-osx-dev
Хорошее решение для ускорения работы на локальных машинах при работе с тулбоксом. [Docker-osx-dev](https://github.com/brikis98/docker-osx-dev) использует rsync, что значительно ускоряет отправку изменений в контейнер. Недостатком данного решения можно назвать «раздутый» размер контейнера, поскольку сами файлы копируются в контейнер.
Поэтому, используя данный подход, необходимо позаботиться о виртуальной машине с увеличенным объёмом памяти. Кэши, билды, логи — всё будет увеличивать объём памяти.
Другим недостатком я бы назвал процесс, висящий в терминале. Бэкграунд режим по умолчанию не поддерживается.
*Преимущества:*
— значительно ускоряет перенос файлов в контейнер
*Недостатки:*
— висящий процесс
— раздувает размер контейнера
### Dinghy
[Dinghy](https://github.com/codekitchen/dinghy) — это надстройка над докер машиной (docker-machine), которая включает в себя NFS и proxy (о котором мы поговорим чуть позже, cейчас нас интересует проблема производительности). А насколько мне известно, ничего быстрее NFS (в данном контексте) ещё не придумали.
Теперь, вместо создания и использования дефолтной или бут ту докер виртуальной машины, мы создаём динги машину. По умолчанию в ней уже будет включен NFS. Если вы не хотите использовать прокси, то можно его отключить в настройках динги, поставив соответствующий флаг в true:
```
cat ~/.dinghy/preferences.yml
:preferences:
:proxy_disabled: false
:fsevents_disabled: false
:create:
provider: virtualbox
disk: 30000
```
Недостаток: поскольку вы явным образом импортируете переменные окружения (например `export DOCKER_MACHINE_NAME=dinghy` и пр.), то использование обычных докер машин параллельно с динги может принести много хлопот.
*Преимущества:*
— скорость работы
— никаких дополнительных процессов
*Недостатки:*
— возможно потребуются дополнительные конфиги (docker-compose.yml)
— конфликт DOCKER\_MACHINE\_NAME с обычной докер машиной
Проблема 2: приложения на 80 порту
----------------------------------
После того, как мы ускорили работу своей рабочей среды, может появиться ещё одна проблема: необходимость иметь 2 и более контейнеров, работающие на 80 порту. Что за проблема, просто взять и заэкспойзить другой порт, — может сказать внимательный читатель. Действительно, зачастую данного решения бывает достаточно. Но иногда, конфигурация проектов достаточно сложна и запутана. В этих случаях необходимо иметь именно 80 порты.
Что же, хорошие новости, ведь в динги по умолчания включен прокси. Вместе с запуском виртуальной машины динги, вы можете заметить всегда запущенный контейнер:
```
169b86af85da codekitchen/dinghy-http-proxy:2.5 "/app/docker-entry..." 4 hours ago Up 4 hours 0.0.0.0:80->80/tcp, 0.0.0.0:443->443/tcp, 19322/tcp, 0.0.0.0:19322->19322/udp dinghy_http_proxy
```
Этот контейнер слушает на 80 порту и принимает все запросы на себя. Внутри этого контейнера имеется nginx сервер, который автоматически создаёт виртуальные сервера исходя из вашего docker-compose файла. Всё, что вам нужно, указать `hostname` в этом файле. Далее, при обращении на данный хост, динги найдёт нужную запись и перенаправит на нужный контейнер. Профит.
Заключение
----------
Изначально я планировал привести больше технических подробностей, примеры конфигураций и скриптов, но по ходу написания статьи понял, что ушёл немного в другое русло. К тому же она получилось бы слишком длинной, наверное. При этом я ответил на поставленные вопросы и очень надеюсь, что данная статья оказалась вам полезной и/или интересной.
Если у вас возник интерес по техническим деталям, оставляйте комментарии, постараюсь на всё ответить.
Спасибо за внимание.
*Обновление от 18.09:*
после обсуждения в комментариях с [umputun](https://habrahabr.ru/users/umputun/) удалил из недостатков докера для мака:
— только одна виртуальная машина, настраиваемся самим приложением | https://habr.com/ru/post/338198/ | null | ru | null |
# x-acl легковесная утилита для организации Access Control List (ACL)
Приветствую, хабра-сообщество!
У каждого проекта (веб-проекта) возникают вопросы по организации прав доступа. В данной области есть определенные готовые инструменты для различных фреймворков Zend, Symfony, Yii и т. д. Вероятно кто-то с чем-то сталкивался и в целом представляет себе, что это такое. Для тех же кто не сталкивался — советую открыть документацию любого из этих фреймворков и ознакомится. В частности автор поста очень плотно работал с Zend\_Acl. Но относительно недавно решил изучить вопрос ACL в области C++
#### Итак, с чего все началось...
Началось все весьма просто, есть самописный проект с неплохой нагрузкой (по этическим соображениям название его не называется, самописный он по историческим причинам, 200К уников). Проект, как в большинстве случаев «диктует традиция» написан на php. Организация списков доступа в нем, как таковая отсутствует — есть банальные условные операторы в случае какой «роли», что делать. Данные костыльные решения в принципе работают, но крайне не устраивают. Вооружившись поиском и здравым смыслом было принято решение создать не большую, легкую c++ утилиту, которой мне бы и хотелось поделится с сообществом.
#### Конфигурация прав доступа
Проанализировав детальнее зенд и идеологию списков доступа было понятно, что требования к утилите весьма простые, — она должна получить список прав и в зависимости от ситуации ответить разрешен ли доступ к тому, или другому ресурсу, кроме того, т. к. данный конфигурационный файл могут править системные администраторы — им должно быть легко ориентироваться что к чему. Из этих соображений был сделан выбор в сторону привычного конфигурационного ini файла. Пример:
`[guest]`
`view:news`
`view:comments`
Где **[guest]** — это роль пользователя, а **view:news** и **view:comments** — соответствующие ресурсы. Многие могут заинтересоваться, почему, допустим ресурс называется не comments:view, а наоборот view:comments — ответ прост, если условно поделить ресурсы в соответствии с CRUD бд, вы поймете, что не так много можно придумать вариантов, соответственно просматривая роли визуально сразу можно разделить, кто что смотрит, кто обновляет и т. д. Кроме того в таком формате становится возможным сделать так:
`[guest]`
`view:*`
Что в свою очередь означает — гостям разрешено все смотреть.
Просто, не правда ли?
Внимательный читатель, очевидно, уже успел заметить, что в названии ресурса присутствует символ двоеточие. Это условный обязательный разделитель с помощью которого можно делать такие штуки:
`[moderator]`
`edit:*:comments`
`# или`
`edit:news:comments`
`edit:wall:comments`
Утилита не навязывает группировку ресурсов и вы можете группировать, как считаете нужным и как больше подходит вашему проекту. Но наличия двоеточия между подгруппами позволяет более логично разделять составные части ресурса.
Простое разрешение неинтересно, очевидно мы можем и запрещать доступ к отдельным ресурсам:
`[user]`
`view:news:28 = deny`
Данным правилом мы запретили пользователю просматривать новость с ID 28
Описывать правила для каждой отдельной роли весьма утомительно, поэтому существует механизм наследования:
`[user : guest]`
В данном случае роль **user**, кроме своих правил, будет также содержать в себе правила от роли **guest**
Дополнительной фишкой на мой взгляд является возможность в конфигурации описать случай, когда пользователь может править свои комментарии. То есть только те, непосредственно которые он создал. Для этого используется символ **^**
Например:
`[user]`
`edit:comment:^`
Думаю, теперь понятнее выглядит, почему ж таки принудительно используется двоеточие на разбиение по подгруппам, ибо в данном случае вместо **^** будет подставляться ID комментария.
#### Как это работает
Как говорилось выше это утилита. Соответственно после её успешной компиляции можно выполнить в консоли:
`./x-acl --config x-acl.conf --group guest --resource view:news`
Спрашиваем есть ли доступ у гостевого пользователя к ресурсу view:news
`./x-acl --config x-acl.conf --group user --resource edit:comment:28 \`
`--user-id 4 --owner-id 4`
Спрашиваем есть ли доступ у роли user к ресурсу edit:comment:28, если кто забыл мы поставили правило edit:comment:^, — в данном случае стоит символ ^ поэтому идет проверка аргументов user-id и owner-id на равенство и если они равны (а они равны в данном примере) — доступ будет разрешен.
#### Где можно скачать и поиграться
[github.com/AlexeyParhomenko/x-acl](https://github.com/AlexeyParhomenko/x-acl)
#### Список подозреваемых вопросов :)
##### — Зачем изобретать свой велосипед, если есть готовые инструменты?
Автор знаком с некоторыми. Создать новый инструмент побудило:
1. Сделать acl более гибче под наши нужды;
2. Поднять профит по потреблению памяти, т. к. в данном случае в отличии от php нет создания громоздких Zval структур;
3. Поднять профит в скорости. Пока мы тестируем, но если окажется напряжным парсить конфиг каждый раз, — мы сможем перейти на сокетное решение;
##### — Планируется ли дальнейшая поддержка и фикс багов?
Естественно.
##### — Для каких ОС работает?
На наших серверах используется дебиан, как и у автора в виде рабочей среды, поэтому точно скажу, что на дебиане работает отлично. На других \*nix дистрибутивах должно работать также стабильно.
Очень приветствуются комментарии, т. к. хотелось бы понять насколько полезным может быть в дальнейшем данный инструмент. Либо, если я плохо искал и уже описанный функционал имеется — отправьте в гугл!
Замеченные ошибки/неточности в тексте или исходном коде буду рад выслушать в личке, либо, возможно, какие-то дальнейшие пожелания. | https://habr.com/ru/post/155099/ | null | ru | null |
# Допиливание exdupe.exe — шустрого дедуплицирующего архиватора
Какое-то время назад я столкнулся с неприятной проблемой — понадобилось бэкапить несколько виртуальных машин. Надо сказать, что бэкапить для меня — значит иметь в результате не только архив с последней копией, а небольшую кучку этих архивов, сделанных по заданной схеме. Батничек для архивации, понятное дело, был написан быстро и работал без нареканий, но размер… Размер комплекта бэкапов получался огромным. Особенно печалило то, что это были почти одинаковые виртуалки, и почти одинаковые бэкапы этих виртуалок. Так я узнал слово «дедупликация» и «дифф» и начал подыскивать какую-нибудь утилиту для сжатия с дедупликацией.
Разные утилиты предлагали разные подходы к сжатию близких по содержанию файлов, но общим оказалось одно — выбираешь один исходный файл и натравливаешь утилиту на остальные — она определяет разницу между исходным и остальными и архивирует результат, а когда нужно развернуть — указываешь исходный файл и архив с диффом, утилита сама всё развернет.
Короче, исходник нужно было где-то иметь в развернутом виде. Всё время — и в момент архивации, и в момент разархивирования. То есть «картина маслом» — у меня пяток виртуалок, я хочу сегодня сделать архив с разницей между сегодняшними виртуалками и вчерашними — я должен:
— со вчера заготовить полную копию всего хозяйства,
— потом запустить утилиту, она сделает дифф и архив диффа.
Теперь я хочу куда-то скопировать всё это — я же не буду вчерашние данные (исходные) перетаскивать в несжатом виде — мне придется заархивировать и исходник. Если завтра мне понадобится сделать дифф между вчера и завтра — исходник должен быть доступен в несжатом и нетронутом виде — либо копия вчерашнего состояния, либо архив, который придется разворачивать. Если мне потребуется развернуть архив на новом хосте — сначала нужно развернуть исходник, потом развернуть сам дифф.
Ну ладно место на диске — можно купить, но время! Такая куча времени уходит на разархивирование исходника! Но нашелся он — архиватор, который умел делать всё правильно — загонять исходник в архив, причем с дедупликацией, а потом делать диффы прямо со сжатого исходника, причем скорость архивации/разархивирования упирается в скорость жесткого диска. Клёво! Но под Windows 2003 не работает. Как вы понимаете, если бы всё работало само — я бы эту статью не писал.
Итак, теперь — амбула.
Архиватор называется exdupe, он был типа фриварный, с частично доступным исходным кодом. Частично — потому что библиотека дедупликатора линковалась статически, а выложен был код на утилиту командной строки (сейчас выложен весь код). Всё лежит в виде проекта под Visual Studio 2012. Запускалось всё только под 64 битной версией винды (у меня — Win2003), и при запуске выдавало ошибку:
> Entry Point Not Found
>
> The procedure entry point VssFreeSnapshotPropertiesInternal could not be located in the dynamic link library VSSAPI.DLL.
>
>

Исходник был тут же скачан с [сайта](http://www.exdupe.com/old) программы (я допиливал версию 0.5.0).
Причина ошибки — несовместимость версий библиотеки VSSAPI.dll у моей винды и у того либа, который был подключен в проекте.
Поковыряв исходник, я понял, что самый простой путь — просто отключить поддержку Shadow Copy — убрать вызовы библиотеки VSS и обкорнать функции, отвечающие за обращение к VSS. Надо сказать, код был написан прямыми руками, хоть и с ошибками, и функций оказалось всего две и находились они в файле «shadow\shadow.cpp».
Вот что мы делаем:
1. находим функцию void unshadow(void)
2. комментим строку 342:
```
VssFreeSnapshotProperties(&prop.Obj.Snap);
```
станет:
```
//removing shadowing
//VssFreeSnapshotProperties(&prop.Obj.Snap);
```
3. перед строкой 330
```
ULONG fetched = 0;
```
добавляем:
```
//remove shadowing
return 1;
```
4. находим функцию int shadow(vector volumes),
комментим строку 177:
```
hr = ::CreateVssBackupComponents(∁);
```
станет:
```
//remove shadowing
//hr = ::CreateVssBackupComponents(∁);
```
5. перед строкой 157:
```
// Initialize COM and open ourselves wide for callbacks by
// CoInitializeSecurity.
HRESULT hr;
```
втыкаем:
```
//remove shadowing
return 1;
```
Перед сборкой — рекомендую поменять имя экзешника в свойствах проекта, чтобы не перепутать с авторским «exdupe.exe». Типа «exdupe-050-noshadow.exe».
Собираем, запускаем — работает!
Алгоритм реально шустрый, конечно отжирает память и грузит ядра, но это можно настроить — мне комфортно запускать в два потока с ключиком "-t2". На обычном жестком диске дедупликация исходника со сжатием:
— 65.7 ГБ за 44 мин = 24.8 МБ/с
— сжал до 24.1 ГБ = коэффициент сжатия 0.37
дедупликация на следующий день
— время обработки 10 мин. 20 с. = 106 МБ/с
— дифф сжат до 2.1 ГБ
Отдельно скажу, что ограничение на запуск только из-под 64-битных версий ОС введено искусственно, и может быть отключено, при этом архивы, созданные 64-битной программой нормально разворачиваются 32-битной, правда рекордных скоростей тут и близко нет (и ждать не надо).
Бинарники и полные тексты проекта не выкладываю из-за ограничений лицензии.
Сайт утилиты exdupe — [www.exdupe.com](http://www.exdupe.com)
Исходники: [www.exdupe.com/old](http://www.exdupe.com/old) | https://habr.com/ru/post/206534/ | null | ru | null |
# Навигация внутри Android приложения
### Введение
При Андроид разработке мы используем разные архитектурные решения(паттерны). Например *Mvp*, *Mvvm*, *Mvi* и т.д… Каждый из этих паттернов решает несколько важных задач и поскольку они не идеальны они нам оставляют кое-какие нерешенные задачи. К примеру этих задач относятся навигация внутри приложения(routing), передача информации с экрана на экран(говоря экран я имею ввиду Activity, Fragment или View), Сохранение состояний приложения при смене конфигурации(configuration change).
В нашей компании мы тоже столкнулись с этими задачами, кое-какие были решены легким путем но первый из них так и не нашел конкретное решение, перепробовав различные методы его решения мы написали свою библиотеку [Flowzard](https://github.com/hakobast/flowzard).
### Задача
В нашей компании мы используем *Mvp* архитектуру. Чтобы иметь максимальную гибкость при показе, смене и передачи данных между экранами мы стараемся следовать принципу называемому [Single-responsibility principle](https://en.wikipedia.org/wiki/Single_responsibility_principle). Принцип гласит о том что каждый модуль должен решать конкретную задачу. В нашем случае экран должен быть изолирован от глобальной задачи и должен решать свою конкретную задачу показывать/принимать информацию. Он не должен знать о других экранах вообще. Так мы можем достичь максимальной гибкости. Ниже пример настройки и использования библиотеки.
Flowzard
--------
**Создание flow**
```
class MainFlow(flowManager: FlowManager) : Flow(flowManager) {
// Вызывается при создании или восстановлении flow
override fun onCreate(savedInstance: DataBunch?, data: DataBunch?) {
super.onCreate(savedInstance, data)
}
}
```
**Создание flow navigator**
Навигаторы выполняют две функции: Создают flow контейнеры(Activity, Fragment, View) для переходов между flow и экраны для переходов внутри flow.
```
class DefaultFlowNavigator(activity: AppCompatActivity) : SimpleFlowNavigator(activity){
// Вызывается при связывании flow с Activity
override fun getActivityIntent(id: String, data: Any?): Intent {
return when (id) {
Flows.SIGN_UP -> Intent(activity, SignupActivity::class.java)
else -> throw RuntimeException("Cannot find activity for id=$id")
}
}
}
```
**Привязывание к Activity**
Чтобы связать Activity с Flow мы наследуем FlowActivity и предоставляем Navigator, в нашем случае DefaultFlowNavigator.
```
class MainActivity : FlowActivity() {
override val navigator: Navigator
get() = DefaultFlowNavigator(this)
}
```
**Создание FlowManager**
```
class DefaultFlowManager : FlowManager() {
// Вызывается при создании главного(main) flow
override fun createMainFlow(): Flow {
return MainFlow(this)
}
// Вызывается при создании flow
override fun createFlow(id: String): Flow {
return when (id) {
Flows.SIGN_UP -> SignupFlow(this)
else -> throw RuntimeException("Cannot find flow for id=$id")
}
}
}
// Привязываем наш FlowManager к Application
class App : Application(), FlowManagerProvider {
private val flowManager = DefaultFlowManager()
override fun getProvideManager(): FlowManager {
return flowManager
}
}
```
**Передача сообщений между flow и экраном**
При нажатии кнопки login активити отправляет сообщение в main flow. Flow создает SIGN\_UP flow и ожидает ответа от него. При удачном логине SIGN\_UP flow отправляет результат в main flow и вызывается onFlowResult:MainFlow с кодом и объектом результата. Main flow проверяет, если результат правильный то отправляет сообщение обратно в активити, что пользователь удачно залогинился.
```
class MainFlow(flowManager: FlowManager) : Flow(flowManager) {
companion object {
const val LOGIN_REQUEST_CODE = 1
}
// вызывается при получении сообщений
override fun onMessage(code: String, message: Any) {
super.onMessage(code, message)
if (code == "main" && message == "login") {
newFlow(Flows.SIGN_UP, LOGIN_REQUEST_CODE)
}
}
// вызывается при получении результата от другого flow
override fun onFlowResult(requestCode: Int, result: Result) {
super.onFlowResult(requestCode, result)
if (requestCode == LOGIN_REQUEST_CODE && result is Result.SUCCESS) {
sendMessageFromFlow("main", true)
}
}
}
class MainActivity : FlowActivity() {
override fun onCreate(savedInstanceState: Bundle?) {
super.onCreate(savedInstanceState)
setContentView(R.layout.activity_main)
loginButton.setOnClickListener {
// отправляет сообщение “login” с кодом “main”
flow.sendMessage("main", "login")
}
// слушает сообщение с кодом “main”
setMessageListener("main") {
if (it is Boolean && it) {
statusTextView.text = "Logined"
}
}
}
}
```
### Сохранение состоянии при смене конфигурации или при остановке процесса операционной системой
Так как Андроид сохраняет стеки Activity и Fragment то созданные flow с этими контейнерами будут сохранять и восстанавливать свое состояние. С View контейнером нужно будет писать свой кастомный FlowManager так как библиотека пока еще не имеет такой менеджер. В следующем обновлении будет фича для сохранении промежуточных данных из flow.
**Так как не хотел чтобы в статье было много кода я ограничусь этим примером. Вот [ссылка](https://github.com/hakobast/flowzard) на репозиторий для подробного изучения библиотеки.** | https://habr.com/ru/post/435248/ | null | ru | null |
# Область видимости переменной в Javascript (ликбез)
Для меня одним из самых проблемных мест Javascript было управление переменными. Излагаю простым русским языком.
Области видимости переменных
----------------------------
Переменные в Javascript бывают глобальными и локальными. Глобальная переменная доступна везде, локальная — только в текущей области видимости.
Технически, глобальные переменные — всего лишь свойства объекта `window`, поскольку весь код выполняется в его контексте.
```
alert(location); // сообщит window.location
```
Из этого следует, что **глобальные переменные могут затирать свойства `window`** (я уже молчу о том, что они зло, нарушают инкапсуляцию и все такое).
Объявление переменных
---------------------
**При присвоении значения неопределенной локальной переменной используется или создается глобальная переменная.**
```
function foo() {
a = 2;
b = 3;
return a+b;
}
alert(a); // undefined
a = 'очень важное значение';
alert(a); // очень важное значение
foo();
alert(a); // 2
```
Таким образом можно легко затереть лишнего. По-моему такое поведение абсолютно нелогично, но, что ж, это не самое странное место яваскрипта. В любом случае **неявного определения переменных стоит избегать**.
**Явно объявлять переменные можно и нужно ключевым словом `var`.**
```
var a = 2;
```
Такая строка всегда создает новую локальную переменную. Если объявление происходит вне функций, то она будет глобальной, что вполне логично.
```
function foo() {
var a = 2;
var b = 3;
return a+b;
}
alert(a); // undefined
var a = 'очень важное значение';
alert(a); // очень важное значение
foo();
alert(a); // очень важное значение
```
Как объявить глобальную переменную из функции? Как обратиться к глобальной переменной, если есть локальная с таким же именем? Очень просто — нужно обратиться к ней как к свойству `window`:
```
function foo() {
var location = 'location';
alert(location); // вернет 'location'
alert(window.location); // вернет window.location
window.a = 'переменная из функции';
}
alert(a); // undefined
foo();
alert(a); // переменная из функции
```
Наследование области видимости
------------------------------
Меня всегда смущало то, что в Javascript можно определять функции внутри функций, а использовать их потом где угодно. *Ну да, если посмотреть, точно то же самое можно делать в Ruby, и, наверное, во многих других языках тоже.*
Переменные при этом передаются очень просто: если на момент определения функции переменная существовала, то она будет существовать и внутри функции. Откуда бы ее не вызывали.
```
function alertOnTimeout(message, timeout) {
return setTimeout(function() {
// message будет доступен в безымянной функции, переданной таймауту
alert(message);
}, timeout);
}
```
Передача кода по старинке — строкой, которая прогоняется через `eval()` — не попадает под это правило, код исполняется в той области видимости, где и определен.
Поскольку объекты в Javascript — это тоже типа функции, то свойство объекта определяется точно так же, как и переменная.
```
function myObject() {
var property = 0;
// Cамо собой, property будет доступно только внутри объекта.
}
```
А еще в Javascript область видимости переменной ограничивается только функциями, а не блоками типа `if` (привет, Паскаль). Потому удобнее всего объявлять переменные в начале функции.
`this`
------
А что `this`? А то, что эта переменная автоматически появляется в методах объектов и затирает значение this из предыдущей области видимости. Решение простое — переприсваивать ее значение другой переменной.
```
$('div.with-links').click(function() {
var theDiv = this; //сохраняем значение this
$(this).find('a').click(function() {
alert($(this).attr('href')); // this - это ссылка
theDiv.remove(); // а theDiv - это все еще дивак
});
});
```
Отдельно замечу, что при оборачивании какой-то поведенческой логики в объект надо помнить, что в создаваемых DOM-событиях значение this самого объекта теряется.
```
function myObject() {
var _this = this; // сохраняем ссылку на родительский объект
var linkRemoved = false;
$('a').click(function() {
$(this).remove(); // this - это объект ссылки
_this.linkRemoved = true; // _this - это родительский объект
});
}
``` | https://habr.com/ru/post/78991/ | null | ru | null |
# Кому на бюджете жить хорошо?

ВСТУПЛЕНИЕ
----------
```
В каком году — рассчитывай,
В какой земле — угадывай,
На столбовой дороженьке
Сошлись семь мужиков:
Семь временнообязанных,
Подтянутой губернии,
Уезда Терпигорева,
Пустопорожней волости,
Из смежных деревень:
Заплатова, Дырявина,
Разутова, Знобишина.
Горелова, Неелова —
Неурожайка тож,
Сошлися — и заспорили:
Кому живется весело,
Вольготно на Руси?
Н.Некрасов
```
Пару месяцев назад на одном IT мероприятии мне довелось лицезреть в работе Pandas. Парень, который с ним работал не делал ничего особенно удивительного. Но простые сложения значений, вычисления средних, группировки проиводились так виртуозно, что, даже при всей своей предвзятости к Питону, я был очарован. Манипуляции выполнялись на довольно приличных датасетах по данным капитального ремонта за период кажется с 2004 по 2019 год. Сотни тысяч строк, но все работало очень быстро.
В общем когда мне еще через пару месяцев пришлось кое-что анализировать, я решил попробовать сделать это с помощью Pandas. Провозился пару дней с тем, что с помощью Excel я бы смог сделать за день. Тем не менее мне удалось.
С апреля мы все сидим на карантине. Сидел я и думал, что бы мне такое сделать, чтобы не очень сложное и чтобы стильно и модно было. К тому времени я уже видел кучу всякой инфографики про коронавирус, про пожары в лесу, про выборы. Делать то, что уже делали не хотелось, да и браться сразу за сложное не решался, сомневаясь, что смогу закончить. Тут мне попалась какая-то статья про уже отшумевшее явление "barchart race" или по-русски "гонки столбчатых диаграмм". Вы можете подумать, что эта статья будет про barchart race. Да, но только отчасти. Barchart race будет только в конце, а статья скорее о том, как не обладая, какими-то выдающимися способностями и знаниями в области матана и прочей черной магии, можно сделать анализ ~~больших~~ данных и представить результат в доступной для широких масс форме. Итак, поехали.
Идея
----
Сами "гонки" мне уже не раз попадались в ленте Твиттера, тогда я даже не знал, что это вот называется гонками. А узнал я об этом, когда прочитал очередную статью, возможно даже здесь на Хабре. Не помню точно как это было, помню только, что я сильно воодушевился возможностью сорвать покровы и стать первооткрывателем. Идея сделать свою гонку на базе форм бюджетной отчетности по исполнению федерального бюджета. Я довольно давно так или иначе касаюсь сферы госфинансов, но годного сравнительного анализа мне видеть не доводилось, что сильно увеличивало шансы сделать что-то новое. Взять за источник формы бюджетной отчетности круто по двум причинам:
1. Эти бюрократические бумажки сильно формализованы, что делает их чуть ли не единственным государственным сырьем машиночитаемых данных.
2. Отчетность делается годами с монотонной регулярностью, те кто эту отчетность готовит в стопятидесятый раз вообще не переживает, что в ней может быть что-то ценное. Поэтому отчетность в свободном доступе на сайте Казначейства и Минфина.
План был такой:
Взять как можно более длинный временной диапазон данных об исполнении федерального бюджета России. Посмотреть из каких показателей можно сделать красочную гонку ну и сделать эту гонку.
Коротко о бюджетной классификации
---------------------------------
Как говорит наш президент: "Буду краток". Постараюсь только самую суть. Говорим только о бюджетных расходах. Все бюджетные расходы предусматриваются на какую-то конкретную цель. Эта запланированная цель отражается в коде бюджетной классификации.
КБК — 20-ти разрядный цифровой код, отражающий цель расходов, их экономический и функциональный характер. В теории, зная КБК каких-то определенных расходов, можно определить не только их цель но и способ их расходования (например, заработная плата), отрасль экономики и функцию государства, к которой расход относится и, наконец, ведомство через которое эти расходы будут производится.
По-умному это все называется функциональная, экономическая и ведомственная классификация бюджетных расходов. Структура КБК постоянно меняется, более или менее неизменными являются первые 7 разрядов КБК, а имено первые 3 — код ППП (перечень прямых получателей) разряды 4, 5 — раздел, 6, 7 — подраздел. Остальные разряды КБК меняются так часто, что даже не заглядывая в данные, можно быть уверенным, что сопоставить расходы даже двух соседних лет будет почти невозможно.
Сейчас структура КБК расходов федерального бюджета выглядит так:

* Ведомственная классификация
+ ППП — код ведомства
* Функциональная классификация
+ РЗ — раздел
+ ПР — подраздел
+ ЦСР — целевая статья расходов
- ГП — госпрограмма
- ПП — подпрограмма
- ОМ — основное мероприятие
- НП — направление расходов
* Экономическая класссификация
+ ВР — вид расходов
Классификация представляет собой иерархическую структуру, чем глубже ты погружаешься, тем более конкретными становятся расходы.
Мой первоначальный план был в том, чтобы сгруппировать расходы на уровне раздела и подраздела. Я наивно полагал, что бюрократам будет лень выдумывать новые коды и они из года в год будут использовать одни и те же. Я был прав только отчасти. Почти неизменными являются только коды ведомств. Пока ведомство существует оно имеет один и тот же код, когда ведомство умирает, его код уже не присваивается новому ведомству. Всего из 3 десятичных разрядов можно получить 10 в третьей степени вариантов, то есть тысячу комбинаций. Сейчас максимальный код у Министерства спорта. Номерок блатной три семерочки под силу пробить не каждому министру. Тут код пробивал еще сам Мутко. В бытность Госкомспорта это ведомство носило скромный номер 164. Именно с приходом Мутко Минспорта получило счастливые три семерки.
Часть первая. Наивная лобовая атака
-----------------------------------
Довольно быстро мне удалось собрать у Казначейства и Минфина различные формы бюджетной отчетности по исполнению бюджета. Мой выбор пал на отчет по форме ОКУД 0507011, отчетность по этой форме мне удалось найти с 2002 по 2019. Остальные формы отчета об исполнении бюджета начинались где-то с 2007 года.
Попытка сопоставить коды сразу по подразделам с треском провалилась, мне не удалось найти ни одного кода подраздела, который бы не изменил своего содержания с 2002 по 2019 год.
Например, код РЗПР 0501 в 2003 был кодом "Органы внутренних дел", а в 2006 уже "Жилищное хозяйство". Даже относительно стабильные коды в 01 разделе менялись. 0103 в 2002 году был "Функционирование исполнительных органов государственной власти", а в 2005 стал уже "Функционирование законодательных (представительных) органов государственной власти и местного самоуправления".
С разделами не получилось, но я был готов к такому повороту. Следующая попытка была сгруппироваться уровнем выше, по разделам, но и здесь меня ждал неприятный сюрприз. Раздел 02 успел побыть национальной обороной и судебной властью, а раздел 03 был и международной и правоохранительной деятельностью. Менялись не только коды но и названия поэтому привязаться по названиям тоже не получалось. Такого поворота я не ждал, работа остановилась на несколько дней.
Поковыряв матчасть я наткнулся на очень интересные международные документы. Оказывается международное сообщество, в лице ООН, ОЭСР и МВФ озабоченные необходимостью сбора и анализа данных по государственным финансам разработали и в 1986 году издали эпохальный документ под названием A Manual on Government Finance Statistics (GFSM 1986). <https://www.imf.org/external/pubs/ft/gfs/manual/1986/eng/index.htm>
Труд оказался настолько удачным, что изменения в него вносились лишь дважды: в 2001 году и в 2014 году. Именно GFSM 2014 является действующей редакцией.
В составе этого мануала в 4 части есть глава "Functional classification", в которой сформулирована функциональная классификация государственных расходов. Называется она Classicifation of the Functions of Government или сокращенно COFOG. По-русски это назвали Классификацией функций органов государственного управления (КФОГУ). КФОГУ это достаточно общая, чтобы быть универсальной для любой страны иерархическая классификация. Коды КФОГУ состоят из 4 разрядов: первые 2 разряда — раздел, 3 разряд это глава и 4 разряд это класс. Судя по некоторому сходству и в нумерации и по содержанию российского КБК с международным КФОГУ, наш Минфин пытается приблизить КБК к международной классификации. Попытки продолжаются как минимум с 2002 года. Минфин с завидным упороством год, через год меняет содержание разделов и подразделов КБК, не говоря уже обо всем остальном.
В результате в России нет ни собственной функциональной классификации, ни международной.
В общем я решил привязать подразделы наших КБК к этой международной классификации COFOG, чтобы потом сгруппировать расходы именно по разделам COFOG.
Учитывая, что разделы и подразделы в российском КБК постоянно меняются, привязывать коды COFOG я решил не к кодам КБК, а к названиям. Для этого я собрал перечень всех уникальных названий подразделов отечественного КБК и сматчил их через самое короткое расстояние Левенштейна. Результат получился не очень точный, ошибки пришлось исправлять вручную. Пару дней я возился расставляя в таблице названий российских подразделов КБК правильные коды КФОГУ. Как же я обломался, когда стало понятно, что сделать это вообще невозможно, потому что в России по подразделу "Другие расходы" могут проходить и расходы на армию и на экологию, а по разделу 01 (Общие расходы) прохотят расходы из тематических разделов. Понять из каких именно тематических разделом эти расходы можно только, если каждый подраздел рассматривать отдельно по каждому ведомству, что кратно увеличивает количество. Но главное, что я уже начал сопоставление без кодов ведомств. Тут я совсем приуныл. Анализ расходов нашего государства на решение своих социально-экономических задач не удался. Снова приуныл.
Думаю: "Гори оно огнем, сделаю хоть что-то!"
Часть вторая. О том как что-то получилось
-----------------------------------------
Сделал я в итоге так. Собрал все расходы бюджета по ведомствам, сделал `outer join` всех лет по кодам ППП. Получилась таблица вида:

Дальше была довольно долгая и неприятная возня с названиями. В отчете об исполнении бюджета используются только полные наименования, поэтому даже у относительно коротких названий вроде Министерство спорта был хвост Российской Федерации. Просто менять Российской Федерации на РФ я не стал и вручную менял названия на официальные сокращенные. Пришлось посидеть, но зато я теперь я гораздо лучше ориентируюсь в российской бюрократии. В период с 2002 по 2019 год существует или существовало 240 ведомств, там есть и отдельные бюджетные учреждения вроде Большого театра или Эрмитажа, но в основном там ведомства. Российская бюрократия каждый год представлена в ассортименте около 95 наименований. Если с 2002 их было 240, то каждый год за 17 лет менялось примерно 8 ведомств. Из вышепредставленной таблицы гонка получилась довольно быстро.
Посмотреть ее можете по ссылке:
Или в виде html тут:
<https://vneberu.ru/>
Видео с ведомственной группировкой получилось хорошим, но Минфин, который выполняет функции передаста по почти всем межбюджетным трансфертам просто затмевает всех остальных. А что же там у него внутри увидеть на уровне ведомства невозможно. Поэтому я отдохнул немного и снова взялся за дело.
Часть третья. Кому на нашем бюджете живется лучше других?
---------------------------------------------------------
Пока я разбирался в хитросплетениях российского КБК я заметил 1 интересную особенность. Почти во всех ведомствах присутствовали расходы по 01 разделу, а этот раздел наиболее стабильный Владимир Путин с расходами на себя занимает в нем гордое первое место. Расходы на Президента всегда проходят по подразделу 0101.
За 17 лет его название менялось все однажды, а по содержанию это всегда расходы на Президента. Я подумал, что раз Минфин так любит проводить расходы на содержание самих ведомств по 01 разделу, то я смогу оценить т.н. "Затраты на руководство и управление" государственных функций просто сгруппировав подразделы по разделу 01. Впоследствии оказалось, что расходы на содержание ведомств проходят по 01, но так происходит далеко не всегда. Очень часто расходы проходят так, как это предусмотрено GFSM 2014, а именно расходы на управление какой-то функцией проходят по соответствующему тематическому разделу. Например, расходы на руководство полицией классифицируются по коду 70310 `Руководство деятельностью полиции и связанными с ней услугами, включая регистрацию иностранцев, выдачу рабочих и проездных документов иммигрантам, ведение документации на арестованных и связанной с работой полиции статистики, регулирование дорожного движения и контроль за ним, предупреждение контрабандной деятельности и контроль за морским и океаническим рыболовным промыслом;`
В отдельные годы расходы на управление проходили по 01 разделу, а в другие по какому-то тематическому. Я снова застрял в начале пути. Приходилось бросать сделанное и придумывать что-то другое. Была нужна какая-то более изощренная модель группировки. К тому времени я уже собрал для себя некоторый набор полезных функций для Pandas, которые постоянно использовал в работе. Я уже упомянал про levenshtein\_merge(). С помощью этой функции можно сделать join двух Pandas DataFrame через нечеткое соответствие, а именно чере самое короткое расстояние Левенштейна. Функций становилось больше, я решил собрать их в библиотеку. Когда я начал свой бюджетный квест, это был просто класс в том же файле, что и основной проект, но сейчас это вполне годная самостоятельная библиотека, которую можно поставить через `pip install` и сильно облегчить себе жизнь при работе с Pandas DataFrame. Библиотеку я назвал полуфабрикат, что в переводе на английский будет prepack.
Сейчас без четверти 2 и я уже немного утомился, поэтому постараюсь продолжить статью в формате комментариев кода jupyter notebook в котором я и проводил все манипуляции.
```
# Сначала импорт нужных модулей
import pandas as pd
import numpy as np
import os, sys
# это мой модуль полуфабрикат
from prepack import prepack as pp
```
```
# Это настройки отображения данных в блокноте
pd.options.display.max_rows = 2000
pd.options.display.max_columns = 200
pd.options.display.max_colwidth = 500
pd.options.display.min_rows = 40
```
А вот здесь начинает работать полуфабрикат prepack. Этой функцией считывается zip архив. Содержимое архива возвращается в виде перечня имен файлов из архива и file-like объектов,
которые можно обрабатывать дальше. К примеру через pd.read\_excel(), если в архиве файлы excel.
```
names, files = pp.read_zip("raw_data.zip")
```
Эта простая функция отличается от pd.read\_excel() только тем, что меняет параметры открытия excel по умолчанию.
Мой read\_excel читает весь excel как текст, и не пытается взять заголовки колонок из первой строки.
Я открываю начало файла, чтобы правильно задать параметры для массового чтения всех файлов в архиве. По структуре файлы не отличаются. Я задаю параметры для одного файла, а подходят они и ко всем остальным.
```
pp.read_excel(files[0]).iloc[8:13,:]
```
| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- |
| 8 | | | | | | | | | | (тыс. руб.) | | | (тыс. руб.) | | | | | | | | | | | | | | | | |
| 9 | Наименование показателя | Код по бюджетной \nклассификации | Коды ФКР | Коды ЦСР | Коды ВР | Утверждено Федеральным законом «О федеральном бюджете на 2002 год» | Уточненная сводная бюджетная роспись | Финансирование | Лимиты бюджетных обязательств | Исполнено | Процент исполнения уточненной сводной бюджетной росписи по финансировагию | Процент исполнения уточненной сводной бюджетной росписи,% | | | | | | | | | | | | | | | | | |
| 10 | | ППП | РзПр | ЦСР | ВР | | | | | | | | | | | | | | | | | | | | | | | | |
| 11 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 8 | 9 | 10 | 10 | | | | | | | | | | | | | | | | | |
| 12 | Министерство энергетики Российской Федерации | 020 | | | | 10443678.700000001 | 10823452 | 10307275.3 | | 10259178.000000002 | 95.23094203217238 | 94.78656162562555 | | | | | | | | | | | | | | | | | |
Эта функцию я очень люблю, она сильно экономит время. Делает она вот что. Читает сразу несколько файлов excel, соединяя их в 1 большой DataFrame, сразу задавая правильные заголовки и убирая мусор из файла, оставляя только данные.
Функции нужно минимум 3 первых аргумента: files, columns, fltr. Первый аргумент это список excel файлов, второй аргумент — горизонтальные границы данных в файле, нужно указать первый и последний столбец с данными. Третий аргумент — фильтры, которые будут применены ко всем файлам, чтобы убрать пустые строки в конце и заголовки в начале каждого файла файла. 4 аргумент опциональный. С его помощью можно указать в каких столбах первого файла есть заголовки.
Изучив первый файл, который я открыл выше можно видеть, что данные с 0 по 11 столбец, а данные только в тех строках, где в первом столбце текст, а во втором число. Этих двух фильтров достаточно, чтобы убрать весь мусор. Заголовки у нас 3 столбцах:
8,9,10
```
# считывает все наши данные в 1 большой DataFrame
df = pp.parse_excels(files, columns=[0,12], fltr={0: 'istext',1: 'isnum'}, header=[8,9,10])
#смотрим, что получилось
df.head(5)
```
| | Наименование показателя | Код по бюджетной классификации ППП | Коды ФКР РзПр | Коды ЦСР ЦСР | Коды ВР ВР | Утверждено Федеральным законом «О федеральном бюджете на 2002 год» | Уточненная сводная бюджетная роспись | Финансирование | Лимиты бюджетных обязательств | (тыс. руб.) Исполнено | Процент исполнения уточненной сводной бюджетной росписи по финансировагию | Процент исполнения уточненной сводной бюджетной росписи,% | src\_filename |
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- |
| 0 | Министерство энергетики Российской Федерации | 020 | | | | 10443678.700000001 | 10823452 | 10307275.3 | | 10259178.000000002 | 95.23094203217238 | 94.78656162562555 | 2002 |
| 1 | Государственное управление и местное самоуправление | 020 | 0100 | | | 158826.9 | 153149.8 | 153149.8 | | 150806.5 | 100 | 98.46992944163166 | 2002 |
| 2 | Функционирование исполнительных органов государственной власти | 020 | 0103 | | | 158826.9 | 153149.8 | 153149.8 | | 150806.5 | 100 | 98.46992944163166 | 2002 |
| 3 | Центральный аппарат | 020 | 0103 | 037 | | 147458.5 | 141865 | 141865 | | 140224.4 | 100 | 98.84354844394319 | 2002 |
| 4 | Денежное содержание аппарата | 020 | 0103 | 037 | 027 | 80921.6 | 75448.3 | 75448.3 | | 74517.7 | 100 | 98.76657260667237 | 2002 |
Еще 1 полезная функция из библиотеки, это обертка для pickle, начиная с версии prepack 0.4.2 умеет читать и писать в `pkl.gz`
```
# сохраняем в файл
df.to_csv('raw_data.csv.gz')
pp.save(df, 'raw_data.pkl.gz')
```
Одна из основных функций prepack. С ее помощью можно фильтровать DataFrame, получая вектор с булевой маской.
Первым аргументом задается сам фильтруемый DataFrame, вторым задается фильтр, а третий аргумент определяет, будут ли использованы названия столбцов или их индексы. Сейчас я адресуюсь по индексам, поэтому 3 аргумент iloc=True.
Первое что нужно сделать это получить список всех названий ведомств, для этого я получу из массива строки, где заполнено "наименование показателя" и "код ППП", остальные части КБК должны быть пустыми. Именно в этих строках записаны названия ведомств.
```
# тут будут только названия получателей и их коды ППП
f = pp.df_filter_and(df, {0: 'istext', 1: 'isnum', 2: 'isblank', 3: 'isblank'}, iloc=True)
ppp = df[f]
idx = ppp['Наименование показателя'].index
ppp = ppp.loc[idx,:]
```
Теперь я сделаю функции, которые позволят мне вырезать из DataFrame нужные строки по фильтру, а с полученными строками делать небольшой постпроцессинг.
```
#эта функция позволяет вырезать строки из фрейма по фильтру, сохраняя вырезанное отдельно
def df_filter(df, fltr):
f = pp.df_filter_and(df, fltr)
res = df[f]
df.drop(res.index, axis=0, inplace=True)
return res
```
Этой функцией я буду готовить наборы критериев, по которым буду выбирать из общего DataFrame нужные строки.
На входе общих датафрейм, фильтр для фильтрации нужных названий ведомств, чтобы записать их коды ППП. Дальше передается список подразделов КБК, которые нужно брать в расчет. Последний аргумент label задает дополнительный критерий для поиска по целевым статьям. Это нужно для того, чтобы выбрать такие расходы на содержание ведомства, которые только часть
подраздела, что не позволяет включать такой родительский подраздел полностью.
```
def df_filter_post_proc(df, fltr, rzpr, label):
df_ = df_filter(df, fltr)
codes = df_['Код по бюджетной классификации ППП'].unique()
names = df_['Наименование показателя'].unique()
return {'name': list(names), 'ppp': list(codes), 'rzpr': list(rzpr), 'label': list(label)}
```
Здесь функция, в которой происходит основная работа. Получилось довольно громоздко, но оптимизировать не стану, все равно функция только на 1 раз. Делает она вот что. Сначала получаем срез массива df по кодам ППП у группы и кодам подразделов. Потому получаем срез по тем же заданным кодам ППП, но уже те строки, где указаны целевые статьи, ищем нужные целевые статьи по их характерным названиям. Дальше можно было бы просто сложить эти срезы и отправить в результат по группе для последующего сложения сумм. Но ведь у нас иерархическая структура. Если найденная целевая статья будет из найденного подраздела, то сумма по этой целевой статье посчитается дважды: 1 раз по строке самой целевой статьи, а второй раз в составе суммы по подразделу. Поэтому нужно найти пересечение двух этих срезов. В случае если есть пересечение по коду ППП и подразделу, тогда из второго среза такую строку убираем.
То что останется во втором срезе вместе с первым срезом записываем в результат для этой группы и переходим к следующей группе.
```
# основная функция в которой и происходит выборка нужных строк для каждой нужной нам функции
def groups_fill(df, groups):
res = pd.DataFrame([])
for g in groups:
el = groups[g]
ppp = el['ppp']
rzpr = el['rzpr']
label = el['label']
#Если кодов ppp нет, то искать нечего - пропускаем цикл
if len(ppp) == 0:
continue
#тут 1 фильтр по кодам
f1 = {'Код по бюджетной классификации ППП': ppp}
#тут 2 фильтр по тем подразделам, которые можно считать расходами на управление
f2 = {'Коды ФКР РзПр': rzpr}
#тут 3 фильтр, что убрать лишние строки с кодами статей
f3 = {'Коды ЦСР ЦСР': 'isblank'}
#тут 3 фильтр, что убрать лишние строки с видами расходов
f4 = {'Коды ВР ВР': 'isblank'}
#маски по фильтрам
m1 = pp.df_filter_or(df, f1)
m2 = pp.df_filter_or(df, f2)
m3 = pp.df_filter_or(df, f3)
m4 = pp.df_filter_or(df, f4)
#соединим все маски в одну через логическое и
df1 = df[m1 & m2 & m3 & m4]
#Второй срез будет по кодам ppp, кодам ВР и label (наименованию показателя)
#по кодам ppp и кодам ВР маски уже есть
df_ = df[m1 & m4]
f5 = {'Наименование показателя': label}
m5 = pp.df_filter_or(df_, f5)
df2 = df_[m5].copy()
#для исключения дублирования двух срезов надо убрать те позиции в label (df2), раздел/подраздел которых
#совпадает с заданными разделами/подразделами в rzpr (df1). Это делается потому что если label указан для ЦСР,
#а РЗ/ПР совпадает, то общая сумма по РЗ/ПР уже включает в себя сумму, которая указана в строке с ЦСР.
#пересечение ищем только для совпадений сразу по 3 параметрам: ППП, РЗПР, год (src_filename)
#сначала найдем пересечение df1 и df2
#нам нужны будут индексы из df2, поэтому сохраним их
df2['idx'] = df2.index
intersect = pd.merge(df1.loc[:,['Код по бюджетной классификации ППП','Коды ФКР РзПр', 'src_filename']],
df2.loc[:,['Код по бюджетной классификации ППП','Коды ФКР РзПр', 'src_filename','idx']],
on=['Код по бюджетной классификации ППП','Коды ФКР РзПр', 'src_filename'], how='inner')
#удалим найденные строки из df2 по индексу
df2_filtered = df2.drop(intersect['idx'], axis=0)
#теперь то, что есть в df1 и df2 соединяем в 1 срез, через копирование данных
df3 = pd.concat([df1, df2_filtered], axis=0)
v = df3[['Наименование показателя',
'Код по бюджетной классификации ППП',
'Коды ФКР РзПр',
'(тыс. руб.) Исполнено',
'src_filename']].copy()
#добавим столбец имя
v['name'] = g
#добавим все в итоговый датафрейм
res = pd.concat([res, v], axis=0)
return res
```
Теперь зададим сами группы и критерии для включения записей в них.
Концепция работы следующая:
1. для каждой группы формируем список ведомств, входящих в эту группу.
2. Дальше выбираем там расходы из подразделов с 0101 по 0107 в этих подразделах в период с 2002 по 2019 только расходы на содержание ведомств.
3. Задаем ключевые слова для поиска целевых статей, которые помимо подразделов с 0101 по 0107 будут включены в расходы. В основном это будут общие ключевые слова, но для некоторых групп задаются дополнительные.
```
lst = {}
#это стандартные подразделы для расходов на собственное содержание ОИВ
rzpr_base = ['0101','0102','0103','0104','0105','0106','0107']
#Это стандартная ЦСР для расходов на содержание
label_base = ['Руководство и управление в сфере установленных функций',
r'contains=.*(?:Обеспечение.*аппарата).*',
r'contains=.*(?:обеспечение функций государственных органов).*',
r'contains=.*(?:обеспечение функций органов.*власти).*'
]
# Тут идут сами группы и заданные для них параметры для фильтрации
f = {'Наименование показателя': r'contains=.*(?:избирательная комиссия).*'}
rzpr = ['isblank']
df_slice = df_filter_post_proc(ppp, f, rzpr, label_base)
lst['выборы'] = df_slice
rzpr = ['0101','0102','0103','0104','0105','0106','0107','0201']
f = {'Наименование показателя': r'contains=.*(?:армии|оборон|внешней разведки|боеприпас|вооружен|военн).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['армия'] = df_slice
rzpr = ['0101','0102','0103','0104','0105','0106','0107','0201']
f = {'Наименование показателя': r'contains=.*(?:чрезвычайн|медико-биологическ|государственным резервам).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['ГО ЧС'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:надзор|контрол|инспекц).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['надзор и контроль'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:космос|космическ).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['космос'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:государственная дума|совет федерации).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['федеральное собрание'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:счетная палата).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['счетная палата'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:культур|художеств|зодчеств|живопис|большой театр|эрмитаж|фонд кинофильмов).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['культура'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:наук|научн|фундаментальных исследований|курчатовский институт|образован|просвещения|университет).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['наука и образование'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:налог).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['налоги'] =df_slice
f = {'Наименование показателя': r'contains=.*(?:имуществ).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['имущество'] =df_slice
f = {'Наименование показателя': r'contains=.*(?:финансов|казначейство|ценных бумаг|финансовых).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['финансы'] =df_slice
f = {'Наименование показателя': r'contains=.*(?:метролог|стандартизац|статистик|архив).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['статистика, стандартизация и архив'] =df_slice
f = {'Наименование показателя': r'contains=.*(?:аккредитац|интеллектуальной собственности|алкогольного рынка|тариф|патент|лицензирован|антимонопольн|экономик|экономическими зонами|экономического развития|экономических реформ|содействия развитию|экономической конъюнктуры).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['экономика, тарифы, патенты, лицензии'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:таможн|таможенная).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['таможня'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:кадастр|картограф|регистрацион).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['кадастр и картография'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:судостроен|промышленности|энергетик|энергетическая|атомной).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['промышленность и энергетика'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:транспорт|навигацион|дорожн).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['транспорт'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:телеграф|связи|коммуникац|информационным технолог|системам управления|фельдъегер).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['связь'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:правительство).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['правительство'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:президент).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['президент'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:прокуратур|следственный комитет|внутренних дел|миграцион|национальной гвардии|служба безопасности|служба охраны).*'}
label = label_base.copy()
label = label + ['Органы прокуратуры','Военная реформа']
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['прокуратура, полиция и спецслужбы'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:конституционный|верховный суд|арбитражный суд|судебный департамент).*'}
label = label_base.copy()
label = label + ['Судебная власть']
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label)
lst['суды'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:пристав).*'}
label = label_base.copy()
label = label + [r'contains=.*судебных приставов.*']
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label)
lst['судебные приставы'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:юстиции|исполнения наказаний).*'}
label = label_base.copy()
label = label + ['Уголовно-исполнительная система']
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label)
lst['тюрьмы'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:сельск|рыболовств).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['сельское хозяйство'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:водных ресурсов|недропользован|природных|экологии|лесного хозяйства|метеоролог).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['экология, вода, недра, метеорология'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:жилищн|регионального развития|строительств).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['ЖКХ'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:здравохранения|здравоохранен|медицинс|социальной защиты|социального развития).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['здравохранение и соцзащита'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:спорт).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['спорт'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:труд[ау]|занятост).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['занятость'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:пенсионный фонд|фонд социального страхования).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['пенсионный фонд и фонд соцстрахования'] = df_slice
f = {'Наименование показателя': r'contains=.*(?:иностранных дел).*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['МИД'] = df_slice
#прочие министерства агентства и службы
f = {'Наименование показателя': r'contains=.*министерство.*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['прочие министерства'] = df_slice
f = {'Наименование показателя': r'contains=.*агентств.*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['прочие агентства'] = df_slice
f = {'Наименование показателя': r'contains=.*служба.*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['прочие службы'] = df_slice
# все что осталось
f = {'Наименование показателя': r'contains=.*'}
df_slice = df_filter_post_proc(ppp, f, rzpr_base, label_base)
lst['прочие'] = df_slice
```
Когда группы и фильтр в них настроены, проверим, что получилось.
```
# посмотрим, сколько ведомств получилось по каждой группе
for group in lst:
el = lst[group]
print(len(el['name']), group, 'ppp:', '|'.join(el['ppp']))
print('осталось', len(ppp))
```
```
1 выборы ppp: 308
11 армия ppp: 125|126|177|464|722|184|187|186|721|185
3 ГО ЧС ppp: 160|171|388
23 надзор и контроль ppp: 083|316|497|204|048|059|060|077|079|081|093|106|141|151|498|587|086|085|087|096
3 космос ppp: 258|259|730
2 федеральное собрание ppp: 330|333
1 счетная палата ppp: 305
20 культура ppp: 056|164|166|409|424|425|591|597|057|058|167|175|054
35 наука и образование ppp: 075|139|190|226|319|386|401|423|486|494|573|589|677|693|073|074|144|385|595|384|007
3 налоги ppp: 181|205|182
3 имущество ppp: 163|166|167
7 финансы ppp: 092|520|720|723|521|724|100
6 статистика, стандартизация и архив ppp: 149|154|159|155|157|172
13 экономика, тарифы, патенты, лицензии ppp: 140|162|165|197|263|161|168|307|142|139|160
1 таможня ppp: 153
6 кадастр и картография ppp: 071|156|072|173|321
10 промышленность и энергетика ppp: 020|099|129|306|021|023|101|143|022|725
7 транспорт ppp: 029|104|103|107|108|109|110|179
12 связь ppp: 078|089|128|134|397|201|070|084|088|135|071
0 правительство ppp:
6 президент ppp: 206|303|352|588|304
10 прокуратура, полиция и спецслужбы ppp: 153|188|415|189|202|192|416|417|180
4 суды ppp: 434|436|437|438
1 судебные приставы ppp: 322
2 тюрьмы ppp: 318|320
4 сельское хозяйство ppp: 076|082|080|085
7 экология, вода, недра, метеорология ppp: 050|158|049|052|053|169|051
6 ЖКХ ppp: 133|279|132|309|360|069
7 здравохранение и соцзащита ppp: 054|148|387|055|061|064|056|149
2 спорт ppp: 777
1 занятость ppp: 150
2 пенсионный фонд и фонд соцстрахования ppp: 392|393
1 МИД ppp: 310
5 прочие министерства ppp: 022|350|340|370
5 прочие агентства ppp: 174|091|095|260|380
0 прочие службы ppp:
3 прочие ppp: 152|302|090
осталось 0
```
```
# посмотрим сколько ведомств не попало ни в одну из тематических групп, но попало сюда
lst['прочие агентства']
```
```
{'name': ['Федеральное агентство по туризму',
'Федеральное агентство по делам молодежи',
'Федеральное агентство по делам Содружества Независимых Государств, соотечественников, проживающих за рубежом, и по международному гуманитарному сотрудничеству',
'Федеральное агентство по обустройству государственной границы Российской Федерации',
'Федеральное агентство по делам национальностей'],
'ppp': ['174', '091', '095', '260', '380'],
'rzpr': ['0101', '0102', '0103', '0104', '0105', '0106', '0107'],
'label': ['Руководство и управление в сфере установленных функций',
'contains=.*(?:Обеспечение.*аппарата).*',
'contains=.*(?:обеспечение функций государственных органов).*',
'contains=.*(?:обеспечение функций органов.*власти).*']}
```
Теперь запустим основную функцию, которая соберет данные по созданным группам.
```
# запустим основную функцию, передав ей в качестве аргументов список с группами и настройками фильтров к ним
df2 = groups_fill(df,lst)
```
```
# Смотрим, что получилось
df2
```
| | Наименование показателя | Код по бюджетной классификации ППП | Коды ФКР РзПр | (тыс. руб.) Исполнено | src\_filename | name |
| --- | --- | --- | --- | --- | --- | --- |
| 3220 | Центральная избирательная комиссия Российской Федерации | 308 | | 1518661.7000000002 | 2002 | выборы |
| 7896 | Центральная избирательная комиссия Российской Федерации | 308 | | 9827426.6 | 2003 | выборы |
| 13252 | Центральная избирательная комиссия Российской Федерации | 308 | | 727006.7 | 2004 | выборы |
| 18372 | Центральная избирательная комиссия Российской Федерации | 308 | | 2315399.80987 | 2005 | выборы |
| 24253 | Центральная избирательная комиссия Российской Федерации | 308 | | 2450335.73052 | 2006 | выборы |
| 30681 | Центральная избирательная комиссия Российской Федерации | 308 | | 11218927.1657 | 2007 | выборы |
| 40626 | Центральная избирательная комиссия Российской Федерации | 308 | | 4199158.0443899995 | 2008 | выборы |
| 52179 | Центральная избирательная комиссия Российской Федерации | 308 | | 3063409.77061 | 2009 | выборы |
| 62733 | Центральная избирательная комиссия Российской Федерации | 308 | | 3042519.67003 | 2010 | выборы |
| 72953 | Центральная избирательная комиссия Российской Федерации | 308 | | 11343783.96668 | 2011 | выборы |
| 91622 | Центральная избирательная комиссия Российской Федерации | 308 | | 13596252.48087 | 2012 | выборы |
| 111864 | Центральная избирательная комиссия Российской Федерации | 308 | | 3329199.29163 | 2013 | выборы |
| 131099 | Центральная избирательная комиссия Российской Федерации | 308 | | 4392301.7968500005 | 2014 | выборы |
| 149219 | Центральная избирательная комиссия Российской Федерации | 308 | | 3237166.95 | 2015 | выборы |
| 170925 | Центральная избирательная комиссия Российской Федерации | 308 | | 15800336.160000002 | 2016 | выборы |
| 195070 | Центральная избирательная комиссия Российской Федерации | 308 | | 6073661.12 | 2017 | выборы |
| 221000 | Центральная избирательная комиссия Российской Федерации | 308 | | 18414539.61 | 2018 | выборы |
| 247026 | Центральная избирательная комиссия Российской Федерации | 308 | | 2237048.2 | 2019 | выборы |
| 18375 | Руководство и управление в сфере установленных функций | 308 | 0107 | 709851.8584799999 | 2005 | выборы |
| 24256 | Руководство и управление в сфере установленных функций | 308 | 0107 | 776471.9299999999 | 2006 | выборы |
| ... | ... | ... | ... | ... | ... | ... |
| 3035 | Прочие расходы на общегосударственное управление | 302 | 0105 | 57201.7 | 2002 | прочие |
| 7723 | Прочие расходы на общегосударственное управление | 302 | 0105 | 63374.3 | 2003 | прочие |
| 13055 | Прочие расходы на общегосударственное управление | 302 | 0105 | 70769.9 | 2004 | прочие |
| 18205 | Руководство и управление в сфере установленных функций | 302 | 0115 | 96531.57899 | 2005 | прочие |
| 24063 | Руководство и управление в сфере установленных функций | 302 | 0115 | 114431.64898 | 2006 | прочие |
| 26993 | Руководство и управление в сфере установленных функций | 090 | 0115 | 2614.72679 | 2007 | прочие |
| 30479 | Руководство и управление в сфере установленных функций | 302 | 0115 | 137220.76789999998 | 2007 | прочие |
| 35246 | Руководство и управление в сфере установленных функций | 090 | 0114 | 0 | 2008 | прочие |
| 40281 | Руководство и управление в сфере установленных функций | 302 | 0114 | 166654.65854 | 2008 | прочие |
| 51820 | Руководство и управление в сфере установленных функций | 302 | 0114 | 176770.48262000002 | 2009 | прочие |
| 62366 | Руководство и управление в сфере установленных функций | 302 | 0114 | 173045.54285 | 2010 | прочие |
| 72563 | Руководство и управление в сфере установленных функций | 302 | 0113 | 167953.68991000002 | 2011 | прочие |
| 90966 | Руководство и управление в сфере установленных функций | 302 | 0113 | 178229.35486999998 | 2012 | прочие |
| 111207 | Руководство и управление в сфере установленных функций | 302 | 0113 | 227229.21458 | 2013 | прочие |
| 130549 | Расходы на обеспечение функций государственных органов, в том числе территориальных органов, по непрограммному направлению расходов 'Обеспечение деятельности Уполномоченного по правам человека в Российской Федерации' в рамках непрограммного направления деятельности 'Уполномоченный по правам человека в Российской Федерации' | 302 | 0113 | 42004.586409999996 | 2014 | прочие |
| 148654 | Расходы на обеспечение функций государственных органов, в том числе территориальных органов, по непрограммному направлению расходов 'Обеспечение деятельности Уполномоченного по правам человека в Российской Федерации' в рамках непрограммного направления деятельности 'Уполномоченный по правам человека в Российской Федерации' | 302 | 0113 | 49886.67 | 2015 | прочие |
| 170236 | Расходы на обеспечение функций государственных органов, в том числе территориальных органов | 302 | 0113 | 53390.83 | 2016 | прочие |
| 194281 | Расходы на обеспечение функций государственных органов, в том числе территориальных органов | 302 | 0113 | 56313.880000000005 | 2017 | прочие |
| 220127 | Расходы на обеспечение функций государственных органов, в том числе территориальных органов | 302 | 0113 | 72847.51000000001 | 2018 | прочие |
| 246185 | Расходы на обеспечение функций государственных органов, в том числе территориальных органов | 302 | 0113 | 46021.01 | 2019 | прочие |
2970 rows × 6 columns
```
# тут мы поменяем тип данных в столбце с суммой
df3 = df2.loc[:,['(тыс. руб.) Исполнено', 'src_filename', 'name']]
#новые названия столбцов
df3.columns = ['value', 'year', 'name']
#индекс тех строк, где пусто
idx = df3[df3.loc[:,'value'] == ''].index
#меняем на 0
df3.loc[idx, 'value'] = '0.0'
#ставим тип float64
df3 = df3.astype({'value': 'float64'})
```
```
# группируем данные по году и названию группы
df4 = df3.groupby(['year','name']).sum().reset_index()
```
```
#функция для создания таблицы с группами и расходами по годам
def manuscript(df):
res = pd.DataFrame([])
for i in df.index:
n = df.loc[i,'name']
y = df.loc[i,'year']
v = df.loc[i,'value']
res.loc[n,y] = v
res['name'] = res.index
#так я перемещу последний столбец в начало
last_idx = res.shape[1] - 1
order = [last_idx]
order = order + list(range(0, last_idx))
res = res.iloc[:,order]
return res
```
```
# запускаем функцию и смотрим результат ее работы
df5 = manuscript(df4)
df5
```
| | name | 2002 | 2003 | 2004 | 2005 | 2006 | 2007 | 2008 | 2009 | 2010 | 2011 | 2012 | 2013 | 2014 | 2015 | 2016 | 2017 | 2018 | 2019 |
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- |
| ЖКХ | ЖКХ | 55118.3 | 69206.0 | 174787.2 | 3.179523e+05 | 4.059359e+05 | 6.988135e+05 | 8.693810e+05 | 1.227829e+06 | 1.197151e+06 | 1.499655e+06 | 1.472361e+06 | 1.485361e+06 | 1.113370e+06 | 8.331200e+05 | 1.149470e+06 | 1.293278e+06 | 1.228704e+06 | 7.812578e+05 |
| МИД | МИД | 738567.6 | 937116.8 | 1655342.4 | 1.473230e+07 | 1.436403e+07 | 2.029405e+07 | 2.347219e+07 | 3.066014e+07 | 3.164116e+07 | 3.242956e+07 | 3.368836e+07 | 3.491896e+07 | 3.741200e+07 | 6.415048e+07 | 5.411862e+07 | 3.814101e+07 | 3.722678e+07 | 2.967170e+07 |
| армия | армия | 199462.9 | 291924.9 | 468451.0 | 4.028164e+06 | 4.184440e+06 | 1.308096e+07 | 5.179386e+07 | 2.047398e+07 | 2.367009e+07 | 2.389663e+07 | 2.879189e+07 | 3.625769e+07 | 4.483317e+06 | 3.927149e+05 | 1.936604e+07 | 1.814460e+07 | 1.823454e+07 | 1.212784e+07 |
| выборы | выборы | 1518661.7 | 9827426.6 | 727006.7 | 3.025252e+06 | 3.226808e+06 | 1.215190e+07 | 5.344751e+06 | 4.289653e+06 | 4.252440e+06 | 1.255509e+07 | 1.480231e+07 | 4.778233e+06 | 5.448697e+06 | 3.489300e+06 | 2.632606e+07 | 6.440813e+06 | 3.324976e+07 | 2.636338e+06 |
| здравохранение и соцзащита | здравохранение и соцзащита | 6888901.5 | 5191349.3 | 496970.0 | 5.117778e+05 | 7.624081e+05 | 9.944042e+05 | 1.535074e+06 | 2.527582e+06 | 2.513591e+06 | 3.070057e+06 | 3.095424e+06 | 3.213713e+06 | 2.043384e+06 | 1.630418e+06 | 1.984821e+06 | 2.008460e+06 | 2.020177e+06 | 6.730164e+05 |
| имущество | имущество | 794096.1 | 943669.8 | 1236022.8 | 1.143905e+06 | 1.359334e+06 | 1.644650e+06 | 2.372177e+06 | 4.427220e+06 | 4.299786e+06 | 6.742122e+06 | 5.628042e+06 | 5.303888e+06 | 1.711631e+06 | 1.495427e+06 | 1.285239e+06 | 1.296881e+06 | 1.219905e+06 | 6.484055e+05 |
| кадастр и картография | кадастр и картография | 604832.7 | 779822.5 | 930441.0 | 9.573190e+06 | 1.463692e+07 | 1.815751e+07 | 2.795691e+07 | 2.301704e+07 | 2.195236e+07 | 2.351573e+07 | 3.705156e+07 | 2.353878e+07 | 1.119027e+07 | 1.172543e+07 | 1.373801e+07 | 1.051243e+07 | 1.111666e+07 | 5.087854e+06 |
| космос | космос | 56971.8 | 70000.6 | 98668.3 | 1.181241e+05 | 1.383519e+05 | 1.828012e+05 | 2.497096e+05 | 3.089730e+05 | 3.540486e+05 | 3.443083e+05 | 3.396623e+05 | 3.611192e+05 | 1.789257e+06 | 2.145743e+06 | 7.194247e+06 | 1.714675e+06 | 1.333223e+06 | 2.213795e+05 |
| культура | культура | 244286.1 | 251179.4 | 1125325.4 | 1.436764e+06 | 1.773667e+06 | 2.067159e+06 | 2.920725e+06 | 4.878187e+06 | 4.813045e+06 | 7.640206e+06 | 8.280279e+06 | 7.615266e+06 | 3.322063e+06 | 2.750865e+06 | 2.331090e+06 | 2.500820e+06 | 2.482645e+06 | 1.073571e+06 |
| надзор и контроль | надзор и контроль | 856340.8 | 1027204.1 | 6176704.0 | 1.717242e+07 | 2.367843e+07 | 2.996330e+07 | 3.597592e+07 | 3.839959e+07 | 3.769431e+07 | 3.900493e+07 | 3.809575e+07 | 3.996433e+07 | 1.205323e+07 | 1.187536e+07 | 8.373596e+06 | 8.764745e+06 | 9.350644e+06 | 5.261310e+06 |
| налоги | налоги | 24294501.9 | 29965687.1 | 34938483.1 | 4.267415e+07 | 6.058325e+07 | 9.738464e+07 | 1.066937e+08 | 1.017134e+08 | 9.750056e+07 | 1.020170e+08 | 1.049288e+08 | 1.095579e+08 | 1.235494e+08 | 1.183094e+08 | 1.295426e+08 | 1.401987e+08 | 1.641590e+08 | 1.168560e+08 |
| наука и образование | наука и образование | 256746.5 | 314463.2 | 320622.2 | 3.843661e+05 | 4.614256e+05 | 5.944249e+05 | 4.372921e+06 | 6.078403e+06 | 5.492050e+06 | 6.231623e+06 | 6.255479e+06 | 6.830796e+06 | 4.332645e+06 | 7.610444e+06 | 7.112033e+06 | 5.669845e+06 | 6.670268e+06 | 2.440637e+06 |
| президент | президент | 3982138.7 | 5450851.3 | 7313133.0 | 7.295283e+06 | 8.261189e+06 | 8.996543e+06 | 1.216107e+07 | 1.526446e+07 | 1.395581e+07 | 1.139751e+07 | 1.736144e+07 | 2.546027e+07 | 2.338378e+07 | 2.420630e+07 | 2.255378e+07 | 2.530381e+07 | 2.881064e+07 | 1.958996e+07 |
| прокуратура, полиция и спецслужбы | прокуратура, полиция и спецслужбы | 29356.9 | NaN | NaN | 4.086273e+07 | 5.955347e+07 | 8.714469e+07 | 1.112304e+08 | 1.190517e+08 | 1.188130e+08 | 1.355925e+08 | 1.447262e+08 | 1.695464e+08 | 8.024443e+07 | 7.469808e+07 | 7.097024e+07 | 7.359769e+07 | 8.050007e+07 | 5.685519e+07 |
| промышленность и энергетика | промышленность и энергетика | 374737.2 | 581511.9 | 920630.1 | 1.025631e+06 | 1.291313e+06 | 1.679555e+06 | 2.112708e+06 | 2.495217e+06 | 2.507740e+06 | 2.548311e+06 | 2.392012e+06 | 4.119598e+06 | 1.153400e+07 | 1.049128e+07 | 4.193052e+07 | 3.526767e+07 | 3.388927e+07 | 2.525769e+07 |
| прочие | прочие | 57201.7 | 63374.3 | 70769.9 | 9.653158e+04 | 1.144316e+05 | 1.398355e+05 | 1.666547e+05 | 1.767705e+05 | 1.730455e+05 | 1.679537e+05 | 1.782294e+05 | 2.272292e+05 | 4.200459e+04 | 4.988667e+04 | 5.339083e+04 | 5.631388e+04 | 7.284751e+04 | 4.602101e+04 |
| прочие министерства | прочие министерства | 102794.5 | 170606.0 | NaN | NaN | NaN | NaN | 4.746758e+05 | 9.010814e+05 | 8.974934e+05 | 8.749721e+05 | 8.920889e+05 | 1.951463e+06 | 2.274708e+06 | 2.492276e+06 | 5.389089e+06 | 3.413066e+06 | 3.802542e+06 | 2.572781e+06 |
| связь | связь | 775849.6 | 1007700.0 | 243261.2 | 4.159233e+05 | 4.419006e+05 | 5.578016e+05 | 7.366907e+05 | 1.017874e+06 | 1.062586e+06 | 1.503976e+06 | 1.438637e+07 | 2.216447e+06 | 3.794126e+06 | 4.711565e+06 | 8.426905e+06 | 4.390055e+06 | 3.707722e+06 | 1.053583e+06 |
| сельское хозяйство | сельское хозяйство | 242701.7 | 216446.7 | 400336.1 | 4.992449e+05 | 6.603246e+05 | 1.115254e+06 | 4.911316e+06 | 3.458776e+06 | 3.272414e+06 | 3.271444e+06 | 3.727729e+06 | 7.070989e+06 | 6.109341e+06 | 2.636282e+06 | 2.762238e+06 | 4.253678e+06 | 4.969401e+06 | 2.624879e+06 |
| статистика, стандартизация и архив | статистика, стандартизация и архив | 5428673.4 | 3463846.8 | 4047470.7 | 6.130480e+06 | 9.678373e+06 | 7.989950e+06 | 9.796944e+06 | 1.252393e+07 | 2.076566e+07 | 1.356919e+07 | 1.250955e+07 | 1.375976e+07 | 3.484282e+06 | 3.883531e+06 | 5.191875e+06 | 5.138944e+06 | 4.397301e+06 | 2.012586e+06 |
| суды | суды | 19461752.1 | 25119241.4 | 33012562.4 | 4.236063e+07 | 5.965057e+07 | 7.893130e+07 | 9.276448e+07 | 1.073020e+08 | 1.090315e+08 | 1.170127e+08 | 1.206795e+08 | 1.317020e+08 | 1.437869e+08 | 1.518439e+08 | 1.671576e+08 | 1.726870e+08 | 1.770484e+08 | 1.262668e+08 |
| счетная палата | счетная палата | 514159.2 | 578396.5 | 686709.5 | 1.047412e+06 | 1.106151e+06 | 1.273900e+06 | 1.691962e+06 | 1.817420e+06 | 1.945046e+06 | 1.995006e+06 | 2.159396e+06 | 2.443649e+06 | 2.903754e+06 | 3.565171e+06 | 3.454455e+06 | 3.484411e+06 | 3.780981e+06 | 2.791526e+06 |
| таможня | таможня | 29356.9 | NaN | NaN | 1.952272e+07 | 3.177810e+07 | 5.183096e+07 | 5.701153e+07 | 5.431895e+07 | 5.355175e+07 | 6.228234e+07 | 5.793620e+07 | 6.371512e+07 | 6.195291e+07 | 5.720779e+07 | 5.445615e+07 | 5.600562e+07 | 5.757791e+07 | 4.080228e+07 |
| транспорт | транспорт | 997293.2 | 1259272.4 | 526374.2 | 6.916618e+05 | 9.645825e+05 | 1.386756e+06 | 1.745424e+06 | 2.676544e+06 | 2.677625e+06 | 2.834927e+06 | 3.045155e+06 | 3.773597e+06 | 2.172722e+06 | 2.443524e+06 | 2.937038e+06 | 2.856930e+06 | 3.673195e+06 | 2.140081e+06 |
| тюрьмы | тюрьмы | 33821966.6 | 45644003.1 | 48200940.5 | 4.939072e+06 | 6.193123e+06 | 7.251381e+06 | 1.059864e+07 | 1.989783e+07 | 9.343257e+06 | 1.005613e+07 | 1.879268e+07 | 2.570202e+07 | 9.172114e+05 | 1.345042e+06 | 7.543578e+05 | 7.162469e+05 | 9.785970e+05 | 4.562662e+05 |
| федеральное собрание | федеральное собрание | 2453820.2 | 2629797.7 | 3197238.2 | 4.181236e+06 | 4.659688e+06 | 5.362667e+06 | 6.895839e+06 | 7.361260e+06 | 7.344989e+06 | 7.554316e+06 | 9.326065e+06 | 1.053433e+07 | 1.131073e+07 | 1.242822e+07 | 1.333192e+07 | 1.376513e+07 | 1.475574e+07 | 1.075951e+07 |
| финансы | финансы | 9795825.7 | 12659262.1 | 12562536.2 | 1.846512e+07 | 2.636404e+07 | 3.143353e+07 | 3.908707e+07 | 4.227111e+07 | 4.224021e+07 | 4.577294e+07 | 4.783098e+07 | 4.669822e+07 | 4.723468e+07 | 4.649914e+07 | 5.315978e+07 | 5.486682e+07 | 5.314100e+07 | 3.516734e+07 |
| экология, вода, недра, метеорология | экология, вода, недра, метеорология | 1414479.3 | 1648065.4 | 790980.7 | 1.769120e+06 | 2.288039e+06 | 2.148871e+06 | 2.325598e+06 | 2.668416e+06 | 2.607731e+06 | 3.113915e+06 | 2.991145e+06 | 3.765731e+06 | 2.026427e+06 | 2.593518e+06 | 2.144792e+06 | 2.022290e+06 | 2.086581e+06 | 1.043217e+06 |
| экономика, тарифы, патенты, лицензии | экономика, тарифы, патенты, лицензии | 1097438.7 | 1623486.0 | 1329962.8 | 2.610266e+06 | 2.771028e+06 | 4.104223e+06 | 7.108139e+06 | 8.975361e+06 | 7.927798e+06 | 8.869630e+06 | 9.727466e+06 | 1.045263e+07 | 6.037323e+06 | 8.090558e+06 | 8.451552e+06 | 7.718410e+06 | 8.110111e+06 | 4.289423e+06 |
| ГО ЧС | ГО ЧС | NaN | 179252.0 | 235819.3 | 3.320298e+05 | 7.943606e+05 | 9.523479e+05 | 1.196923e+06 | 1.920132e+06 | 2.167992e+06 | 2.569884e+06 | 2.851141e+06 | 3.595451e+06 | 2.266321e+06 | 2.925800e+06 | 2.474541e+06 | 2.691113e+06 | 2.724423e+06 | 3.500916e+06 |
| занятость | занятость | NaN | NaN | 1770603.2 | 1.932432e+06 | 2.208957e+06 | 1.519598e+06 | 1.871774e+06 | 2.332351e+06 | 2.251716e+06 | 2.253084e+06 | 2.228262e+06 | 2.336381e+06 | 1.148488e+06 | 1.224942e+06 | 1.309529e+06 | 1.352477e+06 | 1.331878e+06 | 6.551340e+05 |
| прочие агентства | прочие агентства | NaN | NaN | NaN | 4.959079e+04 | 8.257997e+04 | 8.007811e+04 | 3.208375e+05 | 1.905577e+06 | 2.141823e+06 | 2.734147e+06 | 2.566841e+06 | 3.105008e+06 | 4.561860e+06 | 5.291365e+06 | 4.921941e+06 | 3.635852e+06 | 3.703932e+06 | 2.351683e+06 |
| судебные приставы | судебные приставы | NaN | NaN | NaN | 2.114784e+07 | 2.847243e+07 | 4.374566e+07 | 5.803671e+07 | 6.700059e+07 | 6.942675e+07 | 7.403237e+07 | 8.238733e+07 | 8.780665e+07 | 5.812453e+07 | 5.460078e+07 | 5.271739e+07 | 5.339494e+07 | 5.971298e+07 | 4.166289e+07 |
| спорт | спорт | NaN | NaN | NaN | NaN | NaN | NaN | 1.449746e+05 | 5.344759e+05 | 4.945119e+05 | 4.737492e+05 | 5.309736e+05 | 8.497661e+05 | 8.696530e+05 | 4.209008e+05 | 3.525698e+05 | 3.390244e+05 | 3.446490e+05 | 1.438859e+05 |
```
# Эта функция подготовит данные для их загрузки d3.js скрипту для визуализации гонок
def prep_data(df):
lst = []
size = df.shape[0]
for i in range(0, size):
row = df.iloc[i,:]
name = row['name']
#skip first column
row_ = row[1:]
for k, y in enumerate(row_.index):
begin = float(row_[k]) # current year
try:
end = float(row_[k + 1]) # next year
except:
end = float(row_[k])
range_ = end - begin
step = range_ / 10
cur = begin
for n in range(0,10):
last = cur
cur = begin + step * (n+1)
if cur < 0:
cur = 0.0
lst.append({'name': name,
'value': round(cur, 2),
'year': float(str(y) + '.' + str(n)),
'lastValue': round(last, 2),
'rank': 0})
df2 = pd.DataFrame(lst)
df2 = df2.sort_values(by=['year','value'])
df2.reset_index(drop=True, inplace = True)
df2['rank'] = range(1,df2.shape[0]+1)
return df2
```
```
# делаем данные
data = prep_data(df5)
```
```
data
```
| | name | value | year | lastValue | rank |
| --- | --- | --- | --- | --- | --- |
| 0 | ЖКХ | 5.652707e+04 | 2002.0 | 5.511830e+04 | 1 |
| 1 | прочие | 5.781896e+04 | 2002.0 | 5.720170e+04 | 2 |
| 2 | космос | 5.827468e+04 | 2002.0 | 5.697180e+04 | 3 |
| 3 | прочие министерства | 1.095756e+05 | 2002.0 | 1.027945e+05 | 4 |
| 4 | армия | 2.087091e+05 | 2002.0 | 1.994629e+05 | 5 |
| 5 | сельское хозяйство | 2.400762e+05 | 2002.0 | 2.427017e+05 | 6 |
| 6 | культура | 2.449754e+05 | 2002.0 | 2.442861e+05 | 7 |
| 7 | наука и образование | 2.625182e+05 | 2002.0 | 2.567465e+05 | 8 |
| 8 | промышленность и энергетика | 3.954147e+05 | 2002.0 | 3.747372e+05 | 9 |
| 9 | счетная палата | 5.205829e+05 | 2002.0 | 5.141592e+05 | 10 |
| 10 | кадастр и картография | 6.223317e+05 | 2002.0 | 6.048327e+05 | 11 |
| 11 | МИД | 7.584225e+05 | 2002.0 | 7.385676e+05 | 12 |
| 12 | связь | 7.990346e+05 | 2002.0 | 7.758496e+05 | 13 |
| 13 | имущество | 8.090535e+05 | 2002.0 | 7.940961e+05 | 14 |
| 14 | надзор и контроль | 8.734271e+05 | 2002.0 | 8.563408e+05 | 15 |
| 15 | транспорт | 1.023491e+06 | 2002.0 | 9.972932e+05 | 16 |
| 16 | экономика, тарифы, патенты, лицензии | 1.150043e+06 | 2002.0 | 1.097439e+06 | 17 |
| 17 | экология, вода, недра, метеорология | 1.437838e+06 | 2002.0 | 1.414479e+06 | 18 |
| 18 | выборы | 2.349538e+06 | 2002.0 | 1.518662e+06 | 19 |
| 19 | федеральное собрание | 2.471418e+06 | 2002.0 | 2.453820e+06 | 20 |
| ... | ... | ... | ... | ... | ... |
| 6100 | наука и образование | 2.440637e+06 | 2019.9 | 2.440637e+06 | 6101 |
| 6101 | прочие министерства | 2.572781e+06 | 2019.9 | 2.572781e+06 | 6102 |
| 6102 | сельское хозяйство | 2.624879e+06 | 2019.9 | 2.624879e+06 | 6103 |
| 6103 | выборы | 2.636338e+06 | 2019.9 | 2.636338e+06 | 6104 |
| 6104 | счетная палата | 2.791526e+06 | 2019.9 | 2.791526e+06 | 6105 |
| 6105 | ГО ЧС | 3.500916e+06 | 2019.9 | 3.500916e+06 | 6106 |
| 6106 | экономика, тарифы, патенты, лицензии | 4.289423e+06 | 2019.9 | 4.289423e+06 | 6107 |
| 6107 | кадастр и картография | 5.087854e+06 | 2019.9 | 5.087854e+06 | 6108 |
| 6108 | надзор и контроль | 5.261310e+06 | 2019.9 | 5.261310e+06 | 6109 |
| 6109 | федеральное собрание | 1.075951e+07 | 2019.9 | 1.075951e+07 | 6110 |
| 6110 | армия | 1.212784e+07 | 2019.9 | 1.212784e+07 | 6111 |
| 6111 | президент | 1.958996e+07 | 2019.9 | 1.958996e+07 | 6112 |
| 6112 | промышленность и энергетика | 2.525769e+07 | 2019.9 | 2.525769e+07 | 6113 |
| 6113 | МИД | 2.967170e+07 | 2019.9 | 2.967170e+07 | 6114 |
| 6114 | финансы | 3.516734e+07 | 2019.9 | 3.516734e+07 | 6115 |
| 6115 | таможня | 4.080228e+07 | 2019.9 | 4.080228e+07 | 6116 |
| 6116 | судебные приставы | 4.166289e+07 | 2019.9 | 4.166289e+07 | 6117 |
| 6117 | прокуратура, полиция и спецслужбы | 5.685519e+07 | 2019.9 | 5.685519e+07 | 6118 |
| 6118 | налоги | 1.168560e+08 | 2019.9 | 1.168560e+08 | 6119 |
| 6119 | суды | 1.262668e+08 | 2019.9 | 1.262668e+08 | 6120 |
6120 rows × 5 columns
```
# сохраняем все в csv для загрузки в d3.js
data.to_csv('data_groups.csv', index=False)
```
Дальше надо записать содержимое из полученного файла csv в файл <https://github.com/legale/d3.js-portable/blob/master/barchart-race-ppp-bundle2.html> в переменную `csv_string`.
Смотрим полученные гонки. Результаты гонки говорят сами за себя.
Тут в html:
<https://vneberu.ru/barchart-race2.html>
Тут видео на youtube:
Спасибо за внимание, добро пожаловать в комментарии.
ССЫЛКИ
------
Библиотеку prepack можно посмотреть тут: <https://github.com/legale/prepack>
Собранные бандлы с гонками можно скачать по ссылкам выше, [но можно тут](https://github.com/legale/d3.js-portable). | https://habr.com/ru/post/501760/ | null | ru | null |
# Рекомендации по запуску приложений в OpenShift Service Mesh
В этом посте мы собрали советы и рекомендации, которые стоит изучить, прежде чем переносить свои приложения в сервисную сетку OpenShift Service Mesh (OSSM). Если вы никогда не сталкивались с сервисными сетками Service Mesh, то для начала можно глянуть [страницу OSSM на сайте Red Hat](https://www.openshift.com/learn/topics/service-mesh) и почитать о том, как [система Istio реализована на платформе OpenShift](https://www.openshift.com/blog/istio-on-openshift-in-2020).
Начав изучать Istio, вы скорее всего столкнетесь с приложением [*bookinfo*](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/prepare-to-deploy-applications-ossm.html#ossm-tutorial-bookinfo-overview_deploying-applications-ossm), которое почти повсеместно используется в качеств наглядного пособия, или же с более продвинутым вариантом в виде приложения [Travel Agency](https://www.openshift.com/blog/installing-service-mesh-is-only-the-beginning) . Разбирая эти и другие примеры, вы сможете лучшее понять, как устроена mesh-сетка, и затем уже переносить в нее свои приложения
Сначала о главном
-----------------
Начать стоит с [официальная документация OpenShift Service Mesh 2.0 (OSSM)](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/ossm-architecture.html), в ней можно найти массу полезных материалов, в том числе:
* [Описание различий](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/ossm-vs-community.html) между OSSM и родительским СПО-проектом Istio.
* Описание, как [установить OSSM](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/installing-ossm.html) и
* Протестировать ее с помощью [приложения-примера *bookinfo*](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/prepare-to-deploy-applications-ossm.html#ossm-tutorial-bookinfo-overview_deploying-applications-ossm).
* Istio[v1.6](https://istio.io/v1.6/) ([архив версий](https://istio.io/archive/)).
* Kiali[v1.24](https://kiali.io/documentation/v1.24/) ([архив версий](https://kiali.io/documentation/)).
* Jaeger[1.20](https://www.jaegertracing.io/docs/1.20/).
Когда дойдет до интеграции вашего приложения в mesh-сетку, надо будет копнуть поглубже и заглянуть в документацию по Istio. Также стоит ознакомиться с release notes соответствующих [версий компонентов, входящих Red Hat OSSM](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/servicemesh-release-notes.html#component-versions-included-in-red-hat-openshift-service-mesh-version-2-0-1).
Если еще не сделали это, то протестируйте свою mesh-сетку с помощью приложения-примера [Bookinfo](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/prepare-to-deploy-applications-ossm.html#ossm-tutorial-bookinfo-overview_deploying-applications-ossm). Если все пройдет нормально, то в нее уже можно будет добавлять ваше приложение.
Первое, что надо сделать при добавлении в mesh-сетку своего приложения – убедиться, что sidecar’ы проксей Envoy правильно внедрены в pod’ы вашего приложения. В OSSM такое внедрение делается довольно просто и хорошо описывается в [документации](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/prepare-to-deploy-applications-ossm.html#ossm-automatic-sidecar-injection_deploying-applications-ossm).
Потом воспользуйтесь [примером](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/ossm-traffic-manage.html#ossm-routing-bookinfo_routing-traffic), где описывается, как настраивать [ingress-шлюз](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/ossm-traffic-manage.html#ossm-routing-gw_routing-traffichttps://docs.openshift.com/container-platform/4.6/service_mesh/v2x/ossm-traffic-manage.html) для приложения Bookinfo, и примените эту конфигурацию к своему приложению, чтобы к нему можно было получать доступ не только изнутри кластера OpenShift, но и извне.
Выбор протоколов
----------------
Важно четко понимать, как Istio определяет, какие протоколы использует ваше приложение. Для этого изучите все, что связано с *Protocol Selection* и *app and version labels* в разделе документации [Pods and Services](https://istio.io/v1.6/docs/ops/deployment/requirements/).
В противном случае скорее всего произойдет следующий казус. Допустим, вы внедряете в свое приложение sidecar’ы проксей Istio, загружаете его тестовым трафиком и идёте смотреть граф Kiali. И видите там совсем не то, что ожидали (рис. ниже). Почему? Потому что Kiali и Istio не смогли правильно определить, какие протоколы используют наши сервисы, и отобразили соединения между ними как TCP, а не HTTP.
На графе Kiali есть только TCP-соединенияIstio должен точно знать, какой протокол используется. Если Istio не может определить протокол автоматически, то трактует трафик как обычный (plain) TCP. Если у вас какие-то другие протоколы, их надо вручную прописать в определениях служб Kubernetes Service вашего приложения. Подробнее об этом написано в документации, раздел [Protocol Selection](https://istio.io/latest/docs/ops/configuration/traffic-management/protocol-selection/).
Чтобы вручную задать, какой протокол использует ваш сервис, надо соответствующим образом настроить объекты Kubernetes Service. В нашем случае в них по умолчанию отсутствовало значение параметра spec -> ports -> name. Если прописать "name: http" для сервисов A, B и C, то граф отобразит эти соединения как HTTP.
Kiali
-----
Kiali – это отличный инструмент для того, чтобы начать работать с OpenShift Service Mesh. Можно даже сказать, что именно на нем и надо сосредоточиться, когда вы начинаете работать с mesh-сеткой.
Kiali визуализирует метрики, генерируемые Istio, и помогает понять, что происходит в mesh-сетке. В качестве одной из первоочередных задач мы настоятельно рекомендуем изучить [документацию Kiali](https://kiali.io/documentation/latest/features/).
Kiali не только пригодится для визуализации вашего приложения, но и поможет с созданием, проверкой и управлением конфигурациями mesh-сетки. Поначалу изучение конфигураций Istio может быть делом сложным, и Kiali тут сильно поможет.
В Kiali есть много полезных вещей, поэтому мы очень советуем изучить список ее [возможностей](https://kiali.io/documentation/v1.24/features/) и [FAQ](https://kiali.io/documentation/v1.24/faq/). Например, там есть следующие интересные вещи:
* [Функции настройки и валидации](https://kiali.io/documentation/v1.28/features/#_configuration_and_validation_features)
* [Мастера настройки и верификация настроек](https://kiali.io/documentation/v1.24/features/#_istio_wizards)
* [Автоматическое внедрение sidecar’ов](https://kiali.io/documentation/v1.28/features/#_automatic_sidecar_injection)
* [Функции корреляции в Kiali](https://developers.redhat.com/blog/2020/02/18/metrics-and-traces-correlation-in-kiali/)
Другая важная вещь – умение маркировать сервисы приложения с помощью меток (label). Istio, а следовательно и Kiali, требует, чтобы маркировка велась строго определенным образом, который поначалу отнюдь не кажется очевидным, особенно когда весь ваш опыт исчерпывается работой с приложением-примером Bookinfo, где все метки уже есть и всё прекрасно работает «из коробки».
[Развертывания с использованием меток app и version](https://istio.io/v1.6/docs/ops/deployment/requirements/) – это важно, поскольку они добавляет контекстную информацию к метрикам и телеметрии, которые собираются Istio и затем используются в Kiali и Jaeger.
Istio может показать такие связи между внутренними и внешними сервисами, о существовании которых вы даже не догадывались. Это полезно, но иногда может раздражать при просмотре графа. К счастью, с графа всегда можно убрать эти [Неизвестные узлы](https://kiali.io/documentation/latest/faq/#many-unknown).
Еще одна полезная вещь в Kiali – это то, что она может [провести проверку вашей mesh-сетки](https://istio.io/v1.6/docs/tasks/observability/kiali/#validating-istio-configuration), что особенно полезно, когда вы сами создаете конфигурации.
Поначалу графы Kiali могут несколько обескураживать. Поэтому стоит изучить различные типы графов, начав с того, как [генерировать графа сервиса](https://istio.io/v1.6/docs/tasks/observability/kiali/#generating-a-service-graph) и какие бывают [функций наблюдения](https://kiali.io/documentation/latest/features/#_observability_features).
Jaeger-выборки
--------------
При первоначальном тестировании своего приложения в mesh-сетке вам, скорее всего, захочется, чтобы частота трассировки была больше 50%, желательно, 100%, чтобы отслеживать все тестовые запросы, проходящие через приложение. В этом случае Jaeger и Kiali быстрее наберут необходимые данные, а вам не придется долго ждать обновления информации.
Иначе говоря, нам надо, чтобы sample rate был равен 100% (тут есть соответствие: 10000 = 100%).
Для этого надо подредактировать объект ServiceMeshControlPlane (обычно называется basic-install) в вашем проекте Control Plane (обычно istio-system) и добавить или изменить там следующее значение:
```
spec:
tracing:
sampling: 10000 # 100%
```
Понятно, что после запуска приложения в продакшн уже не надо мониторить каждый запрос и частоту выборки стоит понизить процентов до пяти или ниже.
Распространение заголовков контекста трассировки
------------------------------------------------
Jaeger помогает [убрать одну из проблем, которая возникает при переходе на микросервисную архитектуру](https://www.openshift.com/blog/microservices-and-the-observability-macroheadache), но для этого все сервисы вашего приложения должны правильно распространять заголовки трассировки (trace headers).
Очень полезно отслеживать, как запросы ходят через сервисы (или даже множество сервисов) в вашей mesh-сетке. OSSM может здесь помочь за счет сбора данных в форме span’ов и трасс (trace). Просмотр трасс очень помогает понять сериализацию, параллелизм и источники задержек в вашем приложении. Вкратце, *span* – это интервал от начала выполнения единицы работы до ее завершения (например, полная отработка запроса «клиент-сервер»). *Трасса* – это путь, по которому запрос проходит, двигаясь по mesh-сети, или, другими словами, по мере того, как он передается от одного сервиса вашего приложения к другому. Подробнее об этом можно – и нужно – почитать в [документации OSSM](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/ossm-architecture.html#understanding-jaeger).
Обратите внимание, что в OSSM span’ы (единицы работы) автоматически генерируются средствами Istio, а вот трассы – нет. Поэтому чтобы *распределенные трассы (distributed traces*) были полностью просматриваемыми, разработчик должен изменить код так, чтобы любые существующие trace-заголовки правильно копировались при передаче запроса между сервисами. К счастью, вы не обязаны сами генерировать эти заголовки. Если изначально их нет, то они будут автоматически сгенерированы и добавлены первым Envoy-прокси, который встретится на пути запроса (обычно это прокси на ingress-шлюзе).
Вот список заголовков для распространения:
* x-request-id
* x-b3-traceid
* x-b3-spanid
* x-b3-parentspanid
* x-b3-sampled
* x-b3-flags
* x-ot-span-context
Распространение заголовков может выполняться вручную или с использованием [клиентских библиотек](https://www.jaegertracing.io/docs/1.21/client-libraries/) Jaeger, реализующих OpenTracing API.
Вот как делается ручное распространение trace-контекста на Java:
```
HttpHeaders upstreamHttpHeaders = new HttpHeaders();
if (downstreamHttpHeaders.getHeader(headerName: "x-request-id") != null)
upstreamHttpHeaders.set("x-request-id", downstreamHttpHeaders.getHeader( headerName: "x-request-id"));
```
*Примечание: это надо повторить для всех заголовков из списка выше.*
Мастера Kiali и редактор YAML
-----------------------------
[Проверки](https://kiali.io/documentation/v1.28/features/#_validations)
Ручная настройка yaml-манифестов – дело утомительное, особенно если значения в одном yaml должны совпадать со значениями в другом, а еще ведь есть жесткие правила отступов. К счастью, в Kiali есть отличная функция, которая поможет при создании и проверке конфигураций.
**Создание Istio-ресурсов с помощью Kiali-мастеров**
Большую часть конфигураций, которые понадобятся вам в первое время, можно создать с помощью соответствующих мастеров Kiali, которые вызываются через меню Services.
**YAML-редактор**
Kiali имеет собственный редактор YAML для просмотра и редактирования конфигурационных ресурсов Istio напрямую, который также выявляет некорректные конфигурации.
Часто бывает так, что граф Kiali вдруг выявляет в вашем приложении неизвестные ранее (в том числе и разработчикам) коммуникационные пути. Другими словами, Kiali помогает найти и выявить все существующие пути во время тестирования вашего приложения. Это, конечно, полезно, но иногда может и раздражать. В этом случае их можно просто не отображать на графе, введя "node=unknown" в поле ввода над графом Kiali.
Уберите из кода шифрование коммуникаций
---------------------------------------
Если вы уже защитили соединения между своими сервисами и/или (скорее всего) используете TLS для внешних соединений, то при переводе приложения в mesh-сетку их надо будет в обязательном порядке выключить и переключиться на чистый HTTP без шифрования. А всем шифрованием теперь займутся Envoy-прокси.
Если ваши сервисы будут связываться с внешними сервисами по TLS, то Istio не сможет инспектировать трафик и Kiali будет [отображать эти соединения только как TCP](https://kiali.io/documentation/latest/faq/#external-https-as-tcp).
В общем, используйте для взаимодействия сервисов только HTTP, но не HTTPS.
Также про внешние сервисы надо поставить в известность и вашу mesh-сетку (см. ниже «Настройка внешних сервисов»).
Упростите код
-------------
Самое время пересмотреть код вашего приложения и убрать из него лишнее.
Одно из преимуществ Service Mesh состоит в том, что реализацию многих вещей по сервисам можно убрать из приложения и отдать на откуп платформе, что помогает разработчикам сосредоточиться на бизнес-логике и упростить код. Например, можно рассмотреть следующие доработки:
* Как сказано выше, убрать HTTPS-шифрование.
* Убрать всю логику обработки таймаутов и повторных попыток.
* Убрать все ставшие ненужными библиотеки.
* Помните, что mesh-сетка увеличивает количество пулов подключений. Если раньше два сервиса связывались напрямую, то теперь у каждого из них есть свой прокси-посредник. То есть фактически вместо одного пула подключений появляются три:
1. От вашего первого сервиса к локальному для него sidecar’у Envoy (расположены в одном и том же pod’е).
2. От этого sidecar’а к другому sidecar’у Envoy, который обслуживает второй сервис и расположен в одном pod’е с этим сервисом.
3. И наконец, от того другого sidecar’а, собственно, ко второму сервису. Поэтому, возможно, стоит упростить конфигурацию, чтобы не раздувать пулы подключений. Подробнее об этом хорошо написано [здесь](https://karlstoney.com/2019/05/31/istio-503s-ucs-and-tcp-fun-times/).
Еще один плюс оптимизации кода – это возможность уменьшить размер сервисов и (возможно) поднять их производительность, убрав из них те вещи, которые теперь реализуются на уровне mesh-сетки.
Объекты Service
---------------
Убедитесь, что все сервисы вашего приложения взаимодействуют друг с другом через имена объектов Kubernetes Service, а не через OpenShift Routes.
Просто проверьте, вдруг ваши разработчики используют OpenShift Routes (конечные точки ingress на кластере) для организации коммуникаций между сервисами в пределах одного кластера. Если эти сервисы должны входить в одну и ту же mesh-сетку, то разработчиков надо заставить поменять конфигурации/манифесты своих приложений, чтобы вместо конечных точек OpenShift Route использовались имена объектов Kubernetes Service.
Функции аварийного переключения (fallback)
------------------------------------------
В коде вашего приложения, возможно, потребуется поменять еще кое-что. Envoy-прокси конечно заботятся о таймаутах и повторах, чтобы межсервисные коммуникации были более надежными, но иногда сервисы падают полностью, и такие отказы можно отработать только на уровне приложения. Для этого в коде приложения надо реализовать функции аварийного переключения (fallback), чтобы оно уже само решало, как быть дальше, когда Envoy-прокси уже ничем не может помочь.
Настройка внешних сервисов
--------------------------
Envoy-прокси могут работать не только внутри кластера, но и отправлять трафик за его пределы, если зарегистрировать внешние сервисы в mesh-сетке.
Скорее всего, ваше приложение общается с сервисами за пределами mesh-сетки. Поскольку это внешние по отношению mesh-сетке сервисы, то толку от нее здесь не будет, да? А вот и нет. Эти внешние сервисы можно прописать в Service Mesh и использовать часть её функций и для них.
Подробнее и с примерами можно почитать об этом в [документации OSSM](https://docs.openshift.com/container-platform/4.6/service_mesh/v2x/ossm-traffic-manage.html#ossm-routing-se_routing-traffic). Есть и подробный разбор, как [визуализировать внешний трафик Istio в Kiali](https://medium.com/kialiproject/visualizing-istio-external-traffic-with-kiali-9cba75b337f4), и как использовать [TLS origination](https://kiali.io/documentation/latest/faq/#external-https-as-tcp) для зашифрованного egress-трафика.
Вот некоторые из функций Istio, которые можно использовать при работе с внешними сервисами:
1. Шифрование (и простое, и Mutual TLS).
2. Таймауты и повторы.
3. Circuit breaker’ы.
4. Маршрутизация трафика.
Заключение
----------
С OpenShift Service Mesh вы можете лучше *понять, как устроена ваша mesh-сетка*, сделать ее более просматриваемой, что, в свою очередь, помогает *поднять общий уровень сложности* микросервисной архитектуры. Бонусом идет возможность реализовать больше функций и возможностей на уровне самой платформе OpenShift, а не кодировать их на уровне отдельных приложений, что облегчает жизнь разработчикам. Еще один плюс – реализация вещей, которые раньше казались неподъемными, например, канареечное развертывание, A/B-тестирование и т.п. Кроме того, вы получаете *целостный подход* к управлению микросервисными приложениями на всех своих кластерах OpenShift, что хорошо с точки зрения преемственности людей и непрерывности процессов. В конечном итоге, это поможет перейти от монолитных приложений к распределенной микросервисной архитектуре и работать в большей степени на уровне конфигураций, чем кода. | https://habr.com/ru/post/552450/ | null | ru | null |
# Структура PKCS7-файла
Привет!
Довелось мне на днях столкнуться с такой напастью как p7s файл и, как вследствие этого, с Cryptographic Message Syntax (CMS). На хабре нашлась интересная [статья](http://habrahabr.ru/company/aktiv-company/blog/191866/) описывающая структуру CMS данных, но в ней к сожалению нет примера, позволяющего наглядно продемонстрировать CMS на практике. Я хочу немного дополнить ту статью и разобрать внутренности файла цифровой подписи p7s.
#### ASN.1
Что же такое Cryptographic Message Syntax? Это [стандарт](http://tools.ietf.org/html/rfc5652), описывающий структуру сообщений, полученных с использованием криптографии.
В стандарте описывается шесть типов данных: data, signedData, envelopedData, signedAndEnvelopedData, digestedData, and encryptedData. В данном топике я расскажу о типе signedData (данные с электронной подписью).
Прежде всего следует сказать, что стандартный p7s файл имеет ASN.1 структуру.
ASN.1 — формат записи, с помощью которого можно описывать сложные структуры данных, состоящие из различных типов.
Приведу краткую выдержку из своего старого топика про [x.509 сертификаты](http://habrahabr.ru/post/194664/):
> ASN.1-кодировка описывается следующим правилом. Сперва записываются байты, характеризующий тип данных, затем последовательность байтов хранящих сведения о длине данных и лишь после этого следуют сами данные.
>
>
>
> К примеру, для кодировки целого числа INTEGER 65537 используется следующая форма: 02 03 01 00 01.
>
> Здесь первый байт 02, определяет тип INTEGER (полную таблицу типов вы можете найти например [тут](http://ru.wikipedia.org/wiki/X.690)), второй байт 03 показывает длину блока. А следующие за этим байты 01 00 01, являются шестнадцатеричной записью нашего числа 65537.
>
>
>
> В нашем случае, для описание простейшего самоподписанного сертификата, достаточно 9 типов данных. Приведем таблицу кодирования для этих типов:
>
>
>
> | **Наименование типа** | **Краткое описание** | **Представление типа в DER-кодировке** |
> | --- | --- | --- |
> | SEQUENCE | Используется для описания структуры данных, состоящей из различных типов. | 30 |
> | INTEGER | Целое число. | 02 |
> | OBJECT IDENTIFIER | Последовательность целых чисел. | 06 |
> | UTCTime | Временной тип, содержит 2 цифры для определения года | 17 |
> | GeneralizedTime | Расширенный временной тип, содержит 4 цифры для обозначения года. | 18 |
> | SET | Описывает структуру данных разных типов. | 31 |
> | UTF8String | Описывает строковые данные. | 0C |
> | NULL | Собственно NULL | 05 |
> | BIT STRING | Тип для хранения последовательности бит. | 03 |
>
>
>
>
Подробное описание ASN.1 дано в статье [«ASN.1 простыми словами»](http://habrahabr.ru/post/150757/). Я же просто расскажу какие сведения можно извлечь из самого обыкновенного p7s файла.
#### Структура P7S файла
В [стандарте CMS](http://tools.ietf.org/html/rfc5652) приводится описание структуры файла содержащего сведения об ЭЦП.
```
SignedData ::= SEQUENCE {
version CMSVersion,
digestAlgorithms DigestAlgorithmIdentifiers,
encapContentInfo EncapsulatedContentInfo,
certificates [0] IMPLICIT CertificateSet OPTIONAL,
crls [1] IMPLICIT RevocationInfoChoices OPTIONAL,
signerInfos SignerInfos }
```
Согласно стандарту, файл с цифровой подписью в CSM формате должен содержать следующие поля:
* **CMSVersion** — целое число, обозначающее версию используемого синтаксиса.
* **DigestAlgorithmIdentifiers** — идентификатор одной или нескольких хеш-функций которые используются при вычислении подписей.
* **EncapsulatedContentInfo** — собственно данные, которые были подписаны.
* **CertificateSet** — набор всех необходимых сертификатов, необходимых для проверки подписей.
* **RevocationInfoChoices** — набор списков отзыва сертификатов.
* **SignerInfos** — структура данных содержащая информацию о подписанте.
Для того чтобы понять как это выглядит на практике подпишем произвольный набор байт тестовым сертификатом и сгенерируем p7s файл с типом SignedData.
Получившийся файл будет иметь ASN.1 структуру:
**Самый обычный файл с электронной цифровой подписью**
```
30 82 03 99 06 09 2A 86 48 86 F7 0D 01 07 02 A0
82 03 8A 30 82 03 86 02 01 01 31 0B 30 09 06 05
2B 0E 03 02 1A 05 00 30 27 06 09 2A 86 48 86 F7
0D 01 07 01 A0 1A 04 18 54 00 65 00 73 00 74 00
20 00 6D 00 65 00 73 00 73 00 61 00 67 00 65 00
A0 82 02 6B 30 82 02 67 30 82 01 D0 A0 03 02 01
02 02 11 00 D9 01 B8 B8 2F 74 CA 0E 8D 84 48 5A
22 65 E1 C3 30 0D 06 09 2A 86 48 86 F7 0D 01 01
05 05 00 30 21 31 10 30 0E 06 03 55 04 03 0C 07
54 65 73 74 20 43 41 31 0D 30 0B 06 03 55 04 0A
0C 04 54 65 73 74 30 1E 17 0D 31 35 30 34 32 39
31 32 33 33 32 30 5A 17 0D 31 35 30 35 30 36 31
32 33 33 32 30 5A 30 43 31 0D 30 0B 06 03 55 04
0C 0C 04 54 65 73 74 31 0D 30 0B 06 03 55 04 0B
0C 04 54 65 73 74 31 0D 30 0B 06 03 55 04 0A 0C
04 54 65 73 74 31 14 30 12 06 03 55 04 03 0C 0B
5B 54 45 53 54 5D 20 54 65 73 74 30 81 9F 30 0D
06 09 2A 86 48 86 F7 0D 01 01 01 05 00 03 81 8D
00 30 81 89 02 81 81 00 92 98 ED 87 B0 E9 DB 66
AB 06 D1 8E 7B 1B 17 40 10 98 81 D3 06 F3 B5 CA
A7 FC D4 FF CB A2 2D 98 48 F9 1E 10 25 0F C6 1C
45 5D B7 A6 76 57 60 E7 BF BF DB 66 E0 D7 FC 1F
0B A1 99 1B EE C0 0D AA 76 EE 9A B8 C6 85 5D D5
C8 FA AF F8 FD 12 67 DE 6F 2D BE 5C 3E B1 88 1F
49 B2 90 AA DD B2 85 A6 46 BA 93 14 65 8C C5 20
5A AC 59 62 59 51 F1 7F BC 1E 7A D7 9F F8 8B 3B
48 2A 43 2B 7E 20 44 4B 02 03 01 00 01 A3 7D 30
7B 30 0B 06 03 55 1D 0F 04 04 03 02 04 F0 30 2C
06 03 55 1D 25 01 01 FF 04 22 30 20 06 08 2B 06
01 05 05 07 03 04 06 08 2B 06 01 05 05 07 03 02
06 0A 2B 06 01 04 01 82 37 0A 03 0C 30 1D 06 03
55 1D 0E 04 16 04 14 C7 05 8A 12 A4 B5 B7 3E F4
E5 87 6C 34 B9 BB 32 15 5E 96 91 30 1F 06 03 55
1D 23 04 18 30 16 80 14 6A E7 AB 14 AA E8 B4 C0
A8 9E 18 9D 81 68 B1 19 9F FB 25 B0 30 0D 06 09
2A 86 48 86 F7 0D 01 01 05 05 00 03 81 81 00 20
07 EF BF 72 C4 ED B8 8F B4 03 6A B8 F9 0E 16 84
89 7F B5 C5 0E 31 17 CF 80 9D B1 FB C1 C6 8B CF
3F 9C 34 51 76 21 55 29 30 E9 F3 B7 39 F5 4C E0
81 C1 04 70 67 C5 0C AE 07 80 B2 44 CB 18 3F 0E
68 67 BC EB AA 95 75 8F 7C 18 46 5B AD 96 30 70
CA 63 09 99 54 86 87 27 0A D6 DE 36 26 6A 85 64
53 B5 03 22 59 72 7F 3E 46 43 60 C2 AA EC 70 9E
F7 0F 13 F5 D6 66 49 EC FE 7A 52 19 D1 27 40 31
81 DB 30 81 D8 02 01 01 30 36 30 21 31 10 30 0E
06 03 55 04 03 0C 07 54 65 73 74 20 43 41 31 0D
30 0B 06 03 55 04 0A 0C 04 54 65 73 74 02 11 00
D9 01 B8 B8 2F 74 CA 0E 8D 84 48 5A 22 65 E1 C3
30 09 06 05 2B 0E 03 02 1A 05 00 30 0D 06 09 2A
86 48 86 F7 0D 01 01 01 05 00 04 81 80 57 14 04
A3 2C 01 5B 61 B9 57 F0 02 95 0A 33 E0 94 75 CA
66 DE D0 90 93 8A E2 1A FE 6E 0B 39 C9 02 38 50
DE 7C 38 48 27 36 E9 7B FF 6C B4 DB B0 60 5C CD
78 78 54 52 54 99 A9 C4 2B 28 D7 BA AD 19 B2 6D
0D 43 B6 23 1B 5E DC B2 3E 70 FF B4 68 1D 1C 3B
6F D5 A4 0D 50 8F 55 45 7E 04 7D 2C C5 C3 80 3A
23 27 D2 E2 B4 1A 05 2E D1 3E 3A 1E 97 88 D9 12
AE B3 56 49 E9 34 97 EF 47 70 E1 66 9E
```
Используя [ASN.1-парсер](http://lapo.it/asn1js/) можно легко разобрать что скрывается за шестнадцатеричным кодом.
```
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.7.2 (signedData)
[0] {
SEQUENCE {
INTEGER 0x01 (1 decimal)
SET {
SEQUENCE {
OBJECTIDENTIFIER 1.3.14.3.2.26 (id_sha1)
NULL
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.7.1 (data)
[0] {
OCTETSTRING 540065007300740020006D00650073007300610067006500
}
}
[0] {
SEQUENCE {
SEQUENCE {
[0] {
INTEGER 0x02 (2 decimal)
}
INTEGER 0x00D901B8B82F74CA0E8D84485A2265E1C3
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.5 (sha1WithRSAEncryption)
NULL
}
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String 'Test CA'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
}
SEQUENCE {
UTCTime '150429123320Z'
UTCTime '150506123320Z'
}
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.12 (title)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.11 (organizationalUnitName)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String '[TEST] Test'
}
}
}
SEQUENCE {
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.1 (rsaEncryption)
NULL
}
BITSTRING 0x308189028181009298ED87B0E9DB66AB06D18E7B1B1740109881D306F3B5CAA7FCD4FFCBA22D9848F9
1E10250FC61C455DB7A6765760E7BFBFDB66E0D7FC1F0BA1991BEEC00DAA76EE9AB8C6855DD5C8FAAFF8FD1267D
E6F2DBE5C3EB1881F49B290AADDB285A646BA9314658CC5205AAC59625951F17FBC1E7AD79FF88B3B482A432B7E20
444B0203010001 : 0 unused bit(s)
}
[3] {
SEQUENCE {
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.15 (keyUsage)
OCTETSTRING 030204F0
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.37 (extKeyUsage)
BOOLEAN TRUE
OCTETSTRING 302006082B0601050507030406082B06010505070302060A2B0601040182370A030C
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.14 (subjectKeyIdentifier)
OCTETSTRING 0414C7058A12A4B5B73EF4E5876C34B9BB32155E9691
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.35 (authorityKeyIdentifier)
OCTETSTRING 301680146AE7AB14AAE8B4C0A89E189D8168B1199FFB25B0
}
}
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.5 (sha1WithRSAEncryption)
NULL
}
BITSTRING 0x2007EFBF72C4EDB88FB4036AB8F90E1684897FB5C50E3117CF809DB1FBC1C68BCF3F9C34517621552930E9F
3B739F54CE081C1047067C50CAE0780B244CB183F0E6867BCEBAA95758F7C18465BAD963070CA630999548687270AD6DE3
6266A856453B5032259727F3E464360C2AAEC709EF70F13F5D66649ECFE7A5219D12740 : 0 unused bit(s)
}
}
SET {
SEQUENCE {
INTEGER 0x01 (1 decimal)
SEQUENCE {
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String 'Test CA'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
}
INTEGER 0x00D901B8B82F74CA0E8D84485A2265E1C3
}
SEQUENCE {
OBJECTIDENTIFIER 1.3.14.3.2.26 (id_sha1)
NULL
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.1 (rsaEncryption)
NULL
}
OCTETSTRING 571404A32C015B61B957F002950A33E09475CA66DED090938AE21AFE6E0B39C9023850DE7C38482736E97
BFF6CB4DBB0605CCD787854525499A9C42B28D7BAAD19B26D0D43B6231B5EDCB23E70FFB4681D1C3B6FD5A40D508F55
457E047D2CC5C3803A2327D2E2B41A052ED13E3A1E9788D912AEB35649E93497EF4770E1669E
}
}
}
}
}
```
Начнем по порядку. Как видно из примера, p7s файл представляет собой одну большую структуру данных с типом SEQUENCE, включающую в себя все описанные в стандарте поля.
Открывает блок тип данных OBJECTIDENTIFIER со значением 1.2.840.113549.1.7.2 (SignedData), который однозначно дает понять с какого рода объектом мы имеем дело.
После чего один за другим следуют блоки:
* **version**, версия синтаксиса.
```
INTEGER 0x01 (1 decimal)
```
* **digestAlgorithms** — идентификатор хеш-функции использовавшейся в подписи. Имеет значение SEQUENCE с двумя атрибутами: идентификатором алгоритма и пустым атрибутом со значением null.
```
SET {
SEQUENCE {
OBJECTIDENTIFIER 1.3.14.3.2.26 (id_sha1)
NULL
}
}
```
* **contentInfo** — подписанные данные, представленные в двоичном формате. Следует уточнить, что тип signedData не обязательно должен включать в себя сами данные. В этом случае contentInfo будет включать атрибут OBJECTIDENTIFIER и пустое значение null.
```
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.7.1 (data)
[0] {
OCTETSTRING 540065007300740020006D00650073007300610067006500
}
}
```
* **certificates** — X509 сертификат подписавшей стороны. Если данные были подписаны несколькими лицами, блок содержит информацию о всех сертификатах, необходимых для проверки подписей.
```
SEQUENCE {
SEQUENCE {
[0] {
INTEGER 0x02 (2 decimal)
}
INTEGER 0x00D901B8B82F74CA0E8D84485A2265E1C3
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.5 (sha1WithRSAEncryption)
NULL
}
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String 'Test CA'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
}
SEQUENCE {
UTCTime '150429123320Z'
UTCTime '150506123320Z'
}
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.12 (title)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.11 (organizationalUnitName)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String '[TEST] Test'
}
}
}
SEQUENCE {
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.1 (rsaEncryption)
NULL
}
BITSTRING 0x308189028181009298ED87B0E9DB66AB06D18E7B1B1740109881D306F3B5CAA7FCD4FFCBA22D9848F9
1E10250FC61C455DB7A6765760E7BFBFDB66E0D7FC1F0BA1991BEEC00DAA76EE9AB8C6855DD5C8FAAFF8FD1267D
E6F2DBE5C3EB1881F49B290AADDB285A646BA9314658CC5205AAC59625951F17FBC1E7AD79FF88B3B482A432B7E20
444B0203010001 : 0 unused bit(s)
}
[3] {
SEQUENCE {
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.15 (keyUsage)
OCTETSTRING 030204F0
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.37 (extKeyUsage)
BOOLEAN TRUE
OCTETSTRING 302006082B0601050507030406082B06010505070302060A2B0601040182370A030C
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.14 (subjectKeyIdentifier)
OCTETSTRING 0414C7058A12A4B5B73EF4E5876C34B9BB32155E9691
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.35 (authorityKeyIdentifier)
OCTETSTRING 301680146AE7AB14AAE8B4C0A89E189D8168B1199FFB25B0
}
}
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.5 (sha1WithRSAEncryption)
NULL
}
BITSTRING 0x2007EFBF72C4EDB88FB4036AB8F90E1684897FB5C50E3117CF809DB1FBC1C68BCF3F9C34517621552930E9F
3B739F54CE081C1047067C50CAE0780B244CB183F0E6867BCEBAA95758F7C18465BAD963070CA630999548687270AD6DE3
6266A856453B5032259727F3E464360C2AAEC709EF70F13F5D66649ECFE7A5219D12740 : 0 unused bit(s)
}
}
```
* **SignerInfos** — информация о подписавшем, содержит сведения об издателе, серийный номер сертификата подписавшего, а также идентификаторы хеш-функции и асимметричного алгоритма шифрования используемых при подписи.
```
SEQUENCE {
INTEGER 0x01 (1 decimal)
SEQUENCE {
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String 'Test CA'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
}
INTEGER 0x00D901B8B82F74CA0E8D84485A2265E1C3
}
SEQUENCE {
OBJECTIDENTIFIER 1.3.14.3.2.26 (id_sha1)
NULL
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.1 (rsaEncryption)
NULL
}
OCTETSTRING 571404A32C015B61B957F002950A33E09475CA66DED090938AE21AFE6E0B39C9023850DE7C38482736E97
BFF6CB4DBB0605CCD787854525499A9C42B28D7BAAD19B26D0D43B6231B5EDCB23E70FFB4681D1C3B6FD5A40D508F55
457E047D2CC5C3803A2327D2E2B41A052ED13E3A1E9788D912AEB35649E93497EF4770E1669E
}
```
Помимо приведенных выше обязательных полей в объекте с типом SignedData могут использоваться опциональные поля, такие как signedAttributes, добавляемые в блок SignerInfo. SignedAttributes добавляются при вычислении хеш-значения от подписываемых данных, поэтому изменение этих полей делает подпись недействительной.
Если блок SignedAttributes используется, то он должен содержать минимум два поля:
* Поле описывающее тип данных, содержащихся в блоке contentInfo
* Поле хранящее хеш-значение блока contentInfo
Рассмотрим еще один пример p7s файла, созданного с использованием SignedAttributes.
```
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.7.2 (signedData)
[0] {
SEQUENCE {
INTEGER 0x01 (1 decimal)
SET {
SEQUENCE {
OBJECTIDENTIFIER 1.3.14.3.2.26 (id_sha1)
NULL
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.7.1 (data)
[0] {
OCTETSTRING 540065007300740020006D00650073007300610067006500
}
}
[0] {
SEQUENCE {
SEQUENCE {
[0] {
INTEGER 0x02 (2 decimal)
}
INTEGER 0x00D901B8B82F74CA0E8D84485A2265E1C3
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.5 (sha1WithRSAEncryption)
NULL
}
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String 'Test CA'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
}
SEQUENCE {
UTCTime '150429123320Z'
UTCTime '150506123320Z'
}
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.12 (title)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.11 (organizationalUnitName)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String '[TEST] Test'
}
}
}
SEQUENCE {
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.1 (rsaEncryption)
NULL
}
BITSTRING 0x308189028181009298ED87B0E9DB66AB06D18E7B1B1740109881D306F3B5CAA7FCD4FFCBA22D9848F91E102
50FC61C455DB7A6765760E7BFBFDB66E0D7FC1F0BA1991BEEC00DAA76EE9AB8C6855DD5C8FAAFF8FD1267DE6F2DBE5C
3EB1881F49B290AADDB285A646BA9314658CC5205AAC59625951F17FBC1E7AD79FF88B3B482A432B7E20444B0203010001 : 0 unused bit(s)
}
[3] {
SEQUENCE {
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.15 (keyUsage)
OCTETSTRING 030204F0
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.37 (extKeyUsage)
BOOLEAN TRUE
OCTETSTRING 302006082B0601050507030406082B06010505070302060A2B0601040182370A030C
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.14 (subjectKeyIdentifier)
OCTETSTRING 0414C7058A12A4B5B73EF4E5876C34B9BB32155E9691
}
SEQUENCE {
OBJECTIDENTIFIER 2.5.29.35 (authorityKeyIdentifier)
OCTETSTRING 301680146AE7AB14AAE8B4C0A89E189D8168B1199FFB25B0
}
}
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.5 (sha1WithRSAEncryption)
NULL
}
BITSTRING 0x2007EFBF72C4EDB88FB4036AB8F90E1684897FB5C50E3117CF809DB1FBC1C68BCF3F9C34517621552930E9F
3B739F54CE081C1047067C50CAE0780B244CB183F0E6867BCEBAA95758F7C18465BAD963070CA630999548687270AD6DE3
6266A856453B5032259727F3E464360C2AAEC709EF70F13F5D66649ECFE7A5219D12740 : 0 unused bit(s)
}
}
SET {
SEQUENCE {
INTEGER 0x01 (1 decimal)
SEQUENCE {
SEQUENCE {
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.3 (commonName)
UTF8String 'Test CA'
}
}
SET {
SEQUENCE {
OBJECTIDENTIFIER 2.5.4.10 (organizationName)
UTF8String 'Test'
}
}
}
INTEGER 0x00D901B8B82F74CA0E8D84485A2265E1C3
}
SEQUENCE {
OBJECTIDENTIFIER 1.3.14.3.2.26 (id_sha1)
NULL
}
[0] {
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.9.3 (contentType)
SET {
OBJECTIDENTIFIER 1.2.840.113549.1.7.1 (data)
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.9.5 (signingTime)
SET {
UTCTime '150429124539Z'
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.9.4 (messageDigest)
SET {
OCTETSTRING F21FA6C3A1A5756D74B11C65B7D38F7EB9F458B5
}
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.1.1 (rsaEncryption)
NULL
}
OCTETSTRING 21D1762506C25894B98E6BD3BB11566719AEBF642B7A4541494C45F181880D936ABC28774BA575C53CC
1CB9551ABA21359FD3FA9013DE4242802674A1C304B2601183EA8015840EEF0D0D0312E361088725A255A869EEC394C
826712F684E0BA22806BD14404EA1DD80601A8C1E6598F1CCF907EE2891FB58683EEEF121D2312
}
}
}
}
}
```
Этот пример отличается от предыдущего наличием дополнительного блока:
```
[0] {
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.9.3 (contentType)
SET {
OBJECTIDENTIFIER 1.2.840.113549.1.7.1 (data)
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.9.5 (signingTime)
SET {
UTCTime '150429124539Z'
}
}
SEQUENCE {
OBJECTIDENTIFIER 1.2.840.113549.1.9.4 (messageDigest)
SET {
OCTETSTRING F21FA6C3A1A5756D74B11C65B7D38F7EB9F458B5
}
}
}
```
Именно в нем содержатся SignedAttributes. Помимо двух обязательных атрибутов при подписи был использован атрибут signedTime, который хранит время подписи.
#### Выводы
Таким образом стандартный p7s файл представляет собой нечто гораздо большее, чем сведения об электронной подписи и открытом ключе подписанта. В нем содержится сложная структура данных, представленная в ASN.1 формате и имеющая ряд обязательных полей, позволяющих получить сведения о подписавшей стороне. А также несколько опциональных полей, которые используются при вычислении итоговой подписи. | https://habr.com/ru/post/256367/ | null | ru | null |
# AMD APP SDK: Intermediate Language (IL)

ATI Stream SDK было переименовано в AMD Accelerated Parallel Processing (APP) SDK, на смену основного языка программирования GPGPU вычислений Brook+ пришел OpenCL. Однако, не многие догадываются, что писать код для ATI-шных карточек можно при помощи другой технологии: AMD Compute Abstraction Layer (CAL) / Intermediate Language (IL). Технология CAL предназначена для написания кода, взаимодействующего с GPU и выполняющегося на CPU, в то время как технология IL позволяет писать код, который будет выполняться непосредственно на GPU.
В данной статье будет рассмотрена технология IL, ее область применения, ограничения, преимущества по сравнению с OpenCL. Кому интересно, прошу под кат.
Введение
--------
Для начала, приведу некоторые сравнения с Nvidia CUDA SDK:
1. Язык программирования высокого уровня:
* Nvidia: CUDA C++ Extension
* AMD: OpenCL 1.1 либо Compute Abstraction Layer (CAL)
2. Язык программирования низкого уровня (псевдо ассемблер\*):
* Nvidia: Parallel Thread Execution (PTX)
* AMD: Intermediate Language (IL)
3. Соотношение «количество попугаев в секунду» (к примеру, количество перебираемых хешей в секунду) к «цене GPU»:
* Nvidia: x
* AMD: ~2x при использовании связки CAL/IL
\* означает, что язык хоть и похож на ассемблер, он все же оптимизируется компилятором и преобразовывается в разный код для разных GPU
За счет чего же можно получить такой выигрыш в производительности?
Особенности архитектуры AMD GPU
-------------------------------
Если внимательно почитать спецификацию Nvidia PTX и спецификацю AMD IL, то можно заметить, что операнды в Nvidia PTX являются однокомпонентыми векторами (то есть простыми n-битными регистрами), в то время как операнды AMD IL являются 4-х компонентыми векторами n-битных регистров. Это станет более понятно, если рассмотреть операцию умножения в обоих языках:
```
# Nvidia PTX
mul.u32 %r0, %r1, %r2
# AMD IL
umul r0.xyzw, r1.xyzw, r2.xyzw
```
Таким образом, за одну (почти за одну) операцию AMD GPU может изменить вплоть до 4-х n-битных регистров, а Nvidia GPU — только один n-битный регистр (имеется в виду в пределах одного GPU-потока). Но ведь OpenCL также позволяет объявлять многокомпонентные вектора и работать с ними! Тогда в чем отличие и зачем вообще нужен этот IL?
Отличие от OpenCL
-----------------
А все отличия заключаются банально в том, что разработчикам AMD APP SDK было либо сложно, либо технически невозможно создать компилятор, переводящий код, написанный по спецификации OpenCL, в код, написанный на AMD IL. Отсюда и возникли [ограничения](http://developer.amd.com/sdks/AMDAPPSDK/pages/DriverCompatibility.aspx) по поддержке стандарта OpenCL:
* OpenCL 1.0 поддерживается начиная примерно с Radeon HD 4000 Series (Beta Level Support) (возможно, отсутствует поддержка image object, т.е. текстурной памяти)
* OpenCL 1.1 поддерживается начиная примерно с Radeon HD 5000 Series
* OpenCL 1.2 поддерживается начиная примерно с Radeon HD 7000, но при этом еще даже не вышло SDK, поддерживающее эту версию стандарта
При этом стоит отметить, что AMD IL позволяет использовать для GPGPU-вычислений некоторые карточки из Radeon HD 3000 Series и даже из Radeon HD 2000 Series! (если быть совсем точным, то это GPU на чипах R600, RV610, RV630 и RV670)
Далее для краткости будем обозначать все GPU, начиная с Radeon HD 5000 Series, как Evergreen GPUs (это чип Radeon HD 5700), потому что только для этих карточек поддерживаются некоторые интересные операции.
Прежде чем перейти к объяснению принципов написания кода на AMD IL, я бы хотел заострить ваше внимание на
Особенности работы с памятью
----------------------------
Как я уже упоминал, AMD GPU работает с 4-х компонентыми векторами n-битных регистров, где n=32 (о том, как работать с 64-битными регистрами, далее). Это накладывает основное ограничение на память: выделять память можно только объемом, кратным 16 байтам. При этом нужно помнить, что при загрузке дынных из памяти минимальным объемом передачи являются опять же эти 16 байт. То есть совершенно неважно, укажите вы, что ваша память состоит из 4-х компонентых векторов по 1 байту (char4), что из 4-х компонентых векторов по 4 байта (int4), результат будет один — из памяти за одну операцию обмена загрузятся 16 байт.
Далее, в отличие от Nvidia GPU, AMD GPU выделяет локальную память в глобальной области (а это означает очень медленную скорость обмена данных), так что забудьте про локальную память. Используйте регистры и глобальную память.
И на последок: опять же в отличие от Nvidia GPU, есть только одна глобальная память, работающая на чтение-запись (далее это будет «g[]»), и много различных источников текстурной памяти (далее это будет «i0», «i1» и т.д.) и константной памяти (далее это будет «cb0», «cb1» и т.д.), работающих только на чтение.
Особенностью константной памяти является наличие кеширования при доступе всеми GPU-потоками к одной области данных (работает также быстро, как и регистры).
Особенностью текстурной памяти является кеширование чтения (от 8 КБ, если мне не изменяет память, в расчете на один потоковый процессор) и возможность обращения к памяти по вещественным координатам. При выходе за границы текстуры можно либо считывать граничный элемент, либо закольцовываться и считывать сначала (координата берется по модулю ширины/длины текстуры).
А теперь приступим к самому интересному:
Структура кода для AMD IL
-------------------------
### Работа с регистрами
Сперва небольшое пояснение, как происходит обмен между регистрами в операциях.
Выходной регистр на месте компоненты вектора может содержать либо имя компоненты, либо знак "\_", что означает, что данная компонента не будет изменена.
Каждый входной регистр на месте каждой компоненты может содержать **любое** имя из четырех компонент, либо «0», либо «1». Это означает, что в операции над соответствующей компонентой выходного регистра участвует либо компонента входного регистра, либо константа. Поясню сказанное на примере:
```
# r0.x = r1.z
# r0.y = r1.w
# r0.w = r1.y
mov r0.xy_w, r1.zwyy
# r0.y = 1
# r0.z = 0
mov r0._yz_, r1.x100
```
### Шейдеры
Код для AMD GPU оформляется в виде шейдеров. Есть возможность запускать как компьютерный шейдер (Compute Shader, CS), так и пиксельный шейдер (Pixel Shader, PS). Однако CS поддерживается, начиная только с Radeon HD 4000 Series. При этом скорость их работы почти одинаковая.
Известно, что количество одновременно запускаемых потоков на GPU определяется параметрами запуска: количество блоков, количество потоков на блок. Каждый мультипроцессор (от 8 штук) GPU берет на исполнение один блок. Затем делит запрошенное количество потоков на блок на куски (warp, кратно 32) и отдает каждому своему поточному процессору на исполнение один warp. Таким образом, реальное количество одновременно работающих потоков равно:
\* \*
Именно поэтому для наиболее быстрой работы требуется, чтобы в рамках одного warp'a потоки выполняли одну и ту же операцию, без ветвлений. Тогда эта операция выполнится за один раз.
Для того чтобы не рассматривать сферического коня в вакууме, рассмотрим простую задачу: каждый поток вычисляет свой локальный идентификатор в пределах блока (32 бита), глобальный идентификатор (32 бита), считывает константы (64 бита) из памяти команд и из памяти данных, считывает элемент из текстуры (128 бит). Все это он записывает в выходную память, каждому потоку для этого потребуется 256 бит.
**Примечание:** каждая строка текстуры содержит данные для потоков одного блока.
#### Pixel Shader
```
il_ps_2_0
; Константный буфер (cb0):
; cb0[0].x - искомая константа
; cb0[0].y - количество потоков
; cb0[0].zw - мусор
dcl_cb cb0[1]
; Входная текстура с данными (i0)
; тип текстуры - двумерная (обращение по двум координатам), ненормированная (иначе значения были бы типа float от 0 до 1)
; всем компонентам нужно задать один и тот же тип (в нашем случае uint)
dcl_resource_id(0)_type(2d,unnorm)_fmtx(uint)_fmty(uint)_fmtz(uint)_fmtw(uint)
; Это нужно для получения идентификатора потока
dcl_input_position_interp(linear_noperspective) vWinCoord0.xy__
; Выходной буфер (g[])
; Константа, хранится в памяти команд
dcl_literal l0, 0xFFFFFFFF, 0xABCDEF01, 0x3F000000, 2
; Считываем вещественные координаты потока с преобразованием в целочисленные
; r0.x - координата по x для i0 для потока (float) (равна локальному идентификатору потока в блоке)
; r0.y - координата по y для i0 для потока (float) (равна глобальному идентификатору блока)
ftoi r0.xyzw, vWinCoord0.xyxy
; Вычисляем r0.z - глобальный идентификатор потока (uint)
umad r0.__z_, r0.wwww, cb0[0].yyyy, r0.zzzz
; Сохраняем первую часть данных в регистр
ftoi r1.x___, vWinCoord0.xxxx
mov r1._y__, r0.zzzz
mov r1.__z_, cb[0].xxxx
mov r1.___w, l0.yyyy
; Вычисляем смещение для выходного буффера g[]
umul r0.__z_, r0.zzzz, l0.wwww
; Сохраняем первую часть данных в память
mov g[r0.z+0].xyzw, r1.xyzw
; Загружаем данные из текстуры i0
; предварительно переводим координаты во float и прибавляем 0.5
itof r0.xy__, r0.xyyy
add r0.xy__, r0.xyyy, l0.zzzz
sample_resource(0)_sampler(0)_aoffimmi(0,0,0) r1, r0
; sample_resource(0) - читаем из i0
; _sampler(0) - с помощью sampler'a #0
; _aoffimmi(0,0,0) - смещения по x, y, z
; если нужно считать соседний элемент в строке текстуры, то _aoffimmi(1,0,0); в столбце - _aoffimmi(0,1,0)
; Сохраняем вторую часть данных в память
mov g[r0.z+1].xyzw, r1.xyzw
; Выход из главной функции
endmain
; Завершение кода программы
end
```
#### Compute Shader
Все отличие будет заключаться только в вычислении идентификаторов потока, остальное все то же самое.
```
il_cs_2_0
dcl_num_thread_per_group 64
; Константный буфер (cb0):
; cb0[0].x - искомая константа
; cb0[0].yzw - мусор
dcl_cb cb0[1]
; Входная текстура с данными (i0)
; тип текстуры - двумерная (обращение по двум координатам), ненормированная (иначе значения были бы типа float от 0 до 1)
; всем компонентам нужно задать один и тот же тип (в нашем случае uint)
dcl_resource_id(0)_type(2d,unnorm)_fmtx(uint)_fmty(uint)_fmtz(uint)_fmtw(uint)
; Выходной буфер (g[])
; Константа, хранится в памяти команд
dcl_literal l0, 0xFFFFFFFF, 0xABCDEF01, 0x3F000000, 2
; номер блока
mov r0._y__, vThreadGrpIDFlat.xxxx
; номер потока в блоке
mov r0.x___, vTidInGrpFlat.xxxx
; глобальный номер потока
mov r0.__z_, vAbsTidFlat.xxxx
; Сохраняем первую часть данных в регистр
mov r1.x___, vTidInGrpFlat.xxxx
mov r1._y__, vAbsTidFlat.xxxx
mov r1.__z_, cb[0].xxxx
mov r1.___w, l0.yyyy
; Вычисляем смещение для выходного буффера g[]
umul r0.__z_, r0.zzzz, l0.wwww
; Сохраняем первую часть данных в память
mov g[r0.z+0].xyzw, r1.xyzw
; Загружаем данные из текстуры i0
; предварительно переводим координаты во float и прибавляем 0.5
itof r0.xy__, r0.xyyy
add r0.xy__, r0.xyyy, l0.zzzz
sample_resource(0)_sampler(0)_aoffimmi(0,0,0) r1, r0
; sample_resource(0) - читаем из i0
; _sampler(0) - с помощью sampler'a #0
; _aoffimmi(0,0,0) - смещения по x, y, z
; если нужно считать соседний элемент в строке текстуры, то _aoffimmi(1,0,0); в столбце - _aoffimmi(0,1,0)
; Сохраняем вторую часть данных в память
mov g[r0.z+1].xyzw, r1.xyzw
; Выход из главной функции
endmain
; Завершение кода программы
end
```
### Различия шейдеров
Кроме поддержки на разных карточках, основное отличие шейдеров заключается в месте хранения количества запускаемых потоков на блок. Для PS это значение можно хранить в памяти, для CS это значение нужно пробивать в коде. Кроме того, для CS проще вычислять идентификаторы потока.
Заключение
----------
Я попытался рассказать в данной статье, как написать на AMD IL простой код для выполнения на самой GPU. В качестве заключения несколько слов об оптимизации скорости работы:
* Не пытайтесь применять техники оптимизации, свойственные для ассемблера (предвычисление операций с константами, перестановка независимых операций). Не забывайте, что это все же псевдо ассемблер, поэтому оптимизацию за вас сделает компилятор. Лучше подумайте над алгоритмом.
* Загружайте на карточку как можно больше данных. Желательно использовать все 32 бита всех 4-х компонент вектора.
* Если у вас есть однотипные вычисления над входными данными (к примеру, вычисление хеша), то стоит поэкспериментировать над количеством компонент в операциях: иногда быстрее будет работать r0.x\_\_\_, иногда r0.xy\_\_\_, а иногда r0.xyzw.
* Хоть AMD и утверждает, что количество потоков в блоке может быть любым, кратным и при этом GPU будет корректно себя вести, на самом деле это не так. В природе я видел только =32 или 64, и у меня GPU работала корректно только при количестве потоков в блоке, равном . Более того, Radeon HD 4650 при запуске с 32 потоками в блоке (а по техническим данным, для этой карточки =32) на одном из моих алгоритмов выдавала некорректные данные, зато с 64 потоками в блоке работала на ура. Вывод: запускайте алгоритм только с 64 потоками в блоке (а количество блоков уже можно варьировать).
* GPU Evergreen поддерживают несколько прикольных особенностей: циклический сдвиг, поддержку флагов переполнения, поддержку 64-битных операций (для этого резервируются 2 компоненты). К сожалению, GPU семейства младше Evergreen все эти плюшки не поддерживают. Если кто подскажет, как на них написать 64-битные операции, буду признателен.
О том, как же передавать данные на карточку и забирать данные с нее, написано во [второй части](http://habrahabr.ru/blogs/hi/139049/ "AMD Compute Abstraction Layer (CAL)") про AMD Compute Abstraction Layer (CAL).
Ссылки для ознакомления
-----------------------
* [AMD Accelerated Parallel Processing SDK](http://developer.amd.com/sdks/AMDAPPSDK/documentation/Pages/default.aspx "AMD Accelerated Parallel Processing SDK")
* [AMD Intermediate Language (IL)](http://developer.amd.com/sdks/AMDAPPSDK/assets/AMD_Intermediate_Language_(IL)_Specification_v2.pdf "AMD Intermediate Language (IL)")
* [AMD Compute Abstraction Layer (CAL)](http://developer.amd.com/sdks/amdappsdk/assets/AMD_CAL_Programming_Guide_v2.0.pdf "AMD Compute Abstraction Layer (CAL)") | https://habr.com/ru/post/138954/ | null | ru | null |
# Защита от сохрания изображений

Здравствуйте, уважаемые харбрачитатели.
Некоторое время назад я столкнулся с очень, на мой взгляд, интересной задачей. Суть задачи заключалась в том, что необходимо максимально усложнить процесс сохранения картинок со страниц сайта. При этом картинки могут быть разных размеров.
Задача ясна, приступим к её решению. В общем случае процесс сохранения картинки достаточно прост: кликаем по ней правой кнопкой мышки и в открывшемся меню выбираем «Сохранить изображение…» (в разных браузерах надпись может отличаться). Перехват нажатия правой кнопки мышки частично решит эту задачу, но обход данного ограничения до безобразия прост – отключаем JavaScript и спокойно вызываем контекстное меню. В этом случае достаточно картинку сделать фоновым изображением:
Но в данном примере фиксированный размер блока, а по условиям задачи размер может быть любой. Здесь на помощь приходит PHP и функция [getimagesize()](http://php.net/manual/ru/function.getimagesize.php).
```
$size = getimagesize(ROOT."/img/Habrahabr_logo.png ");
$html = "";
echo $html;
```
Задача практически решена, но в коде страницы есть прямая ссылка на это изображение, по которой его можно спокойно скачать: можно просто скопировать адрес изображения и вставить его в адресную строку браузера и сохранить. Но не всё так плохо, как кажется на первый взгляд. Достаточно написать простенький скрипт и через него отдавать изображение браузеру, при этом проверяя заголовок referrer, и если он отсутствует или отличен от example.ru, то выдать ошибку. Здесь стоит отметить, что для повышения производительности и безопасности при решении данной задачи информация об изображения хранилась в базе данных. У каждого изображения был уникальный идентификатор, который можно было передать скрипту (image.php):
```
php
define("ROOT", dirname(__FILE__));
include_once ROOT."/images_db.php";
if (isset($_SERVER['HTTP_REFERER']) && eregi("example.ru", $_SERVER['HTTP_REFERER']))
{
$img_path = ROOT."/img/".$images[intval($_GET['id'])]['file_name'];
switch ($images[intval($_GET['id'])]['file_ext'])
{
case "png":
$image = imagecreatefrompng($img_path);
header("Content-Type: image/png");
imagepng($image);
break;
case "jpg":
$image = imagecreatefromjpeg($img_path);
header("Content-Type: image/jpeg");
imagejpeg($image);
break;
case "gif":
$image = imagecreatefromgif($img_path);
header("Content-Type: image/gif");
imagegif($image);
break;
}
}
else
{
$img_path = ROOT."/img/no_image.jpg";
$image = imagecreatefromjpeg($img_path);
header("Content-Type: image/jpeg");
imagejpeg($image);
break;
}
@imagedestroy($image);
?
```
В файле images\_db.php хранится массив с описанием картинок, это сделано исключительно для примера:
```
php
$images = array("123" = array("file_name" => "Habrahabr_logo.png",
"file_ext" => "png",
"file_id" => "123"),
"124" => array("file_name" => "php-logo1.jpg",
"file_ext" => "jpg",
"file_id" => "124"),
"125" => array("file_name" => "google-logo.gif",
"file_ext" => "gif",
"file_id" => "125"));
?>
```
Заменим в коде прямую ссылку на изображение и файл index.php будет выглядеть так:
```
php
define("ROOT", dirname(__FILE__));
include_once ROOT."/images_db.php";
$html = "";
foreach($images as $im)
{
$size = getimagesize(ROOT."/img/".$im['file_name']);
$html .= "<div id=\"img{$im['file_id']}\" title=\"File name: {$im['file_name']}, File width: {$size[0]}px, File height: {$size[1]}px\" style=\"width: {$size[0]}px; height: {$size[1]}px; background-image: url(http://example.ru/image.php?id={$im['file_id']});\"
```
\r\n";
}
echo $html;
?>
Теперь при прямом обращении к адресу [example.ru/image.php?id=123](http://example.ru/image.php?id=123) мы получим картинку no\_image.jpg, так как заголовок referrer не передаётся.
Осталось два способа вытащить картинку: подделать запрос или сделать скриншот. К сожалению, я так и не нашёл решения которое могло бы противостоять этим способам. Но от большинства неопытных пользователей защита вполне рабочая.
Надеюсь, данная информация будет хоть кому-нибудь полезна.
Спасибо за внимание.
[Исходники примера](http://narod.ru/disk/30590350001/example.ru.rar.html) | https://habr.com/ru/post/132228/ | null | ru | null |
# .NET Core 2.1 Global Tools
Пару недель назад [вышел .NET Core 2.1 RC1](https://blogs.msdn.microsoft.com/dotnet/2018/05/07/announcing-net-core-2-1-rc-1/). Это первая версия SDK, где есть фича под названием "Глобальные утилиты .NET Core" (".NET Core Global Tools"). Она дает простой способ создания кросс-платформенных консольных утилит.

Мы познакомимся с основами использования .NET Core Global Tools и кратко посмотрим, что внутри. А еще вы можете [скачать .NET Core 2.1 SDK](https://aka.ms/DotNetCore21) и попробовать написать собственный пример.
Основы
------
.NET Core global tool — это специальный пакет NuGet, в котором находится консольное приложение. Когда вы устанавливаете его, .NET Core CLI скачивает пакет и делает его доступным в виде новой глобальной консольной команды.
Пользователи могут устанавливать утилиты с помощью команды `dotnet tool install`:
```
dotnet tool install -g
```
После установки консольные утилиты, находящиеся в пакете, будут глобально доступны по имени:
`dotnet tool` имеет и другие команды. Например:
```
dotnet tool list -g
dotnet tool uninstall -g
dotnet tool update -g
```
Под капотом
-----------
NuGet пакет с консольной утилитой содержит все файлы, полученные в результате выполнения команды `dotnet publish`, а также несколько дополнительных файлов с мета-информацией.
Когда вы запускаете `dotnet tool install --global`, происходит следующее:
1. Запускается `dotnet restore` со [специальными параметрами](https://github.com/dotnet/cli/pull/8414), чтобы скачать пакет.
2. Файлы распаковываются в папку `$HOME/.dotnet/.store//`.
3. Генерируется запускаемый файл в папке `$HOME/.dotnet/tools`.
Сгенерированный запускаемый файл — это небольшое консольное приложение ([написанное на C++](https://github.com/dotnet/core-setup/tree/release/2.1/src/corehost/cli/exe/apphost)), которое знает, где находится ваш .NET Core DLL файл и автоматически запускает его.
Вы также можете запустить `dotnet tool install` с аргументом `--tool-path $installDir`. Эта команда делает всё то же самое, но устанавливает консольное приложение в папку `$installDir`, а не в `$HOME/.dotnet/tools`.
Как создать свой пакет
----------------------
Для создания глобальных консольных утилит вам нужен [.NET Core SDK версии 2.1](https://aka.ms/DotNetCore21). В этой версии добавлено несколько дополнительных настроек проектов для управления неймингом и содержимым пакетов с глобальными консольными утилитами.
Минимальные необходимые параметры проекта:
```
true
Exe
netcoreapp2.1
```
Дополнительные (не обязательные) параметры, управляющие сборкой пакета:
* `AssemblyName` — задает название .dll файла вашего консольного приложения.
* `ToolCommandName` — название команды, по которому пользователь будет запускать вашу консольную утилиту. По умолчанию оно совпадает с названием .dll файла (которое задано в параметре `AssemblyName`).
+ Название команды не обязательно должно начинаться с `dotnet-`. Можно использовать любое название без пробелов.
+ Если название начинается с `dotnet-`, то утилиту можно будет запускать как команду утилиты `dotnet` (убедитесь, что команды с таким именем еще нет). Например, утилита `dotnet-say-moo` может быть вызвана и как `dotnet-say-moo`, и как `dotnet say-moo`.
* `PackageId` — идентификатор NuGet пакета. По умолчанию совпадает с названием .csproj файла. Этот идентификатор нужно указывать при установке. При этом он может отличаться от названия команды (`ToolCommandName`) и названия .dll файла (`AssemblyName`).
* `PackageVersion` — версия NuGet пакета (по умолчанию `1.0.0`). Также вместо `PackageVersion` можно использовать `VersionPrefix` и `VersionSuffix`.
Пример использования этих параметров:
```
true
Exe
netcoreapp2.1
pineapple
dole-cli
1.0.0-alpha-$(BuildNumber)
Dole.Cli
```
Сборка и установка пакета
-------------------------
Сборка пакета происходит как обычно — при помощи команды `dotnet pack`. SDK увидит, что установлен параметр `PackAsTool=true` и автоматически сгенерирует нужные дополнительные файлы.
```
dotnet pack --output ./packages
```
С помощью параметра `--source-feed` вы можете установить пакет, который еще не опубликован в репозитории пакетов NuGet. Это может быть полезно для проверки, что всё сделано правильно. Также, если версия пакета — не релизная (например, `3.0.0-alpha` — содержит что-то, кроме трех чисел), нужно при установке явно указать её.
Например:
```
dotnet tool install -g my-package-name --version 3.0.0-alpha --source-feed ./packages/
```
Что внутри пакета
-----------------
Как я писал выше, команда `dotnet pack` собирает пакет особым образом, если в файле проекта указан параметр `PackAsTool=true`.
### Зависимости
В пакет попадают не только файлы, полученные через `dotnet build`, но и все другие зависимости вашего проекта (подключенные сторонние пакеты NuGet). Все файлы, необходимые для работы вашей консольной утилиты, должны быть включены в NuGet пакет. Команда `dotnet-tool-install` не устанавливает зависимости, указанные в резделе вашего `.nuspec` файла.
### DotnetToolSettings.xml
Генерируется специальный файл `DotnetToolSettings.xml`, который содержит информацию о вашем консольном приложении. Если этого файла по какой-то причине не окажется в пакете (например, пытаетесь установить произвольный пакет как консольную утилиту), то при установке вы получите ошибку:
> The settings file in the tool’s NuGet package is invalid: Settings file ‘DotnetToolSettings.xml’ was not found in the package.
Пример содержимого файла:
```
```
Сейчас есть следующие требования к файлу `DotnetToolSettings.xml`:
* Файл `DotnetToolSettings.xml` должен находиться в папке `tools/$targetframework/any/`. Например: `tools/netcoreapp2.1/any/DotnetToolSettings.xml`.
* Пакет должен содержать только один файл `DotnetToolSettings.xml`.
* В файле `DotnetToolSettings.xml` должна быть описана только одна секция .
* Значение атрибута `Runner` должно быть `"dotnet"`.
* В качестве значения атрибута `EntryPoint` должно быть указано название .dll файла, который лежит в одной папке с файлом `DotnetToolSettings.xml`.
###
В `.nuspec` файл автоматически добавляется параметр . Например:
```
xml version="1.0" encoding="utf-8"?
```
Если параметр `packageType[name]` не указан как `DotnetTool`, то при установке получите ошибку:
> error NU1212: Invalid project-package combination for awesome-tool 1.0.0. DotnetToolReference project style can only contain references of the DotnetTool type
Конечно, это не очень понятное сообщение об ошибке. На Github есть [issue](https://github.com/NuGet/Home/issues/6630), чтобы это улучшить.
Что может пойти не так
----------------------
### Глобальные утилиты — глобальные для пользователя, а не для компьютера
.NET Core CLI по умолчанию устанавливает глобальные утилиты в папку `$HOME/.dotnet/tools` (на Linux/macOS) или в папку `%USERPROFILE%\.dotnet\tools` (на Windows). Это значит, что вы не можете установить пакет глобально для всех пользователей компьютера с помощью `dotnet tool install --global`. Установленные утилиты доступны только для пользователя, который их установил.
### Не хватает пути в переменной PATH
Обычно .NET Core автоматически добавляет путь к папке с установленными утилитами в переменную окружения `PATH`, чтобы они были доступны по имени, без указания полного пути. Но иногда это может не сработать. Например:
* если вы добавили переменную окружения `DOTNET_SKIP_FIRST_TIME_EXPERIENCE` (например, чтобы ускорить первый запуск .NET Core), то значение переменной `PATH` может быть не установлено при первом использовании
* **macOS:** если вы установили CLI из `.tar.gz` файла (а не из `.pkg` файла), то у вас может не быть файла `/etc/paths.d/dotnet-cli-tool` который настраивает переменную `PATH`.
* **Linux:** вам нужно вручную отредактировать свой shell environment file, т.е `~/.bash_profile` или `~/.zshrc`
В этом случае при запуске своей консолььной утилиты вы получите ошибку. Например:
> bash: my-command-name: command not found
Чтобы всё заработало, нужно добавить в переменную `PATH` путь к папке с утилитами. Например так (после добавления нужно перезапустить терминал):
```
cat << \EOF >> ~/.bash_profile
# Add .NET Core SDK tools
export PATH="$PATH:/Users//.dotnet/tools"
EOF
```
Или вот так можно добавить для текущей сессии:
```
export PATH="$PATH:/Users//.dotnet/tools"
```
Примеры выше — для MacOS. Для других систем всё аналогично. Кроме того, при установке вашей глобальной консольной утилиты команда `dotnet tool install` проверит, что переменная `PATH` правильно настроена и предложит варианты решения, если это не так.
### .NET Core CLI установлен не в папку по умолчанию
Если вы скачали .NET Core CLI как .zip/.tar.gz архив и распаковали его в папку, которая отличается от папки по умолчанию, то при запуске своей консольной утилиты вы можете получить ошибку:
* **Windows:** `A fatal error occurred, the required library hostfxr.dll could not be found`
* **Linux:** `A fatal error occurred, the required library libhostfxr.so could not be found`
* **macOS:** `A fatal error occurred, the required library libhostfxr.dylib could not be found`
В сообщении об ошибке будет также дополнительная информация:
> If this is a self-contained application, that library should exist in [some path here].
>
> If this is a framework-dependent application, install the runtime in the default location [default location] or use the DOTNET\_ROOT environment variable to specify the runtime location.
Причина в том, что запускаемы файл, который генерируется командой `dotnet tool install` при установке пакета, ищет .NET Core в папке по умолчанию. Вы можете переопределить пути по умолчанию, установив переменную окружения `DOTNET_ROOT`. Например:
```
# Windows
set DOTNET_ROOT=C:\Users\username\dotnet
# MacOS/Linux
export DOTNET_ROOT=/Users/username/Downloads/dotnet
```
Подробности в [issue](https://github.com/dotnet/cli/issues/9114) на GitHub.
Заключение
----------
Мы познакомились с глобальными консольными утилитами в .NET Core. На мой взгляд, это очень крутая штука. Я крайне счастлив, что команда .NET Core её запилила. Не могу дождаться, когда все начнут её использовать :) | https://habr.com/ru/post/359006/ | null | ru | null |
# Парсинг YouTube, включая подгружаемые данные, без YouTube API
Вступление
----------
Чтобы подгрузить данные контента на ютубе, обычно используют либо Selenium, либо YouTube API. Однако везде есть свои минусы.
1. Selenium слишком медленный для парсинга. Представьте себе парсинг плейлиста из ~1000 роликов селениумом.
2. YouTube API, конечно, наилучший вариант, если у вас какое-то свое приложение или проект, но там требуется зарегистрировать приложение и т.д. В «пробной» версии вам нужно постоянно авторизовываться для использования апи, еще там присутствует быстро заканчиваемая квота.
3. В нашем методе, я бы сказал, очень сложные структуры данных, выдаваемыми ютубом. Особенно нестабильно работает парсинг поиска ютуб.
### Как подгружать данные на ютубе?
Для этого есть токен, который можно найти в html коде страницы. Потом в дальнейшем его используем, как параметр для запроса к ютубу, выдающему нам новый контент. Сам ютуб прогружает контент с помощью запроса, где как раз используется этот токен.
Там есть дополнительные исходящие параметры, которые нам будут нужны в следующем шаге.

### Получение токена через скрипт
Составляем параметр headers для запроса к ютубу. Помимо user-agent вставляем два дополнительных, которые вы видите ниже.
```
headers = {
'User-Agent': 'Вы можете взять свой или сгенерировать онлайн, но возможно он не будет работать',
'x-youtube-client-name': '1',
'x-youtube-client-version': '2.20200529.02.01'
}
```
Делаем запрос с помощью библиотеки requests. Ставляете ссылку на страницу, которую нужно прогрузить, а также добавляете headers.
```
token_page = requests.get(url, headers=headers)
```
Токен невозможно найти парсерами, т.к он спрятан в тэге script. Чтобы сохранить его в переменную, я прописываю такой некрасивый код:
```
nextDataToken = token_page.text.split('"nextContinuationData":{"continuation":"')[1].split('","')[0]
```
Обычно это токен длиной 80 символов.
### Делаем запрос на получение контента
```
service = 'https://www.youtube.com/browse_ajax'
params = {
"ctoken": nextDataToken,
"continuation": nextDataToken
}
r = requests.post(service, params=params, headers=headers)
```
Разные типы подгружаемых данных имеют разные service ссылки. Наша подойдет для плейлистов и видео с каналов.
Данные Ютуб присылает в json формате. Поэтому пишем r.json(), но вам прилетит список, нам нужен второй элемент списка, поэтому r.json()[1]. Далее у нас уже имеются данные. Остается парсить.
### Парсинг json ответа
Можно увидеть длинные цепочки словарей, но мы их сократим, чтобы было более менее понятно.
```
r_jsonResponse = r_json['response']
dataContainer = r_jsonResponse["continuationContents"]["playlistVideoListContinuation"]
nextDataToken = dataContainer["continuations"][0]["nextContinuationData"]["continuation"]
```
Здесь мы получаем новый токен для дальнейшего запроса. Если подгружаемые данные закончились, то токена вы не увидите.
```
for content in dataContainer["contents"]:
videoId = content['playlistVideoRenderer']['videoId']
```
Вот так можно извлечь id видеоролика, дописав шаблонную часть, вы получите ссылку на видеоролик.
Чтобы получить следующие данные, вы должны проделать тоже самое — запрос токеном, парсинг и потом снова.
Полностью рабочий код выглядит вот так:
```
import requests, json
url = input('url: ')
headers = {
"User-Agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.122 Safari/537.36",
'x-youtube-client-name': '1',
'x-youtube-client-version': '2.20200429.03.00',
}
token_page = requests.get(url, headers=headers)
nextDataToken = token_page.text.split('"nextContinuationData":{"continuation":"')[1].split('","')[0]
sleep = False #Цикл будет завершен, когда не будет токенов
ids = []
while not sleep:
service = 'https://www.youtube.com/browse_ajax'
params = {
"ctoken": nextDataToken,
"continuation": nextDataToken
}
r = requests.post(service, params=params, headers=headers)
r_json = r.json()[1]
r_jsonResponse = r_json['response']
dataContainer = r_jsonResponse["continuationContents"]["playlistVideoListContinuation"]
try: #пробуем найти токен
nextDataToken = dataContainer["continuations"][0]["nextContinuationData"]["continuation"]
except:
#токен не найден. Значит, далее запроса не будет. Остается собрать оставшийся контент
sleep = True
for content in dataContainer["contents"]:
videoId = content['playlistVideoRenderer']['videoId']
ids.append(videoId)
print(len(ids))
```
[Вы можете посмотреть мои парсеры каналов, плейлистов, видеороликов Ютуба на GitHub](https://github.com/0r030n0/youtube_parsers). | https://habr.com/ru/post/505888/ | null | ru | null |
# Учим машину разбираться в генах человека
Всегда приятно осознавать, что применение технологий сводится не только к финансовой выгоде, бывают ещё и идеи, делающие мир лучше. Об одном из проектов с такой идеей мы и расскажем в этот морозный пятничный день. Вы узнаете о решении, которое позволило увеличить точность экспресс-анализа крови, с помощью применения алгоритмов машинного обучения для выявления связей между микро-РНК и генами. Также, стоит отметить, что методы, описанные ниже можно использовать не только в биологии.

> Цикл статей «Digital Transformation»
> ------------------------------------
>
>
>
> Технологические статьи:
>
>
>
> 1. [Начало](https://habrahabr.ru/company/microsoft/blog/341854/).
>
> 2. [Блокчейн в банке](https://habrahabr.ru/company/microsoft/blog/342364/).
>
> 3. [Учим машину разбираться в генах человека](https://habrahabr.ru/company/microsoft/blog/343604/).
>
> 4. [Машинное обучение и шоколадные конфеты](https://habrahabr.ru/company/microsoft/blog/345452/).
>
> 5. Loading…
>
>
>
> Серия интервью с Дмитрием Завалишиным на канале [DZ Online](https://www.youtube.com/channel/UCJuwCFeP6rhSUqk9gRMAwuw/feed):
>
>
>
> 1. [Александр Ложечкин из Microsoft: Нужны ли разработчики в будущем?](https://habrahabr.ru/company/microsoft/blog/342596/)
>
> 2. [Алексей Костарев из «Робота Вера»: Как заменить HR-a роботом?](https://habrahabr.ru/company/microsoft/blog/345662/)
>
> 3. [Федор Овчинников из Додо Пицца: Как заменить директора ресторана роботом?](https://habrahabr.ru/company/microsoft/blog/346870/)
>
> 4. [Андрей Голуб из ELSE Corp Srl: Как перестать тратить кучу времени на походы по магазинам?](https://habrahabr.ru/company/microsoft/blog/348670/)
Недавно мы заключили партнерское соглашение с Miroculus, молодой перспективной компанией в сфере медицинских исследований. Miroculus разрабатывает недорогие наборы для экспресс-анализа крови. В рамках данного проекта мы сосредоточили внимание на проблеме выявления связей между микро-РНК и генами путем анализа научно-медицинской документации, найдя решение, которое может применяться во многих других сферах.
Проблема
--------
Задача системы [Miroculus](http://www.miroculus.com/) — выявлять взаимосвязь отдельных [микро-РНК](https://en.wikipedia.org/wiki/MicroRNA) с определенными генами или заболеваниями. На основе этих данных разрабатывается и постоянно совершенствуется инструмент, с помощью которого исследователи смогут быстро выявлять связи между микро-РНК, генами и типами заболеваний (например, онкологическими).
Хотя в медицинской литературе доступна масса исследований касательно взаимозависимости между отдельными микро-РНК, генами и заболеваниями, единая централизованная база данных, которая содержала бы такую информацию в упорядоченной структурированной форме, отсутствует.
Между микро-РНК и генами могут существовать зависимости различного типа, однако из-за нехватки данных проблема извлечения связей свелась к двоичной классификации, цель которой — просто определить наличие связи между микро-РНК и геном.
Выявление связей между объектами в неструктурированном тексте называется [извлечением отношений](https://en.wikipedia.org/wiki/Relationship_extraction).
Строго говоря, задача получает неструктурированные текстовые входные данные и группу объектов, а затем выводит результирующую группу триад вида «первый объект, второй объект, тип связи». То есть это подзадача в рамках более крупной задачи [извлечения информации](https://en.wikipedia.org/wiki/Information_extraction).
Поскольку мы имеем дело с двоичной классификацией, нам необходимо создать классификатор, который получает предложение и пару объектов, а затем выводит результирующий балл в диапазоне от 0 до 1, отражающий вероятность наличия связи между этими двумя объектами.
Например, можно передать классификатору предложение «mir-335 регулирует BRCA1» и пару объектов (mir-335, BRCA1), и классификатор выдаст результат «0,9».
Исходный код для этого проекта доступен на [странице](https://github.com/CatalystCode/corpus-to-graph-ml).
Создание набора данных
----------------------
Мы использовали текст медицинских статей из двух источников данных: [PMC](http://www.ncbi.nlm.nih.gov/pmc/) и [PubMed](http://www.ncbi.nlm.nih.gov/pubmed).
Текст документов, загруженных из указанных источников, был разделен на предложения с помощью библиотеки [TextBlob](http://textblob.readthedocs.io/en/dev/).
Каждое предложение было передано в инструмент распознавания объектов [GNAT](http://gnat.sourceforge.net/), чтобы извлечь названия микро-РНК и генов, которые содержатся в предложении.
Одна из самых сложных задач, связанных с извлечением отношений (или с базовыми задачами машинного обучения) — наличие данных с метками. В нашем проекте такие данные были недоступны. К счастью, мы могли использовать метод «дистанционного наблюдения».
#### Дистанционное наблюдение
Термин «дистанционное наблюдение» был впервые введен в [исследовании](http://web.stanford.edu/~jurafsky/mintz.pdf) «Дистанционное наблюдение при извлечении отношений без использования данных с метками» Минцем и соавторами. Метод дистанционного наблюдения предполагает создание набора данных с метками на основе базы данных известных связей между объектами и базы данных статей, в которых эти объекты упоминаются.
Для каждой пары объектов и каждой связи в базе данных объектов созданы метки связи для всех предложений в статьях БД, где упоминаются объекты.
Чтобы сгенерировать отрицательные образцы (отсутствие связи), мы произвольно отобрали предложения, содержащие связи, которые не отображаются в базе данных связей. Стоит отметить, что основная критика метода дистанционного наблюдения опирается на возможную неточность отрицательных образцов, поскольку в отдельных случаях в результате случайного отбора образцов данных можно получить ложноотрицательный результат.

Преобразование текста
---------------------
После создания обучающего множества с метками создается классификатор связей с помощью библиотеки Python [scikit-learn](http://scikit-learn.org/) и нескольких библиотек Python на базе технологий обработки естественного языка (NLP). В порядке эксперимента мы попробовали использовать несколько разных отличительных признаков и классификаторов.
Прежде чем испытать методы и отличительные признаки на практике, мы выполнили преобразование текста, состоящее из описанных далее этапов.
#### Замена объекта
Идея в том, что обучение модели не требуется в соответствии с именем конкретного объекта, однако оно необходимо в соответствии со структурой текста.
Пример:
```
miRNA-335 was found to regulate BRCA1
```
Выполняется преобразование в:
```
ENTITY1 was found to regulate ENTITY2
```
То есть мы практически взяли все пары объектов из каждого предложения и для каждой из них заменили искомые объекты местозаполнителями. При этом ОБЪЕКТ1 всегда заменяет микро-РНК, а ОБЪЕКТ2 — ген. Мы также использовали еще один специальный местозаполнитель, чтобы помечать объекты, которые являются частью предложения, но не участвуют в искомой связи.
Итак, для следующего предложения:
```
High levels of expression of miRNA-335 and miRNA-342 were found together with low levels of BRCA1
```
мы получили следующий набор преобразованных предложений:
```
High levels of expression of ENTITY1 and OTHER_ENTITY were found together with low levels of ENTITY2
High levels of expression of OTHER_ENTITY and ENTITY1 were found together with low levels of ENTITY2
```
На этом этапе можно использовать метод Python string.replace(), если требуется заменить объекты, а также методы itertools.combinations или itertools.product, если необходимо просмотреть все возможные комбинации.
#### Разметка
Разметка — это процесс разделения последовательности слов на сегменты меньшего размера. В данном случае мы разделяем предложения на слова.
Для этого мы используем библиотеку [nltk](http://www.nltk.org/):
```
import nltk
tokens = nltk.word_tokenize(sentence)
```
#### Усечение
В соответствии с рекомендациями, представленными в научной литературе, мы усекали каждое предложение до сегмента меньшего размера, в котором содержатся два объекта, слова между объектами и несколько слов до и после объекта. Цель такого усечения — удалить те части предложения, которые не являются значимыми при извлечении отношений.
Мы создали срез массива слов, для которого на предыдущем этапе выполнена разметка, снабдив его соответствующими индексами:
```
WINDOW_SIZE = 3
# make sure that we don't overflow but using the min and max methods
FIRST_INDEX = max(tokens.index("ENTITY1") - WINDOW_SIZE , 0)
SECOND_INDEX = min(sentence.index("ENTITY2") + WINDOW_SIZE, len(tokens))
trimmed_tokens = tokens[FIRST_INDEX : SECOND_INDEX]
```
#### Нормализация
Мы выполнили нормализацию предложений, просто преобразовав все буквы в строчные. Хотя метод создание кейсов целесообразно использовать для решения таких задач, как анализ настроений и эмоций, в рамках извлечения отношений он не является показательным. Нас интересует информация и структура текста, а не акцентирование отдельных слов в предложении.
#### Удаление стоп-слов/чисел
В данном случае мы используем стандартный процесс удаления стоп-слов и чисел из предложения. Стоп-словами называются слова с высокой частотностью, например, предлоги «в», «к» и «на». Поскольку эти слова встречаются в предложениях очень часто, они не несут в себе смысловой нагрузки о связях между объектами в предложении.
По той же причине мы удаляем лексемы, состоящие только из чисел, и короткие лексемы, содержащие менее двух символов.
#### Выделение корней
[Выделение корней](https://en.wikipedia.org/wiki/Stemming) — это процесс сокращения отдельного слова до корня.
В результате объем семантического пространства для слова сокращается, что позволяет сосредоточиться собственно на значении слова.
На практике этот шаг не особенно эффективен в плане повышения точности. По этой причине, а также из-за относительно низкого уровня производительности данного процесса (по времени выполнения) выделение корней не вошло в конечную модель.
Нормализация, удаление слов и выделение корней выполняются путем итерации размеченных и усеченных предложений; при необходимости выполняется нормализации и удаление слов.
```
cleaned_tokens = []
porter = nltk.PorterStemmer()
for t in trimmed_tokens:
normalized = t.lower()
if (normalized in nltk.corpus.stopwords.words('english')
or normalized.isdigit() or len(normalized) < 2):
continue
stemmed = porter.stem(t)
processed_tokens.append(stemmed)
```
Представление отличительных признаков
-------------------------------------
По завершении указанных ниже преобразований мы решили поэкспериментировать с разными типами отличительных признаков.
Мы использовали три типа признаков: мультимножество слов, синтаксические признаки и векторное представление слов.
#### Мультимножество слов
[Модель мультимножества слов](https://en.wikipedia.org/wiki/Bag-of-words_model) (МС) — распространенный метод, используемый в задачах обработки естественного языка (NLP) для преобразования текста в числовое векторное пространство.
В модели МС каждому слову в словаре назначается уникальный числовой идентификатор. Затем каждое предложение преобразуется в вектор в объеме словаря. Положение в векторе выражено значением «1» в том случае, если слово с таким идентификатором является текстом, или значением «0» в противном случае. В качестве альтернативного подхода можно настроить отображение в каждом элементе вектора количества вхождений данного слова в тексте. С примером можно ознакомиться [здесь](https://en.wikipedia.org/wiki/Bag-of-words_model#Example_implementation).
Тем не менее описанная выше модель не учитывает порядок различных слов в предложении, а только вхождение каждого отдельного слова. Чтобы включить порядок слов в модель, мы использовали популярную модель [N-граммы](https://en.wikipedia.org/wiki/N-gram), которая оценивает совокупность последовательных слов длиной в **N** слов и обрабатывает каждую такую совокупность как отдельное слово.
Дополнительные сведения об использовании N-грамм в текстовом анализе см. в [разделе](https://www.microsoft.com/developerblog/2015/11/29/feature-representation-for-text-analyses/) «Представление отличительных признаков для текстового анализа: однограмма, двуграмма, триграмма… сколько же всего?».
К счастью для нас, модели МС и N-граммы реализованы в scikit-learn посредством класса [CountVectorizer](http://scikit-learn.org/stable/modules/generated/sklearn.feature_extraction.text.CountVectorizer.html).
В следующем примере показано преобразование текста в представление МС 1/0 с помощью модели триграммы.
```
from sklearn.feature_extraction.text import CountVectorizer
vectorizer = CountVectorizer(analyzer = "word", binary = True,
ngram_range=(3,3))
# note that 'samples' should be a list/iterable of strings
# so you might need to convert the processes tokens back to sentence
# by using " ".join(...)
data_features = vectorizer.fit_transform(samples)
```
#### Синтаксические признаки
Мы использовали два типа синтаксических признаков: [маркеры части речи](https://en.wikipedia.org/wiki/Part-of-speech_tagging) (ЧР) и [деревья синтаксического разбора с зависимостями](https://en.wikipedia.org/wiki/Parse_tree#Dependency-based_parse_trees).
Мы решили использовать [spacy.io](https://spacy.io/), чтобы извлечь и маркеры ЧР, и графы зависимости, поскольку эта технология превосходит существующие библиотеки Python в плане скорости, а точность сопоставима с другими системами NLP.
Следующий фрагмент кода извлекает ЧР для данного предложения:
```
from spacy.en import English
parser = English()
parsed = parser(" ".join(processed_tokens))
pos_tags = [s.pos_ for s in parsed]
```
После преобразования всех предложений можно использовать описанный выше класс CountVectorizer и модель мультимножества слов для маркеров ЧР, чтобы преобразовать их в числовое векторное пространство.
Аналогичный метод использовался для обработки отличительных признаков дерева синтаксического анализа с зависимостями, поиск которых выполнялся на отрезке между двумя объектами в каждом предложении, и их преобразование выполнялось также с помощью класса CountVectorizer.
#### Векторные представления слов
Метод векторного представления слов в последнее время стал весьма популярным для решения проблем, связанных с NLP. Суть этого метода заключается в использовании нейронных моделей для преобразования слов в пространство отличительных признаков таким образом, чтобы похожие слова были представлены векторами на незначительном расстоянии друг от друга.
Дополнительные сведения о векторном представлении слов см. в следующей [статье](http://colah.github.io/posts/2014-07-NLP-RNNs-Representations/) блога.
Мы применили подход, описанный в документе [Paragraph Vector](https://cs.stanford.edu/~quocle/paragraph_vector.pdf): внедрение предложений (или документов) в высокоразмерное пространство отличительных признаков. Мы использовали реализацию Doc2Vec библиотеки [Gensim](https://radimrehurek.com/gensim/). Дополнительные сведения доступны в этом [учебном пособии](https://github.com/piskvorky/gensim/blob/develop/docs/notebooks/doc2vec-IMDB.ipynb).
Как параметры, так и размер используемых выходных векторов соответствуют рекомендациям, приведенным в документе Paragraph Vector и учебном пособии по Gensim.
Обратите внимание, что помимо данных с метками мы использовали в модели Doc2Vec большой набор предложений без меток, чтобы обеспечить дополнительный контекст для модели и расширить язык и отличительные признаки, применяемые для обучения модели.
После создания модели каждое из предложений было представлено более чем 200 размерными векторами, которые можно использовать в качестве входных данных для классификатора.
Оценка моделей классификации
----------------------------
Завершив преобразование текста и извлечение отличительных признаков, можно переходить к следующему этапу: выбору и оценке модели классификации.
Для классификации использовался алгоритм [логистической регрессии](https://en.wikipedia.org/wiki/Logistic_regression). Мы опробовали и такие алгоритмы, как машина опорных векторов и случайный лес, однако логистическая регрессия показала лучшие результаты в плане скорости и точности.
Прежде чем приступить к оценке точности данного метода, необходимо [разделить](https://en.wikipedia.org/wiki/Test_set) набор данных на обучающее множество и тестовый набор. Для этого достаточно просто использовать метод train\_test\_split:
```
from sklearn.cross_validation import train_test_split
x_train, x_test, y_train, y_test = train_test_split(data, labels, test_size=0.25)
```
Этот метод разделяет набор данных произвольно, причем 75 % данных относится к обучающему множеству, а 25 % — к тестовому набору.
Чтобы обучить классификатор на основе логистической регрессии, мы использовали класс scikit-learn [LogisticRegression](http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html). Для оценки производительности классификатора мы применяем класс [classification\_report](http://scikit-learn.org/stable/modules/generated/sklearn.metrics.classification_report.html), который выводит на печать данные о [точности](https://en.wikipedia.org/wiki/Precision_and_recall#Precision), [полноте возврата](https://en.wikipedia.org/wiki/Precision_and_recall#Recall) и [балл F1-Score](https://en.wikipedia.org/wiki/F1_score) для классификации.
В следующем фрагменте кода показано обучение классификатора логистической регрессии и вывод на печать отчета о классификации:
```
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import classification_report
clf = linear_model.LogisticRegression(C=1e5)
clf.fit(x_train, y_train)
y_pred = clf.predict(x_test)
print classification_report(y_test, y_pred)
```
Пример результата выполнения фрагмента кода, описанного выше, выглядит следующим образом:
```
precision recall f1-score support
0 0.82 0.88 0.85 1415
1 0.89 0.83 0.86 1660
avg / total 0.86 0.85 0.85 3075
```
Обратите внимание, что параметр C (он обозначает степень регуляризации) выбран для этого примера произвольно, однако его необходимо настроить с помощью перекрестной проверки на достоверность, как показано ниже.
Результаты
----------
Мы объединили все описанные выше методы и приемы и сравнили различные отличительные признаки и преобразования, чтобы выбрать оптимальную модель.
Мы использовали класс [LogisticRegressionCV](http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegressionCV.html) для создания двоичного классификатора с настраиваемыми параметрами, а затем проанализировали другой тестовый набор, чтобы оценить производительность модели.
Обратите внимание, что для простого и удобного тестирования различных параметров разных отличительных признаков можно использовать класс [GridSearch](http://scikit-learn.org/stable/auto_examples/model_selection/grid_search_text_feature_extraction.html).
В следующей таблице приведены основные результаты сравнения различных отличительных признаков.
Для проверки точности модели использовалась шкала [F1-Score](https://en.wikipedia.org/wiki/F1_score), поскольку она позволяет оценить как точность, так и полноту возврата в модели.
| Возможности | F1-Score |
| --- | --- |
| Одно-триграммы (мультимножество слов) | 0,87 |
| Одно-триграммы (МС) и триграммы (маркеры ЧР) | 0,87 |
| Одно-триграммы (МС) и Doc2Vec | 0,87 |
| Однограммы (мультимножество слов) | 0,8 |
| Двуграммы (мультимножество слов) | 0,85 |
| Триграммы (мультимножество слов) | 0,83 |
| Doc2Vec | 0,65 |
| Триграммы (маркеры ЧР) | 0,62 |
В целом представляется, что при использовании мультимножества слов в одно-триграммах обеспечивается максимальная точность по сравнению с другими методами.
Хотя модель Doc2Vec отличается максимальной производительностью при определении схожести слов, она не гарантирует достойных результатов в плане извлечения отношений.
Варианты использования
----------------------
В этой статье мы рассмотрели метод, который использовался для создания классификатора извлечения отношений для обработки связей между микро-РНК и генами.
Хотя рассмотренные в этой статье проблематика и образцы относятся к области биологии, изученное решение и методы можно применять и в других областях для создания графов отношений на основе неструктурированных текстовых данных.
---
Напоминаем, что [Azure можно попробовать бесплатно](https://azure.microsoft.com/ru-ru/free/?wt.mc_id=AID570629_QSG_BLOG_139069).
**Минутка рекламы**. Если вы хотите попробовать новые технологии в своих проектах, но никак не доходят руки, оставляйте заявки в программе **[Tech Acceleration](https://www.tech-acceleration.com/)** от Microsoft. Её основная особенность в том, что мы вместе с вами подберём необходимый стек, поможем реализовать пилот и в случае успешной реализации, потратим максимум усилий, чтобы весь рынок узнал о вас.
**P.S.** Благодарим Костю Кичинского ([Quantum Quintum](https://t.me/quantumquintum)) за иллюстрацию к этой статье. | https://habr.com/ru/post/343604/ | null | ru | null |
# Как в Redash заметили и исправили проблему, вызвавшую деградацию производительности Python-кода
Недавно в Redash приступили к смене одной системы выполнения задач на другую. А именно — они начали переход с Celery на RQ. На первом этапе на новую платформу перевели лишь те задания, которые не выполняют запросы напрямую. Среди таких заданий — отправка электронных писем, выяснение того, какие запросы должны быть обновлены, запись пользовательских событий и другие вспомогательные задачи.
[](https://habr.com/ru/company/ruvds/blog/475250/)
После развёртывания всего этого было замечено, что RQ-воркеры требуют гораздо больше вычислительных ресурсов для решения того же объёма задач, который раньше решали средствами Celery.
Материал, перевод которого мы сегодня публикуем, посвящён рассказу о том, как в Redash выяснили причину проблемы и справились с ней.
Пара слов о различиях Celery и RQ
---------------------------------
В Celery и в RQ имеется концепция процессов-воркеров. И там и там для организации параллельного выполнения заданий используется создание форков. Когда запускается воркер Celery — создаётся несколько процессов-форков, каждый из которых автономно обрабатывает задачи. В случае с RQ экземпляр воркера содержит лишь один подпроцесс (известный как «рабочая лошадка»), который выполняет одну задачу, а потом уничтожается. Когда воркер загружает очередное задание из очереди — он создаёт новую «рабочую лошадку».
При работе с RQ можно достичь того же уровня параллелизма, что и при работе с Celery, просто запуская больше процессов-воркеров. Однако между Celery и RQ есть одно тонкое различие. В Celery воркер создаёт множество экземпляров подпроцессов при запуске, после чего многократно их использует для выполнения множества заданий. А в случае с RQ для каждого задания нужно создавать новый форк. И тот и другой подходы имеют свои плюсы и минусы, но здесь мы об этом говорить не будем.
Измерение производительности
----------------------------
Прежде чем я приступил к профилированию, я решил замерить производительность системы, выяснив, сколько времени воркер-контейнеру нужно для обработки 1000 заданий. Я решил сосредоточиться на задании `record_event`, так как это — часто встречающаяся легковесная операция. Для измерения производительности я воспользовался командой `time`. Это потребовало внести в код проекта пару изменений:
1. Для измерения производительности выполнения 1000 задач я решил использовать пакетный режим RQ, в котором, после обработки заданий, осуществляется выход из процесса.
2. Мне хотелось избежать влияния на мои измерения других заданий, которые могли быть запланированы на то время, когда я измерял производительность системы. Поэтому я переместил `record_event` в отдельную очередь, названную `benchmark`, заменив `@job(‘default’)` на `@job(‘benchmark’)`. Сделано это было сразу перед объявлением `record_event` в `tasks/general.py`.
Теперь можно было приступать к измерениям. Для начала мне хотелось узнать о том, сколько времени занимает запуск и остановка воркера без нагрузки. Это время можно было вычесть из итоговых результатов, полученных позже.
```
$ docker-compose exec worker bash -c "time ./manage.py rq workers 4 benchmark"
real
0m14.728s
user
0m6.810s
sys
0m2.750s
```
Инициализация воркера на моём компьютере заняла 14.7 секунд. Я это запомнил.
Затем я поместил 1000 тестовых заданий `record_event` в очередь `benchmark`:
```
$ docker-compose run --rm server manage shell <<< "from redash.tasks.general import record_event; [record_event.delay({ 'action': 'create', 'timestamp': 0, 'org_id': 1, 'user_id': 1, 'object_id': 0, 'object_type': 'dummy' }) for i in range(1000)]"
```
После этого я запустил систему так же, как делал это раньше, и узнал о том, сколько времени занимает обработка 1000 заданий.
```
$ docker-compose exec worker bash -c "time ./manage.py rq workers 4 benchmark"
real
1m57.332s
user
1m11.320s
sys
0m27.540s
```
Вычтя из того, что получилось, 14.7 секунд, я узнал о том, что 4 воркера обрабатывают 1000 заданий в течение 102 секунд. Теперь попытаемся узнать о том, почему это так. Для этого мы, в то время, пока воркеры заняты делом, исследуем их с помощью `py-spy`.
Профилирование
--------------
Добавим в очередь ещё 1000 заданий (сделать это нужно из-за того, что в ходе ранее проведённых измерений все задания были обработаны), запустим воркеры и пошпионим за ними.
```
$ docker-compose run --rm server manage shell <<< "from redash.tasks.general import record_event; [record_event.delay({ 'action': 'create', 'timestamp': 0, 'org_id': 1, 'user_id': 1, 'object_id': 0, 'object_type': 'dummy' }) for i in range(1000)]"
$ docker-compose exec worker bash -c 'nohup ./manage.py rq workers 4 benchmark & sleep 15 && pip install py-spy && rq info -u "redis://redis:6379/0" | grep busy | awk "{print $3}" | grep -o -P "\s\d+" | head -n 1 | xargs py-spy record -d 10 --subprocesses -o profile.svg -p'
$ open -a "Google Chrome" profile.svg
```
Я знаю о том, что предыдущая команда получилась очень длинной. В идеале, чтобы улучшить её читабельность, её стоило бы разбить на отдельные фрагменты, разделив её в тех местах, где встречаются последовательности символов `&&`. Но команды должны выполняться последовательно внутри одной сессии `docker-compose exec worker bash`, поэтому всё выглядит именно так. Вот описание того, что делает эта команда:
1. Запускает 4 пакетных воркера в фоне.
2. Ждёт 15 секунд (примерно столько нужно для того, чтобы закончилась их загрузка).
3. Устанавливает `py-spy`.
4. Запускает `rq-info` и выясняет PID одного из воркеров.
5. Записывает сведения о работе воркера с ранее полученным PID в течение 10 секунд и сохраняет данные в файле `profile.svg`
В результате получен следующий «пламенный график».

*Визуализация данных, собранных py-spy*
Проанализировав эти данные, я заметил, что задание `record_event` тратит большой отрезок времени его выполнения в `sqlalchemy.orm.configure_mappers`. Это происходит при выполнении каждого задания. Из документации я узнал о том, что в интересующее меня время происходит инициализация отношений всех ранее созданных мапперов.
Подобные вещи совершенно не обязаны происходить с каждым форком. Мы можем один раз инициализировать отношения в родительском воркере и избежать повторного выполнения этой задачи в «рабочих лошадках».
В результате я добавил в код вызов `sqlalchemy.org.configure_mappers()` до запуска «рабочей лошадки» и снова провёл измерения.
```
$ docker-compose run --rm server manage shell <<< "from redash.tasks.general import record_event; [record_event.delay({ 'action': 'create', 'timestamp': 0, 'org_id': 1, 'user_id': 1, 'object_id': 0, 'object_type': 'dummy' }) for i in range(1000)]
$ docker-compose exec worker bash -c "time ./manage.py rq workers 4 benchmark"
real
0m39.348s
user
0m15.190s
sys
0m10.330s
```
Если вычесть из этих результатов 14.7 секунд, то окажется, что мы улучшили время, необходимое 4 воркерам на обработку 1000 заданий, со 102 секунд до 24.6 секунд. Это — четырёхкратное улучшение производительности! Благодаря этому исправлению мы смогли вчетверо сократить продакшн-ресурсы RQ и сохранить ту же пропускную способность системы.
Итоги
-----
Из всего этого я сделал следующий вывод: стоит помнить о том, что приложение ведёт себя по-разному в том случае, если оно представляет собой единственный процесс, и в том случае, если речь идёт о форках. Если при выполнении каждого задания приходится решать какие-то тяжёлые служебные задачи, то решить их лучше заблаговременно, сделав это один раз до выполнения форка. Подобные вещи не выявляются в ходе тестирования и разработки, поэтому, почувствовав, что с проектом что-то не так, замерьте его быстродействие и дойдите до конца в ходе поиска причин проблем с его производительностью.
**Уважаемые читатели!** Сталкивались ли вы с проблемами в производительности Python-проектов, которые можно было решить, тщательно проанализировав работающую систему?
[](https://ruvds.com/vps_start/)
[](https://ruvds.com/ru-rub/#order) | https://habr.com/ru/post/475250/ | null | ru | null |
# Об одной ошибке оптимизации времени выполнения
Изначально пост планировалось посвятить ошибке 64х-битового компилятора xlc которую я безуспешно отлавливал многие часы и которая имеет место быть на серверах фирмы IBM архитектуры AIX. Но так уж получилось, что подобная ошибка затрагивает многие компиляторы, не стал исключением и Visual Studio 2010 с установленным пакетом обновления SP1. Что в итоге кажется забавным, так как наводит на мысли, что специалисты Microsoft сотрудничают с разработчиками из IBM в деле создания оптимизирующих компиляторов.
Немного предыстории. Есть один научный проект, который был написан на С++ достаточно давно и сейчас успешно переносится на многие платформы, среди которых можно отметить мейнфреймы HP-UX, IBM AIX, Oracle Solaris. Перенос по большому счету состоит в том, что исправляются ошибки времени компиляции, запускается группа тестов и если все тесты проходят, то делается вывод о работоспособности кода.
Так как скорость выполнения математических процедур очень даже важна, компиляция проходит с включенным ключом оптимизации по скорости -O2. Но на архитектуре IBM AIX компилятор xlc почему-то не может создать работоспособный код, удовлетворяющий набору тестов. В то же время без ключа -O2 все работает нормально.
Я бы, конечно, мог попробовать отловить эту ошибку непосредственно на мейнфрейме IBM AIX, будь у меня в запасе достаточно времени, но за отсутствием отладчика (в debug mode ошибка не проявлялась) ловить приходилось по-старинке, методом вставки printf в участки кода. Удаленный доступ к IBM AIX мне так и не дали, приходилось работать непосредственно в дата-центре и за те несколько часов, проведенных за терминалом, ничего внятного понять не удалось, кроме того, что ошибка имеет место быть и достаточно устойчивая. В итоге, ошибка так и сидела в коде на протяжении долгого времени.
Так продолжалось до тех пор, пока я не попробовал перенести код на Visual Studio 2010 SP1.
И о чудо! Ошибка проявила себя в том же первозданном виде, а именно в 32х-битовом режиме все работает нормально и при включении флага -O2 и без этого, а в x64 при включенном -O2 один из тестов «ругается» в точности так же, как это было на IBM AIX! Это победа, потому что теперь я мог, не ограничивая себя временными рамками, вдумчиво копать непаханное поле кода, экспериментируя и последовательно сравнивая результаты printf при правильном и неправильном прохождении тестов.
Результат не заставил себя долго ждать. Ниже будет приведена выжимка из полного кода, это наиболее сокращенный в размерах код. Данный код не работает и в 32х-битовом режиме тоже, так как параметр N равен 4. Если же установить #define N 8, то мы получим изначальный код, работающий на 32х битах, но неработающий на x64. Для простоты (не у всех есть x64, а многие, наверное, захотят попробовать) привожу исходный код, неработающий на любой архитектуре.
Итак, попробуем откомпилировать вот этот код с ключом -O2 и без него:
```
#include
#define N 4
unsigned char a[N];
void f(unsigned int k)
{
int i;
for(i=0;i>=4;
}
}
int main(void)
{
int i;
static unsigned int x=0x76543210;
f(x);
if (a[3]==2) {
printf("Error!\n");
}
for(i=0;i
```
Код программы запишем в файл test32.c
Для компиляции воспользуемся Visual Studio 2010 SP1 и будем делать код для 32х разрядной операционной системы. Сборку и запуск проведем при помощи такого командного файла:
```
call "C:\Program Files\Microsoft Visual Studio 10.0\VC\vcvarsall.bat"
cl /nologo test32.c /Fano_opt >nul
echo Без оптимизации
test32
pause
echo Оптимизация включена
cl /nologo -O2 test32.c /Fawith_opt >nul
test32
```
После запуска получим результаты:
```
Setting environment fоr using Microsoft Visual Studio 2010 x86 tools.
Без оптимизации
00 01 02 03
sizeof(void*)=4
Press any key to continue . . .
Оптимизация включена
Error!
00 01 02 02
sizeof(void*)=4
```
Видно, что после оптимизации получается 00 01 02 02 вместо 00 01 02 03.
Почему так происходит?
Рассмотрим ассемблерный файл with\_opt.asm полученный при включенной оптимизации.
Ассемблерный файл no\_opt.asm полученный при выключенной оптимизации нам не очень интересен, так как там все работает нормально. Желающие могут найти его у себя в рабочей директории.
Оптимизация включена:
```
_TEXT SEGMENT
_main PROC ; COMDAT
; Line 16
mov eax, DWORD PTR ?x@?1??main@@9@9
mov cl, al
shr eax, 4
mov dl, al
shr eax, 4
and al, 15 ; 0000000fH
and cl, 15 ; 0000000fH
and dl, 15 ; 0000000fH
mov BYTE PTR _a, cl
mov BYTE PTR _a+1, dl
mov BYTE PTR _a+2, al
mov BYTE PTR _a+3, al
; Line 17
cmp al, 2
jne SHORT $LN4@main
; Line 18
push OFFSET ??_C@_07NPIJMNAB@Error?$CB?6?$AA@
call _printf
add esp, 4
$LN4@main:
```
Легко заметить, что вызов функции f() реально не происходит, компилятор сразу же рассчитывает значения переменной x и заполняет массив а. Причем при оптимизации заполнение происходит неправильно, элементы массива \_a+2 и \_a+3 заполняются одними и теми же значениями из регистра al.
Это же верно при компиляции 64х-разрядного исполняемого файла. Для работы с 64х-битным кодом заменим первую строку в командном файле:
```
call "C:\Program Files (x86)\Microsoft Visual Studio 10.0\VC\vcvarsall.bat" amd64
```
Получим такой же неправильный результат, но только при sizeof(void\*)=8, что подтверждает 64х-битность полученного кода:
```
Setting environment fоr using Microsoft Visual Studio 2010 x64 tools.
Без оптимизации
00 01 02 03
sizeof(void*)=8
Press any key to continue . . .
Оптимизация включена
Error!
00 01 02 02
sizeof(void*)=8
```
Ассемблерный x64 код выглядит так:
```
main PROC ; COMDAT
; Line 15
$LN21:
push rbx
sub rsp, 32 ; 00000020H
; Line 16
mov ecx, DWORD PTR ?x@?1??main@@9@9
movzx eax, cl
shr ecx, 4
and al, 15
mov BYTE PTR a, al
movzx eax, cl
shr ecx, 4
and cl, 15
and al, 15
mov BYTE PTR a+1, al
mov BYTE PTR a+2, cl
mov BYTE PTR a+3, cl
; Line 17
cmp cl, 2
jne SHORT $LN4@main
; Line 18
lea rcx, OFFSET FLAT:??_C@_07NPIJMNAB@Error?$CB?6?$AA@
call printf
$LN4@main:
```
Легко увидеть, что здесь также не происходит вызов функции f(), а компилятор сразу рассчитывает значения переменной x и заполняет массив а. При этом элементы массива \_a+2 и \_a+3 заполняются одними и теми же значениями из регистра cl, что неправильно.
В итоге исходный код функции f() был исправлен таким образом:
```
void f(unsigned int k)
{
int i;
for(i=0;i>4\*i)&0xf;
}
}
```
И тут же все прекрасно заработало как на Visual Studio x86/x64 так и на xlc для IBM AIX.
Скорость выполнения тестов с ключом -O2 в итоге увеличилась примерно в 2,5 — 3 раза.
**UPD:** Для исключения недоразумений, поменял в коде знаковый тип int на unsigned int, ошибка осталась. Предыдущий вариант [можно посмотреть здесь](https://connect.microsoft.com/VisualStudio/feedback/details/698296/optimization-flag-o2-issue-in-c-c-compiler)
**UPD2:** Получен официальный ответ из Microsoft:
*Posted by Microsoft on 02.11.2011 at 11:17
Thanks for reporting this issue. I can confirm this problem with VS2010 SP1. It will be fixed in the next major release of Visual Studio.
ian Bearman
VC++ Code Generation and Optimization Team* | https://habr.com/ru/post/131615/ | null | ru | null |
# Добавляем реактивность в строковые шаблонизаторы
Одним из преимуществ строковых шаблонизаторов таких как JUST.js, jqueryTmpl или handlebarsjs перед шаблонизаторами на основе виртуального DOM дерева (VUE.js, angular) это низкий порог вхождения и простота в использовании. Ещё как мне кажется со строковыми шаблонизаторами проще интегрировать плагины для jquery.
Однако возможность реактивного связывания данных модели с шаблоном действительно удобный инструмент, и после того как я пробовал VUE.js и angular мне стало очень не хватать этого в моём любимом шаблонизаторе [JUST.JS](https://habrahabr.ru/post/138939/).
В итоге я решил добавить одностороннее реактивное связывание данных в JUST.JS, а в итоге получилось [решение](https://github.com/Levhav/justReactive) которое можно использовать практически с любым строковым шаблонизатором.
Начнём с простого примера
=========================
В нём мы обошлись вообще без шаблонизатора для простоты и наглядности кода. В данном примере раз в секунду в переменную присваивается новое значение. И затем justReactive за вас вносит измения в dom дерево страницы.
Библиотека justReactive добавляет следующие методы для Object каждый из которых предназначен для вставки отслеживаемого значения в разные места html кода.
* justHtml — отображение текста или html кода из переменной без какой либо фильтрации
* justText — отображение текста из переменной как текста, с преобразованием html сущностей в текст
* justClass — подставляет класс если значение отслеживаемой переменой не false
* justNotClass — подставляет класс если значение отслеживаемой переменой false
* justClassName — подставляет как класс само значение отслеживаемой переменой
* justAttr — подставляет и обновляет атрибут у элемента
Принцип действия
================
Следующий вызов:
```
model.justText('time')
```
вернёт вам html код который надо вставить в шаблон на то место где должна быть ваша переменная. Он избыточный, то есть помимо значения самой переменной нам приходится её оборачивать дополнительными элементами.
Так на пример justText вернёт следующий html-код:
```
1498115282970
```
Такая избыточность порой мешает при вёрстке, но эта та цена которая необходима для возможности в дальнейшем менять значение прямо на странице. Путём выполнения простого присваивания.
Так же надо учитывать то что после добавления отслеживания переменной её значение подменяется на объект с гетером и сетером ([для тех кто не знает про такую возможность](https://learn.javascript.ru/descriptors-getters-setters)) и в дальнейшем при присваиваниях они вызываются, так что если вы уже используете функции гетеров и сетеров в своём коде то надо подумать над отсутствием конфликтов.
Ещё пример использования
========================
Этот пример основан на предыдущем. Здесь мы добавили отслеживание ещё переменной model.class для изменения класса элемента и переменной model.hide для скрытия ещё одного элемента.
Недостатки подхода
==================
У такого подхода есть ряд проблем которые нужно учитывать при работе с кодом. В следующей ситуации мы можем получить не то что хотели:
```
var model = {};
model.key1 = 1;
$("#time1").html(model.justText('key1'))
model = {key1:2};
```
В данном примере значение в dom дереве не будет обновлено так как присваивание в model = {key1:2}; фактически сначала удалило отслеживаемый нами model.key1, а потом создало новый объект model с таким же, но не тем же самым ключом key1.
Циклы и блоки шаблонов
======================
Для изменения отдельных элементов того что мы рассмотрели достаточно. Но для работы иногда хочется при изменении одной переменной перестроить целый блок шаблона. На пример если мы отслеживаем массив и в него добавился ещё один элемент хочется перестроить весь список элементов.
Для решения этой задачи мы бы могли вставлять сразу большой блок html кода в какой то из элементов.
Но такое хоть и работает но всё же не очень удобно. Я лично для себя сделал форк шаблонизатора [just.js](https://github.com/baryshev/just) и добавил в него ряд дополнительных возможностей попутно вырезав то что мне казалось в нём лишнем.
Получившийся модифицированый шаблонизатор я назвал [just-template](https://github.com/Levhav/just-template)
В него я добавил конструкцию для отслеживания переменных модели которая сразу перестраивает вложенный в неё блок шаблона. При этом через замыкание доступны все переменные переданные при построении шаблона в первый раз.
```
<~ this.data.itemslist>
<% for(var i in this.data.itemslist){ %>
- <%= this.data.itemslist[i].justText('name') %> - <%- this.data.itemslist[i].text %>
<% } %>
<~>
```
Добавил фильтрацию данных:
```
<%- text %> - с фильтрацией
<%= text %> - без фильтрации
```
И полностью выпилил всю асинхронность так как я это использую только на фронтенде и отсутствие асинхронности сильно упрощает код. И даёт без проблем собирать финальную страницу по кусочкам вызовами нескольких разных шаблонов.
Финальный пример с массивом и циклами и шаблоном.
Ссылки
======
* [justReactive](https://github.com/Levhav/justReactive)
* [just-template](https://github.com/Levhav/just-template)
* [Описание оригинального JUST.JS](https://habrahabr.ru/post/138939/)
* [Про геттеры и сеторы](https://learn.javascript.ru/descriptors-getters-setters) | https://habr.com/ru/post/331400/ | null | ru | null |
# MISRA C: struggle for code quality and security
A couple of years ago the PVS-Studio analyzer got its first diagnostic rules to check program code compliance with the MISRA C and MISRA C++ standards. We collected feedback and saw that our clients were interested in using the analyzer to check their projects for MISRA compliance. So, we decided to further develop the analyzer in this direction. The article covers the MISRA C/C++ standard and the MISRA Compliance report. It also shows what we already managed to do and what we plan to achieve by the end of the year.

How it started
--------------
Our company started working on a static code analyzer back in 2006. At that time, the IT world was undergoing a smooth transition: applications started migrating from 32-bit systems to 64-bit. Many developers started to encounter [unexpected problems](https://pvs-studio.com/en/blog/posts/cpp/a0065/). Our product, whose name then was Viva64, helped developers to look for code errors that occurred after they adapted applications to 64-bit systems. Over time, the analyzer was learning to examine projects for error patterns related to typos, uninitialized variables, unreachable code, undefined behavior, etc. Currently the analyzer provides over [1000 diagnostics](https://pvs-studio.com/en/docs/warnings/).
Before 2018, we positioned PVS-Studio as a tool that detects code errors. In 2018, we realized that a significant portion of errors that we learned to detect were simultaneously [potential vulnerabilities](https://pvs-studio.com/en/blog/terms/6441/). Starting with 2018, PVS-Studio has been a tool for Static Application Security Testing ([SAST](https://pvs-studio.com/en/pvs-studio/sast/)). At the same time, we started to classify both new and existing diagnostics in accordance with [Common Weakness (CWE)](https://pvs-studio.com/en/pvs-studio/sast/cwe/), [SEI CERT Coding (CERT)](https://pvs-studio.com/en/pvs-studio/sast/cert/), [MISRA C/C++](https://pvs-studio.com/en/pvs-studio/sast/misra/). In 2021, [AUTOSAR](https://pvs-studio.com/en/pvs-studio/sast/autosar/) joined this list.
In 2018 we started supporting embedded systems, and that prompted us to support MISRA and AUTOSAR. The analyzer supported the following systems:
* Windows. IAR Embedded Workbench, C/C++ Compiler for ARM C, C++;
* Windows/Linux. Keil µVision, DS-MDK, ARM Compiler 5/6 C, C++;
* Windows/Linux. Texas Instruments Code Composer Studio, ARM Code Generation Tools C, C++;
* Windows/Linux/macOS. GNU Arm Embedded Toolchain, Arm Embedded GCC compiler, C, C++.
You can find detailed [instructions](https://pvs-studio.com/en/docs/manual/0045/) on how to use PVS-Studio for embedded development on our website.
Unlike desktop projects, many embedded projects are developed according to MISRA recommendations. So, we thought that programming our analyzer to support the standard would be a good idea. Since then, we have been slowly developing rules for this standard and collecting feedback.

We were waiting for the demand to appear, and it did not keep us waiting long. People wrote us messages, asked about the analyzer's features, tried to analyze their projects. For us this meant that it was time to develop our analyzer in the MISRA direction further. Most of our clients were interested in MISRA C rather than in MISRA C++, which is why at first, we decided to increase the MISRA C coverage. Users were also interested in the [MISRA Compliance report](https://pvs-studio.com/en/blog/posts/cpp/0863/), which we recently supported as well.
And now let's talk about the MISRA C/C++ standard itself.
About MISRA C/C++ standard
--------------------------
The MISRA standard is designed for critical embedded systems where the requirements of a quality, reliability and portability must be met. Such systems are used in automotive industry, aircraft construction, medicine, space industry and other industry fields. The price of a programmatic error in such systems could be human health and lives, or large financial or reputation losses.
The MISRA C standard applies to programs in C. The standard is regularly updated and currently contains 143 rules and 16 directives. The rules are split into categories:
* Mandatory (10 rules) – the stringent rules. Failure to comply with them almost always causes an error;
* Required (101 rules) – less strict rules. They improve the code readability, prohibit unsafe language constructs, and forbid functions – like malloc — whose incorrect use leads to failures.
* Advisory (32 rules) – non-obligatory recommendations.
Let's look at a few Required rules, since this category is the largest.
**Rule MISRA-C-11.8**. The cast should not remove *const*/*volatile* qualification from the type that is pointed to by a pointer. Diagnostic for this rule — [V2567](https://pvs-studio.com/en/docs/warnings/v2567/). Here is the example of the deviation that analyzer found in the [reliance-edge](https://github.com/datalightinc/reliance-edge) project:
V2567 [MISRA-C-11.8] The cast should not remove 'const' qualification from the type that is pointed to by a pointer. toolcmn.c 66
```
uint8_t RedFindVolumeNumber(const char *pszVolume)
{
const char *pszEndPtr;
....
ulNumber = strtoul(pszVolume, (char **)&pszEndPtr, 10);
....
}
```
The rule warns that this pattern leads to undefined behavior.
**Rule MISRA-C-7.1.** Octal constants should not be used. Diagnostic for this rule — [V2501](https://pvs-studio.com/en/docs/warnings/v2501/). The analyzer found such constants in the same reliance-edge project as well:
V2501 [MISRA-C-7.1] Octal constant '0666' should not be used. fsstress.c 1376
```
static void creat_f(int opno, long r)
{
int e;
pathname_t f;
int fd;
....
fd = creat_path(&f, 0666); //<=
e = fd < 0 ? errno : 0;
....
}
```
The rule says that the use of octal literals could hinder code readability, especially when a developer is skimming through it. Misinterpreting numeric values may result in various errors.
**Rule MISRA-C-11.1.** Conversions should not be performed between pointer to function and any other type. Diagnostic for this rule — [V2590](https://pvs-studio.com/en/docs/warnings/v2590/).
V2590 Conversions should not be performed between pointer to function and any other type. Consider inspecting the '(fp) & foo' expression.
```
void foo(int32_t x);
typedef void (*fp)(int16_t x);
void bar(void)
{
fp fp1 = (fp)&foo
}
```
The pointer to the *fp1* function takes the value of the pointer to the *foo* function, which does not match the arguments and the return value. The language standard allows such conversions. However, the MISRA C standard warns that they cause undefined behavior.
If you just begin to use the MISRA standard and apply all the rules on your code at once, it will look something like this:

Almost every language construct has its own rule or even multiple rules. That's why code writing in compliance with the MISRA standard is no joke. Luckily, we have static code analyzers to help us. Such analyzers come with a set of diagnostics which detect rule violations of the standard.
MISRA created its rules taking risky features of the language and its subtleties into account. Compliance with meticulous rules helps developers to write secure code. They notice mistakes more easily. They don't have to keep all the subtle language features in their head and worry about the program behaviour when it's ported to different software environment or hardware. MISRA developers have thoroughly studied the entire C language standard in search of ways to shoot themselves in the foot. Now we can draw on their experience rather than learn the language standard from cover to cover.
Adhering to the coding standard can be a huge challenge for a developer. It imposes many restrictions on the code writing. However, this approach significantly reduces the number of errors that may appear when you run a program, for instance, in an airplane engine. High application security pays for the time and money you spend to ensure your code comply with the standard. Find more information about the standard and how to use it in your projects in the article: *[What is MISRA and how to cook it](https://pvs-studio.com/en/blog/posts/cpp/0702/)*.
And now let's move on to the development of our static analyzer in the MISRA direction.
Our plans and current progress
------------------------------
Now we know that developers want to use our analyzer to check their code for compliance with the MISRA standard. Therefore, we're actively developing the analyzer in this direction.
We saw the demand for code analysis that complies with MISRA C standard. Our team continued to develop the analyzer to competitive levels and set goals for ourselves:
* increase MISRA coverage up to 80% by the end of this year;
* provide an opportunity to generate a MISRA Compliance report.
Starting with April, we prioritized writing the MISRA C diagnostics. Our team expanded and that enhanced the development process. Currently, PVS-Studio covers 60% of the MISRA C standard. By November we plan to increase the coverage up to 75%, and by January 2022 – 80% or more.
While I was writing this article, the beta version of PVS-Studio analyzer got the feature to generate MISRA Compliance report. The [PlogConverter.exe](https://github.com/viva64/PlogConverter-MSBuild-VS) utility for Windows and [plog-converter](https://github.com/viva64/plog-converter) for Linux can now convert a "raw" analyzer report into MISRA Compliance report. Now let's talk about MISRA Compliance report.
Here is a couple of examples from the recent MISRA C diagnostics.
[V2594](https://pvs-studio.com/en/docs/warnings/v2594/). MISRA. Controlling expressions should not be invariant.
Controlling expressions in *if*, *?:*, *while*, *for*, *do*, *switch* should not be invariant, i.e., controlling expressions should not always lead to executing the same code branch. An invariant value in a controlling expression may indicate a program error.
```
void adjust(unsigned error)
{
if (error < 0)
{
increase_value(-error);
}
else
{
decrease_value(error);
}
}
```
This example illustrates the error: the condition is always false because the function receives an unsigned integer. As a result, the *decrease\_value* function is always called. The compiler may remove the code branch with the *increase\_value* function.
[V2598](https://pvs-studio.com/en/docs/warnings/v2598/). MISRA. Variable length array types are not allowed.
Declaring variable-length arrays can lead to a stack overflow and potential vulnerabilities in the program.
```
void foo(size_t n)
{
int arr[n];
// ....
}
```
Transmission of large number *n* can lead to a stack overflow as the array will become too large and take up more memory than there is available.
The MISRA C standard contains 143 rules and 16 directives. It would be nice to have a general report that could show the code compliance with the standard in a convenient form and contain information for all rule deviations. Such report exists. Its name is MISRA Compliance.
MISRA Compliance report generation
----------------------------------
According to the MISRA C standard, it may be unjustified for developers to comply with all MISRA rules. Therefore, it requires to issue a MISRA Compliance report on the code that complies with all Mandatory rules. The standard also allows deviations from the Required rules. A developer must confirm deviations from rules and document them.
As mentioned earlier, the beta version of our analyzer now can generate such reports. Currently, a report has a form of HTML-page generated by the [PlogConverter.exe](https://github.com/viva64/PlogConverter-MSBuild-VS) utility for Windows and [plog-converter](https://github.com/viva64/plog-converter) for Linux.
The report contains a table of code compliance with each of the MISRA C rules and a general conclusion.

The **Guideline** column contains rules and directives number from the MISRA C standard.
The **Category** — shows the category of a rule or directive indicated in the standard.
The MISRA C standard allows you to raise the level of compliance. Therefore, the **Recategorization** reflects the new rule or directive category set by the user in accordance with the GRP (Guideline Re-categorization Plan). Only three transitions are possible:
* Required -> Mandatory;
* Advisory -> Required;
* Advisory -> Mandatory.
In our case, GRP is a txt file. A file example of acceptable shifts:
```
Rule 15.3 = Mandatory
Rule 16.4 = Mandatory
Rule 17.5 = Required
```
If this file contains a category down-shift, the plog-converter will issue an error message and will not generate the report.
The **Compliance** column contains information about the checked code's compliance with a rule or directive:
* Compliant – the project has no deviations from the rule;
* Deviations – deviations from the rule were detected, but the developer justified the reason why he intentionally violates this rule. If you want the analyzer to ignore a specific warning, mark it as false alarm ([Mark as False Alarm](https://pvs-studio.com/en/docs/manual/0017/)). The number of approved deviations is shown in the parentheses next to the Deviations status;
* Violations – there is at least one deviation from the rule that has not been documented (not justified and not marked as FA). The number of such deviations is indicated in parentheses;
* Not Supported – the analyzer does not support this rule yet.
Under the table, you will see the report that shows whether your project complies or does not comply with the MISRA C standard. Compliant code meets the following conditions:
* All Mandatory rules have the Compliant or Not Supported status;
* All Required rules have the Compliant and/or Deviations or Not Supported status;
* Advisory rules have a status;
If the code does not comply with the standard, the utility will highlight in red the violated statuses of the rules.
Till the beginning of October 2021, the generation of MISRA Compliance report will be accessible in beta version (to get the beta, please, fill in the [feedback form](https://pvs-studio.com/en/about-feedback/?is_question_form_open=true)). Then we plan to release a new version of PVS-Studio analyzer. [PVS-Studio 7.15](https://pvs-studio.com/en/pvs-studio/download/) will be able to generate this report.
To generate the MISRA Compliance report on Windows, first, [run the analysis](https://pvs-studio.com/en/docs/manual/0007/) of the project. Then run the Plog-converter.exe utility with the following arguments:
```
"C:\Program Files (x86)\PVS-Studio\PlogConverter.exe" "path_to_report_file" \
-t misra -o "path_to_MISRA_report" --grp "path_to_grp.txt"
```
To generate the report on Linux, you also need to [run the analysis](https://pvs-studio.com/en/docs/manual/0036/). Then call the plog-converter.
```
plog-converter "path_to_report_file" -t misra -o "path_to_MISRA_report" \
--grp "path_to_grp.txt"
```
The MISRA Compliance report shows that your project's code complies with the MISRA standard. We strive to reduce the number of Not supported statuses in your report. The development of new MISRA diagnostics results not only in the diagnostic code and the documentation text. It also produces a valuable outcome for developers. And that's what the following paragraph is about.
MISRA diagnostics: why it may be exciting and helpful to write them
-------------------------------------------------------------------
What output does the MISRA diagnostics development provide?
First, it is understanding of secure coding principles. While developing the General Analysis diagnostics we try to minimize the number of issued warnings. Yet another MISRA diagnostics can issue thousands of messages on a medium-sized project. After we run a new diagnostic on our test projects database, a report may look like this:

Secondly — knowledge of specifics and unexpected features of a language. For example, does anybody remember the designated initialization? Does anybody know how to use the *static* keyword correctly in an array formal parameter declarator?
```
int array[] = { 1, 2, 4, [8]={256} };
void foo(int [static 20]);
```
Third, you learn a million of ways to get unspecified, undefined, or implementation-dependent behavior. You start recognizing potentially unsafe code fragments.
And new MISRA diagnostics development can also give rise to the General Analysis diagnostics.
Let's talk about the last one in more detail. Usually, the ideas of new General Analysis diagnostics show up in the following cases:
* when we study a language (including new standards) and compilers. We recognize the cases when a particular language construct implementation may lead to an error;
* when we look for bugs in our code. Some popular pattern may be an error, then why not implement a search for such errors;
* when we provide technical support to clients. Concerned developers often come forward with ideas;
* when we read articles where author faces some exciting error pattern;
* when we study secure coding standards.
So, recently, a new General Analysis diagnostic appeared due to the implementation of one of the MISRA C rules. The rule says: 'Octal and hexadecimal escape sequences should be terminated'. Why? Look at this line:
```
const char *str = "\x0exit";
```
This string literal is 4 characters long, instead of 5, as it may seem at first. The *\x0e* sequence is one character that has the 0xE code — not a character, that has a zero code, followed by the letter *e*.
Therefore, according to the standard one must terminate the escape sequence in one of two ways:
* terminating the string literal;
* starting a new escape sequence.
For example:
```
const char *str1 = "\x0" "exit";
const char *str2 = "\x1f\x2f";
```
We found this rule useful for projects that are not written according to MISRA standard. This is how two our diagnostics appeared at once: [V1074](https://pvs-studio.com/en/docs/warnings/v1074/) and [V2602](https://pvs-studio.com/en/docs/warnings/v2602/). Obviously, they have the same code under the hood.
Here is another case when new diagnostics appeared due to cooperation with MISRA. It all started when we added the [covid-sim](https://github.com/mrc-ide/covid-sim) project to the base of test projects for testing the PVS-Studio analyzer. The project turned out to be small and cross-platform, so it was suitable for the MISRA diagnostics testing. Before supplementing the base, we find it useful to look through warnings to search out patterns of false positives. This could be an ordinary check. However, the analyzer caught the V2507 warning that seemed to be a false positive:
```
if (radiusSquared > StateT[tn].maxRad2) StateT[tn].maxRad2 = radiusSquared;
{
SusceptibleToLatent(a->pcell);
if (a->listpos < Cells[a->pcell].S)
{
UpdateCell(Cells[a->pcell].susceptible, a->listpos, Cells[a->pcell].S);
a->listpos = Cells[a->pcell].S;
Cells[a->pcell].latent[0] = ai;
}
}
StateT[tn].cumI_keyworker[a->keyworker]++;
```
The [V2507](https://pvs-studio.com/en/docs/warnings/v2507/) diagnostic finds conditional statements whose bodies that are not enclosed in curly braces.
As you can see, the code fragment does have braces. Did the analyzer fail? Let's take a closer look. It becomes clear that the body of the *if* statement is in the same line with the conditional statement. And the braces have nothing to do with the *if* in any way.
First, this example proves that the MISRA standard approach works. It does reduce the number of errors made in code of critical embedded systems. After all, if the body of the *if* statement was in braces, then the logical error would be easy to notice.
Secondly, we have come up with an idea of a new General Analysis diagnostic. The diagnostic issues a warning in case the following conditions are met for the *if* statement:
* the entire *if* statement is written in one line and has only a *then* branch;
* the next statement after *if* is a compound statement, and it doesn't start on the same line with *if*.
Read more about the [V1073](https://pvs-studio.com/en/docs/warnings/v1073/) diagnostic development [here](https://pvs-studio.com/en/blog/posts/cpp/0814/).
Conclusion
----------
Code reliability and safety requires compliance with strict and meticulous rules concerning a certain style of code writing. Avoid dangerous language constructs and functions: their misuse leads to failures. Use static analyzers, for example [PVS-Studio](https://pvs-studio.com/standards-misra), for checking code for compliance. The result of the check will be the MISRA Compliance report.
More information on how to improve code security using static analysis in the following articles:
1. [PVS-Studio finds security defects and provides application security. Report by Forrester Research on SAST, Q3 2020. Report by Forrester Research on SAST, Q3 2020](https://pvs-studio.com/en/blog/posts/0759/).
2. [OWASP, vulnerabilities, and taint analysis in PVS-Studio for C#.](https://pvs-studio.com/en/blog/posts/csharp/0831/) Stir, but don't shake.
3. [Technologies used in the PVS-Studio code analyzer for finding bugs and potential vulnerabilities](https://pvs-studio.com/en/blog/posts/cpp/0592/). | https://habr.com/ru/post/579428/ | null | en | null |
# Автоматизированное тестирование облачного провайдера Open Telekom Cloud на основе Robot Framework
В этой статье я расскажу об инфраструктуре нашего проекта для запуска REST API автотестов для сервисов Open Telekom Cloud. Акцент делается на Python и Robot Framework составляющей, с небольшим обзором инфраструктуры проекта (Jenkins/Gitlab/InfluxDB/Grafana). Статья описывает один из многочисленных способов настройки окружения, на котором запускаются автотесты (внутри нашего проекта есть 3 инфраструктуры с разным способом запуска, обработки и выгрузки результатов тестов - одна из них описана в этой статье).
Информация, изложенная в этой статье, может быть полезна как для тестировщиков-автоматизаторов, так и для DevOps-инженеров, у которых есть необходимость в создании собственного окружения для автотестов. Если вам просто интересно, как работает автоматическая прогонка тестов в большом проекте - тогда вам тоже сюда. Сразу оговорюсь, что текущая инфраструктура справляется со своими задачами тестирования API запросов, но может не подойти для мобильного тестирования / проведения нагрузочных тестов или проч. Если у вас предложения, по улучшению - буду рад увидеть их в комментариях.
### Open Telekom Cloud
Open Telekom Cloud (далее - OTC) - самый крупный европейский публичный облачный сервис основанный на Openstack. Платформа создана для компаний и стартапов, которые работают с европейскими пользователями, чьи данные должны храниться в пределах Евросоюза. Более подробную информацию об облаке можно найти по ссылкам:
* [Видео об Open Telekom Cloud](https://www.youtube.com/watch?v=ZXwMPsafSew)
* [Главная страница Open Telekom Cloud](https://open-telekom-cloud.com/en)
* [Статья об управлении структурой Open Telekom Cloud](https://habr.com/ru/company/deutschetelekomitsolutions/blog/554384/)
По структуре сервисов и API запросам он больше всего похож на Amazon Web Service / Huawei Cloud / SberCloud.
Мое знакомство с облачным провайдером Open Telekom Cloud началось более года назад. До этого опыта в автомазированном тестировании я не имел, так что изначально все взаимодействие ограничивалось Robot Framework’ом и написанием keyword-driven API тестов с использованием кастомной библиотеки для Open Telekom Cloud. Со временем стали появляться новые задачи, которые требовали более глубокого понимания нашей среды, в первую очередь, касающиеся Python, настройки Jenkins и CI/CD Gitlab’а.
### Почему Robot Framework?
Robot framework (RF) – это open source keyword-driven фреймворк на основе Python, разработанный для автоматизации тестирования.
В контексте нашего проекта я хочу выделить три основные причины использования Robot Framework в качестве основного инструмента для написания автотестов:
#### Отчеты RF
Отчеты в Robot Framework генерируются автоматически в процессе работы. По итогам получаем 3 файла с результатами тестов – output.xml (сводка по тестам, которую в дальнейшем можно парсить командой rebot), report.html (общая сводка по тестам) и log.html (подробные результаты по каждому тесту).
Содержание log.htmlДетальный отчет можно получить, добавив аргумент -b и название файла (в который должен сохраняться отчет) в команде запуска robot:
```
~$ robot -b debug.log test_suite.robot
```
Стандартные репорты robot’а достаточно ясные, и даже человек, не связанный с тестированием, поймет в какой момент в тест сьюте что-то сломалось. Также это наглядный инструмент для менеджмента, который позволяет сразу оценить общее количество тестов и процент успешного выполнения.
Проблемы могут возникнуть на этапе воспроизведения неудавшихся тестов. Debug логи robot тестов не сохраняются на нодах Jenkins из-за соображения безопасности, а сам robot плохо оптимизирован для отладки. Но, как показывает практика, большая часть результатов тестов воспроизводится.
#### RF прост для понимания
Благодаря простому синтаксису ключевых слов в библиотеках RF большинство тестов можно понять без глубокого погружения в тест-кейс. Также для написания тестов на RF не требуется знание ООП и умения программирования на Python. Нужно лишь подключить необходимые библиотеки, для которых достаточно понимания базовых концептов типа списков, словарей, объектов.
*Пример теста с ключевыми словами встроенной библиотеки RF:*
```
*** Settings ***
Library String
*** Variables ***
${var} world
*** Keywords ***
My log uppercase keyword
${uvar} = Convert to Uppercase ${var}
Log To Console Hello ${uvar}
*** Test Cases ***
Sample Testcase
My log uppercase keyword
```
Синтаксис ключевых слов библиотек OTC тоже стараемся поддерживать максимально простым и понятным.
В целом это упрощает порог вхождения для новых сотрудников, которые у нас регулярно появляются, так как команда активно растет и всегда есть открытые позиции в тест автоматизации. Новому сотруднику не обязательно иметь опыт в автоматизации и ООП. Для начала ему хватит RF, с помощью которого можно без проблем покрыть сервисы тестами. Если же ставятся более серьезные задачи, или тест сьюты в RF становятся слишком большими и сложными — значит пришло время углубиться в Python и дописать модуль / ключевые слова для своего сервиса.
#### RF поддерживает теги
Теги позволяют разбить запуск тестов для разных окружений. На практике это означает, что внутри одного тест сьюта с помощью тегов можно отметить, какие тесты должны запускаться на каком окружении.
Теги могут быть добавлены в разделе Settings robot framework’а:
```
*** Setting ***
Force Tags status:stable
... release:OTC_2.1
... importance:critical
... frequency:hourly
... region:prod_eu-de
```
Такой вариант добавляет теги для всех тест-кейсов.
Либо можно отдельно добавить теги для тест-кейса:
```
*** Setting ***
*** Keywords ***
*** Variables ***
*** Test Cases ***
Example-Test-Case
[Tags] status:stable
... release:OTC_2.1
... importance:critical
... frequency:hourly
... region:prod_eu-de
```
Далее запуская тесты для определенного региона или настраивая Jenkins/Gitlab, мы явно указываем тесты с каким тегом должны быть запущены:
```
~$ robot -i region:prod_eu-de test_suite.robot
```
### Инфраструктура проекта
Запуск автотестов нашего проекта происходит на виртуальных машинах Open Telekom Cloud с помощью Jenkins. В нашей конфигурации Jenkins есть два вида задач – hourly и nightly – задачи запускаемые на нодах Jenkins каждый час/ночь, в зависимости от проставленного в Robot тега (если тест сьют требует более 5-10 минут на исполнение, то тег ставится nightly).
Ниже приведен процесс автоматизации наших тестов:
Перед запуском очередной задачи на ноде, Jenkins обновляет репозиторий Gitlab, в котором хранятся тесты Robot Framework. После чего происходит запуск тестов.
Часть результатов мы получаем во время исполнения тестов RF (обычно это тесты на производительность сервисов), они парсятся через RF и отправляется curl’ом в InfluxDB и Grafana. По завершению всех тестов результаты (а именно output.xml) парсятся уже через Jenkins и выгружаются в Grafana и Web Reports. В итоге имеем следующий результат:
GrafanaWeb reportsГлавная страничка Web reports отображает статистику по всем окружениям, в которых запускаются тесты. Нажав на одно из них, мы проваливаемся в report.html и можем посмотреть детальное исполнение тестов.
### Автоматизированные тесты в OTC и задача QA
Мы занимаемся тестированием REST API и написанием соответствующих автотестов для сервисов Open Telekom Cloud. С точки зрения тестирования – это основная задача QA, хотя RF позволяет писать UI/UX тесты (с помощью Selenium), тесты на производительность сервисов. В основе RF лежит Python, поэтому возможности ограничены лишь теми библиотеками, которые вы подключаете к RF.
Для каждого сервиса OTC есть API документация, которая содержит в себе описание возможных REST запросов, связанных с сервисом. Это основной документ, с которым работают и на который ориентируются инженеры при создании автотестов:
*Пример Get запроса для сервиса CBR (Cloud backup and recovery):*
GET http://{cbr\_endpoint\_url}/v3/{project\_id}/operation-logs/{operation\_log\_id}
Соответствующий запрос написанный в RF с использованием внутренних библиотек будет выглядеть следующим образом:
```
*** Test Cases***
Get operation log ID
Use service cbr
${resp} = Get Request /operation-logs/{operatiom_log_id}
```
Базовый тест сьют обычно имеет следующую структуру: создание объекта сервиса - настройка / изменение объекта сервиса - удаление объекта сервиса. Часто для создания какого-то сервиса требуется предварительное создание и настройка другого сервиса. Например, до создания виртуальной машины требуется создать виртуальную сеть и секьюрити группу.
### Robot Framework
Для работы с RF не требуется знание Python, достаточно использовать заложенные в него ключевые слова и внешние библиотеки. В нашем проекте используется следующий набор библиотек для RF:
При подключении OTC Library в тест сьют и дальнейшем запуске в первую очередь через Openstack sdk и OpenStackConfig (openstack.config.loader) создается сессия. Авторизация сессии происходит двумя способами:
#### clouds.yaml
OpenStack sdk самостоятельно ищет файл для авторизации в следующих местах:
1. system-wide (/etc/openstack/{clouds,secure}.yaml)
2. Home directory / user space (~/.config/openstack/{clouds,secure}.yaml)
3. Current directory (./{clouds,secure}.yaml)
```
clouds:
otc:
profile: otc
auth:
username: ''
password: ''
project\_name: ''
# or project\_id: '<123456\_PROJECT\_ID>'
user\_domain\_name: 'OTC00000000001000000xxx'
# or user\_domain\_id: '<123456\_DOMAIN\_ID>'
account\_key: '' # AK/SK pair for access to OBS
secret\_key: '
```
После того, как файл создан, нужно указать имя конфигурации для переменной окружения OS\_CLOUD:
```
~$ export OS_CLOUD=otc
```
#### Переменные окружения
В случае, если OpenStack sdk не обнаруживает переменную OS\_CLOUD и/или файл clouds.yaml, он проверяет переменные окружения. Авторизация через переменные окружение может осуществляться вручную или через файл (например.ostackrc):
```
# .ostackrc file
export OS_USERNAME=""
export OS\_USER\_DOMAIN\_NAME=
export OS\_PASSWORD= # optional
export OS\_TENANT\_NAME=eu-de
export OS\_PROJECT\_NAME=
export OS\_AUTH\_URL=https://iam.eu-de.otc.t-systems.com:443/v3
export NOVA\_ENDPOINT\_TYPE=publicURL
export OS\_ENDPOINT\_TYPE=publicURL
export CINDER\_ENDPOINT\_TYPE=publicURL
export OS\_VOLUME\_API\_VERSION=2
export OS\_IDENTITY\_API\_VERSION=3
export OS\_IMAGE\_API\_VERSION=2
```
Добавляем переменные в окружение с помощью
```
~$ source .ostackrc
```
После чего можно использовать OTC Library.
Далее есть два варианта построения тестов – с использованием модулей сервисов (библиотека ключевых слов, заранее написанного для сервиса на python, например OtcLibrary.evs\_robot), либо прописывать вручную все API запросы и последующие проверки статус кода и тела ответа.
Базовый вариант (без модулей) тест сьюта выглядит следующим образом:
```
*** Settings ***
Library OtcLibrary
*** Test Cases ***
Check EVS disk type
Use service evs
${resp} = Get Request /volumes/ 4d7c7b9d-1b70-40a8-8dd5-edd86eb08154
Should Be Equal As Strings ${resp.status_code} 200
Should Be True “${resp.json()[“volume”][“volume_type”]}” == “SATA”
```
Команда “Use service” запрашивает endpoint сервиса, который далее подставляется в последующие запросы. Тело ответа и статус код содержится в переменной ${resp}, над которой дальше проводят всевозможные проверки.
Также OtcLibrary содержит в себе основные ключевые слова для работы с проектом и регионами – вот часть из них:
*Get ProjectId
Get ProjectName
Get Region
Get DomainId
…*
Основой OtcLibrary является Python библиотека RequestsLibrary, так что структура запросов и переменной с ответом сервера почти ничем не отличаются.
Также использование RequestsLibrary позволяет создание нескольких сессий с легким переключением между ними.
Для основных сервисов OTC написаны модули с набором ключевых слов. Как правило внутри ключевого слова уже совершаются проверки статус кода и полей в ответе запроса, итоговый вид тест сьюта менее загруженный:
```
*** Settings ***
Library OtcLibrary
Library OtcLibrary.evs_robot
*** Test Cases ***
Check EVS disk type
${resp}= Query EVS disk diskname
Should Be True “${resp[“volume_type”]}” == “SATA”
```
В данном примере метод Query EVS disk описан в модуле OtcLibrary.evs\_robot и содержит отправку запроса, а также проверку кода статуса ответа следующего вида:
```
def query_evs_disk(self, name=None):
'''query details of an EVS disk'''
if name:
...
response = self._session.get(self._url + '/cloudvolumes/detail', params=params)
status_code_should_be(response, 200)
return response.json()
else:
raise TypeError(name + '() needs name as an argument')
```
Далее работа идет с телом ответа в json формате.
Для робота создано большое количество комьюнити библиотек, что расширяет возможности тестирования и позволяет создавать не только функциональные тесты. Например, комбинация SSHLibrary и модулей сервиса ecs позволяет создать VM и подключиться через ssh с дальнейшим запуском команд на VM.
Таким образом у нас настроены тесты на производительность виртуальных жестких дисков (SATA, SSD и проч.) через [утилиту fio](https://fio.readthedocs.io/en/latest/index.html), после пробега команд и последующего парсинга, результат отправляется API запросами на Influx и отображается на Grafana.
Результаты тестов на производительность сервиса EVSВ принципе, таким образом можно автоматизировать почти любой ручной тест. Например, рассмотрим тесты для сервиса s3, который используется для хранения и доступа данных в "бакетах" - виртуальных контейнерах облачного сервиса. В качестве инструментов тестирования используется утилита [s3tester](https://github.com/s3tester/s3tester) и [obsutil](https://github.com/opentelekomcloud/obs-obsutil). Все действия выполняются через ключевые слова RF, порядок работы в данном случае следующий:
* создание VM и s3 контейнера;
* удаленное подключение к VM;
* загрузка s3tester/obsutil на VM, изменение прав доступа к файлам;
* запуск команд s3tester/obsutil с дальнейшей выгрузкой на сервер с Grafana.
В данном случае, чтобы не загромождать тест-кейс, сделано разделение по ресурсам:
```
obs/
Resources/
keywords.robot
settings.robot
setup_and_teardown.robot
variables.robot
OBS_Performance_obsutil.robot
OBS_Performance_s3tester.robot
```
Файл OBS\_Performance\_obsutil.robot:
```
*** Settings ***
Documentation OBS Performance Testing- Obsutil
Suite Setup Setup Suite
Suite Teardown Teardonw Suite
Resource ${CURDIR}/Resources/settings.robot
#путь к файлам, в которых находятся ключевые слова тест-кейса
*** Test Cases ***
Start test
Start Test Keyword
Set Suite Variable ${ecs_type} ${ecs_type2}
Create KeyPair
Create KeyPair Keyword
OBS Performance test - az1
Preparing testing ECS Keyword ${AZ-1} s3.2xlarge.1
#создание VM
BuiltIn.Sleep 15
Get EIP Keyword
Open Connection And Login With Public Key Keyword
#подключение к VM по ssh
Configure Ecs
#загрузка obsutil на VM, изменение прав доступа к файлам
Set Up Configuration File
Execute Performance Tests Obsutil ${AZ-1}
# запуск тестов obsutil в выбранной availability zone,
# парсинг и выгрузка в Grafana
Delete ECS ${servername}
Wait for ECS job completion
Run Keyword and Ignore Error
Release EIP
${hostip}
...
```
Тесты, исполняемые на VM, подключаются через Resource и содержатся в keywords.robot. Они, так же как и основной тест-кейс, представляют из себя набор ключевых слов, в основе которого стоят команды типа:
```
${output}= Execute Command ./obsutil cp obs://${bucket_name}/upload ~/download
```
запускающие утилиту obsutil/s3tester непосредственно на VM через SSHLibarary robot framework’а.
После этого результаты парсятся и выгружаются в InfluxDB следующей командой:
```
${output}= Execute Command curl -XPOST -u "${login}:${password}" '${influx_url}?db=${database}' --data-binary 'storage,env=${env},az=${region}-${AZ},request_type=${upload_type},size=${size} download=${download},upload=${upload}
```
В итоге данные отображаются в Grafana:
### Python
Хорошо, с роботом разобрались, но как реализована кастомная библиотека и модули?
Часть, связанная с python, включает в себя две основных библиотеки – OTCLibrary (конечной библиотекой, с которой работают QA) и otcmodules, подключаемой к OTCLibrary. Otcmodules представляют собой набор классов с низкоуровневой логикой отправки запросов для сервисов OTC.
#### Otcmodules
Otcmodules были отделены от основной библиотеки, чтобы не загружать ее. Для основных сервисов прописаны классы с инициализацией сессии отдельного класса и соответствующие методы, каждый из которых представляет задокументированный API запрос. В методах происходит проверка передаваемых параметров запроса, логические действия и создание недостающих параметров перед отправкой самого запроса. Каждый метод класса заканчивается отправкой REST API и проверкой статус кода:
```
def getdisks(self, name=None, status=None):
'''get details for EVS disks'''
params = {}
if name:
params['name'] = name
if status:
params['status'] = status
response = self._session.get(self._url + '/cloudvolumes/detail', params=params)
status_code_should_be(response, 200)
return response.json()
```
Для инициализации самого класса требуется передать объект авторизованной сессии, service endpoint и project id:
```
class EVS(OtcTags):
'''EVS API'''
def __init__(self, session, baseurl, projectid):
'''save session and endpoint URL'''
self._session = session
self._session.headers.update({'Content-Type': 'application/json', 'X-Language': 'en-us'})
self._url = baseurl+'/v2/'+projectid
self._tagsurl = baseurl+'/v3/'+projectid
...
def getavailabilityzones(self):
'''Get List of Availability Zones'''
response = self._session.get(self._url + '/os-availability-zone')
status_code_should_be(response, 200)
return response.json()
```
Для проверки работы классов и методов otcmodules созданы юнит-тесты. Не вдаваясь в подробности того, как происходит авторизация, привожу конечную реализацию:
```
import unittest
import os
import sys
import requests
import random
from requests.packages.urllib3.exceptions import InsecureRequestWarning
requests.packages.urllib3.disable_warnings(InsecureRequestWarning)
path = os.path.dirname(os.path.dirname(__file__))
sys.path.append(path)
from otcmodules.utils.defaults.common import Common
from otcmodules.services.evs import EVS
SERVICENAME_EVS = 'volume'
class EVSTests(unittest.TestCase):
'''EVS testcases'''
def setUp(self):
'''prepare EVS objects'''
self.evs = Common._create_service_instance(EVS, SERVICENAME_EVS)
def tearDown(self):
'''remove EVS disk'''
self.evsdisk.delete_no_wait()
def testEVSObject(self):
'''run basic tests on EVS object'''
self.assertIsNotNone(self.evs._url)
self.assertIsNotNone(self.evs._urlv1)
def testDiskLifeCycle(self):
'''test the disk life cycle (create, get, expand, delete)'''
rid = format(random.randint(1, 2 ** 16), '04x')
diskname = 'testdisk-' + rid
# Create
self.evs.createdisk(diskname, 'eu-de-01', '10')
r = self.evs.waitforjob()
self.assertTrue(r)
job = self.evs.getjob()
self.assertIn('volume_id', job['entities'])
diskid = job['entities']['volume_id']
# Get (by id)
disk = self.evs.getdiskbyid(diskid)
self.assertIsNotNone(disk)
self.assertIn(disk['id'], diskid)
self.assertEqual(disk['name'], diskname)
# Expand
self.evs.expanddisk(disk['id'], 20)
r = self.evs.waitforjob()
self.assertTrue(r)
# Delete
self.evs.deletedisk(disk['id'])
r = self.evs.waitforjob()
self.assertTrue(r)
if __name__ == '__main__':
unittest.main()
```
#### OTC Library
OTC Library содержит в себе законченные модули с набором ключевых слов сервисов, данные модули уже готовы к инициализации и запуску в роботе QA-инженерами.
*Структура OTCLibrary:*
```
robot-otc/
OTCLibrary/
core/
__init__.py
cloudconnection.py
OtcKeywords.py
OtcRequestsLibrary.py
__init__.py
bms_robot.py
cbr_robot_ext.py
css_robot.py
cts_robot.py
dcaas_robot.py
evs_robot.py
...
setup.py
```
#### Авторизация
Основная сессия создается с помощью OpenStackConfig Openstack SDK (openstack.config.loader) и метода get\_one(). По факту информация считывается из переменных окружения или файла clouds.yaml:
```
from openstack.config.loader import OpenStackConfig
...
def applyConfig(func):
config = OpenStackConfig()
s_data = config.get_one(cloud=cloud)
authdata = s_data.get_auth_args()
for key, value in authdata.items():
if value:
kwargs.setdefault(key, value)
kwargs.setdefault('domain_name', authdata.get('user_domain_name'))
kwargs.setdefault('region_name', config.region_name)
...
```
cloud – конфигурация в файле clouds.yaml. Если cloud указан, то OpenStackConfig будет загружать сессию указанной конфигурации. В случае, если cloud не указан или clouds.yaml не найден, будут подгружены переменные окружения.
Далее данные авторизации передаются через декоратор @applyconfig в init\_cloud\_session(), используемый при инициации библиотеки. Создается объект с авторизованной сессией:
```
class OtcKeywords(OtcRequestsLibrary):
def __init__(self,
initsession=True,
debug=0,
scope='project',
**kwargs):
super(OtcKeywords, self).__init__()
self.ROBOT_LIBRARY_LISTENER = self
self.lasthttperror=None
self.sessions={}
self.auth_url=None
self.project_name=None
self.https_insecure=None
if initsession:
self.init_cloud_session(
debug=debug,
scope=scope,
**kwargs)
@applyConfig
def init_cloud_session(self,
alias='default',
scope='project',
debug=0,
username=None,
password=None,
domain_name=None,
region_name=None,
auth_url=None,
project_name=None,
https_insecure=None,
proxies=None,
**kwargs):
"""Create a ready-to-use, configured and authenticated session"""
if username is None:
raise TypeError('No username was set!)
if password is None:
raise TypeError('No password was set!)
s = self.create_session(alias=alias,proxies=proxies,
verify=not https_insecure,
debug=debug)
project_name = project_name or region_name
iamsession = iam(s, auth_url)
authdata = {
'username': username,
'password': password,
'domain_name': domain_name,
'region_name': region_name,
'project_name': project_name,
'scope': scope
}
self.auth_url = auth_url
self.project_name = project_name
self.https_insecure = https_insecure
iamsession.authenticate(**authdata)
dnsdomain = ".".join(urlparse(auth_url).netloc.split(".")[1:])
self.dnsdomain = dnsdomain
self.sessions[alias]={'iam': iamsession, 'dnsdomain': dnsdomain}
```
При этом объект сессии будет храниться в OtcKeywords.sessions.
OtcRequestsLibrary, от которого наследует OtcKeywords – это класс, который в свою очередь наследован от стандартной библиотеки RequestsLibrary с небольшими изменениями под наш облачный сервис. Благодаря этому и методу use\_service в OtcKeywords (который просто переключает url сессии на endpoint сервиса, переданный методу) при подключении OtcLibrary endpoint можно явно не указывать.
Помимо этого, класс OtcKeywords содержит методы для работы с сессией, получения service endpoint и project id – для дальнейшего подключения модулей сервисов из otcmodules.
OTCLibrary написана достаточно гибко и позволяет помимо подключения otcmodules использовать модули, написанные на Openstack SDK, например [otcextensions](https://github.com/opentelekomcloud/python-otcextensions) (расширение Openstack SDK, включающие сервисы, предоставляемые OTC). Чтобы не запутаться в созданных сессиях и подключенных модулях, проверки инициализованных сессий и действия с сессией вынесены в файл cloudconnection.py с классом cloudconnection:
```
class cloudconnection(object):
'''Provides the basic information for cloud requests'''
__instance = None
def __new__(cls):
if cloudconnection.__instance is None:
cloudconnection.__instance = object.__new__(cls)
return cloudconnection.__instance
def __init__(self):
try:
self.otclib = BuiltIn().get_library_instance(OTCROBOTLIB)
except RobotNotRunningError:
from OtcLibrary import OtcLibrary
self.otclib = OtcLibrary()
def getSession(self):
'''get the session object for requests'''
try:
return self.otclib.getSession()
except:
self.otclib.init_cloud_session()
return self.otclib.getSession()
def getEndpointURL(self, service):
'''get the endpoint URL for a cloud service'''
return self.otclib.get_endpoint_url(service)
def getProjectId(self):
'''get the project id from the cloud connection'''
return self.otclib.get_projectid()
...
def getOpenstackConnection(self):
'''Get Openstack Connection object'''
return self.otclib._openstack_connection()
def getOtcextensionsConnection(self, **kwargs):
'''Get Openstack Connection object'''
return self.otclib._otcextensions_connection(**kwargs)
```
В итоге сами модули робота сервисов инициализируются через cloudconnection() и выглядят следующим образом:
*Модули OTCLibrary основанные на otcmodules*
*evs\_robot.py*
```
from otcmodules.services.evs import EVS
from OtcLibrary.core.cloudconnection import cloudconnection
...
class evs_robot():
''' robot library to access the OTC elastic volume service'''
ROBOT_LIBRARY_SCOPE = 'TEST SUITE'
SERVICENAME = 'evs'
default_availability_zone = property(lambda self: 'eu-de-01', None)
def __init__(self):
'''setup session, base URL, and project Id for EVS'''
self.evs = EVS(cloudconnection().getSession(), cloudconnection().getBaseEndpointURL(evs_robot.SERVICENAME),
cloudconnection().getProjectId())
def create_evs_disk(self, name, availability_zone=None, size=None, backupid=None,
volume_type=None, description=None, imageRef=None,
count=1, encryption=False, cmkid=None, snapshotid=None, multiattach=False, hwpassthrough=None):
'''create an EVS disk'''
if volume_type is None:
volume_type = self._get_default_volume_type()
if backupid is None and size is None:
size = 10
# Forcing to Set AZ - Used for testing services on specific AZ
if 'SET_AZ' in os.environ:
availability_zone = os.environ['SET_AZ']
if availability_zone is None:
availability_zone = self._get_default_availability_zone(volume_type)
return self.evs.createdisk(name, availability_zone, size, backupid, volume_type, description, imageRef, count,
encryption, cmkid, snapshotid, multiattach, hwpassthrough)
def _get_default_availability_zone(self, volume_type):
...
def _get_default_volume_type(self):
...
```
*Модули OTCLibrary основанные на otcextensions*
*cbr\_robot\_ext.py*
```
from OtcLibrary.core.cloudconnection import cloudconnection
class cbr_robot_ext():
""" Robot Library to access the OTC Cloud Backup and recovery service """
def __init__(self, api_version='3'):
self.api_version = api_version
self.region = cloudconnection().getregion()
self.cbr = cloudconnection().getOtcextensionsConnection().cbr
def query_cbr_backups(self, **query):
...
```
В будущем планируется полный переход с otcmodules на otcextensions. В использовании otcextensions есть несколько плюсов:
* при использовании otcextensions можно полностью отказаться от otcmodules
* otcextensions – open-source проект. Для QA это означает большую вероятность выявления багов в процессе использования не только самими QA, но так же пользователями и коллегами из других команд. Текущий же проект является внутренним и используется только QA
* в основе otcextensions используется Openstack SDK, для построения запросов используются базовые методы openstack типо \_find(), \_get(), \_delete() и проч. Разрабатывая модули по новой документации с использованием базовых методов openstack, QA легче находить ошибки документации, ошибки в логике API и тем самым делать облачный сервис совместимым с openstack
### Итоги
Текущая инфраструктура позволяет максимально быстро вовлечь нового QA инженера в работу. В начале «трудовой деятельности» каждого QA-инженера создается VM с предустановленными библиотеками Otcmodules и OTC Library. Деплой и настройка происходит с помощью ansible playbook, в основе которого используется коллекция [openstack.cloud](https://docs.ansible.com/ansible/latest/collections/openstack/cloud/index.html). Далее настраивается синхронизация тестов с VM, в нашем случае на Pycharm. Осталось заполнить переменные окружения – и все готово! Можно приступать к написанию и запуску тестов.
Таким образом robot framework подходит для большого проекта, в котором нужно быстро ввести в работу QA инженера - независимо от его предыдущего опыта в автоматизации.
---
### Ссылки
* Open Telekom Cloud front page: <https://open-telekom-cloud.com/en>
* Open Telekom cloud video: <https://www.youtube.com/watch?v=ZXwMPsafSew>
* Open Telekom Cloud documentation: <https://docs.otc.t-systems.com/>
* Robot framework main page: <https://robotframework.org/>
* OTC Extensions repository: <https://github.com/opentelekomcloud/python-otcextensions>
* Openstack SDK documentation: <https://docs.openstack.org/openstacksdk/latest/>
* Openstack ansible collection: <https://docs.ansible.com/ansible/latest/collections/openstack/cloud/index.html> | https://habr.com/ru/post/650631/ | null | ru | null |
# Как использовать PivotViewer для Silverlight в реальном проекте (часть I)
На Хабре уже несколько раз писали об элементе управления [PivotViewer](http://www.silverlight.net/learn/pivotviewer/), предназначенном для визуализации и фильтрации больших объемов данных. Я хочу поделиться опытом использования этого крайне интересного элемента в реальном проекте.
Если вы просто хотите узнать, что это такое и может ли это как-то пригодится в хозяйстве — прочтите хороший [Обзор элемента PivotViewer для Silverlight](http://habrahabr.ru/blogs/silverlight/98215/) от [xaoccps](https://geektimes.ru/users/xaoccps/), этого описания и примеров будет вполне достаточно. Но если вы подумываете об интеграции PivotViewer в какой-то из ваших проектов — эта история поможет вам сэкономить немного времени.
К слову сказать, к написанию этого топика меня подтолкнул комментарий к одному из обзоров:
> *Что я не люблю в подобных «how to» ( во всяком случае для WPF и SL, возможно и для других фреймворков ситуация такая же) — то что они похожи на путешествия по нескольким хорошо освещенным асфальтированным дорожкам в глухом лесу. Пока ты не сворачиваешь никуда — все классно, здорово и просто элементарно. Но стоит тебе свернуть хотя бы на шаг — и ты получаешь от дремучего леса по полной.*
Скажу сразу, в этом случае с дремучим лесом мы не столкнемся, но поплутать немного придется.
Перед тем как отправиться в путь, пара полуфилософских мыслей об этом элементе (если вас интересует только реализация — смело их пропускайте).
Признаться честно, когда я услышал о Pivot и полез смотреть «крышесносящий» пример с Wiki, первыми мыслями были «круто» и «ну и нафига?». Намного проще набрать в Google «Wiki Silverlight» и получить нужную ссылку в первой строке, чем загружать cxml файл с описанием кучи статей, выбирать в фильтре «Web development software» и 2009 год, и, полюбовавшись на красивую графику, таки получить карточку с желаемой ссылкой (это только первое впечатление, я верю, что есть сценарии, когда такой подход может и будет полезен). Это здорово напомнило мне новую версию сайта одного из кинотеатров, сделанную на модном тогда флеше. Любой клик сопровождался красочной анимацией, взрывами и музыкой, а когда посетителю надоедало рассматривать спецэффекты, он принимался искать незаметную ссылку «старая версия сайта для плохого интернета» :)
Мое отношение к Pivot изменилось, когда я попробовал подобрать комплектовку к новому компьютеру. К слову сказать, последний раз железом я интересовался года три назад, когда выбирал старый компьютер. Так что теперь мне предстоял выбор из сотен вариантов различных компонент с разными технологиями и от разных производителей (собрать его сам я решил именно «для души», чтобы вспомнить студенческие годы, лично подобрать каждую «железку» да и вписаться в бюджет).
Выбор мне здорово облегчили пара сайтов, которые позволяли выбрать нужную категорию товаров, фильтровать ее по разным параметром и быстро сравнивать: «а что из этого есть у GigaByte?», «а может то же, но с вентилятором 140мм?» или «добавится ли к списку что-то хорошее, если я увеличу цену на $20?».
Это действительно было очень удобно, и тут я подумал, что это же и есть реализация PivotViewer. Ведь он предназначен именно для того, чтобы можно было поиграться с разными фильтрами на очень большой (и даже громадной :) массе объектов. У него есть область с фильтрами, область для списка и «property page» с описанием выбранного элемента. Причем всю эту функциональность мы получаем в одном простом (с точки зрения использования) элементе управления, которому просто нужно «скормить» список объектов в xml формате. Причем многочисленные интернет-супермаркеты всяческих товаров — это только один из примеров. Точно так же можно отображать рецепты блюд (фильтруем по ингредиентам, типу блюд, национальной принадлежности кухни, рейтингу, да мало ли), путевки турфирм (страны, курорты, отели, тип питания, стоимость...), объекты недвижимости (расположение, метраж, кол-во комнат, и т.д.). И этот список легко можно продолжить.

Те, кто пробовал подобрать себе путевку «куда-нибудь» или решить, где и за сколько ему стоит снимать квартиру (а вдруг в том районе двушку можно снять всего на $100 дороже?) поймут, насколько удобным может оказаться такой подход. Правда для того, чтобы наше решение не превратилось в «бесполезный сайт со спецэффектами», нам нужно минимум три вещи:
* Действительно большое количество объектов. Если у вам магазинчик с парой десятков сортов чая, Pivot будет всего-лишь красивой игрушкой. Несколько сотен — уже лучше. Десятки и сотни тысяч? Вот тут он покажет себя во всей красе (если ему хватит ширины вашего канала; а что вы хотели, нет в мире совершенства :)
* Подробные характеристики для большинства объектов. Если при выборе любого параметра вся наша коллекция будет делиться на группы «отобрано» (10%) и "(no info)" (90%), Pivot опять таки превратиться в красивую игрушку.
* Изображения ко всем объектам, чем большего разрешения — тем лучше. Вот тут проявляется вся мощь технологии Silverlight Deep Zoom, которая позволяет показывать оч-чень большие и качественные изображения, минимально загружая трафик. К слову сказать, изображения играют очень важную роль при выборе в инете. Если покупатель увидит список, в котором у трети элементов не будет фотографий, он скорее просто проигнорирует их не смотря на привлекательные характеристики. Причем это будет работать, даже если внешний вид вроде бы как и не нужен, например при выборе материнской платы или бумаги для принтера.
Уф, оглядываюсь назад и понимаю, что философствовать можно бесконечно. Пора к делу.
Перед прогулкой по «глухому лесу» давайте проверим наш рюкзак. В нем должны быть:
* Visual Studio 2010 (пойдет и Express)
* [Silverlight 4 Tools for Visual Studio 2010](http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=40ef0f31-cb95-426d-9ce0-00dcfabf3df5)
* [Silverlight 4 Toolkit (released April 2010)](http://silverlight.codeplex.com/releases/view/43528)
* Собственно сам [Microsoft Silverlight PivotViewer](http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=9a1bb862-d80c-4145-9320-b279a63bff91)
Мы начнем с прототипа. Любители сначала программировать, а потом думать (это не ирония, иногда лучше «напрограммировать» рабочий прототип, а потом уже думать, как его лучше реализовать на основании полученного опыта; тут главное — не заниматься деталями и не доводить прототип до совершенства, вот это — точно потерянное время) могут смело пропустить этап с прототипом и сразу перейти к программированию.
Чем нам поможет прототип? Во-первых, мы сможем лучше понять, какие параметры нам стоит выносить в фильтр и описание (данные нужно будет формировать программно, так что это избавит нас от переделок). Во-вторых (а скорее, во-первых!) мы сможем показать прототип заказчику, чтобы он проникся этой идеей, дал добро и внес свои жизненно важные указания. Кроме этого, когда вы видите рабочую модель этой игрушки именно с вашими картинками — это заряжает вас дополнительной энергией и придает желание «побыстрее сделать такую прикольную штуку!».
Самый простой способ повозится с прототипом — использовать [Pivot Collection Tool for Microsoft Excel](http://www.getpivot.com/developer-info/download-excel-tools.aspx). Это плагин для Excel, который позволит быстро набросать пример из нескольких элементов, добавить нужные параметры и сформировать xml с данными и, главное, папку с изображениями, преобразованными в Deep Zoom формат. Как это сделать хорошо описано еще в одном посте с Хабра — [Быстрые шаги по отображению данных в PivotViewer и Silverlight](http://habrahabr.ru/blogs/silverlight/99174/).
Программировать мы еще не начинали, а результат посмотреть как-то хочется. Для этого проще всего [скачать](http://www.getpivot.com/) старшего брата Pivot Viewer — Pivot, который представляет собой desktop WPF версию браузера данных.
Скачиваем, открываем нашу коллекцию, играемся, меняем атрибуты и настройки (если нам не нужно добавлять новые элементы, то теперь уже проще редактировать xml вручную), радуемся результату и приступаем к работе.
Будем считать, что у вас уже есть ASP.NET проект, к которому вы хотите добавить Pivot Viewer. Нам предстоит выполнить 5 основных шагов:
1. Добавить Pivot Viewer к проекту
2. Локализовать (конечно, если ваш сайт для Рунета)
3. Настроить IIS
4. Научиться программно формировать xml с данными и изображения в Deep Zoom формате
5. Допилить элемент напильником (необязательно, но полезно :)
### Итак, шаг 1-й, добавляем Pivot к проекту
1. Добавляем к вашему solution новый проект типа «Silverlight Application». Он должен найти в solution веб-приложение и предложить «захостить» новый проект именно в нем

2. Visual Studio создаст в вашем веб-проекте каталог «ClientBin» и разместит там .xap файл — скомпилированный и «зазипованный» Silverlight проект. Если вы захотите поменять имя каталога на что-то более наглядное, не забудьте изменить привязку Silverlight проекта на закладке «Silverlight Applications» в диалоге «Property Pages» веб-проекта.
3. К вашему проекту должны добавиться две страницы (.aspx и .html) с размещенным на них PivotViewer. По функциональности они идентичны, так что .html вариант мы удаляем, а .aspx используем как основу: выносим скрипты во внешний файл, добавляем окружающий контент и т.д. В настройках тега указываем корректный путь к .xap файлу.
4. Копируем наш прототип (.cxml файл с данными и каталог с Deep Zoom изображениями) в веб-проект, например к .xap файлу. Загружаем ее в Pivot, используя метод LoadCollection в конструкторе страницы из Silverlight проекта (по умолчанию это MainPage.xaml)
> `public MainPage()
>
> {
>
> InitializeComponent();
>
> ...
>
> MainPivotViewer.LoadCollection(collectionUri, String.Empty);
>
> }
>
> \* This source code was highlighted with Source Code Highlighter.`
где collectionUri — абсолютный url к .cxml файлу с данными.
Если вдруг что-то будет не так — загляните в пример, который находится в папке с Pivot (у меня это «C:\Program Files (x86)\Microsoft SDKs\Silverlight\v4.0\PivotViewer\Jun10\Source»). Это простой сайт с одной страницей, так что он не содержит почти ничего лишнего. Там есть пара необязательных, но полезных моментов, но об этом — позже.
### Шаг 2-й, локализация
Тут все просто. Нам нужно создать в Silverlight проекте файл со строковыми ресурсами и добавить туда нужные строки с предопределенными ID. Полный список всех возможных строк можно посмотреть в свойствах объекта [Resources](http://getpivot.com/developer-info/api/). Значения по умолчанию подскажут вам назначение этой строки. Обратите внимание, большая часть строк используется для формирования описания фильтров типа «с… до ...» или «больше или равно ...». Если не сильно играться с фильтрами, вы можете их не встретить, но это не значит, что они не нужны.
Теперь отдаем нашу версию перевода элементу управления:
> `public MainPage()
>
> {
>
> InitializeComponent();
>
> ...
>
> System.Windows.Pivot.PivotViewer.SetResourceManager(LocalizationStrings.ResourceManager);
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Наверное, пришло время показать, как все это выглядит в жизни. Конечно, лучше было бы прикрутить Pivot Viewer к какому-нибудь супермаркету электроники, но… «используй то, что под рукою и не ищи себе другое», помните старый добрый мультик про Филеаса Фога и его путешествие? Так что я разбирался с этим элементом на своей в буквальном смысле любимой игрушке — сайту с казуальными играми. Я еще буду ссылаться на этот пример в дальнейших объяснениях, а мой вариант перевода вы сможете посмотреть на [этой](http://play2game.ru/мини-игры/выбор) странице.
### Шаг 3-й, настройка IIS
Самый простой шаг. Все что нам нужно — это научить IIS узнавать новые для него типы расширений. Для IIS 7.0 и выше достаточно добавить в web.config строки:
> `<configuration>
>
> <system.webServer>
>
> <staticContent>
>
> <mimeMap fileExtension=".cxml" mimeType="text/xml" />
>
> <mimeMap fileExtension=".dzc" mimeType="text/xml" />
>
> <mimeMap fileExtension=".dzi" mimeType="text/xml" />
>
> staticContent>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
В более младших версиях вам придется прописать это вручную, в панели настройки IIS.
Уф, вижу, что текста получается достаточно много и кто-то может не дочитать до самого интересного — полезных моментов и проблем, с которыми вы можете столкнуться. Так что я попробую разбить эту статью на две части, постараюсь выложить вторую уже завтра.
Оставайтесь с нами, [окончание следует](http://-felix-.habrahabr.ru/blog/102949/)… :) | https://habr.com/ru/post/102912/ | null | ru | null |
# 3 истории сбоев Kubernetes в production: anti-affinity, graceful shutdown, webhook

***Прим. перев.**: Представляем вниманию мини-подборку из постмортемов о фатальных проблемах, с которыми столкнулись инженеры разных компаний при эксплуатации инфраструктуры на базе Kubernetes. Каждая заметка рассказывает о самой проблеме, её причинах и последствиях, а также, конечно, о решении, помогающем избегать подобных ситуаций в будущем.
Как известно, учиться на чужом опыте дешевле, а посему — пусть эти истории помогут быть готовыми к возможным неожиданностям. Кстати, большая и регулярно обновляемая подборка ссылок на такие «failure stories» публикуется на [этом сайте](https://k8s.af/) (по данным из [этого Git-репозитория](https://github.com/hjacobs/kubernetes-failure-stories)).*
№1. Как kernel panic привел к падению сайта
-------------------------------------------
*Оригинал: [Moonlight](https://updates.moonlightwork.com/outage-post-mortem-87370).*
В период с 18 по 22 января сайт и API Moonlight испытывали периодические сбои в работе. Все началось со случайных ошибок API и закончилось полным отключением. Проблемы были решены, и приложение вернулось в нормальное состояние.
### Общие сведения
Moonlight использует программное обеспечение, известное как Kubernetes. Kubernetes запускает приложения на группах серверов. Эти серверы называются узлами. Копии приложения, работающие на узле, зовутся pod'ами. В Kubernetes есть планировщик (scheduler), который динамически определяет, какие pod'ы на каких узлах должны работать.
### Хронология
Первые ошибки в пятницу были связаны с проблемами с подключением к базе данных Redis. API Moonlight использует Redis для проверки сессий при каждом аутентифицированном запросе. Наш инструмент для мониторинга Kubernetes оповестил, что некоторые узлы и pod'ы не отвечают. В то же время Google Cloud сообщил о [сбоях в работе сетевых служб](https://status.cloud.google.com/incident/cloud-networking/19002), и мы решили, что именно они являются причиной наших проблем.
По мере сокращения трафика на выходных ошибки, казалось, разрешились в своей основной массе. Однако утром во вторник сайт Moonlight'а упал, а внешний трафик совсем не доходил до кластера. Мы обнаружили [другого человека в Twitter](https://twitter.com/johanhaleby/status/1087792436884262922) со сходными симптомами и решили, что на хостинге Google произошел сбой в работе сети. Мы связались с поддержкой Google Cloud, которая оперативно передала проблему в команду технической поддержки.
Команда техподдержки Google выявила некую закономерность в поведении узлов в нашем кластере Kubernetes. Загрузка CPU отдельных узлов достигала 100%, после чего в виртуальной машине происходил kernel panic и она падала.
### Причины
Цикл, вызвавший сбой, оказался следующим:
* Планировщик Kubernetes размещал несколько pod'ов с высоким потреблением ресурсов CPU на одном и том же узле.
* Pod'ы съедали все ресурсы CPU на узле.
* Далее возникал kernel panic, что приводило к периоду простоя, в течение которого узел не отвечал планировщику.
* Планировщик перемещал все упавшие pod'ы на новый узел, и процесс повторялся, усугубляя общую ситуацию.
Первоначально ошибка возникла в pod'е Redis, но в конечном итоге все pod'ы, работающие с трафиком, упали, что привело к полному отключению. Правила экспоненциальной задержки при повторном планировании приводили ко все более длительным периодам простоя.
### Решение
Мы смогли восстановить работу сайта, добавив [правила anti-affinity](https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#affinity-and-anti-affinity) во все основные Deployment'ы. Они автоматически распределяют pod'ы по узлам, повышая отказоустойчивость и производительность.
Сам Kubernetes спроектирован как отказоустойчивая хост-система. Moonlight использует три узла на разных серверах для обеспечения устойчивости, и мы запускаем три копии каждого приложения, обслуживающего трафик. Идея состоит в том, чтобы иметь по одной копии на каждом узле. В этом случае даже отказ двух узлов не приведет к простою. Тем не менее, Kubernetes иногда размещал все три pod'а с сайтом на одном узле, создавая таким образом узкое место в системе. При этом другие приложения, требовательные к мощности процессора (а именно — рендеринг на стороне сервера), оказывались на этом же узле, а не на отдельном.
Правильно настроенный и должным образом функционирующий кластер Kubernetes обязан справляться с продолжительными периодами высокой нагрузки на CPU и размещать pod'ы таким образом, чтобы максимально эффективно использовать доступные ресурсы. Мы продолжаем работать с поддержкой Google Cloud для выявления и устранения основной причины появления kernel panic на серверах.
### Заключение
Правила anti-affinity позволяют сделать приложения, работающие со внешним трафиком, более отказоустойчивыми. Если у вас есть подобный сервис в Kubernetes, задумайтесь над тем, чтобы их добавить.
Мы продолжаем работать с ребятами из Google над поиском и устранением причины сбоев в ядре ОС на узлах.
№2. «Грязный» секрет endpoint'а Kubernetes и Ingress
----------------------------------------------------
*Оригинал: [Phil Pearl из Ravelin](https://philpearl.github.io/post/k8s_ingress/).*
### Изящность переоценена
Мы в компании Ravelin мигрировали на Kubernetes (на GKE). Процесс оказался очень успешным. Наши pod disruption budgets полны как никогда, statefulset'ы по-настоящему статны *(с трудом переводимая игра слов: «our statefulsets are very stately» — прим. перев.)*, а скользящая замена узлов проходит как по маслу.
Последний кусочек головоломки — перенос слоя API со старых виртуальных машин в кластер Kubernetes. Для этого нам необходимо настроить Ingress, чтобы API был доступен из внешнего мира.
Поначалу задача казалась простой. Мы просто определим Ingress-контроллер, подправим Terraform, чтобы получить некоторое количество IP-адресов, а Google позаботится практически обо всем остальном. И все это заработает как по волшебству. Класс!
Однако со временем стали замечать, что интеграционные тесты периодически получают ошибки 502. С этого и началось наше путешествие. Впрочем, я сэкономлю вам время и перейду сразу к выводам.
### Graceful shutdown
Все говорят о graceful shutdown («изящном», постепенном отключении). Но на самом деле не стоит полагаться на него в Kubernetes. Или, по крайней мере, это должен быть не тот graceful shutdown, который вы [впитали с молоком матери](https://golang.org/pkg/net/http/#Server.Shutdown). В мире Kubernetes подобный уровень «изящности» не нужен и грозит серьезными проблемами.
### Идеальный мир
Вот как в представлении большинства проходит удаление pod'а из сервиса или балансировщика нагрузки в Kubernetes:
1. Контроллер репликации решает удалить pod.
2. Endpoint pod'а удаляется из сервиса или балансировщика нагрузки. Новый трафик в pod больше не поступает.
3. Вызывается хук pre-stop, или pod получает сигнал SIGTERM.
4. Pod «изящно» отключается. Он перестает принимать входящие подключения.
5. «Изящное» отключение завершено, и pod уничтожается после того, как все его существующие подключения останавливаются или завершаются.
К сожалению, в действительности все обстоит совсем иначе.
### Реальный мир
Большая часть документации намекает, что все происходит несколько иначе, однако об этом нигде не пишут явно. Главная проблема состоит в том, что шаг 3 не следует за шагом 2. Они происходят одновременно. В обычных сервисах удаление endpoint'ов происходит настолько быстро, что вероятность столкнуться с проблемами крайне низка. Однако с Ingress'ами все иначе: обычно они реагируют гораздо медленнее, поэтому проблема становится очевидной. Pod может получить SIGTERM задолго до того, как изменения в endpoint'ах попадут в Ingress.
В итоге, graceful shutdown — вовсе не то, что требуется от pod'а. Он будет получать новые подключения и должен продолжать обрабатывать их, иначе клиенты начнут получать 500-е ошибки и вся чудесная история о беспростойных развертываниях и масштабировании начнет разваливаться.
Вот что происходит на самом деле:
1. Контроллер репликации решает удалить pod.
2. Endpoint pod'а удаляется из сервиса или балансировщика нагрузки. В случае Ingress'ов это может занимать некоторое время, и новый трафик будет продолжать поступать в pod.
3. Вызывается хук pre-stop, или pod получает сигнал SIGTERM.
4. В значительной степени pod должен игнорировать это, продолжать работать и обслуживать новые подключения. Если это возможно, он должен намекнуть клиентам, что было бы неплохо переключиться в другое место. Например, в случае HTTP он может посылать `Connection: close` в заголовках ответов.
5. Pod завершает работу только тогда, когда истекает период «изящного» ожидания и он убивается SIGKILL.
6. Убедитесь, что этот период дольше, чем время, которое требуется на перепрограммирование балансировщика нагрузки.
Если это сторонний код и вы не можете изменить его поведение, тогда лучшее, что можно сделать — добавить хук pre-stop, который просто будет спать (sleep) в течение «изящного» периода, так что pod будет продолжать работать так, словно ничего не произошло.
№3. Как простой вебхук стал причиной сбоя кластера
--------------------------------------------------
*Оригинал: [Jetstack](https://blog.jetstack.io/blog/gke-webhook-outage/).*
Jetstack предлагает своим клиентам multi-tenant-платформы на Kubernetes. Иногда возникают особые требования, которые мы не можем удовлетворить с помощью стандартной конфигурации Kubernetes. Чтобы их реализовать, с недавнего времени мы начали использовать [Open Policy Agent](https://www.openpolicyagent.org/) *(подробнее о проекте мы писали в [этом обзоре](https://habr.com/ru/company/flant/blog/353808/) — прим. перев.)* в качестве контроллера доступа для внедрения особых политик.
В этом материале описывается сбой, вызванный неправильной настройкой этой интеграции.
### Инцидент
Мы занимались обновлением мастера для dev-кластера, в котором различные команды тестировали свои приложения в течение рабочего дня. Это был региональный кластер в зоне europe-west1 на Google Kubernetes Engine (GKE).
Команды были предупреждены, что идет обновление, при этом простоя API не ожидалось. Ранее в тот день мы уже провели аналогичное обновление другой pre-production-среды.
К обновлению приступили с помощью своего GKE Terraform-пайплайна. Обновление мастера не завершилось до истечения таймаута Terraform'а, который мы установили на 20 минут. Это был первый тревожный звоночек о том, что что-то пошло не так, хотя в консоли GKE кластер по-прежнему значился как «upgrading» («обновляющийся»).
Повторный запуск пайплайна привел к следующей ошибке
```
google_container_cluster.cluster: Error waiting for updating GKE master version:
All cluster resources were brought up, but the cluster API is reporting that:
component "kube-apiserver" from endpoint "gke-..." is unhealthy
```
На этот раз связь с API-сервером стала периодически прерываться и команды не смогли деплоить свои приложения.
Пока мы пытались понять, что происходит, все узлы начали уничтожаться и воссоздаваться в бесконечном цикле. Это привело к неизбирательному отказу в обслуживании для всех наших клиентов.
### Устанавливаем первопричину сбоя
С помощью поддержки Google мы смогли определить последовательность событий, которые привели к сбою:
1. GKE завершил обновление на одном экземпляре мастера и начал принимать на него весь трафик на API-сервер по мере обновления следующих мастеров.
2. Во время обновления второго экземпляра мастера API-сервер не смог выполнить [PostStartHook](https://github.com/kubernetes/kubernetes/blob/e09f5c40b55c91f681a46ee17f9bc447eeacee57/pkg/master/client_ca_hook.go#L43) для [регистрации CA](https://github.com/kubernetes/kubernetes/blob/e09f5c40b55c91f681a46ee17f9bc447eeacee57/pkg/master/client_ca_hook.go#L121).
3. В процессе выполнения этого хука API-сервер попытался обновить ConfigMap с названием `extension-apiserver-authentication` в `kube-system`. Сделать это не удалось, поскольку бэкенд для настроенного нами проверяющего вебхука Open Policy Agent (OPA) не отвечал.
4. Чтобы мастер прошел health check (проверку работоспособности), эта операция должна завершиться успешно. Поскольку этого не произошло, второй мастер вошел в аварийный цикл и остановил обновление.
Итогом стали периодические сбои API, из-за которых kubelet'ы не смогли сообщить о работоспособности узла. В свою очередь, это привело к тому, что механизм автоматического восстановления узлов GKE *(node auto-repair)* начал перезапускать узлы. Эта особенность подробно описана в [документации](https://cloud.google.com/kubernetes-engine/docs/how-to/node-auto-repair):
> *Статус unhealthy может означать: В течение заданного времени (приблизительно 10 минут) узел вообще не выдает какой-либо статус.*
### Решение
Когда мы выяснили, что ресурс `ValidatingAdmissionWebhook` является причиной проблемы с прерывистым доступом к серверу API — удалили его и восстановили работу кластера.
С тех пор настроили `ValidatingAdmissionWebhook` для OPA на мониторинг только тех пространств имен, где применима политика и к которым имеют доступ команды разработчиков. Мы также ограничили вебхук ресурсами `Ingress` и `Service` — единственными, с которыми работает наша политика.
С тех пор, как мы впервые развернули OPA, документация [была обновлена](https://github.com/open-policy-agent/opa/pull/1435), чтобы отразить это изменение.
Мы также добавили liveness-тест, чтобы гарантировать перезапуск OPA в случае, если он становится недоступным (и внесли [соответствующие поправки](https://github.com/open-policy-agent/opa/pull/1605) в документацию).
Мы также рассматривали отключение [механизма](https://cloud.google.com/kubernetes-engine/docs/how-to/node-auto-repair) автоматического восстановления узлов GKE, но все же решили отказаться от этой идеи.
### Итоги
Если бы мы подключили оповещения о времени отклика сервера API, то изначально смогли бы заметить его глобальное возрастание для всех запросов `CREATE` и `UPDATE` после развертывания вебхука для OPA.
Произошедшее подчеркивает важность настройки тестов для всех рабочих нагрузок. Оглядываясь назад, можно сказать, что развертывание OPA было настолько обманчиво простым, что мы даже не стали связываться с [Helm-чартом](https://github.com/helm/charts/tree/master/stable/opa) (хотя следовало бы). Чарт производит ряд корректировок за пределами базовых настроек, описанных в руководстве, включая настройку livenessProbe для контейнеров с admission-контроллером.
Мы не первыми столкнулись с этой проблемой: [upstream issue](https://github.com/kubernetes/kubernetes/issues/54522) остается открытым. Функциональность в этом вопросе явно можно улучшить (и мы будем за этим следить).
P.S. от переводчика
-------------------
Читайте также в нашем блоге:
* «[Как приоритеты pod'ов в Kubernetes стали причиной простоя в Grafana Labs](https://habr.com/ru/company/flant/blog/461807/)»;
* «[Из жизни с Kubernetes: Как HTTP-сервер испанцев не жаловал](https://habr.com/ru/company/flant/blog/448420/)»;
* «[6 занимательных системных багов при эксплуатации Kubernetes [и их решение]](https://habr.com/ru/company/flant/blog/443458/)»;
* «[6 практических историй из наших SRE-будней](https://habr.com/ru/company/flant/blog/471892/)». | https://habr.com/ru/post/475026/ | null | ru | null |
# Добавляем Sign in with Apple на back-end
На WWDC 2019 Apple представила новую систему авторизации пользователей — Sign in with Apple. Возникла задача интегрировать её в наш back-end и синхронизировать её с уже существующими методами авторизации при помощи email, Google и Facebook. За задачу взялся наш коллега [kurenkoff](https://habr.com/ru/users/kurenkoff/), он и является автором данной статьи. Заинтересовавшихся просим под кат.
Процедура регистрации и авторизации пользователя через Apple
------------------------------------------------------------

Процедура достаточно примитивная и происходит точно так, как указано на схеме от Apple.
Помимо этого, Apple предоставляет возможность обновления токена:

Схема тоже достаточно простая, есть возможность делать верификацию токена, но мы не используем эту возможность, т.к. у нас нет в этом необходимости.
Реализация авторизации через AppleID
------------------------------------
Для реализации авторизации через AppleID мы используем пакет [appleLogin](http://github.com/BillSJC/appleLogin). Автором данного пакета допущены некоторые ошибки, но они не являются критическими (а некоторые были совместно исправлены). В первую очередь необходимо инициализировать конфиг при помощи данных полученных через портал разработчика Apple.
```
config := appleLogin.InitAppleConfig(
TeamID, // ID с сайта developer.apple.com, попросить у iOS разработчиков
ClientID, // Bundle вашего iOS приложения
callbackURI, // ссылка для редиректа при успешной авторизации
KeyID, // Сгенерированный ключ с сайта developer.apple.com, попросить у iOS разработчиков
)
privateKey := os.Getenv("PRIVATE_KEY")
err := config.LoadP8CertByByte([]byte(privateKey))
if err != nil {
return nil, err
}
```
Затем получить токен:
```
token, err := config.GetAppleToken(clientToken, tokenExpireTime)
if err != nil {
return nil, err
}
```
Важно заметить, какой запрос отправляется на сервера Apple. В [документации](https://developer.apple.com/documentation/signinwithapplerestapi/generate_and_validate_tokens) сказано, что для авторизации необходимо отправить поля client\_id, client\_secret, code, grant\_type, redirect\_uri. Все эти поля описаны как обязательные, но redirect\_uri можно опустить. Основную сложность представляет client\_secret — это JWT, подписанный ключом сгенерированным на портале WWDR:
```
token := jwt.NewWithClaims(jwt.SigningMethodES256, jwt.MapClaims{
"iss": a.TeamID,
"iat": time.Now().Unix(),
"exp": time.Now().Unix() + expireTime,
"aud": "https://appleid.apple.com",
"sub": a.ClientID,
})
token.Header = map[string]interface{}{
"kid": a.KeyID,
"alg": "ES256",
}
tokenString, _ := token.SignedString(a.AESCert)
```
API Apple ответит либо ошибкой, либо вернет структуру. Нас интересуют поле IDToken:
```
type AppleAuthToken struct {
AccessToken string json:"access_token" //AccessToken
ExpiresIn int64 json:"expires_in" //Expires in
IDToken string json:"id_token" //ID token
RefreshToken string json:"refresh_token" //RF token
TokenType string json:"token_type" //Token Type
}
```
IDToken является JWT токеном содержащим данные пользователя:
```
type AppleUser struct {
ID string json:"sub,omitempty"
Email string json:"email,omitempty"
EmailVerified bool json:"email_verified,string,omitempty"
}
```
Стоит обратить внимание на то, что email можно получить только при первой авторизации. При попытках повторной авторизации можно получить только ID (уникальный идентификатор пользователя в Sign in with Apple). Для регистрации пользователя нам достаточно этих данных. | https://habr.com/ru/post/470175/ | null | ru | null |
# Как мы мультиплеер для NFS MW писали
Привет, Хабр! В своём первом посте я расскажу, как мы уже полгода как пишем неофициальный мультиплеер для NFS Most Wanted 2005 года выпуска. Сразу скажу — ссылок не будет, лишь скриншоты, дабы не сочли за банальную рекламу. Если будет интересно — спросите в комментариях. Поехали!

Началось все в конце 2016, то есть прошлого, года, а точнее в ноябре. Я общался с разработчиком трейнеров MWInside, который, если честно, не блистал особыми знаниями. Я рассказал, что хотел бы научиться управлять авто, отличными от игрока — соперниками, полицией и обычными машинами трафика. Он ничего на это не ответил, ибо тогда об этом никто не знал. Давайте пропустим до конца декабря, когда я познакомился с Jojez'ом, человеком, вдохновившим меня на все это, и командой ExOpts, которая мне помогла идеями. Итак, у меня на руках были адреса координат, скорости, наклона и поворота игрока. Путем некоторых исследований я вычислил, что они все — поля одной структуры, предположительно ISimable, размером в 176 байт, т.е. прибавление 176 к всем этим адресам давало те же значения у другого автомобиля. Это было открытием, которое, по сути, открыло десятки путей, однако сначала, до конца января, я писал не онлайн, а простенький трейнер на управление вертолетом полиции. Ещё раз пропустим до двадцать третьего января.
Сам, собственно, мультиплеер
============================
Итак, двадцать третье число, утро. Я предлагаю своему другу, YaNet'у, написать мультиплеер. Тот соглашается, берет код из своих старых проектов, и к двадцать четвертому у нас есть минимальные сервер и клиент на C#. Впоследствии его переписали на Си, но это уже другая история. Двадцать четвертого числа мы начали делать работу с игрой. К слову, мы использовали NFSScript — API для создания модов от DennisStanistan'а. Мы заставили клиент просить случайное число у сервера, а затем, после того, как оно приходило, выводили его на экран средствами игры. Это было только начало…
Синхронизация игроков — сущий ад
================================
Вскоре пришло время делать реальный мультиплеер. Работал он довольно просто: клиенты отправляли свои координаты, сервер их отправлял остальным, те на своей стороне присваивали их к машинам. Ничего интересного, а ещё оно было ужасно нестабильно и багано: машины были буквально под приступом, их трясло и подкидывало. В это же время один из администраторов сайта, имя которого я разглашать не буду, чтобы не рекламировать, ArturoPlayerOne, создал закреплённый топик, сообщающий, что проводится открытый тест. Люди, конечно, полезли в чат, но из-за действительно ломающих все багов нормально поиграть никто не смог, хоть и остались заинтересованными. Впоследствии все эти баги, конечно, исправили, но лишь полностью переписав клиент и сервер на Си. Синхронизацию тоже исправили, но это уже другая история…
А это кусок кода :)
```
mw_write_memory(MW_ADDR_AI_STR_RACE, "AIActionNone", 13); //Зачем нам боты в онлайне?
float hud_scale = 0.97265; //Мини-мод, изменяет размер HUD и стартовый экран на более похожие на версию для Xbox 360
mw_write_memory(MW_ADDR_HUD_WIDTH, &hud_scale, 4); //Это HUD...
mw_write_memory(MW_ADDR_HUD_HEIGHT, &hud_scale, 4);
uint8_t opcode = 0xC3; //...а тут экран. Это немного сложнее, чем HUD, но все же.
mw_write_memory((void*)0x604DA0, &opcode, 1);
uint8_t widescreen_splash_patch[] = {0x90, 0x90};
mw_write_memory((void*)0x5A3080, widescreen_splash_patch, 1);
void* ws_screen_pointer = 0x89F828;
mw_write_memory((void*)0x8F3C68, &ws_screen_pointer, 4);
mw_write_memory((void*)0x8F3C88, &ws_screen_pointer, 4);
mw_write_memory((void*)0x8F3CA4, &ws_screen_pointer, 4);
uint8_t force_7_ai_patch1[] = {0xB8, 0x06, 0x00, 0x00, 0x00}; //Название говорит само за себя: мы заставляем игру спавнить 7 оппонентов. Этот массив, а именно код в нем, собственно это делает...
mw_write_memory((void*)0x5DA122, force_7_ai_patch1, 5);
uint8_t force_7_ai_patch2[] = {0xB8, 0xC5, 0x88, 0x3B, 0x9F, 0x50, 0xE8, 0x22, 0x45, 0xFE, 0xFF, 0x83, 0xC4, 0x04, 0x5E, 0xC2, 0x04, 0x00}; //...а этот исправляет падение игры. Посложнее, не так ли? На самом деле все просто: мы заменили [eax] на хеш строки "character_smart" в одной из инструкций и сделали ещё парочку незначительных изменений. В EAX находился указатель на хеш соперника, которые вручную заданы в игровых файлах, что, собственно, и вызывало падение на четвёртом сопернике, ибо его просто нет, что оставляло в EAX нулевой указатель/мусор. Оба варианта, понятное дело, ничего хорошего не сулят.
mw_write_memory((void*)0x5FD353, force_7_ai_patch2, 18);
```
Довольно длинный код, если честно. Я писал комментарии минут пятнадцать. Ладно, пойдем дальше!
Какие проблемы мы испытали
==========================
Их было очень много, некоторые есть и сейчас, но сегодня мы поговорим о тройке самых важных, при том с конца. Поехали!
### Номер три: синхронизация
Почему аж на третьем месте, спросите вы? Потому что особо она и не мешалась, ИМХО. Да, она была ужасной, но не ломала геймплей. Как же мы ее исправили-то?
Если честно, то полностью не исправили и по сей день, но давайте я вам расскажу обо всем, что мы пытались сделать.
* **Суровый челябинский метод**: мы пытались синхронизировать все физические параметры и как можно чаще. Ha-ha, nope! Никаких изменений, только все начало безбожно тормозить. В помойку.
* **Уменьшение размера пакетов**. Действие неплохое, ибо клиент «ест» меньше трафика, только в качестве решения проблемы синхронизации бессмысленное до костей. На свалку.
* И, наконец,.**разделение координат и скоростей**, реально рабочее решение. Ранее мы синхронизировали все и всегда, но теперь это изменилось: скорость и поворот синхронизируются всегда, а вот координаты всего раз в несколько секунд. Это сделало игроков плавными и красивыми.
### Номер два: пожирание всего соединения
Да-да, когда-то наш клиент забивал канал, что тесно связано с номером один. На соединениях хуже соединения датацентров Google клиент просто **не работал**, либо не давал работать остальному. Исправлено это было только недавно, в версии 0.6. Как оказалось, каким-то неведомым образом я написал код, который мало того, что буквально производил DoS- (а если на сервере игроков так пять, то вообще DDoS-) атаку на сервер, так ещё и убивал соединение, отправляя байт так тысячу раз в миллисекунду! Не знаю, что ещё можно сказать по поводу этого бага, но он был исправлен, так что все о'кей. Переходим к первому месту!
### Номер один: перезаходы
Даже, точнее сказать, отключения. Выход игроков из игры просто не был предусмотрен. Если человек заходил один раз на пустой сервер, его ID был равен одному. Если он перезапустит клиент, то его ID уже будет равен двум. Странно, не так ли? А что, если три игрока вместе гоняются, у одного падает соединение, и он заходит ещё раз? Надо ли говорить, что три игрока были максимумом? Это ужасно бесило меня и всех игроков. В итоге я собрался с силами и таки написал отключение игроков. Если от игрока нет пакетов в течении двух секунд — он отключается. Случайное отключение исключается — два раза в секунду все равно приходит «пинг». Думаю, что это все.

*Ещё один скриншот*
Послесловие
===========
Его не будет. Единственное — [GrimMaple](https://habrahabr.ru/users/grimmaple/), отзовись! Ещё хочу сказать спасибо:
* nlgzrgn за способ получения семи соперников в гонке;
* SpeedyHeart/speedycat/SpeedyChan за помощь с синхронизацией;
* Xanvier и DennisStanistan за адреса функций игры и за инфу по их использованию;
* elaymm4 за дизайн, идеи, видео, одним словом за «лицо» мода;
* YaNet (dz3n) за помощь в первое время;
* Многочисленным игрокам за преданность нашему проекту. Бокал за вас!
На этом все! Всем пока. Если все же опубликуют — буду рад и выпущу продолжение, ибо тут я описал лишь самое важное. До встречи!
P.S. Меня очень много просили в комментариях, так что я выкладываю информацию и ссылки:
Проект называется MW-Online.
Видео геймплея: <https://youtu.be/LMGLWHeLuJo>.
Скриншоты есть в статье, если хотите поиграть, то есть [Discord-сервер](https://discord.gg/383Q6q5). Общение в основном на английском, но есть русский канал. | https://habr.com/ru/post/334744/ | null | ru | null |
# Go в API для мобильного приложения. Создаем совместный список покупок с мгновенными уведомлениями
В [предыдущей статье](https://habr.com/ru/company/otus/blog/666004/) мы рассмотрели использование Go для создания веб-приложений (с выполнением через Web Assembly). Но прежде всего Go интересен как язык для реализации высокопроизводительных и неблокирующих решений на стороне сервера и в этой статье мы изучим использование Go для backend на примере разработки API для мобильного приложения для совместного редактирования списка покупок. Приложение будет включать в себя механизмы авторизации, запроса и модификации объектов, а также мгновенные уведомления (через веб-сокеты и Push) и мониторинг доступность API. В качестве примера мы создадим минимальный API, для которого обеспечивается уведомление всех зарегистрированных пользователей об изменении списка, а также будут предусмотрена отправка пуш-уведомлений всем адресатам по запросу.
Существует огромное количество [библиотек](https://awesome-go.com/) для Go, включающие все возможные сценарии использования, но нам нужно будет подобрать подходящий стек для решения следующих задач:
* взаимодействия с базой данных (идеально было бы сделать с поддержкой объектно-реляционного отображения - ORM);
* реализация REST-API для управления ресурсами системы;
* авторизация пользователя и выдача токена доступа к API (JWT);
* поддержка постоянного подключения с клиентскими приложениями через веб-сокеты;
* отправка пуш-уведомлений зарегистрированным клиентам;
* генерация документации по использования API;
* мониторинг доступности сервиса.
### Взаимодействие с базой данных
Go поддерживает низкоуровневые драйверы для большинства свободных и проприетарных баз данных (включая Oracle, MSSQL и MySQL, PostgreSQL, MongoDB, ...) и позволяет выполнять и генерировать SQL-запросы с использованием определения схемы данных в тэгах Go. Одной из наиболее активно развивающихся и функциональных библиотек для объектно-реляционного отображения можно считать [GORM](https://github.com/go-gorm/gorm), позволяющий описывать схему данных внутри структур, определять отношения между структурами, автоматически создавать миграции при изменении схемы данных, создавать запросы (в том числе, с поддержкой JOIN) и управлять транзакциями.
Начнем прежде всего с определения схемы данных для хранения списка покупок. Мы ограничимся в нашем приложении (для простоты реализации) одним списком для всех пользователей, но нет никаких сложностей сделать раздельные списки и проверку уровней доступа для зарегистрированных пользователей.
Наши объекты будут состоять из следующих полей:
* Название (строка).
* Отметка о выполнении (логическое значение).
* Автор (ссылка на пользователя).
* Исполнитель, завершивший задачу (ссылка на пользователя), может быть null.
* Дата-время добавления (timestamp).
* Дата-время выполнения (timestamp), может быть null.
Кроме списка продуктов будет необходимо создать таблицу с пользователями (мы будем сохранять e-mail для уникальной идентификации).
* Первичный ключ (число, автоинкремент).
* Адрес электронной почты (строка).
* Хэш пароля (строка).
* Дата-время последнего входа в систему (timestamp).
Начнем разработку приложения с установки библиотеки gorm и создания структур, описывающих модель данных:
```
go get -u gorm.io/gorm
go get -u gorm.io/driver/sqlite
```
Для корректной установки на компьютере должен быть установлен gcc (например, на Debian/Ubuntu он может быть добавлен через apt install build-essential, на Windows через [Msys2](https://www.msys2.org/) и pacman -Syu && pacman -S --needed base-devel mingw-w64-x86\_64-toolchain).
Добавим в проект определение структур (в пакет models):
```
package models
type ShoppingListItem struct {
gorm.Model
Name string
Finished bool
Creator User `gorm:"foreignKey:Id"`
Performer *User `gorm:"foreignKey:Id"`
Added int64
Completed *int64
}
type User struct {
gorm.Model
Id int32 `gorm:"PrimaryKey"`
EMail string
PasswordHash string
LastUpdate int64
}
```
И выполним инициализацию базы данных в main:
```
import (
"github.com/gin-gonic/gin"
"gorm.io/driver/sqlite"
"gorm.io/gorm"
"shoppinglist/models"
)
func main() {
db, err := gorm.Open(sqlite.Open("shoppinglist.db"), &gorm.Config{})
if err != nil {
panic("failed to connect database")
}
// Migrate the schema
db.AutoMigrate(&models.User{}, &models.ShoppingListItem{})
}
```
После запуска приложения будет создан файл данных для SQLite, содержащий две таблицы в соответствии с описанием структур Go. Заполним несколькими тестовыми записями:
```
func populateTestData(db *gorm.DB) {
var newUser = models.User{
EMail: "test.shopping.list@gmail.com",
PasswordHash: "098f6bcd4621d373cade4e832627b4f6",
LastUpdate: time.Now().Unix(),
}
db.Create(&newUser)
db.Create(&models.ShoppingListItem{
Name: "Milk",
Finished: false,
Creator: newUser,
Performer: nil,
Added: time.Now().Unix(),
Completed: nil,
})
db.Create(&models.ShoppingListItem{
Name: "Coffee",
Finished: false,
Creator: newUser,
Performer: nil,
Added: time.Now().Unix(),
Completed: nil,
})
}
```
Для упрощения отладки изменим конфигурацию логирования:
```
newLogger := logger.New(
log.New(os.Stdout, "\r\n", log.LstdFlags),
logger.Config{
SlowThreshold: time.Second,
LogLevel: logger.Info,
IgnoreRecordNotFoundError: true,
Colorful: true,
},
)
db, err := gorm.Open(sqlite.Open("shoppinglist.db"), &gorm.Config{Logger: newLogger})
```
И добавим после заполнения данных диагностику по количеству записей в базах данных. Обратите внимание, что название базы данных (как и полей) отличается от исходных названий структур - camelcase заменяется на snakecase, в конце добавляется символ "s" (для множественного числа):
```
var usersCount int64
db.Table("users").Count(&usersCount)
println("Users count is ", usersCount)
var shoppingListItemCount int64
db.Table("shopping_list_items").Count(&shoppingListItemCount)
println("Shopping list items count is ", shoppingListItemCount)
```
Для выполнения запросов извлечения и модификации данных нам будут доступны методы:
* `db.Delete(объект)` или `db.Delete(&ShoppingListItem{}, 1)` для удаления (соответственно для ранее полученного объекта или по типу данных и первичному ключу).
* `db.Save(объект)` для обновления ранее полученного объекта.
* `db.First(&obj, 1)` для извлечения объекта по ключу (таблица определяется по типу переменной obj).
* `db.Find(&obj, []int{1,2,3})` для извлечения группы объектов с заданными первичными ключами.
* `db.Find(&objs)` для получения всех объектов из таблицы (определяется по типу элемента списка objs).
* `db.Table("shopping_list_item").Select("name").Rows()` для извлечения названий всех продуктов из списка покупок. Дополнительно можно задать условия поиска (.Where), упорядочивание набора (.Order), ограничение количества (.Limit).
Эти методы мы будем использовать в контроллере для REST API. Например, для получения продуктов из списка покупок с упорядочиванием по времени в обратном хронологическом порядке можно использовать следующий код:
```
rows, err := db.Table("shopping_list_items").Select("name").Order("created_at desc").Rows()
for rows.Next() {
var name string
rows.Scan(&name)
println(name)
}
```
Мы создали заготовку кода для взаимодействия с базой данных и теперь можем перейти к созданию REST API. Выбор сетевых библиотек для Go чрезвычайно велик (начиная от встроенного net/http, высокопроизводительного [fasthttp](https://github.com/valyala/fasthttp), маршрутизаторами [gorilla/mux](https://github.com/gorilla/mux) и до сложных фреймворков вроде [gin-gonic](https://github.com/gin-gonic/gin) или [Echo](https://echo.labstack.com/)), поэтому здесь сложнее выбрать предпочтительное решение, поэтому будем использовать один из наиболее известных и достаточно удобных в применении фреймворк gin-gonic. Выбор также определяется возможностями встраивания Middleware для обработки запроса (например, проверки аутентификации) и наличии инструментов генерации документации на основе зарегистрированных обработчиков адресов.
### REST API-сервис на Gin
Начнем с установки модуля: `go get -u github.com/gin-gonic/gin.` Добавим новую функцию для инициализации сервера и настройки маршрутов.
```
func initAPI() {
r := gin.Default()
r.GET("/ping", func(c *gin.Context) {
c.JSON(http.StatusOK, gin.H{"status": "OK"})
})
r.Run()
}
```
В список импортов должно быть добавлено `"github.com/gin-gonic/gin"` (сам фреймворк) и `"net/http"` для поддержки констант состояния ответа (например, http.StatusOK).
Для маршрута указывается функция, принимающая контекст запроса (gin.Context), который используется для получения информации о запросе (извлечение значения именованных параметров, десериализация JSON в структуру Go), а также для формирования ответа (может быть отправлен как плоский текст, сериализация структуры Go в Json, либо двоичный файл). Для описания JSON-полей можно использовать встроенные договоренности по описанию схемы JSON-сериализации (и их можно добавить непосредственно в поля структуры, которая описывает модель данных для объединения [DAO](https://ru.wikipedia.org/wiki/Data_Access_Object) и [DTO](https://ru.wikipedia.org/wiki/DTO)). Создадим контроллер для управления списком покупок (пока без авторизации):
Прежде всего добавим описание json-полей в структуру ShoppingListItem:
```
type ShoppingListItem struct {
gorm.Model
Name string `json:"name"`
Finished bool `json:"finished"`
Creator User `gorm:"foreignKey:Id" json:"creator"`
Performer *User `gorm:"foreignKey:Id" json:"performer"`
Added int64 `json:"added"`
Completed *int64 `json:"completed"`
}
```
Создадим теперь контроллер для реализации REST-методов со списком покупок и отдельный пакет для работы с базой данных:
```
package data
import (
"gorm.io/gorm"
"shoppinglist/models"
)
type Data struct {
Db *gorm.DB
}
func (data *Data) GetItems() []models.ShoppingListItem {
var items = make([]models.ShoppingListItem, 0, 0)
data.Db.Find(&items)
return items
}
func (data *Data) GetItem(id int) *models.ShoppingListItem {
var result *models.ShoppingListItem
data.Db.Find(&result, id)
return result
}
func (data *Data) DeleteItem(id int) bool {
err := data.Db.Delete(&models.ShoppingListItem{}, id)
return err == nil
}
func (data *Data) CreateItem(item models.ShoppingListItem) uint {
data.Db.Create(&item)
return item.ID
}
func (data *Data) UpdateItem(item models.ShoppingListItem) {
data.Db.Save(item)
}
```
Контроллер будет выполнять проксирование HTTP-запросов в вызовы методов для взаимодействия с базой данных:
```
type Controller struct {
Data data.Data
}
func (controller *Controller) GetItems(c *gin.Context) {
c.JSON(http.StatusOK, controller.Data.GetItems())
}
func (controller Controller) GetItem(c *gin.Context) {
ids := c.Param("id")
id, err := strconv.Atoi(ids)
if err != nil {
c.AbortWithError(http.StatusBadRequest, err)
return
}
c.JSON(http.StatusOK, controller.Data.GetItem(id))
}
func (controller Controller) DeleteItem(c *gin.Context) {
ids := c.Param("id")
id, err := strconv.Atoi(ids)
if err != nil {
c.AbortWithError(http.StatusBadRequest, err)
return
}
if controller.Data.DeleteItem(id) {
c.JSON(http.StatusOK, gin.H{})
} else {
c.JSON(http.StatusNotFound, gin.H{})
}
}
func (controller Controller) CreateItem(c *gin.Context) {
var item models.ShoppingListItem
err := c.ShouldBindJSON(&item)
if err != nil {
c.AbortWithError(http.StatusBadRequest, err)
return
} else {
id := controller.Data.CreateItem(item)
c.JSON(http.StatusOK, id)
}
}
func (controller Controller) UpdateItem(c *gin.Context) {
var item models.ShoppingListItem
err := c.ShouldBindJSON(&item)
if err != nil {
c.AbortWithError(http.StatusBadRequest, err)
return
} else {
controller.Data.UpdateItem(item)
c.JSON(http.StatusOK, gin.H{"status": "updated"})
}
}
```
И добавим соответствующие маршруты в инициализацию Gin:
```
r.GET("/item", controller.GetItems)
r.GET("/item/:id", controller.GetItem)
r.UPDATE("/item/:id", controller.UpdateItem)
r.DELETE("/item/:id", controller.DeleteItem)
r.POST("/item", controller.CreateItem)
```
Здесь мы используем возможности разбора JSON-тела запроса (ShouldBindJSON), который возвращает ошибку при несоответствии схемы данных. Также через контекст могут быть получены фрагменты пути :name, параметры GET-запроса, присоединенные файлы и информация об агенте (браузере или приложении). Для формирования ответа используется метод контекста JSON, который определяет код ответа (используется библиотека net/http), а также его содержание в виде сериализуемой map (через gin.H) или структуру с описанием json-полей (в этом случае она будет автоматически преобразована в JSON-ответ).
Следующим этапом мы добавим авторизацию на выполнение запросов, а для этого нужно будет подключить Middleware с поддержкой токена запроса.
### Контроль доступа к ресурсам
Существует два метода для проверки прав доступа и отслеживания пользователя. Первый из них - создание сессии (чаще используется при создании серверной стороны веб-приложений, где пользователь получает сгенерированные страницы), для этого можно использовать Middleware из github.com/gin-gonic/contrib/sessions:
```
var secret = []byte("secret")
r.Use(sessions.Sessions("mysession", sessions.NewCookieStore(secret)))
```
Вызов Use регистрирует middleware для управления сессиями и далее оно отслеживает текущего пользователя (в этом случае - с использование cookie, но могут быть и иные варианты). Middleware представляет из себя функцию, с заголовком идентичным обработчику запроса (принимает \*gin.Context), которая может выполнить изменение запроса или создать ответ до вызова основного обработчика из маршрутизатора. Например, для ограничения доступности некоторых маршрутов можно обернуть часть вызовов в Use с контролем авторизации пользователя через сессию (для этого удобно использовать возможность создания групп запросов с общим префиксом) и реализовать методы для авторизации и выхода из системы, которые будут управлять значением в хранилище сессии с ключом username.
```
private := r.Group("/user")
private.Use(AuthRequired)
{
private.GET("/me", me)
private.GET("/status", status)
}
```
```
func AuthRequired(c *gin.Context) {
session := sessions.Default(c)
user := session.Get("username")
if user == nil {
c.AbortWithStatusJSON(http.StatusUnauthorized, gin.H{"error": "unauthorized"})
return
}
c.Next()
}
func Login(c *gin.Context) {
session := sessions.Default(c)
username := c.PostForm("username")
password := c.PostForm("password")
if username=="user" && password=="password" {
session.Set("username", "user")
session.Save()
} else {
c.AbortWithStatusJSON(http.StatusUnauthorized, gin.H{"error": "unauthorized"})
}
}
func Logout(c *gin.Context {
session := sessions.Default(c)
session.Delete("username")
}
```
Однако для REST API предполагается, что каждый запрос является полностью независимым и не зависит от предыдущего состояния сервера. В большинстве случаев для авторизации сетевых запросов используют постоянные или временные токены, которые отправляются в заголовке Authorization. Де-факто во многих сервисах используется механизм выдачи и обновления токенов [JWT](https://jwt.io/), так что добавим себе в приложение поддержку этого способа определения источника запроса.
JWT-токены выдаются со стороны сервера после выполнения аутентификации любым другим способом (например, по парольной паре) и предполагают периодическое обновление для исключения потенциальной утечки. Для корректного функционирования JWT публикует три точки подключения - авторизация, обновление токена и инвалидация (удаление токена). Для интеграции с Gin Framework существует несколько библиотек для поддержки JWT, мы рассмотрим добавление авторизации на примере [Gin-JWT](https://github.com/appleboy/gin-jwt).
Выполним установку:
```
go get github.com/appleboy/gin-jwt/v2
```
И добавим необходимый импорт`"github.com/appleboy/gin-jwt/v2"` .
Далее необходимо сконфигурировать middleware, это включает в себя как описание временных параметров ключей (время жизни, периодичность обновления), так и включение кода для проверки корректности учетных данных пользователя при авторизации и реакцию на некорректный доступ.
```
type login struct {
Username string `form:"username" json:"username" binding:"required"`
Password string `form:"password" json:"password" binding:"required"`
}
type User struct {
UserName string
FirstName string
LastName string
}
func attachLogin(r *gin.Engine) {
authMiddleware, err := jwt.New(&jwt.GinJWTMiddleware{
Realm: "Shopping List API",
Key: []byte("myverysecretkey"),
Timeout: time.Hour, //время до истечения ключа
MaxRefresh: time.Hour, //требуемая переодичность обновления
IdentityKey: identityKey, //атрибут для хранения идентификатора
PayloadFunc: func(data interface{}) jwt.MapClaims { //создание информации о пользователе
if v, ok := data.(*User); ok {
return jwt.MapClaims{
identityKey: v.UserName,
}
}
return jwt.MapClaims{}
},
IdentityHandler: func(c *gin.Context) interface{} { //создание объекта с описанием пользователя
claims := jwt.ExtractClaims(c)
return &User{
UserName: claims[identityKey].(string),
}
},
Authenticator: func(c *gin.Context) (interface{}, error) { //выполнение авторизации и выдача ключа
var loginVals login
if err := c.ShouldBind(&loginVals); err != nil {
return "", jwt.ErrMissingLoginValues
}
userID := loginVals.Username
password := loginVals.Password
if userID == "admin" && password == "admin" {
return &User{
UserName: userID,
LastName: "Admin",
FirstName: "Admin",
}, nil
}
return nil, jwt.ErrFailedAuthentication
},
Authorizator: func(data interface{}, c *gin.Context) bool { //функция авторизации
if v, ok := data.(*User); ok && v.UserName == "admin" {
return true
}
return false
},
Unauthorized: func(c *gin.Context, code int, message string) { //ответ при неавторизованном доступе
c.JSON(code, gin.H{
"code": code,
"message": message,
})
},
TokenLookup: "header: Authorization, query: token, cookie: jwt", //где будем искать токен авторизации
TokenHeadName: "Bearer", //тип токена (по умолчанию Bearer)
TimeFunc: time.Now, //функция для генерации времени
})
if err != nil {
log.Fatal("JWT Error:" + err.Error())
}
errInit := authMiddleware.MiddlewareInit()
if errInit != nil {
log.Fatal("authMiddleware.MiddlewareInit() Error:" + errInit.Error())
}
r.POST("/login", authMiddleware.LoginHandler)
r.GET("/logout", authMiddleware.LogoutHandler)
auth := r.Group("/auth")
auth.GET("/refresh_token", authMiddleware.RefreshHandler)
auth.Use(authMiddleware.MiddlewareFunc())
{
auth.GET("/me", meHandler)
}
}
```
Добавим вызов attachLogin в инициализацию Gin, после чего получим возможность выполнять вход в систему (POST-запрос на адрес /login с полями формы username и password), в ответ будет возвращен токены доступа/обновление и срок действия, выполнить обновление токена (GET запрос /refresh\_token с передачей текущего токена обновления), а также выполнять запросы в защищенной области (в этом коде это /auth/me, но аналогично можно обернуть все запросы к API для управления списком покупок с использованием authMiddleware.MiddlewareFunc). Для доступа к информации об авторизованном пользователе будет использоваться контекст:
```
func meHandler(c *gin.Context) {
claims := jwt.ExtractClaims(c)
user, _ := c.Get(identityKey)
c.JSON(200, gin.H{
"userID": claims[identityKey],
"userName": user.(*User).UserName,
})
}
```
Разумеется, в настоящем приложении нам нужно будет добавить методы проверки пользователей по базе данных (создаются аналогично рассмотренным ранее методам работы со списком покупок), а также сценарии для регистрации нового пользователя и сброса пароля, но оставим эти вопросы на вашу самостоятельную проработку.
Таким образом мы добавили контроль доступа к ресурсам и механизмы генерации и обновления токенов для авторизованных пользователей. Следующим шагом мы добавим поддержку веб-сокетов для отправки уведомлений клиентам об изменении списка задач.
### Поддержка веб-сокетов для отправки уведомлений
При создании мобильных приложений с совместным доступом к данным очень важно обеспечить мгновенную отправку уведомлений об изменениях. Существует два альтернативных подхода - с использованием веб-сокетов (постоянно существующих подключений, требует запущенного приложения в фоновом или полноэкранном режиме), либо с применением push-уведомлений платформы (в этом случае они могут быть получены и обработаны без необходимости запуска приложения). Рассмотрим первый вариант реализации.
Для включения поддержки веб-сокетов в gin можно использовать библиотеку [Melody](https://github.com/olahol/melody), предоставляющая возможность обработки запросов через web socket непосредственно внутри обработчиков подключений в gin.
Начнем с установки библиотеки:
```
go get gopkg.in/olahol/melody.v1
```
и добавим импорт `"gopkg.in/olahol/melody.v1".` Затем, вместе с gin мы должны будем инициализировать Melody и привязать ее обработчики к одному из адресов в маршрутизаторе gin. Для веб-сокетов реализуется несколько обработчиков - при открытии сессии (HandleConnect), получении сообщения (HandleMessage) и отключении клиента (HandleDisconnect). Например, в нашем случае при подключении нового клиента мы добавим ссылку на его сессию в список получателей, при отключении будем исключать его из списка. Обработка входящих сообщений не является в этом приложении обязательной, поскольку запросы модификации списка поступают через REST.
```
sessions := make(map[]melody.Session)
m := melody.New()
m.HandleConnect(func(session *melody.Session) {
println("Connected")
id, _ := uuid.NewV4()
//добавить новую сессию
session.Set("uuid", id.String())
sessions = append(sessions, session)
})
m.HandleDisconnect(func(session *melody.Session) {
println("Disconnected")
//удалить завершенную сессию
my_uuid, _ := session.Get("uuid")
for i := 0; i < len(sessions); i++ {
uuid, _ := sessions[i].Get("uuid")
if my_uuid.(string) == uuid.(string) {
sessions = append(sessions[:i], sessions[i+1:]...)
break
}
}
})
m.HandleMessage(func(session *melody.Session, msg []byte) {
var message models.Message
json.Unmarshal(msg, &message)
}
r.GET("/ws", func(c *gin.Context) {
m.HandleRequest(c.Writer, c.Request)
})
```
Для подключения по протоколу Web Socket в этом примере будет использоваться путь /ws. При создании подключения генерируется уникальный идентификатор сессии, который в дальнейшем может использоваться для определения связанного пользователя (в сочетании с токеном авторизации). При отключении клиента зарегистрированная в списке сессия удаляется. Список сессий можно использовать, например, для отправки уведомления всем получателям (при добавлении нового элемента в списке покупок или отметке о выполнении на одном из существующих).
```
var message models.Message
var msg []byte
json.Marshal(msg, &msg)
for _, session := range sessions {
session.Broadcast(msg)
}
```
### Использование пуш-уведомлений
В отличии от веб-сокетов платформенные пуш-уведомления не определяются едиными стандартами и требуют поддержки со стороны библиотеки варианта реализации конкретного поставщика. Наиболее популярными сервисами для отправки пуш-уведомлений являются Firebase Cloud Messaging (Google FCM) и Apple Push Notification Services (APN), а также вендорные решения Huawei Notification. Наиболее универсальным решением для отправки пуш-уведомлений сейчас можно назвать сервер рассылки уведомлений [gorush](https://github.com/appleboy/gorush), который может взаимодействовать с Google FCM, APN, Huawei Messaging Service и запускается как отдельный сервис (из контейнера [appleboy/gorush](https://hub.docker.com/r/appleboy/gorush/)) и может работать как через утилиту командной строки gorush, так и программно через протокол gRPC. Также можно использовать платформенные библиотеки [go-gcm](https://github.com/googlearchive/go-gcm) и [apns2](https://github.com/sideshow/apns2).
Прежде всего для настройки рассылки пуш-уведомлений необходимо получить токены авторизации в соответствующих сервисах для разработки. Далее ключи (или сертификаты) передаются в yaml-конфигурации контейнера (подробнее в [официальной документации](https://hub.docker.com/r/appleboy/gorush/)). Для доступа к запущенному сервису можно использовать gRPC подключение и описание протокола gorush.
```
import (
"github.com/appleboy/gorush/rpc/proto"
structpb "github.com/golang/protobuf/ptypes/struct"
"google.golang.org/grpc"
)
const (
address = "gorush:9000"
)
func main() {
conn, err := grpc.Dial(address, grpc.WithInsecure()) //подключение к серверу
if err != nil {
log.Fatalf("did not connect: %v", err)
}
defer conn.Close()
c := proto.NewGorushClient(conn)
//отправка уведомления
r, err := c.Send(context.Background(), &proto.NotificationRequest{
Platform: 2,
Tokens: []string{"1"},
Message: "В список покупок добавлены помидоры", //текст сообщения
Badge: 1,
Category: "shopping", //категория сообщения
Sound: "default",
Priority: proto.NotificationRequest_HIGH,
Alert: &proto.Alert{
Title: "Добавлен продукт",
Body: "В список покупок добавлены помидоры",
Subtitle: "1 кг",
},
//дополнительные данные
Data: &structpb.Struct{
Fields: map[string]*structpb.Value{
"shopping_id": {
Kind: &structpb.Value_StringValue{StringValue: "welcome"},
},
"key2": {
Kind: &structpb.Value_NumberValue{NumberValue: 2},
},
},
},
})
if err != nil {
log.Println("could not send notification: ", err)
}
}
```
### Генерация документации по API
Для автоматического создания документации по доступным точкам подключения можно использовать препроцессор исходных текстов gin-swagger, анализирующий блок комментариев перед функцией обработчиком маршрута и создающий описание в виде swagger yaml-файла, который может быть опубликован непосредственно на этом же сервере.
```
import (
swaggerFiles "github.com/swaggo/files"
ginSwagger "github.com/swaggo/gin-swagger"
)
```
Аннотация // @BasePath /api/v1 интерпретируется как определение общего префикса для API. Для корректной интерпретации схемы входных и выходных данных к запросу перед методом контроллера необходимо добавить блок комментариев. Например, для метода получения информации о элементе списка комментарий может выглядеть следующим образом:
```
// Получение информации о элементе списка покупок
// @Summary Получение информации о элементе списка покупок
// @Description Возвращает подробное описание элемента списка покупок
// @Param id path string true "Идентификатор элемента"
// @Produce json
// @Success 200 {object} []models.ShoppingListItem "Информация о элементе"
// @Failure 400 {object} httputil.HTTPError
// @Router /item/{id} [GET]
func (controller Controller) GetItem(c *gin.Context) {
ids := c.Param("id")
id, err := strconv.Atoi(ids)
if err != nil {
c.AbortWithError(http.StatusBadRequest, err)
return
}
c.JSON(http.StatusOK, controller.Data.GetItem(id))
```
Здесь указывается как общее описание метода (Summary / Description), так и схема входных данных (@Param), тип принимаемых данных (@Accept), тип возвращаемого результата (@Produce) и возможные статусы успешного (@Success) и неуспешного (@Failure) выполнения. Для генерации документации в сценарий сборки необходимо включить запуск консольной утилиты препроцессора:
```
go get -u github.com/swaggo/swag/cmd/swag
$GOPATH/bin/swag init
```
Для публикации созданного swagger-файла и интерфейса для его просмотра в маршрутизатор Gin необходимо добавить следующие действия:
```
url := ginSwagger.URL("http://localhost:8080/swagger/doc.json") // The url pointing to API definition
.GET("/swagger/*any", ginSwagger.WrapHandler(swaggerFiles.Handler, url))
```
### Проверка доступности сервиса
В простом случае проверка корректности функционирования сервиса может быть выполнена как отдельная функция с проверками доступности необходимых подсистем, присоединенная на известный маршрут (например, GET /status). Также существует несколько middleware для автоматической проверки доступности маршрутизатора (например, [gin-health-check](https://github.com/RaMin0/gin-health-check)) и инструментов для проверки доступности внешних систем и создания JSON-ответа по текущему состоянию. Например, можно использовать библиотеку [health](https://github.com/alexliesenfeld/health), предоставляющую возможность регистрировать проверки доступности внешних сервисов.
Установим библиотеку:
```
go get -u github.com/alexliesenfeld/health
```
Добавим импорт health "github.com/alexliesenfeld/health" и зарегистрируем проверку доступности SQLite3:
```
checker := health.NewChecker(
health.WithCacheDuration(1*time.Second),
health.WithTimeout(10*time.Second),
health.WithPeriodicCheck(15*time.Second, 3*time.Second, health.Check{
Name: "database", // название проверки
Timeout: 2 * time.Second, // таймаут проверки
Check: db.PingContext,
}),
//перехват изменения состояния
health.WithStatusListener(func(ctx context.Context, state health.CheckerState) {
log.Println(fmt.Sprintf("health status changed to %s", state.Status))
}),
)
http.Handle("/health", health.NewHandler(checker))
go http.ListenAndServe(":3000", nil)
```
Проверка доступности будет публиковаться на другой порт (3000), чтобы исключить ситуацию пропуска ошибки из-за недоступности основного маршрутизатора Gin.
Таким образом мы создали полноценный API с автоматической проверкой состояния доступности, генерацией документации, поддержкой REST-методов для взаимодействия с мобильным приложениям, а также возможностью мгновенной передачи уведомлений через постоянно открытые web-сокеты и платформенные пуш уведомления. Также для реальных задач бывает необходимо настроить политики CORS, ограничивать количество запросов (для исключения атак), выполнять отладку исполнения запросов и собирать аналитику по времени их обработку. Для многих из этих задач существует готовые middleware (например, можно посмотреть в подборку [gin-contrib](https://openbase.com/go/github.com/gin-gonic/contrib)), но архитектура решения позволяет без особых затруднения создавать собственную сложную логику обработки запросов.
[Полный текст API доступен в Github](https://github.com/dzolotov/shopping-list-api).
Ну и по традиции всех, кто дочитал до конца, хочу пригласить на бесплатный урок по теме "Функции и методы в Golang". Урок пройдет уже 25 мая. Регистрация доступна по ссылке ниже.
* [Зарегистрироваться на бесплатный урок](https://otus.pw/2Gcf/) | https://habr.com/ru/post/667308/ | null | ru | null |
# Поиск неинициализированных членов класса

К нам достаточно давно обращались клиенты и потенциальные клиенты с просьбой реализовать диагностику для поиска неинициализированных членов класса. Мы долго сопротивлялись, осознавая сложность задачи, но всё-таки сдались. В результате мы создали диагностику [V730](http://www.viva64.com/ru/d/0377/). Диагностика получилась далеко не идеальной и предвидя множество писем о том, что что-то работает не так, я решил написать заметку о технической сложности этой задачи. Думаю, эта информация заранее даст пользователям PVS-Studio ответы на некоторые вопросы и просто будет интересна широкому кругу наших читателей.
Говоря о поиске неинициализированных членов класса, человек представляет себе достаточно простые ситуации. Есть в классе скажем 3 члена. Два из них мы инициализировали, а один забыли. Ну что-то в этом духе:
```
class Vector
{
public:
int x, y, z;
Vector() { x = 0; y = 0; }
};
```
Эх, если бы мир был так прост и все использовали только такие классы. На практике даже человеку иногда бывает трудно сказать, содержит код ошибку или нет. В случае же анализатора, иногда эта задача вообще не решаема.
Давайте посмотрим различные причины, почему анализатор может выдавать ложные предупреждения или наоборот не замечать ошибки.
Для начала отмечу, что члены классов могут инициализироваться разнообразнейшими способом. Все даже сложно упомнить. Не читайте дальше. Порассматривайте пока картинку и попробуйте перечислить, сколько способов инициализации членов вы знаете. Посчитали? Тогда продолжим.

*Рисунок 1. Единорог гадает, инициализирован член класса, или нет.*
О некоторых способах инициализации:1. Просто присвоить члену класса значение: A() { x = 1; }.
2. Использовать список инициализации: A(): x(1) {}
3. Использовать доступ через this: A(int x) { this->x = x; }
4. Использовать доступ через "::": A(int x) { A::x = x; }
5. Использовать инициализацию в духе C++11: class A { int x = 1; int y { 2 };… };
6. Инициализировать поле с помощью функций типа memset(): A() { memset(&x, 0, sizeof(x); }.
7. Инициализировать с помощью memset() сразу все поля класса (да, да, так делают): A() { memset(this, 0, sizeof(\*this)); }
8. Использовать делегирующий конструктор (С++11): A(): A(10, 20) {}
9. Использовать специальную функцию инициализации: A() { Init(); }
10. Члены класса могут сами инициализировать себя: class A { std::string m\_s;… };
11. Члены класса могут быть статическими.
12. Можно инициализировать класс явно вызывая другой конструктор: A() { this->A(0); }
13. Можно вызвать другой конструктор, используя placement new (программисты такие выдумщики): A() { new (this) A(1,2); }
14. Инициализировать члены можно косвенно через указатель: A() { int \*p = &x \*p = 1; }
15. И через ссылку: A() { int &r = x; r = 1; }
16. Можно инициализировать члены, если они являются классами, вызывая у них функции: A() { member.Init(1, 2); }
17. Можно «постепенно» инициализировать члены, являющиеся структурами: A() { m\_point.x = 0; m\_point.y = 1; }
18. Есть и другие способы.
Как видите, надо учитывать очень много способов того, как инициализируются члены класса. Думаю, мы знаем ещё далеко не про все. А ведь эти разнообразные ситуации надо предвидеть и учитывать!
Особую сложность представляют вызовы функций инициализации, которые в свою очередь вызывают другие функции и так далее. Отследить эту цепочку вызовов бывает крайне сложно, а иногда вообще невозможно.
Однако даже если научиться распознавать все-все способы инициализации классов, этого все равно будет мало. Отсутствие инициализации какого-то члена не всегда является ошибкой. Классический случай — реализация разновидности какого-то контейнера. Нередко можно встретить подобный код:
```
class MyVector
{
size_t m_count;
float *m_array;
public:
MyVector() : m_count(0) { }
....
};
```
Переменная m\_array не инициализирована, но это не имеет значения. Вначале класс хранит 0 элементов, и поэтому для массива не выделена память. Соответственно, указатель m\_array не инициализирован. Он будет инициализирован позже, когда в контейнер добавят хотя бы один элемент.
Код корректен, но анализатор выдаст ложное предупреждение, что расстроит программиста. Но как быть с такими случаями непонятно.
Возможно, для надежности следовало инициализировать m\_array значением nullptr. Однако обсуждение стиля программирования выходит за рамки заметки. Важно, что на практике, если в конструкторе инициализируются не все члены, это ещё ничего не значит. Код может совершенно корректно работать и не инициализировать что-то до поры до времени вполне разумно. Здесь я показал очень упрощенный пример. Бывают гораздо более сложные ситуации.
А теперь о двойственности мира. Посмотрите на абстрактный код:
```
class X
{
....
char x[n];
X() { x[0] = 0; }
....
};
```
Ошибка, что в классе X инициализируется только 1 элемент? Дать ответ невозможно. Все зависит от того, что представляет из себя класс X. И понять это анализатор не может. Для этого нужен человек.
Если это какой-то класс строки, то ошибки нет:
```
class MyString
{
....
char m_str[100];
MyString() { m_str[0] = 0; }
....
};
```
В начало строки записывается [терминальный ноль](http://www.viva64.com/ru/t/0088/). Тем самым программист указывает, что строка пустая. Остальные элементы массива можно не инициализировать. Код корректен.
Если это класс для работы с цветом, то имеет место ошибка:
```
class Color
{
....
char m_rgba[4];
Color() { m_rgba[0] = 0; }
....
};
```
Здесь инициализирован только один элемент массива, а следовало инициализировать все элементы. В данном случае, кстати, анализатор посчитает, что класс полноценно инициализирован и не выдаст предупреждения (false negative). Приходится отдавать предпочтение подходу «промолчать», иначе анализатор будет генерировать слишком много шума.
Видите, как все непросто и неоднозначно? Очень сложно говорить, когда есть ошибка, а когда нет. Пришлось реализовать в анализаторе множество эмпирических проверок, которые пытаются угадать, ошибочен код или нет. Естественно, эмпирический подход будет давать сбой, и мы хотим заранее попросить за это прощения. Однако надеюсь, теперь вы понимаете, что поиск неинициализированных членов класса является сложной задачей и будете снисходительны к PVS-Studio. | https://habr.com/ru/post/269599/ | null | ru | null |
# Найден программист, взломавший kernel.org в 2011 году

28 августа 2011 года сообщество Linux было слегка потрясено, узнав о взломе kernel.org — основного сервера для распространения исходного кода ядра Linux, главного места хостинга репозиториев ядра и разных дистрибутивов Linux. На kernel.org обнаружился троян с рутовым доступом, который [оставался незамеченным в течение 17 дней](https://habrahabr.ru/post/127498/). Его обнаружили благодаря сообщениям об ошибках в `Xnest /dev/mem` на машинах без установленной системы X Window.
Троян записывал пароли, вёл лог действий пользователей, предоставлял root-доступ и модифицировал ПО на сервере kernel.org.
Системный администратор kernel.org [сообщил](http://pastebin.com/BKcmMd47), что были модифицированы файлы, относящиеся к ssh (openssh, openssh-server и openssh-clients), а загрузчик трояна добавлен в стандартный скрипт загрузки сервисов `rc3.d`. Сайты kernel.org и git.kernel.org [ушли в офлайн на 35 дней](https://habrahabr.ru/post/129880/).

Серверы были очищены, программное обеспечение переустановлено. Только после этого открыли доступ к репозиториям.
Спустя некоторое время стало известно также о взломе веб-сайтов LinuxFoundation.org и Linux.com с утечкой учётных данных пользователей, в том числе паролей пользователей. Высказывались предположения, что это был первый этап атаки, на котором злоумышленник узнал пароль одного из разработчиков, имеющего рутовый доступ к kernel.org.
Система управления версиями Git гарантирует аутентичность исходного кода, который доступен для проверки миллионам пользователей. На тысячах серверов по всему миру хранятся копии кода ядра. Если бы кто-то попытался модифицировать его, то система контроля версий Git сразу бы сообщила об этом. Все 40 000 файлов ядра подписаны SHA-1 и подменить их невозможно.
Благодаря открытому коду и такой системе контроля ядро Linux надёжно защищено от внедрения посторонних троянов в старые файлы. Если у злоумышленника была такая цель, то ему не удалось выполнить поставленную задачу. По крайней мере, на данном этапе операции. Неизвестно, что конкретно он планировал делать дальше, после распространения своего трояна на компьютеры разработчиков. Кто знает, может, он хотел запушить коммит с трояном с компьютера Линуса Торвальдса?
Так или иначе, но почерк злоумышленника не был похож на методы работы спецслужб, у которых имеются более продвинутые инструменты, им не нужно красть пароли на форумах. Хотя и такую версию не исключали.

Kernel.org вернулся в онлайн к ноябрю 2011 года, за исключением нескольких второстепенных сервисов. Расследование инцидента при участии агентов ФБР продолжалось несколько лет, но им наконец-то удалось выйти на след злоумышленника.
1 сентября 2016 года Министерство юстиции США опубликовало [пресс-релиз](https://www.justice.gov/usao-ndca/pr/florida-computer-programmer-arrested-hacking), в котором объявило о задержании программиста из Южной Флориды по подозрению в незаконном проникновении на компьютеры, принадлежащие организациям Linux Kernel Organization и Linux Foundation.
Подозреваемый — 27-летний Дональд Райан Остин — был задержан 28 августа 2016 года офицерами полиции посёлка Miami Shores, которые остановили на дороге его автомобиль. Ордер на арест был выписан 23 июня и рассекречен после ареста подозреваемого.
Судя по [записи](http://floridaresidentdb.com/person/116597683/donald_ryan_austin) в базе данных жителей Флориды, Дональд Райан Остин родился 20 апреля 1989 года, домашний адрес: 3425 Collins AVE #518 Miami Beach FL 33140, удостоверение избирателя 116597683.

*Квартира Остина находится в 300 метрах от побережья. Фото многоквартирного дома сделано в июне 2015 года, когда он достраивался*
На момент преступления парню было 22 года.
Дональду Райану Остину предъявлены обвинения по четырём инцидентам «умышленных действий, нанёсших ущерб защищённому компьютеру», по статье [18 U.S.C. § 1030(a)(5)(A)](https://www.law.cornell.edu/uscode/text/18/1030). Данная статья предусматривает штраф до $250 000 и/или тюремное заключение на срок до 10 лет, плюс компенсацию ущерба пострадавшей стороне. По четырём случаям Дональд может получить штраф $1 млн, тюремный срок 40 лет и требование компенсировать ущерб пострадавшим.
В [судебных документах](http://www.slideshare.net/anatolalizar/ss-65671562) прокуратура обвиняет программиста в установке трояна Ebury и руткита Phalanx на серверы Odin1, Zeus1 и Pub3, которые находились в аренде у Linux Foundation и использовались для поддержания работы сайта kernel.org. Вредоносная программа работала с 13 августа 2011 года по 1 сентября 2011 года. Остина также обвиняют в заражении личного сервера электронной почты разработчика ядра Linux Питера Энвина (H. Peter Anvin) в те же сроки.
Учитывая серьёзность преступления, можно предположить, что одним штрафом программист не отделается. Всё-таки под Linux работает абсолютное большинство серверов и около двух процентов десктопных компьютеров в мире.
С другой стороны, Дональда вряд ли удастся обвинить в получении коммерческой выгоды, потому что на сервере kernel.org размещается свободного программное обеспечение, которое общедоступно и распространяется бесплатно.
Прокуратуре придётся много поработать, чтобы определить мотивы злоумышленника и объяснить его действия. Вероятно, в этих действиях не было корыстного мотива. На форумах предполагают, что парень просто хотел «взломать всех» и показать своё превосходство. Очевидно, он был неравнодушен к операционной системе Linux, хотя и не прислал ни одного патча. Его имени также нет в списке почтовой рассылки [Linux Kernel Mailing List](https://lkml.org/).
После задержания Остин представлен перед судом и был выпущен под залог $50 000, который [оплатила семья его девушки](http://arstechnica.com/tech-policy/2016/09/feds-pin-brazen-kernel-org-intrusion-on-27-year-old-programmer/).
Остину приказано не приближаться к компьютерам, не пользоваться интернетом, любыми видами социальных сетей и электронной почтой. Прокуратура указывает, что обвиняемый «может представлять угрозу» из-за «существенной истории злоупотреблений».
Следующие слушания по его делу назначены на 21 сентября 2016 года, 9:30 утра, в суде Сан-Франциско. | https://habr.com/ru/post/357552/ | null | ru | null |
# Оптимизация OneToMany коллекций Doctrine
В этой статье будет показан пример того, как уменьшить количество запросов к базе данных до одного при работе с коллекциями сущностей иерархической структуры в контексте PHP и Doctrine ORM. Полный пример решения вы можете посмотреть в специальном [репозитории](https://github.com/franzose/doctrine-collections-fix-example). Статья основана на решении проблемы из обсуждения [на StackOverflow](https://stackoverflow.com/questions/13623285).
Многие из нас сталкивались с необходимостью манипуляции иерархическими структурами данных. Например, категориями товаров. Существуют [различные способы](https://www.slideshare.net/billkarwin/models-for-hierarchical-data) хранения подобных структур в БД, оптимизированные под те или иные варианты использования. На проекте, где работал я, использовался комбинированный способ: [adjacency list](https://www.programiz.com/dsa/graph-adjacency-list) + [materialized path](https://dzone.com/articles/materialized-paths-tree-structures-relational-database). Поэтому решение проблемы в данной статье рассчитано именно на использование adjacency list для связей между сущностями.
База данных
-----------
Для решения нашей задачи подойдет любая база данных, поддерживаемая Doctrine DBAL / ORM. Мы воспользуемся PostgreSQL. Пусть категории хранятся следующим образом:
```
create sequence public.category_id_seq
increment by 1;
create table if not exists public.category
(
id bigint default nextval('category_id_seq'::regclass) not null primary key,
parent_id bigint constraint fk_category_id references public.category,
uid text not null,
name text not null,
created_at timestamp(0) with time zone not null,
updated_at timestamp(0) with time zone not null
);
create unique index uniq_category_uid
on public.category (uid);
```
Древовидная структура категорий реализуется с помощью ссылки таблицы `category` самой на себя по внешнему ключу `parent_id`. Вместе с этим у нас есть возможность определить полный путь к категории с помощью уникального поля `uid`, в котором уровни вложенности будут отделяться нижним подчеркиванием. То есть, `foo_bar` – это категория второго уровня.
Сущность
--------
Теперь напишем минимально необходимый код сущности:
```
php
declare(strict_types=1);
namespace Hierarchy;
use DateTimeImmutable;
use Doctrine\Common\Collections\ArrayCollection;
use Doctrine\Common\Collections\Collection;
use Doctrine\ORM\Mapping\Column;
use Doctrine\ORM\Mapping\Entity;
use Doctrine\ORM\Mapping\GeneratedValue;
use Doctrine\ORM\Mapping\Id;
use Doctrine\ORM\Mapping\JoinColumn;
use Doctrine\ORM\Mapping\ManyToOne;
use Doctrine\ORM\Mapping\OneToMany;
use Doctrine\ORM\Mapping\Table;
#[Entity, Table('category')]
class Category
{
#[Column(name: 'parent_id', type: 'bigint', nullable: true)]
private ?int $parentId;
#[Column(name: 'uid', type: 'string', nullable: false)]
private string $uid;
#[OneToMany(mappedBy: 'parent', targetEntity: self::class)]
private Collection $children;
#[Column(name: 'created_at', type: 'datetimetz_immutable', nullable: false)]
private DateTimeImmutable $createdAt;
#[Column(name: 'updated_at', type: 'datetimetz_immutable', nullable: false)]
private DateTimeImmutable $updatedAt;
public function __construct(
#[Id]
#[Column(name: 'id', type: 'bigint', nullable: false)]
#[GeneratedValue(strategy: 'NONE')]
private int $id,
string $uid,
#[Column(name: 'name', type: 'string', nullable: false)]
private string $name,
#[ManyToOne(targetEntity: self::class, inversedBy: 'children')]
#[JoinColumn(name: 'parent_id', referencedColumnName: 'id')]
private ?self $parent = null
) {
$this-parentId = $this->parent?->id;
$this->uid = $this->parent === null ? $uid : sprintf('%s_%s', $this->parent->uid, $uid);
$this->createdAt = new DateTimeImmutable();
$this->updatedAt = new DateTimeImmutable();
$this->children = new ArrayCollection();
}
public function id(): int
{
return $this->id;
}
public function uid(): string
{
return $this->uid;
}
public function name(): string
{
return $this->name;
}
public function parent(): ?self
{
return $this->parent;
}
public function parentId(): ?int
{
return $this->parentId;
}
public function children(): Collection
{
return new ArrayCollection($this->children->toArray());
}
}
```
Обычно связь `ManyToOne` определяют одним полем. Например, `parent` из нашего примера. По умолчанию, при первом обращении к такому полю Doctrine сделает дополнительный запрос в БД, чтобы загрузить связанную сущность в память. Если же указана жадная загрузка `fetch: EAGER`, то связанная сущность будет подгружена вместе с основной сущностью. В нашем случае это привело бы к каскадной подгрузке поддерева, поскольку сущность Category ссылается сама на себя. С моей точки зрения, данный побочный эффект является крайне нежелательным из-за расхода большого количества оперативной памяти на данные, которые могут даже не понадобиться.
Поэтому, когда нам необходим только идентификатор связанной сущности (в данном случае – родительской категории), а не вся сущность целиком, мы будем использовать отдельное поле `parentId`. Установив значение этого поля в конструкторе, в дальнейшем мы всегда будем иметь актуальное значение идентификатора. Затем, при многократном использовании этого поля, дополнительных запросов в БД инициировано не будет. Данный подход нам пригодится далее при разработке оптимизированной подгрузки коллекции сущностей.
Репозиторий
-----------
Для начала определим интерфейс репозитория категорий. Этот интерфейс мы будем использовать при подмене реализации загрузки коллекции сущностей при тестировании.
```
php
declare(strict_types=1);
namespace Hierarchy;
interface CategoryRepositoryInterface
{
/**
* Возвращает новый идентификатор категории.
*
* Стратегия формирования идентификатора зависит от конкретной реализации.
*/
public function nextCategoryId(): int;
/**
* Возвращает потомки всех уровней для категории с указанным UID.
*
* @return Category[]
*/
public function findDescendantsByUid(string $uid): array;
}</code
```
Этих двух методов нам будет достаточно для тестирования. Стандартная реализация интерфейса может выглядеть следующим образом:
```
php
declare(strict_types=1);
namespace Hierarchy;
use Doctrine\ORM\EntityManagerInterface;
final readonly class DefaultCategoryRepository implements CategoryRepositoryInterface
{
public function __construct(private EntityManagerInterface $em)
{
}
public function nextCategoryId(): int
{
return (int) $this-em
->getConnection()
->executeQuery("select nextval('category_id_seq')")
->fetchOne();
}
/**
* @return Category[]
*/
public function findDescendantsByUid(string $uid): array
{
return $this->em
->createQueryBuilder()
->select('c')
->from(Category::class, 'c')
->where('c.uid LIKE :uid')
->setParameter('uid', sprintf('%s_%%', $uid))
->orderBy('c.uid')
->getQuery()
->getResult();
}
}
```
Кратко о реализации. Метод `nextCategoryId` возвращает следующее значение последовательности PostgreSQL, которую мы определили в самом начале. Этим методом мы будем пользоваться для передачи идентификатора в конструктор сущностей Category и их сохранении в базу данных. Метод `findDescendantsByUid` возвращает массив потомков всех уровней для категории с указанным UID.
Тестирование
------------
Чтобы проверить количество запросов в БД до и после “фикса”, воспользуемся библиотекой PHPUnit со следующей конфигурацией `phpunit.xml`:
```
xml version="1.0" encoding="UTF-8"?
tests
```
Итак, приступим к классу тестов и создадим метод `testBehavior`, в котором позже будет описана логика тестирования.
```
php
declare(strict_types=1);
use PHPUnit\Framework\TestCase;
final class CategoryRepositoryTest extends TestCase
{
public function testBehavior(): void
{
// здесь будет написан тест
}
}</code
```
А пока займемся подготовкой тестовых данных. Сначала напишем метод, который будет наполнять базу данных небольшим деревом категорий.
```
private static function createCategories(
EntityManagerInterface $em,
CategoryRepositoryInterface $repository
): void {
$parent = new Category($repository->nextCategoryId(), 'foo', 'Foo');
$child = new Category($repository->nextCategoryId(), 'bar', 'Bar', $parent);
$grandChild = new Category($repository->nextCategoryId(), 'qux', 'Qux', $child);
$grandGrandChild = new Category($repository->nextCategoryId(), 'doo', 'Doo', $grandChild);
foreach ([$parent, $child, $grandChild, $grandGrandChild] as $entity) {
$em->persist($entity);
}
$em->flush();
$em->clear();
}
```
Теперь нам нужны менеджер сущностей и репозиторий категорий. Опишем подключение к БД и непосредственно создание менеджера.
```
private static function createEntityManager(Connection $connection): EntityManagerInterface
{
$config = new ORMConfiguration();
$config->setMetadataDriverImpl(new AttributeDriver([$_SERVER['DOCTRINE_SRC_DIR']]));
$config->setProxyDir($_SERVER['DOCTRINE_PROXY_DIR']);
$config->setProxyNamespace($_SERVER['DOCTRINE_PROXY_NAMESPACE']);
return new EntityManager($connection, $config);
}
private static function createConnection(LoggerInterface $logger): Connection
{
$params = [
'host' => $_SERVER['DB_HOST'],
'port' => $_SERVER['DB_PORT'],
'user' => $_SERVER['DB_USER'],
'password' => $_SERVER['DB_PASSWORD'],
'dbname' => $_SERVER['DB_NAME'],
'driver' => $_SERVER['DB_DRIVER']
];
$config = new DBALConfiguration();
$config->setMiddlewares([
new \Doctrine\DBAL\Logging\Middleware($logger)
]);
return DriverManager::getConnection($params, $config);
}
```
Суть теста заключается в проверке SQL-запросов, которые инициирует Doctrine, поэтому нам нужен логгер. Надеюсь, что вы вовремя обновляете зависимости на проекте, но всё же обращу ваше внимание на конфигурацию подключения к БД. В Doctrine DBAL 3.2.0 [появился](https://github.com/doctrine/dbal/pull/4967) механизм middleware, а метод `Configuration::setSQLLogger()` и класс `Doctrine\DBAL\Logging\DebugStack` были объявлены устаревшими и начали генерировать предупреждения. То есть, раньше можно было написать примерно следующее:
```
$debugStack = new DebugStack();
$em->getConnection()->getConfiguration()->setSQLLogger($debugStack);
// далее инициируем и исследуем запросы
$debugStack->queries;
```
Однако теперь следует использовать middleware, как в примере выше. Причем аналога `DebugStack` в новых версиях Doctrine DBAL нет, поэтому его придется реализовывать самостоятельно. Но это не так уж и сложно. Вот пример такого логгера:
```
php
declare(strict_types=1);
namespace Hierarchy\Tests;
use Psr\Log\AbstractLogger;
use Stringable;
final class TestDatabaseLogger extends AbstractLogger
{
private array $queries = [];
public function log($level, Stringable|string $message, array $context = []): void
{
if (array_key_exists('sql', $context)) {
$this-queries[] = $context;
}
}
/**
* @return string[]
*/
public function selectQueries(): array
{
$filter = static fn (string $query) => str_starts_with($query, 'SELECT');
return array_values(array_filter(array_column($this->queries, 'sql'), $filter));
}
}
```
Теперь соберем всё воедино в методе `setUpTestData()`:
```
#[ArrayShape([TestDatabaseLogger::class, CategoryRepositoryInterface::class])]
private static function setUpTestData(string $repositoryClassName): array
{
$logger = new TestDatabaseLogger();
$connection = self::createConnection($logger);
$connection->executeStatement('delete from category');
$em = self::createEntityManager($connection);
$repository = new $repositoryClassName($em);
self::createCategories($em, $repository);
return [$logger, $repository];
}
```
Благодаря аргументу `$repositoryClassName` нам не придётся “хардкодить” конкретный класс репозитория, и мы сможем протестировать обе реализации выборки, “обычную” и оптимизированную, не меняя при ни тест, ни подготовительный код. Теперь напишем сам тест:
```
/**
* @dataProvider behaviourDataProvider
*/
public function testBehavior(string $repositoryClassName, array $expectedQueries): void
{
[$logger, $repository] = self::setUpTestData($repositoryClassName);
// foo_bar, foo_bar_qux, foo_bar_qux_doo
$descendants = $repository->findDescendantsByUid('foo');
self::assertEquals('foo_bar_qux_doo', $descendants[0]->children()->first()->children()->first()->uid());
self::assertEquals($expectedQueries, $logger->selectQueries());
}
public function behaviourDataProvider(): array
{
return [
[
DefaultCategoryRepository::class,
[
'SELECT c0_.parent_id AS parent_id_0, c0_.uid AS uid_1, c0_.created_at AS created_at_2, c0_.updated_at AS updated_at_3, c0_.id AS id_4, c0_.name AS name_5, c0_.parent_id AS parent_id_6 FROM category c0_ WHERE c0_.uid LIKE ? ORDER BY c0_.uid ASC',
'SELECT t0.parent_id AS parent_id_1, t0.uid AS uid_2, t0.created_at AS created_at_3, t0.updated_at AS updated_at_4, t0.id AS id_5, t0.name AS name_6, t0.parent_id AS parent_id_7 FROM category t0 WHERE t0.parent_id = ?',
'SELECT t0.parent_id AS parent_id_1, t0.uid AS uid_2, t0.created_at AS created_at_3, t0.updated_at AS updated_at_4, t0.id AS id_5, t0.name AS name_6, t0.parent_id AS parent_id_7 FROM category t0 WHERE t0.parent_id = ?'
]
]
];
}
```
И убедимся, что он проходит успешно:
```
PHPUnit 9.5.27 by Sebastian Bergmann and contributors.
. 1 / 1 (100%)
Time: 00:00.093, Memory: 10.00 MB
OK (1 test, 2 assertions)
Process finished with exit code 0
```
Суть теста заключается в следующем:
1. Загрузить всех потомков сущности `foo`
2. Взять сущность `foo_bar`, несколько раз переместиться вглубь дерева с помощью вызова метода `children()` и убедиться, что каждый такой вызов инициирует дополнительный SQL-запрос в БД
Получается, что Doctrine загружает OneToMany-коллекцию из БД всякий раз, когда происходит обращение к соответствующему полю. Даже не смотря на то, что эти сущности уже были загружены в память. Как раз это нам и предстоит исправить.
Оптимизация
-----------
Создадим новый репозиторий `ImprovedCategoryRepository` со следующим содержимым:
```
php
declare(strict_types=1);
namespace Hierarchy;
use Doctrine\ORM\EntityManagerInterface;
use Doctrine\ORM\PersistentCollection;
final readonly class ImprovedCategoryRepository implements CategoryRepositoryInterface
{
public function __construct(private EntityManagerInterface $em)
{
}
public function nextCategoryId(): int
{
return (int) $this-em
->getConnection()
->executeQuery("select nextval('category_id_seq')")
->fetchOne();
}
/**
* @return Category[]
*/
public function findDescendantsByUid(string $uid): array
{
$result = $this->em
->createQueryBuilder()
->select('c')
->from(Category::class, 'c')
->indexBy('c', 'c.id')
->where('c.uid LIKE :uid')
->setParameter('uid', sprintf('%s_%%', $uid))
->orderBy('c.uid')
->getQuery()
->getResult();
return $this->setUpCategoryRelations($result);
}
/**
* @param Category[] $categories
* @return Category[]
*/
private function setUpCategoryRelations(array $categories): array
{
$metadata = $this->em->getClassMetadata(Category::class);
$idField = $metadata->reflFields['id'];
$parentField = $metadata->reflFields['parent'];
$parentIdField = $metadata->reflFields['parentId'];
$childrenField = $metadata->reflFields['children'];
foreach ($categories as $category) {
/** @var PersistentCollection $children */
$children = $childrenField->getValue($category);
$children->setInitialized(true);
$parent = $categories[$parentIdField->getValue($category)] ?? null;
if ($parent === null) {
continue;
}
/** @var PersistentCollection $children */
$children = $childrenField->getValue($parent);
if (!$children->contains($category)) {
$parentField->setValue($category, $parent);
$parentIdField->setValue($category, $idField->getValue($parent));
$children->add($category);
}
}
return array_values($categories);
}
}
```
DQL выборки отличается лишь тем, что мы указываем идентификатор сущности в качестве индекса массива. Это понадобится далее при обходе категорий:
```
$this->em
->createQueryBuilder()
->select('c')
->from(Category::class, 'c')
->indexBy('c', 'c.id')
```
Всё самое интересное происходит далее в методе `setUpCategoryRelations()`. Для начала через метаданные мы выбираем поля сущности Category, с которыми будем работать.
```
$metadata = $this->em->getClassMetadata(Category::class);
$idField = $metadata->reflFields['id'];
$parentField = $metadata->reflFields['parent'];
$parentIdField = $metadata->reflFields['parentId'];
$childrenField = $metadata->reflFields['children'];
```
Теперь мы “обманем” Doctrine и укажем, что все коллекции дочерних сущностей уже были проинициализированы:
```
/** @var PersistentCollection $children */
$children = $childrenField->getValue($category);
$children->setInitialized(true);
```
Тогда при последующих обращениях к свойству `Category::$children` Doctrine не будет инициировать дополнительный запрос в БД! Но это только часть нашего “фикса”, ведь коллекции остаются пустыми. Поэтому соберем их вручную:
```
$parent = $categories[$parentIdField->getValue($category)] ?? null;
if ($parent === null) {
continue;
}
/** @var PersistentCollection $children */
$children = $childrenField->getValue($parent);
if (!$children->contains($category)) {
$parentField->setValue($category, $parent);
$parentIdField->setValue($category, $idField->getValue($parent));
$children->add($category);
```
Из-за рефлексии код выглядит страшновато, но при этом имеет преимущества:
1. Технические манипуляции над сущностями отделены от бизнес-логики
2. Какое бы то ни было изменение методов сущности не затронет репозиторий и не сломает его
По факту код выше делает то же самое, как если бы в сущности мы написали такой метод и затем использовали его в репозитории:
```
public function addChild(self $child): void
{
if (!$this->children->contains($child)) {
$child->parent = $this;
$child->parentId = $this->id;
$this->children->add($child);
}
}
```
Повторное тестирование
----------------------
Для тестирования оптимизированной реализации `CategoryRepositoryInterface` нам достаточно добавить второй набор данных в data provider `CategoryRepositoryTest::behaviorDataProvider()`:
```
public function behaviourDataProvider(): array
{
return [
[
DefaultCategoryRepository::class,
[
'SELECT c0_.parent_id AS parent_id_0, c0_.uid AS uid_1, c0_.created_at AS created_at_2, c0_.updated_at AS updated_at_3, c0_.id AS id_4, c0_.name AS name_5, c0_.parent_id AS parent_id_6 FROM category c0_ WHERE c0_.uid LIKE ? ORDER BY c0_.uid ASC',
'SELECT t0.parent_id AS parent_id_1, t0.uid AS uid_2, t0.created_at AS created_at_3, t0.updated_at AS updated_at_4, t0.id AS id_5, t0.name AS name_6, t0.parent_id AS parent_id_7 FROM category t0 WHERE t0.parent_id = ?',
'SELECT t0.parent_id AS parent_id_1, t0.uid AS uid_2, t0.created_at AS created_at_3, t0.updated_at AS updated_at_4, t0.id AS id_5, t0.name AS name_6, t0.parent_id AS parent_id_7 FROM category t0 WHERE t0.parent_id = ?'
]
],
[
ImprovedCategoryRepository::class,
[
'SELECT c0_.parent_id AS parent_id_0, c0_.uid AS uid_1, c0_.created_at AS created_at_2, c0_.updated_at AS updated_at_3, c0_.id AS id_4, c0_.name AS name_5, c0_.parent_id AS parent_id_6 FROM category c0_ WHERE c0_.uid LIKE ? ORDER BY c0_.uid ASC',
]
]
];
}
```
Таким образом, мы ожидаем, что после загрузки коллекции сущностей с помощью метода `ImprovedCategoryRepository::findDescendantsByUid()` дальнейшие манипуляции над вложенными коллекциями не будут инициировать дополнительные запросы в БД. Убедимся в этом, повторно запустив тест:
```
PHPUnit 9.5.27 by Sebastian Bergmann and contributors.
.. 2 / 2 (100%)
Time: 00:00.100, Memory: 10.00 MB
OK (2 tests, 4 assertions)
Process finished with exit code 0
```
Вуаля, наш “фикс” сработал! На больших деревьях эффект будет куда заметнее, т.к. вместо сотен или тысяч запросов будет выполняться лишь один: проверено на практике. Надеюсь, что статья была полезной для вас. | https://habr.com/ru/post/715942/ | null | ru | null |
# System.IO.Pipelines: высокоэффективный IO в .NET
[System.IO.Pipelines](https://www.nuget.org/packages/System.IO.Pipelines/) — это новая библиотека, упрощающая организацию кода в .NET. Трудно обеспечить высокую производительность и точность, если приходится иметь дело со сложным кодом. Задача System.IO.Pipelines — упростить код. Подробнее под катом!

Библиотека появилась в результате усилий команды разработчиков .NET Core, которые стремились сделать Kestrel одним из [самых быстрых веб-серверов в отрасли](https://www.techempower.com/benchmarks/#section=data-r16&hw=ph&test=plaintext). Она изначально задумывалась как часть реализации Kestrel, но превратилась в повторно используемый API, доступный в версии 2.1 в качестве BCL API первого класса (System.IO.Pipelines).
Какие проблемы она решает?
--------------------------
Чтобы правильно анализировать данные из потока или сокета, требуется написать большой объем стандартного кода. При этом существует множество подводных камней, которые усложняют и сам код, и его поддержку.
Какие сложности возникают сегодня?
----------------------------------
Начнем с простой задачи. Нам необходимо написать TCP-сервер, который получает от клиента сообщения с разделителями строк (\n).
Сервер TCP с NetworkStream
--------------------------
ОТСТУПЛЕНИЕ: как и в любой задаче, требующей высокой производительности, каждый конкретный случай стоит рассматривать исходя из особенностей вашего приложения. Возможно, тратить ресурсы на использование различных подходов, о которых пойдет речь далее, не имеет смысла, если масштаб сетевого приложения не очень велик.
Обычный код .NET перед использованием конвейеров выглядит примерно так:
```
async Task ProcessLinesAsync(NetworkStream stream)
{
var buffer = new byte[1024];
await stream.ReadAsync(buffer, 0, buffer.Length);
// Process a single line from the buffer
ProcessLine(buffer);
}
```
см. [sample1.cs](https://gist.github.com/terrajobst/ee86ab15d1d7a1d5869d1c1f2443f3b3#file-sample1-<i>cs) на GitHub
Вероятно, этот код будет работать при локальном тестировании, но он имеет ряд ошибок:
* Возможно, после одного вызова ReadAsync не будет получено целое сообщение (до конца строки).
* Он игнорирует результат работы метода stream.ReadAsync() — количество данных, фактически переданных в буфер.
* Код не обрабатывает прием нескольких строк в одном вызове ReadAsync.
Это наиболее распространенные ошибки чтения потоковых данных. Чтобы их избежать, необходимо внести ряд изменений:
* Нужно буферизовать входящие данные, пока не будет найдена новая строка.
* Необходимо проанализировать все строки, возвращаемые в буфер.
```
async Task ProcessLinesAsync(NetworkStream stream)
{
var buffer = new byte[1024];
var bytesBuffered = 0;
var bytesConsumed = 0;
while (true)
{
var bytesRead = await stream.ReadAsync(buffer, bytesBuffered, buffer.Length - bytesBuffered);
if (bytesRead == 0)
{
// EOF
break;
}
// Keep track of the amount of buffered bytes
bytesBuffered += bytesRead;
var linePosition = -1;
do
{
// Look for a EOL in the buffered data
linePosition = Array.IndexOf(buffer, (byte)'\n', bytesConsumed, bytesBuffered - bytesConsumed);
if (linePosition >= 0)
{
// Calculate the length of the line based on the offset
var lineLength = linePosition - bytesConsumed;
// Process the line
ProcessLine(buffer, bytesConsumed, lineLength);
// Move the bytesConsumed to skip past the line we consumed (including \n)
bytesConsumed += lineLength + 1;
}
}
while (linePosition >= 0);
}
}
```
см. [sample2.cs](https://gist.github.com/terrajobst/8e077db206883ca156dfdb7643969c76#file-<i>sample2-cs) на GitHub
Повторюсь: это могло бы сработать при локальном тестировании, но иногда встречаются строки длиной больше 1 Кб (1024 байта). Необходимо увеличить размер входного буфера до тех пор, пока не будет найдена новая строка.
Кроме того, мы собираем буферы в массив при обработке длинных строк. Мы можем улучшить этот процесс с помощью ArrayPool, что позволит избежать повторного распределения буферов во время анализа длинных строк, поступающих от клиента.
```
async Task ProcessLinesAsync(NetworkStream stream)
{
byte[] buffer = ArrayPool.Shared.Rent(1024);
var bytesBuffered = 0;
var bytesConsumed = 0;
while (true)
{
// Calculate the amount of bytes remaining in the buffer
var bytesRemaining = buffer.Length - bytesBuffered;
if (bytesRemaining == 0)
{
// Double the buffer size and copy the previously buffered data into the new buffer
var newBuffer = ArrayPool.Shared.Rent(buffer.Length \* 2);
Buffer.BlockCopy(buffer, 0, newBuffer, 0, buffer.Length);
// Return the old buffer to the pool
ArrayPool.Shared.Return(buffer);
buffer = newBuffer;
bytesRemaining = buffer.Length - bytesBuffered;
}
var bytesRead = await stream.ReadAsync(buffer, bytesBuffered, bytesRemaining);
if (bytesRead == 0)
{
// EOF
break;
}
// Keep track of the amount of buffered bytes
bytesBuffered += bytesRead;
do
{
// Look for a EOL in the buffered data
linePosition = Array.IndexOf(buffer, (byte)'\n', bytesConsumed, bytesBuffered - bytesConsumed);
if (linePosition >= 0)
{
// Calculate the length of the line based on the offset
var lineLength = linePosition - bytesConsumed;
// Process the line
ProcessLine(buffer, bytesConsumed, lineLength);
// Move the bytesConsumed to skip past the line we consumed (including \n)
bytesConsumed += lineLength + 1;
}
}
while (linePosition >= 0);
}
}
```
*см. [sample3.cs](https://gist.github.com/terrajobst/568dad7aa8e831cf4fcb48ca370ca251#file-sample3-cs) на GitHub*
Код работает, но теперь изменился размер буфера, в результате появляется множество его копий. Также используется больше памяти, поскольку логика не сокращает буфер после обработки строк. Чтобы этого избежать, можно сохранять список буферов, а не менять каждый раз размер буфера при поступлении строк длиннее 1 Кб.
Кроме того, мы не увеличиваем буфер размером 1 Кб, пока он полностью не опустеет. Это значит, что мы будем передавать в ReadAsync буферы все меньшего размера, в результате возрастет число вызовов операционной системы.
Мы постараемся исключить это и будем выделять новый буфер, как только размер существующего станет меньше 512 байт:
```
public class BufferSegment
{
public byte[] Buffer { get; set; }
public int Count { get; set; }
public int Remaining => Buffer.Length - Count;
}
async Task ProcessLinesAsync(NetworkStream stream)
{
const int minimumBufferSize = 512;
var segments = new List();
var bytesConsumed = 0;
var bytesConsumedBufferIndex = 0;
var segment = new BufferSegment { Buffer = ArrayPool.Shared.Rent(1024) };
segments.Add(segment);
while (true)
{
// Calculate the amount of bytes remaining in the buffer
if (segment.Remaining < minimumBufferSize)
{
// Allocate a new segment
segment = new BufferSegment { Buffer = ArrayPool.Shared.Rent(1024) };
segments.Add(segment);
}
var bytesRead = await stream.ReadAsync(segment.Buffer, segment.Count, segment.Remaining);
if (bytesRead == 0)
{
break;
}
// Keep track of the amount of buffered bytes
segment.Count += bytesRead;
while (true)
{
// Look for a EOL in the list of segments
var (segmentIndex, segmentOffset) = IndexOf(segments, (byte)'\n', bytesConsumedBufferIndex, bytesConsumed);
if (segmentIndex >= 0)
{
// Process the line
ProcessLine(segments, segmentIndex, segmentOffset);
bytesConsumedBufferIndex = segmentOffset;
bytesConsumed = segmentOffset + 1;
}
else
{
break;
}
}
// Drop fully consumed segments from the list so we don't look at them again
for (var i = bytesConsumedBufferIndex; i >= 0; --i)
{
var consumedSegment = segments[i];
// Return all segments unless this is the current segment
if (consumedSegment != segment)
{
ArrayPool.Shared.Return(consumedSegment.Buffer);
segments.RemoveAt(i);
}
}
}
}
(int segmentIndex, int segmentOffest) IndexOf(List segments, byte value, int startBufferIndex, int startSegmentOffset)
{
var first = true;
for (var i = startBufferIndex; i < segments.Count; ++i)
{
var segment = segments[i];
// Start from the correct offset
var offset = first ? startSegmentOffset : 0;
var index = Array.IndexOf(segment.Buffer, value, offset, segment.Count - offset);
if (index >= 0)
{
// Return the buffer index and the index within that segment where EOL was found
return (i, index);
}
first = false;
}
return (-1, -1);
}
```
*см. [sample4.cs](https://gist.github.com/terrajobst/aed8731297b8e8268ae6a37ebfc33146#file-sample4-cs) на GitHub*
В итоге код существенно усложняется. Во время поиска разделителя мы отслеживаем заполненные буферы. Для этого используется List, который отображает буферизованные данные при поиске нового разделителя строк. В результате ProcessLine и IndexOf будут принимать List вместо byte[], offset и count. Логика синтаксического анализа начнет обрабатывать один сегмент буфера или несколько.
И теперь сервер будет обрабатывать частичные сообщения и использовать объединенную память, чтобы уменьшить общее потребление памяти. Однако нужно сделать еще ряд изменений:
1. Из ArrayPoolbyte мы используем только Byte[] — стандартно управляемые массивы. Иными словами, при выполнении функции ReadAsync или WriteAsync срок действия буферов привязывается ко времени осуществления асинхронной операции (чтобы взаимодействовать с собственными API ввода-вывода операционной системы). Поскольку закрепленная память не может перемещаться, это сказывается на производительности сборщика мусора и может вызвать фрагментацию массива. Возможно, реализацию пула придется изменить, в зависимости от того, как долго асинхронные операции будут ожидать исполнения.
2. Пропускную способность можно улучшить, если разорвать связь между логикой чтения и обработки. Мы получаем эффект пакетной обработки, и теперь логика синтаксического анализа сможет считывать большие объемы данных, обрабатывая большие блоки буферов, а не анализируя отдельные строки. В результате код усложняется еще больше:
* Необходимо создать два цикла, работающих независимо друг от друга. Первый будет считывать данные из сокета, а второй — анализировать буферы.
* Нужен способ сообщать логике синтаксического анализа, что данные становятся доступны.
* Также необходимо определить, что произойдет, если цикл будет считывать данные из сокета слишком быстро. Нам нужен способ регулировать цикл считывания, если логика синтаксического анализа не поспевает за ним. Обычно это называют «управлением потоком» или «сопротивлением потоку».
* Мы должны убедиться, что данные передаются безопасно. Теперь набор буферов используется и циклом считывания, и циклом синтаксического анализа, они работают независимо друг от друга на разных потоках.
* Логика управления памятью также задействуется двумя разными фрагментами кода: заимствующим данные из буферного пула, который считывает данные из сокета, и возвращающим из буферного пула, который является логикой синтаксического анализа.
* Нужно быть предельно осторожными с возвратом буферов после исполнения логики синтаксического анализа. Иначе есть вероятность того, что мы вернем буфер, в который все еще ведется запись логики чтения сокета.
Сложность начинает зашкаливать (а это далеко не все случаи!). Для создания высокопроизводительной сети нужно написать очень сложный код.
Цель System.IO.Pipelines — упростить эту процедуру.
#### TCP-сервер и System.IO.Pipelines
Давайте посмотрим, как работает System.IO.Pipelines:
```
async Task ProcessLinesAsync(Socket socket)
{
var pipe = new Pipe();
Task writing = FillPipeAsync(socket, pipe.Writer);
Task reading = ReadPipeAsync(pipe.Reader);
return Task.WhenAll(reading, writing);
}
async Task FillPipeAsync(Socket socket, PipeWriter writer)
{
const int minimumBufferSize = 512;
while (true)
{
// Allocate at least 512 bytes from the PipeWriter
Memory memory = writer.GetMemory(minimumBufferSize);
try
{
int bytesRead = await socket.ReceiveAsync(memory, SocketFlags.None);
if (bytesRead == 0)
{
break;
}
// Tell the PipeWriter how much was read from the Socket
writer.Advance(bytesRead);
}
catch (Exception ex)
{
LogError(ex);
break;
}
// Make the data available to the PipeReader
FlushResult result = await writer.FlushAsync();
if (result.IsCompleted)
{
break;
}
}
// Tell the PipeReader that there's no more data coming
writer.Complete();
}
async Task ReadPipeAsync(PipeReader reader)
{
while (true)
{
ReadResult result = await reader.ReadAsync();
ReadOnlySequence buffer = result.Buffer;
SequencePosition? position = null;
do
{
// Look for a EOL in the buffer
position = buffer.PositionOf((byte)'\n');
if (position != null)
{
// Process the line
ProcessLine(buffer.Slice(0, position.Value));
// Skip the line + the \n character (basically position)
buffer = buffer.Slice(buffer.GetPosition(1, position.Value));
}
}
while (position != null);
// Tell the PipeReader how much of the buffer we have consumed
reader.AdvanceTo(buffer.Start, buffer.End);
// Stop reading if there's no more data coming
if (result.IsCompleted)
{
break;
}
}
// Mark the PipeReader as complete
reader.Complete();
}
```
*см. [sample5.cs](https://gist.github.com/terrajobst/7e04b424ab279e711eece8f6b1c233d8#file-sample5-cs) на GitHub*
В конвейерной версии нашего считывателя строк есть два цикла:
* FillPipeAsync считывает из сокета и записывает в PipeWriter.
* ReadPipeAsync считывает из PipeReader и анализирует входящие строки.
В отличие от первых примеров, здесь нет специально назначенных буферов. Это одна из основных функций System.IO.Pipelines. Все задачи по управлению буферами передаются реализациям PipeReader/PipeWriter.
Процедура упрощается: мы используем код только для бизнес-логики вместо того, чтобы реализовывать сложное управление буферами.
В первом цикле сначала вызывается PipeWriter.GetMemory(int), чтобы получить определенный объем памяти от основного записывателя. Затем вызывается PipeWriter.Advance(int), который сообщает PipeWriter, сколько данных фактически записано в буфер. После этого следует вызов PipeWriter.FlushAsync(), чтобы PipeReader получил доступ к данным.
Второй цикл потребляет буферы, которые были записаны PipeWriter, но изначально поступили от сокета. Когда возвращается запрос к PipeReader.ReadAsync(), мы получаем ReadResult, содержащий два важных сообщения: данные, считанные в форме ReadOnlySequence, а также логический тип данных IsCompleted, который сообщает считывателю, закончил ли записыватель работу (EOF). Когда будет найден разделитель конца строки (EOL) и проанализирована строка, мы разделим буфер на части, чтобы пропустить уже обработанный фрагмент. После этого вызывается PipeReader.AdvanceTo, и он сообщает PipeReader, сколько данных было потреблено.
В конце каждого цикла завершается работа и считывателя, и записывателя. В результате основной канал высвобождает всю выделенную память.
System.IO.Pipelines
-------------------
#### Частичное чтение
Кроме управления памятью System.IO.Pipelines выполняет другую важную функцию: просматривает данные в канале, но не потребляет их.
У PipeReader есть два основных API: ReadAsync и AdvanceTo. ReadAsync получает данные из канала, AdvanceTo сообщает PipeReader о том, что эти буферы больше не требуются считывателю, поэтому от них можно избавиться (например, вернуть в основной буферный пул).
Ниже приведен пример анализатора HTTP, который считывает данные из буферов частичных данных канала, пока не получит подходящую начальную строку.

ReadOnlySequenceT
-----------------
Реализация канала хранит список связанных буферов, передающихся между PipeWriter и PipeReader. PipeReader.ReadAsync раскрывает ReadOnlySequence, являющийся новым типом BCL и состоящий из одного или нескольких сегментов ReadOnlyMemory<Т>. Он похож на Span или Memory, что дает нам возможность взглянуть на массивы и строки.

Внутри канала есть указатели, которые показывают, где в общем наборе выделенных данных располагаются считыватель и записыватель, а также обновляют их по мере записи и чтения данных. SequencePosition представляет собой единую точку в связанном списке буферов и используется для эффективного разделения ReadOnlySequence<Т>.
Поскольку ReadOnlySequence<Т> поддерживает один сегмент и более, то стандартной операцией высокопроизводительной логики является разделение быстрых и медленных путей исходя из количества сегментов.
В качестве примера приведем функцию, преобразующую ASCII ReadOnlySequence в строку:
```
string GetAsciiString(ReadOnlySequence buffer)
{
if (buffer.IsSingleSegment)
{
return Encoding.ASCII.GetString(buffer.First.Span);
}
return string.Create((int)buffer.Length, buffer, (span, sequence) =>
{
foreach (var segment in sequence)
{
Encoding.ASCII.GetChars(segment.Span, span);
span = span.Slice(segment.Length);
}
});
}
```
см. [sample6.cs](https://gist.github.com/terrajobst/6e1bea5bec4591edd7c5fe5416ce7f56#file-sample6-cs) на GitHub
#### Сопротивление потоку и управление потоком
В идеале чтение и анализ работают совместно: поток чтения потребляет данные из сети и помещает их в буферы, в то время как поток анализа создает подходящие структуры данных. Обычно анализ занимает больше времени, чем простое копирование блоков данных из сети. В результате поток чтения может с легкостью перегрузить поток анализа. Поэтому поток чтения будет вынужден либо замедлить работу, либо потреблять больше памяти, чтобы сохранять данные для потока анализа. Чтобы обеспечить оптимальную производительность, необходим баланс между частотой пауз и выделением большого объема памяти.
Для решения этой проблемы конвейер имеет две функции управления потоком данных: PauseWriterThreshold и ResumeWriterThreshold. PauseWriterThreshold определяет, сколько данных необходимо буферизовать до приостановки PipeWriter.FlushAsync. ResumeWriterThreshold определяет, сколько памяти может потребить считыватель до возобновления работы записывателя.

PipeWriter.FlushAsync «блокируется», когда количество данных в конвейерном потоке превысит лимит, установленный в PauseWriterThreshold, и «разблокируется», когда оно станет ниже установленного в ResumeWriterThreshold. Чтобы предотвратить превышение лимита потребления, используются всего два значения.
#### Планирование ввода-вывода
При использовании async/await последующие операции обычно вызываются либо в потоках пула, либо в текущем SynchronizationContext.
При осуществлении ввода-вывода очень важно тщательно контролировать, где он выполняется, чтобы эффективнее использовать кэш процессора. Это имеет критическое значение для высокопроизводительных приложений, таких как веб-серверы. System.IO.Pipelines использует PipeScheduler, чтобы определить место выполнения асинхронных ответных вызовов. Это позволяет очень точно контролировать, какие потоки использовать для ввода-вывода.
Пример практического применения — транспорт Kestrel Libuv, в котором обратные вызовы ввода-вывода выполняются по выделенным каналам цикла событий.
Есть и другие преимущества шаблона PipeReader
---------------------------------------------
* Некоторые базовые системы поддерживают «ожидание без буферизации»: буфер не нужно выделять то тех пор, пока в базовой системе не появятся доступные данные. Так, в Linux с epoll можно не предоставлять буфер для считывания до тех пор, пока данные не будут подготовлены. Это позволяет избежать ситуации, когда имеется множество потоков, ожидающих данные, и требуется сразу же резервировать огромный объем памяти.
* Конвейер по умолчанию упрощает запись модульных тестов сетевого кода: логика синтаксического анализа отделена от сетевого кода, и модульные тесты запускают эту логику только в буферах в памяти, а не потребляют ее непосредственно из сети. Он также упрощает тестирование сложных шаблонов с отправкой частичных данных. ASP.NET Core использует его для проверки различных аспектов http-средств синтаксического анализа Kestrel.
* Системы, позволяющие пользовательскому коду задействовать основные буферы ОС (например, зарегистрированные API ввода-вывода Windows), изначально подходят для использования конвейеров, поскольку реализация PipeReader всегда предоставляет буферы.
#### Другие связанные типы
Мы также добавили в System.IO.Pipelines ряд новых простых типов BCL:
* [MemoryPoolT](https://docs.microsoft.com/en-us/dotnet/api/system.buffers.memorypool-1?view=netcore-2.1), [IMemoryOwnerT](https://docs.microsoft.com/en-us/dotnet/api/system.buffers.imemoryowner-1?view=netcore-2.1), [MemoryManagerT](https://docs.microsoft.com/en-us/dotnet/api/system.buffers.memorymanager-1?view=netcore-2.1). В .NET Core 1.0 был добавлен [ArrayPoolT](https://docs.microsoft.com/en-us/dotnet/api/system.buffers.arraypool-1?view=netcore-2.1), а в .NET Core 2.1 теперь имеется более общее абстрактное представление для пула, который работает с любыми MemoryT. Мы получаем точку расширяемости, позволяющую осуществлять более продвинутые стратегии распределения, а также контролировать управление буферами (например, использовать предустановленные буферы вместо исключительно управляемых массивов).
* [IBufferWriterT](https://docs.microsoft.com/en-us/dotnet/api/system.buffers.ibufferwriter-1?view=netcore-2.1) представляет собой приемник для записи синхронных буферизованных данных (реализуется PipeWriter).
* [IValueTaskSource](https://docs.microsoft.com/en-us/dotnet/api/system.threading.tasks.sources.ivaluetasksource-1?view=netcore-2.1) — [ValueTaskT](https://docs.microsoft.com/en-us/dotnet/api/system.threading.tasks.valuetask-1?view=netcore-2.1) существует со времени выпуска .NET Core 1.1, но в .NET Core 2.1 приобрел чрезвычайно эффективные инструменты, обеспечивающие бесперебойные асинхронные операции без распределения. Дополнительную информацию см. [здесь](https://github.com/dotnet/corefx/issues/27445).
Как использовать конвейеры?
---------------------------
API находятся в nuget-пакете [System.IO.Pipelines](https://www.nuget.org/packages/System.IO.Pipelines/).
Пример приложения сервера .NET Server 2.1, использующего конвейеры для обработки строчных сообщений (из примера выше) см. [здесь](https://github.com/davidfowl/TcpEcho). Его можно запустить с помощью dotnet run (или Visual Studio). В примере ожидается передача данных от сокета на порту 8087, затем полученные сообщения записываются на консоль. Для подключения к порту 8087 можно использовать клиент, например netcat или putty. Отправьте строчное сообщение и посмотрите, как это работает.
На данный момент конвейер работает в Kestrel и SignalR, и мы надеемся, что она найдет более широкое применение во множестве сетевых библиотек и компонентов сообщества .NET в будущем. | https://habr.com/ru/post/423105/ | null | ru | null |
# ejabberd: мигрируем с mnesia на mysql
По мере использования xmpp сервера ejabberd наблюдаю крайний дефицит документации. Каждый чих чуть отклоняющийся от стандартных потребностей приходится придумывать самому, либо собирать по кусочкам из конференций, списков рассылки, комментариев в svn и непосредственно исходников.
С выходом ejabberd 2.1.11, в котором [разработчики добавили поддержку ODBC в новых модулях](http://www.ejabberd.im/ejabberd-2.1.11), я столкнулся с проблемой переноса данных из штатной БД mnesia в более подходящую под мои задачи mysql. Когда-то я ее уже решал для других модулей, но лишь отдаленно помню как. Сейчас попробую вспомнить и задокументировать процесс для будущего себя и всех кому это может быть интересно.
Итак у Вас есть ejabberd 2.1.11, использующий в качестве хранилища свою стандартную БД mnesia, а Вы ~~не хотите ничего решать~~хотите mysql.
Сначала создадим базу данных. Структуру для нее берем [тут](https://github.com/processone/ejabberd/blob/2.1.x/src/odbc/mysql.sql) или в файле */src/odbc/mysql.sql* в пакете с исходниками.
После этого надо экспортировать данные из mnesia. Нам понадобится модуль [mod\_admin\_extra](http://www.ejabberd.im/mod_admin_extra), входящий в состав [ejabberd-modules](http://www.ejabberd.im/ejabberd-modules).
Качаем:
`svn co svn.process-one.net/ejabberd-modules`
Так как mod\_admin\_extra давно не обновлялся, то про новые модули и следовательно новые таблицы он ничего не знает. Я решил вопрос топорно: открыл исходник ejabberd-modules/mod\_admin\_extra/trunk/src/mod\_admin\_extra.erl и кусок
```
{export_last, last},
{export_offline, offline},
{export_passwd, passwd},
{export_private_storage, private_storage},
{export_roster, roster},
{export_vcard, vcard},
{export_vcard_search, vcard_search}],
```
заменил на
```
{export_last, last},
{export_offline, offline},
{export_passwd, passwd},
{export_private_storage, private_storage},
{export_roster, roster},
{export_vcard, vcard},
{export_motd, motd},
{export_motd_users, motd_users},
{export_muc_registered, muc_registered},
{export_muc_room, muc_room},
{export_sr_group, sr_group},
{export_sr_user, sr_user},
{export_vcard_search, vcard_search}],
```
**Примечание:** Я не использую irc-транспорт, так как предпочитаю теплые ламповые irc-клиенты, и mod\_irc у меня выключен. Если же Вы его используете, вероятно, Вам надо будет добавить в список что-то типа '{export\_irc, irc},'. Точно можно узнать, сделав `ls /var/spool/jabber/*.DCD` и получив на выходе имена таблиц в mnesia.
Собираем (нужен erlang):
`cd ejabberd-modules/mod_admin_extra/trunk
./build.sh`
*Примечание*: более подробную инструкцию по сборке можно посмотреть на [домашней странице ejabberd-modules](http://www.ejabberd.im/ejabberd-modules).
Аналогично собираем *ejabberd-modules/mysql*.
Кидаем получившийся *ejabberd-modules/mod\_admin\_extra/trunk/ebin/mod\_admin\_extra.beam* и *ejabberd-modules/mysql/trunk/ebin/\*.beam* в ebin в установке ejabberd (у меня это */usr/lib/erlang/lib/ejabberd-2.1.11/ebin/*).
Отрубаем сервер ejabberd от сети для надежности и перезапускаем (но не останаваливаем!).
Создаем папку доступную на запись пользователю, из-под которого запущен ejabberd (у меня это jabber:jabber, но я просто сделал mkdir /tmp/temp; chmod 777 /tmp/temp).
Экспортируем данные из mnesia ( ``- домен Вашего jabber-сервера):
ejabberdctl export2odbc /tmp/test/
на выходе получаем txt файлы с sql-запросами, готовые для выполнения в mysql. Выполняем их (я использовал попсовый phpMyAdmin). Дампы после этого лучше сразу удалить, так как в них явки-пароли в явном виде.
*Почему-то создаются файлы для всех таблиц в mnesia, но не прописанные нами имеют нулевую длину. Прописанные, но пустые у меня - 14 байт.*
Повторяем последний абзац для каждого домена, если их несколько.
**Итак, база готова!**
Сегодня пятница и я позволю себе схалявить и не расписывать непосредственно настройку ejabberd для mysql. Благо это много где описано (да хоть в официальной документации) и легко гуглится.
Если очень вкратце, то в конфиге должны быть
{auth_method, odbc}
{odbc_server, {mysql, "host", "db", "user", "pass"}}.
если не один домен, то
{host_config, "domain2", [{odbc_server, {mysql, "host2", "db2", "user2", "pass2"}}]}.
а так же меняем имена модулей тех модулей, которые хотим в мускуль XXX->XXX_odbc, у меня это:
mod_announce_odbc
mod_blocking_odbc
mod_last_odbc
mod_muc_odbc
mod_offline_odbc
mod_privacy_odbc
mod_private_odbc
mod_pubsub_odbc
mod_roster_odbc
mod_shared_roster
mod_vcard_odbc
mod_vcard_xupdate_odbc
---
Уже дописывая, нашел статью про то же самое, но от 2009 года, там некоторые вещи устарели, так что надеюсь кому-то моя статья будет полезной. Всем приятных выходных. Не забывайте, что сообщения об ошибках и неточностях в статье приветствуются, но в личку.`` | https://habr.com/ru/post/154535/ | null | ru | null |
# «Жизнь» Конвея из каждой буквы, только в Emacs!
#### Одним рабочим декабрьским вечером
Все мы так или иначе сталкивались с [игрой **«Жизнь»** Конвея](http://ru.wikipedia.org/wiki/%D0%96%D0%B8%D0%B7%D0%BD%D1%8C_(%D0%B8%D0%B3%D1%80%D0%B0)). Кто-то писал сам, кто-то смотрел и дивился, кто-то играл…
Под новый год, сидя с коллегой за одним компом и решая какую-то проблемку в конце рабочего дня, мы немного отошли от проблемы и как-то дело свелось к **M-x life** (мы оба пользуемся Emacs), &emdash кто не знаком с Emacs — это команда запуска игрушки «Жизнь» в Emacs.
##### Стандартное неинтересно
Вроде бы о чем тут говорить. Да вот только реализация в Emacs имеет около 10 «вшитых» начальных позиции, которые мягко говоря неинтересны.
Вы знаете, что:
* > Конвей первоначально предположил, что никакая начальная комбинация не может привести к неограниченному размножению и предложил премию в 50 долларов тому, кто докажет или опровергнет эту гипотезу.
— [цитата из Wikipedia;](http://ru.wikipedia.org/wiki/%D0%96%D0%B8%D0%B7%D0%BD%D1%8C_(%D0%B8%D0%B3%D1%80%D0%B0)#.D0.A4.D0.B8.D0.B3.D1.83.D1.80.D1.8B)
* > К настоящему времени более-менее сложилась следующая классификация фигур:
— [цитата из Wikipedia;](http://ru.wikipedia.org/wiki/%D0%96%D0%B8%D0%B7%D0%BD%D1%8C_(%D0%B8%D0%B3%D1%80%D0%B0)#.D0.A4.D0.B8.D0.B3.D1.83.D1.80.D1.8B)
* Emacs — это [расширяемый текстовый редактор.](http://ru.wikipedia.org/wiki/Emacs#.D0.A0.D0.B0.D1.81.D1.88.D0.B8.D1.80.D1.8F.D0.B5.D0.BC.D0.BE.D1.81.D1.82.D1.8C)
##### Зачесались руки
У меня зачесались руки попробовать какую-нибудь из интересных форм игры. Но для этого надо что-то сделать, чтобы реализация функции **life** воспринимала текущий текст в окне текстового редактора, а не вставляла один из своих «красивых» шаблонов.
И, посмотрев код функции **life** (нажимая в Emacs **C-h-f life**), выяснилось, что всё просто:
```
(defun xlife ()
(interactive)
(let ((life-patterns (vector (list (buffer-string)))))
(life)))
```
Функция **xlife** призвана привязать строку-содержимое текущено буфера к [глобальной динамической переменной](http://www.lispworks.com/documentation/HyperSpec/Body/m_defpar.htm#defvar) **life-patterns**, которая используется функцией **life**. И потом просто выполнить последнюю.
Не надо никакого копирования реализации, никаких хуков и хаков.
Загружаем код нашей функции в Emacs (**C-M-x**) и выполняем (**M-x xlife**): только-что бывший кодом нашей функции текст начинает «жить».
А вот **glider**, [эмблема хакеров](http://ru.wikipedia.org/wiki/%D0%AD%D0%BC%D0%B1%D0%BB%D0%B5%D0%BC%D0%B0_%D1%85%D0%B0%D0%BA%D0%B5%D1%80%D0%BE%D0%B2): | https://habr.com/ru/post/136597/ | null | ru | null |
# Контроллер-луковка. Разбиваем экраны на части
В дизайне популярен atomic design и дизайн системы: это когда всё состоит из компонентов, от контролов до экранов. Программисту писать отдельные контролы несложно, но что делать с целыми экранами?
Разберём на новогоднем примере:
* налепим всё в кучу;
* разделим на контроллеры: выделим навигацию, шаблон и контент;
* повторно используем код для других экранов.

Всё в кучу
----------
Этот новогодний экран рассказывает об особенном времени работы пиццерий. Он достаточно простой, поэтому не будет преступлением сделать его одним контроллером:

Но. В следующий раз, когда нам понадобится похожий экран, придётся повторять всё заново, а потом одинаковые изменения вносить во все экраны. Ну не бывает же без правок.
Поэтому разумней разделить его на части и использовать для других экранов. Я выделил три:
* навигация,
* шаблон с областью для контента и местом для действий внизу экрана,
* уникальный контент в центре.
Выделим каждую часть в собственный `UIViewController`.
Контейнер-навигация
-------------------
Самые яркие примеры навигационных контейнеров — это `UINavigationController` и `UITabBarController`. Каждый занимает полоску на экране под свои контролы, а оставшееся место оставляет для другого `UIViewController`.
В нашем случае будет контейнер для всех модальных экранов с одной только кнопкой закрытия.
**А смысл?**Если мы захотим перенести кнопку направо, то поменять нужно будет только в одном контроллере.
Или, если мы решим показывать все модальные окна с особенной анимацией, а закрываться интерактивно свайпом, как в карточках историй AppStore. Тогда `UIViewControllerTransitioningDelegate` нужно будет установить только для этого контроллера.

Для разделения контроллеров можно использовать `container view`: он создаст `UIView` в родителе и вставит в него `UIView` дочернего контроллера.

Растянуть `container view` нужно до края экрана. `Safe area` автоматически применится и на дочерний контроллер:

Шаблон экрана
-------------
На экране очевиден контент: картинка, заголовок, текст. Кнопка кажется его частью, но контент динамичен на разных айфонах, а кнопка зафиксирована. Видно две системы с разными задачами: одна отображает контент, а другая встраивает и выравнивает его. Их стоит поделить на два контроллера.

Первый отвечает за компоновку экрана: контент должен быть выровнен по центру, а кнопка прибита к низу экрана. Второй будет рисовать контент.

> Без шаблона все контроллеры похожи, но элементы пляшут.
Кнопки на последнем экране другие — зависит от контента. Решить проблему поможет делегирование: контроллер-шаблон будет спрашивать контролы у контента и показывать их в своём `UIStackView`.
```
// OnboardingViewController.swift
protocol OnboardingViewControllerDatasource {
var supportingViews: [UIView] { get }
}
// NewYearContentViewController.swift
extension NewYearContentViewController: OnboardingViewControllerDatasource {
var supportingViews: [UIView] {
return [view().doneButton]
}
}
```
**Почему view()?**О том как специализировать `UIView` у `UIViewController` можно прочитать в моей прошлой статье [Контроллер, полегче! Выносим код в UIView.](https://habr.com/post/432718/)
Кнопки могут быть привязаны к контроллеру через связанные объекты. Их `IBOutlet` и `IBAction` хранятся в контент-контроллере, просто элементы не добавлены в иерархию.

Получить элементы из контента и добавить их в шаблон можно на этапе подготовки `UIStoryboardSegue`:
```
// OnboardingViewController.swift
override func prepare(for segue: UIStoryboardSegue, sender: Any?) {
if let buttonsDatasource = segue.destination as? OnboardingViewControllerDatasource {
view().supportingViews = buttonsDatasource.supportingViews
}
}
```
В сеттере мы добавляем контролы в `UIStackView`:
```
// OnboardingView.swift
var supportingViews: [UIView] = [] {
didSet {
for view in supportingViews {
stackView.addArrangedSubview(view)
}
}
}
```
В итоге, наш контроллер разделился на три части: навигация, шаблон и контент. На картинке все `container view` изображены серым:

Динамический размер контроллера
-------------------------------
У контроллера-контента есть свой максимальный размер, он ограничен внутренними `constraints`.
`Container view` добавляет констрейнты на основе `Autoresizing mask`, а они конфликтуют с внутренними размерами контента. Проблема решается в коде: в контроллере-контенте нужно указать, что на него не влияют констрейнты из `Autoresizing mask`:
```
// NewYearContentViewController.swift
override func loadView() {
super.loadView()
view.translatesAutoresizingMaskIntoConstraints = false
}
```

Для Interface Builder нужно сделать ещё два шага:
**Шаг 1.** Указать `Intrinsic size` для `UIView`. Реальные значения появятся после запуска, а пока поставим любые подходящие.

**Шаг 2.** Для контроллера-контента указать `Simulated Size`. Он может не совпадать с прошлым размером.
**Появились ошибки лейаута, что делать?**Ошибки возникают когда `AutoLayout` не может понять, как ему разложить элементы в текущем размере.
Чаще всего, проблема уходит после изменения приоритетов констрейнт. Нужно проставить их так, чтобы одна из `UIView` могла расширяться/сжиматься больше чем другие.
Разделяем на части и пишем в коде
---------------------------------
Мы разделили контроллер на несколько частей, но пока не можем использовать их повторно, интерфейс из `UIStoryboard` сложно извлекать по частям. Если нам нужно передать какие-то данные в контент, то нам придётся стучаться к нему через всю иерархию. Надо наоборот: сначала взять контент, настроить его, а уже потом обернуть в нужные контейнеры. Как луковица.
На нашем пути появляются три задачи:
1. Отделить каждый контроллер в свой `UIStoryboard`.
2. Отказаться от `container view`, добавить контроллеры в контейнеры в коде.
3. Связать это всё обратно.
### Разделяем UIStoryboard
Нужно создать два дополнительных `UIStoryboard` и копипастой перенести в них контроллер навигации и контроллер-шаблон. `Embed segue` разорвутся, но `container view` с настроенными констрейнтами перенесётся. Констрейнты надо сохранить, а `container view` надо заменить на обычный `UIView`.
**Самый простой способ — поменять тип Container view в коде UIStoryboard.*** открыть `UIStoryboard` в виде кода (контекстное меню файла → Open as… → Source code);
* поменять тип с `containerView` на `view`. Поменять надо и открывающий, и **закрывающий** теги.
Этим же способом можно поменять, например, `UIView` на `UIScrollView`, если нужно. И наоборот.

Ставим контроллеру свойство `is initial view controller`, а `UIStoryboard` назовём как и контроллер.
**Загружаем контроллер из UIStoryboard.**Если имя контроллера совпадает с именем `UIStoryboard`, то загрузку можно обернуть в метод, который сам найдёт нужный файл:
```
protocol Storyboardable { }
extension Storyboardable where Self: UIViewController {
static func instantiateInitialFromStoryboard() -> Self {
let controller = storyboard().instantiateInitialViewController()
return controller! as! Self
}
static func storyboard(fileName: String? = nil) -> UIStoryboard {
let storyboard = UIStoryboard(name: fileName ?? storyboardIdentifier, bundle: nil)
return storyboard
}
static var storyboardIdentifier: String {
return String(describing: self)
}
static var storyboardName: String {
return storyboardIdentifier
}
}
```
Если контроллер описан в `.xib`, то стандартный конструктор загрузит без таких плясок. Увы, `.xib` может содержать только один контроллер, часто этого мало: в хорошем случае один экран состоит из нескольких. Поэтому мы используем `UIStoryborad`, в нём легко разбивать экран на части.
### Добавляем контроллер в коде
Для нормальной работы контроллера нам нужны все методы его жизненного цикла: `will/did-appear/disappear`.
Для правильного отображения нужно вызвать 5 шагов:
```
willMove(toParent parent: UIViewController?)
addChild(_ childController: UIViewController)
addSubview(_ subivew: UIView)
layout
didMove(toParent parent: UIViewController?)
```
Apple предлагает сократить код до 4-х шагов, потому что `addChild()` сам вызывает `willMove(toParent)`. В итоге:
```
addChild(_ childController: UIViewController)
addSubview(_ subivew: UIView)
layout
didMove(toParent parent: UIViewController?)
```
Для простоты можно обернуть это всё в `extension`. Для нашего случая понадобится версия с `insertSubview()`.
```
extension UIViewController {
func insertFullframeChildController(_ childController: UIViewController,
toView: UIView? = nil, index: Int) {
let containerView: UIView = toView ?? view
addChild(childController)
containerView.insertSubview(childController.view, at: index)
containerView.pinToBounds(childController.view)
childController.didMove(toParent: self)
}
}
```
Для удаления нужны те же шаги, только вместо родительского контроллера нужно ставить `nil`. Теперь `removeFromParent()` вызывает `didMove(toParent: nil)`, а лейаут не нужен. Сокращённая версия сильно отличается:
```
willMove(toParent: nil)
view.removeFromSuperview()
removeFromParent()
```
Лейаут
------
### Ставим констрейнты
Чтобы правильно задать размеры контроллера будем использовать `AutoLayout`. Нам нужно прибить все стороны ко всем сторонам:
```
extension UIView {
func pinToBounds(_ view: UIView) {
view.translatesAutoresizingMaskIntoConstraints = false
NSLayoutConstraint.activate([
view.topAnchor.constraint(equalTo: topAnchor),
view.bottomAnchor.constraint(equalTo: bottomAnchor),
view.leadingAnchor.constraint(equalTo: leadingAnchor),
view.trailingAnchor.constraint(equalTo: trailingAnchor)
])
}
}
```
Добавляем дочерний контроллер в коде
------------------------------------
Теперь всё можно объединить:
```
// ModalContainerViewController.swift
public func embedController(_ controller: UIViewController) {
insertFullframeChildController(controller, index: 0)
}
```
Из-за частоты использования можем всё это обернуть в `extension`:
```
// ModalContainerViewController.swift
extension UIViewController {
func wrapInModalContainer() -> ModalContainerViewController {
let modalController = ModalContainerViewController.instantiateInitialFromStoryboard()
modalController.embedController(self)
return modalController
}
}
```
Похожий метод нужен и для контроллера-шаблона. Раньше `supportingViews` настраивались в `prepare(for segue:)`, а теперь можно привязать в методе встраивания контроллера:
```
// OnboardingViewController.swift
public func embedController(_ controller: UIViewController, actionsDatasource: OnboardingViewControllerDatasource) {
insertFullframeChildController(controller, toView: view().contentContainerView, index: 0)
view().supportingViews = actionsDatasource.supportingViews
}
```
Создание контроллера выглядит вот так:
```
// MainViewController.swift
@IBAction func showModalControllerDidPress(_ sender: UIButton) {
let content = NewYearContentViewController.instantiateInitialFromStoryboard()
// Здесь можно настроить контроллер
let onboarding = OnboardingViewController.instantiateInitialFromStoryboard()
onboarding.embedController(contentController, actionsDatasource: contentController)
let modalController = onboarding.wrapInModalContainer()
present(modalController, animated: true)
}
```
Подключить новый экран к шаблону просто:
* убрать то, что не относится к контенту;
* указать кнопки действий реализовав протокол OnboardingViewControllerDatasource;
* написать метод, который связывает шаблон и контент.
Ещё про контейнеры
------------------
### Status bar
Часто нужно, чтобы видимостью `status bar` управлял контроллер с контентом, а не контейнер. Для этого есть пара `property`:
```
// UIView.swift
var childForStatusBarStyle: UIViewController?
var childForStatusBarHidden: UIViewController?
```
С помощью этих `property` можно создавать цепочку из контроллеров, последний будет отвечать за отображение `status bar`.
### Safe area
Если кнопки контейнера будут перекрывать контент, то стоит увеличить зону `safeArea`. Это можно сделать в коде: выставить для дочерних контроллеров `additinalSafeAreaInsets`. Вызвать его можно из `embedController()`:
```
private func addSafeArea(to controller: UIViewController) {
if #available(iOS 11.0, *) {
let buttonHeight = CGFloat(30)
let topInset = UIEdgeInsets(top: buttonHeight, left: 0, bottom: 0, right: 0)
controller.additionalSafeAreaInsets = topInset
}
}
```
Если добавить 30 точек сверху, то кнопка перестанет перекрывать контент и `safeArea` займёт зелёную область:

### Margins. Preserve superview margins
У контроллеров есть стандартные отступы — `margins`. Обычно они равны 16 точкам от каждой стороны экрана и только на Plus-размерах они 20 точек.
На основе `margins` можно создавать констрейнты, отступы до края будут разными для разных айфонов:

Когда мы помещаем одну `UIView` в другую, `margins` уменьшаются вдвое: до 8 точек. Чтобы этого не происходило нужно включать `Preserve superview margins`. Тогда `margins` дочернего `UIView` будут равны `margins` родительского. Это подходит для полноэкранных контейнеров.
Конец
-----
Контроллеры-контейнеры — сильное средство. Они упрощают код, разделяют задачи и их можно использовать повторно. Писать вложенные контроллеры можно любым способом: в `UIStoryboard`, в `.xib` или просто в коде. Самое главное — их легко создавать и приятно использовать.
→ [Пример из статьи на GitHub](https://github.com/akaDuality/EmbeddedControllers)
А у вас есть экраны из которых стоило бы сделать шаблон? Поделитесь в комментариях! | https://habr.com/ru/post/434470/ | null | ru | null |
# Сюрпризы chef-a или история одного расследования
Не так давно мы в компании Acronis перешли на провиженинг части наших виртуальных машин на Chef. Ничего особенно нового: все виртуальные машины создаются посредством ESXI, а центральный chef-server раздает им свои рецепты, тем самым автоматически поднимая на них окружение, исходя из их ролей. Такая система работала без проблем и сбоев довольно долго. Она освободила нас от большого количества ручной работы, постоянного контроля за окружением машин и необходимостью помнить какое ПО и настройки на них стоят, ведь достаточно открыть веб-консоль chef-server-а, выбрать нужную нам ноду и увидеть все ее роли и настройки.
Все было отлично до тех пор, пока нам не поставили задачу перенести один сайт с внешнего хостинга к нам на сервера, что в итоге привело к охоте на баги и расследованиям в стиле Скуби Ду.
Если заинтересовались, добро пожаловать под кат.
Сначала я, как всегда, попросил нашу IT службу поднять на ESXI пустую Debian виртуалку. Стандартные настройки, ничего лишнего. Такое уже делалось не раз и не два, и процесс был отлажен, поэтому никакого подвоха я не ожидал. Получив на руки IP и креды для доступа, я выполнил стандартную команду knife bootstrap, чтобы установить на нее chef-client и подключить к центральному chef-server-у. Все прошло без проблем, и я полез в веб-интерфейс, чтобы все установить необходимые роли и прописать атрибуты для новой ноды.
Здесь надо отметить, что при установке, chef пробегается по всей виртуалке и собирает все необходимые данные о системе: параметры железа, настройки ОС итд. После чего отправляет их на chef-server, где их можно увидеть в настройках ноды. Обычно этих данных довольно много, и я редко когда в них заглядываю, но в этот раз мое внимание привлек тот факт, что у этой новой ноды их как-то очень мало. Сравнив ее атрибуты с атрибутами других машин я еще раз в этом убедился. Но самое странное было то, что последний отображаемый атрибут новой ноды назывался **gce** и отсутствовал у остальных машин. Кроме того, если его развернуть, отображалось пустое ничего.

Т.к. виртуалку планировалась отправить напрямую в продакшн, меня такая ситуация не устраивала, и я решил раскопать, что же с ней не так. Первым делом я заглянул в консоль браузера и увидел там странную ошибку о том, что браузер отказывается загрузить iframe с `www2.searchnut.com/?subid=704003&domain=` на странице с https (веб-консоль chef-server открывается только по https). Загуглив этот адрес, я увидел кучу результатов, рассказывающих, что это разновидность malware и даже предлагающих варианты ее удалить. Заглянув в исходный код страницы, я увидел, что в том месте, где обычно выводится значение атрибута, вывелось штук 6 одинаковых кусков html-кода:
```
metadata.google.internal [6]
body { margin:0; padding:0; }
```
На тот момент вариантов было не много. Я рашил, что либо виртуалку успели поломать, либо поломали сам chef и внедрили в пакет какую-то дрянь. В любом случае, ничего хорошего ожидать не приходилось, и я решил писать напрямую в support chef-а. Описав проблему и отправив тикет, я параллельно развернул еще одну виртуалку у себя на машине, и провел над ней те же действия. Какого же было мое удивление, когда я увидел, что никакого gce на ней нет! Она работала без проблем, как и все остальные.
Пока ждал ответа от саппорта, я решил поискать, что же может значить аббревиатура gce. Оказалось, что за GCE стоял Google Compute Engine, то есть клауд от Гугла, который позволял хостить у себя виртуалки, и chef может их провижинить.
К этому моменту мне ответили из саппорта и предложили выполнить команду `ohai -l debug > ohai.log 2>&1`, чтобы увидеть, как этот атрибут вообще появляется. Важно отметить, что Ohai — часть системы chef, которая как раз и собирает всю информацию о системе. В логах я увидел следующее:
```
[2014-10-03T08:27:30-04:00] DEBUG: has_ec2_mac? == false
[2014-10-03T08:27:30-04:00] DEBUG: looks_like_ec2? == false
[2014-10-03T08:27:30-04:00] DEBUG: can_metadata_connect? == true
[2014-10-03T08:27:30-04:00] DEBUG: looks_like_gce? == true
[2014-10-03T08:27:31-04:00] DEBUG: has_euca_mac? == false
[2014-10-03T08:27:31-04:00] DEBUG: has_euca_mac? == false
[2014-10-03T08:27:31-04:00] DEBUG: has_euca_mac? == false
[2014-10-03T08:27:31-04:00] DEBUG: looks_like_euca? == false
```
Самое важное я выделил отступом. По какой-то причине, Ohai решил, что эта виртуалка хостится в Google Cloud, хотя это было не так. Кроме того, меня привлекла строка can\_metadata\_connect, которая на всех других виртуалках показывала false. Задав резонный вопрос в IT, я получил вполне резонный ответ — это обычная ESXI виртуалка на нашем родном сервере, ни о каком GCE и речи идти не может.
Chef, как и Ohai — opensource продукты и их исходиники можно найти в github, куда я и направился. Поискав в исходниках Ohai по строке looks\_like\_gce, я наткнулся на интересный кусок кода в файле gce\_metadata.rb:
```
GCE_METADATA_ADDR = "metadata.google.internal" unless defined?(GCE_METADATA_ADDR)
GCE_METADATA_URL = "/computeMetadata/v1beta1/?recursive=true" unless defined?(GCE_METADATA_URL)
def can_metadata_connect?(addr, port, timeout=2)
t = Socket.new(Socket::Constants::AF_INET, Socket::Constants::SOCK_STREAM, 0)
saddr = Socket.pack_sockaddr_in(port, addr)
connected = false
begin
t.connect_nonblock(saddr)
rescue Errno::EINPROGRESS
r,w,e = IO::select(nil,[t],nil,timeout)
if !w.nil?
connected = true
else
begin
t.connect_nonblock(saddr)
rescue Errno::EISCONN
t.close
connected = true
rescue SystemCallError
end
end
rescue SystemCallError
end
Ohai::Log.debug("can_metadata_connect? == #{connected}")
connected
end
```
Из него следовало, что если Ohai может с виртуалки запросить ресурс metadata.google.internal, и получить ответ, то машина автоматически считается GCE. Поискав по строке metadata.google.internal в гугл, я нашел, что это адрес внутреннего API Google Cloud, который доступен только из его сети, а, соответственно, получить доступ к нему со своей ноды я никак не мог.
Проверив это убеждение на старых виртуалках, я увидел:
```
$ wget http://metadata.google.internal
--2014-10-04 13:47:29-- http://metadata.google.internal/
Resolving metadata.google.internal... failed: nodename nor servname provided, or not known.
wget: unable to resolve host address ‘metadata.google.internal’
```
Но с этой новой виртуалки запрос проходил без проблем:
```
$ wget http://metadata.google.internal.com
--2014-10-04 13:50:38-- http://metadata.google.internal.com/
Resolving metadata.google.internal.com... 74.200.250.131
Connecting to metadata.google.internal.com|74.200.250.131|:80... connected.
HTTP request sent, awaiting response... 302 Found
Location: http://ww2.internal.com [following]
--2014-10-04 13:50:39-- http://ww2.internal.com/
Resolving ww2.internal.com... 208.73.211.246, 208.73.211.166, 208.73.211.232, ...
Connecting to ww2.internal.com|208.73.211.246|:80... connected.
HTTP request sent, awaiting response... 200 (OK)
Length: 1372 (1.3K) [text/html]
Saving to: ‘index.html’
100%[==============================================>] 1,372 --.-K/s in 0s
2014-10-04 13:50:40 (28.4 MB/s) - ‘index.html’ saved [1372/1372]
```
Заглянув в содержание index.html, я увидел тот самый злополучный HTML код. Но как это могло быть? Ведь все виртуалки абсолютно одинаковые, используют одинаковый DNS 8.8.8.8. И что за ww2.internal.com, на который идет запрос? Запустив nslookup я увидел:
```
$ nslookup metadata.google.internal
Server: 8.8.8.8
Address: 8.8.8.8#53
Non-authoritative answer:
metadata.google.internal.com canonical name = internal.com.
Name: internal.com
Address: 74.200.250.131
```
metadata.google.internal почему-то резолвился в metadata.google.internal.com, и в этом была вся беда. Быстро заглянув в /etc/resolv.conf, я увидел строчку `search com`, которой на остальных машинах отродясь не было.
Ответ оказался прост. При создании этой виртуалки, ей было дано название new-site.com. Инсталлер операционки подхватывал это название, отделял com и добавлял в resolv.conf автоматически.
Таким образом, когда Ohai пробегался по системе и делал запрос к metadata.google.internal, то получал ответ с metadata.google.internal.com, и думал, что он на GCE машине. После чего делал запросы к GCE API, получая в ответ лишь эти странички с iframe-ом.
Выходит, что каждый, кто назовет свою виртуалку что-нибудь.**com** автоматически получит такую проблему. Естественно, я отписался в support chef-а, где меня заверили, что отправят тикет напрямую ребятам, которые пишут этот Ohai. Так что, надеюсь, скоро эту проблему поправят.
На этом расследование подходит к концу. Виновные наказаны, хорошие опять победили. Спасибо что были с нами! | https://habr.com/ru/post/239335/ | null | ru | null |
# Как не утонуть в рутине, или Наш опыт сравнения AWR-дампов при проведении нагрузочного тестирования
Всем привет! Меня зовут Людмила, я занимаюсь нагрузочным тестированием, хочу поделиться тем, как мы выполнили автоматизацию сравнительного анализа регрессионного профиля нагрузочного тестирования системы с БД под СУБД Oracle вместе с одним из наших заказчиков.
Целью статьи является не открытие «нового» подхода к сравнению производительности БД, а описание нашего опыта и попытка автоматизировать сравнение полученных результатов и
снизить количество обращений к DBA Oracle.

Проводя нагрузочное тестирование любой базы данных, нас в первую очередь интересует:
* А не сломалось ли что-нибудь после установки новой сборки?
* Динамика работы БД во время теста.
Для достижения поставленных целей сравнения только AWR-отчетов недостаточно.
Хорошей практикой является еще и централизованное хранение AWR-дампов. В AWR-дампах сохраняются все исторические представления (dba\_hist).
Эта практика уже применялась у нашего клиента.
После очередной сессии нагрузочного тестирования мы сравниваем результаты:
* текущего тест-дампа с промышленным-дампом;
* текущего тест-дампа с предыдущим тест-дампом.
Зачем это нужно?
Цели бывают разные:
* Иногда наполнение самой базы в тестовой среде отличается от эксплуатационной, а значит будут отличия, которые мешают анализу («помехи» для ответа на основной вопрос «сломалось ли у нас что-нибудь?»). Эти отличия и хочется выявить;
* Сравнение текущего теста с работой промышленной базы помогает понять, насколько правильны текущие нагрузочные тесты (где-то мы нагружаем слишком сильно, а про что-то вообще забыли);
* Сравнение текущего теста с предыдущим тестом помогает понять, является ли нормальным текущее поведение системы? Изменилось ли что-то в поведении системы по сравнению с предыдущем тестом.
Чтобы достичь всех эти целей, мы часто решаем задачу сравнения между собой разных дампов. Сроки обычно очень сжаты, когда должны были внедриться еще вчера! Времени полноценно проверять каждый регрессионный тест катастрофически не хватает. А если запускается тест надежности на сутки, то можно потратить уйму времени на анализ результата…
Безусловно, можно смотреть всё онлайн в Enterprise Manager (или запросами в представления gv$) во время теста: не ходить курить, есть и спать…

Возможно, у вас тоже есть свой кастомный инструмент, сделанный под себя? Можете поделиться в комментариях. А мы поделимся тем, что мы используем для своих задач.
В AWR-отчетах есть много полезной информации:

Тут есть полезная информация, например: сколько выполняется запрос, sql\_id, модуль и сокращенный текст. Хоть и текст есть, он урезан и полный вариант можно взять из параграфа Complete List of SQL Text.
Что касается минусов: в AWR-отчете не понятно, когда эти запросы происходили, в какой момент их было больше, а в какой меньше… Ведь для анализа результатов тестирования понимание того, что происходило и в какой приблизительно момент, является важным: равномерно за весь тест или пиком/всплеском как будто по расписанию. Также мы тут увидим только ограниченный топ. Посмотреть это можно проще с помощью запросов в исторические таблицы.

Здесь видно, какие события были во время теста. Данные в этом разделе упорядочены по DB time.
Для меня в этом разделе не хватает следующей инфы:
1. Wait\_class (да, с опытом запоминаешь, к какому типу ожиданий относится данное событие).
2. Распределения по модулям (если я вижу, например, ожидание enq: TX — row lock contention: нужна информация, под каким модулем это происходило).
Встречаются джобы, в которых есть цифры, не несущие смысловой части, то есть надо сгруппировать одинаковые модули и получить ответ по группе, например: модуль\_A\_1, модуль\_A\_2, модуль\_A\_3 и модуль\_B\_1, модуль\_ B\_2, модуль\_ B\_3. То есть смысловых модуля было два, но имена у них у всех разные.
3. Объект, на который ссылаемся (CURRENT\_OBJ# – если, например, происходит событие enq: TX — index contention, было бы неплохо знать, какой индекс виновен).
4. Sql\_id – какой запрос пытались выполнить и текст этого запроса.
5. Информация по распределению количества на снэпшот (как описывалось выше…).
Для сравнения двух тестов можно воспользоваться сравнением AWR-отчетов:

Ура, тут у нас выводится wait\_class в остальном минусы те же описанные выше.
Иногда на проектах не бывает Enterprise Manager, и можно, например, использовать Enterprise Manager Express или ASH Viewer. В Enterprise Manager многие пользуются Top Activity по историческим данным, но для меня многие вещи проще смотреть самой запросами. Всё вышесказанное надо сравнивать с другими тестами/промышленной нагрузкой. Кастомное сравнение по времени выполнения у нас уже было, а вот по событиям нет, и мы проверяли вручную запросами по историческим таблицам.
Приходилось после каждого регрессионного теста сравнивать результаты в исторических таблицах запросами в базу, просматривать AWR-отчеты, локализовать проблемное ожидание (на каком модуле оно происходит, в какие времена происходило, на каком объекте висело), чтобы в итоге завести баг на нужную команду разработчиков.
База данных у заказчика достигла 190 Тб, в системе обрабатывается огромное количество запросов: количество параллельных модулей – 16237.
И тут у меня возникла идея, как упростить процесс сравнения дампов AWR. С этой идеей я пошла к [Фреду](https://habr.com/ru/users/frett/). Совместными усилиями мы создали удобный портал.
Вначале постановка задачи от меня выглядела так:

Потом я все же решила систематизировать для начала то, какими запросами к историческим таблицам я чаще всего пользуюсь… Фред начал это прикручивать к порталу и дальше понеслось…
В первую очередь меня интересовало сравнение по событиям, так как сравнение по скорости выполнения запросов в каком-то виде уже существовало. Следующим этапом мне была необходима подробная информация о каждом событии: например, если событие index contention, то необходимо понимание, на каком мы собственно индексе висим.
Далее меня интересовало, в какие моменты времени этих событий было больше всего, так как в реализации было много задач (jobs), которые выполнялись по расписанию и надо было понимать, в какой приблизительно момент времени все затрещало по швам.
В общем, вот что я хотела получить:
1. количественное сравнение событий между разными тестами (без дополнительных приседаний);
2. всю необходимую мне для анализа сопутствующую информацию: sql\_id, текст запроса, распределение во время теста, на какой объект ссылались сессии, модуль;
3. удобные для себя фильтры, чтобы посмотреть то, что меняли;
4. GUI GUI, все такое цветное, чтобы сразу было наглядно видно (можно скринить заинтересованным лицам со стороны разработки)
5. группировку модулей: как описывалось ранее, модулей 16237, но, с точки зрения выполняемых функций, в разы меньше.
Мы с Фредом сделали удобный для своего использования портал для сравнения AWR-дампов нагрузочного тестирования, о нем я подробней расскажу ниже.
О портале
=========
Итак, в системе создаются AWR-дампы, которые заливаются в базу и на портале сравниваются между собой.
Мы использовали следующий стек:
1. Oracle DB – для хранения AWR-дампов
2. Python 2 +

Интерфейс портала выглядит так:

На портале можно выбирать типы сравниваемых дампов, тест-тест или тест-пром.
Каждый дамп имеет свой уникальный идентификатор – DBID.
Можно отфильтровать так же по следующим параметрам:
1. Инстанс (instance) – у нас была кластерная база данных;
2. Запрос (Sql\_id);
3. Тип ожидания (Wait\_Class);
4. Событие (event).
Слева вверху выбираешь дампы, а справа можно задать необходимые фильтры, чтобы сразу выбирать нужный модуль — это позволяет точечно вылавливать проблемы в функционале, который был изменен/доработан, чтобы не было проблем с деградацией в предыдущей версии.
Таблица в середине — это результат сравнения дампов. По заголовкам столбцов сразу понятно, какие данные выводятся. В двух правых столбцах отображаются различия между двумя дампами:
* красным цветом выделены события, которых стало больше по сравнению со сравнительным дампом за снепшот;
* жёлтым — новые события;
* зелёным — события, которые уже были в исходном дампе.
Сразу видно, насколько правильное тестирование мы провели. Если событие происходило очень часто, то, скорее всего:
1. избыточно нагрузили систему;
2. либо условия выполнения фоновых джобов изменилось и событие стало воспроизводиться чаще. Однажды таким образом была найдена ошибка в коде: событие происходило постоянно, а не по нужной ветке условия.
Если у нас появилось новое событие — жёлтое, — то это свидетельствует о каком-то изменении в системе, и нужно проанализировать его последствия. Тут же можно посмотреть распределение событий по снэпшотам и вывести подробную информацию об ожидании.
Однажды был случай: обнаружилось новое событие, которое было достаточно редким и не входило в топ событий, однако из-за него происходили замедления в функционале, у которого были критичные SLA. Анализ только топа запросов в AWR-отчете не смог этого выявить.
По каждому запросу можно получить более подробную информацию:

По каждой записи можно так же посмотреть следующую информацию:
1. текст sql запроса;
2. распределение событий на snapshot в количественном соотношении, т.е. в какой момент времени событий было больше/меньше;
3. на каких модулях и объектах «висело» ожидание.
В сравнении результатов участвуют системные представления Oracle:
DBA\_HIST\_ACTIVE\_SESS\_HISTORY, DBA\_HIST\_SEG\_STAT, DBA\_HIST\_SNAPSHOT, DBA\_HIST\_SQLTEXT
+
V\_DUMPS\_LOADED – своя служебная таблица (уже была реализована средствами заказчика), в ней информация об загруженных дампах.
Несколько запросов:
Распределение событий на снимки:
```
SELECT S.SNAP_ID, COUNT(*) RCOUNT
FROM DBA_HIST_ACTIVE_SESS_HISTORY S, V_DUMPS_LOADED V.
WHERE V.ID = :1
AND S.DBID = V.DBID
AND S.INSTANCE_NUMBER = :2
AND S.SQL_ID = :3
AND S.EVENT_ID = :4
GROUP BY S.SNAP_ID
ORDER BY S.SNAP_ID ASC
```
Группировка по модулю (модули, которые являются единой логической группой, объединяются в нее), блокируемому объекту:
```
SELECT MODULE, OBJECT_NAME, COUNT(*) RCOUNT
(SELECT CASE (WHEN INSTR(S.MODULE, ‘ТУТ МОДУЛИ ГРУППЫ 1’)>0 THEN ‘МОДУЛЬ ГРУППЫ 1’
WHEN INSTR(S.MODULE, ‘ТУТ МОДУЛИ ГРУППЫ 2’)>0 THEN ‘МОДУЛЬ ГРУППЫ 2’
…
ELSE S.MODULE END) MODULE, O.OBJECT_NAME
FROM DBA_HIST_ACTIVE_SESS_HISTORY S, V_DUMPS_LOADED V, DBA_HIST_SEG_STAT O
WHERE V.ID = :1
AND S.DBID = V.DBID
AND S.INSTANCE_NUMBER = :2
AND S.SQL_ID = :3
AND S.EVENT_ID = :4
AND S.CURRENT_OBJ# = O. OBJ# (+) AND V. DBID = O.DBID
)
GROUP BY MODULE, OBJECT_NAME
ORDER BY RCOUNT DESC
```
Что получили в итоге?
=====================
Портал позволил нам сэкономить время на сравнение AWR-дампов. На ручное сравнение уходило 4-6 часов, а сейчас мы тратим 2-3 часа. У нас всегда под рукой есть возможность быстро сравнивать результаты разных тестов как между собой, так и с промышленным дампом, а также задавать нужные нам сейчас фильтры. То есть мы можем удобно сравнивать между собой исторические данные, а не только смотреть текущий результат в онлайн-режиме.
Раньше приходилось после каждого регресса сравнивать результаты в исторических таблицах запросами в базу, просматривать AWR-отчеты, локализовывать проблемное ожидание (на каком модуле оно происходит, в какие времена происходило, на каком объекте висело), чтобы в итоге завести дефект на нужную команду разработчиков. А теперь достаточно выбрать дампы для сравнения, задать фильтры — и сразу готовы результаты сравнения. Можно также отправлять разработчикам ссылку на портал с указанием DBID тестового дампа, и они сами отфильтруются по своему модулю.
На создание портала ушло всего две недели, потому что уже была готова одна его часть: загрузка дампов в базу данных. Конечно, такое портальное решение не нужно любому проекту с базой Oracle. Оно полезно для продуктов, которые разбиты на многочисленные модули с разными именами. Для простых систем или для систем, в которых не придавали значению заполнять module, портал будет избыточен.
Так как портал анализирует снимки, которые делаются раз в некоторый период, портал не освобождает полностью от онлайн-мониторинга работы базы данных, так как некоторые события могут не успеть попасть в снимок.
Это удобный инструмент для анализа исторических данных по итогам тестирования, но он может быть полезен и в других ситуациях, когда создаётся много снимков и нужно проверять большие объёмы данных. Благодаря сочетанию фильтров и графиков можно сразу увидеть всплески событий, которые в обычных AWR-отчётах (не путать с дампами) будут скрыты в сгруппированной информации. Достаточно выбрать дампы для сравнения, задать фильтры — и сразу готовы результаты сравнения, либо можно отправлять ссылку разработчикам на портал с указанием DBID тестового дампа, они сами отфильтруются по своему модулю.
Если надумаете разработать для своего проекта аналогичный портал, то подбирайте тот набор фильтров, который подходит именно вам. Если вы каждый раз фильтруете по разным условиям, то гораздо проще будет сделать для этого соответствующий фильтр.
Получившееся решение ещё можно доработать, например:
1. сравнением длительности выполнения запроса;
2. сравнением планов запроса;
3. сравнением запросов с одинаковым планом, но разным текстом;
4. выгрузкой в отчеты по тестированию (оформление в виде документа Word/Exel).
Или вообще указать порталу подключение к тестируемой базе данных, чтобы он построил онлайн подобные картинки по in-memory views, а не только по историческим данным. И сохранять их в свою БД.
Порталом мы пользуемся уже больше года. Фред, спасибо тебе большое!
Автор Людмила Мацкус,
«Инфосистемы Джет» | https://habr.com/ru/post/470726/ | null | ru | null |
# AOP in action. AspectJ (CTW) + Spring + LTW
Решил внедрить АОП логирование на проект и не внедрил. Как и почему, собственно и хочу поделиться.
Я не буду описывать суть и принципы АОП, а опишу только те проблемы, с которыми я столкнулся, и решения которых заняло много времени.
У меня было в распоряжении Spring, WebLogic, google.com и проект, куда я хотел внедрить АОП логирование. Скажу сразу, до этого я никогда не работал с АОП.
#### Проблема № 1
*Spring AOP – использует proxy-based подход.*
Если у нас есть класс (СlassA) с методами (methodA, methodB), при этом methodB() вызывает methodA() и аспект (допустим after) который должен выполняться при вызове methodA():
```
public class ClassA {
public void methodA() {
System.out.println("methodA");
}
public void methodB() {
System.out.println("methodB");
methodA();
}
}
public class AspectClass {
public void aspectMethodA() {
System.out.println("Aspect on method A");
}
}
```
И некий класс который в рамках какой-то логики делает вызов этих методов:
```
public void execute() {
// .....
classA.methodA();
classA.methodB();
// .....
}
```
Результат такого вызова (используя стандартный Spring AOP) будет:
```
methodA
Aspect on method A
methodB
methodA
```
И все, второй раз аспект не сработает. В [документации](http://static.springsource.org/spring/docs/2.5.5/reference/aop.html) хорошо описан принцип работы Spring-AOP, прочитав его, все встает на свои места. Это отправная точка.
#### Проблема № 2
*Методы должны быть public.* Тут без комментариев.
Так вот, почитав документацию и другую познавательную литературу я нашел следующее решение:
* Load-time weaving (LTW).
* Compile-time weaving (CTW).
Поскольку я нашел хорошую документацию по [LTW](http://static.springsource.org/spring/docs/3.0.0.RC2/reference/html/ch07s08.html), я решил использовать именно его. Цена вопроса:
1. Теперь у нас нет одного .xml файла, куда мы красиво складываем наши pointcut-ы, aspect-ы.
2. Нужно добавить новый aop.xml, где мы должны указать наши weaver-ы (классы которые непосредственно учувствуют в процессе), aspects-ы.
3. Pointcut-ы тепер указываются непосредственно над aspect-ами.
```
@Before( "execution(* com.solutions. web.test.WebTestClass.testA())")
public void testALog() {}
```
4. Над классами аспектов появляется аннотация `@Aspect`.
5. Нужно добавить аргумент при запуске JM/WebLogic:
```
-javaagent:${PATH_TO_LIB }/aspectjweaver.jar
```
##### Примечание
Если посмотреть на пример приведенный в [документации](http://static.springsource.org/spring/docs/3.0.0.RC2/reference/html/ch07s08.html) (aop.context):
```
```
Да все работает, но одно НО — мы редко будем хранить наш выполняющий код и непосредственно код аспектов в одном классе/пакете. Эту маленькую деталь они упустили в описании. Так вот, если у нас есть класс (ClassA) и аспект (AspectA) которые находятся в разных пакетах, то валидной конфигурацией будет следующий aop.xml:
```
```
В теге ````
следует указать все классы к которым будут применены аспекты + пакет со всеми аспектами.
#### Проблема № 3
*LTW нельзя применить на EAR/APP уровне.*
> "As Costin said, there is unfortunately nothing we can do about this. Load-time weaving only works for specific deployment units such as WARs, and even there it is considered an advanced feature that won't work in all runtime environments.”
Конкретно этот комментарий я искал очень долго.
**Решением** этой проблемы как вы догадались, и является использование CTW. Цена вопроса:
1. Больше нет хоть какого-то конфигурационного файла, где мы можем посмотреть все наши aspect-ы и pointcut-ы.
2. Cкладывая АОП систему логирования в один пакет можно найти все pointcut-ы, но все равно это неудобно и занимает много времени.
3. Нужно использовать ajc-компайлер, соответственно подключать его к сборщикам проекта (ant, maven, gradle…).
#### Проблема № 4
*CTW+LTW не совместимые технологии.*
Может мне просто не повезло, но по не известным мне причинам LTW сканировало весь classpath и при вызове классов скомпилированных при помощи СTW падало с ошибкой:
java.lang.Exception: java.lang.NoSuchMethodError: com.aop.example.log.AspectA.aspectOf()Lcom/aop/example/log/AspectA;
```
Проблема сразу же пропадает после отключения LTW.
#### ИТОГО
Что я для себя вынес и хотел бы добавить:
1. Для всех public методов верхнего уровня (EAR/APP, WEB уровень) можно использовать Spring AOP.
2. Для всего WEB уровня не public и методов не верхнего уровня можно использовать LTW (если СTW не используется).
3. Для всего APP уровня не public и методов не верхнего уровня можно использовать CTW (если LTW не используется).
4. В теге `файла app.context нужно указывать как сами “weav” классы так и aspect-ы.`
CTW и LTW не совместимые технологии.` | https://habr.com/ru/post/186940/ | null | ru | null |
# Laravel: объясняем основные понятия. Часть первая: «Теория»
*Друзья, у нас отличные новости. В августе мы в OTUS запустили новый курс — [«Framework Laravel»](https://otus.pw/HKEW/), но желающих обучаться было столько, что не все успели попасть в группу. Новый поток по курсу стартует уже в конце октября! Ждем всех и традиционно, в преддверии старта курса, делимся полезным материалом.*

> В данной статье мы познакомимся с теоретическими основами Laravel — c самим фреймворком, c его историей, и с основными понятиями и концепциями, которые в нем используются. Данная статья предназначена для новичков, которые уже освоили основы PHP, попробовали написать свой первый сайт, например, с небольшой системой CMS, однако еще не пробовали работать с PHP-фреймворками, и не поняли основные плюсы, которые они предлагают.
Итак, Laravel — это относительно новый веб фреймворк (первый выпуск произошел в 2011 году). Laravel взял лучшее из другого бэкэнд-фреймворка, такого как Rails, однако сейчас уже Laravel сильно обогнал его по распространенности. На момент написания данной статьи последняя версия — 6.

### Не фреймворк, а целая экосистема
Что это значит? Если вы до этого занимались только Frontend-разработкой, я бы сравнил Laravel с Angular: буквально с одной строчки, которая генерирует вам новый проект, вы получаете практически все в коробке (конечно без фронтенд части проекта, но еще 2-3 команды и она окажется на месте). Все что касается самой PHP-разработки, то в Laravel на месте практически все, что вы можете захотеть для построения надежного бэкэнд-приложения: PHPUnit — фреймворк, предназначенный для тестирования, Artisan — интерфейс командной строки для миграции баз данных, создания моделей и остальной настройки приложения, встроенный сервер Homestead, в котором можно создавать виртуальное окружение, а также работу с роутингом, обработку миддлваров, а также комфортное связывание view с Blade-шаблонами.
Постараемся разобрать все сложные понятия по порядку. **Напоминаю: эта статья только теоретическое введение для новичков. Практические примеры будут в следующих частях**.
##### Homestead
Философия Laravel состоит в том, чтобы дать вам из коробки максимальное количество удобных инструментов, причем желательно однозначно удобных, надежных и простых в эксплуатации. Именно поэтому в документации одним из первых упоминается Homestead.
Laravel Homestead — это предустановленная Vagrant — «коробка». Что это такое? Читатель скорее всего пользовался сборками XAMPP, Abyss Web Server, или скачивал все необходимые для работы сервера штуки (Apache, PHP, PHPMyAdmin, MySQL и многое другое) самостоятельно. Полный список установленного внутри Homestead вы можете найти [здесь](https://laravel.ru/docs/v5/homestead). Зачем это сделано именно так? Homestead создает некое «виртуальное окружение», которое выполняется в той же среде, что и на сервере, и с теми же программами. Homestead быстро и легко пересоздает свои «виртуальные» коробки, и вам не придется долго мучаться, если вы нечаянно что-то сломали.
Однако на Homestead Laravel не заканчивается. Если вы работает под Mac OS, вам нужно попробовать минималистичный Valet, который не имеет такого количества функций из коробки, но куда проще в установке. А так же ещё огромное количество дополнительных пакетов — это же целая экосистема!

### Миграция баз данных
Словосочетание «Миграция баз данных» звучит скорее всего несколько пугающе для новичка. Я надеюсь, читатель знает, для чего нужна база данных (в принципе, очевидно что для хранения информации) и даже написал в своей жизни что-то большее чем *«SELECT \* FROM Customers»* в SQL командах. Этого должно хватить.
Итак, миграция — это нечто вроде системы контроля для переноса ваших таблиц в БЗ c помощью конструктора таблиц. Миграция позволит вам избежать ошибок и конфликтов во время конструирования таблиц в базе данных для большого проекта вместе с участниками другой команды. Кроме того, это позволит взаимодействовать с базой данных не с помощью таких инструментов, как MySQL WorkBench или PhpMyAdmin, а напрямую из кода, в зависимости от потребностей вашего проекта в таблицах данных. Добавление и удаление таблиц записывается в истории миграций, и теперь хотя бы у тимлидов станет на одну головную боль меньше.


### ORM
ORM — система объектно-реляционного отображения, которая связывает базы данных с концепциями объектно-ориентированного программирования.
Звучит на первый взгляд страшно, однако это напрямую связано с миграцией баз данных: на каждую таблицу создается свой класс — модель, который используется только для работы с этой таблицей. Это позволяет не разводить лишней работы в самой базе данных, а взаимодействовать с ней опять же напрямую из проекта. В итоге это получается и удобней, и надежней. Конечно, на освоение команд и особенностей генерации моделей уйдет некоторое время, но на создание большого проекта с огромным количеством таблиц его уйдет куда больше.
### Blade — шаблоны: удобное представление вида
Blabe — шаблоны дают возможность удобно связывать ваши представления вида. Вот как бы это выглядело на нативном PHP:
```
php
include($_SERVER['DOCUMENT_ROOT']."/shop/includes/header.inc.php");
?
php
include($_SERVER['DOCUMENT_ROOT']."/shop/includes/footer.inc.php");
?
```
```
@extends(‘header')
@extends(‘catalog')
@extends(‘footer’)
```
Согласитесь, выглядит куда аккуратнее! Конечно, на самом деле за этим стоит код контроллера и экспорт из остальных Blade-шаблонов, однако на большом проекте это будет только удобнее.

### Добрый помощник Artisan
Artisan — это интерфейс командной строки, который поставляется вместе с Laravel. Он позволяет генерировать модели, контроллеры, новые тесты, уведомления — прямо из командной строки. Это куда удобнее, чем каждый раз копировать откуда-то шаблон класса или даже писать его ручками.
### Тестирование приложения
Если вы хотите разрабатывать свои проекты через TDD/BDD ( разработка через тестирование/разработка через поведение) то здесь в комплекте есть PHPUnit( поддерживаются такие тесты как Browser/Unit/Feature), а также пакет для генерации ненастоящего контента Faker (полезно, например, при тестировании работы БД, потому что не приходится самостоятельно наполнять контентом, который обычно добавляет туда сам пользователь).
### Множество приятных мелочей
Хотите, что бы в вашем приложении быстро появилась аутентификация через соцсети? Без проблем, Laravel Socialite cпешит на помощь. Хотите настроить кэширование? Без проблем, прямо из коробки. У вас много проектов, которые размещены на VPS различных сервисов? Laravel Forge на месте. Нужны WebSockets, например для чата? Без проблем. И так можно продолжать очень долго.
##### Зачем мне учить этот Laravel?
Сейчас Laravel, вне сомнения, занимает положение самого главного PHP-фреймворка. Сейчас, по данным Github, репозиториев с Laravel около 195к против 35к у Yii и 43к у Symfony. Пускай это не самое честное сравнение, но почему тогда вам не попробовать Laravel? | https://habr.com/ru/post/470794/ | null | ru | null |
# Диагностика утечек памяти в Java
В данной заметке я хочу показать каким образом можно определять и устранять утечки памяти в Java на примере из моей повседневной работы. Мы не будем здесь рассматривать возможные причины появления утечек, об этом будет отдельная статья, так как тема достаточно обширная. Стоит заметить, что речь пойдет о диагностике именно Heap Memory, об утечках в других областях памяти будет отдельная статья.
Инструменты
-----------
Для успешной диагностики нам понадобятся два инструмента: Java Mission Control (jmc) и Eclipse Memory Analyzer. Вобщем-то можно обойтись только Memory Analyzer, но с JMC картина будет более полной.
* JMC входит в состав JDK (начиная с 1.7)
* Memory Analyzer может быть загружен отсюда: [MAT](http://www.eclipse.org/mat)
Анализ использования памяти
---------------------------
Прежде всего, нужно запустить приложение со следующими флагами JVM:
`-XX:+UnlockCommercialFeatures
-XX:+FlightRecorder`
**Не используйте эти опции на production системе без приобретения специальной лицензии Oracle!**
Эти опции позволят запустить Flight Recorder – утилита, которая поможет собрать информацию об использовании памяти (и много другой важной информации) во время выполнения программы. Я не буду описывать здесь как запустить Flight Recorder, эта информация легко гуглится. В моем случае было достаточно запустить FR на 10-11 минут.
Рассмотрим следующий рисунок, на котором показана классическая «пила» памяти, а так же важный сигнал, что что-то не так с использованием памяти:
[](https://habrastorage.org/getpro/habr/post_images/23d/e06/2e4/23de062e4e46c5045c8843d124936242.png)
Можно увидеть, что после каждого цикла очистки памяти, heap все больше заполняется, я выделил это желтым треугольником. «Пила» все время как бы ползет вверх. Это значит, что какие-то объекты не достижимы для очистки и накапливаются в old space, что со временем приведет к переполнению этой области памяти.
Выявление утечки
----------------
Следующим шагом нужно выявить, что именно не доступно для очистки и в этом нам поможет Memory Analyzer. Прежде всего, нужно загрузить в программу heap dump работающего приложения с предполагаемой утечкой памяти. Это можно сделать с помощью *«File → Acquire Heap Dump»*. После загрузки в диалоге *«Getting Started Wizard»* выбрать *«Leak Suspects Report»* после этого откроется краткий обзор возможных утечек памяти:
[](https://habrastorage.org/getpro/habr/post_images/31d/e9b/8dc/31de9b8dc755aaa39b9ad286a800698f.png)
Если вернуться на вкладку *«Overview»* и выбрать *«Dominator Tree»*, то можно увидеть более подробную картину:
[](https://habrastorage.org/getpro/habr/post_images/7ba/fd3/a75/7bafd3a750c8fda317c27ea8fed15239.png)
[](https://habrastorage.org/getpro/habr/post_images/fc5/467/502/fc546750208202d6318dfa4b795306cc.png)
Дерево показывает структуру «тяжелого» объекта, а так же размер его полей (по типу). Можно видеть, что одно из полей объекта MasterTenant занимает более 45% памяти.
Устранение утечки
-----------------
Имея результат анализа из предыдущего пункта, следующим шагом идет устранение накапливания объектом памяти. Тут все сильно зависит от конкретного кода. Общая рекоменация – нужно найти и проанализировать все места, где происходит инициализация или изменение соответствующего поля или полей, чтобы понять механизм накапливания памяти. В моем случае в коллекцию постоянно добавлялись записи из множества (около 150) потоков при определенных условиях.
После находжения и устранения утечки, не лишним будет пройти все шаги снова, проанализировать память и отчет Memory Analyzer, чтобы убедиться что фикс помог. | https://habr.com/ru/post/324144/ | null | ru | null |
# Хостим Bitwarden — open-source менеджер паролей

Менеджеры паролей действительно полезны и важны как для отдельных пользователей, так и для организаций, и они пригодятся, когда у вас много разных учетных записей и паролей. Обычно люди не любят пользоваться сторонними менеджерами паролей с сервисной архитектурой — неизвестно, что происходит с данными на чужом сервере, и не будет ли он скомпрометирован. Самое безопасное решение это разместить менеджер на своём собственном (как следует защищенном) сервере. Разумеется, к такому self-hosted варианту возникает много требований, и большой список решений с открытым исходным кодом довольно быстро сужается до нескольких известных, проверенных продуктов. Среди них мне больше всего нравится Bitwarden, и сейчас я объясню почему.
Каким должен быть идеальный менеджер паролей?
---------------------------------------------
* Разумеется, безопасным. Нельзя даже рассматривать не-опенсорсные варианты, ведь предназначение любого закрытого кода это сливать ваши данные или внедрять всякие неприятные штуки в систему. И пароли — лучшее место, чтобы дать волю паранойе, поэтому отметаем непопулярные продукты и форки, если нет желания читать все исходники целиком и собирать проект из исходников.
* Второй очевидный и обязательный аспект безопасности — шифрование. Было бы глупо настроить супер-секьюрную систему на сервере и потерять пароли из-за MITMа злоумышленника или провайдера.
* Бывает, что нужно хранить не только пароли. Важная и чувствительная информация может быть представлена в виде текста (например, токены), и этот текст должно быть удобно хранить в менеджере.
* Любые данные могут использоваться несколькими людьми. Например, любые чувствительные данные, относящиеся к IT-инфраструктуре бизнеса, не могут быть доступны одному конкретному админу. Отсюда вытекает необходимость делиться защищёнными данными с несколькими аккаунтами в организации.
* Особенно важный пункт для лично использования: кроссплатформенность. Мы используем одни и те же аккаунты с разных устройств, и в идеале менеджер паролей должен работать на всех возможных платформах и в как можно большем количестве браузеров и приложений.
* Также для self-hosted хранилища нужно делать регулярные бекапы. И вообще было бы неплохо, чтобы вся система устанавливалась без лишнего геморроя. В конце концов, не все мы красноглазые героические админы и девопсы.
Обычно у айтишников (особенно, у повёрнутых на безопасности) возникают и более детальные, личные требования. Я привёл лишь те, которые кажутся мне самыми распространёнными и важными. И, конечно, Bitwarden удовлетворяет им всем, иначе я бы нашёл вариант получше. Вообще у него есть и сервисная часть, и даже платные планы, но базового функционала бесплатного плана нам вполне хватит. При этом self-hosted версия вообще никак не связана с серверами bitwarden.com (исходный код которых также открыт и проходит регулярные аудиты безопасности).
Разворачиваем свой инстанс
--------------------------
Bitwarden распространяется в виде пачки Docker-контейнеров и многофункционального скрипта для установки, настройки и управления инстансом. Всё работает из коробки, кроме одного — для подтверждения регистрации аккаунта сервер должен отправить email на указанный адрес. Кроме того, для доступа к админ-панели на электропочту админа отправляется временная ссылка для входа, поэтому помимо основной установки нам потребуется настроенный email-сервер. Почтовых серверов очень много, как и мануалов по их установке, останавливаться на их выборе я не буду — подойдёт любой send-only или полноценный вариант. Мне понравилось пользоваться [docker-mailserver](https://github.com/docker-mailserver/docker-mailserver), в котором всё работает практически из коробки, поэтому для меня итоговая схема выглядит так:

#### Подготовка
В первую очередь нам понадобится docker и docker-compose:
```
#Docker engine
sudo apt-get update
sudo apt-get install \
apt-transport-https \
ca-certificates \
curl \
gnupg-agent \
software-properties-common
curl -fsSL https://download.docker.com/linux/debian/gpg | sudo apt-key add -
sudo add-apt-repository \
"deb [arch=amd64] https://download.docker.com/linux/debian \
$(lsb_release -cs) \
stable"
sudo apt-get update
sudo apt-get install docker-ce docker-ce-cli containerd.io
```
```
#Docker-compose
sudo curl -L "https://github.com/docker/compose/releases/download/1.28.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
```
Затем, чтобы не работать из-под рута, создадим пользователя bitwarden и продолжим работу под ним:
```
sudo adduser bitwarden
sudo passwd bitwarden
```
Создадим группу docker, если она ещё не существует, и добавим в неё пользователя:
```
sudo groupadd docker
sudo usermod -aG docker bitwarden
```
Создадим рабочую директорию для bitwarden:
```
sudo mkdir /opt/bitwarden
sudo chmod -R 700 /opt/bitwarden
sudo chown -R bitwarden:bitwarden /opt/bitwarden
```
#### Установка
Скачаем и запустим установочный скрипт:
```
curl -Lso bitwarden.sh https://go.btwrdn.co/bw-sh \
&& chmod 700 bitwarden.sh
./bitwarden.sh install
```
Заполняем поля в установщике:
1. В качестве доменного имени можно указать любой адрес или домен, но в качестве стандарта принято использовать bitwarden.yourdomain.tld.
2. Можно использовать как существующий SSL-сертификат, так и сгенерировать новый, самоподписанный. На втором шаге будет предложено использовать Let's Encrypt.
3. Дальше установщик запросит id и ключ установки. Их нужно получить на [bitwarden.com/host](https://bitwarden.com/host/), указав контактный email (подтверждение не требуется).
Вскоре на указанном домене будет создан и запущен работающий инстанс Bitwarden, но нам ещё нужно настроить почту. Устанавливаем и конфигурируем почтовый сервер, затем отправляемся редактировать файл `/opt/bitwarden/bwdata/env/global.override.env` (с заменой всех плейсхолдеров, разумеется):
```
globalSettings__mail__replyToEmail=no-reply@bitwarden.yourdomain.tld
globalSettings__mail__smtp__host=smtp.example.com
globalSettings__mail__smtp__username=root_email_username
globalSettings__mail__smtp__password=p@ssword
globalSettings__mail__smtp__ssl=true
globalSettings__mail__smtp__port=587
globalSettings__mail__smtp__useDefaultCredentials=false
adminSettings__admins=admin_email_username@example.com
```
После любых изменений в конфигах нужно пересобрать сервис:
```
./bitwarden.sh rebuild
```
#### Использование
Теперь всё готово к работе с менеджером и можно отправляться в веб-интерфейс регистрироваться. После регистрации нас сразу пустит в рабочую панель, но для синхронизации данных между устройствами нужно будет подтвердить email:

После подтверждения аккаунт становится доступен для входа с других устройств. Во всех клиентах Bitwarden (десктопные и мобильные приложения, веб-интерфейсы, расширения) есть кнопка настроек в углу, где мы указываем адрес нашего инстанса:

Бэкапы
------
Вариантов настройки бэкапов много, но как минимум нам надо сохранять всё содержимое папки `/opt/bitwarden/bwdata`. При этом Bitwarden сам ежедневно бэкапит содержимое `./bwdata/mssql/data`, где хранится база данных. Для восстановления данных нужно вытащить пароль к бд из `global.override.env` (значение в строке `globalSettings__sqlServer__connectionString=...Password=`), подключиться к контейнеру `bitwarden-mssql` и найти нужный файл для бэкапа (по дате в названии):
```
docker exec -it bitwarden-mssql /bin/bash
```
Запускаем sqlcmd:
```
/opt/mssql-tools/bin/sqlcmd -S localhost -U user -P password
```
Вместо user и password подставляем значения User= и Password= из `global.override.env`
В открывшейся оболчке выполняем следующие команды:
```
1> use master
2> GO
1> alter database vault set offline with rollback immediate
2> GO
1> restore database vault from disk='/etc/bitwarden/mssql/backups/vault_FULL_{Backup File Name}.BAK' with replace
2> GO
1> alter database vault set online
2> GO
1> exit
```
Обязательно перезапускаем инстанс:
```
./bitwarden.sh restart
```
Заключение
----------
Для self-hosted версии доступен полноценный функционал кроссплатформенного менеджера паролей. Все изменения синхронизируются между клиентами, а данные можно раздавать пользователям в своей организации. Вся установка занимает минут 10-15, и сервис почти никогда не требует администрирования — настроил и забыл. Я считаю, это очень круто. Приятного пользования!
---
#### На правах рекламы
Для размещения Bitwarden, а также для множества других целей и задач, вы можете использовать наши легендарные [эпичные серверы](https://vdsina.ru/cloud-servers?partner=habr250). Большое количество преимуществ: [современное железо](https://habr.com/ru/company/vdsina/blog/514570/) с процессорами AMD Epyc, защита от DDoS-атак из коробки, возможность автоматически или вручную создать резервные копии в виде снимков сервера, удобная [панель управления серверами](https://habr.com/ru/company/vdsina/blog/460107/) собственной разработки. Эпичненько.
[](https://vdsina.ru/cloud-servers?partner=habr250) | https://habr.com/ru/post/540574/ | null | ru | null |
# Flutter. RenderObject — замеряй и властвуй
Всем привет, меня зовут Дмитрий Андриянов. Я [Flutter-разработчик](https://surf.ru/flutter/) в [Surf](https://surf.ru/). Чтобы построить эффективный и производительный UI достаточно основной библиотеки Flutter. Но бывают случаи, когда нужно реализовывать специфичные кейсы и тогда придётся копать в глубь.

Вводная
-------
Имеется экран со множеством текстовых полей. Их может быть как 5, так и 30. Между ними могут находиться различные виджеты.

Задача
------
* Поместить над клавиатурой блок с кнопкой «Далее» для переключения на следующее поле.
* При смене фокуса подскролливать поле к блоку с кнопкой «Далее».
Проблема
--------
Блок с кнопкой перекрывает текстовое поле. Нужно реализовать автоматический скролл на размер перекрываемого пространства текстового поля.

Подготовка к решению
--------------------
1.Возьмём экран из 20 полей.
Код:
```
List list = List.generate(20, (index) => index.toString());
@override
Widget build(BuildContext context) {
return Scaffold(
body: SingleChildScrollView(
child: SafeArea(
child: Padding(
padding: const EdgeInsets.all(20),
child: Column(
children: [
for (String value in list)
TextField(
decoration: InputDecoration(labelText: value),
)
],
),
),
),
),
);
}
```
При фокусе в текстовом поле видим следующую картину:

Поле прекрасно видно и всё в порядке.
2. Добавим блок с кнопкой.

Для отображения блока используется [Overlay](https://api.flutter.dev/flutter/widgets/Overlay-class.html). Это позволяет показывать плашку независимо от виджетов на экране и не использовать обёртки в виде Stack. При этом у нас нет прямого взаимодействия между полями и блоком «Далее».
Хорошая [статья](https://medium.com/saugo360/https-medium-com-saugo360-flutter-using-overlay-to-display-floating-widgets-2e6d0e8decb9) про Overlay.
Если кратко: Overlay позволяет накладывать виджеты поверх других виджетов, через [стек](https://api.flutter.dev/flutter/widgets/Stack-class.html) наложения. [OverlayEntry](https://api.flutter.dev/flutter/widgets/OverlayEntry-class.html) позволяют управлять соответствующим ему Overlay.
Код:
```
bool _isShow = false;
OverlayEntry _overlayEntry;
KeyboardListener _keyboardListener;
@override
void initState() {
SchedulerBinding.instance.addPostFrameCallback((_) {
_overlayEntry = OverlayEntry(builder: _buildOverlay);
Overlay.of(context).insert(_overlayEntry);
_keyboardListener = KeyboardListener()
..addListener(onChange: _keyboardHandle);
});
super.initState();
}
@override
void dispose() {
_keyboardListener.dispose();
_overlayEntry.remove();
super.dispose();
}
Widget _buildOverlay(BuildContext context) {
return Stack(
children: [
Positioned(
bottom: MediaQuery.of(context).viewInsets.bottom,
left: 0,
right: 0,
child: AnimatedOpacity(
duration: const Duration(milliseconds: 200),
opacity: \_isShow ? 1.0 : 0.0,
child: NextBlock(
onPressed: () {},
isShow: \_isShow,
),
),
),
],
);
void \_keyboardHandle(bool isVisible) {
\_isShow = isVisible;
\_overlayEntry?.markNeedsBuild();
}
```
3. Как и ожидалось, блок перекрывает поле.
Идеи по решению
---------------
1. Брать текущую позицию прокрутки экрана из ScrollController и скроллить до поля.
Размеры поля неизвестны, особенно если оно многострочное, то скролл к нему даст неточный результат. Решение будет не идеальным и не гибким.
2. Складывать размеры виджетов вне списка и учитывать прокрутку.
Если задать виджетам фиксированную высоту, тогда, зная положение прокрутки и размеры виджетов, будет известно, что сейчас в зоне видимости и на сколько нужно скроллить, чтобы показать определённый виджет.
**Минусы**:
* Придётся учитывать все виджеты вне списка и задавать им фиксированные размеры, которые будут использоваться в расчетах, что не всегда соответствует требуемому дизайну и поведению интерфейса.
* Правки UI приведут к правкам в расчётах.
3. Брать позицию виджетов относительно экрана поля и блока «Далее» и доскралливать на разницу.
**Минус** — из коробки такой возможности нет.
4. Использовать слой рендера.
Исходя из [статьи](https://habr.com/ru/company/surfstudio/blog/501862/), Flutter знает, как расположить своих потомков в дереве, а значит эту информацию можно вытащить. За рендер отвечает [RenderObject](https://api.flutter.dev/flutter/rendering/RenderObject-class.html), к нему то и направимся. [RenderBox](https://api.flutter.dev/flutter/rendering/RenderBox-class.html) имеет поле size с шириной и высотой виджета. Они рассчитываются при рендере для виджетов: будь то списки, контейнеры, текстовые поля (даже многострочные) и т.д.
Получить RenderBox можно через
```
context context.findRenderObject() as RenderBox
```
Для получения контекста поля можно использовать GlobalKey.
**Минус**:
GlobalKey не самая легкая штука. И применять её лучше как можно реже.
«Виджеты с глобальными ключами перерисовывают свои поддеревья, когда они перемещаются из одного места в дереве в другое. Чтобы перерисовать своё поддерево, виджет должен прибыть в своё новое местоположение в дереве в том же кадре анимации, в котором он был удалён из старого места.
Глобальные ключи относительно дороги в плане производительности. Если вам не нужны какие-либо функции, перечисленные выше, рассмотрите возможность использования Key, ValueKey, ObjectKey или UniqueKey.
Вы не можете одновременно включить два виджета в дерево с одним и тем же глобальным ключом. При попытке сделать это будет ошибка во время исполнения». [Источник](https://api.flutter.dev/flutter/widgets/GlobalKey-class.html).
На самом деле, если держать на экране 20 GlobalKey, ничего страшного не случится, но раз рекомендуется использовать его только в случаях необходимости, то попробуем поискать другой путь.
Решение без GlobalKey
---------------------
Будем использовать слой рендера. Первым делом нужно проверить — можем ли мы вытащить что-то из RenderBox и будут ли это те данные, что нам нужны.
Код для проверки гипотезы:
```
FocusNode get focus => widget.focus;
@override
void initState() {
super.initState();
Future.delayed(const Duration(seconds: 1)).then((_) {
// (1)
RenderBox rb = (focus.context.findRenderObject() as RenderBox);
//(3)
RenderBox parent = _getParent(rb);
//(4)
print('parent = ${parent.size.height}');
});
}
RenderBox _getParent(RenderBox rb) {
return rb.parent is RenderWrapper ? rb.parent : _getParent(rb.parent);
}
Widget build(BuildContext context) {
return Wrapper(
child: Container(
color: Colors.red,
width: double.infinity,
height: 100,
child: Center(
child: TextField(
focusNode: focus,
),
),
),
);
}
//(2)
class Wrapper extends SingleChildRenderObjectWidget {
const Wrapper({
Key key,
Widget child,
}) : super(key: key, child: child);
@override
RenderWrapper createRenderObject(BuildContext context) {
return RenderWrapper();
}
}
class RenderWrapper extends RenderProxyBox {
RenderWrapper({
RenderBox child,
}) : super(child);
}
```
(1) Так как нужна прокрутка до поля, надо получить его контекст (например, через FocusNode), найти RenderBox и взять size. Но это size текстового поля и если нам нужны также родительские виджеты (например, Padding), надо взять родительский RenderBox через поле parent.
(2) Наследуем наш класс RenderWrapper от [SingleChildRenderObjectWidget](https://api.flutter.dev/flutter/widgets/SingleChildRenderObjectWidget-class.html) и создаём [RenderProxyBox](https://api.flutter.dev/flutter/rendering/RenderProxyBox-class.html) для него. RenderProxyBox имитирует все свойства дочернего элемента, отображая его при рендере дерева виджетов.
Flutter сам часто использует наследников SingleChildRenderObjectWidget:
Align, AnimatedSize, SizedBox, Opacity, Padding.
(3) Рекурсивно проходим родителей по дереву, пока не встретим RenderWrapper.
(4) Берём parent.size.height — это выдаст правильную высоту. Это правильный путь.
Так оставлять, конечно же, нельзя.
**Но у рекурсивного подхода тоже есть минусы**:
* Рекурсивный обход дерева не гарантирует, что мы не нарвёмся на предка к которому не готовы. Он может не подойти по типу и всё. Как-то на тестах я нарвался на RenderView и всё упало. Можно, конечно, игнорировать неподходящего предка, но хочется более надежного подхода.
* Это неуправляемое и всё еще не гибкое решение.
Использование RenderObject
--------------------------
Данный подход вылился пакет [render\_metrics](https://pub.dev/packages/render_metrics) и уже давно используется на одном из наших приложений.
**Логика работы:**
1. Оборачиваем интересующий виджет (потомок класса Widget) в [RenderMetricsObject](https://github.com/surfstudio/render_metrics/blob/stable/lib/src/render/render_metrics.dart). Вложенность и целевой виджет не имеют значения.
```
RenderMetricsObject(
child: ...,
)
```
2. После первого фрейма нам будут доступны его метрики. Если размер или позиция виджета относительно экрана (абсолютное или в прокрутке), то при повторном запросе метрик уже будут новые данные.
3. Использовать менеджер [RenderManager](https://github.com/surfstudio/render_metrics/blob/stable/lib/src/manager/render_manager.dart) не обязательно, но при его использовании нужно передавать id для виджета.
```
RenderMetricsObject(
id: _text1Id,
manager: renderManager,
child: ...
```
4. Можно использовать колбэки:
* onMount — создание RenderObject. В аргументы получает переданный id (или null, если не был передан) и соответствующий экземпляр RenderMetricsBox.
* onUnMount — удаление из дерева.
В параметрах функция получает id, переданный в RenderMetricsObject. Эти функции полезны тогда, когда не нужен менеджер и/или нужно знать когда был создан и удалился RenderObject из дерева.
```
RenderMetricsObject(
id: _textBlockId,
onMount: (id, box) {},
onUnMount: (box) {},
child...
)
```
5. Получение метрик. Класс [RenderMetricsBox](https://github.com/surfstudio/render_metrics/blob/stable/lib/src/render/render_metrics.dart) реализует геттер data, в котором берёт свои размеры через localToGlobal. localToGlobal преобразует точку из локальной системы координат для этого RenderBox в глобальную систему координат относительно экрана в логических пикселях.

A — ширина width виджета, преобразуется в самую правую точку координат относительно экрана.
B — высота height преобразуется в самую нижнюю точку координат относительно экрана.
```
class RenderMetricsBox extends RenderProxyBox {
RenderData get data {
Size size = this.size;
double width = size.width;
double height = size.height;
Offset globalOffset = localToGlobal(Offset(width, height));
double dy = globalOffset.dy;
double dx = globalOffset.dx;
return RenderData(
yTop: dy - height,
yBottom: dy,
yCenter: dy - height / 2,
xLeft: dx - width,
xRight: dx,
xCenter: dx - width / 2,
width: width,
height: height,
);
}
RenderMetricsBox({
RenderBox child,
}) : super(child);
}
```
6. [RenderData](https://github.com/surfstudio/render_metrics/blob/stable/lib/src/data/render_data.dart) — просто класс с данными, предоставляющий отдельные x и y значения в виде double и точки координат в виде [CoordsMetrics](https://github.com/surfstudio/render_metrics/blob/stable/lib/src/data/coords_metrics.dart).
7. [ComparisonDiff](https://github.com/surfstudio/render_metrics/blob/stable/lib/src/data/comparison_diff.dart) — при вычитании двух RenderData возвращается экземпляр ComparisonDiff с разницей между ними. Также он предоставляет геттер (diffTopToBottom) для разницы позиций между нижним краем первого виджета и верхним второго и наоборот (diffBottomToTop). diffLeftToRight и diffRightToLeft соответственно.
8. [RenderParametersManager](https://github.com/surfstudio/render_metrics/blob/stable/lib/src/manager/render_parameters_manager.dart) — наследник RenderManager. Для получения метрик виджета и разницы между ними.
Код:
```
class RenderMetricsScreen extends StatefulWidget {
@override
State createState() => \_RenderMetricsScreenState();
}
class \_RenderMetricsScreenState extends State {
final List list = List.generate(20, (index) => index.toString());
/// Менеджер из библиотеки render\_metrics
/// для замеров позиционирования виджетов на экране
final \_renderParametersManager = RenderParametersManager();
final ScrollController scrollController = ScrollController();
/// id блока с кнопкой "Далее"
final doneBlockId = 'doneBlockId';
final List focusNodes = [];
bool \_isShow = false;
OverlayEntry \_overlayEntry;
KeyboardListener \_keyboardListener;
/// Последний полученный FocusNode, зарегистрированный при смене фокуса
FocusNode lastFocusedNode;
@override
void initState() {
SchedulerBinding.instance.addPostFrameCallback((\_) {
\_overlayEntry = OverlayEntry(builder: \_buildOverlay);
Overlay.of(context).insert(\_overlayEntry);
\_keyboardListener = KeyboardListener()
..addListener(onChange: \_keyboardHandle);
});
FocusNode node;
for(int i = 0; i < list.length; i++) {
node = FocusNode(debugLabel: i.toString());
focusNodes.add(node);
node.addListener(\_onChangeFocus(node));
}
super.initState();
}
@override
void dispose() {
\_keyboardListener.dispose();
\_overlayEntry.remove();
focusNodes.forEach((node) => node.dispose());
super.dispose();
}
@override
Widget build(BuildContext context) {
return Scaffold(
body: SingleChildScrollView(
controller: scrollController,
child: SafeArea(
child: Padding(
padding: const EdgeInsets.all(20),
child: Column(
children: [
for (int i = 0; i < list.length; i++)
RenderMetricsObject(
id: focusNodes[i],
manager: \_renderParametersManager,
child: TextField(
focusNode: focusNodes[i],
decoration: InputDecoration(labelText: list[i]),
),
),
],
),
),
),
),
);
}
Widget \_buildOverlay(BuildContext context) {
return Stack(
children: [
Positioned(
bottom: MediaQuery.of(context).viewInsets.bottom,
left: 0,
right: 0,
child: RenderMetricsObject(
id: doneBlockId,
manager: \_renderParametersManager,
child: AnimatedOpacity(
duration: const Duration(milliseconds: 200),
opacity: \_isShow ? 1.0 : 0.0,
child: NextBlock(
onPressed: () {},
isShow: \_isShow,
),
),
),
),
],
);
}
VoidCallback \_onChangeFocus(FocusNode node) => () {
if (!node.hasFocus) return;
lastFocusedNode = node;
\_doScrollIfNeeded();
};
/// Метод, срабатывающий при возникновении необходимости расчёта скролла
/// экрана.
void \_doScrollIfNeeded() async {
if (lastFocusedNode == null) return;
double scrollOffset;
try {
/// Если нет нужного id, то data рендера вызовется на null
scrollOffset = await \_calculateScrollOffset();
} catch (e) {
return;
}
\_doScroll(scrollOffset);
}
/// Инициирование подскролла экрана
void \_doScroll(double scrollOffset) {
double offset = scrollController.offset + scrollOffset;
if (offset < 0) offset = 0;
scrollController.position.animateTo(
offset,
duration: const Duration(milliseconds: 200),
curve: Curves.linear,
);
}
/// Расчёт необходимого расстояния скролла экрана.
///
/// Скролл произойдет при отклонении текстового поля от плашки "Готово" в обе
/// стороны (вверх/вниз).
Future \_calculateScrollOffset() async {
await Future.delayed(const Duration(milliseconds: 300));
ComparisonDiff diff = \_renderParametersManager.getDiffById(
lastFocusedNode,
doneBlockId,
);
lastFocusedNode = null;
if (diff == null || diff.firstData == null || diff.secondData == null) {
return 0.0;
}
return diff.diffBottomToTop;
}
void \_keyboardHandle(bool isVisible) {
\_isShow = isVisible;
\_overlayEntry?.markNeedsBuild();
}
}
```
Результат с использованием render\_metrics
------------------------------------------

Итог
----
Копнув глубже уровня виджетов, с помощью небольших манипуляций со слоем рендера получили полезную функциональность, которая позволяет писать более сложные UI и логику. Иногда нужно знать размеры динамических виджетов, их позицию или сравнить перекрывающие друг на друга виджеты. И данная библиотека предоставляет все эти возможности для более быстрого и эффективного решения задач. В статье я постарался объяснить механизм работы, привёл пример проблемы и решения. Надеюсь на пользу библиотеки, статьи и на вашу обратную связь. | https://habr.com/ru/post/513070/ | null | ru | null |
# Как я боролся с воровством… с помощью php

Когда мы платим ежедневно за услуги — это покупка услуг.
Когда мы платим ежедневно за ничего (порой даже не подозревая об этом) — это воровство.
Добрый день, читатели Хабра!
С чего всё началось
-------------------
Захотел я чтоб воровства стало меньше, и давай с ним бороться! Но вручную это было очень утомительно, долго и малоэффективно, тогда и пришла мысль как-то это дело автоматизировать.
О котором из «воровств» я? О том, где мы, гуляя по интернету, нажимаем на кнопочку «смотреть видео», грузится какая-то страница, видео почему-то не проигрывается, мы уходим и гуляем дальше, а на самом деле мы «добровольно» подключили себе услугу получать что-то, что никто никогда не видел за символическую плату 30 рублей в день со счёта своего мобильного. У людей это называется wap-click или мобильные подписки, а сотовые операторы придумывают разнообразные красивые названия. Ещё бы, не включать же в список услуг «воровство по видеокнопке».
Вот [здесь](https://habr.com/post/370417/ "Wap-Click: простой вариант поиметь (денег с) абонента") чуть подробнее. А [здесь](https://habr.com/post/323356/ "Проба работы с Wap-Click подписками") история о хорошем способе «заработать».
Описанных случаев не совсем добровольных подписок много, [этот](https://habr.com/post/196894/ "Еще один способ потратить деньги — спасибо «любимому» сотовому оператору!"), например. Неописанных — намного больше.
Борцы тоже есть:
* [Яндекс раз](https://habr.com/company/yandex/blog/273385/ "Яндекс.Браузер за прозрачность мобильных подписок").
* [Яндекс два](https://habr.com/company/yandex/blog/257043/ "Яндекс против мошеннических мобильных редиректов и подписок").
* [Билайн](https://habr.com/company/beeline/blog/228623/ "Платные подписки и платные контент-услуги сотовых операторов")? (2014) Серьёзно?! А что, [цена ж указана (2016)](https://searchengines.guru/showpost.php?p=14746137&postcount=9 "Подборка посадочных страниц от Bee Line в теме одной из множества партнёрок по продаже населению ничего за 30 рублей в день").
Что и зачем было автоматизировано
---------------------------------
Поиск и блокирование объявлений в панели издателя Google AdSense.
Цель — повысить эффективность блокирования и освободить время, которое тратится на чистку вручную.
**Суть проблемы и имеющиеся решения**Долгие годы ([первое упоминание](https://www.cy-pr.com/forum/f26/t10277/?PAGEN_1=503) о подобном, что я нашёл было летом 2014-го) издатели вручную отлавливали потоки «смертей Якубовича», «каменных стояков», «смотреть видео смотреть, жми смотреть» и прочей нечисти ([начало](https://searchengines.guru/showthread.php?t=963627), [продолжение](https://searchengines.guru/showthread.php?t=981568)), сей процесс почти никак не автоматизировался1 и это казалось практически невозможным.
1 Есть (по крайней мере когда-то было) два решения, но у них довольно серьёзные требования, которые не каждый может себе позволить.
Эти самые решения:
1. [AdSense Cleaner](http://www.internet-technologies.ru/news/veb-mastera-smogut-blokirovat-obyavleniya-adsense.html). Требуется много доп. ПО.
2. [AdsAutomation](https://searchengines.guru/showthread.php?t=970074). Сценарий для управления браузером Google Chrome (как я понял, на ZennoPoster). Необходим отдельный ПК. И в данный момент с GitHub проект удалён.
Если делать ПО, которое заменит человека блокирующего объявления, то оно должен быть сделано с учётом ряда требований:
* должно работать на том «железе» и ПО, которое есть практически у всех сайтовладельцев;
* не требовать дополнительного ПО и изменения настроек имеющегося;
* простота в установке и настройке, чтобы обычный пользователь смог поставить.
.
В общем, на php (с cURL) будет что надо. Закинуть можно прямо на свой сайт и работать без дополнительных компов и прочих сложностей.
**И одно уточнение к требованиям.**Так как решение подразумевалось автоматизированным на php, следовательно, запуск через cron, то хранение пользовательских настроек и временных данных должно быть на диске (не в cookie). В Cookie-файлах будет хранится только ключ для доступа к панели управления. Для избранных, кто не имеет возможности настроить cron, но может на ПК/планшете/смартфоне держать одну вкладку открытой будет добавлена возможность периодического запуска по таймеру на Javascript.
### Что предвещало начало или Google API
И для AdSense есть API, как-то краем глаза видел и не углублялся. А сейчас — самое время вникнуть. Возможностей много, но оказалось, что ни [здесь](https://developers.google.com/adsense/management/v1.4/reference/ "AdSense Management API"), ну [тут](https://developers.google.com/adsense/host/v4.1/ "AdSense Host API") ничего не описано про API для ЦПО. Хочешь смотреть объявления, которые на сайте крутятся, пожалуйста — вручную.
### Начало
[Интерфейс Google AdSense](https://news.dartlang.org/2016/10/google-adsense-angular-dart.html) построен на AngularDart, там с виду всё красиво и довольно сложно с точки зрения устройства.
Первым делом заглянул в инструменты разработчика Google Chrome на вкладку «Network», чтобы «подслушать» как этот навороченный интерфейс общается с сервером. Запросов там уйма, самые интересные для меня были в разделе «XHR and Fetch», там-то я и нашёл, то что выглядело вполне разгадываемым, если хорошо подумать. Например, один из post-запросов:
**Передаваемая строка.**
```
{"method":"searchArcApprovals","params":"{\"1\":\"ca-pub-8958890276790964\",\"2\":{\"1\":0,\"2\":1,\"3\":0,\"4\":{\"1\":{\"1\":\"AClZvXKL6S3HChRty5YBa81BLWDBQkb3FYDsifZ9V/mBTKbOGlj3gMWVpzTtXggA1880Le9NyVZIicNm/4pz724e/MO8fyLfjOReF205cyjLV9C8OCCeKe7VvZHyvyKpXh8x9smTQ0n8qIIqzuIXle5UK0hD4VBkZDvy//qoSPRCr94UtWYqqi//Rot22LJ2JFNjWEGb4n1YQbAw0cKWPR3LAugPBajInWXEFGWJRTnmY2TkI5VzUzIkcXpJ/bkajn3c8GnecCfFNvNhGLS10VXdRwiykngG3xfoMTRhQOR5GXbm4kwdIhzQUM/d6xP0Xda3FOIZGGk9bymneg+9oDY+rMFiRfDFCb66g50t9J9r++oHXjek09Ci1rqC7LOw2pvkqp3hjG6RyVmsiT/eWGq+OsfjE7CgRk43QIRMSa+jlZBQhARUPlpUXzyZyoTiIPTRZ5ND/4MnIMqaUWSRoDGffiE/XkHJPEkNZtLX2XR5gZ3x5/K+ejU/fqxfZIjI6A3kueJybNA46wSLbmflhDCGDJEE2aeYemLFGqNzFG43B80LzU3yuwgZhrLu/jaMvBJozi0nq+gXEz6r+8tic4fvsQ9lWDA+IXzXw6MKzamgfWV0ORGDW0+966KIY6IkjtIlNRKGyp3pSAd2Po+br4Dl4WNwSkMdmuV60wOrkb5BpnKZKIhDtpjWF7q6ly3FFhwo8Ktdq5ddVJ8ijJ9Y9tQhs2O0idA9N0yV86khV1IQ72OgbMv15qAswnbqF9WCo3qpfJNjJqMCHBRTohPCxhRp0cWz2thszZTmDDADPxU46sclnurd/JxHFO7lJZVdrsFB4vdLIx9kObV3bP1gOpU66kdcmom2tiedknugj7s0jLcgf1EfXnp+SUUAQyoqwS+kdhhQtGqSXgI2TopsuaLVzj+EtAuPwWeLvtI9CFPSe4o2x+gjCRPl8wVvWKV5FIrZavUVOAHZIL4nKyJjHxZi3jPfVnAia/hq1gW6XKoCg1eWGg/cAWZY4mZYQ6W4XnC0MY0uMC6fhPQdXnIS5iLZNhan80jbr/leBr4fO22+tXc6oZpZsDkXd0r3ilBJFPS2I/zAhotuzZgNA+nF2N86pyiSrdeEYFDhKWKadcKAVc3BMxxlrqZYcAXnlus9GW7R9F/ImXQ/fjRfSjVRUaJuQ0EnFejNAwdGcS6STYMa1G0wnNMAKcZ52xcHgil1SZ6N9BQ7A27z6eViOxw0LHBqNJIRZwQml2KjPd5b00D9XvohDr6jBqYXLGS/HMVvpGDJZLDI2LRlmkqBqx7YEgDZqvspeoMLHIJP22SkQDnaJtsOLGVBSi20ZD5nRyjAgS6MmcgFCvfJVWjCIL1RPHqmUU90eK4WXve0ayH9cJnpbtWrkXYCibhVPCMmYowMROw7rI4bPir0\"}}}}","xsrf":"ABOvogKvrE9fIqAKh0w02RIsB4OJ4hsB_g:1535467885347"}
```
В запросе сразу виден идентификатор издателя, под вторым пунктом набор параметров, суть которых можно выяснить экспериментальным путём и жетон XSRF.
А в ответ получает подробную информацию об объявлении, но не всю и без самого объявления (здесь и далее картинки, вытянутые в base64, подрезал).
**Простыня на несколько страниц.**
```
{"result":{"1":[{"1":0,"3":0,"4":{"1":"AClZvXJ2t4wiEZ/VZ0i54m0Qtqpi2DTqkI1kaPMTRi4LnsQn0iR5K1xBlFpS1xmJV7ko4a6qx5RcTkp7CzVjwoy5UDSWZ5jOCPLGRcoQdDt+wOk46bdr0yA\u003d"},"5":{"1":82,"2":0,"3":0,"4":"\u003cdiv id\u003d\"ad-parent-id-6A2DE3D206234468F53C743C0EEACD67A59E6C5B62C0371F770419826258CB1AD9591F60\"\u003e\u003c/div\u003e","5":"\u003cdiv id\u003d\"ad-parent-id-6A2DE3D206234468F53C743C0EEACD67A59E6C5B62C0371F770419826258CB1AD9591F60\"\u003e\u003c/div\u003e","6":"\u003cdiv\u003e\u041c\u043d\u043e\u0433\u043e\u0444\u043e\u0440\u043c\u0430\u0442\u043d\u044b\u0435\u003cspan id\u003d'multi-format-tooltip'\u003e\u003c/span\u003e\u003c/div\u003e\u003ca class\u003d'arc-url-link-ellipsis' target\u003d'_blank' href\u003d'https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/' title\u003d'https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/'\u003ehttps://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/\u003c/a\u003e","7":"\u003cdiv class\u003d'arc-one-by-one-legend'\u003e\u0422\u0438\u043f \u043e\u0431\u044a\u044f\u0432\u043b\u0435\u043d\u0438\u044f\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-data'\u003e\u041c\u043d\u043e\u0433\u043e\u0444\u043e\u0440\u043c\u0430\u0442\u043d\u044b\u0435\u003cspan id\u003d'multi-format-tooltip'\u003e\u003c/span\u003e\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-legend'\u003e\u0426\u0435\u043b\u0435\u0432\u043e\u0439 URL\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-data'\u003e\u003ca class\u003d'arc-url-link-ellipsis' target\u003d'_blank' href\u003d'https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/' title\u003d'https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/'\u003ehttps://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/\u003c/a\u003e\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-legend'\u003e\u0414\u043e\u043c\u0435\u043d\u044b \u0438\u0437\u0434\u0430\u0442\u0435\u043b\u0435\u0439\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-data'\u003e4aynikam.ru\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-data'\u003eandroidphone.su\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-data'\u003eandroidphones.ru\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-data'\u003efull-repair.com\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-data'\u003ehowgadget.com\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-legend'\u003e\u041e\u0431\u043d\u0430\u0440\u0443\u0436\u0435\u043d\u043d\u044b\u0439 \u0440\u0435\u043a\u043b\u0430\u043c\u043e\u0434\u0430\u0442\u0435\u043b\u044c\u003cspan id\u003d'adx-advertiser-tooltip'\u003e\u003c/span\u003e\u003c/div\u003e\u003cdiv class\u003d'arc-one-by-one-data'\u003eDNS Shop\u003c/div\u003e","8":"\u003cdiv\u003e\u003cspan class\u003d'arc-impression-score high'\u003e\u0412\u042b\u0421\u041e\u041a\u041e\u0415\u003c/span\u003e \u0447\u0438\u0441\u043b\u043e \u043f\u043e\u043a\u0430\u0437\u043e\u0432\u003c/div\u003e","9":{"1":"\u003ca href\u003d\"https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/\" target\u003d\"_blank\"\u003e\u003cimg onerror\u003d\"this.src\u003d'data:image/gif;base64,RA7'\" src\u003d\"https://www.google.com/webpagethumbnail?c\u003d58\u0026s\u003d400:400\u0026r\u003d4\u0026d\u003dhttps://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/\u0026a\u003dAIYkKU9ZGGjFTOWtm771MQwgDYxqtlBLCw\" border\u003d0 alt\u003d\"\"\u003e\u003c/a\u003e","2":"\u003ca href\u003d\"https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/\" target\u003d\"_blank\"\u003e\u003cimg onerror\u003d\"this.src\u003d'data:image/gif;base64,R0AA7'\" src\u003d\"https://www.google.com/webpagethumbnail?c\u003d58\u0026s\u003d400:400\u0026r\u003d3\u0026d\u003dhttps://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/\u0026a\u003dAIYkKU_CQ2K6v5f11Nk1RXtc87FtmG2B1w\" border\u003d0 alt\u003d\"\"\u003e\u003c/a\u003e","3":"\u003ca href\u003d\"https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/\" target\u003d\"_blank\"\u003e\u003cimg onerror\u003d\"this.src\u003d'data:image/gif;base64,R0lAA7'\" src\u003d\"https://www.google.com/webpagethumbnail?c\u003d58\u0026s\u003d400:400\u0026r\u003d6\u0026d\u003dhttps://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/\u0026a\u003dAIYkKU_My0a48LAsW-ZKpQX-ATXkMoPEVg\" border\u003d0 alt\u003d\"\"\u003e\u003c/a\u003e"},"10":"https://adwords-displayads.googleusercontent.com/da/b/preview.js?client\u003dasfe-arc-external-preview\u0026obfuscatedCustomerId\u003d5240877441\u0026creativeId\u003d288930210411\u0026htmlParentId\u003dad-parent-id-6A2DE3D206234468F53C743C0EEACD67A59E6C5B62C0371F770419826258CB1AD9591F60\u0026sig\u003dACiVB_yMUjLwDjRO2T-0VAaVuRPt8uLHGQ","13":"https://adwords-displayads.googleusercontent.com/da/b/preview.js?client\u003dasfe-arc-external-preview\u0026obfuscatedCustomerId\u003d5240877441\u0026creativeId\u003d288930210411\u0026htmlParentId\u003dad-parent-id-6A2DE3D206234468F53C743C0EEACD67A59E6C5B62C0371F770419826258CB1AD9591F60\u0026showVariations\u003dtrue\u0026sig\u003dACiVB_yMUjLwDjRO2T-0VAaVuRPt8uLHGQ","14":"https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/","15":"","17":"","18":"DNS Shop","20":"adv-5594449542310820","21":["site1.ru","site2.com","site3.com","site4.ru"]},"6":{"5":"-6668648012302470727","7":["DNS"],"9":0},"7":1,"9":{"3":[{"1":{"1":"AClZvXLE9HJbFYq9TrAsXFgV4YkXsQt9lXp1xWjSB5aT5bFBpe4VNgo\u003d"},"2":"\u0418\u043d\u0442\u0435\u0440\u043d\u0435\u0442 \u0438 \u0442\u0435\u043b\u0435\u043a\u043e\u043c\u043c\u0443\u043d\u0438\u043a\u0430\u0446\u0438\u0438","3":"\u0422\u043e\u0432\u0430\u0440\u044b \u0438 \u0443\u0441\u043b\u0443\u0433\u0438, \u0441\u0432\u044f\u0437\u0430\u043d\u043d\u044b\u0435 \u0441 \u0442\u0435\u043b\u0435\u043a\u043e\u043c\u043c\u0443\u043d\u0438\u043a\u0430\u0446\u0438\u044f\u043c\u0438, \u0432 \u0442\u043e\u043c \u0447\u0438\u0441\u043b\u0435 \u043a\u0430\u0431\u0435\u043b\u044c\u043d\u043e\u0435 \u0438 \u0441\u043f\u0443\u0442\u043d\u0438\u043a\u043e\u0432\u043e\u0435 \u043e\u0431\u0441\u043b\u0443\u0436\u0438\u0432\u0430\u043d\u0438\u0435 \u0438 \u0434\u043e\u0441\u0442\u0443\u043f \u0432 \u0418\u043d\u0442\u0435\u0440\u043d\u0435\u0442."},{"1":{"1":"AClZvXKrUJJ3kKBen2scP56BynOtGhf160i1F1LLmtBj3b/oh2dUFg8\u003d"},"2":"\u041c\u043e\u0431\u0438\u043b\u044c\u043d\u044b\u0435 \u0442\u0435\u043b\u0435\u0444\u043e\u043d\u044b","3":"\u041c\u043e\u0431\u0438\u043b\u044c\u043d\u044b\u0435 \u0438 \u0441\u043e\u0442\u043e\u0432\u044b\u0435 \u0442\u0435\u043b\u0435\u0444\u043e\u043d\u044b, \u0430 \u0442\u0430\u043a\u0436\u0435 \u0441\u043e\u043f\u0443\u0442\u0441\u0442\u0432\u0443\u044e\u0449\u0430\u044f \u0438\u043d\u0444\u043e\u0440\u043c\u0430\u0446\u0438\u044f, \u043d\u0430\u043f\u0440\u0438\u043c\u0435\u0440 \u0442\u0435\u0445\u043d\u0438\u0447\u0435\u0441\u043a\u0438\u0435 \u0445\u0430\u0440\u0430\u043a\u0442\u0435\u0440\u0438\u0441\u0442\u0438\u043a\u0438 \u0438 \u0441\u0440\u0430\u0432\u043d\u0438\u0442\u0435\u043b\u044c\u043d\u044b\u0439 \u0430\u043d\u0430\u043b\u0438\u0437 \u0442\u043e\u0432\u0430\u0440\u043e\u0432. \u0412 \u044d\u0442\u0443 \u043a\u0430\u0442\u0435\u0433\u043e\u0440\u0438\u044e \u043d\u0435 \u0432\u0445\u043e\u0434\u044f\u0442 \u0430\u043a\u0441\u0435\u0441\u0441\u0443\u0430\u0440\u044b \u0434\u043b\u044f \u043c\u043e\u0431\u0438\u043b\u044c\u043d\u044b\u0445 \u0442\u0435\u043b\u0435\u0444\u043e\u043d\u043e\u0432."},{"1":{"1":"AClZvXL4W+khZ4O9SJiu97cTbTs2+0Wecf1IVNju8ffd4ysIT9PJ7XY\u003d"},"2":"\u041c\u043e\u0431\u0438\u043b\u044c\u043d\u044b\u0435 \u0442\u0435\u043b\u0435\u0444\u043e\u043d\u044b \u0438 \u0430\u043a\u0441\u0435\u0441\u0441\u0443\u0430\u0440\u044b \u0434\u043b\u044f \u043d\u0438\u0445","3":"\u041c\u043e\u0431\u0438\u043b\u044c\u043d\u044b\u0435 \u0442\u0435\u043b\u0435\u0444\u043e\u043d\u044b, \u0430 \u0442\u0430\u043a\u0436\u0435 \u0441\u043e\u043f\u0443\u0442\u0441\u0442\u0432\u0443\u044e\u0449\u0438\u0435 \u0430\u043a\u0441\u0435\u0441\u0441\u0443\u0430\u0440\u044b \u0438 \u0430\u043f\u043f\u0430\u0440\u0430\u0442\u043d\u043e\u0435 \u043e\u0431\u0435\u0441\u043f\u0435\u0447\u0435\u043d\u0438\u0435, \u043d\u0430\u043f\u0440\u0438\u043c\u0435\u0440 \u0447\u0435\u0445\u043b\u044b, \u043c\u043e\u043d\u043e\u043f\u043e\u0434\u044b \u0434\u043b\u044f \u0441\u0435\u043b\u0444\u0438, \u0437\u0430\u0449\u0438\u0442\u043d\u044b\u0435 \u044d\u043a\u0440\u0430\u043d\u044b \u0438 \u0437\u0430\u0440\u044f\u0434\u043d\u044b\u0435 \u0443\u0441\u0442\u0440\u043e\u0439\u0441\u0442\u0432\u0430."},{"1":{"1":"AClZvXLQ3gPoVwjQbokDpB3+nni4xURwH5+YlnwkqjYtUowjhiKvk8Q\u003d"},"2":"\u041f\u041a \u0438 \u0431\u044b\u0442\u043e\u0432\u0430\u044f \u044d\u043b\u0435\u043a\u0442\u0440\u043e\u043d\u0438\u043a\u0430","3":"\u0422\u043e\u0432\u0430\u0440\u044b, \u0443\u0441\u043b\u0443\u0433\u0438 \u0438 \u0438\u043d\u0444\u043e\u0440\u043c\u0430\u0446\u0438\u044f, \u0441\u0432\u044f\u0437\u0430\u043d\u043d\u044b\u0435 \u0441 \u043a\u043e\u043c\u043f\u044c\u044e\u0442\u0435\u0440\u0430\u043c\u0438 \u0438 \u0431\u044b\u0442\u043e\u0432\u043e\u0439 \u044d\u043b\u0435\u043a\u0442\u0440\u043e\u043d\u0438\u043a\u043e\u0439."},{"1":{"1":"AClZvXLKYOGgOROaa32IUxU15jP89AtTM4dV24WKS+daMhqJMTNmeSY\u003d"},"2":"\u0422\u0435\u043b\u0435\u0444\u043e\u043d\u0438\u044f","3":"\u0422\u043e\u0432\u0430\u0440\u044b, \u0443\u0441\u043b\u0443\u0433\u0438, \u0430 \u0442\u0430\u043a\u0436\u0435 \u0438\u043d\u0444\u043e\u0440\u043c\u0430\u0446\u0438\u043e\u043d\u043d\u044b\u0435 \u0438 \u0434\u0440\u0443\u0433\u0438\u0435 \u0440\u0435\u0441\u0443\u0440\u0441\u044b, \u0441\u0432\u044f\u0437\u0430\u043d\u043d\u044b\u0435 \u0441 \u0442\u0435\u043b\u0435\u0444\u043e\u043d\u0438\u0435\u0439 \u0438 \u0433\u043e\u043b\u043e\u0441\u043e\u0432\u043e\u0439 \u0441\u0432\u044f\u0437\u044c\u044e."}]},"10":{"1":"AClZvXLdGOShgJo+BM3apOUAFzQkE41z1/hiZhIY8eUlC7p7xXPm82P3dq7yXhbEI+tN/YHgdH4P"}}],"2":0.0,"3":"60609","4":1,"5":"","6":"ClD3Z2nP2P/////1/ff99fXV98nMyMrJz8rH9fHV883Hx8bMz83Oz8vOzv8A/v/+9f33/fX11ffJzMjKyc/Kx/Xx1fPNx8fGzM/Nzs/Lzs7//hABIWxUk293Pm+qOQAAAAAnMJaYSAFQAFoLCS8wxxaTatL1EAJgp7737gY\u003d","7":"3639","9":0},"xsrf":"ABOvogKaRsVZECZZJU-gDWrOqoP0CSqf7Q:1535467886413"}
```
После json\_decode это выглядит примерно так:
**Объект из json-строки (осторожно, 175 строк).**
```
object(stdClass)#19 (2) {
["result"]=>
object(stdClass)#18 (8) {
["1"]=>
array(1) {
[0]=>
object(stdClass)#1 (8) {
["1"]=>
int(0)
["3"]=>
int(0)
["4"]=>
object(stdClass)#2 (1) {
["1"]=>
string(120) "AClZvXJ2t4wiEZ/VZ0i54m0Qtqpi2DTqkI1kaPMTRi4LnsQn0iR5K1xBlFpS1xmJV7ko4a6qx5RcTkp7CzVjwoy5UDSWZ5jOCPLGRcoQdDt+wOk46bdr0yA="
}
["5"]=>
object(stdClass)#3 (17) {
["1"]=>
int(82)
["2"]=>
int(0)
["3"]=>
int(0)
["4"]=>
string(102) ""
["5"]=>
string(102) ""
["6"]=>
string(355) "Многоформатные[https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/](https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/ "https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/")"
["7"]=>
string(1066) "Тип объявленияМногоформатныеЦелевой URL[https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/](https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/ "https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/")Домены издателей4aynikam.ruandroidphone.suandroidphones.rufull-repair.comhowgadget.comОбнаруженный рекламодательDNS Shop"
["8"]=>
string(98) "ВЫСОКОЕ число показов"
["9"]=>
object(stdClass)#4 (3) {
["1"]=>
string(4191) "[![]()](https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/)"
["2"]=>
string(4191) "[![]()](https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/)"
["3"]=>
string(4191) "[![]()](https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/)"
}
["10"]=>
string(291) "https://adwords-displayads.googleusercontent.com/da/b/preview.js?client=asfe-arc-external-preview&obfuscatedCustomerId=5240877441&creativeId=288930210411&htmlParentId=ad-parent-id-6A2DE3D206234468F53C743C0EEACD67A59E6C5B62C0371F770419826258CB1AD9591F60&sig=ACiVB_yMUjLwDjRO2T-0VAaVuRPt8uLHGQ"
["13"]=>
string(311) "https://adwords-displayads.googleusercontent.com/da/b/preview.js?client=asfe-arc-external-preview&obfuscatedCustomerId=5240877441&creativeId=288930210411&htmlParentId=ad-parent-id-6A2DE3D206234468F53C743C0EEACD67A59E6C5B62C0371F770419826258CB1AD9591F60&showVariations=true&sig=ACiVB_yMUjLwDjRO2T-0VAaVuRPt8uLHGQ"
["14"]=>
string(69) "https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/"
["15"]=>
string(0) ""
["17"]=>
string(0) ""
["18"]=>
string(8) "DNS Shop"
["20"]=>
string(20) "adv-5594449542310820"
["21"]=>
array(4) {
[0]=>
string(8) "site1.ru"
[1]=>
string(9) "site2.com"
[2]=>
string(9) "site3.com"
[3]=>
string(8) "site4.ru"
}
}
["6"]=>
object(stdClass)#5 (3) {
["5"]=>
string(20) "-6668648012302470727"
["7"]=>
array(1) {
[0]=>
string(3) "DNS"
}
["9"]=>
int(0)
}
["7"]=>
int(1)
["9"]=>
object(stdClass)#16 (1) {
["3"]=>
array(5) {
[0]=>
object(stdClass)#7 (3) {
["1"]=>
object(stdClass)#6 (1) {
["1"]=>
string(56) "AClZvXLE9HJbFYq9TrAsXFgV4YkXsQt9lXp1xWjSB5aT5bFBpe4VNgo="
}
["2"]=>
string(52) "Интернет и телекоммуникации"
["3"]=>
string(217) "Товары и услуги, связанные с телекоммуникациями, в том числе кабельное и спутниковое обслуживание и доступ в Интернет."
}
[1]=>
object(stdClass)#9 (3) {
["1"]=>
object(stdClass)#8 (1) {
["1"]=>
string(56) "AClZvXKrUJJ3kKBen2scP56BynOtGhf160i1F1LLmtBj3b/oh2dUFg8="
}
["2"]=>
string(35) "Мобильные телефоны"
["3"]=>
string(359) "Мобильные и сотовые телефоны, а также сопутствующая информация, например технические характеристики и сравнительный анализ товаров. В эту категорию не входят аксессуары для мобильных телефонов."
}
[2]=>
object(stdClass)#11 (3) {
["1"]=>
object(stdClass)#10 (1) {
["1"]=>
string(56) "AClZvXL4W+khZ4O9SJiu97cTbTs2+0Wecf1IVNju8ffd4ysIT9PJ7XY="
}
["2"]=>
string(73) "Мобильные телефоны и аксессуары для них"
["3"]=>
string(283) "Мобильные телефоны, а также сопутствующие аксессуары и аппаратное обеспечение, например чехлы, моноподы для селфи, защитные экраны и зарядные устройства."
}
[3]=>
object(stdClass)#13 (3) {
["1"]=>
object(stdClass)#12 (1) {
["1"]=>
string(56) "AClZvXLQ3gPoVwjQbokDpB3+nni4xURwH5+YlnwkqjYtUowjhiKvk8Q="
}
["2"]=>
string(45) "ПК и бытовая электроника"
["3"]=>
string(142) "Товары, услуги и информация, связанные с компьютерами и бытовой электроникой."
}
[4]=>
object(stdClass)#15 (3) {
["1"]=>
object(stdClass)#14 (1) {
["1"]=>
string(56) "AClZvXLKYOGgOROaa32IUxU15jP89AtTM4dV24WKS+daMhqJMTNmeSY="
}
["2"]=>
string(18) "Телефония"
["3"]=>
string(181) "Товары, услуги, а также информационные и другие ресурсы, связанные с телефонией и голосовой связью."
}
}
}
["10"]=>
object(stdClass)#17 (1) {
["1"]=>
string(76) "AClZvXLdGOShgJo+BM3apOUAFzQkE41z1/hiZhIY8eUlC7p7xXPm82P3dq7yXhbEI+tN/YHgdH4P"
}
}
}
["2"]=>
float(0)
["3"]=>
string(5) "60609"
["4"]=>
int(1)
["5"]=>
string(0) ""
["6"]=>
string(168) "ClD3Z2nP2P/////1/ff99fXV98nMyMrJz8rH9fHV883Hx8bMz83Oz8vOzv8A/v/+9f33/fX11ffJzMjKyc/Kx/Xx1fPNx8fGzM/Nzs/Lzs7//hABIWxUk293Pm+qOQAAAAAnMJaYSAFQAFoLCS8wxxaTatL1EAJgp7737gY="
["7"]=>
string(4) "3639"
["9"]=>
int(0)
}
["xsrf"]=>
string(48) "ABOvogKaRsVZECZZJU-gDWrOqoP0CSqf7Q:1535467886413"
}
```
Это был пример ответа, содержащий лишь одно объявление. Понять что к чему можно.
Да и у других запросов методы вполне по-человечески называются. Несколько примеров:
* getWebPropertyMetricsToken
* getAdDisplayLanguages
* getArcSettings
* getAdNetworkApprovals
* getPubControlsCapabilities
### Теоретически возможно. В бой?
Ладно, разгадать их общение возможно (теоретически), но это всё будет бесполезно, да теорией так и останется, если не сделать авторизацию в Google.
#### Авторизация. Или как войти в Google на php+cURL
Опять инструменты разработчика, выходим из учётной записи и смотрим на обмен данными. Детально не помню, ибо ничего там понять не смог. Огромное количество JS, похоже, что какие-то вычисления прямо на клиенте делаются, результаты на сервер отправляются. В общем, нечеловеку войти практически невозможно.
Думаем дальше. Куча JS. А если JS отключить? Не обделит же Google пользователей без JS возможностью авторизоваться? Что ж, попробуем без JS. Внешне окошко авторизации уже выглядит куда проще. Как и ранее, сначала вводим логин, а пароль на следующей странице. Самое главное, что и в плане HTML тоже намного проще! Обычный тэг «form» с обычными полями «input», правда не без кучи защитных или системных скрытых полей. Но скрытые поля — не проблема, ведь что на входе получили, то следующему скрипту и передали. И таким образом получилось войти в Google. А двухэтапная авторизация? Об этом позже. Сначала надо убедиться, что получится вытаскивать объявления для их досмотра, иначе это всё смысла не имеет.
### Возможно ли теоретическое на практике?
В Google вошли — самое время проверить теорию разгадывания протоколов общения на практике. Пришлось повозиться с экспериментами и наблюдениями, внимательно наблюдать и записывать какие действия пользователя приводят к каким запросам, выявлять общие и меняющиеся элементы запроса, сопоставлять длинные непонятные значения, полученные с сервера и такими же длинными, отправляемыми обратно в следующем запросе. Это был дремучий лес, который со временем становился понятнее и прозрачнее.
Что нужно было сделать, чтобы понять, что продолжение имеет смысл?
1. Войти в ЦПО.
2. Получить список объявлений.
3. Получить конкретное объявление (для начала текстовое).
**Вход в ЦПО** — самое простое, грубо говоря, просто переходим по ссылке. Получилось.
**Подробности**Мы просто как бы переходим по ссылке, получаем ответ (который в данном случае не используем). Ещё нам нужно запросить и сохранить цифровой жетон для дальнейших запросов.
В AdSense на момент написания статьи есть два ЦПО. Назову их условно старый и новый.
Для старого ЦПО.
Post-запрос «без нагрузки»:
`https://www.google.com/adsense/gwt-properties?pid=pub-8958890276790964&authuser=0&tpid=pub-8958890276790964&ov=3&hl=en`
Ответ:
```
```
Нам нужна четвёртая строчка, а именно «syn.token.pb». Сохраняем это значение для дальнейшего формирования запросов.
Для нового ЦПО.
Post-запрос «без нагрузки»:
`https://www.google.com/ads-publisher-controls/acx/5/darc/loader?onearcClient=adsense&pc=ca-pub-8958890276790964&tpid=pub-8958890276790964&hl=en`
Ответ:
```
(function() {function loadAsyncOrDefer() {var scriptElement = document.createElement('script'); scriptElement.src = 'https:\/\/ssl.gstatic.com\/ads-publisher-controls\/onearc_20180822-12_RC00\/darc\/arc_app.dart.js';scriptElement.type = 'application\/javascript';scriptElement.defer = true;scriptElement.nonce = window['acxCspNonce'];scriptElement = document.head.appendChild(scriptElement); if ('_resourceTimingBuffer' in window) {_resourceTimingBuffer.add(scriptElement.src);}};loadAsyncOrDefer();})();window['__darc_app_params'] = {'onearcClient': 'ADSENSE','hl': 'ru','pc': 'ca-pub-8958890276790964','tpid': 'pub-8958890276790964',};window['__app_metadata'] = {'token': 'ABiMD8TT9vzK99SFB7iaI0ssBySxT9jjrQ:1535116725529','pre': '\/ads-publisher-controls\/acx','scs': 'https:\/\/ssl.gstatic.com\/ads-publisher-controls\/onearc_20180822-12_RC00','oacf': '\x7b\x221\x22:\x5b5,25,22,8,27,32,43,44,45,48,49,5,25,22,8,27,32,43,44,45,48,49,29,46\x5d\x7d','hats': 'ibhswcm2x2iztju5i6jbbzlkma',};
```
Нужная нам последовательность здесь:
`'token': 'ABiMD8TT9vzK99SFB7iaI0ssBySxT9jjrQ:1535116725529'`
**Получение списка** — задача интересная, ведь нужно передать кучу настроек — сообщить что мы хотим получить (тип объявлений, проверенные/новые/заблокированные, количество объявлений и прочее). Плюс цифровой жетон XSRF на каждый запрос. Получилось. В ответ пришёл большой объём данных, который содержал даже миниатюры изображений тех сайтов куда вели объявления. Ну и, конечно, ссылки на объявления.
**Подробности**Сохранились черновики моих попыток разгадать какой параметр за что отвечает. Я их чуть облагородил ~~вырезал весь мат и смайлики~~ и выложил сюда. Сначала будет последовательность для старого ЦПО, а затем для нового.
Далее *запросами* буду называть названия методов (только для нового ЦПО, для старого метод указан в теле запроса) и json-строку, так как они являются «носителями» информации, всё остальное (адрес, заголовки, цифровые жетоны, прочие параметры) — «обёртка», они не принципиальны, про это всё расскажу позже.
Для старого ЦПО (переменная «params» json-запроса):
```
{
"1":"ca-pub-8958890276790964",
"2":{
"1":0, // Стартовая позиция, то есть начиная с какого по счёту показывать объявления
"2":32, // Кол-во запрашиваемых объявлений
"3":0, // 0 - незаблокированные, 1- заблокированные
"4":{
"1":{"1":"какая-то муть из предыдущего ответа"} //Жетон из предыдущего ответа
},
"5":{
"1":"video" // поисковое слово
"2":1, // Если есть, то смотрим только непроверенные
"3":1, // Появляется если поставить только прогнозируемую блокировку
"6":7, // Объявления за указанное количество дней
"16":[0], // 0 - текстовые; 1 - графические; 2 - медийные. При включении всех этот параметр отсутствует.
"17":0 // При включении медийных этот параметр пропадает
}
},
"3":"-3945261286198141534" //Похоже, параметр не обязательный
}
```
Расшифровка есть, формируем запрос и получаем ответ.
Для старого ЦПО предварительно нужно получить жетон — сделать ещё один запрос перед самим запросом объявлений:
```
{"method":"getWebPropertyMetricsToken","params":"{\"1\":\"ca-pub-8958890276790964\"}","xsrf":"ABOvogKJ6-xmsNWK4Mbe_H5bT1xXhyj8SQ:1535115071772"}
```
Ответ:
```
{"result":{"1":{"1":{"1":"AClZvXKte+4mEwsFB7kw20LrbWQ6jOMxmK8j4At4Vxqc7w+5dDDYWIx2k1ldCvvGbAT59UClLSkQty6zyZZQSmgxKvpKhq22bKRfGy8ywt0B5L8WE53vo+YtI8ixM8Xe0RPixTjPtOLQA8sCZod+hvHxqU5Depi3I9XUV6JMn8uCOg67m+5oe5TT1L0OytnUBDIsjAaQ+kcldN23yGoppKKCs2Zf5XI6i7nk5QHehS8wvsDlugvkKSU3fUo3J+ZHJvoUXyCGLP3lP9Gh+6fOMir/SLrOJx8udRbtjTJhLsvXTXUN2QbjcEfFFAIaWfgMr5euHtYwYYWuMoI5ofZTc9L8sCY5pA0Q/CWyZ6QLH85XI70vxH6cBZtsnfrPLRh18cxSxFgzXuAwPHW8+CueCznqiHcY7gOhxQc2YWmSgwMIP9Cpgr089dWoB58wulcK0g+EqnTJiQdI9MMUj4zzLpu5DYja5ftP7lF3jeCSuKT9q70B9OqMDvlGlruZd2hhHe3k5S+LoyWo/4WZDUTvWpCMmnPzCP3R4OIQnrhS0s5ffOVxjyNHrXJXtrNhppap3BY4iByIn1cowMfVFfx3hNep0JW59db9fVuXKaSy/mqHZKC1ToRM/UyCoSZ9ZjY/Ot091ptURLRYoTFal5TBbMKISgxn5UCz4vSoxVe1fC64dwXHatSzCCg9AjJOpKR4p/9smxOaKg73pmMHsEY98I6TJhvaeJ9o6lcHsG8PZnB6xNS4ZJHBtN1baHkrCHOfqaepMVyRCF2kPNhr9SgujjTTbiKGMUO3UVamOQQ5/EckTgFMr0PIda7PPw7op8qFEhxZmkoo9KgERcYLGHxzGePjfo0IiNbf7k50lgDipwk5ag3CI0tw3CtDicQn6isHwKOmlfSctrEGv/Fjlmcgjhl1sTAL/rTWxDCABKN7/OhdysBAOq0j6viFgzjM8WI0ZuYPIVIm19CQ+YGcOx77oiyxev+3sAj7uSJoYFslmgiZV4jrF5P+b+U/5fknRf2Ho8plAUh4AHweXMeaPFYZAYooe6jC79EzgizqXvx1H/HrKKQcaXdDZ1ivoOM/7DtzJbawzO7ALUnHkqR1ZYmw3+3E/pmsDXedYgzERWYWvJltS+P46iWYOS43SUVw+whDWZnjJOwVOFFLDWcg4ykfzNmbq4B/vUibrV1dCiRpTIXSP92xk1I8MCfQGiptqo5MiKttqJ9Orj7nrGXEDz5pJBTTem919nz5rNIjI/sus3GZ+G4rBE+9i1sJN0jxszvpRD2AKsl1KSOrPCuOBhpNbD2HnFgQd+EUw8CpH2MLZlrZ8l3cqzDVc5aeCQ1eiUKlONlZpIxZi5wE5HyKZRxC8ljtX5xe+Fpg8R8/yDarvAkjeb0yKzN/e893nEVz3CmF68pphNp71kjJtvwBS2JtSWhFc81Ys51GEw\u003d\u003d"}}},"xsrf":"ABOvogJLbcTkcBxU_TCJddIrW4L-mVwPcw:1535115072920"}
```
Этот огромный жетон («1»:«AClZ...») нам понадобится для запроса объявлений.
Запрос объявлений:
```
{"method":"searchArcApprovals","params":"{"1":"ca-pub-8958890276790964","2":{"1":0,"2":24,"3":0,"4":{"1":{"1":"AClZvXKte+4mEwsFB7kw20LrbWQ6jOMxmK8j4At4Vxqc7w+5dDDYWIx2k1ldCvvGbAT59UClLSkQty6zyZZQSmgxKvpKhq22bKRfGy8ywt0B5L8WE53vo+YtI8ixM8Xe0RPixTjPtOLQA8sCZod+hvHxqU5Depi3I9XUV6JMn8uCOg67m+5oe5TT1L0OytnUBDIsjAaQ+kcldN23yGoppKKCs2Zf5XI6i7nk5QHehS8wvsDlugvkKSU3fUo3J+ZHJvoUXyCGLP3lP9Gh+6fOMir/SLrOJx8udRbtjTJhLsvXTXUN2QbjcEfFFAIaWfgMr5euHtYwYYWuMoI5ofZTc9L8sCY5pA0Q/CWyZ6QLH85XI70vxH6cBZtsnfrPLRh18cxSxFgzXuAwPHW8+CueCznqiHcY7gOhxQc2YWmSgwMIP9Cpgr089dWoB58wulcK0g+EqnTJiQdI9MMUj4zzLpu5DYja5ftP7lF3jeCSuKT9q70B9OqMDvlGlruZd2hhHe3k5S+LoyWo/4WZDUTvWpCMmnPzCP3R4OIQnrhS0s5ffOVxjyNHrXJXtrNhppap3BY4iByIn1cowMfVFfx3hNep0JW59db9fVuXKaSy/mqHZKC1ToRM/UyCoSZ9ZjY/Ot091ptURLRYoTFal5TBbMKISgxn5UCz4vSoxVe1fC64dwXHatSzCCg9AjJOpKR4p/9smxOaKg73pmMHsEY98I6TJhvaeJ9o6lcHsG8PZnB6xNS4ZJHBtN1baHkrCHOfqaepMVyRCF2kPNhr9SgujjTTbiKGMUO3UVamOQQ5/EckTgFMr0PIda7PPw7op8qFEhxZmkoo9KgERcYLGHxzGePjfo0IiNbf7k50lgDipwk5ag3CI0tw3CtDicQn6isHwKOmlfSctrEGv/Fjlmcgjhl1sTAL/rTWxDCABKN7/OhdysBAOq0j6viFgzjM8WI0ZuYPIVIm19CQ+YGcOx77oiyxev+3sAj7uSJoYFslmgiZV4jrF5P+b+U/5fknRf2Ho8plAUh4AHweXMeaPFYZAYooe6jC79EzgizqXvx1H/HrKKQcaXdDZ1ivoOM/7DtzJbawzO7ALUnHkqR1ZYmw3+3E/pmsDXedYgzERWYWvJltS+P46iWYOS43SUVw+whDWZnjJOwVOFFLDWcg4ykfzNmbq4B/vUibrV1dCiRpTIXSP92xk1I8MCfQGiptqo5MiKttqJ9Orj7nrGXEDz5pJBTTem919nz5rNIjI/sus3GZ+G4rBE+9i1sJN0jxszvpRD2AKsl1KSOrPCuOBhpNbD2HnFgQd+EUw8CpH2MLZlrZ8l3cqzDVc5aeCQ1eiUKlONlZpIxZi5wE5HyKZRxC8ljtX5xe+Fpg8R8/yDarvAkjeb0yKzN/e893nEVz3CmF68pphNp71kjJtvwBS2JtSWhFc81Ys51GEw\u003d\u003d"}}},"3":""}","xsrf":"ABOvogI3FCm29t4pdIded8L-Q98R0Voy-Q:1535121289188"}
```
Перевожу раздел 2 переменной «params»:
`Дорогой Google, покажи нам, пожалуйста:
начиная с нулевого объявления ("1":0),
24 объявления ("2":24),
незаблокированных ("3":0),
свежий одноразовый пароль: AClZvX....`
Ряд параметров можно не указывать, они принимают значения по-умолчанию:
* тип объявлений: все;
* период: все доступные;
* прогнозируемая блокировка: нет;
* показывать только непроверенные: нет.
В ответ приходят десятки или сотни килобайт в зависимости от количества запрошенных объявлений. Самое тяжёлое — это графика, «вытянутая» в тексте (data:image/gif;base64....). А если непроверенных нет, то ответ прост:
```
{"result":{"4":1,"5":"","8":"0","9":0},"xsrf":"ABOvogLWqmyC7KH1zfvmPxk-Y69-Jzj5XQ:1535115074392"}
```
Если б объявления были они бы содержались здесь: result->{5}.
Для нового ЦПО:
```
{
"1":"ca-pub-8958890276790964",
"2":{
"1":10, // Стартовая позиция, то есть начиная с какого по счёту показывать объявления
"2":7, // Кол-во запрашиваемых объявлений
"3":11, // проверенные - 10; заблокированные - 1; Непроверенные - 11;
"5":{
"6":3 // Объявления за указанное количество дней
"7":3534 // номер рекламной сети
"14":"en" // язык
"16":[0] // 0 - текстовые; 1 - графические; 2 - медийные.
"18":"dfd.com" // домен издателя
"24":"video" // поисковое слово
},
"7":""}, // Жетон из предыдущего ответа для перехода к следующей странице
"3":"-2876348936240321457", // Жетон из предыдущего ответа для перехода к следующей странице
"5":true // Просто истина и всё. Всегда.
}
```
Предварительных запросов делать уже не нужно, можно сразу запрашивать объявления.
SearchApprovals (это метод)
```
{"1":"ca-pub-8958890276790964","2":{"2":100,"3":11,"5":{"16":[0]},"7":""},"5":true}
```
`Google, выдай, пожалуйста:
100 объявлений ("2":100),
непроверенных ("3":11),
текстовых ("5":{"16":[0]},
идентификатора сессии поиска у меня пока нет ("7":"")`
Необязательные параметры и умолчания:
* порядковый номер первого запрашиваемого объявления: 0;
* период: все доступные;
В ответ мы получаем практически то же самое, что в случае старого ЦПО. Отличается только одним словом — названием контейнера с данными. В старом это «result», в новом — «default».
**Получение конкретного объявления** — всё просто, берём из предыдущего ответа ссылку и скачиваем объявление. Здесь уже никакой защиты, доступ свободный для всех.
**Подробности**Ссылка на объявление. Будем её искать в предыдущем ответе, где мы получили много-много килобайт текста в ответ на запрос объявлений.
Чтоб не было слишком много непонятного кода привожу ответ на запрос одного объявления (да и то нещадно порезанный, он был раз в 10 больше, оставлено только самое главное на данный момент):
```
{"result":{"1":[{"1":0,"3":0,"4":{"1":"AClZvXJ2t4wiEZ/VZ0i54m0Qtqpi2DTqkI1kaPMTRi4LnsQn0iR5K1xBlFpS1xmJV7ko4a6qx5RcTkp7CzVjwoy5UDSWZ5jOCPLGRcoQdDt+wOk46bdr0yA\u003d"},"5":{"1":82,"2":0,"3":0,"4":"\u00GQ","13":"https://adwords-displayads.googleusercontent.com/da/b/preview.js?client\u003dasfe-arc-external-preview\u0026obfuscatedCustomerId\u003d5240877441\u0026creativeId\u003d288930210411\u0026htmlParentId\u003dad-parent-id-6A2DE3D206234468F53C743C0EEACD67A59E6C5B62C0371F770419826258CB1AD9591F60\u0026showVariations\u003dtrue\u0026sig\u003dACiVB_yMUjLwDjRO2T-0VAaVuRPt8uLHGQ","14":"https://www.dns-shop.ru/actions/c09a061b-a048-11e8-9547-00155d03330d/","15":"","17":"","18":"","20":"adv-5594449542310820","21":["domain1.com","domain2.com"]},"6":{"5":"-6668648012302470727","9":0},"7":1,"9":{"3":[{"1":{"1":"AClZvXLE9HJbFYq9TrAsXFgV4YkXsQt9lXp1xWjSB5aT5bFBpe4VNgo\u003d"},"2":"\u041/YHgdH4P"}}],"2":0.0,"3":"59917","4":1,"5":"","6":"ClD3Z2nP2P/////1/ff9oPjm7gU\u003d","7":"5751","9":0},"xsrf":"ABOvogJJJuNM1d0i22yN48ibBAY8vpvC_A:1535125743731"}
```
Из параметра {13} можно вытащить ссылку на объявление:
<https://adwords-displayads.googleusercontent.com/da/b/preview.js?client=asfe-arc-external-preview&obfuscatedCustomerId=5240877441&creativeId=288930210411&htmlParentId=ad-parent-id-6A2DE3D206234468F53C743C0EEACD67A59E6C5B62C0371F770419826258CB1AD9591F60&showVariations=true&sig=ACiVB_yMUjLwDjRO2T-0VAaVuRPt8uLHGQ>.
Какое-то время (дни, может недели) ссылка будет жить и по ней любой желающий сможет получить объявление. Там примерно 100 — 150 килобайт и в самом низу (и не только) можно найти отрывки из текста объявления.
Кроме это важный параметр — это внутренний идентификатор объявления, который мы далее будем использовать для управления (блокировка/разблокировка объявления, блокировка/разблокировка аккаунта AdWords, который это объявление откручивает, запрос статистики показов, установка пометки «проверено», отправка сообщения о нарушении правил). Хранится он тут:
result->{1}->{4}->{1}.
Выглядит так:
`AClZvXJ2t4wiEZ/VZ0i54m0Qtqpi2DTqkI1kaPMTRi4LnsQn0iR5K1xBlFpS1xmJV7ko4a6qx5RcTkp7CzVjwoy5UDSWZ5jOCPLGRcoQdDt+wOk46bdr0yA=`
Его длина 120 символов (с редкими исключениями).
Всего в этим потоке данных довольно много информации:
* Тип объявления.
* Целевой URL.
* Домены, на которых откручивалось.
* Сведения о рекламодателе (название, если есть и идентификатор).
* Качественная характеристика кол-ва показов, например, «высокое».
* Три миниатюры посадочной страницы в виде data:image.
* Категория, куда относится объявление, например, «Телефония».
Результат получен — автоматизации поддаётся. Далее был наведён порядок в функциях, ибо рабочий прототип был ужасен, хотелось лишь скорее понять удастся ли процесс автоматизировать. Первая версия был предложена людям и началось доделывание и исправление ошибок. Первая проблема — «двухэтапники» не могли авторизоваться.
### Двухэтапная авторизация
Если пойти проверять как это выглядит при выключенном JS, то можно увидеть множество вариантов авторизации: пароль по SMS, одноразовые пароли с бумажки, через приложение…
Каждый вариант автоматизировать, чтобы всем было удобно — это с ума сойти можно.
#### Спасение разработчика
Когда без JS в Chrome смотрел на механизм двухэтапной авторизации увидел ссылочку на выбор другого метода, за это и зацепился. Какой бы метод не был выбран по-умолчанию, всегда есть вариант перейти к выбору и выбрать SMS. Это и стало настоящим спасением. Конечно, пришлось делать проверку выбранного по-умолчанию метода, и в случае «неправильного» метода «нажимать» кнопку смены и выбирать «одноразовый пароль по SMS».
Для самой авторизации лишь сделал сохранение в файл промежуточных данных из формы (та самая куча всяких скрытых полей) и форму ввода одноразового пароля. Всё, «двухэтапники» тоже смогли войти.
### Завершение процесса создания
Основная задача была выполнена — любой мог установить и использовать автоматизированное решение для периодической фильтрации рекламы на своих сайтах.
**Далее шли доработки, доделки, исправление недостатков...**… выявленных как пользователями так и самостоятельно, доработка внешнего оформления (интуитивно понятное для автора было непонятным почти всем остальным).
Так же были доделаны и добавлены различные функции и фильтры для поиска неугодных объявлений. Например, для автоматического определения мешанины кириллицы и латиницы. Нормальные рекламодатели так объявления не составляют, но иногда бывают ошибки в виде подмешивания в русские слова одного символа латиницы (популярные ошибки в фильтре тоже учтены).
Добавленные для удобства дополнения:
* Список заблокированных рекламодателей.
* Список заблокированных доменов.
* Табличка доходов.
* Ссылки AdSense.
Список заблокированных рекламодателей — это возможность смотреть и править, причём удобнее (но не красивее внешне) чем в штатном интерфейсе! Плюс есть возможность разблокирования «оптом», которой нету в штатном AdSense.
Список заблокированных доменов — аналогично предыдущему списку.
Возможность работы с AdX (через AdManager, куда AdX недавно переехал).
Доработок много, выше перечислены самые интересные на мой взгляд.
### Функции отправки запроса и приёма результата
Ранее писал про запросы в виде json-строк, а подробнее обещал раскрыть позже.
Когда всё это делал нового ЦПО ещё не было, следовательно всё делалось для старого, с него и начнём.
#### Общение со старым ЦПО
С помощью наблюдений удалось выяснить, что основной обмен запросами идёт по одному адресу:
```
https://www.google.com/adsense/gp/creativeReview?ov=3&pid=pub-8958890276790964&authuser=0&tpid=pub-8958890276790964(&hl=ru)
```
То, что в скобках бывает не всегда, это просто параметр, который указывает на язык ответа, его можно применить почти ко всем продуктам Google. Это важно, так как у меня везде используется английский и ПО распознаёт некоторые параметры, ожидая ответа на английском.
Кроме адреса есть стандартная форма передаваемых post-данных (в инструментах разработчика они видны в разделе «Request Payload») — это json-строка с переменными method, params и xsrf:
```
{"method":"getArcSettings","params":"{\"1\":[\"ca-pub-8958890276790964\"]}","xsrf":"ABOvogJlvXKkBQUbPYEsM04recgCsukFMg:1535467881599"}
```
method — тут, вроде, всё ясно.
params — в зависимости от метода свой стандартный формат передаваемой json-строки.
xsrf — выше описано изначальное получение цифрового жетона, который мы используем для запроса, а в ответе нам приходит новый XSRF-token для следующего запроса.
Ответ тоже приходит в виде json-строки из частей result (запрошенная информация) и xsrf:
```
{"result":{"1":[{"1":"ca-pub-8958890276790964","2":{"1":"ca-pub-8958890276790964","2":0},"3":{"1":"ca-pub-8958890276790964","2":0}}]},"xsrf":"ABOvogIH7wJjD8t1xmuu8WbGplQowqjjJA:1535467883406"}
```
**php-код функции**
```
function creative_review($method, $params)
{
$xsrftoken = file_get_contents($GLOBALS['xsrftoken_file']);
$creativeReview = new stdClass(); //to make json request string
$creativeReview->method = $method;
$creativeReview->params = $params;
$creativeReview->xsrf = $xsrftoken;
$creativeReview_post_request = json_encode($creativeReview);
unset($creativeReview);
$result = curl_post($GLOBALS['creative_review_req_string'], $creativeReview_post_request, $GLOBALS['arc_tab_req_string'], $GLOBALS['myheaders']);
$result = json_decode($result); // decode result string
if ($result->xsrf)
file_put_contents($GLOBALS['xsrftoken_file'], $result->xsrf); // Renew standard XSRF token
return $result;
}
```
Где своя функция post-запроса — curl\_post($url, $postfields, $referer, $myheaders).
Переменные названы чтоб понятно было что есть что.
$myheaders почти во всех запросах содержит эти два заголовка:
```
accept-language:en-US;q=1,en;q=0.4
content-type:application/javascript; charset=UTF-8
```
$GLOBALS['creative\_review\_req\_string']:
```
https://www.google.com/adsense/gp/creativeReview?ov=3&pid=pub-8958890276790964&authuser=0&tpid=pub-8958890276790964&hl=en
```
Тот самый адрес, через который идёт обмен данными.
$GLOBALS['arc\_tab\_req\_string']:
```
https://www.google.com/adsense/new/u/0/pub-8958890276790964/main/allowAndBlockAds?webPropertyCode=ca-pub-8958890276790964&tab=arcTab
```
Это значение referer было и в оригинальных запросах, оно тоже не меняется.
#### Общение с новым ЦПО
Здесь с адресом для запроса сложнее — он меняется. Есть только начальная общая часть. Схема такая:
Общая часть + метод + '?' + GET-параметры + rpcTrackingId = <повторение предыдущих GET-параметров в URL-кодировке> + ':' + <порядковый номер запроса по одному и тому же методу в рамках… в общем, пока пользователь не обновит страницу>.
`https://www.google.com/ads-publisher-controls/acx/5/proto/creativereview/GetArcSettings?hl=ru&pc=ca-pub-8958890276790964&onearcClient=adsense&rpcTrackingId=%2Fads-publisher-controls%2Facx%2F5%2Fproto%2Fcreativereview%2FGetArcSettings%3Fhl%3Dru%26pc%3Dca-pub-8958890276790964%26onearcClient%3Dadsense%3A1`
XSRF-token здесь передаётся в заголовке 'x-framework-xsrf-token' и он многоразовый, следовательно, в ответах он не приходит и обновлять его постоянно не нужно.
**php-код функции**
```
function creative_review_new($method, $params)
{
if (!isset($GLOBALS['xsrftoken_new']))
$GLOBALS['xsrftoken_new'] = file_get_contents($GLOBALS['temp_folder'] . 'xsrftoken_new.txt');
$myheaders = $GLOBALS['myheaders_new'];
$myheaders[] = 'x-framework-xsrf-token:' . $GLOBALS['xsrftoken_new'];
$query['pc'] = 'ca-' . $GLOBALS['pub_id'];
$query['onearcClient'] = 'adsense';
$query['hl'] = 'en_US';
foreach ($query as $index => $value)
$rpc[] = $index . '=' . $value;
if(!isset($GLOBALS[$method_count])) {
$GLOBALS[$method_count]=1;
} else {
$GLOBALS[$method_count]++;
}
$append = ':'.$GLOBALS[$method_count];
$query['rpcTrackingId'] = $GLOBALS['creative_review_new_string'] . $method . '?' . implode('&', $rpc) . $append;
$query = http_build_query($query);
$url = 'https://www.google.com' . $GLOBALS['creative_review_new_string'] . $method . '?' . $query;
$result = curl_post($url, $params, $GLOBALS['new_arc_tab_req_string'], $myheaders);
if (mb_strpos($result, 'Error 400 (Not Found)', 0, 'UTF-8') !== false) {
return '-32000 XSRF token validation';
}
$list = explode("\n", $result, 2);
$result = $list[1];
$result = json_decode($result); // decode result string
if (@$result->default->{5})
file_put_contents($GLOBALS['temp_folder'] . 'some_digi_token.txt', $result->default->{5}); // Renew token
if (@$result->default->{6})
file_put_contents($GLOBALS['temp_folder'] . 'some_long_token.txt', $result->default->{6}); // Renew token
```
Где всё та же функция post-запроса — curl\_post($url, $postfields, $referer, $myheaders).
Здесь $myheaders немного отличаются (javascript → json):
```
accept-language:en-US;q=1,en;q=0.4
content-type:application/json; charset=UTF-8
```
$GLOBALS['creative\_review\_new\_string']:
```
/ads-publisher-controls/acx/5/proto/creativereview/
```
Небольшая постоянная часть.
$GLOBALS['new\_arc\_tab\_req\_string']:
```
https://www.google.com/adsense/new/u/0/pub-8958890276790964/arc/ca-pub-8958890276790964
```
Это значение referer было и в оригинальных запросах, оно не меняется.
Снизу есть обновление двух разных жетонов. Это необходимо для «листания» страниц с объявлениями. Здесь механизм запроса второй и последующей страницы не стандартный («покажи мне 10 объявления, начиная с 30-го»). Здесь мы передаём сколько объявлений нам надо показать и один из жетонов из предыдущего ответа, порядковый номер первого запрашиваемого объявления не передаём.
#### Функция запроса списка доменов и управления ими
Она практически такая же как функция общения со старым ЦПО, отличается только адресом обращения.
**php-код функции**
```
function blocking_controls($method, $params)
{
$xsrftoken = file_get_contents($GLOBALS['xsrftoken_file']);
$creativeReview = new stdClass(); //to make json request string
$creativeReview->method = $method;
$creativeReview->params = $params;
$creativeReview->xsrf = $xsrftoken;
$creativeReview_post_request = json_encode($creativeReview);
unset($creativeReview);
$result = curl_post($GLOBALS['blocking_controls_req_string'], $creativeReview_post_request, $GLOBALS['arc_tab_req_string'], $GLOBALS['myheaders']);
$result = json_decode($result); // decode result string
if ($result->xsrf)
file_put_contents($GLOBALS['xsrftoken_file'], $result->xsrf); // Renew standard XSRF token
return $result;
}
```
$GLOBALS['blocking\_controls\_req\_string']:
```
https://www.google.com/adsense/gp/blockingControls?ov=3&pid=pub-8958890276790964&authuser=0&tpid=pub-8958890276790964
```
Адрес для обмена данными.
XSRF-жетоны сохраняются на диск в файл, это необходимо чтобы работали запросы на блокировку/разблокировку объявлений, аккаунтов AdWords и прочих действий прямо из панели управления без необходимости запрашивать новый.
### Обработка полученных ответов
Данные приходят либо в виде json-строк (ответы получаемые тремя функциями выше) и в виде JS-кода (запрашиваемые объявления), где ряд символов «зашифрован» шестнадцатеричной кодировкой (\x<код символа из двух ~~символов~~ знаков>).
Отрывок из того объявления, ссылка на которое есть выше:
> target\x3d\_blank title\x3d\x22\x22\x3e\x3cspan\x3eКупи Xiaomi Redmi S2 и получи Redmi 5 \x3cbr\x3eв подарок. С 24 по 26 августа. \x3cbr\x3eПодробнее на сайте.
Для json есть в php функция, которая на выходе даст хоть объект, хоть массив.
Для «косоиксов» где-то в сети нашёл небольшую функцию, которая приводит данные к человеческому виду.
**php-код функции**
```
function hex_repl($html)
{
$i = 256;
while ($i >= 0) {
$hex = dechex($i);
$html = str_ireplace("\x$hex", chr($i), $html);
$i--;
}
return $html;
}
```
Результат расшифровки:
>
> ```
> target=_blank title="">Купи Xiaomi Redmi S2 и получи Redmi 5
> в подарок. С 24 по 26 августа.
> Подробнее на сайте.
> ```
>
>
### Распознавание объявлений | https://habr.com/ru/post/422379/ | null | ru | null |
# TREX: 27-ричная симметричная система счисления
Каждый специалист по компьютерам знает, насколько сложно работать с длинными последовательностями нулей и единиц. На помощь ему приходят восьмеричная и шестнадцатиричная системы счисления, обеспечивающие более компактное представление информации.
С троичной системой счисления ситуация хуже: есть несколько способов представления троичных чисел и есть несколько способов компактной записи троичных чисел, но они имеют недостатки, усложняющие работу с ними.
Система кодирования TREX разработана для компактного отображения симметричной троичной системы счисления при ее использовании в компьютерных системах
#### Замечания
1. В данной статье речь идет только о симметричной троичной системе счисления, использующей значения {-1, 0, +1}.
2. Недостатки предлагаемых на сегодняшний момент 9-ти и 27-ричных систем кодирования троичных чисел будут упомянуты ниже в сравнении с системой TREX.
#### Проблематика
1. При разработке ПО для работы с троичными компьютерами встает вопрос вывода информации на различные устройства отображения информации. При этом информация должна выводиться упорядоченно, чтобы при печати, например, дампов одинаковые разряды чисел располагались на одинаковых позиция строки.
2. Работа с троичной логикой очень непривычна даже для опытных программистов, поэтому для повышения удобства работы, минимизации человеческих ошибок и сокращения времени освоения троичного компьютера (который когда-нибудь уже будет создан) требуется система кодирования, обладающая простотой, наглядностью и односимвольностью ( отображением одного разряда одним символом, желательно из стандартного набора ASCII)
#### Представление троичных чисел
Для записи симметричной троичной системы счисления удобной формы отображения на экране компьютера можно добиться, используя алфавит {-, 0, +}.
Пример:
`+-0-0+++- -++0+00--`
`000+-+--0 +-+-+-++0`
`-0+0-+00+ 0-0+++--0`
#### Компактное представление троичных чисел
Поскольку с длинными последовательностями знаков «-», «0» и «+» работать неудобно (как и с длинными последовательностями «0» и «1» в двоичной системе счисления), то должна быть возможность компактного отображения информации (по аналогии с HEX-кодом).
По аналогии с названием HEX, для представляемой системы счисления предлагается использовать название TREX.
**Описание системы кодирования**
Система TREX использует следующий алфавит:
`{ m..a, 0, A..M}`
Используется следующая схема кодирования:
`Десятичное Троичное TREX
значение значение
-13 --- m
-12 --0 l
-11 --+ k
-10 -0- j
-9 -00 i
-8 -0+ h
-7 -+- g
-6 -+0 f
-5 -++ e
-4 0-- d
-3 0-0 c
-2 0-+ b
-1 00- a
0 000 0
+1 00+ A
+2 0+- B
+3 0+0 C
+4 0++ D
+5 +-- E
+6 +-0 F
+7 +-+ G
+8 +0- H
+9 +00 I
+10 +0+ J
+11 ++- K
+12 ++0 L
+13 +++ M`
**Троичные единицы данных и их запись в TREX**
**Трит**
Единичный троичный разряд, который в симметричной троичной системе счисления может принимать значения {-1, 0, +1}. Для удобного отображения на устройствах вывода информации целесообразно использовать символы {-, 0, +} соответственно.
Пример:
Троичная система счисления Десятичное значение
`+ +1
0 0
- -1`
**Трибл**
Трибл (3 троичных разряда или 1/3 часть трайта) кодируется одним символом TREX
Пример:
`M = +++`
**Трайт**
При использовании системы TREX предлагается трайтом называть девять троичных разрядов в отличие от применяемого в вычислительных машинах «Сетунь» 6-ти разрядного трайта. Девятиразрядный трайт достаточно велик, чтобы закодировать алфавит, включающий цифры, математические и служебные знаки, заглавные и строчные буквы для многих языков. Диапазон значений трайта от -9841 до +9841. В трайте целое число 27-ричных цифр (триблов). Трайт кодируется тремя символами TREX
Пример:
`A0m = 00+ 000 ---`
#### Преимущества перед имеющимися 9-ти и 27-ричными системами кодирования
Предлагаемая система кодирования выгодно отличается от предлагавшихся до этого 9-ти и 27-ричных систем следующими особенностями:
* **односимвольностью** — каждое значение отображается одним символом, не требуется вводить двухсимвольные обозначения.
Существующие системы кодирования:
существует 9-ричная система, использующая алфавит {-4,-3,-2,-1,0,1,2,3,4}
* **естественностью** – для записи не применяются специальные символы.
Существующие системы кодирования:
существует вариант 9-тиричной системы счисления, использующий специальные символы с верхней чертой (не знаю, как нарисовать символы с верхним подчеркиванием, поэтому вставил картинку):

Свойства односимвольности и естественности очень удобны при компактном отображении на экране троичных дампов без использования специальных шрифтов.
Пример:
`двухсимвольная система
запись TREX
(столбцы «ползут») (столбцы ровные)
-4 1 0 -2 -3 A a 0 B B
0 0 0 1 -2 M M m d d
1 1 -3 0 0 C c a d d`
* **визуальной симметричностью** — для противоположных значений используются одни и те же символы с разным регистром, в отличие от систем, где противоположные значения обозначаются разными символами.
Существующие системы кодирования:
существуют 9-ричная система, использующая алфавит {W,X,Y,Z,0,1,2,3,4}, и 27-ричная система, использующая алфавит {0,A..Z}).
Свойство визуальной симметричности позволяет выполнять очевидные операции с троичными числами «в уме»
Пример:
`A = -a
MMM + mmm = 0`
* **наглядностью** - возможностью в уме выполнять следующие простейшие операции с числами:
1. ***определение знака числа*** — по регистру самой старшей цифры`.`
Пример:
`Akm > 0
mmD < 0`
2. ***инверсия числа*** - производится сменой регистра всех символов.
Пример:
`-(AdFGhb) = aDfgHB`
3. ***вычисление модуля числа*** – модуль числа равен самому числу, если старшая цифра положительная или инвертированному числу, если она отрицательная
Пример:
`mod (Mf0) = Mf0
mod (a0H) = A0h`
4. ***упрощение при сложении*** - при сложении длинных чисел одинаковые символы различных регистров, находящиеся в одинаковых разрядах можно сократить
Пример:
`Mfa 00a
+ => + => 00G
mFH 00H`
5. ***сравнение по первой отличающейся цифре*** - при сравнении двух чисел, как положительных, так и отрицательных, больше то число, у которого больше первая отличающаяся цифра, начиная со старшей значащей.
Пример:
`Mfa > Mma
afa > bfa`
### Выводы
Предлагаемая система кодирования позволит:
1. упорядочить отображение троичной информации на экране компьютера (выровненные дампы)
2. уменьшить число выводимых знаков по сравнению с поразрядным выводом троичных данных
3. облегчить работу с троичными числами широкому кругу специалистов
4. уменьшить количество ошибок при разработке программного обеспечения для троичных компьютеров или их эмуляторов.
Пример скриншота с TREX
 | https://habr.com/ru/post/560928/ | null | ru | null |
# Как писать подзапросы EXISTS с помощью JPA и Hibernate
### Введение
В этой статье я покажу вам, как писать подзапросы EXISTS с помощью JPA и Hibernate.
Подзапросы EXISTS очень полезны, так как позволяют реализовать [SemiJoins](https://en.wikipedia.org/wiki/Relational_algebra#Semijoin). К сожалению, многие разработчики приложений не знают о SemiJoins и ограничиваются тем, что эмулируют его с помощью EquiJoins (например, INNER JOIN) в ущерб производительности запросов.
### Модель домена
Предположим, мы используем следующие объекты `Post` и `PostComment`:
Объект `Post` является родительским, а объект `PostComment` является дочерним, поскольку `PostComment` ссылается на родительский объект через его свойство `post`.
### Извлечение родительских сущностей при фильтрации по дочерним сущностям
Давайте предположим, что мы хотим получить все сущности `Post`, у которых имеется `PostComent` со значением score больше 10. Большинство разработчиков ошибочно воспользуются следующим запросом:
```
List posts = entityManager.createQuery("""
select distinct p
from PostComment pc
join pc.post p
where pc.score > :minScore
order by p.id
""", Post.class)
.setParameter("minScore", 10)
.setHint(QueryHints.HINT\_PASS\_DISTINCT\_THROUGH, false)
.getResultList();
```
Этот запрос выполняет соединение между `post` и `post_comment` только для фильтрации записей `post`. Поскольку проекция содержит только объект `Post`, в этом случае JOIN не требуется. Вместо этого для фильтрации записей сущностей следует использовать SemiJoin `Post`.
> Используется `HINT_PASS_DISTINCT_THROUGH` для предотвращения передачи ключевого слова `DISTINCT` в базовый SQL-запрос, поскольку дедупликация выполняется для ссылок на объекты Java, а не для записей таблицы SQL. Ознакомьтесь с [этой статьей](https://vladmihalcea.com/jpql-distinct-jpa-hibernate/) для более подробной информации по этой теме.
>
>
### Подзапросы EXISTS с JPQL
Как я объяснял в [этой статье](https://vladmihalcea.com/sql-exists/), подзапрос EXISTS — гораздо лучшая альтернатива. Следовательно, мы можем достичь нашей цели, используя следующий запрос JPQL:
```
List posts = entityManager.createQuery("""
select p
from Post p
where exists (
select 1
from PostComment pc
where
pc.post = p and
pc.score > :minScore
)
order by p.id
""", Post.class)
.setParameter("minScore", 10)
.getResultList();
```
При выполнении приведенного выше запроса JPQL Hibernate генерирует следующий запрос SQL:
```
SELECT
p.id AS id1_0_,
p.title AS title2_0_
FROM post p
WHERE EXISTS (
SELECT 1
FROM post_comment pc
WHERE
pc.post_id=p.id AND
pc.score > ?
)
ORDER BY p.id
```
Преимущество этого запроса в том, что SemiJoin не нужно объединять все записи `post` и `post_comment`, поскольку, как только `post_comment` найдено соответствие критериям фильтрации (например, `pc.score > ?`), `EXISTS` предложение возвращается, `true` и запрос переходит к следующей записи `post`.
### Подзапросы EXISTS с Criteria API
Если вы хотите динамически построить запрос объекта, вы можете использовать Criteria API, поскольку, как и JPQL, он поддерживает фильтрацию подзапросов.
Предыдущий запрос JPQL можно переписать в запрос Criteria API, например так:
```
CriteriaBuilder builder = entityManager.getCriteriaBuilder();
CriteriaQuery query = builder.createQuery(Post.class);
Root p = query.from(Post.class);
ParameterExpression minScore = builder.parameter(Integer.class);
Subquery subQuery = query.subquery(Integer.class);
Root pc = subQuery.from(PostComment.class);
subQuery
.select(builder.literal(1))
.where(
builder.equal(pc.get(PostComment\_.POST), p),
builder.gt(pc.get(PostComment\_.SCORE), minScore)
);
query.where(builder.exists(subQuery));
List posts = entityManager.createQuery(query)
.setParameter(minScore, 10)
.getResultList();
```
Приведенный выше запрос Criteria API генерирует тот же SQL-запрос, что и предыдущий запрос JPQL.
### Подзапросы EXISTS с Blaze Persistence
Если вы не являетесь большим поклонником Criteria API, то есть гораздо лучшая альтернатива построению динамических запросов сущностей. [Blaze Persistence](https://vladmihalcea.com/blaze-persistence-jpa-criteria-queries/) позволяет писать динамические запросы, которые не только более удобочитаемы, но и более эффективны, поскольку вы можете использовать [LATERAL JOIN](https://vladmihalcea.com/sql-lateral-join/) , [Derived Tables](https://vladmihalcea.com/sql-derived-table-inline-view/) , [Common Table Expressions](https://vladmihalcea.com/sql-cte-common-table-expression/) или [Window Functions](https://vladmihalcea.com/why-you-should-definitely-learn-sql-window-functions/) .
Предыдущий запрос с Criteria API можно переписать с использованием Blaze Persistence, например так:
```
final String POST_ALIAS = "p";
final String POST_COMMENT_ALIAS = "pc";
List posts = cbf.create(entityManager, Post.class)
.from(Post.class, POST\_ALIAS)
.whereExists()
.from(PostComment.class, POST\_COMMENT\_ALIAS)
.select("1")
.where(PostComment\_.POST).eqExpression(POST\_ALIAS)
.where(PostComment\_.SCORE).gtExpression(":minScore")
.end()
.select(POST\_ALIAS)
.setParameter("minScore", 10)
.getResultList();
```
При выполнении запроса Blaze Persistence выше Hibernate будет генерировать тот же оператор SQL, который был создан вышеупомянутыми запросами JPQL или Criteria API.
Потрясающе, правда?
### Заключение
SemiJoins очень полезны для фильтрации, и вы должны предпочесть их EquiJoins, когда проекция запроса не содержит ни одного из соединенных столбцов.
В SQL SemiJoins выражаются с помощью подзапросов EXISTS, и эта функция не ограничивается собственными SQL-запросами, поскольку вы можете использовать EXISTS в запросах сущностей JPA и Hibernate как с JPQL, так и с Criteria API, а также с запросами Blaze Persistence. | https://habr.com/ru/post/652591/ | null | ru | null |
# Поиск всех групп пользователя AD по протоколу LDAP
Мне по роду занятий часто приходится иметь дело с сервисами интегрирующимися с AD. К сожалению в большинстве таких сервисов напрочь отсутствует поддержка такой удобной «фичи» AD как [Nested Groups](http://technet.microsoft.com/en-us/library/cc776499%28v=ws.10%29.aspx)
Неужели организовать перечисление всех вложенных групп пользователя так сложно?
##### На первый взгляд.
На первый взгляд для решения поставленной задачи как минимум потребуется организовать циклический вызов функций для получения групп, в которые входит группа пользователя и так далее. При таком подходе важно не забыть и обработать возможную ситуацию, когда группа A вложена в группу B, а группа B вложена в группу A.
А если проверка членства в группе вызывается достаточно часто, то такой подход может потребовать значительных вычислительных ресурсов.
##### Но выход есть.
Существует прекрасная статья [Active Directory: LDAP Syntax Filters](http://social.technet.microsoft.com/wiki/contents/articles/5392.active-directory-ldap-syntax-filters.aspx)
В которой приведён интересный пример LDAP фильтра для получения групп пользователя, включая вложенные:
```
(member:1.2.840.113556.1.4.1941:=cn=Jim Smith,ou=West,dc=Domain,dc=com)
```
Также на MSDN есть статья [Search Filter Syntax](http://msdn.microsoft.com/en-us/library/windows/desktop/aa746475%28v=vs.85%29.aspx), описывающая имеющиеся Matching Rules, которые можно использовать в фильтрах LDAP совместно с Active Directory. В этой статье правило LDAP\_MATCHING\_RULE\_IN\_CHAIN описано более подробно:
> Это правило применимо только к атрибутам типа distinguishedName. Этот специальный модификатор оператора совпадения позволяет обойти всё дерево вложенных объектов.
Таким образом задача обработки вложенности групп легко переносится на сервер AD.
##### Чем это знание может быть полезно администраторам?
Некоторые сервисы позволяют администратору при настройке задать LDAP фильтр для поиска групп пользователя — в таком случае администратор без вмешательства в код приложения может менять его поведение в отношении вложенных групп. Достаточно фильтры:
```
(member=cn=Jim Smith,ou=West,dc=Domain,dc=com)
(memberOf=cn=Sales,ou=West,dc=Domain,dc=com)
```
заменить на
```
(member:1.2.840.113556.1.4.1941:=cn=Jim Smith,ou=West,dc=Domain,dc=com)
(memberOf:1.2.840.113556.1.4.1941:=cn=Sales,ou=West,dc=Domain,dc=com)
```
[Пример использования расширяемых правил сравнения на PowerShell](http://blogs.technet.com/b/isrpfeplat/archive/2011/01/17/querying-bitwise-flags-in-attributes.aspx) | https://habr.com/ru/post/187044/ | null | ru | null |
# Erlang для самых маленьких. Глава 3: Базовый синтаксис функций
Доброй ночи, Хабр! Мы продолжаем изучение Erlang для самых маленьких.
В [прошлой главе](http://haru-atari.com/blog/19/erlang-for-the-little-ones-chater-2-modules-and-functions) мы рассмотрели как объявлять функции и как объединять их в модули. В этой главе мы рассмотрим синтаксис функций более подробно.
**Список глав**[Глава 1: Типы данных, переменные, списки и кортежи](http://haru-atari.com/ru/blog/18/erlang-for-the-little-ones-chater-1-data-types-variables-lists-tuples) ([github](https://github.com/HaruAtari/Erlang-for-the-little-ones/blob/master/01/README.md))
[Глава 2: Модули и функции](http://haru-atari.com/ru/blog/19/erlang-for-the-little-ones-chater-2-modules-and-functions) ([github](https://github.com/HaruAtari/Erlang-for-the-little-ones/tree/master/02/README.md))
[Глава 3: Базовый синтаксис функций (полная версия)](http://haru-atari.com/ru/blog/20/erlang-for-the-little-ones-chater-3-basic-sintax-of-functions) ([github](https://github.com/HaruAtari/Erlang-for-the-little-ones/tree/master/03/README.md))
[Глава 4: Система типов](http://haru-atari.com/ru/blog/21/erlang-for-the-little-ones-chater-4-type-system) ([github](https://github.com/HaruAtari/Erlang-for-the-little-ones/tree/master/04/README.md))
[Семь мифов о производительности Erlang](http://haru-atari.com/ru/blog/27/the-seven-myths-of-erlang-performance)
Исходники примеров к главе лежат [здесь](https://github.com/HaruAtari/Erlang-for-the-little-ones/tree/master/03/sources).
Сопоставление с образцом
------------------------
Для начала давайте напишем функцию, которая будет приветствовать пользователя и текст приветствия будет зависеть от его пола. В виде псевдокода наша функция будет выглядеть следующим образом:
```
function greet(Gender,Name)
if Gender == male then
print("Hello, Mr. %s!", Name)
else if Gender == female then
print("Hello, Mrs. %s!", Name)
else
print("Hello, %s!", Name)
end
```
Если вместо классической конструкции `if then else` использовать сопоставление с образцом, можно сэкономить кучу шаблонного кода. Вот так эта функция будет выглядеть на Erlang если использовать сопоставление с образцом:
```
greet(male, Name) ->
io:format("Hello, Mr. ~s!", [Name]);
greet(female, Name) ->
io:format("Hello, Mrs. ~s!", [Name]).
```
Функция `io:format()` используется для форматированного вывода в терминал. Здесь мы использовали сопоставление с образцом в описании списка аргументов функции. Это позволило нам одновременно присвоить входные значения и выбрать ту часть функции, которая должна быть выполнена. Зачем сначала присваивать значения, а потом сравнивать их в теле функции, если можно сделать это одновременно и в «более декларативном» стиле?
В общем виде объявление такой функции выглядит следующим образом:
```
fnct_name(X) ->
Extpression;
fnct_name(Y) ->
Expression;
fnct_name(_) ->
Expression.
```
Каждая ветвь функции объявляется как полноценная функция но заканчивается точкой с запятой(`;`), следом за ней объявляется следующая. После последней части ставится точка.
Обратите внимание на последний образец. Что будет, если мы вызовем нашу функцию `greet()` и укажем непредусмотренный пол? Мы получим исключение о том, что входные параметры не подходят ни под один из образцов:
```
1> chapter03:greet(someOther, "Haru").
** exception error: no function clause matching chapter03:greet(someOther, "Haru")
```
Поэтому важно включать в объявление образец, который подойдет под любое значение. При этом он должен быть последним. В противном случае образцы объявленные после него никогда не будут обработаны.
Давайте перепишем нашу функцию, так что бы она корректно обрабатывала неверные входные значения:
```
greet(male, Name) ->
io:format("Hello, Mr. ~s!", [Name]);
greet(female, Name) ->
io:format("Hello, Mrs. ~s!", [Name]);
greet(_, Name) ->
io:format("Hello, ~s!", [Name]).
```
Но сопоставление с образцом в объявлении функций приносит намного больше пользы, чем просто сокращение объема кода. Вспомним списки: список состоит из головы и остальной части. Давайте напишем две функции, которые будут возвращать первый и второй элементы полученного списка.
```
first([X|_]) ->
X.
second([_,X|_) ->
X.
```
Достаточно просто, не так ли? Есть еще один интересный прием, основанный на том факте, что переменные в Erlang можно присвоить только один раз.
```
same(X,X) ->
true;
same(_,_) ->
false.
```
Эта функция возвращает `true`, если ее аргументы одинаковы, иначе возвращает `false`. Как это работает? При вызове функции `chapter03::same(one, two).` переменной `X` присваивается значение `one`, затем производится попытка присвоить этой же переменной значение `two`. Из-за того, что значение уже было присвоено, попытка заканчивается неудачей и шаблон отбрасывается как неподходящий. Так как во втором случае мы не указываем явно каким переменным нужно присвоить значения, шаблон подходит и функция возвращает `false`. Если же передать в функцию одинаковые значения `chapter03:same(3, 3).`, то первый шаблон подойдет и функция вернет `true`.
Охранные выражения
------------------
У сопоставления с образцом есть один большой недостаток: оно недостаточно выразительно. С его помощью нельзя указать тип данных, диапазон и другие подобные обобщения. Каждый образец является конкретным случаем. Для решения этой проблемы в Erlang есть Охранные выражения (или сторожевые условия). Для начала давайте напишем функцию, которая будет принимать наш ИМТ (индекс массы тела) и оценивать наше состояние. ИМТ человека равен его весу разделенному на квадрат роста.
```
bmi_tell(Bmi) when Bmi =< 18.5 ->
"You're underweight.";
bmi_tell(Bmi) when Bmi =< 25 ->
"You're supposedly normal.";
bmi_tell(Bmi) when Bmi =< 30 ->
"You're fat.";
bmi_tell(_) ->
"You're very fat.".
```
Здесь при обращении к функции происходит проверка первого условия, находящегося после слова `when` (`Bmi =< 18.5`). Если это выражение возвращает `true` будет выполнена соответствующая ветвь кода. Иначе происходит проверка следующего условия и так до конца. И тут мы тоже добавили в конец условие, под которое подойдет любое значение.
В общем случае объявление функции с использованием охранных выражений выглядит следующим образом:
```
fnct_name(Arg_1, Arg_1, ..., Arg_n) when rule_1 ->
Expression;
fnct_name(Arg_1, Arg_1, ..., Arg_n) when rule_2 ->
Expression.
```
Так же мы не ограничены одним выражением в условии. Мы можем провести несколько проверок. Если для прохождения проверки должны быть выполнены оба условия (аналог `andalso`), между ними ставится запятая(`,`).
```
lucky_number(X) when 10 < X, X > 20 ->
true;
lucky_number(_) ->
false.
```
Если достаточно хотя бы одного (аналог `orelse`), они разделяются точкой с запятой(`;`).
```
lucky_atom(X) when X == atom1; X == anot2 ->
true;
lucky_atom(_) ->
false.
```
В охранных выражениях можно использовать функции. Вот функция, которая делит одно число на другое, но перед этим проверяет, что бы переданные аргументы были числами и что бы `Y` не был равен нулю:
```
safe_division(X, Y) when is_integer(X), is_integer(Y), Y /= 0 ->
X / Y;
safe_division(_, _) ->
false.
```
Ветвление
---------
### Оператор `if`
Помимо рассмотренных выше выражений в Erlang существует и обычный оператор ветвления `if`. Давайте перепишем нашу функцию `bmi_tell()` с использованием этого оператора.
```
if_bmi_tell(Bmi) ->
if Bmi =< 18.5 -> "You're underweight.";
Bmi =< 25 -> "You're supposedly normal.";
Bmi =< 30 -> "You're fat.";
true -> "You're very fat."
end.
```
В общем случае оператор ветвления `if` выглядит следующим образом:
```
if Rule_1 -> Expression;
Rule_2 -> Expression;
...
true -> Expression
end.
```
Хочу напомнить, что в отличии от Haskell, здесь отступы не играют никакой роли кроме декоративной и код отформатирован так только того, что бы его было легче воспринимать. Вы вольны форматировать его так, как вам будет удобно.
Здесь выражения `rule_1` и `rule_2` — это одно или несколько условий. В случае успешного выполнения условия, будет выполнен блок кода `Expression` (может содержать одну или несколько команд) идущий за ним. Таких логических ветвей может быть сколько угодно.
Обратите внимание на последний блок `true -> "You're very fat.`. Что это за условие? Это альтернатива оператору `orelse`. Блок кода идущий за ним будет выполнен если ни одно условие не пройдет проверку. Важно запомнить, что этот оператор обязателен. Ведь, как мы помним, в Erlang любое выражение должно возвращать результат. Если не описать этот блок, то модуль скомпилируется, но когда поток выполнения проверит все условия и не обнаружит блок `true`, будет сгенерированно исключение.
```
** exception error: no true branch found when evaluating an if expression
in function chapter03:if_bmi_tell/1
```
### Оператор `case ... of`
Помимо `if` в Erlang есть еще один оператор ветвления — `case of`. И этот оператор подобен целой функции вставленной в другую функцию. Он позволяет делать выбор не только на основании условия, но так же дает возможность использовать сопоставления с образцом и охранные выражения. В общем виде он выглядит так:
```
case Rule of
Val_1 -> Expression;
Val_2 -> Expression
...
Val_n -> Expression
```
Здесь `Rule` — это переменная или выражение, результат которого будет проверяться. Дальше следуют уже знакомые нам блоки «условие — выражение» (`Val_1 -> Expression;`). В условии можно использовать сопоставления с образцом и охранные выражения, что делает эту конструкцию невероятно гибкой.
Давайте для примера напишем функцию, которая будет принимать кортеж состоящий из температуры и названия шкалы ее измерения и на основании этих данных оценивать ее.
```
assessment_of_temp(Temp) ->
case Temp of
{X, celsius} when 20 =< X, X =< 45 ->
'favorable';
{X, kelvin} when 293 =< X, X =< 318 ->
'scientifically favorable';
{X, fahrenheit} when 68 =< X, X =< 113 ->
'favorable in the US';
_ ->
'not the best tempperature'
end.
```
При выполнении этой функции наш кортеж будет сопоставлен с переменной `Temp`, затем будет найден паттерн, под который этот кортеж подойдет. Затем будет проведена проверка охранными выражениями и если она будет пройдена — функция вернет соответствующую строку.
Здесь мы так же как и раньше добавляем в конец выражение, которое будет перехватывать все неподошедшие варианты.
Как мы видим, выражение `case of` почти полностью можно переместить в область объявление функции. Так где же лучше размещать условия? Ответ прост: там где вам больше нравиться. Различия между этими двумя конструкциями минимальны. Поэтому используйте тот вариант, который вам легче читать.
Заключение
----------
В этой главе мы рассмотрели то, как можно управлять потоком выполнения внутри функций. Узнали, какие для этого существуют конструкции и как их использовать. Так же мы познакомились с охранными выражениями.
В [следующей главе](http://haru-atari.com/blog/21/erlang-for-the-little-ones-chater-4-type-system) мы более пристально рассмотрим систему типов в языке Erlang.
Спасибо, что дочитали до конца. Надеюсь, было интересно. Прошу прощения за столь большую задержку. Времени свободного совсем нет.
**P.S.** Об опечатках и ошибках прошу сообщать в личку, а не в комментарии. Спасибо за понимание. | https://habr.com/ru/post/211815/ | null | ru | null |
# Разбор алгоритмических задач с собеседований в Google, Facebook, Amazon
### ▍ Введение
Всем привет!
В данный момент времени я активно готовлюсь к алгоритмическим собеседованиям на позицию стажера в одну из около-FAANG компаний. В данной статье пройдемся по двум задачам из списка часто встречаемых задач с [leetcode.com](http://leetcode.com).
#### ▍ 1. Guess the Word
***Условие задачи:***
Имеется некоторое непустое множество уникальных строк и некоторое секретное слово, которое находится в этом множестве, представленное в виде непустой строки. Так же на входе предоставлен некоторый сторонний интерфейс *Master*, метод которого будет возвращать количество совпавших символов по соответствующим индексам между переданной строкой и секретным словом. Если этого слова нет в списке, метод *guess()* интерфейса *Master* вернет -1. Необходимо не больше чем за 10 вызовов метода `Master.guess(const std::string& strToCompare)` найти секретное слово из списка. Секретное слово считается найденным, если вы смогли вызвать метод *guess()* от вашего секретного слова.
Говоря формальным языком, необходимо реализовать функцию, которая не более чем за 10 попыток вызовет метод *guess() у Master секретным словом в качестве аргумента.* То есть, наша задача больше заключается в построении стратегии угадывания секретного слова.
```
/**
* // This is the Master's API interface.
* // You should not implement it, or speculate about its implementation
* class Master {
* public:
* int guess(string word);
* };
*/
class Solution {
public:
void findSecretWord(std::vector& wordlist, Master& master) {
}
};
```
***Ограничения:***
* `wordlist[i].length == 6`
* `wordlist[i]` из множества ['a', 'b'...'z']
* `все строки в wordList уникальны`
* `гарантие на то, что секретное слово находится в wordList`
* `количество обращений к Master.guess() <= 10`
* `1 <= wordList.length <= 100`
***Претесты:***
1. **Input**`: wordList = ["acckzz","ccbazz","eiowzz","abcczz"], secretWord = "acckzz"`
**Output**`:` *В данном случае, при вызове метода* `Master.guess()` *,
передав каждое слово из wordList, мы гарантированно
меньше, чем за 11 попыток, найдем наше секретное слово.*
2. **Input:** `wordList = ["acckzz","ccbazz","eiowzz","abcczz", "abcctt", "abccyy", "abccpz", "abccjz", "abcczn", "abccer", "abcclk"],
secretWord = "abcclk"`
**Output**`:` В данном тесте уже не получится гарантированно уложиться в
10 вызовов метода`Master.guess(),`если действовать так же,
как и для предыдущего теста.
Прежде, чем приступить к разбору, я настоятельно рекомендую вам решить эту задачу самим и прогнать ваш код по заготовленным тестам на [leetcode.com](https://leetcode.com/problems/guess-the-word/).
Разбор В этой задаче важна сама стратегия, по которой нужно оптимизировать количество вызовов метода `guess()`у нашего стороннего API.
Следует подумать вот о чем. Вначале представим самых худший тест-кейс, который у нас может быть в соответствии с данными ограничениями. Пусть wordList.length = 100 и загадано какое-то секретное слово Q. Теперь, если случайным образом брать слова из wordList и вызывать метод guess(wordList[i]) нашего API, то вероятность попадания в слово, которое является секретным при 10 попытках равняется примерно 0.1, но если мы при этом будем удалять то слово, которое мы проверили, вероятность попадания немного возрастает, но все еще незначительно.
Давайте подумаем в сторону тразитивности отношений. Что, если в начале взять некоторое рандомное слово str1 из списка, сравнить его с секретным, получить некоторое значение matchDistance(количество совпавших элементов), и после этого удалить из списка все те слова, у которых matchDistance со сторокой str1 отличается, так как если у этих слов это значение отличается, они не равны str1, значит не равны и секретному слову.
В силу своей рандомности, алгоритм недетерминирован, и работает корректно в 99,(9)% случаев.
Реализация вышеописанного алгоритма на С++
```
class Solution {
public:
void findSecretWord(std::vector& wordlist, Master& master) {
srand(10);
random\_shuffle(wordlist.begin(), wordlist.end());
for (uint8\_t i = 0; i < 10; ++i)
if (wordlist.size() != 0) {
std::string strCompareToMaster = wordlist.back();
wordlist.pop\_back();
uint8\_t matchDistanceWithSecret = master.guess(strCompareToMaster);
std::vector tempWordListWithTheSameMatchDistance;
for (auto& currWord : wordlist) {
uint8\_t mathDistanceWithCurrWord = 0;
for (uint8\_t k = 0; k < strCompareToMaster.size(); ++k) {
if (strCompareToMaster[k] == currWord[k])
mathDistanceWithCurrWord++;
}
if (mathDistanceWithCurrWord == matchDistanceWithSecret)
tempWordListWithTheSameMatchDistance.push\_back(currWord);
}
wordlist = tempWordListWithTheSameMatchDistance;
}
}
};
```
Заранее прошу прощения за код...
Если вы решили задачу как-то иначе, отправляйте PR ко мне на [github.com/Rassska/Leetcode](https://github.com/Rassska/Leetcode), посмотрим, обсудим.
▍ 2. [**Number of Good Ways to Split a String**](https://leetcode.com/problems/number-of-good-ways-to-split-a-string/)
***Условие задачи:***
Имеется строка `s` на входе. Так вот, разделение этой строки на 2 непустые подстроки `p` и `q` называется хорошим тогда и только тогда, когда конкатенация этих строк дает строку `s` и количество различных элементов в подстроке `p` равно количеству различных в `q`.
На выходе нужно вернуть количество "хороших" разделений строки `s`.
***Ограничения:***
* `s` содержит элементы из множества ['a', 'b'...'z'].
* `1 <= s.length <= 10^5`
***Претесты:***
1. **Input**`: s = "aacaba"`
**Output**`: 2.` **Explanation:** Исходную строку можно разбить 5ью разными способами
в соответствии с условиями задачи:
`p = "a", q = "acaba" - не является "хорошей"
p = "aa", q = "caba" - не является "хорошей"
p = "aac", q = "aba" - является "хорошей"
p = "aaca", q = "ba" - является "хорошей"
p = "aacab", q = "a" - не является "хорошей"`
2. **Input**`: s = "abcd"` **Output**`: 1.` **Explanation**`: p = "ab", q = "cd" - разбиение является "хорошим"`
Разбор:Суть задачи в том, чтобы аккуратно поработать с префиксами и суффиксами данной строки. Допустим, произошло некоторое разбиение по индексу `k.` Все, что нам остается сделать, это сравнить количество уникальных элементов на отрезке
`[0; k]` с количеством уникальных символов на отрезке `[k + 1, s.size() - 1].` Давайте заведем структуру данных `set` для хранения уникальных элементов префикса строки до некоторого индекса, а вот для суффикса заведем хеш-мап, в которой будет содержаться информация по количеству элементов от некоторого индекса `k + 1` **до** `s.size() - 1.`
В случае, когда суффикс строки совпадает с самой строкой, хеш-мап будет содержать всю предпосчитанную информацию по количеству символов строки. Как только мы рассматриваем следующее `k + 1` разбиение мы должны исключить из нашего хеш-мапа тот символ, который уже из суффикса перешел в префикс при разбиении.
Поэтапный разбор первого претестаРеализация вышеописанного алгоритма на С++
```
class Solution {
public:
Solution() {
ios::sync_with_stdio(0);
cin.tie(0);
}
int numSplits(string s) {
std::set leftPref;
std::unordered\_map hashMap;
int ans = 0;
for (std::size\_t i = 0; i < s.size(); i++) {
hashMap[s[i]]++;
}
for (std::size\_t i = 0; i < s.size(); i++) {
leftPref.insert(s[i]);
if (hashMap[s[i]] == 1) {
hashMap.erase(s[i]);
} else {
hashMap[s[i]]--;
}
if (leftPref.size() == hashMap.size()) {
ans++;
}
}
return ans;
}
private:
const char maxen = 26;
};
```
Заранее прошу прощения за код...
Если вы решили задачу как-то иначе, отправляйте PR ко мне на [github.com/Rassska/Leetcode](https://github.com/Rassska/Leetcode), посмотрим, обсудим.
---
### ▍ Итоги
Я мог бы делать подборки каждую неделю с еще более крутыми задачами, но это пока стоит под вопросом и сильно зависит от вашего желания видеть контент подобного рода на данном ресурсе. Для меня это лишний повод разобраться подробнее в материале, а для вас просто задачки, над которыми вы можете подумать на досуге! | https://habr.com/ru/post/586598/ | null | ru | null |
# Вышла Java 19
Вышла общедоступная версия [Java 19](https://openjdk.org/projects/jdk/19/). В этот релиз попало более [двух тысяч закрытых задач и 7 JEP'ов](https://builds.shipilev.net/backports-monitor/release-notes-19.html). Release Notes можно посмотреть [здесь](http://jdk.java.net/19/release-notes). Изменения API – [здесь](https://javaalmanac.io/jdk/19/apidiff/18/).
Ссылки на скачивание:
* [Oracle JDK](https://www.oracle.com/java/technologies/downloads/)
* [OpenJDK](http://jdk.java.net/19/)
Вот список JEP'ов, которые попали в Java 19
### [Паттерн-матчинг для switch (Third Preview) (JEP 427)](https://openjdk.org/jeps/427)
Паттерн-матчинг для `switch`, который [появился в Java 17](https://openjdk.org/jeps/406) в режиме preview и остался на [второе preview в Java 18](https://openjdk.org/jeps/420), всё ещё остаётся в этом статусе. Это первый случай в Java, когда языковой конструкции не хватило двух релизов, чтобы стать стабильной: ранее все конструкции укладывались в два preview.
В этом релизе в паттерн-матчинг было внесено два главных изменения.
Во-первых, охранные паттерны `&&` были заменены на условия `when`:
```
// --enable-preview --release 18:
switch (obj) {
case Integer x && x > 0 -> ...;
default -> ...;
}
```
```
// --enable-preview --release 19:
switch (obj) {
case Integer x when x > 0 -> ...;
default -> ...;
}
```
О мотивации такого изменения можно прочитать [в рассылке проекта Amber](https://mail.openjdk.org/pipermail/amber-spec-experts/2022-January/003195.html).
Во-вторых, было изменено поведение матчинга `null`. Теперь `null` матчится только в ветке `case null` и больше ни в каких других, включая тотальных:
```
// --enable-preview --release 18:
Object obj = null;
switch (obj) {
case Object x -> ...; // matches because total pattern
}
```
```
// --enable-preview --release 19:
Object obj = null;
switch (obj) {
case Object x -> ...; // NPE
}
```
```
// --enable-preview --release 19:
Object obj = null;
switch (obj) {
case null -> ...; // OK
case Object x -> ...;
}
```
Про причины такого изменения можно также прочитать [в рассылке](https://mail.openjdk.org/pipermail/amber-spec-experts/2022-January/003194.html).
### [Паттерны записей (Preview) (JEP 405)](https://openjdk.org/jeps/405)
Паттерн-матчинг дополнился новым видом паттерна: паттерн записей.
Раньше для паттерн-матчинга записей был доступен только паттерн по типу с дальнейшим ручным извлечением компонентов:
```
record Point(int x, int y) {}
static void printSum(Object o) {
if (o instanceof Point p) {
int x = p.x();
int y = p.y();
System.out.println(x + y);
}
}
```
С паттернами записей код становится существенно компактнее:
```
static void printSum(Object o) {
if (o instanceof Point(int x, int y)) {
System.out.println(x + y);
}
}
```
Паттерны записей могут быть вложенными:
```
record Point(int x, int y) {}
enum Color { RED, GREEN, BLUE }
record ColoredPoint(Point p, Color c) {}
static void printCoordinatesAndColor(ColoredPoint cp) {
if (cp instanceof ColoredPoint(Point(var x, var y), var c)) {
System.out.println("x = " + x);
System.out.println("y = " + y);
System.out.println("color = " + c);
}
}
```
Также паттерны записей могут быть именованными:
```
static void printObject(Object obj) {
if (obj instanceof Point(var x, var y) p) {
System.out.println("point = " + p);
System.out.println("x = " + x);
System.out.println("y = " + y);
}
}
```
Кроме того, паттерны записей хорошо сочетаются со `switch` из предыдущего JEP'а:
```
static void printObject(Object obj) {
switch (obj) {
case Point(var x, var y) when x > 0 && y > 0 ->
System.out.println("Positive point: x = " + x + ", y = " + y);
case Point(var x, var y) ->
System.out.println("Point: x = " + x + ", y = " + y);
default -> System.out.println("Other");
}
}
```
### [Virtual Threads (Preview) (JEP 425)](https://openjdk.org/jeps/425)
В Java появились виртуальные потоки в режиме preview.
Виртуальные потоки, в отличие от потоков операционной системы, являются легковесными и могут создаваться в огромном количестве (миллионы экземпляров). Это свойство должно значительно облегчить написание конкурентных программ, поскольку позволит применять простой подход «один запрос – один поток» и не прибегать к более сложному асинхронному программированию. При этом миграция на виртуальные потоки уже существующего кода должна быть максимально простой, потому что виртуальные потоки являются экземплярами существующего класса [`java.lang.Thread`](https://docs.oracle.com/en/java/javase/19/docs/api/java.base/java/lang/Thread.html), а значит, большую часть существующего кода не придётся переписывать.
Виртуальные потоки реализованы поверх обычных потоков и существуют только для JVM, но не для операционной системы (отсюда и название «виртуальные»). Поток, на котором в данный момент работает виртуальный поток, называется потоком-носителем. Если потоки платформы полагаются на планировщик операционной системы, то планировщиком для виртуальных потоков является [`ForkJoinPool`](https://docs.oracle.com/en/java/javase/19/docs/api/java.base/java/util/concurrent/ForkJoinPool.html). Когда виртуальный поток блокируется на некоторой блокирующей операции, то он размонтируется от своего потока-носителя, что позволяет потоку-носителю примонтировать другой виртуальный поток и продолжить работу. Такой режим работы и малый размер виртуальных потоков позволяет им очень хорошо масштабироваться. Однако на данный момент есть два исключения: `synchronized` блоки и JNI. При их выполнении виртуальный поток не может быть размонтирован, поскольку он привязан к своему потоку-носителю. Такое ограничение может препятствовать масштабированию. Поэтому при желании максимально использовать потенциал виртуальных потоков рекомендуется избегать `synchronized` блоки и операции JNI, которые выполняются часто или занимают длительное время.
Для создания виртуальных потоков и работы с ними появилось следующее API:
* [`Thread.Builder`](https://docs.oracle.com/en/java/javase/19/docs/api/java.base/java/lang/Thread.Builder.html) – билдер потоков. Например, виртуальный поток можно создать путём вызова `Thread.ofVirtual().name("name").unstarted(runnable)`.
* [`Thread.startVirtualThread(Runnable)`](https://docs.oracle.com/en/java/javase/19/docs/api/java.base/java/lang/Thread.html#startVirtualThread(java.lang.Runnable)) – создаёт и сразу же запускает виртуальный поток.
* [`Thread.isVirtual()`](https://docs.oracle.com/en/java/javase/19/docs/api/java.base/java/lang/Thread.html#isVirtual()) – проверяет, является ли поток виртуальным.
* [`Executors.newVirtualThreadPerTaskExecutor()`](https://docs.oracle.com/en/java/javase/19/docs/api/java.base/java/util/concurrent/Executors.html#newVirtualThreadPerTaskExecutor()) – возвращает исполнитель, который создаёт новый виртуальный поток на каждую задачу.
Для виртуальных потоков также добавилась поддержка в дебаггере, JVM TI и Java Flight Recorder.
Виртуальные потоки разрабатываются [с 2017 года](https://mail.openjdk.org/pipermail/announce/2017-October/000238.html) в рамках проекта [Loom](https://openjdk.org/projects/loom/).
### [Structured Concurrency (Incubator) (JEP 428)](https://openjdk.org/jeps/428)
Ещё одним результатом работы над проектом Loom стало добавление в Java нового API для Structured Concurrency.
Structured Concurrency – это подход многопоточного программирования, который заимствует принципы из однопоточного структурного программирования. Главная идея такого подхода заключается в следующем: если задача расщепляется на несколько конкурентных подзадач, то эти подзадачи воссоединяются в блоке кода главной задачи. Все подзадачи логически сгруппированы и организованы в иерархию. Каждая подзадача ограничена по времени жизни областью видимости блока кода главной задачи.
В центре нового API класс [`StructuredTaskScope`](https://docs.oracle.com/en/java/javase/19/docs/api/jdk.incubator.concurrent/jdk/incubator/concurrent/StructuredTaskScope.html). Пример использования `StructuredTaskScope`, где показана задача, которая параллельно запускает две подзадачи и дожидается результата их выполнения:
```
try (var scope = new StructuredTaskScope.ShutdownOnFailure()) {
Future user = scope.fork(() -> findUser());
Future order = scope.fork(() -> fetchOrder());
scope.join(); // Join both forks
scope.throwIfFailed(); // ... and propagate errors
return new Response(user.resultNow(), order.resultNow());
}
```
Может показаться, что в точности аналогичный код можно было бы написать с использованием `ExecutorService` и `submit()`, но у `StructuredTaskScope` есть несколько принципиальных отличий, которые делают код безопаснее:
* Время жизни всех потоков подзадач ограничено областью видимости блока `try-with-resources`. Метод `close()` гарантированно не завершится, пока не завершатся все подзадачи.
* Если одна из операций `findUser()` и `fetchOrder()` завершается ошибкой, то другая операция отменяется автоматически, если ещё не завершена (в случае политики `ShutdownOnFailure`, возможны другие).
* Если главный поток прерывается в процессе ожидания `join()`, то обе операции `findUser()` и `fetchOrder()` отменяются.
* В дампе потоков будет видна иерархия: потоки, выполняющие `findUser()` и `fetchOrder()`, будут отображаться как дочерние для главного потока.
Новое API должно облегчить написание многопоточных программ благодаря знакомому структурному подходу. Пока API имеет инкубационный статус, оно будет находиться в модуле [`jdk.incubator.concurrent`](https://docs.oracle.com/en/java/javase/19/docs/api/jdk.incubator.concurrent/module-summary.html) и одноимённом пакете.
### [Foreign Function & Memory API (Preview) (JEP 424)](https://openjdk.org/jeps/424)
Foreign Function & Memory API, которое было в инкубационном статусе [в Java 17](https://openjdk.org/jeps/412) и [Java 18](https://openjdk.org/jeps/419), теперь стало Preview API. Оно находится в пакете [`java.lang.foreign`](https://docs.oracle.com/en/java/javase/19/docs/api/java.base/java/lang/foreign/package-summary.html).
### [Vector API (Fourth Incubator) (JEP 426)](https://openjdk.org/jeps/426)
Векторное API, которое уже было в инкубационном статусе три релиза ([Java 16](https://openjdk.org/jeps/338), [Java 17](https://openjdk.org/jeps/414), [Java 18](https://openjdk.org/jeps/417)), продолжает в нём находиться. Пока API не выйдет из инкубационного статуса, оно будет находиться в модуле [`jdk.incubator.vector`](https://docs.oracle.com/en/java/javase/19/docs/api/jdk.incubator.vector/module-summary.html).
### [Linux/RISC-V Port (JEP 422)](https://openjdk.org/jeps/422)
JDK теперь официально портирован под архитектуру Linux/RISC-V.
### Заключение
Java 19 не является LTS-релизом и будет получать обновления от Oracle только в течение полугода (до марта 2023 года). Однако Azul обещает выпускать обновления Zulu как минимум [до марта 2025 года](https://www.azul.com/products/azul-support-roadmap/) (2.5 года). | https://habr.com/ru/post/689344/ | null | ru | null |
# Tele2 в Омске

В пятницу зашел на [сайт](http://omsk.tele2.ru) омского ТЕЛЕ2 посмотрел на главную и обрадовался пестрел заголовок о том, что мой сотовый оператор, которым я пользуюсь достаточно давно рад предоставить своим абонентам услугу безлимитного интернета. Действительно, кому не хотелось всего за 3 рубля в день, сколько угодно серфить по просторам бескрайних интернетов по пути на работу…
Не задумываясь я подключил данную услугу, скачал оперу на новый телефон, открыл пару страниц, сделал несколько звонков и у меня закончились деньги… Я как-то не придал этому значения. И так прошли выходные — деньги заканчивались — я пополнял баланс… Сегодня я решил проверить сколько трафика потребляет qip для iphona и случайно заметил, что денег оказалось меньше, чем должно быть. Сделал несколько замеров — действительно, открывая habr с баланса снимается около 1 рубля. Позвонил в службу технической поддержки мне сказали, что заявку перенаправят к техниками и сделают перерасчет. В обед ситация не изменилась. В службе технической поддержки сказали, что у них «расширение сети». Меня переключили на главного оператора и она другими словами процитировала мне тоже самое. Причем на мой вопрос «Видите ли вы разницу в затратах 3р х 30 дней = 90 рублей в месяц и 100р в день» мне ответили, что они все компенсируют. Правда так и не объяснили зачем мне 1000р на счету при ежемесячной оплате в 300р (спасибо voip)
На сайте не нашел никаких контактов, кроме реквизитов. Отправил им письмо с жалобой следующего содержания:
`от Иван Веревкин
кому antonina.lyashova@tele2.com,
omsk.office@tele2.com
дата 4 октября 2010 г. 16:34
тема претензия к услуге <<Безлимитная Opera Mini>>
Добрый день.
я абонент +7904327****
В пятницу 1 октября 2010г я подключил услугу «Безлимитная Opera Mini», скачал мобильную оперу, настроил интернет в соответствии с настройками, находящимися на Вашем сайте, но с моего баланса продолжают списываться деньги за пользованием услугой интернета через Opera Mini.
В службе технической поддержки порекомендовали пополнять баланс, и когда проблема решиться Вы сделаете перерасчет. Меня это не устраивает.
Считаю, что с моей стороны все обязательства выполнены (я своевременно оплачиваю абонентскую плату за пользование данной услугой). Прошу отключить у меня услугу «Безлимитная Opera Mini», сделать перерасчет абонентской платы и траффика, а также убрать сообщение о введении услуги «Безлимитная Opera Mini» с главной страницы вашего сайта, так как этим вы вводите Ваших абонентов в заблуждение.`
Насколько правомерны действия данного сотового оператора? Есть ли нормативно-правовые акты, оправдывающие их действия? | https://habr.com/ru/post/105486/ | null | ru | null |
# Написание расширений PostgreSQL на языке С — это интересно
PostgreSQL — это мощная система управления реляционными базами данных с открытым исходным кодом. Она дополняет язык SQL новыми фичами. СУБД определяется не только ее производительностью и встроенными фичами, но и способностью поддерживать персонализированную/дополнительную, специфичную для пользователя функциональность. Некоторые из этих возможностей могут быть представлены в виде конструкций или модулей базы данных, таких как хранимые процедуры или функции, но их объем обычно ограничен функциональностью, предоставляемой СУБД. Например, как вы напишете кастомное приложение для анализа запросов, которое будет находиться внутри вашей СУБД?
Для поддержки таких вариантов PostgreSQL предоставляет подключаемую (pluggable) архитектуру, позволяющую устанавливать расширения. Расширения могут состоять из конфигурационного (управляющего) файла, комбинации SQL-файлов и динамически загружаемых библиотек.
Это означает, что вы можете написать свой собственный код в соответствии с определенными рекомендациями расширения и подключить его к инстансу PostgreSQL, не изменяя фактическое дерево кода PostgreSQL. По своему определению расширение увеличивает возможности PostgreSQL, а более того, оно дает вам возможность взаимодействовать с внешними элементами. Этими внешними элементами могут быть другие системы управления базами данных, такие как ClickHouse, Mongo или HDF (обычно их называют обертками сторонних данных (foreign data wrappers, FDW)), или другие интерпретаторы или компиляторы (что позволяет нам писать функции базы данных на другом языке, например, Java, Python, Perl или TCL и т.д.). Другим потенциальным вариантом использования расширения может быть обфускация кода, которая позволяет защитить ваш сверхсекретный код от посторонних глаз.
### Создайте свое собственное расширение
Чтобы создать собственное расширение, вам не нужна полная база кода PostgreSQL. Вы можете собрать и инсталлировать расширение, используя установленный PostgreSQL (для этого может потребоваться поставить пакет devel RPM или Debian). Более подробную информацию о расширениях можно найти в официальной документации PostgreSQL[1]. В каталоге contrib исходника PostgreSQL доступно множество расширений для различных фич. Помимо contrib, в интернете можно найти множество расширений, не являющихся частью исходного дерева PostgreSQL. pg\_stat\_statements, PL/pgSQL и PostGIS являются примерами наиболее известных или широко используемых расширений.
Общедоступные расширения PostgreSQL можно разделить на четыре основные категории:
* Поддержка нового языкового расширения (PL/pgSQL, PL/Python и PL/Java).
* Расширения типов данных, где можно ввести новые (Hstore, cube и hstore)
* Различные расширения (папка contrib содержит множество разнообразных расширений)
* Расширение Foreign Data Wrapper (postgres\_fdw, mysqldb\_fdw, clickhousedb\_fdw).
Существует четыре основных типа файлов, необходимых для создания расширения:
* Makefile: Который использует инфраструктуру сборки PGXS PostgreSQL для расширений .
* Управляющий файл (Control File): содержит информацию о расширении.
* Файл(ы) SQL: Если расширение обладает каким-либо SQL-кодом, он может находиться в SQL-файлах формы (опционально).
* Код C: Общий объект, который мы хотим собрать (опционально).
### Расширение Makefile
Для компиляции C-кода нам нужен make-файл. Это очень простой make-файл, за исключением "PGXS", который является инфраструктурным make-файлом PostgreSQL для создания расширений. Подключение "PGXS" осуществляется вызовом бинарного файла pg\_config с флагом "-pgxs". Подробнее с этим файлом можно ознакомиться на GitHub[2].
Это пример make-файла, который можно использовать для компиляции кода на языке C.
```
EXTENSION = log
MODULE_big = log
DATA = log--0.0.1.sql
OBJS = log.o
PG_CONFIG = pg_config
PGXS := $(shell $(PG_CONFIG) --pgxs)
include $(PGXS)
```
### Расширение Control File
Этот файл должен быть назван как [EXTENSION NAME]. control file ([ИМЯ РАСШИРЕНИЯ]. управляющий файл). Управляющий файл может содержать множество опций, которые можно найти в официальной документации [3]. Но в данном примере я использовал несколько основных.
**comments:** Комментарии о расширении.
**default\_version:** Это SQL-версия расширения. Данная информация содержится в имени SQL-файла.
**relocatable (перемещаемый):** Сообщает PostgreSQL, можно ли переместить содержащиеся объекты в другую схему.
**module\_pathname:** Эта информация заменяется на реальный путь к lib-файлу.
```
comment = 'PostgreSQL Utility Command Logger
'default_version = '0.0.1'
relocatable = true
module_pathname = '$libdir/log'
```
Содержимое файла можно увидеть с помощью команды psql \dx psql.
```
postgres=# \dx log
List of installed extensions Name | Version | Schema | Description
------------------------------------+---------+--------+----------------------------------
log | 0.0.1 | public | PostgreSQL Utility Command Logger
```
### Расширение SQL-файл
Это отображаемый файл, который я использовал для маппинга функции PostgreSQL с соответствующей C-функцией. Всякий раз, когда вы вызываете функцию SQL, будет вызвана соответствующая функция C. Имя файла должно быть [EXTENSION NAME]-[default-version].sql. Это та же самая `default_version`, которая определена в управляющем файле.
```
CREATE FUNCTION pg_all_queries(OUT query TEXT, pid OUT TEXT)
RETURNS SETOF RECORDAS 'MODULE_PATHNAME',
'pg_all_queries'
LANGUAGE C STRICT VOLATILE;
```
### Расширение C-код
Существует три вида функций, которые вы можете написать на языке c.
Первый — это когда вы вызываете свою c-код функцию, используя SQL-функцию, написанную в SQL-файле расширения.
Второй тип функций — обратные вызовы (колбэки). Вы регистрируете такой колбэк, присваивая указатель функции. Здесь нет необходимости в SQL-функции. Вы вызываете эту функцию автоматически при наступлении определенного события.
Третий тип функций вызывается автоматически, даже без регистрации. Это происходит при таких событиях, как время загрузки/выгрузки расширения и т.д.
Это C-файл, содержащий определение кода C. Не существует ограничений ни по имени, ни по количеству C-файлов.
```
#include "postgres.h"
/* OS Includes */
/* PostgreSQL Includes */
PG_MODULE_MAGIC;
void _PG_init(void);
void _PG_fini(void);
Datum pg_all_queries(PG_FUNCTION_ARGS);
PG_FUNCTION_INFO_V1(pg_all_queries);
static void process_utility(PlannedStmt *pstmt, const char *queryString,ProcessUtilityContext context,ParamListInfo params,QueryEnvironment *queryEnv,DestReceiver *dest, char *completionTag);
```
Для расширения необходимо включить postgres.h. Вы можете включить другие файлы PostgreSQL по мере необходимости. PG\_MODULE\_MAGIC — макрос, который необходимо включить в C-файл для расширения. \_PG\_init и \_PG\_fini — это функции, которые вызываются при загрузке или выгрузке расширения соответственно.
Вот пример функций загрузки и выгрузки расширения.
```
void _PG_init(void)
{
/* ... C code here at time of extension loading ... */
ProcessUtility_hook = process_utility;
}
Void _PG_fini(void)
{
/* ... C code here at time of extension unloading ... */
}
```
Вот пример колбэк-функции, которую можно запускать всякий раз, когда вы вызываете утилиту, например, любой DDL-оператор. Переменная "queryString" содержит собственно текст запроса.
```
static void process_utility(PlannedStmt *pstmt,
const char *queryString,
ProcessUtilityContext context,
ParamListInfo params,
QueryEnvironment *queryEnv,DestReceiver *dest,
char *completionTag)
{
/* ... C code here ... */
standard_ProcessUtility(pstmt,
queryString,
context,
params,
queryEnv,
dest,
completionTag);
/* ... C code here ... */
}
```
Наконец, вот пример C-функции, которая вызывается при помощи определяемой пользователем SQL-функции. Это внутренне вызывает C-функцию, содержащуюся в нашем общем объекте.
```
Datum pg_all_queries(PG_FUNCTION_ARGS)
{
/* ... C code here ... */
tupstore = tuplestore_begin_heap(true, false, work_mem);
/* ... C code here ... */
values[0] = CStringGetTextDatum(query);
values[1] = CStringGetTextDatum(pid);
/* ... C code here ... */
tuplestore_donestoring(tupstore);
return (Datum) 0;
}
```
### Компиляция и установка
Перед компиляцией необходимо установить PATH для каталога bin PostgreSQL, если в путях системы нет доступа к pg\_config.
```
export PATH=/usr/local/pgsql/bin:$PATH
```
```
make USE_PGXS=1
```
```
make USE_PGXS=1 install
```
### Вывод
Теперь мы можем использовать наше расширение с помощью простого SQL-запроса. Ниже приведен вывод, который получается непосредственно из расширения, написанного на языке программирования C.
```
postgres=# select * from pg_all_queries();
query | pid
--------------------------+|------
create table foo(a int); +| 8196
create table bar(a int); +| 8196
drop table foo; +| 8196
(3 rows)
```
Я надеюсь, что этот пример послужит отправной точкой для создания более полезных расширений, которые не только помогут вам и вашей компании, но и дадут возможность поделиться и помочь развитию сообщества PostgreSQL.
Полный текст примера можно найти на Github[4].
[1]: <https://www.postgresql.org/docs/current/external-extensions.html>
[2]: <https://github.com/postgres/postgres/blob/master/src/makefiles/pgxs.mk>
[3]: <https://www.postgresql.org/docs/9.1/extend-extensions.html>
[4]: <https://github.com/ibrarahmad/Blog-Examples/tree/master/log>
---
> Приглашаем на открытое занятие **«Инструментарий UNIX-разработчика: исправляем утечку памяти в curl»**. На нем рассмотрим важные элементы инструментария разработчика под UNIX-подобными ОС и с их помощью продиагностируем и исправим утечку памяти в библиотеке для работы с HTTP/2 libcurl. Регистрируйтесь [**по ссылке.**](https://otus.pw/aycz/)
>
> | https://habr.com/ru/post/685880/ | null | ru | null |
# Как по заказу: история о том, как строка кода превратилась в килотонны угля

Телефон Брэда разразился знакомой трелью внутриофисного звонка.
— Да? – рявкнул он, поднимая трубку. – Чего вам?
По меркам Брэда, такая манера общаться по телефону, на самом деле, считалась ещё вежливой. Как Главный Трейдер Æxecor, одной из крупнейших компаний по торговле энергоносителями в мире, Брэд никому не собирался угождать, а любое проявление чувств, кроме высокомерных издёвок, рассматривал как признак слабости.
— Эээ, — отозвалась явно нервничающая секретарша, — тут вам… эээ… доставка. Они…
— Пф, — фыркнул Брэд, обрывая ее на полуслове. – Ну так распишитесь за нее! Или это так сложно? Сами не справитесь?
— Видите ли, — поёжилась секретарша, — они просят объяснить, как им пришвартоваться. И ещё нам нужно оплатить причальный сбор. Они говорят, что вы в курсе. Я ничего не понимаю.
— Ладно, — проворчал Брэд. – Похоже, и правда, всё здесь нужно делать самому.
Он швырнул трубку и вышел из своего углового кабинета. Несмотря на то, что резиденция компании Æxecor располагалась в районе, примыкающем к старой пристани, их офис считался одним из самых роскошных в городе. В одном конце просторного здания, которое раньше служило складским помещением, размещались кабинеты начальства, в другом – туда-то Брэд и направлялся – была приёмная, окна которой выходили на личный причал компании у самой реки.
— Ну, вот он я! – сердито объявил он, едва переступив порог холла. – Давайте, выкладывайте. Что я должен…
Брэд осёкся, не закончив фразу. Его взгляд тут же переместился на зрелище на причале возле офиса Æxecor, которое открывалось через высокие, от пола до потолка, окна. Там стояла чудовищных размеров баржа – нет, целая армада надёжно скреплённых барж, до краёв наполненных грудами угля. Вся эта армада намеревалась пришвартоваться у причала.
— Какого хре…
— А вы, наверное, Брэд, — раздался бодрый голос. Брэд перевёл глаза на потёртого вида мужичка в какой-то рабочей спецовке, который сидел на одном из стульев в приёмной. – Ну, для начала, как нам швартоваться-то? У меня два стопора, но тут никак не зацепишь. И для разгрузки у вас вообще что-нибудь готово?
В кои-то веки Брэд потерял дар речи. Он не имел ни малейшего представления о том, кто этот человек, и почти ни слова не понимал из того, что он говорит. Да ещё эта громада, понемногу надвигающаяся на здание.
— Эээ… — пробормотал он, — погодите… вы привезли… уголь? И… нам?
— Ну да! Двадцать восемь тысяч тонн старого доброго чёрного золота! – рабочий насмешливо наморщил лоб и добавил: — Ну, если, конечно, адресом не ошиблись, ха-ха. Это же Æxecor? Причал номер пятьдесят три? А вы Брэд, тот самый парень, который его заказал?
И вот тут-то рука Брэда в долю секунды встретилась с лицом Брэда. Он сообразил, что что-то пошло очень сильно не по плану и вместо того, чтобы провести продажу двадцати восьми тысяч тонн угля виртуально, он каким-то образом получил их на руки
#### Краткий курс торговли товарными фьючерсами
Если вы когда-нибудь смотрели ставший классикой фильм «[Поменяться местами](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%BC%D0%B5%D0%BD%D1%8F%D1%82%D1%8C%D1%81%D1%8F_%D0%BC%D0%B5%D1%81%D1%82%D0%B0%D0%BC%D0%B8)» 1983 года с Эдди Мёрфи и Дэном Экройдом в главных ролях, то немного уже представляете, как происходит сбыт сырья. В самых общих чертах, сырьевые товары – например, золото, шерсть, соя – продаются производителями и, в конечном итоге, попадают к покупателям. Но Билли Рэй Валентайн сколотил себе капитал и разорил братьев Дьюк не просто продавая замороженный концентрированный апельсиновый сок с лотка. Он сумел пробиться на рынке за счет того, что продавал и скупал фьючерсные контракты. На самом деле, только так торговля сырьевыми товарами и осуществляется.
Фьючерсные контракты – вещь довольно прозрачная: вы соглашаетесь приобрести товар в количестве Х по цене Y за единицу в определенный момент в будущем. Конечно, может показаться странноватым, что человек решает купить двадцать тонн грудинки за 34 420 $ в апреле (даже если он очень любит грудинку), но суть тут в том, что он намерен распродать эту поставку задолго до начала апреля и за сумму, значительно превышающую 34 420 $. Практически любой товар, который вы можете себе представить, продаётся и покупается подобным образом ещё до начала производства. Смысл такой схемы торговли в том, что риски (и выгоды), вызванные колебаниями цен на сырьё, достаются уже не производителям (фермерам, шахтёрам и так далее), а трейдерам.
Разумеется, трейдеры, работающие с сырьевыми товарами, совершенно не заинтересованы в том, чтобы остаться с килотоннами грудинки на руках. Поэтому в процесс включается целая цепочка посредников – брокеры, биржи, клиринговые палаты, – которые трудятся в поте лица, чтобы человек, который говорит: «В мае куплю триста тонн грудинки за 518 000 $», мог быть уверен, что не купит в мае триста тонн грудинки за 518 000 $ в прямом смысле этих слов.
Брокеры, к примеру, организуют круговые сделки, предполагающие, что каждый купленный фьючерсный контракт будет компенсирован за счёт продажи соответствующего контракта лицу, реально заинтересованному в товаре. В автоматизированные торговые системы, которыми пользуются биржи, встроены своды правил, позволяющие отлавливать очевидные ошибки (например, доставку больших массивов товара на территорию коммерческого предприятия). Ну и наконец, клиринговые палаты ещё на раз проверяют транзакции, чтобы убедиться, что ничего не отправлено по ошибке.
Исходя из всего сказанного, для трейдера почти невозможно оказаться действительным обладателем тех товаров, которые он покупает. Почти.
#### Как по маслу
Компания Æxecor осуществляла торговлю углём только на одной бирже (WTFSE), и сделки, связанные с углём, у неё проходили не слишком часто. Соответственно, когда WTFSE внедрила новый API, обращенный к пользователю и основанный на веб-сервисах, внутренняя трейдинговая система оказалась неспособна с ним взаимодействовать. На горизонте маячила пара сделок по углю, так что у компании вырисовывалась небольшая проблема.
К счастью, в штате Æxecor нашлась пара программистов-самоучек и им удалось сколотить решение, которое нормально уживалось с новым API WTFSE. По сути, программист добавил немного кода XML к трейдинговым запросам. В частности, там был такой фрагмент:
```
False
```
Ничего не находите странного в этом коде XML? Если вы ответили: «Значение должно быть не False, а 0», можете похлопать себя по плечу. Как выяснилось, система WTFSE воспринимала только 1 и 0 для обозначения True и False соответственно; любое другое значение просто автоматически приравнивалось к единице. Упс!
Конечно, в обычных обстоятельствах большой беды из этого бы не получилось. Чтобы удостовериться, что в транзакции всё точно, WTFSE (да и любая другая биржа) отсылает клиенту подтверждение сделки, где вся исходная информация прописана на XML. Таким образом, обе стороны имеют доступ к данным. На стороне Æxecor всё выглядело совершенно благополучно, в первую очередь благодаря следующим строкам в коде:
```
bool physicallyDeliver =
(getNodeVal("PhysicallyDeliver").toLower() == "true");
```
Разработчик молодец, что провел верификацию… вот только строка может давать куда больше значений, чем true или false. Скажем, 1 или 0. Упс.
Но даже то, что неправильная сделка по ошибке прошла верификацию, по идее, ещё не катастрофа, ведь в клиринговой палате заметили бы, что с ней что-то основательно не так. Нельзя же просто позвонить в службу доставки FedEx и попросить отвезти несколько тысяч тонн сырья в какое-нибудь офисное здание в деловом центре. Список точек, куда можно доставлять сырьевые товары, сильно ограничен – обычно это склады возле депо или портов. Однако резиденция Æxecor была расположена возле причала пятьдесят три в прибрежном районе со складскими помещениями, который недавно прошел реновацию – на первый взгляд, вполне разумное место для доставки целой кучи угля, особенно с точки зрения машины. Упс.
К счастью, рынок торговли фьючерсными контрактами на сырьё не во всём полагается на программное обеспечение. По обе стороны сделки (и ещё в паре промежуточных точек) данные проходят через сотрудников операционных отделов, которые проверяют, не сделал ли трейдер какой-нибудь глупости: например, случайно поставил галочку в поле «физическая доставка», вошёл в групповую сделку, которая сразу даст убыток, и так далее.
Раз столько народу просматривает транзакции, логично было бы предположить, что хоть кто-то заметил, что торговый гигант Æxecor просит физически доставить им груз угля на полтора миллиона долларов. Да кто-нибудь наверняка и заметил, но сделкой занимался Брэд, а значит, и помыслить было невозможно, что здесь кроется какое-то недоразумение.
Как Главный Трейдер компании Æxecor, Брэд донёс до всех с предельной ясностью: никто, «даже Его Святейшество Папа Римский» не смеет ставить под сомнение его действия. В конце концов, Брэду приходится принимать сложнейшие решения по торгам, которые никому другому осмыслить не дано. Иногда он покупает задорого, а продаёт задёшево. Иногда придерживает товар, хотя цена падает. Иногда вообще отказывается его сбывать независимо от цены. Пути Брэда неисповедимы, и если он говорит: «Исполняйте!», то лучше исполнить.
#### Раннее Рождество
— Вот только не говорите мне, что это не ваш уголь, — чувствуя, что дело нечисто, рабочий занял оборонительную позицию. – Нужен он вам, не нужен – сами разбирайтесь. Но уголь ваш, мистер Брэд.
Брэд и рад бы был возразить, но он сам понимал: уголь его. Хуже того, он раз за разом самоуверенно подтверждал это перед операционным отделом Æxecor. Он просто предполагал, как ему вообще было свойственно, что эти туповатые перекладыватели бумажек читать толком не умеют. Он мысленно вернулся к своему последнему разговору с сотрудником отдела по поводу закупки угля («Я сказал провести грёбаную сделку, какое слово вам непонятно?») и погрузился в размышления о том, что делать с пятьюдесятью шестью миллионами фунтов угля в его физическом воплощении.
Попытайтесь на минутку представить себе, как вы сами бы сбывали с рук груду угля стоимостью в полтора миллиона долларов. Даже возможностям Craigslist всё-таки есть пределы.
Как выяснилось, продажа реального угля оказалась ещё более трудным делом, чем Брэд мог вообразить. Рынок сырьевых товаров, по сути, одними фьючерсами и торгует – все, кому в данный момент нужны двадцать восемь тысяч тонн угля, уже давно купили его заранее. Да и вообще, кто станет закупаться углём у какого-то непонятного типа по имени Брэд? В конечном итоге, потратив заоблачные суммы на причальный сбор, доставку, экологический сбор, стыковку, разгрузку, погрузку и другие пошлины, Брэд с горем пополам сбыл уголь по двадцать центов к доллару.
После этой «грандиозной закупки» гору угля Брэду так никогда и не забыли. Каждый раз, проходя мимо коллег в коридоре, он знал, что они помнят про уголь, а они знали, что он это понимает. Никто над ним особенно не издевался и не потешался, но это не имело значения. Брэда больше не воспринимали как Главного Трейдера компании Æxecor, он стал тем парнем, который по ошибке купил целую прорву угля. | https://habr.com/ru/post/501536/ | null | ru | null |
# Законотворчество и программирование: заметка об интерпретации текстов
Все юристы работают с текстами. Читают, пишут, изучают, трактуют, убеждают в своих трактовках. Программисты — работают с текстами. Читают, пишут. Убеждают компилятор в своей правоте. Я — разработчик. Я пишу много текста, вроде такого:
```
class HelloWorld {
public static void main(String[] args) {
System.out.println("Hello World!");
}
}
```
Этот текст пишется по некоторым правилам, а потом компилятор его разбирает. Хорошо бы знать правила, чтобы компилятор понял всё правильно. При составлении иска в суд тоже хорошо бы знать правила. К сожалению, в праве нет такие четких правил, как у компилятора, но есть всё-таки какие-то общие правила, которых придерживаются интерпретаторы.
Иногда мне приходится писать или читать тексты юридические — заявления, жалобы, иски. Писать жалобы про парковки на газоне или готовить тридцатистраничные иски в суд. В процессе погружения в право я подмечаю некие аналогии с программированием. О них-то я и хочу рассказать.
Переменные
----------
В программировании всё начинается с переменных. В тексте юридическом обычно значение слов известно заранее (а кстати, значений у них может быть много, но это другая история), но можно вводить и переменные:
*Статья 24.7 Федерального закона от N89-ФЗ "Об отходах производства и потребления" (далее — закон N89-ФЗ) предполагает, что региональные операторы заключают договоры на оказание услуг по обращению…
...На основании закона N89-ФЗ прошу того-то и того-то.*В данном случае мы в начале текста вводим переменную — закон N89-ФЗ (такие переменные всегда **final**), и можем её использовать дальше.
В пользовательском соглашении habr.com все переменные объявляются в первом разделе перед основным текстом:
1.1. *В настоящем документе и вытекающих или связанных с ним отношениях Сторон применяются следующие термины и определения:****Соглашение****— настоящий документ со всеми дополнениями, изменениями и указанными в нем обязательными документами, а также договор, заключенный на его основании.****Пользователь****— дееспособное физическое лицо старше 18 лет, присоединившееся к настоящему Соглашению в собственном интересе либо выступающее от имени и в интересах представляемого им юридического лица.*И так далее.
Если переменные не определены, то могут возникнуть проблемы:
```
public static void main(String[] args) throws IOException {
System.out.println(hello);
}
java: cannot find symbol
symbol: variable hello
```
В примере выше нам везёт — нам об ошибке скажет компилятор. Но в праве нет компилятора:
**УК РФ Статья 43. Понятие и цели наказания:**
*1. Наказание есть мера государственного принуждения, назначаемая по приговору суда. Наказание применяется к лицу, признанному виновным в совершении преступления, и заключается в предусмотренных настоящим Кодексом лишении или ограничении прав и свобод этого лица.
2. Наказание применяется в целях восстановления социальной справедливости, а также в целях исправления осуждённого и предупреждения совершения новых преступлений.*
Когда читаешь этот текст, сразу возникает неоднозначность, ведь используется неопределённая переменная: **социальная справедливость**. Что это? Убийство за убийство? Зуб за зуб? А может, посчитаем справедливость в рублях? Есть ли уверенность, что два интерператотора будут понимать это одинаково?
Кстати, тут есть ещё кое-что интересное: ***предупреждение совершения новых преступлений***. Самый простой и гарантированный способ предупреждения совершения новых преступлений — смертная казнь. Тогда цель выполняется полностью: процент рецедивов будет нулевым. Но то ли имелось ввиду при написание текста закона? Ведь используются другие методы предупреждения, и причины их использования остаются вне этого текста.
Плагины и бланкетные нормы
--------------------------
Бланкетная норма — это норма, предоставляющая государственным органам, должностным лицам право самостоятельно устанавливать правила поведения в определённых рамках. К примеру, Федеральный закон N 196-ФЗ "О безопасности дорожного движения" устанавливает полномочия государственных органов, давая им право устанавливать правила дорожного движения (определим в этом тексте переменную, будем называть правила дорожного движения покороче — ПДД). В свою очередь, постановлением правительства (то есть уже не законодательного, а исполнительного органа) устанавливаются ПДД. Ещё есть глава 12 КоАП, которая устанавливает санкции (и процедуру их применения) за нарушения ПДД. Таким образом, имея закон N 196-ФЗ и КоАП, можно менять ПДД хоть каждый день, не меняя при этом тексты законов (постановление правительства законом не является).
То есть не надо менять и компилировать тексты чтобы поменять логику поведения. Собственно говоря, это не что иное как подключение плагинов!
Магазин расширеней Chrome. Нам не нужно менять исходники браузера чтобы добавить или поменять функциональность.Версионирование
---------------
В мире разработки ПО мы всё время работаем с разными версиями программ, библиотек, API и так далее. В мире права тоже всё время идёт работа с версиями. Только там всё очень продвинуто — всегда используются самые последние версии законов, постановлений, регламентов и прочего! Никакого legacy. Релизим новую версию, и всё, она сразу везде применяется!
Есть аналогия. К примеру, в Android SDK есть класс Context, у которого есть метод:
```
public abstract int checkSelfPermission (String permission)
```
Однако, в документации отмечено, что он добавлен в версии SDK 23. Это значит, что если приложение работает на устройстве с версией Android < 23 (Android 6.0), то мы его использовать не можем.
А теперь давайте взглянем на этот документ:
см. https://habr.com/ru/post/480510/ - Хроника противостояния Рамблера и NginxДа, это постановление о производстве обыска по делу Rambler & nginx. В тексте мы читаем:
*В* соответствии *со ст. 1295 ГК РФ, программа для ЭВМ «энджиникс» является служебным произведением, и исключительное право на неё, а именно в* соответствии *со ст. 1229 ГК РФ право использовать распоряжаться ей,* принадлежит *ООО «Рамблер Интернет Холдинг»*.
Однако, постановление описыват событие, имевшее место в 2004 году, когда ст. 1295 и 1229 ещё не существовало! **NoSuchMethodError!**
Diff
----
А что, если нам нужно старый закон заменить новым? Но не целиком, а внести небольшие правки? В данном случае всё просто:
```
git checkout -b new_law
git commit -m "new speed limit"
git push origin new_law
```
Да, с правками в текст законов работают также как и с правками в исходные коды. Их можно сравнивать:
А сам диф (в данном случае диф называется Федеральный закон от 24.07.2007 N 210-ФЗ (ред. от 31.12.2014) "О внесении изменений в Кодекс Российской Федерации об административных правонарушениях") при этом выглядит примерно так:
в статье 12.9:
а) утратил силу с 1 сентября 2013 года. - Федеральный закон от 23.07.2013 N 196-ФЗ;
б) в части 2: в абзаце первом слова *"от 20 до 40"* **заменить словами** *"более 20, но не более 40";*
---
А какие аналогии подмечали вы? | https://habr.com/ru/post/556108/ | null | ru | null |
# Как Олимпиада в Лондоне транслировалась через облако
[](http://pikucha.ru/i96aT "olympics-london.jpeg")
Ранее в этом году мы анонсировали [Windows Azure Media Services](http://weblogs.asp.net/scottgu/archive/2012/04/16/announcing-windows-azure-media-services.aspx). Windows Azure Media Services — это облачное PaaS-решение, которое позволяет вам эффективно строить медиа-сервисы и доставлять медиа-контент вашим потребителям. Решение предлагает набор готовых к применению сервисов, которые позволяют производить быстрое получение медиа-материала, кодирование, конвертирование формата, хранение, защиту контента и доставку видео как в live-формате так и по требованию. Windows Azure Media Services так же поддерживают доставку контента на любое устройство или платформу, включая: HTML5, Silverlight, Flash, Windows 8, iPad, iPhone, Android, Xbox и Windows Phone.
### Windows Azure Media Services и Олимпиада 2012 в Лондоне
Последние несколько недель Windows Azure Media Services использовались для того, чтобы доставлять в реальном времени и по требованию видео-поток для нескольких телевещательных компаний, которые транслировали Олимпийские Игры. Среди них: France Télévisions, RTVE (Spain), CTV (Canada) and Terra (Central and South America). В сотрудничестве с deltatre, Southworks, gskinner и Akamai мы помогли доставить более 2300 часов живого видео и HD-контента Олимпийских Игр в более чем 20 стран.
Ниже вы найдете некоторые детали о том как эти компании использовали Windows Azure Media Services для обеспечения превосходной доставки и трансляции видео.
#### Автоматизирование рабочих процессов медиа-доставки с помощью каналов (Channels)
Windows Azure Media Services поддерживает концепцию каналов, которые могут быть использованы для связки нескольких функций медиа-сервисов вместе в единые логические рабочие процессы (workflow) для живой трансляции видео и трансляции по требованию. Каналы могут быть программированы и управляемы через REST API, который позволяет компаниям транслирующим и публикующим видео легко интегрировать их существующие платформы автоматизации с Windows Azure Media Services. Для Олимпиады в Лондоне компаниями использовалась модель каналов для координации рабочих потоков живой трансляции видео и трансляции по требованию через систему работы с видео "FastForward" и инструменты управления контентом "Forge" компании deltatre.
#### Загрузка живых видео-потоков Олимпиады
Живые видео потоки для Олипиады публиковались системой [Olympic Broadcasting Services](http://www.obs.es/) (OBS), медиавещательной организацией созданной Международным Олимпийским Комитетом (МОК) для доставки видео-потоков компаниям-потребителям. OBS в Лондоне поставляла весь контент в формате видео 1080i HD. Потоки видео сжимались кодеком H.264 с битрейтом 17.7 Mbps, встраивались в транспортные потоки MPEG-2 и раздавались мультикастом через UDP компаниями вроде deltatre. После этого deltatre перекодировала каждый 1080i-поток в восемь разных битрейтов для Smooth Streaming, начиная с битрейта 150 kbps (разрешение 336x192) и до битрейта 3.45 Mbps (1280x720) и публиковала потоки в Windows Azure Media Services.
Для обеспечения высокой надежности от сбоев видео-потоки публиковались одновременно в несколько датацентров Windows Azure расположенных в разных уголках земного шара. Потоки затем потреблялись каналами определенными в сервисе Windows Azure Media Services и маршрутизировались в инстансы видео-хостинга, которые уже публиковали живое видео в веб. Для обеспечения распределения контента использовалась CDN-сеть Akamai HD:

#### Стриминг для всех клиентов и устройств
Для Лондонских игр 2012 года мы использовали модель стриминга видео основанную на Smooth Streaming. Для браузеров мы доставляли потоки Smooth Streaming как для Silverlight так и дла Flash-клиентов. Для устройств мы доставляли Smooth Streaming для iOS, Android и Windows Phone 7. Используя преимущества универсальной поддержки стандарта H.264 и кодека AAC мы смогли кодировать контент всего раз и доставлять его для всех устройств едиными потоками. Компания deltatre использовала набор инструментов [iOS Smooth Streaming SDK](http://www.microsoft.com/en-us/mediaplatform/sspk.aspx), распространяемый для iPhone и iPad сервисом Windows Azure Media Services и инструменты Smooth Streaming SDK for Android разработанный компанией [Nexstreaming](http://www.nexstreaming.com/eng/).
Ключевой инновацией Media Services для этих Олимпийских Игр была разработка инструментов SDK на базе Flash для нативной поддержки проигрывания Smooth Streaming. Работая вместе с Flash-экспертами из компании gskinner.com, команда Windows Azure Media Services разработала нативный ActionScript SDK для доставки Smooth Streaming во Flash. Это позволило вещательным компаниям получить преимущества от единой платформы Smooth Steaming для всех платформ Silverlight, Flash, iOS, Windows Phone и Android.
Ниже вы можете увидеть фотографии разных устройств с трансляцией живого потока видео Олимпиады:
*Samsung Galaxy playing Smooth Streaming*

*iPad 3 playing back Smooth Streaming*

*Nokia Lumia 800 playing Smooth Streaming*

*France TV’s Flash player using Smooth Streaming*

#### Преимущества Windows Azure Media Services
В течении Олимпиады вещательным компаниям требовались мощности для вещания в среднем 30 живых потоков видео 15 часов в день в течении 17 дней. В дополнении к живым потокам, создавался контент по требованию и доставлялся 24 часа в сутки в более чем 20 стран — что в целом означает миллионы часов потребленного видео.
Без Window Azure Media Services вещательным компаниям пришлось бы:
1. Покупать/арендовать инфраструктуру для вычислений, хранения данных и сетевого общения
2. Развернуть собственную архитектуру обработки видео
3. Связать вместе новую инфраструктуру и имеющуюся для организации единого рабочего потока
4. Самостоятельно развертывать и запускать архитектуру в нескольких разных датацентрах для высокой отказоустойчивости
5. Платить за энергию, кондиционирование, администрировании и обслуживающий 24 часа в сутки 7 дней в неделю персонал
Как раз здесь и в полную силу мощь и гибкость платформы Windows Azure Media Services. Вещательные компании получили возможность использовать преимущества облачных технологий, которые позволили установить и настроить живое вещание и вещание по требованию всего с помощью нескольких строчек кода. Всего за несколько минут все необходимые сервисы, сетевая маршрутизация и ресурсы для хранения были развернуты и сконфигурированы внутри Windows Azure — готовые для получения и отправки контента для многочисленной аудитории.
Онлайн-доставка контента для события такого масштаба как Олимпиада — сложное занятие, когда проблемы с сетью, аппаратным обеспечением и даже человеческие ошибки могут поставить трансляцию под угрозу. Платформа Windows Azure Media Services предлагает автоматизированные слои отказоустойчивости и избыточности, которые обычно недостижимы или слишком дороги при традиционной реализации на собственной инфраструктуре или на базе простых облачных сервисов. В частности, Windows Azure Media Services предлагают избыточные сервисы для потребления, производства, хранения и распределенного кеширования данных — вместе с возможностью воспользоваться этим на разных датацентрах, достигая таким образом высокую доступность для решений с возможностью автоматического восстановления после сбоев.
#### Автоматический стриминг видео
Ключевым принципом Windows Azure Media Services (и платформы Windows Azure в целом) является полная автоматизация всех действий. Ниже представлен псевдокод, который иллюстрирует как создать новый канал в Windows Azure Media Services, который может быть использован для живого вещания HD-видео миллионам пользователей:
```
// connect to the service:
var WAMSLiveService = new WAMSLiveService(serviceUri);
// Then you give us some details on the channel you want to create, like its name etc.
var channelSpec = new ChannelSpecification()
{
Name = “Swimming Channel”;
Eventname = “100 Meter Final”;
}
// Save it.
WAMSLiveService.AddtoChannelSpecifiations(channelSpec);
WAMSLiveService.SaveChanges();
// Create all the necessary Azure infrastructure to have a fully functioning, high performance, HD adaptive bitrate Live Channel
WAMSLive.Service.Execute(new Uri(“AllocateChannel?channelID =55”));
```
В течении Олимпиады в Лондоне вещательные компании имели возможность писать код подобный этому для быстрой автоматизации создания десятков живых HD-потоков без необходимости ручной установки или настройки.
При работе с любой автоматизированной системой которая работает с данными в реальном времени, особенно такой которая обеспечивает работу Олимпиады, когда видео-потоки запускаются и останавливаются очень часто, критически важно иметь возможность живого мониторинга. Для этих целей компания Southworks, используя REST API Windows Azure Media Services для работы с каналами построила веб-сервис панели управления, который сообщал о жизненных показателях кодирования видео, работы каналов и потоков данных на узлы Akamai. Вещательные компании имели возможность использовать этот сервис для мониторинга жизненных параметров и качество работы своих решений.
#### Живое видео и видео по требованию
Ключевым преимуществом Windows Azure Media Services является то, что видео немедленно доступно для повторного проигрывания как во время живой трансляции, так и после нее (с полными DVR-функциями). Например, если пользователь подключился к живой-трансляции, которая уже началась некоторое время назад, он может сразу же перемотать видео на начало события и начать смотреть мероприятие сначала либо перейти к одному из заметных эпизодов мероприятия, отмеченных в плеере маркерами.

Кроме того, Windows Azure Media Services позволяют осуществить мгновенный переход от живой трансляции к трансляции по требованию. Когда событие кончается в реальном времени полноценное видео по требованию создается на сервере. Нет никакой задержки между переходом, что позволяет пользователю, которые пропустил живое вещание сразу же начать смотреть видео по требованию.
#### Редактирование и вставка видео в реальном времени
Вещательным компаниям требуется решение позволяющее им легко вырезать и создавать в реальном времени ключевые видео-моменты из тысяч часов живого видео-потока. Windows Azure Media Services имеет глубокую интеграцию с редактором Microsoft Media Platform Video Editor — основанном на браузере видео-редакторе, который может работать как с живым так и доступным по требованию видео-контентом. Эта интеграция позволяет редакторам быстро создать вставку ключевого видео-момента на пару минут мероприятия без необходимости загружать или сохранять видео-материалы локально, а так же осуществлять вещание этих вставок с уже готовых материалов расположенных на узлах CDN. Новые функции, которые были добавлены в редактор для вещательных компаний: поддержка USB-колесика, динамическое изменение звука, панорамирование, блокировка треков, поддержка нескольких аудио-дорожек.

В дополнение к созданию ключевых моментов, видео редактор был интегрирован с Windows Azure Media Services для кодирования вставок для публикации их на мобильные клиенты и третьи сайты распространяющие видео, вроде YouTube. Например, CTV использовала YouTube (в Канаде) для расширения доступа к аудитории и в этом случае ключевые моменты кодировались в формате 4Mbps VBR H.264, загружались и публиковались напрямую в YouTube из Windows Azure Media Services.
Каждый день Олимпиады тысячи задач кодирования были запущены в рабочих потоках Windows Azure Media Services. Эта система позволила нашим клиентам создавать и изменять их рабочие потоки публикации контента без оглядки на вопросы поддержки оборудования для большого числа вычислительных процессов. Платформа Windows Azure Media Services предложила масштабируемый механизм, который автоматически реагировал на пики нагрузки, обрабатывал потребление мощностей и приоритезировал потребности в большом объеме кодирования видео.
### Заключение
Платформа Windows Azure Media Services позволяет вещательным компаниям использовать существенно более качественный и более надежный опыт организации онлайн вещания. Windows Azure Media Services предлагает гибкий набор функций, которые включают в себя: потребление, хранение, кодирование, производство, мониторинг и доставку, которые могут быть использованы для создания высокомасштабируемых рабочих потоков для живого вещания видео и доставки контента по требованию. Эти облачные сервисы решают проблему сложности при построении видеотрансляций и вместе с тем предлагают более высокий уровень надежности и доступности для большего числа устройств.
В настоящий момент сервисы Windows Azure Media Services доступны в качестве превью — вы можете найти больше информации о том, как использовать их по [этой ссылке](http://www.windowsazure.com/en-us/develop/net/how-to-guides/media-services/). Функция рабочих потоков для доступа к контенту по требованию доступна сегодня всем, кто подпишется на превью. Функции рабочих потоков для организации живых трансляций, которые использовались на Олимпиаде, сегодня доступны в виде приватного превью. Клиенты, которые заинтересованы в тестировании этого превью могут присоединиться написав на адрес: mediaservices@microsoft.com. Со временем эти функции станут доступны публично.
Любая работа связанная с Олимпиадой — это сложное дело, ответственность и желание победить. Мне бы хотелось поблагодарить всех людей в продуктовых командах Windows Azure и Windows Azure Media Services и группе Developer & Platform Evangelism, наших внешних партнеров-разработчиков и самое главное вещательные компании за их вклад в успешную работу на Олимпиаде. Это событие — огромная история успеха того опыта, который будет применяться в будущем. | https://habr.com/ru/post/150115/ | null | ru | null |
# IT квест-марафон для хабра-хабра
Затекли? Хотите размять мозги? Вперед!
Hand-tailored специально для вас. Одним из вас.
Мы любим головоломки. Мы любим интересные конкурсы и терпеть не можем яблоки (поэтому будем их солить и выбрасывать в окно).
Это уже не первый наш опыт.
Предыдущий эксперимент увенчался успехом, но мы хотим большего.
Мы хотим проводить конкурсы регулярно. И хотим чтобы участие в них было захватывающим. И хотим чтобы у вас было время к ним подготовиться.
#### Думать головой
Новые правила:
* задачи можно выполнять в любом порядке
* проверять ответы вы можете сами
* конкурс длится 24 часа и тот кто разгадает больше всего задачек получит приз. Если два участника разгадали одинаковое количество вопросов, то побеждает первый.
**Через неделю, в пятницу 13 декабря, после обеда начнется большой марафон с большими призами.**
А пока мини-конкурс чтобы привлечь внимание:
* Первое место: Ipod shuffle\*
* Второе место: Право загадать до 10% заданий в нашем большом конкурсе через две недели (и знать ответы!).
* Третье место: Сертификат от хостинга с лучшим в мире саппорттом на 300$
* Утешительный приз: сломаная голова на весь день.
\* — Победитель может отдать свой приз и забрать чужой.
#### Задачи:
##### Тема конкурса: Javascript
#### #1
Название?

```
c2NyeXB0ABIAAAAIAAAAAVQUH+bBjqhC+BmkFYMxZKBpWx6PYA/48W/I7FBOtkt1/QFFfHL8FG0i1KsbDSXwoXcFVaFgnZAbr5UO+aFP9hgVd+Lm4OAmMFRnCdJijs7a
```
#### #2
Вам какая из двух больше нравится, толстая или тонкая?

Я про джаваскрипт, а вы о чем?
```
c2NyeXB0ABIAAAAIAAAAAT9mah2GCtl01KutP30X5SjFYNZWz8h+OOslOvFlDcq0mX9KCTMX9fUU6UU4KbW8crPe+Eveit2bpWZQE7jrnvfjtbZTGDhn/t/qW11NZbz2
```
#### #3
Почему он это сделал?

```
c2NyeXB0ABIAAAAIAAAAAUGfCGAAWFYFokRgdb8g6IIHZSxqPyJ5W94BJOF3hlO06lOeY23ul5cChrCz0HSGH2NKXdW2PY8V02pzVJXg3BbEJOuUCaa54N8pH/gNaVS9
```
#### #4
Автор:

```
c2NyeXB0ABIAAAAIAAAAATZ0XhxOdRvdTOlk/MjGNh9QrxfI5wY9da3Rttjoca0VSh30tz5MdN4BAr6pBIoo1GGGtHEUCulUhO4LMxu18WQBoMQHimSiCfCpTaGui/85
```
#### #6
В прошлом конкурсе был тест на внимательность. Вы его хорошо поняли?
```
c2NyeXB0ABIAAAAIAAAAAaeEkudMhvGBN4/F6gsXmWE0P8e4IAyG5qS7wRihhX9dKogqAYxtGAJnBJ5IAJEvjaAs7T75ISJQX0z2yHchdIWlQkS/FyPdjEAHW1f4mjSj
```
#### #7
Я спрятал на джаваскрипт немного денег.
Сколько?
```
c2NyeXB0ABIAAAAIAAAAAdXs36hn66AN6V1O5qUpPCtVsWRy/9M42zXz0kNSkF0A5YGFkuJoGBwJ5XxCvtY2gWsrZzyJS7qqp6bdSoewZYSjfMs2rcYXp4zPqdlZyI7V
```
#### Как отгадывать?
* К каждому вопросу прилагается scrypt хэш. Проверять его надо так чтобы от «1» он валидировался на
```
c2NyeXB0ABAAAAAIAAAABn+AtJjrp0anXceG20lxb+Ra2kZD4f2RXe/MVsUn9GGXe5lbSZBCa4t7W2f3Y9AR/QDTiFRAYKFlha8RejkGJqJIhR6TCHFOrqnRTy/4qg9X
```
* В ответах используются только латинские маленькие цифры, буквы, и знаки препинания.
* Каждый раз найдя ответ присылайте его на y@serverclub.com c темой «ждалискрипт» так мы будем знать кто нашел ответ раньше.
* Можно и нужно подсказывать другим в комментах. Ведь вы послав ответ на емейл уже на шаг впереди!
* Побеждает тот, кто отгадает больше всего вопросов. А если таких людей будет много, то первый из них.
* Посмотрите [walkthorugh](http://habrahabr.ru/company/serverclub/blog/166445/) к прошлому конкурсу чтобы понимать какой сложности вопросы вас ждут.
P.S. Присылайте нам интересные задачки на y@serverclub.com с темой «хабрадачки», если мы их включим в наш следующий конкурс у вас может быть фора. | https://habr.com/ru/post/205396/ | null | ru | null |
# Axgio Windows Mini PC. Из Китая с приветом — обзор атомного малыша

Появлению этой статьи способствовало совпадение двух факторов: 1) у меня внезапно кончились игрушки; 2) Intel анонсировал выход своего собственного микро-компьютера в форм-факторе HDMI-stick, под названием (внезапно) — Intel Compute Stick, о котором уже говорилось на [geektimes](http://geektimes.ru/company/intel/blog/244167/). Получить быстро тестовый образец этого малыша от Intel не удалось, поэтому я решил посмотреть в сторону Китайской границы, и не напрасно.
Оказалось, что в Поднебесной подобные железки уже есть в свободной продаже для всех желающих. Представлены они были двумя видами устройств — «Meegopad T01» и «Axgio Windows Mini PC», и если про первый хотя бы в буржуйских обзорах можно было найти пару слов, то про второй вообще ничего найти не удалось. Я остановился на втором. Китайские друзья из магазина [TinyDeal](http://www.tinydeal.com/) легко и очень быстро согласились предоставить устройство, на тот момент продававшееся за $109, за что им большое человеческое спасибо.
Спецификация заказанного устройства:
— процессор: Intel Atom Z3735F
— оперативная память: 2 ГБ
— встроенный накопитель 32ГБ
— два порта microUSB 2.0 (один из которых предназначен только для питания устройства)
— один полноразмерный порт USB 2.0;
— Wi-Fi 802.11b/g/n;
— Bluetooth 4.0;
— разъем под microSD
— разъём HDMI
ОС: Windows 8.1 на борту
размера: 9,9 х 3,8 х 1 см
вес: 45 граммов.
**То, что пришло по факту - вполне соответстовало.** 
 

Я достаточно часто заказываю в Китайских интернетах мелкие гаджеты, и уже выработал привычку, первые две недели после заказа просто забывать о нем, чтобы сократить время ожидания. Не знаю, что в этот раз пошло не так, но уведомление о приходе посылки пришло мне через 9 (девять) календарных дней, притом, что доставка была заказана обычной почтой без дополнительной оплаты.
Внутри желтого почтового пакета находилась приличная коробка из плотного картона.
В коробке оказалось
— само устройство
— адаптер питания 5В 2А
— microUSB кабель
— чехол для устройства, черного цвета из натуральной кожи молодого дермантина.
**Слайды**


Подключение устройства к монитору и питанию — процесс абсолютно незамысловатый.
**В процессе первого запуска я узнал, что мое устройство от meegopad не отличается ничем, кроме надписи на коробке и корпусе**приветствие свистка при загрузке.

На борту оказалась предустановленная Win 8.1 (не активированная, и без всяких следов лицензионного ключа в комплекте). Насколько я понимаю, это «нормальная практика» для продавцов такого рода товаров, и меня этот факт не сильно удивил.
Справедливости ради, хочу заметить, что на сайте [продавца](http://www.tinydeal.com/ru/axgio-original-windows-81-intel-atom-z3735f-2gb32gb-mini-pc-px2p3lh-p-143920.html) сейчас есть это же самое устройство, на 10 долларов дороже, но (как пишут) с активированной windows. Какая доля правды в этом — мне не ведомо.
**Вот так внутренности свистка видит Aida**Motherboard:
CPU Type QuadCore Intel Atom Z3735F, 1333 MHz (16 x 83)
Motherboard Name AMI Corporation Aptio CRB
Motherboard Chipset Intel Bay Trail-T
System Memory [ TRIAL VERSION ]
BIOS Type AMI (01/19/2015)
Communication Port Communications Port (COM1)
Display:
Video Adapter Intel® HD Graphics (1052230 KB)
Video Adapter Intel® HD Graphics (1052230 KB)
3D Accelerator Intel HD Graphics
Monitor Intel Imaging Signal Processor 2400
Monitor Philips 243V5 [24" LCD] (ZV01433000567)
Storage:
Disk Drive JetFlash Transcend 32GB USB Device (29 GB, USB)
Disk Drive Kingston S10032 (28 GB)
SMART Hard Disks Status Unknown
Внутренний накопитель устройства оказался разбит на 4 раздела — загрузочный, служебный, собственно сама Win 8.1 и раздел для восстановления windows «с нуля».
Братья китайцы добавили в сборку ОС каких то своих приложений, о назначении которых, без знания китайского языка я мог только догадываться.
Первым делом, я решил переставить windows на чистый официальный дистрибутив.
Для этого мне понадобился ISO Win 8.1 и программа для записи образа на флэшку (под Windows для этой цели проще всего использовать [Rufus](http://rufus.akeo.ie/))
Делалось все прямо на устройстве, из под китайской Windows. В Rufus, при записи образа, важно не забыть установить режим “GPT partition scheme for UEFI computer”, иначе ничего не выйдет.
На устройство можно поставить только 32-битную версию Windows. Вернее, все составные части устройства прекрасно работают и с 64-битными ОС. Все, кроме загрузчика UEFI, он понимает исключительно 32-битный лоадер. На firmware производители явно сэкономили.
Windows встает на устройство без всяких проблем и сразу после установки готова к работе. Правда не будет работать звук, Wi-Fi, Bluetooth ну и еще почти все остальное тоже работать не будет. Проблему легко решают [драйвера](https://drive.google.com/folderview?id=0B6V1rO3SfeAefkJ2aXVwOVlyZlJWbHBfRkRod21zNEFoTTI0MkhUdVVyREgtR0wwSDVHX0E&usp=sharing), на поиск которых ушла половина вечера.
После установки драйверов, свисток становится нормальным, полноценным (условно конечно), компьютером.
Далее я поставил utorrent и, в образовательных целях, скачал несколько видеофайлов с разным битрэйтом. Во время скачивания файлов, скорость уверенно держалась на уровне полной загрузки 100Мбит Eth. (это предел моего подключения к интернет). Ни Wi-Fi тракт, ни накопитель узким звеном не оказались.
Проигрывание видеофайлов через VLC тоже оставило самые положительные впечатления. Даже видеопоток 1080р с битрэйтом 25Мбит/с игрался без фризов и пропуска кадров.
**Вывод первый:** по прямому назначению, устройство использовать можно и нужно. С ролью медиацентра, спрятанного за телевизором, и общающегося с сетью по Wi-Fi а с клавиатурой и мышью через Bluetooth — свисток справился.
Единственный момент — температура. При плотной нагрузке устройство весьма теплое, а встроенные температурные датчики показывают 65° С (правда, выше не поднималось ни разу).
Далее, учитывая, что уже много лет ни я, ни члены моей семьи не используют в повседневной жизни ОС семейства Windows (и нисколько от этого не страдают), я решил попробовать водрузить на свисток Ubuntu.
И вот тут-то, я и столкнулся с целым рядом проблем, которых наверняка не будет в официальном свистке Intel, а в его младшем китайском брате они присутствуют в большом ассортименте.
Итак:
Свисток умеет загружаться только через UEFI, при этом он понимает исключительно 32-битный лоадер, а 32-битный образ Ubuntu не умет загружаться таким образом.
Однако, выход есть. Если коротко, то нужно взять 64-битный образ Ubuntu, записать его на флэшку все тем же Rufus (не забыв установить режим “GPT partition scheme for UEFI computer”), далее взять [загрузчик](https://drive.google.com/file/d/0B6V1rO3SfeAedXY5b3pMMEotcDg/view?usp=sharing) и положить его в каталог /BOOT/EFI/ на флэшке. После чего — можно загружаться с флэшки в live режиме.
Забегая вперед, хочу сказать, что установить Ubuntu на внутренний накопитель без танцев с бубном все равно не получится (я не говорю, что совсем не получится).
Если совсем коротко — ключевое слово:
```
$ apt-get -y remove grub-efi-amd64
$ apt-get -y install grub-efi-ia32
```
Для пытливых, но ленивых обладателей атомного свистка есть выход проще:
можно скачать [готовый образ](https://drive.google.com/file/d/0B2J_Nqv8IludVDBHOEF4M2Uwcjg/view), который собран на базе Ubuntu 14.04 с оболочкой mate, который можно использовать и в live режиме, и установить на внутренний накопитель при помощи встроенной утилиты «System back».
[По этой ссылке](http://www.armtvtech.com/armtvtechforum/viewtopic.php?f=574&t=79720) автор образа описывает процесс установки ubuntu на свисток.
**Важно:**
1. перед любыми действиями с внутренним накопителем — забэкапьте его, используя привычный вам инструментарий (dd вполне подойдет)
2. в процессе установки Ubuntu не форматируйте раздел /boot
Обоими предостережениями можно пренебречь, просто в этом случае вам придется искать начальный образ свистка, либо остаться без возможности загрузить с него windows.
Под Ubuntu возможности свистка пока скромнее. Драйвера для Wi-Fi Bluetooth чипа RTL8723 весьма сырые, поэтому Wi-Fi работает, но устойчивость оставляет желать лучшего, а Bluetooth и вовсе не работает.
При этом видеофайлы из первого теста так же точно, без фризов и пропусков кадров (правда, в отличии от windows, еще и без звука), проигрываются и в VLC и в XBMC.
**Вывод второй:** при текущем положении с драйверами как рабочее место под Ubuntu свисток использовать можно, а как медиацентр — неудобно.
**Вывод третий:** на данный момент, для меня это устройство стало единственным в хозяйстве носителем windows. Оно работает проигрывателем медиаконтента и используется в случаях, когда «очень нужен именно windows» для открытия тех редких файлов MS Office, которые в Libre открываются криво. Иными словами — $109 разумная цена за такие возможности.
P.S. На КДПВ атомный свисток изображен рядом с его прадедушкой Intel Pentium 4, исключительно для понимания размеров устройства.
P.P.S. Буду рад конструктивным предложениям на тему что бы еще поставить на свисток, или что еще на нем испытать. | https://habr.com/ru/post/377183/ | null | ru | null |
# Введение в google api
В этой статье я хотел бы дать обзор api, которые предоставляет google. Я не буду рассматривать все api и давать детальную инструкцию по их использованию, а расскажу только про те, которые считаю наиболее полезными, и дам примеры кодов с комментариями (примеры взяты из документации к api).
Расскажу про:
* [AJAX Libraries API](http://code.google.com/intl/ru/apis/ajaxlibs/)
* [AJAX API языков](http://code.google.com/intl/ru/apis/ajaxlanguage/)
* [А так же пару слов про Code Playground](http://code.google.com/apis/ajax/playground/)
##### AJAX Libraries API
С помощью этого api мы можем подключать к своим web-приложениям популярные на данный момент JavaScript библиотеки (jQuery, Prototype, MooTools, Dojo, Ext Core и другие). Так же AJAX Libraries API будeт загружать библиотеки, необходимые для api, которые будут представлены ниже.
Пример использования AJAX Libraries API:
``> // Скрипт самого api
>
> "http://www.google.com/jsapi"</font>>
>
> <br/>
> <font color="#008000">// Загрузка библиотеки. В данном случае jquery версии 1.3.2</font><br/>
> google.load(<font color="#A31515">"jquery"</font>, <font color="#A31515">"1.3.2"</font>);<br/>
> <font color="#008000">// Указываем Callback-функцию которая вызывается после загрузки библиотеки</font><br/>
> google.setOnLoadCallback(<font color="#0000ff">function</font>() {<br/>
> alert($.browser.version);<br/>
> });<br/>
>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Документация к api [здесь](http://code.google.com/intl/ru/apis/ajaxlanguage/documentation/)
##### AJAX API языков
AJAX API языков дает нам возможность перевести текст, а так же определить язык, на котором написан текст, используя при этом только javaScript.
``>
>
>
>
> "text/javascript"</font> src=<font color="#A31515">"http://www.google.com/jsapi"</font>><br/>
>
>
> "text/javascript"</font>><br/>
> <font color="#008000">// Подключаем библеотеку language</font><br/>
> google.load(<font color="#A31515">"language"</font>, <font color="#A31515">"1"</font>);<br/>
> <br/>
> google.setOnLoadCallback(<font color="#0000ff">function</font>() {<br/>
> <font color="#0000ff">var</font> text = <font color="#0000ff">document</font>.getElementById(<font color="#A31515">"text"</font>).innerHTML;<br/>
> <font color="#008000">//Определяем язык и вызываем колбек функцию</font><br/>
> google.language.detect(text, <font color="#0000ff">function</font>(result) {<br/>
> <font color="#0000ff">if</font> (!result.error && result.language) {<br/>
> <font color="#008000">// Если нет ошибок и язык определен, переводим текст на русский</font><br/>
> google.language.translate(text, result.language, <font color="#A31515">"ru"</font>,<br/>
> <font color="#0000ff">function</font>(result) {<br/>
> <font color="#0000ff">var</font> translated = <font color="#0000ff">document</font>.getElementById(<font color="#A31515">"translation"</font>);<br/>
> <font color="#0000ff">if</font> (result.translation) {<br/>
> translated.innerHTML = result.translation;<br/>
> }<br/>
> });<br/>
> }<br/>
> });<br/>
> });<br/>
> <br/>
>
>
>
>
>
>
> "text">Hello world```
"translation">
\* This source code was highlighted with Source Code Highlighter.
Документация к api [здесь](http://code.google.com/intl/ru/apis/ajaxlanguage/documentation/)
##### Code Playground
Приложение, с помощью которого мы можем выполнять наш JavaScript. Но прелесть Code Playground не в этом (лично для меня). Здесь представлено много полезных примеров. Например, именно отсюда я узнал, как использовать YouTube API (и ответил на вопрос, как сделать собственную шкуру для плеера с YouTube).
Про все остальные библиотеки google можно почитать [здесь](http://code.google.com/intl/ru/labs/) | https://habr.com/ru/post/64515/ | null | ru | null |
# Микросервисы: от CRUD до Native Image. Часть вторая
Сегодня я продолжу рассуждать о том, как мы пишем микросервисы. В [прошлый раз](https://habr.com/ru/post/542448/) упор был на теорию: нужно было вспомнить, как код писался раньше, понять сущность архитектуры и связи между компонентами.
Эта половина статьи сосредоточится на опыте нашей команды BellSoft. Поговорим о том, каким образом мы взаимодействуем с миром микросервисов: здесь будет и про универсальный Java-рантайм, и про крошечные контейнеры, и про Spring. Я разложу микросервис на слои, соберу в образ, запущу и покажу, что влияет на его скорость.
Помним о результате
-------------------
Мы легко используем крошечные кусочки кода, чтобы связывать удалённые системы, такие как разные микросервисы, хранилища данных или очереди сообщений. И чтобы поддерживать связь с клиентами по общим протоколам.
```
@RestController
public class HelloController {
@Autowired
private WebClient webClient;
@RequestMapping(path = "/", method = RequestMethod.GET)
public CompletableFuture greet(Principal principal) {
return webClient.get()
.uri("http://api/persons/{id}", principal.getName())
.accept(MediaType.APPLICATION\_JSON)
.exchange()
.flatMap(response -> response.bodyToMono(Person.class))
.map(person -> "Hello, " + person.getFirstName())
.toFuture();
}
}
```
В этом примере полученный после аутентификации ID используется для запроса сведений о человеке из другого сервиса и ответа с приветствием. Подразумевается, что код, написанный в реактивном стиле, и выполняться должен асинхронно. Выбранный фреймворк вместе с дополнительными компонентами (например, реестром сервисов) добавляет обнаружение адресов сервисов, балансировку нагрузки и т. д.
Роль веб-сервера
----------------
Фреймворки сосредотачиваются на подключении настраиваемых компонентов верхнего уровня. А на нижнем — мир протоколов передачи данных, таких как HTTP; так что между сетевыми подключениями и бизнес-логикой необходим посредник. Кроме того, есть потребность в управлении состояниями (контекстами), ресурсами, безопасностью. За всё это отвечают веб-серверы. Раньше один веб-сервер контролировал сразу несколько приложений, все они требовали независимой конфигурации. Но, например, в контейнере каждый микросервис может быть связан со своим собственным экземпляром сервера, который централизованно настроен через фреймворк, как это происходит с Undertow в Spring или с Embedded Tomcat.
Новая парадигма Serverless, несмотря на название, фактически не исключает веб-сервер. Просто избавляет команду от его конфигурации и запуска. Сервер предоставляется как услуга совместно с выполнением «функций» бизнес-логики и их зависимостей (FaaS).
JVM как фундамент
-----------------
JVM и стандартная библиотека классов составляют основу для веб-сервера, других библиотек и бизнес-логики. Сюда включаются сеть, потоки, синхронизация, динамические прокси, загрузчики классов. Байт-код разработчика верифицируется и исполняется рантаймом, а также мониторится встроенными инструментами диагностики, такими как Mission Control.
### Динамические прокси
Вспомним для примера одну из важных фич платформы. При построении слабосвязанных систем критически важна рефлексия. Удобно создавать и перезагружать классы прямо в ходе исполнения программы.
В Java мы можем создать наблюдателя (facade), который перехватывает вызовы методов интерфейса с помощью стандартного API java.lang.reflect.Proxy и java.lang.reflect.InvocationHandler. Это реализация шаблона Dynamic Proxy, и она широко используется в CDI-контейнерах.
### Гибкость
JIT-компиляторы и сборщики мусора гибко настраиваются в зависимости от нужд приложения. Всегда есть требования к пропускной способности и времени отклика, а также ограничения по ресурсам. Их потребление дорого стоит: трафик при деплое, загрузка памяти и процессора хоста, использование диска — всё это не бесплатно.
JRE может обновляться отдельно от бизнес-логики. А значит, патчи безопасности, фичи и оптимизированные дефолты появляются сразу в проде. При этом основной код не требует ни изменений, ни пересборки; только скомпилированные артефакты требуют тестирования на обновленной JVM. Новые функции не только влияют на поведение JVM, но и порой сразу подхватываются фреймворками и веб-серверами (конфигурация при этом может измениться), чтобы обеспечить более эффективное и безопасное исполнение приложений. Пара примеров:
* Сборщики мусора стали возвращать память в ОС. Это направление эволюционирует буквально на глазах — на отрезке JDK 11–16 в ряде конфигураций показатели, связанные с latency, улучшились на 40%, причём в нескольких GC!
* Строки требуют меньше памяти.
* Поддерживается TLS 1.3.
* Появляется и развивается JFR, и его можно использовать для диагностики микросервисов в контейнерах.
Скоро record’ы и легковесные потоки Project Loom в корне изменят работу классов данных и сетевых соединений. Думаю, все уже не раз перечитали по второй теме обе части [State of Loom](http://cr.openjdk.java.net/~rpressler/loom/loom/sol1_part1.html) Рона Пресслера.
Я понимаю, что, во-первых, асинхронное или функциональное программирование зачастую сложно. А во-вторых, оно не позволяет полностью избежать нежелательных эффектов синхронных и блокирующих операций, таких как работа с базами данных (даже через асинхронные драйверы!) и прочим вводом-выводом (даже через NIO). Конкретно для случая веб-серверов Рон и упоминает, что параллельная обработка означает обработку в потоках. При этом число параллельных потоков в железе (и, соответственно, эффективных полновесных потоков ОС) сейчас составляет от единиц до сотен, в среднем десятки. В то время как параллельные потоки Loom, на которые можно будет пересадить обработку соединений, исчисляются сотнями тысяч.
Фреймворки
----------
Как сказано выше, фреймворки берут на себя решение рутинных задач, которые зачастую составляют основную массу в типичных проектах. Фреймворков в индустрии достаточно. От мастодонтов до нишевых, под уникальные запросы.
Интересно, что разные фреймворки существуют не сами по себе, а связаны друг с другом и с другими технологиями. Например, Eclipse MicroProfile связан с Java EE, но ориентирован на микросервисы. Вообще, нередко фреймворки поддерживают несколько разных API. И в Spring, и в Quarkus частично реализована спецификация CDI, хотя у них есть собственные инструменты с аналогичным функционалом. Еще один пример — введение аннотаций Spring в Quarkus, что помогает переносить код с минимальными изменениями.
Сложим всё вместе
-----------------
Итак, мы собрали части микросервиса: JVM, веб-сервер, фреймворки, библиотеки. Также определены целевая ОС, системные пакеты и оборудование. Это единое целое может быть упаковано в контейнерные образы, и гибко деплоиться в разных окружениях с помощью какого-нибудь Docker или Podman.
Компоненты в контейнере естественным образом укладываются слоями. А вся прелесть в том, что развёрнутый слоёный образ эффективнее обновляется. Когда обновляются только верхние уровни, можно использовать кэширование для нижних.
Внимательный читатель возмутится: «как это OS Packages поверх JRE?» Но здесь OS Packages — дополнительные пакеты, которые нужны для работы приложения, а не самой JRE. При настройке приходится учитывать, что все слои должны взаимодействовать друг с другом, корректно работать в операционке на удалённом хосте и сообщаться с внешними системами. Разработчики и DevOps занимаются конфигурациями в каком-нибудь YAML, где в итоге можно увидеть что-то такое:
```
server:
port : 8081
eureka:
client:
serviceUrl:
defaultZone: http://localhost:8761/eureka/
```
Наконец, есть системы оркестрации, например Kubernetes и Marathon, которые позволяют распределять контейнеры в кластере машин. На этом этапе мы уже имеем дело с полностью сконфигурированными контейнерами, которые развёрнуты в парке серверов и, возможно, связаны с SaaS-компонентами в облаке.
Битва за ресурсы
----------------
Микросервис настроен и запущен. Возникает один важный вопрос: как минимизировать потребление ресурсов?
Есть несколько показателей, которые можно попробовать улучшить:
1. Размер Docker-образа,
2. Объем памяти,
3. Время запуска.
Выбор рантайма — отдельная захватывающая тема. Тут моё мнение предвзято. BellSoft выпускает базовые образы Liberica JDK размером 107 МБ. (Бонусом для CLI-приложений и им подобных идёт вариант 41,5 МБ с Alpine Linux musl — самый маленький контейнер с Java.)
Кстати, если вам просто нужен максимально стандартный образ, то **Liberica JDK включается по умолчанию в контейнерную сборку Spring Boot**. Чтобы её построить, достаточно просто выполнить простую команду вроде
```
gradle bootBuildImage
```
Запуск даже небольшого приложения требует относительно много памяти. Мы провели эксперимент с примерами из доклада «Не клади все яйца в один контейнер» и оптимизацией, запустив проект в разных конфигурациях. Напомню, что это простой Spring Boot сервис с Actuator. С thin jar и AppCDS скорость запуска выросла почти в 2,5 раза! Более подробные результаты есть в таблице ниже.
Ускорение до пары секунд — это отлично. Но иногда хочется (или нужно добиться) абсолютно мгновенного старта. И тогда в дело вступает Native Image.
Native Image
------------
При сборке в Native Image тот же проект использовал всего лишь 35 МБ ОЗУ и запускался за 1/10 секунды! При этом размер самого Native Image на диске составил всего 89 МБ.
Сочетание компилятора Graal в режиме AOT и виртуальной машины Substrate VM нацелено на то, что приложение будет запускаться моментально, съедать совсем немного памяти, занимать мало места на диске, и при этом работать быстро. Что важно, такой особенный способ сборки легко доступен: нужно просто добавить пару зависимостей и немного изменить основной шаг в скриптах. И можно использовать команды вида
```
gradlew nativeImage
```
Отличный результат...
---------------------
Для работы Native Image вообще не нужен слой с полноценной JDK, ведь такой контейнер по сути представляет собой обычный исполняемый файл. Базовый контейнер может в принципе быть «scratch»-образом с минимальной функциональностью. Проект будет работать в случае, если приложение содержит все свои зависимости. Так, например, Native Image может быть статически слинкован со стандартной библиотекой C.
В базовом контейнере для Native Image могут также присутствовать сертификаты, библиотеки SSL и динамически загружаемая библиотека C. Тогда базовый образ будет так называемым distroless, «без дистрибутива». В реестре gcr есть такие distroless images без libc от 2 МБ (base). Это немногим меньше, чем размер минимального образа Alpine Linux, однако вместе с glibc выходит уже намного больше — 17 МБ.
Сравним контейнеры с Native Image, thin jar и fat jar:
| | | | |
| --- | --- | --- | --- |
| | **Место на диске** | **RAM** | **Старт** |
| thin jar unoptimized | 13 kb thin jar + 17,4 MB libs + 107 MB базовый образ | 135 MB | 2,197 с |
| thin jar optimized | 13 kb jar + 17,4 MB libs + 107 MB базовый образ +50 MB jsa (CDS archive) | 70 MB | 1,156 с |
| fat jar unoptimized | 18,02 MB jar + 107 MB базовый образ | 135 MB | 3,811 с |
| Native Image | 89,22 MB | 35 MB | 0,111 с |
Впечатляет, правда? Но, во-первых, где-то же должен быть подвох (об этом как раз поговорим в следующем разделе). А во-вторых: всем ли нужны доли секунды на запуске, и стоят ли они возможных проблем?
… Но со своими условиями
------------------------
Java-программы в виде Native Image выполняются и оптимизируются не совсем так, как в «большой» JVM. Более того, такая сборка в принципе доступна не для всех программ.
Ограничения Native Image, из-за которых приложение потребует исполнения через JDK, делятся на три большие группы. Кстати, такое исполнение происходит через так называемый fallback image, который сгенерируется вместо обычного во время сборки. Он задействуется при использовании неподдерживаемых фич либо при их неправильной настройке.
1. Функции, связанные с метаданными классов. Требуют настройки во время сборки образа, в противном случае fallback image. Это, в частности, динамическая загрузка классов, рефлексия и те самые динамические прокси.
2. Функции, несовместимые с предположением closed-world. В частности, invokedynamic и сериализация.
3. Функции, которые в Native Image могут работать не так, как мы привыкли в JVM. Например, инициализация классов и Unsafe.
Полный список ограничений можно посмотреть в *Native Image Compatibility and Optimization Guide*.
Скажу больше, сборка Native Image — это статическая компиляция, требующая очень много памяти и времени. И она дополняется довольно сложной конфигурацией. На этом этапе нам помогают автоматизировать процесс плагины для Maven и Gradle либо инструменты вроде Tracing Agent, которые собирают данные о требованиях микросервисов во время прогона на JVM.
Дополнительные оптимизации и диагностика входят только в GraalVM EE, на который необходима лицензия для использования в проде. А деплой образа с предельно тонким слоем thin jar, как в нашем эксперименте ранее, возможен только тогда, когда есть jar-файлы, то есть только с обычным рантаймом. Ещё при работе с Native Image приходится постоянно думать о том, будут ли функции выбранного фреймворка с ним совместимы. В общем, подводных камней тут достаточно.
Решает ли Native Image все проблемы?
------------------------------------
Похоже, что нет. Всё определяется ситуацией: иногда нам нужен Native Image, иногда — обычная JVM. Выбор того или иного инструмента для микросервисов зависит от поставленных задач.
Преодолеть шероховатости работы с Native Image помогает то, что существуют фреймворки, изначально ориентированные на взаимодействие с ним: Quarkus, Micronaut, Helidon. Благодаря своему дизайну они обходят приведённые ограничения (например, не используют инструментацию байт-кода), но ценой тому зачастую меньшие возможности, ограничения в их коде и архитектуре.
В 2020 году самый популярный Java-фреймворк **Spring Boot** значительно расширил поддержку Native Image. Она всё ещё в экспериментальном режиме, но уже выдаёт отличные показатели производительности и совместимости. В то же время, GraalVM делает шаги в направлении быстрой и корректной работы с существующими фреймворками.
Для тех, кто отчаялся ждать быстрого старта от обычной джавы: не унывайте. В этом направлении [проводится оптимизация JVM и стандартной библиотеки](https://cl4es.github.io/2020/12/06/Towards-OpenJDK-17.html), улучшение существующих связанных фич (AppCDS), а также эксперименты с быстрым восстановлением процессов (Checkpoint/Restore), которые показывают [фантастические 50 мс](https://mail.openjdk.java.net/pipermail/discuss/2020-September/005594.html) как раз на микросервисных примерах.
Заключение
----------
Инструменты, доступные для создания Java-микросервисов, разнообразны и постоянно развиваются. Также эволюционируют сам язык и его поддержка в IDE. На уровне виртуальных машин прямо сейчас производятся изменения, которые помогут не только будущим разработкам, но и уже существующему коду.
Среди всех этих процессов JVM по-прежнему занимает центральное место в построении программных решений. Выбирая среди прекрасных альтернатив в мире Java, вы должны всего лишь чётко понимать задачи и ограничения. И всегда можно спросить мнение профессионалов. Пусть в этом году всё получится, какой бы способ запуска приложений вы не выбрали, и поменьше всем hs\_err.
### Дополнение
Как на практике построить микросервис с использованием Spring, сделать его в доступным в облаки и обложить необходимыми средствами мониторинга, читайте в большом гайде Олега Чирухина [Пишем микросервисы на Java и Spring Boot, заворачиваем в Docker, запускаем на EKS, мониторим на Grafana](https://habr.com/ru/post/682720/). | https://habr.com/ru/post/547508/ | null | ru | null |
# Кооператив на Unity за «Бесплатно», или p2p соединение через ISteamNetworkingMessages
Разрабатывая вторую игру на Unity я решил замахнуться на кооперативный режим. Так как новая игра тоже выйдет на площадке Steam, сервисы стима уже интегрированны, а взнос за приложение уже уплачен, было решено попробовать сетевые сервисы стима. Steam заявляет что они очень круто работают, сервера расположены по всему миру (спойлер, это не так), работать с ними просто, а главное работает всё быстро.
Так как использовать сервер я не хочу, мне больше всего подходит вариант p2p соединения, и у Steam такое есть (даже два).
Как я уже сказал, у Steam есть два сетевых интерфейса ориентированных на p2p. Первый называется [ISteamNetworking](https://partner.steamgames.com/doc/api/ISteamNetworking), в документации стим пишет что он устарел, и его уже даже удалять хотят. Я разумеется этой строки не заметил, и сначала написал все на этом интерфейсе. Кстати, про него я нашел пару англоязычных статей.
Актуальный интерфейс называется [ISteamNetworkingMessages](https://partner.steamgames.com/doc/api/ISteamNetworkingMessages). Работает на UDP(точнее поверх [ISteamNetworkingSockets](https://partner.steamgames.com/doc/api/ISteamNetworkingSockets)). И пересылает все пакеты через ближайший стимовский сервер (из за этого, кстати, есть некоторые проблемы с пингом).
Собственно, главная проблема этого интерфейса, это практически полное отсутствие информации, за исключением документации Steam. Собственно, поэтому я и решил написать эту статью.
Наконец к практике
------------------
Первым делом вам надо сделать какое-то лобби, чтобы получить SteamID будущих игроков. О создании лобби уже до меня написано куча статей, поэтому на этом не буду заострять внимание.
У меня лобби выглядит примерно такДля работы понадобится какая-то структура, которая будет содержать передаваемую информацию. У меня используется класс с названием Package, в котором просто написана куча конверторов, в том числе и в структуру. Эту структуру мы в дальнейшем будем маршалировать при помощи библиотеки Marshal. Так как новый интерфейс принимает указатель IntPrt, а не бинарный массив как старый.
В этой структуре у нас будет содержаться SteamID пользователя, от которого пришло сообщение, длинна сообщения и, собственно, бинарный массив с самим сообщением, в который мы будем загонять информацию путем сереализации. Для того что бы библиотека Marshal могла маршалировать нашу структуру, нам надо указать фиксированный размер нашего сообщения. А длину запоминаем что бы потом суметь его потом правильно прочитать.
```
public struct Package
{
public CSteamID steamIDUser;
public int messageLength;
[MarshalAs(UnmanagedType.ByValArray, SizeConst = 1024)]
public byte[] message;
}
```
В качесве `message` наверное лучше тоже использовать результат маршалинга, но у меня вся логика была написана под бинарные массивы, да и с ними, мне кажется, работать попроще, хотя может и медленнее.
Дальше, в принципе, уже можем отправлять сообщения. Но сначала напишем метод, который будет принимать и запоминать StemID наших игроков:
```
public List ClientsId;
public void StartSession(List clientsId)
{
ClientsId = clientsId;
}
```
При первой отправке сообщения, и возможно ещё в каких то ситуациях, должно произойти рукопожатие. В документации этот момент описан так:
> "Если у нас еще нет сеанса с этим пользователем, сеанс создается неявно. Возможно, должно произойти некоторое рукопожатие, прежде чем мы действительно сможем начать отправлять данные сообщений."
>
>
Для этого создаем метод, который будет отвечать на это рукопожатие:
```
void SteamNetworkingMessagesSessionRequest(SteamNetworkingMessagesSessionRequest_t request)
{
CSteamID clientId = request.m_identityRemote.GetSteamID(); //Получаем SteamID того кто пытается пожать нам руку
if (ExpectingClient(clientId))
{
//Создаем сущность SteamNetworkingIdentity для подтверждения рукопожатия
var client = new SteamNetworkingIdentity();
client.SetSteamID(clientId);
SteamNetworkingMessages.AcceptSessionWithUser(ref request.m_identityRemote);
}
else
{
//Выдаем ошибку, если к нам пытается подключиться кто-то нам не знакомый
Debug.LogWarning("Unexpected session request from " + clientId);
}
}
```
Где `ExpectingClient` это метод который вернет `true` если мы готовы этому пользователю "пожать руку". В моём случае выглядит так:
```
bool ExpectingClient(CSteamID clientId)
{
return ClientsId.Contains(clientId);
}
```
Для того чтобы наш метод `SteamNetworkingMessagesSessionRequest` обрабатывался, нам надо при старте создать поле обратного вызова:
```
private Callback \_p2PSessionRequestCallback;
void Start()
{
\_p2PSessionRequestCallback = Callback.Create(SteamNetworkingMessagesSessionRequest);
}
```
Теперь можно попыться что-то отправить:
```
public void SendMessage(CSteamID clientId, Package package)
{
//Создаем индетефикатор пользователя, которому хотим отправить сообщение
var client = new SteamNetworkingIdentit();
client.SetSteamID(clientId);
IntPtr _pInt_buffer = Marshal.AllocCoTaskMem(Marshal.SizeOf(package)); // выделили кусочек памяти
Marshal.StructureToPtr(package, _pInt_buffer, false); // записали содержимое
uint cubData = (uint)Marshal.SizeOf(package); //размер сообщения
int sendflag = 1; //флаг отправки
EResult result = SteamNetworkingMessages.SendMessageToUser(ref client, _pInt_buffer,cubData,sendflag,0);
// Debug.LogWarning("send message to: " + client.ToString()+"result: "+result+" size: "+cubData);
}
```
В этом методе `cubData` это размер пересылаемого сообщения. `sendflag` это флаг, используемый для отправки сообщений. Может быть следующий:
* 0 - отправляет сообщение ненадежно. Сообщение может быть потеряно;
* 1 - тоже самое что и 0, но с отключенным алгоритмом [Nagle](https://en.wikipedia.org/wiki/Nagle%27s_algorithm);
* 4 - Если сообщение не может быть отправлено очень скоро (потому что соединение все еще делает некоторые первоначальные рукопожатия, переговоры о маршруте и т. Д.), То просто отбрасывает его;
* 8 - Надежная отправка сообщений.
И последняя цифра, это номер канала, на котором мы передаем сообщение (в случае если не хотите использовать эту фичу, ставте 0). `SendMessageToUser` возвращает результат в виде сущности `EResult`, её можно вывести в дебаг.
Чтобы не заморачиваться я просто отправляю сообщения всем клиентам (разумеется кроме себя):
```
public void SendMessageAllClients(Package package)
{
foreach (var client in ClientsId)
{
SendMessage(client, package);
}
}
```
Отправить это конечно хорошо, но надо бы и что то получить. Тут немного сложнее. Для чтения используется метод:
```
SteamNetworkingMessages.ReceiveMessagesOnChannel(0, outMessages, readPacketCount)
```
В котором первая цифра, это тот самый номер канала, `outMessages` это массив принятых сообщений (за раз их может несколько),а `readPacketCount` это, как раз, максимальное количество сообщений, которое мы хотим прочитать.
В итоге чтение будет выглядеть примерно так:
```
public int readPacketCount = 10;
public List ReadMessages()
{
List packages = new List();
IntPtr[] outMessages = new IntPtr[400]; //Размер массива указал на абум, вообще надо по readPacketCount
int countMessage = SteamNetworkingMessages.ReceiveMessagesOnChannel(0, outMessages, readPacketCount);
if(countMessage>0)
{
for(int i=0;i(t);
packages.Add(package);
}
}
return packages;
}
```
Не забудьте, что поле message в нашей структуре фиксированного размера, а записываемая в него информация нет. Поэтому для правильной десериализации потребуется дополнительный буффер и метод `Buffer.BlockCopy`. У меня это все происходит при переконвертации из структуры в класс.
На этом в принципе и всё. Далее потребуется ещё какой-нибудь класс, который будет управлять всеми этими функциями, но это тема уже отдельной статьи. | https://habr.com/ru/post/597783/ | null | ru | null |
# Разработка расширения для firefox, или мой первый опыт, на примере скриншотера
После написания статьи [Системные скрипты на php для linux, пишем скриншотер](https://habrahabr.ru/post/310694/), у меня появилась идея «А почему бы, не написать расширение которое завязать на мой скрипт, с возможностью автоматической выгрузки на яндекс диск.»… Почитав документацию о разработке расширений я решил всё же начать писать.

Вот это маленькая кнопочка и скриншот на яндекс диске, результат прототипа расширения, написаного за пару часов. О процессе его создание под катом…
Внимание: это первая версия приложения, в будущем в роли скриншотера будет выступать скрипт из предыдущей статьи…
Расширение которое я разработал имеет следующую файловую структуру:
**Структура**-chrome.manifest
-install.rdf
--content
----browserOverlay.js
----browserOverlay.xul
----options.xul
--skin
----browserOverlay.css
Сейчас нас интересуют файлы: chrome.manifest и install.rdf. chrome.manifest содержит в себе описание структуры проекта:
**chrome.manifest**
```
content xulphpsrc content/
skin xulphpsrc classic/1.0 skin/
overlay chrome://browser/content/browser.xul chrome://xulphpsrc/content/browserOverlay.xul
```
Первые две строки хром манифеста содержат: тип данных, название пакета, путь к файлам пакета.
Третья строка регистрирует, так называемый, overlay (поверхностный слой) т.е. этот слой ложиться как бы по верх уже существующего, и добавляет элементы управления в браузер.
Файл install.rdf это манифест установки, который содержит информацию об добавляемом расширение:
**install.rdf**
```
xml version="1.0"?
phpsrc@phpsrc.ru
xulphpsrc
PHP screenshoter extensions!
0.1
chrome://xulphpsrc/content/options.xul
Naumov
2
{ec8030f7-c20a-464f-9b0e-13a3a9e97384}
4.0
10.\*
```
Как вы видите. Он содержит в себе идентификатор, имя приложения, версию, создателя, тип приложения, URL панели настройки и д.р. информацию.
Я не думаю что стоит заострять внимание на этом файле, так как всё вполне очевидно. Мы можем только разобрать одну опцию optionsURL, это url который ведёт к настройкам расширения, настройки в свою очередь описываются файлом options.xul:
**options.xul**
```
xml version="1.0"?
xml-stylesheet href="chrome://global/skin/" type="text/css"?
```
В этом файле, мы описали всего 2-ва поля логин и пароль. Обратите внимание на имена «extensions.xulphpsrc.login» и «extensions.xulphpsrc.pass» они содержат как бы древовидную структуру, и их будет удобнее получать из общей массы записей, да и есть, некая гарантия уникальности ключей…
Далее рассмотрим фаил browserOverlay.xul:
**browserOverlay.xul**
```
xml version="1.0"?
xml-stylesheet type="text/css" href="chrome://global/skin/" ?
xml-stylesheet type="text/css"
href="chrome://xulphpsrc/skin/browserOverlay.css" ?
```
Что он делает? он подключает два файла browserOverlay.css, browserOverlay.js и создаёт toolbar и единственную кнопку на нём «Скриншот»:

Вся логика приложения заложена в browserOverlay.js
**browserOverlay.js**
```
/**
* XULPHPsrcChrome namespace.
*/
if ("undefined" == typeof(XULPHPsrcChrome)) {
var XULPHPsrcChrome = {};
}
/**
* Controls the browser overlay.
*/
XULPHPsrcChrome.BrowserOverlay = {
/**
* craete screen shot by rect
* @param aEvent
*/
makeScreen: function (aEvent) {
var date = new Date();
var fileScreen = date.getTime().toString() + '_screen.png';
var args = ["-s", "/tmp/" + fileScreen];
this.systemRequest(
'/usr/bin/scrot',
args
);
this.uploadToYandex(fileScreen);
},
/**
* analog php system
* @param shell
* @param args
*/
systemRequest: function (shell, args) {
var file = Components.classes["@mozilla.org/file/local;1"]
.createInstance(Components.interfaces.nsIFile);
file.initWithPath(shell);
var process = Components.classes["@mozilla.org/process/util;1"]
.createInstance(Components.interfaces.nsIProcess);
process.init(file);
process.run(true, args, args.length);
},
/**
* upload screen to yandex
* @param name
*/
uploadToYandex: function (name) {
var xml = 'true';
var auth = this.getPreference().login + ':' + this.getPreference().pass;
this.systemRequest('/usr/bin/curl', [
'-s',
'--user', auth,
'-T', '/tmp/' + name,
'-X', 'PUT',
'https://webdav.yandex.ru'
]);
this.systemRequest('/usr/bin/curl', [
'-s',
'--user', auth,
'-d', xml,
'-X', 'PROPPATCH',
'https://webdav.yandex.ru/' + name
]);
alert("Скриншот сохранён");
},
/**
* get system configuration
* @returns {{login: *, pass: *}}
*/
getPreference: function () {
var prefs = Components.classes["@mozilla.org/preferences-service;1"]
.getService(Components.interfaces.nsIPrefService);
var myPrefs = prefs.getBranch("extensions.xulphpsrc.");
return {
login: myPrefs.getCharPref('login'),
pass: myPrefs.getCharPref('pass')
}
}
};
```
Данный фаил мы разберём чуть подробнее хотя он тривиален и выполняет всего 2-ва действия: делает скриншот, и загружает его на yandex disk. Скриншот он делает с помощью вызова системной утилиты crot, и згружает результат с помощью curl. Обработчик «клика» на кнопку «скриншот» мы поставили метод makeScreen:
```
/**
* craete screen shot by rect
* @param aEvent
*/
makeScreen: function (aEvent) {
var date = new Date();
var fileScreen = date.getTime().toString() + '_screen.png';
var args = ["-s", "/tmp/" + fileScreen];
this.systemRequest(
'/usr/bin/scrot',
args
);
this.uploadToYandex(fileScreen);
},
```
Это точка входа в приложение, здесь формируется имя будущего скриншота и происходит вызов, linux программы, scrot. Мы выбираем мышкой область экрана и делаем снимок, после этого программа переходит в следующий метод uploadToYandex, и передаёт имя файла для загрузки.
```
/**
* upload screen to yandex
* @param name
*/
uploadToYandex: function (name) {
var xml = 'true';
var auth = this.getPreference().login + ':' + this.getPreference().pass;
this.systemRequest('/usr/bin/curl', [
'-s',
'--user', auth,
'-T', '/tmp/' + name,
'-X', 'PUT',
'https://webdav.yandex.ru'
]);
this.systemRequest('/usr/bin/curl', [
'-s',
'--user', auth,
'-d', xml,
'-X', 'PROPPATCH',
'https://webdav.yandex.ru/' + name
]);
alert("Скриншот сохранён");
},
```
В этом методе, как вы видите нет ни чего экстраординарного, он делает 2-ва запроса с помощью curl в yandex.disk, один загружает созданный файл, другой его публикуют. Спасибо [lexore](https://habrahabr.ru/users/lexore/) за [коментарий](https://habrahabr.ru/post/310694/#comment_9823672). В конце концов, мы получаем уведомление что скриншот сохранён.
Ну вот теперь у нас есть расширение как его установить? Для разработки мы можем, просто, создать файл под именем приложения в папке:
```
~/.mozilla/firefox/[id].[user]/extensions/
```
Где id — идентификатор, [user] — пользователь firefox к примеру у меня получилось так:
```
~/.mozilla/firefox/pta4nm6g.default/extensions/phpsrc@phpsrc.ru
```
И содержащий путь до директории с файлами расширения:~/extensions/phpsrc/ (к примеру у меня такой).
Последним штрихом, нам необходимо отключить проверку подписи расширений в firefox. Для этого необходимо перейти по адресу about:config найти опцию xpinstall.signatures.required и выставить значение false.

Перезагружаем firefox и всё готово… Настройка расширения, заходим в дополнения и ищем своё расширение, нажимаем на кнопочку настроить, вводим логин и пароль от yandex'a и готово, теперь можно нажать кнопочку и сделать скриншот…
**Выводы:** Я в первый раз писал расширение для firefox, и времени у меня больше на написание статьи ушло. Это первая версия приложения в дальнейшем есть планы развиваться в направление, использования php в этой сфере. Все скриншоты сделаны разработанным расширением. Всем спасибо за внимание, всего хорошего…
**UPD:** [Репозитарий на github](https://github.com/lnroma/fscreenshooter) | https://habr.com/ru/post/310844/ | null | ru | null |
# STM32 и LCD через I2C

Для использования в дальнейшем понадобилось связать, используя I2C микроконтроллер STM32 с экраном 2004. Не найдя аналогичного решения в сети, публикую здесь. Данный рецепт подойдёт также для экранов 1602. Далее под катом. (Осторожно, картинки).
Игрушечная касса, купленная сыну, оказалось с дефектом, и работала через раз. Появилась идея переделать её внутренности, и момент выбора микроконтроллера совпал с публикацией статьи [RaJa](http://geektimes.ru/users/raja/) про STM32 [[1](#stm32vs)]. Немного прикинув и сравнив цены: STM32+LCD2004+I2C = ArduinoMega (причина была в том, что нужно было реализовать клавиатуру, динамик, устройство ввода штрих-кода и экран, поэтому каждый вывод микроконтроллера на счету) я выбрал первый набор.
Были сделаны покупки, и наступило время ожидания. Для прошивки купил ещё USB-USART переходник.
**Что и где покупалось.**1. [STM32F103C8T6](http://www.ebay.com/itm/371036921289)
2. [2004 LCD HD44780](http://www.ebay.com/itm/400448319287). Оказался без кириллицы. Обращайте внимание на данную особенность при поиске, если нужен русский язык на экране.
3. [IIC/I2C/TWI/SPI Serial Interface Board Module Port For Arduino 1602LCD Display](http://www.ebay.com/itm/310565362720) По описанию совместим с 2004. Но думаю подойдёт любой аналогичный.
4. [USB to UART TTL CP2012](http://www.ebay.com/itm/181202034360) для прошивки и отладки. Можно воспользоваться и другими поддерживаемыми способами прошивки и отладки, но этот вариант самый дешевый.
Средства для программирования, прошивки и отладки, используемые мною:
1. [EmBlocks](http://ravenium.ru/emblocks-ide/#download).
2. Прошивальщик с оригинального сайта: [STM32 and STM8 Flash loader demonstrator](http://www.st.com/web/en/catalog/tools/PF257525#).
3. Терминал для чтения сигналов от MK через USB2UART: [Terminal v1.91b](https://sites.google.com/site/terminalbpp/). Но подойдёт и Putty (Connection->Serial).
После получения микроконтроллера попробовал поиграть с светодиодами, получилось. А потом были несколько часов попыток связать экран с МК. Всё это описывать скучно, попробую вспомнить грабли, на которые напоролся.
Первым опишу подключение. Странно, описывая использование STM32 мало где рисуют схемы, в основном код, сам догадайся, что и как подключить.
Подключение изображу на фотографии (по клику — крупнее).
[](http://habrastorage.org/files/b6f/6b1/87b/b6f6b187ba9c4d5497c9224223ce6bb2.jpg)
Данное подключение актуально для STM32F103C8. Для других плат МК проверьте пины подключения I2C1 по даташиту.
USART переходник в USB. Тут понятно. Далее — USART подключаем к STM32 к выведенному около разъема miniUSB USART1. TX к RX и соответственно RX к TX. У меня на USART есть вывод 3v3, я от него и запитал МК. Землю я подключил отдельно, для удобного её отключения во время переключения режимов прошивки и работы. К экрану я припаял I2C (так же на ebay есть экраны с припаянными I2C). Питание для I2C и экрана берётся от 3v3 МК или 5В от USART. Ниже написал про настройку контраста при различном напряжении питании. Далее: SCL от I2C подключается к PB6, SDA от I2C к PB7. Притягивать SCL и SDA к питанию при использовании одного данного устройства нет необходимости.
Первыми граблями был USART. Его я использовал для отладки, в приведённом здесь коде строки работы с ним закомментированы. Но с ним проблему так и не решил. Такое впечатление, что нет синхронизации между компьютером и микроконтроллером до посылки первого символа. Причем если использовать код из примера [[4](#usart)] — то МК прекрасно дублирует получаемый текст, а сам писать не может. Я добился наиболее приемлемого для отладки вывода строк, добавив Delay(500) после каждого символа.
Потом попытался реализовать работу с I2C. Взял код из примера [[3](#i2c)], обратил внимание на комментарии про подвисание МК, проанализировав исходники, увидел что как и автору комментариев, мне необходим сдвиг адреса устройства влево:
```
//http://microtechnics.ru/stm32-ispolzovanie-i2c/#comment-8109
I2C_Send7bitAddress(I2Cx, slaveAddress<<1, transmissionDirection);
```
Вставил код и попробовал запустить. Программа повисала на моменте ожидания освобождения шины:
```
while(!I2C_CheckEvent(I2Cx, I2C_EVENT_MASTER_TRANSMITTER_MODE_SELECTED));
```
Тут грабли в адресе I2C устройства. Судя из описания продавца, у меня был адрес 0x20. Вот тут я и потерял 15 минут впустую, но вчитавшись в описание разных моделей I2C переходников, ссылку [[6](#lcdblue)] на которое привёл в своей статье [[5](#ari2c)] [romanvl](http://geektimes.ru/users/romanvl/), обратил внимание на последнюю модель и попробовал поменять адрес на 0x27. Всё заработало. Вывод такой: если у Вас на переходнике запаяны A0 A1 A2 — адрес 0x20, не запаяны — 0x27.
Сравните:
| | |
| --- | --- |
| | |
Далее — экран. Оказалось, что он прекрасно работает и от 3.3 Вольт, как и переходник I2C (в [даташите](http://www.nxp.com/documents/data_sheet/PCF8574.pdf) микросхемы переходника — от 2.5 до 6 В). Но сначала я его проверял от 5В. И контраст был выкручен на максимум. В итоге в результате запуска программы экран был полностью заполнен. Я расстроился и продолжил ковырять код. Но спустя полчаса проснулся и подбежал виновник разработки, я ему показал экран и случайно увидел под углом сбоку, что там что-то написано. Причиной этому является неправильная регулировка контраста. (Извините, если описал тут очевидные вещи, может найдутся такие же, кто этого не знал.)
Ничего не видно
То же самое, но под углом
При 5В питания контраст нужно немного уменьшить. А при 3.3В поставить на максимум, на настройке от 5В ничего не видно. Результат представлен на первой картинке в посте. Мой оказался без русского языка, я это увидел, пролистав символы. Попробовал нарисовать кляксу, не зная, что максимум можно определить 8 своих символов, написал для кляксы 12. Подобрал похожие из китайских, вроде получилось.

Код представлен на гихабе, так как для достижения результата переписал библиотеку от Ардуины: [STM32\_LCD\_I2C](https://github.com/Vendict/STM32_LCD_I2C).
Использованные материалы:
1. Причина выбора микроконтроллера: [STM32 vs Arduino](http://habrahabr.ru/post/191054/).
2. Отсюда взял реализацию Delay: [STM32 I2C EEPROM 24СXX](http://we.easyelectronics.ru/STM32/stm32-i2c-eeprom-24sxx.html).
3. Cтатья про I2C [STM32. Использование I2C.](http://microtechnics.ru/stm32-ispolzovanie-i2c/)[microtechnics.ru/stm32-ispolzovanie-i2c](http://microtechnics.ru/stm32-ispolzovanie-i2c/). Тут же [комментарий](http://microtechnics.ru/stm32-ispolzovanie-i2c/#comment-8107) про сдвиг, без которого я бы наверное так же поймал грабли что и обсуждающие.
4. Пример работы с USART [STM32. USART. Часть 4 — Финал](http://chipspace.ru/stm32-usart-4/).
5. [Уменьшаем количество проводов в Arduino — I2C LCD экран и RTC часы по двум проводам](http://habrahabr.ru/post/219137/).
6. [LCD Displays (Blue and YELLOW) with I2C/TWI Interface](http://arduino-info.wikispaces.com/LCD-Blue-I2C).
7. Для понимания логики работы STM32 с внешними устройствами [Руководство к быстрому старту по работе с периферией STM32F10x](http://we.easyelectronics.ru/STM32/rukovodstvo-k-bystromu-startu-po-rabote-s-periferiey-stm32f10x.html).
Спасибо за внимание. | https://habr.com/ru/post/223947/ | null | ru | null |
# Создание IPSec GRE туннеля между Mikrotik hEX S и Juniper SRX через USB Модем
#### Цель
Необходимо организовать VPN Tunnel между двумя устройствами, таких как Mikrotik и Juniper линейки SRX.
#### Что имеем
Из микротиков выбрали на сайте микротика вики, модель которая сможет поддерживать аппаратное шифрование IPSec, на наш взгляд она оказалась достаточно компактная и недорогая, а именно Mikrotik hEXS.
USB Modem был куплен в ближайшем сотовом операторе, модель была Huawei E3370. Никакие операции по отвязки от оператора мы не проводили. Все штатное и прошито самим оператором.
В ядре установлен центральный маршрутизатор Juniper SRX240H.
#### Что удалось
Удалось реализовать схему работы, которая позволяет через сотового оператора, не имея статического адреса, посредством модема создать IPsec соединение в который заворачивается GRE Tunnel.
Данная схема подключения используется и работает на USB модемах Билайн и Мегафон.
Конфигурация следующая:
В ядре установлен Juniper SRX240H
Local Address: 192.168.1.1/24
External Address: 1.1.1.1/30
GW: 1.1.1.2
Удаленная точка
Mikrotik hEX S
Local Address: 192.168.152.1/24
External Address: Dynamic
Небольшая диаграмма для понимания работы:

Конфигурация Juniper SRX240:
Версия ПО JUNOS Software Release [12.1X46-D82]
**Конфигурация Juniper**
```
interfaces {
ge-0/0/0 {
description Internet-1;
unit 0 {
family inet {
address 1.1.1.1/30;
}
}
}
gr-0/0/0 {
unit 1 {
description GRE-Tunnel;
tunnel {
source 172.31.152.2;
destination 172.31.152.1;
}
family inet;
vlan {
unit 0 {
family inet {
address 192.168.1.1/24;
}
}
st0 {
unit 5 {
description "Area - 192.168.152.0/24";
family inet {
mtu 1400;
}
}
routing-options {
static {
route 0.0.0.0/0 next-hop 1.1.1.2;
route 192.168.152.0/24 next-hop gr-0/0/0.1;
route 172.31.152.0/30 next-hop st0.5;
}
router-id 192.168.1.1;
}
security {
ike {
traceoptions {
file vpn.log size 256k files 5;
flag all;
}
policy ike-gretunnel {
mode aggressive;
description area-192.168.152.0;
proposal-set standard;
pre-shared-key ascii-text "mysecret"; ## SECRET-DATA
}
gateway gw-gretunnel {
ike-policy ike-gretunnel;
dynamic inet 172.31.152.1;
external-interface ge-0/0/0.0;
version v2-only;
}
ipsec {
}
policy vpn-policy0 {
perfect-forward-secrecy {
keys group2;
}
proposal-set standard;
}
vpn vpn-gretunnel {
bind-interface st0.5;
df-bit copy;
vpn-monitor {
optimized;
source-interface st0.5;
destination-ip 172.31.152.1;
}
ike {
gateway gw-gretunnel;
no-anti-replay;
ipsec-policy vpn-policy0;
install-interval 10;
}
establish-tunnels immediately;
}
}
policies {
from-zone vpn to-zone vpn {
policy st-vpn-vpn {
match {
source-address any;
destination-address any;
application any;
}
then {
permit;
log {
session-init;
session-close;
}
count;
}
}
}
from-zone trust to-zone vpn {
policy st-trust-to-vpn {
match {
source-address any;
destination-address any;
application any;
}
then {
permit;
log {
session-init;
session-close;
}
count;
}
}
}
from-zone vpn to-zone trust {
policy st-vpn-to-trust {
match {
source-address any;
destination-address any;
application any;
}
then {
permit;
log {
session-init;
session-close;
}
count;
}
}
}
zones {
security-zone trust {
vlan.0 {
host-inbound-traffic {
system-services {
all;
}
protocols {
all;
}
}
}
security-zone vpn {
interfaces {
st0.5 {
host-inbound-traffic {
protocols {
ospf;
}
}
}
gr-0/0/0.1 {
host-inbound-traffic {
system-services {
all;
}
protocols {
all;
}
}
}
security-zone untrust {
interfaces {
ge-0/0/0.0 {
host-inbound-traffic {
system-services {
ping;
ssh;
ike;
}
}
}
}
}
vlans {
vlan-local {
vlan-id 5;
l3-interface vlan.1;
}
```
Конфигурация Mikrotik hEX S:
Версия ПО RouterOS [6.44.3]
**Конфигурация Mikrotik**
```
/ip address
add address=172.31.152.1/24 comment=GRE-Tunnel interface=gre-srx network=172.31.152.0
add address=192.168.152.1/24 comment=Local-Area interface=bridge network=192.168.152.0
/interface gre
add comment=GRE-Tunnel-SRX-HQ !keepalive local-address=172.31.152.1 name=gre-srx remote-address=172.31.152.2
/ip ipsec policy group
add name=srx-gre
/ip ipsec profile
add dh-group=modp1024 dpd-interval=10s name=profile1
/ip ipsec peer
add address=1.1.1.1/32 comment=GRE-SRX exchange-mode=aggressive local-address=172.31.152.1 name=peer2 profile=profile1
/ip ipsec proposal
set [ find default=yes ] enc-algorithms=aes-256-cbc,aes-128-cbc,3des
add enc-algorithms=aes-128-cbc,3des name=proposal1
/ip route
add distance=10 dst-address=192.168.0.0/16 gateway=gre-srx
/ip ipsec identity
add comment=IPSec-GRE my-id=address:172.31.152.1 peer=peer2 policy-template-group=srx-gre secret=mysecret
/ip ipsec policy
set 0 disabled=yes
add dst-address=0.0.0.0/0 proposal=proposal1 sa-dst-address=1.1.1.1 sa-src-address=172.31.152.1 src-address=172.31.152.0/30 tunnel=yes
/ip address
add address=172.31.152.1/24 comment=GRE-Tunnel interface=gre-srx network=172.31.152.0
add address=192.168.152.1/24 comment=Local-Area interface=bridge network=192.168.152.0
```
Результат:
Со стороны Juniper SRX
```
netscreen@srx240> ping 192.168.152.1
PING 192.168.152.1 (192.168.152.1): 56 data bytes
64 bytes from 192.168.152.1: icmp_seq=0 ttl=64 time=29.290 ms
64 bytes from 192.168.152.1: icmp_seq=1 ttl=64 time=28.126 ms
64 bytes from 192.168.152.1: icmp_seq=2 ttl=64 time=26.775 ms
64 bytes from 192.168.152.1: icmp_seq=3 ttl=64 time=25.401 ms
^C
--- 192.168.152.1 ping statistics ---
4 packets transmitted, 4 packets received, 0% packet loss
round-trip min/avg/max/stddev = 25.401/27.398/29.290/1.457 ms
```
Со стороны Mikrotik
```
net[admin@GW-LTE-] > ping 192.168.1.1
SEQ HOST SIZE TTL TIME STATUS
0 192.168.1.1 56 64 34ms
1 192.168.1.1 56 64 40ms
2 192.168.1.1 56 64 37ms
3 192.168.1.1 56 64 40ms
4 192.168.1.1 56 64 51ms
sent=5 received=5 packet-loss=0% min-rtt=34ms avg-rtt=40ms max-rtt=51ms
```
### Выводы
После проделанной работы му получили стабильный VPN Tunnel, из удаленной сети нам доступна все сеть которая находиться за juniper, и соответственно обратно.
Не рекомендую использовать в данной схеме IKE2, возникала ситуация что после перезагрузки того или иного устройства не поднимается IPSec. | https://habr.com/ru/post/455425/ | null | ru | null |
# Настраиваем принтер Canon LBP3010 в Ubuntu 10.10
[](https://habrastorage.org/storage/habraeffect/df/ab/dfab9f9cb6717d8ccb675514fadbda9f.png "Хабрэффект.ру")
Я почти полтора месяца пытался заставить работать этот принтер (за это время я даже успел перейти на сборку PinguyOS, обзор которой, возможно, скоро будет). И никаких успехов я не достиг в этом, но лишь до сегодняшнего дня. Пару дней назад я стал искать свежие мануалы по настройке этого принтера и сопоставив их, мне удалось сделать задуманное.
И теперь я хочу поделиться работающим решением с хабрасообществом. Я надеюсь, что эта информация окажется полезна.
Перед выполнением всех пунктов инструкции принтер лучше держать в выключенном состоянии.
Итак, первым пунктом я предлагаю воспользоваться скриптом по автоматической настройке (что, правда, у меня не заработало, однако это наиболее простой метод установить сами драйвера) принтера, который можно скачать [тут](http://codebin.cotescu.com/canon/lbp_driver/CanonCAPTdriver.tar.gz).
Далее, распаковываем архив и запускаем имеющийся скрипт (вы должны находиться в терминале в той папке, в которой и лежит интересующий нас скрипт — canonLBP\_install.sh) следующей командой (в терминале):
`sudo ./canonLBP_install.sh LBP3010`
Это установить все необходимые драйвера, а также некоторые дополнительные пакеты из числа зависимостей — очень удобно.
Далее идём в Система — Администрирование — Печать и удаляем там появившийся принтер, он нам больше не понадобится.
После этого запустим ещё одну команду в терминале:
`sudo /usr/sbin/lpadmin -p LBP3010 -m CNCUPSLBP3050CAPTK.ppd -v ccp:/var/ccpd/fifo0`
Это создаст новый принтер на основе pdd-файла, в котором, как я понял, описывается принцип работы с нашим LBP3010 (и, как видно из названия, с LBP3050). В результате этого действия в Система — Администрирование — Печать появится принтер с называнием LBP3010.
Теперь нам надо привязать этот принтер к usb. Для этого выполняем следующую команду в терминале:
`sudo /usr/sbin/ccpdadmin -p LBP3010 -o /dev/usb/lp0`
После этого в консоли должно быть написано нечто следующее:
`CUPS_ConfigPath = /etc/cups/
LOG Path = None
UI Port = 59787
Entry Num : Spooler : Backend : FIFO path : Device Path : Status
----------------------------------------------------------------------------
[0] : LBP3010 : ccp : /var/ccpd/fifo0 : /dev/usb/lp0 : New!!`
Всё, что осталось сделать — подправить скрипт ccpd, который является важным звеном в работе принтера. В очередной раз возвращаемся к терминалу:
`sudo gedit /etc/init.d/ccpd`
Этой командой мы открываем этот скрипт в дефолтном текстовом редакторе под root'ом. Удаляем из этого файла всё, что вы там видите и вставляем новый скрипт:
`# startup script for Canon Printer Daemon for CUPS (ccpd)
### BEGIN INIT INFO
# Provides: ccpd
# Required-Start: $local_fs $remote_fs $syslog $network $named
# Should-Start: $ALL
# Required-Stop: $syslog $remote_fs
# Default-Start: 2 3
# Default-Stop: 0 1 4 5 6
# Description: Start Canon Printer Daemon for CUPS
### END INIT INFO
DAEMON=/usr/sbin/ccpd
LOCKFILE=/var/lock/subsys/ccpd
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin
NAME=ccpd
DESC="Canon Printer Daemon for CUPS"
test -f $DAEMON || exit 0
. /lib/lsb/init-functions
case $1 in
start)
log_begin_msg "Starting $DESC: $NAME"
start-stop-daemon --start --quiet --exec $DAEMON
log_end_msg $?
;;
stop)
log_begin_msg "Stopping $DESC: $NAME"
start-stop-daemon --stop --quiet --oknodo --exec $DAEMON
log_end_msg $?
;;
status)
echo "$DESC: $NAME:" `pidof $NAME`
;;
restart)
log_begin_msg "Restarting $DESC: $NAME"
start-stop-daemon --stop --quiet --oknodo --exec $DAEMON
sleep 1
start-stop-daemon --start --quiet --exec $DAEMON
log_end_msg $?
;;
*)
echo "Usage: ccpd {start|stop|restart|status}"
exit 1
;;
esac
exit 0`
Затем перезапускаем сервис принтера опять же из терминала:
`sudo /etc/init.d/ccpd restart`
В ответ в консоли вы должны увидеть:
`* Restarting Canon Printer Daemon for CUPS: ccpd [ OK ]`
Для того, чтобы принтер работал и после перезапуска системы, выполняем ещё одну команду:
`sudo update-rc.d ccpd defaults 50`
И вы должны получить в ответ следующее:
`update-rc.d: warning: ccpd start runlevel arguments (2 3 4 5) do not match LSB Default-Start values (2 3)
update-rc.d: warning: ccpd stop runlevel arguments (0 1 6) do not match LSB Default-Stop values (0 1 4 5 6)
Adding system startup for /etc/init.d/ccpd ...
/etc/rc0.d/K50ccpd -> ../init.d/ccpd
/etc/rc1.d/K50ccpd -> ../init.d/ccpd
/etc/rc6.d/K50ccpd -> ../init.d/ccpd
/etc/rc2.d/S50ccpd -> ../init.d/ccpd
/etc/rc3.d/S50ccpd -> ../init.d/ccpd
/etc/rc4.d/S50ccpd -> ../init.d/ccpd
/etc/rc5.d/S50ccpd -> ../init.d/ccpd`
Теперь можем включить принтер (я уверен, вы ждали этого момента ;) )
В системе появится ещё один принтер под названием Canon LBP3010/LBP3018/LBP3050, который система выставит как принтер по умолчанию, что нам совершенно не надо.
Надо указать системе, чтобы она использовала по умолчанию принтер который мы с вами создали — то есть LBP3010, а этот новый принтер лично я оставил, на всякий случай. Если удалите и у вас всё будет работать — прошу отписаться в комментах.
В свойствах этого принтера на вкладке *Политика* ставим галочки напротив *приём заданий, разрешён* и *общий доступ.*
Можете распечатывать тестовую страницу :)
**В статье были использованы материалы:**
[help.ubuntu.com/community/CanonCaptDrv190](https://help.ubuntu.com/community/CanonCaptDrv190)
[forum.ubuntu.ru/index.php?topic=94290.0](http://forum.ubuntu.ru/index.php?topic=94290.0)
и ещё куча всего, что в той или иной степени оказалось полезно. | https://habr.com/ru/post/107893/ | null | ru | null |
# Машинное обучение для поиска аномалий
Поиск аномалий и выявление подозрительных операций широко применяется в клиентской аналитике, банковском аудите и других видах бизнес аналитики. Суть данной методики заключается в анализе больших объемов данных и выявлении поставщиков, клиентов, транзакций или иных активностей с крайне нетипичным поведением. Часто, такие аномалии являются индикатором мошенничества или поводом для более детального анализа подобных бизнес активностей.
Выявлять нетипичное поведение или аномальные значения признаков можно разными путями. При наличие данных за прошедшие периоды, размеченные как fraud/not fraud, можно использовать модели классификаторы для выявления подозрительных операций в настоящем. Я же рассмотрю случай, когда размеченных должным образом данных нет и анализ нужно проводить с чистого листа. Данная методика была применена для анализа поставщиков программного обеспечения и компьютерной техники на предмет выявления компаний с аномальным, не характерным для подобных контрагентов поведением.
Поведение разных поставщиков в некоторых случаях различается кардинально. Так, транзакции по таким поставщикам программного\* обеспечения как Microsoft могут исчисляться в сотнях миллионов рублей, в то время как местный поставщик недорогой
компьютерной периферии может осуществлять небольшие поставки на незначительные
суммы. Поэтому, первым шагом анализа является группировка поставщиков со схожим
поведением в кластеры. Каждый кластер объединяет поставщиков с близкими
показателями по суммам поставок, частоте оплат, а также длительности отношений
с банком. Далее, я рассчитываю центроид каждого кластера и расстояние между
центром кластера и каждым конкретным значением признака или переменной в
кластере. Чем ближе значение признака находится к центру кластера, тем более
типичным это значение является для данного кластера и наоборот, значения,
максимально удаленные от центра, являются аномальными и могут расцениваться как
подозрительные. Затем, я устанавливаю пороговые значения рассчитанных
расстояний (97 процентилей), в пределах которых значения переменных являются
типичными или нормальными для поставщиков конкретного кластера. В заключении, я
помечаю значения переменных, которые превысили установленные пороговые значения
как аномальные (схема 1).
**Кластеризация, выявление аномалий и разметка данных с использованием алгоритма K-means**
Датасет содержит код поставщика и четыре признака, которые описывают каждого из них.
* «Дней\_с\_последней\_оплаты» - метрика, показывающая, когда последний раз была сделка с поставщиком;
* «Частота» - метрика, показывающая количество сделок за рассматриваемый период;
* «Сумма» - метрика, показывающая сумму всех сделок с поставщиком;
* «Длительность\_отношений\_в\_днях» - метрика, показывающая длительность отношений с поставщиком.
Первым шагом необходимо подготовить данные для модели. Для этого необходимо улучшить распределение данных (boxcox метод) и нормализовать их чтобы mean и std были одинаковыми для всех признаков (StandardScaler).
```
# преобразую переменные используя boxcox метод
def boxcox_df(x):
x_boxcox, _ = stats.boxcox(x)
return x_boxcox
rfm_data_boxcox = rfm_data.apply(boxcox_df, axis=0)
# нормализую данные используя StandardScaler()
scaler = StandardScaler()
scaler.fit(rfm_data_boxcox)
rfm_norm = scaler.transform(rfm_data_boxcox)
rfm_norm = pd.DataFrame(rfm_norm, index = rfm_data_boxcox.index, columns = rfm_data_boxcox.columns)
```
Рассчитываю оптимальное количество кластеров используя Elbow criterion метод. Точка, в которой падение графика становится незначительным, показывает оптимальное количество кластеров.
```
# Рассчитываю оптимальное количество кластеров используя Elbow criterion метод
sse = {}
for k in range(1, 11):
kmeans=KMeans(n_clusters = k, random_state=42)
kmeans.fit(rfm_norm)
sse[k] = kmeans.inertia_
sns.pointplot(x = list(sse.keys()), y=list(sse.values()))
plt.show()
```
Оптимальным количеством кластеров является 4. Далее, я строю модель с четырьмя кластерами и визуализирую кластеры используя heatmap и snake plot. Snake plot показывает различия между кластерами по признакам. Heatmap показывает средние значения признаков в каждом кластере, а также размер кластеров.
```
# строю модель с 4 кластерами
kmeans = KMeans(n_clusters=4, random_state=1)
kmeans.fit(rfm_norm)
# вывожу лейблы кластеров
cluster_labels_4 = kmeans.labels_
# добавляю колонку 'Кластеры' в датасет с оригинальными данными
rfm_data_k4 = rfm_data.assign(Кластер = cluster_labels_4)
# рассчитываю средние значения переменных и размер каждого кластера
rfm_data_k4_grouped = rfm_data_k4.groupby('Кластер').agg(
{'Дней_с_последней_оплаты':'mean', 'Частота':'mean',
'Сумма_общая_тыс_руб':'mean', 'Длительность_отношений_в_днях':['mean', 'count']})
# добавляю колонку 'Кластер'
rfm_norm_clusters = rfm_norm.assign(Кластер = cluster_labels_4)
```
Snake plot (справа) показывает, что наши четыре кластера различаются по всем четырем признакам и я могу интуитивно определить их экономический смысл и озаглавить. Так, кластер=0 показывает поставщиков, с которыми давно не было никаких отношений, а частота оплат и суммы контрактов по ним были не значительные. И наоборот, кластер=1 группирует действующих поставщиков с большими суммами и частотой оплат. Heatmap (слева) показывает средние значения признаков в каждом кластере в реальных единицах (рублях, днях, количествах поставок). Последний столбец демонстрирует количество поставщиков в каждом кластере. Оба графика говорят о том, что поставщики корректно разбиты на группы, которые значительно отличаются между собой.
Далее, я определяю аномальные значения переменных. Пороговое значение аномальных данных - 97 процентилей. Размечаю данные: 1-fraud, 0-not fraud:
```
# сохраняю центроид кластера
x_cluster_centers = kmeans.cluster_centers_
# рассчитываю расстояния от центра кластера до каждого значения переменных
dist = kmeans.transform(rfm_norm)
# помечаю аномальные значения как 1 и нормальные значения как 0 на основе рассчитанных расстояний
km_y_pred = np.array(dist)
km_y_pred[dist>=np.percentile(dist, 97)] = 1
km_y_pred[dist
```
Рассчитываю количество поставщиков с аномальным поведением:
```
# рассчитываю количество поставщиков, по которым 2 и более аномальных значения данных
fraudulent = fraud_data_fraud[(fraud_data_fraud['Fraud_score']>=2)
&(fraud_data_fraud['Сумма_общая_тыс_руб']==1)]
print('Количество поставщиков с аномальным поведением (1 и более аномалий): ', len(fraud_data_fraud))
print('Количество поставщиков с аномальным поведением (2 и более аномалии): ', fraudulent.shape[0])
Количество поставщиков с аномальным поведением (1 и более аномалий): 263
Количество поставщиков с аномальным поведением (2 и более аномалии): 22
```
### Заключение
В статье рассмотрена методика выявления аномалий и разметки данных при анализе поставщиков программного обеспечения и компьютерной техники. Анализ выявил 263 компании с не типичным поведением. Данная методика не позволяет с уверенностью сказать, что все сделки по этим компаниям являются мошенническими. Я лишь могу утверждать, что эти компании имели аномальное, не типичное поведение по отношению к компаниям со схожими характеристиками. Поэтому, хорошей практикой является обсуждение и корректировка результатов исследования со специалистом по fraud анализу который обладает более глубокой экспертизой в данной области.
Также, выявлены 22 компании, по которым зафиксировано 2 и более аномалии. По этим контрагентам целесообразно провести более детальную проверку с анализом договоров и фактической деятельности.
Размеченные подобным образом данные можно использовать в построении моделей-классификаторов для выявления аномальных операций в текущей деятельности компании. | https://habr.com/ru/post/671670/ | null | ru | null |
# Play «osu!», but Watch Out for Bugs

Hi, all of you collectors of exotic and plain bugs alike! We've got a rare specimen on our PVS-Studio test bench today – a game called «osu!», written in C#. As usual, we'll be looking for bugs, analyzing them, and playing.
The game
--------
Osu! is an open-source rhythm game. According to the game's [website](https://osu.ppy.sh/home), it's quite popular, with more than 15 million player accounts. The project features free gameplay, colorful design, map customization, an advanced online player ranking system, multiplayer mode, and a rich set of musical pieces. There's no point in further elaborating on the game; you can read all about it on the Internet. Start with [this page](https://en.wikipedia.org/wiki/Osu!).
I'm more interested in the project's source code, which is available on [GitHub](https://github.com/ppy/osu). One thing that immediately catches your eye is the large number of repository commits (over 24 thousand), which is a sign of intense, ongoing development (the game was first released in 2007, but the work must have begun even earlier). The project isn't big though: only 1813 .cs files with the total of 135 thousand non-empty LOC. This number also includes tests, which I usually don't take into account when running checks. The tests make up 306 of the .cs files with 25 thousand LOC. The project is small indeed: for instance, the C# core of PVS-Studio is about 300 thousand LOC long.
Leaving out the test files, I checked 1507 files 110 thousand LOC long. The check did reveal a few interesting bugs, which I'm willing to show you.
The bugs
--------
[V3001](https://www.viva64.com/en/w/v3001/) There are identical sub-expressions 'result == HitResult.Perfect' to the left and to the right of the '||' operator. DrawableHoldNote.cs 266
```
protected override void CheckForResult(....)
{
....
ApplyResult(r =>
{
if (holdNote.hasBroken
&& (result == HitResult.Perfect || result == HitResult.Perfect))
result = HitResult.Good;
....
});
}
```
This is a fine example of copy-paste oriented programming, which is a humorous term recently used by my coworker Valeriy Komarov in his article "[Top 10 Bugs Found in Java Projects in 2019](https://www.viva64.com/en/b/0699/)".
Anyway, two identical checks are executed in a row. One of them was probably meant to check some other constant of the *HitResult* enumeration:
```
public enum HitResult
{
None,
Miss,
Meh,
Ok,
Good,
Great,
Perfect,
}
```
Which constant was meant to be checked? Or maybe the second check shouldn't be there at all? These are the questions that only the authors can answer. Anyway, this is an error that distorts the program's execution logic.
[V3001](https://www.viva64.com/en/w/v3001/) There are identical sub-expressions 'family != GetFamilyString(TournamentTypeface.Aquatico)' to the left and to the right of the '&&' operator. TournamentFont.cs 64
```
public static string GetWeightString(string family, FontWeight weight)
{
....
if (weight == FontWeight.Regular
&& family != GetFamilyString(TournamentTypeface.Aquatico)
&& family != GetFamilyString(TournamentTypeface.Aquatico))
weightString = string.Empty;
....
}
```
Copy-paste again. I refactored the code so the mistake is easily noticed now but originally it had been written in one line. Just like in the previous example, I can't say for sure how exactly this one should be fixed. The *TournamentTypeface* enumeration contains only one constant:
```
public enum TournamentTypeface
{
Aquatico
}
```
Perhaps the mistake is about checking the *family* variable twice, but I may be wrong.
[V3009](https://www.viva64.com/en/w/v3009/) [CWE-393] It's odd that this method always returns one and the same value of 'false'. KeyCounterAction.cs 19
```
public bool OnPressed(T action, bool forwards)
{
if (!EqualityComparer.Default.Equals(action, Action))
return false;
IsLit = true;
if (forwards)
Increment();
return false;
}
```
This method returns *false* every time. In cases like this, I would usually check the function call, because you may often find that the caller doesn't use the return value, which means there's no issue (other than bad style). This is what the call looks like in this case:
```
public bool OnPressed(T action) =>
Target.Children
.OfType>()
.Any(c => c.OnPressed(action, Clock.Rate >= 0));
```
As you can see, the caller does use the value returned by the *OnPressed* method. Since that value is always *false*, the caller itself always returns *false* too. This code is very likely to contain a mistake and should be revised.
Another similar bug:
* V3009 [CWE-393] It's odd that this method always returns one and the same value of 'false'. KeyCounterAction.cs 30
[V3042](https://www.viva64.com/en/w/v3042/) [CWE-476] Possible NullReferenceException. The '?.' and '.' operators are used for accessing members of the 'val.NewValue' object TournamentTeam.cs 41
```
public TournamentTeam()
{
Acronym.ValueChanged += val =>
{
if (....)
FlagName.Value = val.NewValue.Length >= 2 // <=
? val.NewValue?.Substring(0, 2).ToUpper()
: string.Empty;
};
....
}
```
The *val.NewValue* variable is handled in a dangerous way in the condition of the *?:* operator. What makes the analyzer think so is the fact that later in the *then* branch, the same variable is handled in a safe way using the conditional access operator: *val.NewValue?.Substring(....)*.
Another similar bug:
* V3042 [CWE-476] Possible NullReferenceException. The '?.' and '.' operators are used for accessing members of the 'val.NewValue' object TournamentTeam.cs 48
[V3042](https://www.viva64.com/en/w/v3042/) [CWE-476] Possible NullReferenceException. The '?.' and '.' operators are used for accessing members of the 'api' object SetupScreen.cs 77
```
private void reload()
{
....
new ActionableInfo
{
Label = "Current User",
ButtonText = "Change Login",
Action = () =>
{
api.Logout(); // <=
....
},
Value = api?.LocalUser.Value.Username,
....
},
....
}
private class ActionableInfo : LabelledDrawable
{
....
public Action Action;
....
}
```
This one is more ambiguous, but I believe it's a bug too. The programmer creates an object of type *ActionableInfo*. The *Action* field is initialized using a lambda function, which handles the potentially null reference *api* in a dangerous way. The analyzer thinks this pattern to be an error because the *api* variable is handled in a safe way later, when initializing the *Value* parameter. I called this case ambiguous because the code in the lambda function implies delayed execution, by the moment of which the developer might somehow guarantee that the *api* reference would be non-null. But I'm not sure about that because the body of the lambda function doesn't seem to use any safe reference handling such as prior checks.
[V3066](https://www.viva64.com/en/w/v3066/) [CWE-683] Possible incorrect order of arguments passed to 'Atan2' method: 'diff.X' and 'diff.Y'. SliderBall.cs 182
```
public void UpdateProgress(double completionProgress)
{
....
Rotation = -90 + (float)(-Math.Atan2(diff.X, diff.Y) * 180 / Math.PI);
....
}
```
The analyzer suspects that the arguments of the *Atan2* method are passed in the wrong order. This is the method's declaration:
```
// Parameters:
// y:
// The y coordinate of a point.
//
// x:
// The x coordinate of a point.
public static double Atan2(double y, double x);
```
The values were passed in the reverse order. I'm not sure if this is a bug because the *UpdateProgress* method contains quite a lot of nontrivial calculations; I'm just mentioning it as a possible bug.
[V3080](https://www.viva64.com/en/w/v3080/) [CWE-476] Possible null dereference. Consider inspecting 'Beatmap'. WorkingBeatmap.cs 57
```
protected virtual Track GetVirtualTrack()
{
....
var lastObject = Beatmap.HitObjects.LastOrDefault();
....
}
```
The analyzer points out a possible null dereference of *Beatmap*:
```
public IBeatmap Beatmap
{
get
{
try
{
return LoadBeatmapAsync().Result;
}
catch (TaskCanceledException)
{
return null;
}
}
}
```
Well, the analyzer is correct.
To learn more about how PVS-Studio detects bugs like this, and about the new features added in C# 8.0 that have to do with the handling of potentially null references, see the article "[Nullable Reference types in C# 8.0 and static analysis](https://www.viva64.com/en/b/0631/)".
[V3083](https://www.viva64.com/en/w/v3083/) [CWE-367] Unsafe invocation of event 'ObjectConverted', NullReferenceException is possible. Consider assigning event to a local variable before invoking it. BeatmapConverter.cs 82
```
private List convertHitObjects(....)
{
....
if (ObjectConverted != null)
{
converted = converted.ToList();
ObjectConverted.Invoke(obj, converted);
}
....
}
```
This is minor and fairly common error. The subscribers may unsubscribe from the event between the null check and the event invocation, resulting in a crash. This is one way to fix the bug:
```
private List convertHitObjects(....)
{
....
converted = converted.ToList();
ObjectConverted?.Invoke(obj, converted);
....
}
```
[V3095](https://www.viva64.com/en/w/v3095/) [CWE-476] The 'columns' object was used before it was verified against null. Check lines: 141, 142. SquareGraph.cs 141
```
private void redrawProgress()
{
for (int i = 0; i < ColumnCount; i++)
columns[i].State = i <= progress ? ColumnState.Lit : ColumnState.Dimmed;
columns?.ForceRedraw();
}
```
The iteration over the *columns* collection is done in a dangerous way. The developer assumed that the *columns* reference could be null, which is indicated by the use of the conditional access operator to access the collection further in the code.
[V3119](https://www.viva64.com/en/w/v3119/) Calling overridden event 'OnNewResult' may lead to unpredictable behavior. Consider implementing event accessors explicitly or use 'sealed' keyword. DrawableRuleset.cs 256
```
private void addHitObject(TObject hitObject)
{
....
drawableObject.OnNewResult += (_, r) => OnNewResult?.Invoke(r);
....
}
public override event Action OnNewResult;
```
The analyzer says it's dangerous to use an overridden or virtual event. See the diagnostic's [description](https://www.viva64.com/en/w/v3119/) for explanation. I also wrote an article on this topic: "[Virtual events in C#: something went wrong](https://www.viva64.com/en/b/0453/)".
Here's another similar unsafe construction:
* V3119 Calling an overridden event may lead to unpredictable behavior. Consider implementing event accessors explicitly or use 'sealed' keyword. DrawableRuleset.cs 257
[V3123](https://www.viva64.com/en/w/v3123/) [CWE-783] Perhaps the '??' operator works in a different way than it was expected. Its priority is lower than priority of other operators in its left part. OsuScreenStack.cs 45
```
private void onScreenChange(IScreen prev, IScreen next)
{
parallaxContainer.ParallaxAmount =
ParallaxContainer.DEFAULT_PARALLAX_AMOUNT *
((IOsuScreen)next)?.BackgroundParallaxAmount ?? 1.0f;
}
```
For a better understanding, here's a synthetic example demonstrating this code's original logic:
```
x = (c * a) ?? b;
```
The bug stems from the fact that the precedence of the "\*" operator is higher than that of the "??" operator. This is what the fixed code should look like (with parentheses added):
```
private void onScreenChange(IScreen prev, IScreen next)
{
parallaxContainer.ParallaxAmount =
ParallaxContainer.DEFAULT_PARALLAX_AMOUNT *
(((IOsuScreen)next)?.BackgroundParallaxAmount ?? 1.0f);
}
```
Another similar bug:
[V3123](https://www.viva64.com/en/w/v3123/) [CWE-783] Perhaps the '??' operator works in a different way than it was expected. Its priority is lower than priority of other operators in its left part. FramedReplayInputHandler.cs 103
```
private bool inImportantSection
{
get
{
....
return IsImportant(frame) &&
Math.Abs(CurrentTime - NextFrame?.Time ?? 0) <=
AllowedImportantTimeSpan;
}
}
```
Like in the previous case, the programmer had wrong assumptions about the operators' precedence. The original expression passed to the *Math.Abs* method evaluates as follows:
```
(a – b) ?? 0
```
Here's how it should be fixed:
```
private bool inImportantSection
{
get
{
....
return IsImportant(frame) &&
Math.Abs(CurrentTime – (NextFrame?.Time ?? 0)) <=
AllowedImportantTimeSpan;
}
}
```
[V3142](https://www.viva64.com/en/w/v3142/) [CWE-561] Unreachable code detected. It is possible that an error is present. DrawableHoldNote.cs 214
```
public override bool OnPressed(ManiaAction action)
{
if (!base.OnPressed(action))
return false;
if (Result.Type == HitResult.Miss) // <=
holdNote.hasBroken = true;
....
}
```
The analyzer believes the code of the *OnPressed* handler to be unreachable starting with the second *if* statement. This follows from the fact that the first condition is always true, i.e. that the *base.OnPressed* method will always return *false*. Let's take a look at the *base.OnPressed* method:
```
public virtual bool OnPressed(ManiaAction action)
{
if (action != Action.Value)
return false;
return UpdateResult(true);
}
```
And now at the *UpdateResult* method:
```
protected bool UpdateResult(bool userTriggered)
{
if (Time.Elapsed < 0)
return false;
if (Judged)
return false;
....
return Judged;
}
```
Note that the implementation of the *Judged* property doesn't matter here because the logic of the *UpdateResult* method implies that the last *return* statement is equivalent to the following:
```
return false;
```
This means the *UpdateResult* method will be returning *false* all the time, thus leading to the unreachable-code issue earlier in the stack.
[V3146](https://www.viva64.com/en/w/v3146/) [CWE-476] Possible null dereference of 'ruleset'. The 'FirstOrDefault' can return default null value. APILegacyScoreInfo.cs 24
```
public ScoreInfo CreateScoreInfo(RulesetStore rulesets)
{
var ruleset = rulesets.GetRuleset(OnlineRulesetID);
var mods = Mods != null ? ruleset.CreateInstance() // <=
.GetAllMods().Where(....)
.ToArray() : Array.Empty();
....
}
```
The analyzer believes the *ruleset.CreateInstance()* call to be unsafe. Before this call, the *ruleset* variable is assigned a value as a result of calling the *GetRuleset* method:
```
public RulesetInfo GetRuleset(int id) =>
AvailableRulesets.FirstOrDefault(....);
```
As you can see, the warning is valid as the call sequence includes the *FirstOrDefault* method, which can return *null*.
Conclusion
----------
There aren't many bugs in the code of «osu!», and that's good. But I'd still recommend that the authors check the issues reported by the analyzer. I hope this will help to maintain the high quality and the game will continue to bring joy to the players.
As a reminder, PVS-Studio is a good choice if you like tinkering with source code. The analyzer is available for [download](https://www.viva64.com/en/pvs-studio-download/) on the official website. Another thing I'd like you to keep in mind is that one-time checks like this one have nothing to do with the normal use of static analysis in the real development process. It's most effective only when used regularly both on the build server and on the developers' computers (this is called incremental analysis). Your ultimate goal is to keep bugs from slipping into the version control system by catching them at the coding stage.
Good luck, and stay creative!
References
----------
This is our first article in 2020. While we are at it, here's are the links to the checks of C# projects done over the past year:
* [Searching for errors in the Amazon Web Services SDK source code for .NET](https://www.viva64.com/en/b/0605/)
* [Checking the Roslyn Source Code](https://www.viva64.com/en/b/0622/)
* [Nullable Reference types in C# 8.0 and static analysis](https://www.viva64.com/en/b/0631/)
* [WinForms: Errors, Holmes](https://www.viva64.com/en/b/0653/)
* [The story of how PVS-Studio found an error in the library used in… PVS-Studio](https://www.viva64.com/en/b/0654/)
* [Checking the .NET Core Libraries Source Code by the PVS-Studio Static Analyzer](https://www.viva64.com/en/b/0656/)
* [Check of Roslyn Analyzers](https://www.viva64.com/en/b/0664/)
* [Checking Telerik UI for UWP as a Way to Get Started with PVS-Studio](https://www.viva64.com/en/b/0677/)
* [Azure PowerShell: Mostly Harmless](https://www.viva64.com/en/b/0678/)
* [Scanning the code of Orchard CMS for Bugs](https://www.viva64.com/en/b/0681/)
* [Checking the OpenCvSharp Wrapper for OpenCV with PVS-Studio](https://www.viva64.com/en/b/0683/)
* [Azure SDK for .NET: Story about a Difficult Error Search](https://www.viva64.com/en/b/0692/)
* [SARIF SDK and Its Errors](https://www.viva64.com/en/b/0694/)
* [Top 10 Bugs Found in C# Projects in 2019](https://www.viva64.com/en/b/0698/) | https://habr.com/ru/post/483436/ | null | en | null |
# Настройка DKIM, SPF, DMARC и rDNS в Carbonio
Более 90% от общего объема мирового трафика электронной почты сейчас составляет спам. Это побуждает системных администраторов и держателей публичных почтовых серверов максимально крепко закручивать гайки и отклонять электронные письма даже при малейших подозрениях на их неблагонадежность. Чтобы электронное письмо, отправленное с вашего почтового сервера с большой вероятностью дошло до адресата, у вашего сервера должны быть настроены DKIM, SPF, DMARC и rDNS. Эти механизмы позволяют принимающим почту серверам автоматически отсеивать электронные письма без анализа их содержимого. В данной статье мы расскажем о том, как корректно настроить DKIM, SPF, DMARC и rDNS в Carbonio.
DomainKeys Identified Mail (DKIM) - механизм защиты от спуфинга (подмены почтового адреса в поле "Отправитель") за счет добавления цифровой подписи в заголовки исходящих писемSender Policy Framework (SPF) - это расширение для протокола SMTP, позволяющее выявить подделку домена отправителяDomain-based Message Authentication, Reporting and Conformance (DMARC) - Набор механизмов для обмена информацией между отправителем и получателем о качестве фильтрации спама и фишинговых атаках
Reverse DNS (rDNS) - обратная DNS-запись, предназначенная для определения имени узла по его IP-адресу c помощью PTR-записи. В настоящее время является обязательным требованием у большинства публичных почтовых серверов
Главным симптомом того, что один из этих параметров почты настроен неверно является ошибка 550, которая является стандартной при возникновении критической ошибки почтовой сессии. К примеру в ответ на отправку письма на почтовый адрес GMail с сервера без настроенных DKIM, SPF, DMARC или rDNS, его пользователи получат сообщение следующего вида:
[**gmail-smtp-in.l.google.com**](http://gmail-smtp-in.l.google.com/)**: 550-5.7.1 [94.247.17.253 12] Our system has detected that this message is 550-5.7.1 likely unsolicited mail. To reduce the amount of spam sent to Gmail, 550-5.7.1 this message has been blocked.**
После корректной настройки данных параметров подобная ошибка возникать не будет.
### Настройка DKIM
В основе механизма DKIM лежит шифрование заголовков исходящих сообщений с использованием закрытого ключа домена, и добавление открытого ключа в публичной DNS-записи домена. После того как сервер получателя запрашивает открытый ключ у DNS-сервера, он использует его для расшифровки заголовков и за счет этого проверяет, действительно ли сообщение отправлено с заявленного сервера.
Для настройки DKIM в Carbonio необходимо сперва доустановить пакет **sudo apt-get install libxml-simple-perl**. После этого необходимо войти в учетную запись Zextras и запустить скрипт для создания ключа DKIM:
`sudo su - zextras
/opt/zextras/libexec/zmdkimkeyutil -a -d example.ru`
Отметим, что в параметре -d необходимо указывать именно почтовый домен, а не имя сервера. В Carbonio имя создаваемого при установке почтового домена основано на MX-записи в DNS. К примеру, на сервере [mail.example.ru](http://mail.example.ru/) автоматически будет создан домен [example.ru](http://example.ru/), если в DNS указана соответствующая MX-запись. В случае, если MX-запись отсутствует, имя почтового домена попросту будет на один уровень ниже, чем имя сервера.
Публичный ключ добавляется как TXT-запись в DNS-запись домена, и, поскольку Carbonio генерирует 2048-битный ключ, он может попросту не влезть в одну строку из-за ограничения на длину строки, которое составляет 255 символов. Чтобы обойти это ограничение, просто перенесите оставшуюся часть ключа в новую строку с помощью клавиши Enter.
Делать TXT-запись следует в следующем формате.
**2479CC9C-BEFB-11EC-AADD-1D8D30B16863.\_domainkeyTXTv=DKIM1; k=rsa; p=MIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEArE45c7ZFvA/X5mC4aI25hjaUxTU0Th07A+avu2zM+a/DvcVyN8ot4KgU+bIFP2RmF5qBfjj/uVoVuOtfD8qJt0YfHsKgIi+k5Ss89FYxBvw/f1ph9VSmXMcd5gSzFUqBLgWjxSYZnrsgOU+uFpZaiB232U7zJn/zinfkGHBR0V8NwP7aFFlvLnsePG8HIkIYukpbaR/Ngd9yVA**
Корректность настройки DKIM можно сделав запрос к DNS при помощи следующих команд:
1. Успешное извлечение ключа домена: **host -t txt SELECTOR.\_**[**domainkey.example.ru**](http://domainkey.example.ru/)
2. Проверка соответствия закрытого ключа открытому: **opendkim-testkey -d**[**example.ru**](http://example.ru/)**-s 2479CC9C-BEFB-11EC-AADD-1D8D30B16863 -x /opt/zextras/conf/opendkim.conf**.
Корректность настройки DKIM можно также проверить с помощью онлайн-сервисов <http://dkimcore.org/tools/keycheck.html> и <https://mxtoolbox.com/DKIM.aspx>.
Carbonio позволяет удалять, обновлять и отображать уже существующие DKIM-ключи домена. Для этого используйте команды:
* Обновление - **/opt/zextras/libexec/zmdkimkeyutil -u -d**[**example.ru**](http://example.ru/)
* Удаление - **/opt/zextras/libexec/zmdkimkeyutil -r -d**[**example.ru**](http://example.ru/)
* Извлечение - **/opt/zextras/libexec/zmdkimkeyutil -q -d**[**example.ru**](http://example.ru/)
Отметим, что в случае удаления ключей DKIM, необходимо в соответствующей TXT-записи DNS сделать параметр "p=", в котором хранится публичный ключ домена, пустым.
### Включение проверки DKIM
Также имеется возможность настроить проведение проверки DKIM на самом сервере Carbonio, чтобы каждое входящее письмо, которое не имеет ключей домена, автоматически отклонялось. Для этого откройте в текстовом редакторе файл /opt/zextras/conf/opendkim.conf.in и приведите следующие строки к такому виду:
`On-NoSignature reject
Mode sv`
После этого перезапустите службу OpenDKIM **zmopendkimctl restart**. После этого все письма от отправителей без ключей домена будут автоматически отклоняться.
### Настройка SPF
Задача SPF заключается в том, чтобы явно указать, с каких IP-адресов может поступать почта, в которой в качестве отправителя указан ваш домен. Эта информация позволяет адресатам защититься от злоумышленников, которые могут отправлять поддельные электронные письма якобы от вашего имени.
Для того, чтобы настроить SPF, вам также потребуется создать TXT-запись для вашего домена следующего вида:
[**example.ru**](http://example.ru/)**IN TXT "v=spf1 a mx ip4:128.226.145.28 include:**[**mail.example.ru**](http://mail.example.ru/)**-all"**
В данной записи указывается, что все входящие электронные письма с домена [example.ru](http://example.ru/) должны быть отправлены с сервера с IP-адресом 128.226.145.28, а также со всех связанных с ним A- и MX-записей в DNS, включая [mail.example.ru](http://mail.example.ru/) как разрешенного отправителя. Все, что противоречит этим данным, свидетельствует о ненадежности отправителя и, соответственно, может быть автоматически отсеяно сервером адресата.
### Настройка DMARC
DMARC - это механизм, который позволяет системному администратору определять политику взаимодействия с письмами, которые не прошли проверку. Для его настройки также требуется создание TXT-записи в DNS, которая состоит из нескольких полей:
* v - Версия протокола. Обязательный параметр. Например v=DMARC1;
* p - Правила для домена. Обязательный параметр. Например p=reject;
* pct - Какой процент сообщений фильтроваться. Необязательный параметр, по умолчанию pct=100;
* rua - Адрес для отправки отчетов. Необязательный параметр. Например, rua=mailto:[postmaster@example.ru](mailto:postmaster@example.ru);
* sp - Правила для поддоменов. Необязательный параметр. Например, sp=reject;
* aspf - Правила проверки соответствия для записей SPF. Необязательный параметр. Например, aspf=r;
* adkim - Правила проверки DKIM. Необязательный параметр. Например, adkim=r.
В нашем случае DMARC запись будет выглядеть следующим образом: **v=DMARC1; p=reject; rua=mailto:postmaster@example.ru; adkim=r; aspf=r; pct=100; sp=reject**
Также запись DMARC для DNS можно сгенерировать с помощью данного онлайн-сервиса <https://www.kitterman.com/dmarc/assistant.html>. Проверить настройки DMARC можно с помощью онлайн-сервиса <https://dmarcian.com/dmarc-inspector>.
### Настройка rDNS (reverse DNS)
Настраивать обратную зону DNS может только владелец спектра IP-адресов, которым эта зона соответствует. Обычно им является провайдер, которому выделяется целый пул IPv4-адресов и у которого имеется собственная автономная система DNS. Поэтому если вы не являетесь собственником IP-адресов, на которых работает ваш DNS-сервер, обратитесь в службу службу поддержки провайдера или хостера для создания rDNS.
Если же вы являетесь владельцем IP-адресов и можете зарегистрировать обратную зону DNS, то вам сперва следует зарегистрировать в своём личном кабинете на сайте RIPE объект типа «domain», указать адрес DNS-серверов, которые будут поддерживать зону rDNS.
После этого на своих DNS-серверах настройте зону вида in-addr.arpa. Для того, чтобы точно определить название зоны, возьмите IP-адрес своего почтового сервера (Например 10.0.1.55), разверните их слева направо, чтобы получилось 55.1.0.10 и добавьте суффикс .in-addr.arpa. На сервера, находящиеся в обратной зоне, указывает PTR-запись DNS (pointer). Именно к ней идут запросы о разрешении IP-адреса и имени хоста. В итоге rDNS-запись для нашего сервера будет иметь вид **55.1.0.10.in-addr.arpa IN PTR**[**mail.example.ru**](http://mail.example.ru/).
Проверить наличие rDNS можно при помощи команды **dig -x 10.0.1.55**.
### Включение проверки rDNS на сервере Carbonio
Включить проверку rDNS можно как в Консоли администратора, так и в командной строке Carbonio.
В Консоли администратора перейдите в Настройка - Глобальные настройки - Агент передачи сообщений и в поле "Проверки через DNS" отметьте галочкой параметр IP-адрес клиента (reject\_unknown\_client\_hostname).
Настройка в командной строке осуществляется при помощи команд:
**sudo su - zextras
carbonio prov mcf +zimbraMtaRestriction "reject\_unknown\_client\_hostname"
postfix reload**
Отключить данную проверку можно сняв соответствующую галочку в Консоли администратора, а также командой **carbonio prov mcf -zimbraMtaRestriction "reject\_unknown\_client\_hostname"**.
Эксклюзивный дистрибьютор Zextras [SVZcloud](https://svzcloud.ru/). По вопросам тестирования и приобретения Zextras Carbonio обращайтесь на электронную почту: [sales@svzcloud.ru](mailto:sales@svzcloud.ru) | https://habr.com/ru/post/662962/ | null | ru | null |
# Управление Mikrotik с помощью Telegram бота
Хочу написать об интересных возможностях связки Mikrotik и Telegram бота. Возможно похожие решения, где то публиковались ранее, предложу свои варианты использования
Бот для блокировки интернета
----------------------------
Вариант подойдет для блокировки и разблокировки интернета на домашних устройствах (ПК, ТВ приставки и прочие гаджеты) например чтобы дети сделали перерыв или пошли делать уроки. Можно конечно скачать приложение Mikrotik на смартфон, но каждый раз возится в настройках Kid Control и правилах Firewall не очень удобно, а с ботом почувствовать себя властелином интернета сможет даже жена
Создаем бота в Telegram
Процесс создание прост, находим контакт с именем @BotFather, пишем /newbot, далее следуем инструкциям, создаем бота и с помощью команд Edit Bot и Edit Comands создаем меню для его управления, должно получится что то вроде этого:
Далее идем на Mikrotik в раздел System, выбираем Scripts и добавляем туда скрипты, основной и команд, которые он будет выполнять
Основной скрипт:
```
:delay 15
:global mtIdentity [/system identity get name];
:global botID "bot<ВАШ ТОКЕН>";
:global myChatID "<ВАШ ChatID>";
:local chatId 0;
:local messageId 0;
:local parse do={
:local startLoc ([:find $content $variable -1] + [:len $variable] + 2);
:local commaLoc ([:find $content "," $startLoc] - 1 + 1);
:local braceLoc ([:find $content "}" $startLoc] - 1 + 1);
:local endLoc $commaLoc;
:local startSymbol [:pick $content $startLoc]
:if ($braceLoc != 0 and ($commaLoc = 0 or $braceLoc < $commaLoc)) do={
:set endLoc $braceLoc;
};
:if ($startSymbol = "{") do={
:set endLoc ($braceLoc + 1);
};
:if ($quotas = true) do={
:set startLoc ($startLoc + 1);
:set endLoc ($endLoc - 1);
}
:if ($endLoc < $startLoc) do={
:set endLoc ($startLoc + 1);
};
:local message [:pick $content $startLoc $endLoc]
#:log info $message;
:return $message;
}
:while ( true ) do={
:do {
#:log info "https://api.telegram.org/$botID/getUpdates?offset=$messageId&limit=1&allowed_updates=message&timeout=60 10";
:tool fetch url=("https://api.telegram.org/$botID/getUpdates?offset=$messageId&limit=1&allowed_updates=message&timeout=60 10") dst-path="getUpdates";
:local content [/file get [/file find name=getUpdates] contents] ;
#:log info $content;
:if ([:len $content] > 30) do={
:set messageId ([$parse content=$content variable="update_id"] + 1)
:local message [$parse content=$content variable="text" quotas=true]
:local chat [$parse content=$content variable="chat"]
:local chatId [$parse content=$chat variable="id"]
:if (($chatId = $myChatID) and ([/system script find name=$message] != "")) do={
:system script run $message;
} else={
:tool fetch url=("https://api.telegram.org/$botID/sendmessage\?chat_id=$chatId&text=Unknown command: $message") keep-result=no
}
}
} on-error={}
};
```
В нем необходимо заменить значения botID на токен который мы получили при создании бота и myChatID, получить его можно перейдя по ссылке:
[https://api.telegram.org/bot](https://api.telegram.org/bot5657502547:AAE5vZr24R57j0Oca39mfvBd0AHtDhaAaPE/getUpdates)<ВАШ ТОКЕН>[/getUpdates](https://api.telegram.org/bot5657502547:AAE5vZr24R57j0Oca39mfvBd0AHtDhaAaPE/getUpdates)
Далее создаем дополнительные скрипты, их названия должны соответствовать командам меню который мы создали в Telegram боте
Скрипт включающий правило блокировки
```
/ip firewall filter set [find comment="PC"] disabled=no
tool fetch url="https://api.telegram.org/bot<ВАШ ТОКЕН>/sendMessage?chat_id=<ВАШ ChatID>&text=BLOCKED"
```
Скрипт выключающий правило блокировки
```
/ip firewall filter set [find comment="PC"] disabled=yes
tool fetch url="https://api.telegram.org/bot<ВАШ ТОКЕН>/sendMessage?chat_id=<ВАШ ChatID>&text=UNLOCK"
```
Создаем правило блокировки в Firewall и задаем комментарий указанный в скрипте выше
Устройствам с динамическими IP адресами необходимо сделать их статическими, для этого нужно зайти в раздел IP, далее DHCP Server и перейти на вкладку Leases, выбрать устройство нажать кнопку Make Static
Можно проверять работу бота
Бот для отправки уведомлений
----------------------------
В компании где я работаю для мониторинга используются Zabbix и прочие системы, но по факту самым удобном средством уведомления о недоступности какого либо сервиса является простой Telegram бот, который подключен к общей группе IT отдела, в которой сразу можно обсудить поступившее сообщение с коллегами
Создаем бота по примеру выше
Далее идем на Mikrotik в раздел Tools, выбираем Netwatch и добавляем Host который нам необходимо мониторить
Создаем два уведомления, одно на UP, другое на DOWN
```
tool fetch url="https://api.telegram.org/bot<ВАШ ТОКЕН>/sendMessage?chat_id=<ВАШ ChatID>&text=KSPD EXPERT UP"
```
```
tool fetch url="https://api.telegram.org/bot<ВАШ ТОКЕН>/sendMessage?chat_id=<ВАШ ChatID>&text=KSPD EXPERT DOWN"
```
На этом настройка завершена
Бонус
-----
Для тех у кого дома есть Алиса, могу порекомендовать Telegram бота [@alice\_speaker\_bot](/users/alice_speaker_bot), он позволяет отправлять написанный ему текст на колонку, так сказать разговаривать Алисой, особенно интересно с детьми, да и со взрослыми тоже
 | https://habr.com/ru/post/698178/ | null | ru | null |
# Docs as Code. Часть 1: автоматизируем обновление

В больших проектах, состоящих из десятков и сотен взаимодействующих сервисов, всё чаще становится обязательным подход к документации как к коду — [docs as code](https://www.writethedocs.org/guide/docs-as-code/).
Я покажу, как можно применять эту философию в реалиях classified-сервиса, а точнее, начну с первого этапа её внедрения: автоматизации обновления данных в документации.
Набор инструментов
------------------
Принцип «документация как код» подразумевает использование при написании документации того же инструментария, что и при создании кода: языков разметки текста, систем контроля версий, code review и авто-тестов. Главная цель: создать условия для совместной работы всей команды над итоговым результатом — полноценной базой знаний и инструкций по использованию отдельных сервисов продукта. Далее я расскажу о конкретных инструментах, выбранных нами для решения этой задачи.
В качестве языка разметки текста мы решили использовать наиболее универсальный — [reStructuredText](http://docutils.sourceforge.net/rst.html). Помимо большого количества директив, которые предоставляют все основные функции для структурирования текста, этот язык поддерживает ключевые конечные форматы, в том числе необходимый для нашего проекта HTML.
Файлы конвертируются из .rst в .html посредством генератора документации [Sphinx](https://www.sphinx-doc.org/en/master/index.html). Он позволяет создавать статические сайты, для которых можно делать собственные или использовать уже готовые [темы оформления](https://sphinx-themes.org/). В нашем проекте используются две готовые темы — [stanford-theme](https://pypi.org/project/stanford-theme/) и [bootstrap-theme](https://pypi.org/project/sphinx-bootstrap-theme/). Вторая содержит подтемы, позволяющие задавать разные цветовые схемы для ключевых элементов интерфейса.
Для удобного и быстрого доступа к актуальной версии документации мы используем статический сайт, хостом для которого служит виртуальная машина, доступная из локальной сети команды разработки.
Исходные файлы проекта хранятся в Bitbucket-репозитории, причём сайт генерируется только из файлов, содержащихся в ветке master. Обновить в ней данные можно только через pull-request, что позволяет проверять все новые разделы документации перед тем, как они будут опубликованы в общем доступе.
Поскольку между завершением нового раздела документации и его отправкой на сайт нужно проверять его содержание, ключевым во всей цепочке становится сам процесс сборки сайта и обновления данных на хосте. Эта процедура должна повторяться каждый раз после того, как pull-request с обновлением сливается с главной веткой проекта.

Реализовать подобную логику позволяет [Jenkins](https://jenkins.io/) — система непрерывной интеграции разработки, в нашем случае — документации. Подробнее о настройке я расскажу в разделах:
1. *[Добавление нового узла в Jenkins](#dobavlenie-novogo-uzla-v-jenkins)*
2. *[Описание Jenkinsfile](#opisanie-jenkinsfile)*
3. *[Интеграция Jenkins и Bitbucket](#integraciya-jenkins-i-bitbucket)*
Добавление нового узла в Jenkins
--------------------------------
Для сборки и обновления документации на сайте необходимо зарегистрировать в качестве агента [Jenkins](https://jenkins.io/) заранее подготовленную для этого машину.
#### Подготовка машины
Согласно [требованиям Jenkins](https://jenkins.io/doc/administration/requirements/java/), на всех компонентах, входящих в систему, включая мастер-машину и все зарегистрированные агентские узлы, должна быть установлена JDK или JRE. В нашем случае будет использоваться [JDK 8](https://www.oracle.com/technetwork/java/javase/downloads/jre8-downloads-2133155.html), для установки которой достаточно выполнить команду:
```
sudo apt-get -y install java-1.8.0-openjdk git
```
Мастер-машина будет подключаться к агенту для выполнения на нём назначенных задач. Для этого на агенте необходимо создать пользователя, под которым будут выполняться все операции, и в домашней папке которого будут храниться все генерируемые [Jenkins](https://jenkins.io/)-файлы. В Linux-системах достаточно выполнить команду:
```
sudo adduser jenkins \--shell /bin/bash
su jenkins
```
Для установки соединения между мастер-машиной и агентом необходимо настроить SSH и добавить необходимые ключи авторизации. Сгенерируем ключи на агенте, после чего для пользователя *jenkins* добавим публичный ключ в файл `authorized_keys`.
Собирать сайт с документацией будем в Docker-контейнере, использующем готовый образ [python:3.7](https://hub.docker.com/_/python). Для установки Docker на агенте следуйте инструкциям [официальной документации](https://docs.docker.com/install/linux/docker-ce/ubuntu/). Чтобы завершить процесс установки, необходимо переподключиться к агенту. Проверим корректность установки, выполнив команду, которая загружает тестовый образ:
```
docker run hello-world
```
Чтобы не приходилось запускать команды Docker от имени суперпользователя (sudo), достаточно добавить в созданную на этапе установки группу docker пользователя, от имени которого будут выполняться команды.
```
sudo usermod -aG docker $USER
```
#### Конфигурация нового узла в Jenkins
Поскольку подключение к агенту требует авторизации, в настройках Jenkins необходимо добавить соответствующие учётные данные. Подробная инструкция о том, как это делать на Windows-машинах, представлена в [официальной документации Jenkins](https://wiki.jenkins.io/display/JENKINS/Step+by+step+guide+to+set+up+master+and+agent+machines+on+Windows).
> ВАЖНО: Идентификатор, который задаётся в разделе *Настроить Jenkins* -> *Управление средами сборки* -> **Имя узла** -> *Настроить* в параметре **Метки**, в дальнейшем используется в [Jenkinsfile](https://jenkins.io/doc/book/pipeline/jenkinsfile/) для указания агента, на котором будут выполнены все операции.
Описание Jenkinsfile
--------------------
В корне репозитория проекта хранится [Jenkinsfile](https://jenkins.io/doc/book/pipeline/jenkinsfile/), который содержит инструкции по:
* подготовке среды сборки и установке зависимостей;
* сборке сайта с помощью [Sphinx](https://www.sphinx-doc.org/en/master/index.html);
* обновлению информации на хосте.
Инструкции задаются с помощью специальных директив, применение которых мы рассмотрим далее на примере используемого в проекте файла.
#### Указание агента
В начале [Jenkinsfile](https://jenkins.io/doc/book/pipeline/jenkinsfile/) укажем метку агента в [Jenkins](https://jenkins.io/), на котором будут выполняться все операции. Для этого необходимо использовать [директиву agent](https://jenkins.io/doc/book/pipeline/syntax/#agent):
```
agent {
label 'название-метки'
}
```
#### Подготовка среды
Для выполнения команды сборки сайта sphinx-build необходимо задать переменные среды, в которых будут храниться актуальные пути к данным. Также для обновления информации на хосте необходимо заранее указать пути, где хранятся данные сайта с документацией. Присвоить эти значения переменным позволяет [директива environment](https://jenkins.io/doc/book/pipeline/syntax/#environment):
```
environment {
SPHINX_DIR = '.' //папка, в которой установлен Sphinx
BUILD_DIR = 'project_home_built' //папка с собранным сайтом
SOURCE_DIR = 'project_home_source' //папка с исходными .rst и .md файлами
DEPLOY_HOST = 'username@127.1.1.0:/var/www/html/' //пользоатель@IP_адрес_хоста:папка_с_сайтом
}
```
#### Основные действия
Основные инструкции, которые будут выполняться в [Jenkinsfile](https://jenkins.io/doc/book/pipeline/jenkinsfile/), содержатся внутри [директивы stages](https://jenkins.io/doc/book/pipeline/syntax/#stages), которая состоит из разных шагов, описываемых [директивами stage](https://jenkins.io/doc/book/pipeline/syntax/#stage). Простой пример трёхэтапного CI-pipeline:
```
pipeline {
agent any
stages {
stage('Build') {
steps {
echo 'Building..'
}
}
stage('Test') {
steps {
echo 'Testing..'
}
}
stage('Deploy') {
steps {
echo 'Deploying....'
}
}
}
}
```
#### Запуск контейнера Docker и установка зависимостей
Сначала запустим Docker-контейнер с готовым образом [python:3.7](https://hub.docker.com/_/python). Для этого воспользуемся командой [docker run](https://docs.docker.com/engine/reference/run/) с флагами [--rm](https://docs.docker.com/engine/reference/run/#clean-up---rm) и [-i](https://docs.docker.com/engine/reference/run/#foreground). Затем последовательно сделаем следующее:
* установим [python virtualenv](https://virtualenv.pypa.io/en/latest/);
* создадим и активируем новую виртуальную среду;
* установим в ней все необходимые зависимости, перечисленные в файле
requirements.txt, который хранится в корне репозитория проекта.
```
stage('Install Dependencies') {
steps {
sh '''
docker run --rm -i python:3.7
python3 -m pip install --user --upgrade pip
python3 -m pip install --user virtualenv
python3 -m virtualenv pyenv
. pyenv/bin/activate
pip install -r \${SPHINX\_DIR}/requirements.txt
'''
}
}
```
#### Сборка сайта с документацией
Теперь соберём сайт. Для этого необходимо выполнить команду [sphinx-build](https://www.sphinx-doc.org/en/master/man/sphinx-build.html) со следующими флагами:
`-q`: записывать в лог только предупреждения и ошибки;
`-w`: записывать лог в указанный после флага файл;
`-b`: имя сборщика сайта;
`-d`: указать директорию для хранения кешированных файлов — doctree pickles.
Перед запуском сборки, с помощью команды `rm -rf` удалим предыдущую сборку сайта и логи. В случае ошибки на одном из этапов в консоли [Jenkins](https://jenkins.io/) появится лог выполнения [sphinx-build](https://www.sphinx-doc.org/en/master/man/sphinx-build.html).
```
stage('Build') {
steps {
// clear out old files
sh 'rm -rf ${BUILD_DIR}'
sh 'rm -f ${SPHINX_DIR}/sphinx-build.log'
sh '''
${WORKSPACE}/pyenv/bin/sphinx-build -q -w ${SPHINX_DIR}/sphinx-build.log \
-b html \
-d ${BUILD_DIR}/doctrees ${SOURCE\_DIR} ${BUILD\_DIR}
'''
}
post {
failure {
sh 'cat ${SPHINX_DIR}sphinx-build.log'
}
}
}
```
#### Обновление сайта на хосте
И в завершение обновим информацию на хосте, обслуживающем доступный в локальной среде сайт с документацией продукта. В текущей реализации хостом служит та же виртуальная машина, которая зарегистрирована в качестве Jenkins-агента для выполнения задач по сборке и обновлению документации.
В качестве инструмента синхронизации используем утилиту [rsync](https://rsync.samba.org/). Для её корректной работы необходимо настроить подключение по SSH между Docker-контейнером, в котором собирался сайт с документацией, и хостом.
Чтобы можно было с помощью [Jenkinsfile](https://jenkins.io/doc/book/pipeline/jenkinsfile/) настраивать подключение по SSH, в [Jenkins](https://jenkins.io/) нужно [установить следующие плагины](https://jenkins.io/doc/book/managing/plugins/):
1. [SSH Agent Plugin](https://plugins.jenkins.io/ssh-agent) — позволяет использовать в скриптах шаг `sshagent` для предоставления учётных данных вида *имя\_пользователя/ключ*.
2. [SSH Credentials Plugin](https://wiki.jenkins.io/display/JENKINS/SSH+Agent+Plugin) — позволяет сохранять в настройках [Jenkins](https://jenkins.io/) учётные данные вида *имя\_пользователя/ключ*.
После установки плагинов необходимо указать актуальные учётные данные для подключения к хосту, заполнив форму в разделе **Credentials**:
* **ID**: идентификатор, который будет использоваться в [Jenkinsfile](https://jenkins.io/doc/book/pipeline/jenkinsfile/) на шаге `sshagent` для указания конкретных учётных данных (`docs-deployer`);
* **Username**: имя пользователя, под которым будут выполняться операции обновления данных сайта (пользователь должен иметь ***доступ на запись*** в папку `/var/html` хоста);
* **Private Key**: приватный ключ для доступа к хосту;
* **Passphrase**: пароль для ключа, если он задавался на этапе генерирования.
Ниже представлен код скрипта, который подключается по SSH и обновляет информацию на хосте, используя заданные на этапе подготовки среды системные переменные с путями к необходимым данным. Результат выполнения команды [rsync](https://rsync.samba.org/) записывается в лог, который будет выводиться в консоли [Jenkins](https://jenkins.io/) в случае ошибок синхронизации.
```
stage('Deploy') {
steps {
sshagent(credentials: ['docs-deployer']) {
sh '''
#!/bin/bash
rm -f ${SPHINX_DIR}/rsync.log
RSYNCOPT=(-aze 'ssh -o StrictHostKeyChecking=no')
rsync "${RSYNCOPT[@]}" \
--delete \
${BUILD_DIR_CI} ${DEPLOY_HOST}/
'''
}
}
post {
failure {
sh 'cat ${SPHINX_DIR}/rsync.log'
}
}
}
```
Интеграция Jenkins и Bitbucket
------------------------------
Существует много способов организовать взаимодействие [Jenkins](https://jenkins.io/) и [Bitbucket](https://bitbucket.org/product/), но в нашем проекте мы решили использовать плагин [Parameterized Builds for Jenkins](https://marketplace.atlassian.com/apps/1213179/parameterized-builds-for-jenkins?hosting=server&tab=overview). В официальной документации есть подробная [инструкция по установке](https://github.com/KyleLNicholls/parameterized-builds) плагина, а также приведены настройки, которые должны быть заданы для обеих систем. Для работы с этим плагином необходимо создать пользователя [Jenkins](https://jenkins.io/) и сгенерировать для него специальный токен, который позволит этому пользователю авторизоваться в системе.
#### Создание пользователя и API-токена
Для создания нового пользователя в [Jenkins](https://jenkins.io/) необходимо перейти в раздел *Настройки Jenkins* -> *Управление пользователями* -> *Создать пользователя*, и в форме заполнить все необходимые учётные данные.
Механизм аутентификации, позволяющий сторонним скриптам или приложениям использовать API Jenkins без фактической передачи пароля пользователя, представляет собой специальный API-токен, который можно сгенерировать для каждого пользователя [Jenkins](https://jenkins.io/). Для этого:
* авторизуйтесь в консоли управления, используя реквизиты пользователя, созданного ранее;
* перейдите в раздел *Настроить Jenkins* -> *Управление пользователями*;
* нажмите на значок шестерёнки справа от имени пользователя, под которым авторизовались в системе;
* в списке параметров найдите *API Token* и нажмите на кнопку *Add new Token*;
* в появившемся поле укажите идентификатор API-токена и нажмите кнопку *Generate*;
* следуя подсказке на экране, скопируйте и сохраните сгенерированный API-токен.
Теперь в настройках сервера [Bitbucket](https://bitbucket.org/product/) можно указывать пользователя по умолчанию для подключения к [Jenkins](https://jenkins.io/).
Заключение
----------
Если раньше процесс состоял из нескольких шагов:
* загрузить обновление в репозиторий;
* дождаться подтверждения корректности;
* собрать сайт с документацией;
* обновить информацию на хосте;
то теперь достаточно нажать одну кнопку Merge в Bitbucket. Если после проверки не требуется вносить изменения в исходные файлы, то актуальная версия документации обновляется сразу же после подтверждения корректности данных.
Это значительно облегчает задачу технического писателя, избавляя его от большого количества ручных действий, а руководители проектов получают удобный инструмент для отслеживания дополнений документации и обратной связи.
Автоматизация этого процесса — первый шаг в построении инфраструктуры по управлению документацией. В дальнейшем мы планируем добавить автоматические тесты, которые будут проверять корректность внешних ссылок, используемых в документации, а также хотим создать интерактивные объекты интерфейса, встраиваемые в готовые темы для [Sphinx](https://www.sphinx-doc.org/en/master/index.html).
Спасибо дочитавшим за внимание, скоро мы продолжим делиться подробностями создания документации в нашем проекте! | https://habr.com/ru/post/459640/ | null | ru | null |
# Работаем с Compound File
С составными файлами я работаю давно, больше 15 лет. За все время работы у меня накопилось достаточно информации о плюсах и минусах составных файлов.
С одной стороны они являются действительно очень удобным хранилищем информации, позволяющим менять данные на лету, с другой стороны это удобство частично нивелируется скоростью доступа к данным.
Вообще для чего обычно используют составные файлы?
Для всего, что нужно хранить в некоем контейнере (NoSQL подмножество).
К примеру, файлы старых версий Microsoft Office от 97 до 2003 включительно (состоящие на самом деле из нескольких десятков файлов), хранились как раз в составном файле. Сейчас тоже хранятся, только в качестве контейнера используется ZIP.
Инсталляционные пакеты MSI тоже являются составными файлами, и даже файл кэша эскизов папок Thumbs.db использует этот формат.
Правда для того же Word есть целый комплекс утилит (Recovery for Word, Word Recovery Toolbox, Munsoft Easy Word Recovery) восстанавливающих, ну или по крайней мере пытающихся восстановить, поврежденные документы. Выводы можете сделать сами.
Хотя, при должной работе с составными файлами проблему их повреждения можно решить (и я покажу как).
Ну и, конечно же, несомненным плюсом этого формата является то, что внутри хранилища эмулируется полноценная файловая система со своими файлами и папками.
Кстати, нюанс. Перед началом статьи я провел опрос на нескольких форумах, и выяснилось, что подавляющее большинство разработчиков не работают с составными файлами, причем по простой причине — не слышали что это такое.
Вот сейчас и закроем этот пробел.
#### 1. Общие сведения о составных файлах и их создании
С ходу рассказывать структуру и внутренний формат составного файла я не буду, это лишнее.
Для начала нужно его «пощупать» — что он из себя вообще представляет.
Поэтому начнем с того, что создадим новый составной файл вызовом StgCreateDocfile.
В uses подключим эту парочку ActiveX и AxCtrls (пригодятся).
А теперь пишем:
```
procedure CheckHResult(Code: HRESULT);
begin
if not Succeeded(Code) then
RaiseLastOSError;
end;
var
TestFilePath: string;
WideBuff: WideString;
Root: IStorage;
begin
TestFilePath := ExtractFilePath(ParamStr(0)) + '..\data\simple.bin';
ForceDirectories(ExtractFilePath(TestFilePath));
WideBuff := TestFilePath;
CheckHResult(StgCreateDocfile(@WideBuff[1],
STGM_CREATE or STGM_WRITE or STGM_SHARE_EXCLUSIVE,
0, Root));
```
Прежде всего, обращу внимание на флаги.
STGM\_CREATE и STGM\_WRITE — эти два флага используются для создания нового составного файла, причем наличие флага STGM\_WRITE в данном случае обязательно (иначе никакого фокуса не получится ).
**ВАЖНО:**
А вот с третьим флагом STGM\_SHARE\_EXCLUSIVE все гораздо хитрее. Его наличие требуется всегда и везде, кроме открытия файла в режиме «только чтение», о чем говорится во второй главе.
Можете проверить самостоятельно в [IDA Pro Freeware](https://www.hex-rays.com/products/ida/support/download_freeware.shtml).
StgCreateDocfile вызывает функцию DfOpenDocfile, из которой происходит вызов VerifyPerms, в которой будет вот такая проверка:

По адресу 72554E62 происходит проверка наличия данного флага, и если его вдруг не будет обнаружено, вернется ошибка открытия. Таким образом, одновременное открытие составного файла на запись более одного раза запрещено.
Для меня было несколько удивительно увидеть такую проверку в третьем кольце и я даже (эксперимента ради) ее занопил, после чего смог открыть файл на запись два раза одновременно. Но — корректно записать в оба файла, естественно, не получилось. :)
На самом деле это достаточно грамотное решение, из-за самого формата хранения данных, но я на нем остановлюсь чуть позже, ближе к концу статьи.
Если все проверки прошли успешно и код возврата StgCreateDocfile равен S\_OK, то в четвертом параметре данной функции нам вернется интерфейс IStorage, указывающий на корневой элемент составного файла, с которым и будет происходить вся дальнейшая работа.
Что мы можем сделать далее?
К примеру, создать в корне новый файл (все же у нас файловая система) и записать в него некий блок данных.
Пишем вот такую функцию:
```
procedure WriteFile(Storage: IStorage; AName: WideString; Data: AnsiString);
var
Stream: IStream;
OS: TOleStream;
begin
CheckHResult(Storage.CreateStream(@AName[1],
STGM_WRITE or STGM_SHARE_EXCLUSIVE, 0, 0, Stream));
OS := TOleStream.Create(Stream);
try
OS.WriteBuffer(Data[1], Length(Data));
finally
OS.Free;
end;
end;
```
В ней первым делом создаем новый «файл» вызовом функции Storage.CreateStream. Она практически идентична рассмотренной ранее StgCreateDocfile, только в качестве результата возвращает интерфейс [IStream](https://msdn.microsoft.com/en-us/library/windows/desktop/aa380034(v=vs.85).aspx), посредством которого будет вестись работа с содержимым файла.
Обратите внимание на флаги: STGM\_SHARE\_EXCLUSIVE должен быть указан обязательно, а вторым должен идти (в случае создания) либо STGM\_WRITE, либо STGM\_READWRITE, но т.к. составной файл был создан с использованием флага STGM\_WRITE — используется именно он.
Для удобства работа с IStream ведется посредством класса-прослойки TOleStream, который и производит запись данных.
Это, конечно, не принципиальный момент, и можно было воспользоваться вызовом функции Write интерфейса ISequentialStream, наследником которого является IStream, но работать с классом TOleStream проще.
Вызовем реализованную нами ранее функцию:
```
WriteFile(Root, 'RootFile', 'First file data');
```
В результате в корне появится файл с именем RootFile и содержимым «First file data».
**ВАЖНО:**
Здесь есть один нюанс.Имена файлов и папок внутри составного файла не могут превышать длину в 31 юникодных символов (на самом деле не более 32, но нельзя забывать про терминирующий ноль).
Да, именно так, папку или файл можно зазвать «123», но нельзя: «Мое длинное имя файла и еще много цифр». Более того по спецификации есть набор символов, которые нельзя использовать в наименовании (от 0 до 0x1F).
Наверное, вы скажете — зачем такие ограничения, а вдруг я хочу развернуть огромную разветвленную файловую систему с огромной глубиной вложенности?
Так не вопрос, в отличие от стандартных файловых ограничений, на вас не действует константа MAX\_PATH.
500 вложенных папок с именем «мое большое имя»?
Это легко, таки работаем с виртуальной файловой системой — творите что хотите. :)
Вернемся к нашим баранам: создадим в корне папку.
```
CheckHResult(Root.CreateStorage('SubFolder',
STGM_WRITE or STGM_SHARE_EXCLUSIVE, 0, 0, Folder));
```
Код практически аналогичен вызову Storage.CreateStream, только в этот раз мы получим еще один интерфейс IStorage указывающий на только что созданную папку.
Можем прямо сейчас создать в ней новый файл:
```
WriteFile(Folder, 'SubFolderFile', 'Second file data');
```
Для этого первым параметров укажем не Root, который ссылается на корень, а только что созданный Forder.
**ВАЖНО:**
А теперь нюанс, если прямо сейчас закроем приложение — данные могут не сохраниться.
Тут на самом деле не все так просто, к примеру, на моей домашней машине такое поведение воспроизводится гарантированно, а на рабочей с точностью наоборот.
Чтобы гарантировать сохранение данных нужно выполнить следующий код:
```
CheckHResult(Root.Commit(STGC_DEFAULT));
```
После выполнения этого кода все данные будут гарантированно сохранены в файл на диске. Ну а если вы вдруг «внезапно» передумали, можно отменить все изменения, произошедшие с предыдущего коммита, вызвав такой код:
```
CheckHResult(Root.Revert);
```
Кстати, по поводу закрытия файла.
Это делается банальным обниливанием рута, после чего при вызове @IntfClear для интерфейса в переменной Root произойдет разрушение всех остальных интерфейсов в иерархическом порядке.
Что у нас еще осталось?
Ага, еще методы CopyTo/MoveElementTo/EnumElements и прочее…
С ними разберемся чуть позже, а пока что можно открыть архив, прилагающийся к статье и посмотреть на реализацию описанного выше кода [в файле "..\simple\StorageCreateDemo.dpr"](http://rouse.drkb.ru/blog/storage.zip)
Теперь пробуем всю эту беду прочитать.
#### 2. Чтение составного файла
Создадим новый проект, опять подключим ActiveX и AxCtrls и напишем код открытия:
```
var
TestFilePath: string;
WideBuff: WideString;
Root: IStorage;
begin
TestFilePath := ExtractFilePath(ParamStr(0)) + '..\data\simple.bin';
WideBuff := TestFilePath;
CheckHResult(StgOpenStorage(@WideBuff[1], nil,
STGM_READ or STGM_SHARE_DENY_WRITE, nil, 0, Root));
```
Так как доступ на запись нам не нужен, используем флаг STGM\_READ и тут у нас есть выбор, использовать STGM\_SHARE\_DENY\_WRITE или все же оставить STGM\_SHARE\_EXCLUSIVE (какой-то из двух флагов должен быть обязательно).
Результат выполнения кода — переменная Root, класса IStorage, указывающая на корень.
Как бы вы выполнили поиск файлов в указанной папке на диске?
Естественно, рекурсивным обходом каталога, используя FindFirstFile.
В данном случае у нас есть что-то похожее: это метод EnumElements интерфейса IStorage, вызов которого выглядит как-то так:
```
var
Enum: IEnumStatStg;
begin
CheckHResult(Storage.EnumElements(0, nil, 0, Enum));
```
Грубо говоря, это аналог вызова FindFirstFile, но тут мы получаем не хэндл, с которым можно работать далее, а интерфейс IEnumStatStg.
Тут есть один интересный момент, на котором стоит заострить ваше внимание.
Данный интерфейс (при его использовании) будет нам возвращать структуру TStatStg, одним из полей которой будет параметр pwcsName тип которого **POleStr**.
Цимус данной ситуации поняли?
Конечно же, это потенциальный мемлик, ибо OLE никоим разом не знает о существовании нашего родного менеджера памяти и выделяет блок под хранение данной строки своими собственными средствами, через интерфейс IMalloc.
Если мы не будем обрабатывать данную ситуацию — память приложения потечет как водопад Виктория, но зато будет забавно смотреть на счетчики расхода памяти. :)
Поэтому первым делом нужно получить ссылку на экземпляр данного интерфейса:
```
if (CoGetMalloc(1, ShellMalloc) <> S_OK) or (ShellMalloc = nil) then
raise Exception.Create('CoGetMalloc failed.');
```
Он нам потребуется для освобождения выделенной не нами памяти.
Примерно вот так:
```
ShellMalloc.Free(TmpElement.pwcsName);
```
Далее еще один нюанс:
Тип данных в возвращаемой TStatStg может принимать следующие значения:
* STGTY\_STORAGE — это папка
* STGTY\_STREAM — это файл
Все остальные варианты чисто служебные и нам не интересны.
Смотрим как это происходит:
```
procedure Enumerate(const Root: string; Storage: IStorage);
var
Enum: IEnumStatStg;
TmpElement: TStatStg;
ShellMalloc: IMalloc;
Fetched: Int64;
Folder: IStorage;
AFile: IStream;
begin
// т.к. работаем с OLE, сразу получим интерфейс на IMalloc
if (CoGetMalloc(1, ShellMalloc) <> S_OK) or (ShellMalloc = nil) then
raise Exception.Create('CoGetMalloc failed.');
// смотрим что нам доступно в данном сторадже
CheckHResult(Storage.EnumElements(0, nil, 0, Enum));
// перечисляем результаты до пока не упремся
Fetched := 1;
while Fetched > 0 do
if Enum.Next(1, TmpElement, @Fetched) = S_OK then
// проверочка (для подстраховки)
if ShellMalloc.DidAlloc(TmpElement.pwcsName) = 1 then
begin
// пишем что нашли
Write('Found: ', Root, '\', AnsiString(TmpElement.pwcsName));
// смотрим тип найденного
case TmpElement.dwType of
// если файл - выводим его имя и его содержимое
STGTY_STREAM:
begin
Writeln(' - file: ', sLineBreak);
CheckHResult(Storage.OpenStream(TmpElement.pwcsName, nil,
STGM_READ or STGM_SHARE_EXCLUSIVE, 0, AFile));
ShowFileData(AFile);
Writeln;
end;
// если папка - выводим ее имя и стартуем рекурсивный поиск уже в ней
STGTY_STORAGE:
begin
Writeln(' - folder');
CheckHResult(Storage.OpenStorage(TmpElement.pwcsName, nil,
STGM_READ or STGM_SHARE_EXCLUSIVE, nil, 0, Folder));
Enumerate(Root + '\' + string(TmpElement.pwcsName), Folder);
end;
else
Writeln('Unsupported type: ', TmpElement.dwType);
end;
// усе, данные нам уже не нужны - освобождаем выделенную память
ShellMalloc.Free(TmpElement.pwcsName);
end;
end;
```
И теперь давайте посмотрим, что получится при чтении созданного в первой главе файла:

Собственно, это именно те данные, которые мы записали в первой главе.
Код данного примера в архиве к статье, [по следующему пути "..\simple\StorageReadDemo.dpr"](http://rouse.drkb.ru/blog/storage.zip)
А теперь посмотрим, как с этим работать немного удобнее.
#### 3. Класс-обертка
В свое время мной был разработан небольшой модуль (тысяча строчек с комментариями), в котором реализовано несколько классов, учитывающих все нюансы работы с составными файлами и предоставляющих более удобный механизм работы.
Его вы сможете найти в архиве, [в папке "..\StorageReader\FWStorage.pas"](http://rouse.drkb.ru/blog/storage.zip).
В нем есть несколько недочетов. Дело в том, что я забросил его разработку очень давно, поэтому на юникодных версиях Delphi он будет выдавать ворнинги связанные с работой со строками.
> [dcc32 Warning] FWStorage.pas(860): W1057 Implicit string cast from 'AnsiString' to 'string'
>
> [dcc32 Warning] uStgReader.pas(102): W1057 Implicit string cast from 'ShortString' to 'string'
Но при этом он вполне функционален и эти ворнинги никак не скажутся на его работоспособности. (Если честно — лень причесывать еще и их).
Данный модуль вы можете использовать по своему усмотрению со следующими оговорками.
Если вы вдруг будете изменять код классов (добавлять рюшечки, править ошибки, если найдете), и потом выкладывать его в интернет, имя автора модуля должно быть сохранено в заголовке.
Я данный модуль уже не сопровождаю (он для меня устарел), поэтому просьбы о его доработке я буду отклонять сразу.
Итак, из данного модуля нас интересует класс TFWStorage, при помощи которого ведется работа с составным файлом, и класс TFWStorageCursor, который является оберткой над IStorage.
Для начала перечислю методы этих классов, а потом дам пример работы с ними.
Итак, класс TFWStorage, он предназначен только для работы с файлом и предоставляет несколько утилитарных методов:
* OpenFile, OpenFileReadOnly — ну тут все понятно, просто открываем составной файл. Оба метода создают и возвращают класс TFWStorageCursor указывающий на корневую директорию файла.
* CloseFile — соответственно закрываем открытый ранее файл.
* ReConnect — переоткрываем открытый ранее файл. Также возвращает TFWStorageCursor.
* Compress — сжимает указанный файл, убирая фрагментированные блоки. Сжимаемый файл не должен быть открыт.
* IsStgValidBinaryFmt — проверяет, все ли в порядке с указанным файлом и не разрушена ли его структура. Указанный файл не должен быть открыт.
* ForceStorage — создает или открывает папку внутри составного файла по указанному пути. Путь должен быть указан от корня, в качестве разделителя используется "\". Пример: «путь к файлу\Subfolder1\subfolder2\subsubfolder». Возвращает TFWStorageCursor.
Т.е. в принципе основная его задача отдать нам экземпляр класса TFWStorageCursor, при помощи которого и будет происходить основная работа с составным файлом.
Методы у него следующие:
* CreateStorage — создает новую папку внутри текущей и возвращает TFWStorageCursor, указывающий на вновь созданную папку.
* OpenStorage — открывает папку внутри текущей. Возвращает TFWStorageCursor, указывающий на открытую папку.
* DeleteStorage — удаляет указанную папку внутри текущей.
* Copy — копирует указанный файл или папку из текущей папки в другую. Папка, в которую производится копирование, передается в виде класса TFWStorageCursor.
* MoveTo — аналогично методу Copy, только копируемый элемент удаляется из текущей папки.
* CreateStream — создает пустой файл в текущей папке.
* ReadStream — читает содержимое указанного файла.
* WriteStream — пишет новые данные в файл. Если файла с таким именем не существует — создает его.
* DeleteStream — удаляет файл в текущей папке.
* FlushBuffer — сохраняет изменения.
* Rename — переименовывает указанный файл или папку в текущей папке.
* Enumerate — перечисляет содержимое текущей папки и возвращает результат в виде массива TFWStorageEnum.
* Backward — возвращает ссылку на родительскую папку, причем сам разрушается (если только не Root).
* Release — разрушает текущий класс.
* IsRoot — показывает, указывает ли текущий класс на корневую папку составного файла.
* GetName — возвращает имя текущей папки.
* Path — возвращает путь к текущей папке.
* Storages — список всех дочерних подпапок.
Как видите, обертки над IStream нет, работа с этим интерфейсом возложена на методы CreateStream, ReadStream, WriteStream.
В массиве TFWStorageEnum, который возвращает метод Enumerate, не нужно освобождать память, выделенную под pacsName, это уже сделано, и вы работаете с копией данных, которые хранятся в памяти, выделенной родным менеджером памяти.
Единственный вопрос может вызвать метод Backward, как так — почему он разрушает сам себя?
А сейчас покажу, это действительно удобно.
Вот, к примеру, если бы нам нужно было открыть такой путь: «путь к файлу\Subfolder1\subfolder2\subsubfolder», что нужно было сделать при использовании обычных интерфейсов из второй главы:
Открыть сам файл и получить интерфейс IStorage указывающий на корень, потом получить IStorage для первой папки, потом для второй и для третьей, которая «subsubfolder» тоже нужно.
Это целых 4 элемента, которые нужно где-то хранить.
При использовании TFWStorage все становится гораздо проще:
```
procedure TForm1.Button1Click(Sender: TObject);
var
Path: string;
Storage: TFWStorage;
Root, Folder: TFWStorageCursor;
Data: TStringStream;
begin
Storage := TFWStorage.Create;
try
// запоминаем путь к файлу
Path := ExpandFileName(ExtractFilePath(ParamStr(0)) + '..\data\test.bin');
// открываем составной файл
Storage.OpenFile(Path, True, Root);
// создаем в нем три вложенных друг в друга папки
Storage.ForceStorage(Path + '\Subfolder1\subloder2\subsubfolder', Folder);
Data := TStringStream.Create;
try
// это будут данные для файла
Data.WriteString('new file data.');
// пока не вышли на рут в каждой из папок создаем по файлу
while Folder <> Root do
begin
Folder.WriteStream(Folder.GetName + '_new_file.txt', Data);
// получаем ссылку на папку уровнем выше
Folder.Backward(Folder);
end;
// сохраняем изменения
Root.FlushBuffer;
finally
Data.Free;
end;
finally
Storage.Free;
end;
end;
```
Вот и все, с точки зрения программирования получилось очень удобно.
Ну а теперь напишем что-то более серьезное, а именно редактор содержимого составного файла.
Откройте новый проект и создайте в нем примерно такую форму:

**В приват добавим три переменных:**
```
private
FCurrentFileName: string;
FStorage: TFWStorage;
FRoot: TFWStorageCursor;
```
**В конструкторе формы пишем такой код:**
```
procedure TForm1.FormCreate(Sender: TObject);
begin
// указываем текущее имя файла
FCurrentFileName :=
ExpandFileName(ExtractFilePath(ParamStr(0)) + '..\data\simple.bin');
// создаем хранилище
FStorage := TFWStorage.Create;
// открываем файл
OpenFile(False);
end;
```
Теперь пишем саму процедуру открытия файла, она простая:
```
procedure TForm1.OpenFile(CreateNew: Boolean);
begin
// закрываем файл, если он был открыт ранее
FStorage.CloseFile;
// открываем новый файл
FStorage.OpenFile(FCurrentFileName,
CreateNew or not FileExists(FCurrentFileName), FRoot);
Caption := FCurrentFileName;
// ну и выводим содержимое его корня
ShowStorageData(FRoot);
end;
```
Пока все просто, да? В принципе и весь остальной код будет простеньким.
Теперь пишем процедуру вывода содержимого папки на экран:
```
procedure TForm1.ShowStorageData(AStorage: TFWStorageCursor);
procedure AddItem(const ACaption: string; AIndex: Integer);
begin
with ListView1.Items.Add do
begin
Caption := ACaption;
case AIndex of
-1: ImageIndex := -1;
1:
begin
ImageIndex := 0;
SubItems.Add('Folder');
end
else
ImageIndex := 1;
SubItems.Add('File');
end;
// тип элемента сохраняем в поле Data, где:
// -1 - переход на уровень выше
// 0 - файл
// 1 - папка
// потом будем ориентироваться на это поле
Data := Pointer(AIndex);
end;
end;
var
AData: TFWStorageEnum;
I: Integer;
begin
ListView1.Items.BeginUpdate;
try
ListView1.Items.Clear;
// выводим пункт, через который мы будем переходить на папку выше
// (для корневой директории - избыточно)
if not AStorage.IsRoot then
AddItem('..', -1);
// перечисляем все содержимое папки
AStorage.Enumerate(AData);
// и последовательно выводим в ListView
for I := 0 to AData.Count - 1 do
AddItem(
string(AData.ElementEnum[I].pacsName),
Byte(AData.ElementEnum[I].dwType = STGTY_STORAGE));
finally
ListView1.Items.EndUpdate;
end;
end;
```
Если все сделали правильно, то запускайте проект, при этом откроется файл "..\data\simple.bin" который мы создавали в первой главе и все должно выглядеть как-то так:

Теперь сделаем навигацию по нашему хранилищу.
Логика ее будет простая:
* двойной клик по папке — открываем папку и показываем ее содержимое.
* двойной клик по файлу — открываем редактор содержимого файла.
* двойной клик по элементу ".." — переходим на уровень выше.
Для этого в обработчике события OnDblClick у ListView пишем такой код:
```
procedure TForm1.ListView1DblClick(Sender: TObject);
begin
// если элемент не выбран - выходим
if ListView1.Selected = nil then Exit;
// ориентируемся на поле Data выбранного элемента
case Integer(ListView1.Selected.Data) of
-1: // переход на уровень выше
begin
// получаем ссылку на папку уровнем выше
FRoot.Backward(FRoot);
// показываем ее содержимое
ShowStorageData(FRoot);
end;
0: // редактируем файл
EditFile;
1: // открываем папку
begin
// получаем ссылку на выбранную папку
FRoot.OpenStorage(AnsiString(ListView1.Selected.Caption), FRoot);
// показываем ее содержимое
ShowStorageData(FRoot);
end;
end;
end;
```
Вот теперь можно походить по нашему хранилищу двойными кликами. :)
Редактирование файла сделаем следующим образом. Подключим к проекту новую форму, добавим на нее кнопку сохранения и кнопку отмены, а также TMemo в котором будет выводиться содержимое файла, после чего напишем такой код:
```
procedure TForm1.EditFile;
var
Buff: TMemoryStream;
Data: AnsiString;
begin
Buff := TMemoryStream.Create;
try
// читаем содержимое файла
FRoot.ReadStream(AnsiString(ListView1.Selected.Caption), Buff);
// перекидываем его в строку
if Buff.Size > 0 then
begin
SetLength(Data, Buff.Size);
Buff.Read(Data[1], Buff.Size);
end;
// создаем окно редактора
frmEdit := TfrmEdit.Create(Self);
try
// передаем в Memo зачитанный текст
frmEdit.Memo1.Text := string(Data);
// отображаем диалог
if frmEdit.ShowModal <> mrOk then Exit;
// читаем содержимое из Memo
Buff.Clear;
Data := AnsiString(frmEdit.Memo1.Text);
if Length(Data) > 0 then
Buff.Write(Data[1], Length(Data));
// пишем его обратно
FRoot.WriteStream(AnsiString(ListView1.Selected.Caption), Buff);
// и сохраняем изменения
FRoot.FlushBuffer;
finally
frmEdit.Release;
end;
finally
Buff.Free;
end;
end;
```
Ну, вот у нас практически полноценный редактор, осталось добавить функционал для кнопок сверху формы.
**Обработчики создания нового составного файла и открытия уже существующего выглядят так:**
```
procedure TForm1.btnCreateDFaseClick(Sender: TObject);
begin
if SaveDialog1.Execute then
begin
FCurrentFileName := SaveDialog1.FileName;
OpenFile(True);
end;
end;
procedure TForm1.btnOpenDBaseClick(Sender: TObject);
begin
if OpenDialog1.Execute then
begin
FCurrentFileName := OpenDialog1.FileName;
OpenFile(False);
end;
end;
```
**Это будет код кнопок создания новой папки и удаления существующей:**
```
procedure TForm1.btnAddFolderClick(Sender: TObject);
var
NewFolderName: string;
Tmp: TFWStorageCursor;
begin
if InputQuery('New folder', 'Enter folder name', NewFolderName) then
begin
FRoot.CreateStorage(AnsiString(NewFolderName), Tmp);
FRoot.FlushBuffer;
end;
ShowStorageData(FRoot);
end;
procedure TForm1.btnDelFolderClick(Sender: TObject);
begin
if Application.MessageBox(
PChar(Format('Delete folder: "%s"?', [ListView1.Selected.Caption])),
'Delete folder', MB_ICONQUESTION or MB_YESNO) = ID_YES then
begin
FRoot.DeleteStorage(AnsiString(ListView1.Selected.Caption));
FRoot.FlushBuffer;
ShowStorageData(FRoot);
end;
end;
```
**И тоже самое, только для кнопок открытия и удаления файла**
```
procedure TForm1.btnAddFileClick(Sender: TObject);
var
NewFileName: string;
begin
if InputQuery('New file', 'Enter file name', NewFileName) then
begin
FRoot.CreateStream(AnsiString(NewFileName));
FRoot.FlushBuffer;
end;
ShowStorageData(FRoot);
end;
procedure TForm1.btnDelFileClick(Sender: TObject);
begin
if Application.MessageBox(
PChar(Format('Delete file: "%s"?', [ListView1.Selected.Caption])),
'Delete file', MB_ICONQUESTION or MB_YESNO) = ID_YES then
begin
FRoot.DeleteStream(AnsiString(ListView1.Selected.Caption));
FRoot.FlushBuffer;
ShowStorageData(FRoot);
end;
end;
```
Ну вот и все, проще по моему уже некуда :)
Теперь можно посмотреть, а что-же хранится внутри DOC файла? :)

На этом, пожалуй, остановимся и перейдем к описанию различных неприятностей, которые может доставить нам составной файл, а исходный код данного примера вы можете забрать в архиве, [по следующему пути: "..\StorageReader\"](http://rouse.drkb.ru/blog/storage.zip)
#### 4. Минусы Compound File
Так уж получилось, что при всех своих плюсах, составной файл обладает целым рядом существенных минусов, с которыми вы можете столкнуться при работе.
Самый первый минус — ограничение на размер имен для файлов и папок.
Здесь я сделаю небольшое отступление и расскажу вам небольшую историю из собственной практики.
Двенадцатый год я разрабатываю ПО для сметчиков — сметы делаем.
Но у них все хитро, нельзя просто так взять и создать смету. :))
Для начала должна быть указана стройка, у стройки должен быть перечень объектов строительства, а уже непосредственно объекты строительства содержат в себе сметы.
Эта иерархия жесткая, причем есть несколько вариантов, к примеру:
* Стройка → Объект → Смета
* Стройка → Очередь → Объект → Смета
* Группа строек → Стройка → Очередь → Объект → Смета
По факту все эти стройки объекты и прочее (кроме смет) являются не более чем объектами иерархии — по сути папки, но эти папки должны идти в строго определенном порядке, иначе все сломается.
Если представить что мы сделаем эту иерархию при помощи средств файловой системы, а тип папки (к какому уровню иерархии она принадлежит «стройка/объект/очередь») реализуем, к примеру, обычным INI файлом в ее корне (а-ля thumbs.db), то что нам делать с пользователем, у которого излишне шаловливые ручки, который может прямо в проводнике порушить всю эту структуру?
Вот именно из этих соображений много лет назад нами и был выбран составной файл как хранилище данных, в который пользователь не сможет влезть и поломать там все.
Используя этот формат хранения, мы можем контролировать нужную иерархию создания папок и не дать пользователю выстрелить себе в ногу.
Однако вылез нюанс: создавая новую смету в нашем ПО, пользователь почему то старается в названии сметы отобразить полную информацию о том, что она осмечивает.
К примеру: «Капитальный ремонт пути на старогодних материалах. Участок Селэгвож-Чим, 1путь, 142 пк1 — 163 пк10, протяженность 22, 0км».
Вспоминаем — ограничение на длину имени файла у нас всего 31 символ, а это в крайнем случае: «Капитальный ремонт пути на стар».
Нет, чтобы назвать: «Ремонт путёв».
И естественно пользователь страшно обидится, если мы зарежем его имя файла по длине пути, поэтому пришлось что-то с этим делать.
Нами была реализована следующая схема хранения данных:
Что виртуальная папка, что виртуальный файл (виртуальный — отображаемый нашим ПО), в данной схеме на самом деле представлял из себя обычную папку в составном файле. Внутри этой папки лежал файлик «Properties», в котором описывался тип данных с которым мы работаем (если это папка, то, к какому типу в иерархии она принадлежит) а также отображаемое нашим ПО имя (причем ограничение на длину мы сделали аж в 1024 байта — не пожадничали, и с этим будет связана еще одна проблема, на которой я остановлюсь в самом конце).
Если вдруг папка внутри хранилища являлась файлом — то в ней размещался еще один файлик — «Data», где и хранилось содержимое самой сметы.
А выводилось это все пользователю в нормальном виде:

Спросите, что мы использовали в качестве имен физических папок в данном случае?
Да банальные усеченные GUID в строковом представлении с небольшой «эквилибристикой» чтобы их можно было впихнуть в пресловутые 31 байт имени папки. :)
Да и ладно бы с этими 31 байтами имени, через какое-то время работы с данным форматом мы вышли на очередной неприятный минус.
Вот задумайтесь, понравилось бы вам что ваше ПО может запускаться не меньше 5 минут?
Да-да, я не ошибся, ровно 5 минут, а не секунд. Можно сходить попить чай, пиццу заказать, да и вообще отличное начало дня — ждем старта твоего рабочего инструмента. :)
Есть у нас такие клиенты, называются «Проектные Институты» — их много по всей России и там работает огромное количество сметчиков. Они все профи и поэтому работают просто с «ОГРОМЕННЕЙШИМ» набором смет постоянно — работа такая.
И вот однажды нам пришел багрепорт примерно такого плана: «Ребят, мы уже устали ждать запуска вашего ПО, да что ж такое каждый день?».
А часть таких контор еще и работает с данными, которые нельзя отдавать на сторону (осмечивают некоторые госструктуры), поэтому мы никак не могли понять — откуда тормоза то такие дикие лезут?!!!
Но однажды повезло, данные были не секретные и нам их предоставили.
И вот, лежит у меня в папке **почти 2 гигабайтный файлик** с примерно 200 тысячами смет на борту (твою дивизию). Я конечно офигел от такого объема, но…
Но действительно — хочешь не хочешь, файл такого размера быстрее, чем за пять минут просто не открылся (в следующей главе поймете почему).
Начали тестировать скорость, и опытным путем было установлено: пользователю будет не комфортно работать на объеме составного файла размером уже в 50 мегабайт, ибо проявятся достаточно сильные задержки по две/три секунды на открытии.
Тесты, конечно, тестами, но делать то что-то надо.
В кратчайшие сроки была реализована сетевая служба, работающая с данными, которые хранились уже не в составном файле, а в базе. Причем, сразу добавили поддержку как банального Firebird/Interbase, так и баз посерьезней — MS SQL/Olracle, и до кучи прикрутили ADO. Еще была написана небольшая утилита, которая конвертировала данные из составного файла в базу.
Тестируем — летает, мама не горюй, но есть нюанс.
Нельзя просто так взять и прокинуть все данные из двухгигового файла в базу.
В какой-то момент, при открытии очередной папки посредством OpenStorage, может произойти ошибка открытия, причем в этом случае дальше трепыхаться уже не стоит — любой вызов будет заканчиваться ошибкой.
Вот именно для таких целей в TFWStorage и были добавлены два метода: ReConnect — посредством которого можно переоткрыть составной файл и метод ForceStorage, посредством которого можно сразу открыть ту папку, на которой произошла ошибка.
Впрочем: на тот момент времени мы еще недостаточно набили шишек и использовали составной файл в еще одном нашем продукте. Этот проект был информационно справочной системой (ИСС) предоставляющий сметчику доступ к необходимой для него документации (скажем — местячковый аналог MSDN).
И вот настает момент, ко мне приходит наш технарь, ответственный за наполнение базы и говорит: «база не открывается, я не могу выпустить очередное обновление».
Начинаю проверять.
Да действительно, база, представляющая из себя тотже составной файл с добавленными в него всеми данными не открывается прямо на этапе вызова StgOpenStorage.
Приплыли…
Смотрю размер — что-то в районе 4 гигов, но еще не вылезли за лимит.
Методом проб и ошибок выяснили, что похоже дело с нехваткой памяти на этапе открытия файла. Победили переходом на другой формат хранения.
Кстати, если спросите о времени открытия такого файла — да он открывался за достаточно солидное время, но (как я говорил ранее) — это практически полноценный MSDN для сметчиков и выполнен он был в виде сервиса, постоянно работающего на выделенном сервере. Люди туда стучались по сетке, так что в данном случае это был не сильно принципиальный момент.
Кстати, натыкался еще на такой интересный глюк:
К примеру мы хотим что-то записать в файл(стрим) и пробуем узнать — существует ли такой вообще, вызовом EnumElements. А IEnumStatStg, возвращаемый данным вызовом не видит такого стрима. После чего мы делаем вызов CreateStream с целью создать его, но нам приходит ошибка.
В данном случае обойти этот момент довольно просто. Достаточно вызвать DestroyElement для данного стрима и создать его заново вызовом CreateStream, но это уже офигенный такой звонок: «что-то с нашим составным файлом совсем беда».
А раз с ним вообще очень плохо, то нам нужно научиться вытаскивать из него данные, которые нам еще доступны.
#### 5. Читаем данные в RAW режиме
Я думаю, у вас сейчас сложилось такое мнение: Ну, нифига себе, сколько проблем будет при использовании составных файлов? Зачем автор вообще тогда о них рассказывает?
Это не правильное мнение. Я могу накидать целый ворох ошибок по различным используемым сейчас технологиям, но это не означает что та или иная, изначально была провальна.
К примеру, если бы вы знали что можно сделать принципиально неудаляемую папку в файловой системе NTFS прямо из третьего кольца и без сильных времязатрат, просто некорректными параметрами вызова соответствующего API — вы же не отказались бы от использования файловой системы? :)
А составные файлы действительно хороши, но их нужно просто научиться правильно готовить.
Вообще сейчас хорошее время, MS [публикует описание своих технологиий в открытом виде](https://msdn.microsoft.com/en-us/library/dd942138.aspx), а когда я начинал работать с данным форматом мне было доступно только описание [формата из явовского POIFS](http://poi.apache.org/poifs/fileformat.html), небольшая [выдержка из Wiki](http://en.wikipedia.org/wiki/Compound_File_Binary_Format) да еще один файлик с более подробным описанием по структуре POIFS (в частности по министримам), но я его сейчас уже не могу найти (столько лет прошло).
Вот почему они открыли формат не тогда, когда мне это было нужно? :)
Поэтому пришлось все ковырять самому.
Смотрим, что из себя представляет составной файл, а именно его заголовок:
```
TPoifsFileHeader = packed record
// Идентификатор. Всегда постоянная (0 x E011CFD0, 0 x E11AB1A1)
_abSig: array [0..7] of Byte;
// Class ID. Устанавливается WriteClassStg, считывается GetClassFile/ReadClassStg.
// Для Excel как правило = 0
_clid: TGUID;
// Младшее значение версии формата.
_uMinorVersion: USHORT;
// Старшее значение версии Dll/формата
_uDllVersion: USHORT;
// 0 x FFFE говорит, что используется Intel нотация
_uByteOrder: USHORT;
// Размер сектора. Обычно равно 9, что указывает на размер 512 байт (2 ^ 9)
_uSectorShift: USHORT;
// Размер мини-сектора. Обычно равно 6, что указывает на размер 64 байт (2 ^ 6)
_uMiniSectorShift: USHORT;
// Зарезервировано, должно быть равно 0
_usReserved: USHORT;
// Зарезервировано, должно быть равно 0
_ulReserved1: ULONG;
// Зарезервировано, должно быть равно 0
_ulReserved2: ULONG;
// Число секторов, в которых размещается FAT.
// Если файл менее 7Мб, то равно 1, если больше, то больше 1 и появляется DIF сектор.
_csectFat: ULONG;
// Номер первого сектора, в котором размещается Property Set Storage
// (еще называют FAT Directory или Root Directory Entry)
_sectDirStart: ULONG;
// Подпись для транзакций.
_signature: ULONG;
// Максимальный размер мини-потока. Обычно 4096
_ulMiniSectorCutoff: ULONG;
// Первый сектор мини-FAT.
// Если (-2), то мини-поток отсутствует.
_sectMiniFatStart: ULONG;
// Число секторов в цепочке мини-FAT. 0, если мини-потока нет
_csectMiniFat: ULONG;
// Первый сектор в DIF цепочке.
// Если файл менее 7Мб, то DIF цепочка отсутствует и значение равно (-2)
_sectDifStart: ULONG;
// число секторов в DIF цепочке.0, если файл < 7Мб
_csectDif: ULONG;
// Номера первых 109 секторов, в которых располагается FAT.
// Если файл менее 7Мб, то сектор один, остальные значение заполняются (-1).
_sectFat: array [0..108] of ULONG;
end;
```
Ну, тут думаю все понятно, все каменты проставлены — эту структуру нам нужно считать в самом начале.
Единственный момент, в полях \_uSectorShift и \_uMiniSectorShift записаны степени двойки, значит, нужно их привести к нормальному виду.
```
procedure TPoifsFile.InitHeader;
begin
FStream.ReadBuffer(FHeader, SizeOf(TPoifsFileHeader));
FHeader._uSectorShift := Round(IntPower(2, FHeader._uSectorShift));
FHeader._uMiniSectorShift := Round(IntPower(2, FHeader._uMiniSectorShift));
end;
```
**Далее необходимо считать FAT, хранящий данные о файлах, размер которых больше или равен значению поля \_ulMiniSectorCutoff в заголовке.**
```
procedure TPoifsFile.ComposeFAT;
var
I, J, X, FatLength: Integer;
FatBlock: TPoifsFatBlock;
CurrentFat, Offset: Integer;
XFat: array of Integer;
begin
// рассчитываем кол-во элементов FAT (идут блоками по 128 записей)
// если нет DIF сектора, то _csectFat равен единице
FatLength := FHeader._csectFat * 128;
// выделяем память под значение ячеек FAT
SetLength(FFat, FatLength);
// и оффсеты на их значения в файле
SetLength(FFatOffset, FatLength);
// если есть DIF сектор, то FAT располагается только в первых 109 полях
// остальные данные лежат в DIF секторе
for I := 0 to IfThen(FHeader._csectDif > 0, 108, FHeader._csectFat - 1) do
begin
// читаем FAT структуру кусками по 128 записей
FatBlock := TPoifsFatBlock(GetBlock(FHeader._sectFat[I]));
for J := 0 to 127 do
begin
FFat[I * 128 + J] := FatBlock[J];
// не забываем про оффсет каждого блока в файле, пригодится
FFatOffset[I * 128 + J] := FStream.Position - SizeOf(TPoifsBlock);
end;
end;
// смотрим, есть ли DIF сектор
if FHeader._sectDifStart = 0 then Exit;
// если есть, значит надо читать оставшиеся блоки FAT из него
Offset := FHeader._sectDifStart;
// подготавливаем массив XFAT для хранения оффсетов на FAT блоки
SetLength(XFat, 128);
// запоминаем индекс последнего заполненного FAT блока
CurrentFat := 13951; //109 * 128 - 1 BAT
for X := 0 to FHeader._csectDif - 1 do
begin
// ориентируясь на размер сектора (параметр _uSectorShift из заголовка)
// рассчитываем позицию в файле
FStream.Position := GetBlockOffset(Offset);
// читаем смещения оставшихся FAT блоков
FStream.ReadBuffer(XFat[0], 128 * SizeOf(DWORD));
// в самом конце блока оффсетоф
// содержится смещение на начало следующего блока офсетоф
// поэтому крутим цикл без учета последнего блока
for I := 0 to 126 do
begin
// не забываем проверять текущий оффсет, если он отрицателен,
// блоков FAT больше нет
if XFat[I] < 0 then Exit;
// читаем FAT структуру кусками по 128 записей
FatBlock := TPoifsFatBlock(GetBlock(XFat[I]));
for J := 0 to 127 do
begin
Inc(CurrentFat);
FFat[CurrentFat] := FatBlock[J];
FFatOffset[CurrentFat] := FStream.Position - SizeOf(TPoifsBlock);
end;
end;
// новый оффсет берем из последнего элемента
Offset := XFat[127];
end;
end;
```
Здесь используется структура TPoifsFatBlock, это просто массив из 128 Integer.
А так же функции GetBlockOffset и GetBlock.
**Они простые по своей сути.**
```
function TPoifsFile.GetBlockOffset(BlockIndex: Integer): Int64;
begin
Result := HEADER_SIZE + FHeader._uSectorShift * BlockIndex;
end;
function TPoifsFile.GetBlock(Adress: Integer): TPoifsBlock;
begin
FStream.Position := GetBlockOffset(Adress);
FStream.ReadBuffer(Result, SizeOf(TPoifsBlock));
end;
```
Следующим этапом нужно считать минифат, хранящий данные о файлах, размер которых меньше значению поля \_ulMiniSectorCutoff.
```
procedure TPoifsFile.ComposeMiniFat;
var
I, CurrChain: Integer;
TmpPosition: int64;
begin
// запоминаем номер первого сектора цепочки блоков минифата
CurrChain := FHeader._sectMiniFatStart;
// выделяем под него память (так-же идет блоками по 128 элементов)
SetLength(FMiniFat, FHeader._csectMiniFat * 128);
I := 0;
while Integer(CurrChain) >= 0 do
begin
// смотрим оффсет сектора
TmpPosition := GetBlockOffset(CurrChain);
// если отрицательный, значит цепочка закончилась
if TmpPosition < 0 then Exit;
//if TmpPosition > FStream.Size then Exit;
FStream.Position := TmpPosition;
// читаем смещения
FStream.ReadBuffer(FMiniFat[I], 512 {128 * SizeOf(DWORD)});
Inc(I, 128);
// индекс нового сектора читаем из FAT
CurrChain := FFat[CurrChain];
end;
end;
```
Последним этапом нужно зачитать свойства всех файлов и папок.
Они будут храниться в массиве вот таких структур:
```
TPoifsProperty = packed record // 128 length
// имя файла/папки
Caption: array[0..31] of WChar;
// размер имени
CaptionSize: Word;
// тип элемента STGTY_ХХХ
PropertyType: Byte;
// цвет узла (массив TPoifsProperty представляет из себя Red-Black-Tree)
NodeColor: Byte; // 0 (red) or 1 (black)
// номер предыдущего блока в массиве
PreviousProp: Integer;
// номер следующего блока в массиве
NextProp: Integer;
// номер дочернего блока в массиве
ChildProp: Integer;
Reserved1: TGUID;
UserFlags: DWORD;
// время
ATime: array [0..1] of Int64;
// номер ячейки FAT указывающей на начало блока данных для файла
StartBlock: Integer;
// размер файла
Size: Integer;
Reserved2: DWORD;
end;
TPoifsPropsBlock = array[0..3] of TPoifsProperty;
```
**А читать их будем следующим кодом:**
```
function TPoifsFile.ReadPropsArray: Boolean;
var
I, J, Len: Integer;
PropsBlock: TPoifsPropsBlock;
begin
Result := True;
// инициализируем размер массива свойств
Len := 0;
// запоминаем номер первого сектора, в котором размещается Property Set Storage
J := FHeader._sectDirStart;
repeat
// читаем свойства блоками по 4 элемента
Inc(Len, 4);
SetLength(FPropsArray, Len);
PropsBlock := TPoifsPropsBlock(GetBlock(J));
for I := 0 to 3 do
FPropsArray[Len - 4 + I] := PropsBlock[I];
// читаем номер следующего сектора из FAT
J := FFat[J];
until J = ENDOFCHAIN;
end;
```
После этого у нас будет на руках:
1. массив значений FAT, каждое из которых содержит в себе номер секции с данными.
2. массив смещений на данные в файле
3. массив значений MiniFAT
4. массив свойств всех файлов
Что есть FAT и MiniFAT?
Грубо говоря составной файл представляет собой заголовок и массив секторов данных размером FHeader.\_uSectorShift, в которых лежит все остальное.
FAT содержит в себе порядок хранения данных в этих секторах (как содержимого файлов, так и сугубо служебных блоков не доступных пользователю).
К примеру, есть у нас файл размером 1 мегабайт, под него выделится ровно 2048 секторов, каждый из которых будет размером в 512 байт (по умолчанию).
Из-за фрагментации данные этого файла не всегда будут идти последовательно и, вполне возможна такая ситуация, что первые 10 секторов будут содержать в себе конец файла, а оставшиеся — его начало.
Чтобы понять, что за чем идет (порядок последовательности) нужно обратится к FAT и полю StartBlock из структуры TPoifsProperty, скомбинировав значения которых мы поймем, какой сектор содержит начало блока данных, а где его продолжение (просто пробежавшись по цепочке FAT).
Причем с минифатом будет все гораздо интереснее, там придется еще делать некоторые манипуляции, но об этом чуть попозже.
Впрочем, я немного отвлекся.
Для начала нужно решить другую задачу. Все элементы, представленные в массиве TPoifsProperty, связаны друг с другом посредством полей PreviousProp, NextProp и ChildProp, а также NodeColor. Классическое Red-Black-Tree.
Нам нужно из него построить стандартное дерево, восстановив структуру папок и файлов.
А вот когда мы ее построим, тогда и можно вытащить все данные из файла с сохранением их структуры.
Создадим новый проект, примерно вот такой:

Суть его будет заключаться в следующем: из указанного составного файла он будет извлекать структуру файлов и папок (отобразив ее в TreeView), после чего воспроизведет такую же иерархию папок в указанной директории и вытащит туда же данные всех файлов из хранилища.
Сделаем это в пять этапов, которые наглядно видны в обработчике кнопки Extract:
```
begin
FileStream := TFileStream.Create(edSrc.Text, fmOpenReadWrite);
try
AFile := TPoifsFile.Create(FileStream);
try
// читаем данные из составного файла
AFile.LoadFromStream;
ATree := TStorageTree.Create;
try
// Заполняем узлы
for I := 0 to AFile.PropertiesCount - 1 do
ATree.AddNode(I).Data := AFile[I];
// строим перекрестные ссылки
FillAllChilds(0, ATree.GetNode(0).Data.ChildProp);
// выводим ввиде дерева
TreeView1.Items.Clear;
FillTree(nil, 0);
// извлекаем все данные
DebugLog := TStringList.Create;
try
Extract(IncludeTrailingPathDelimiter(edDst.Text), 0);
if DebugLog.Count > 0 then
DebugLog.SaveToFile(IncludeTrailingPathDelimiter(edDst.Text) + 'cannotread.log');
finally
DebugLog.Free;
end;
finally
ATree.Free;
end;
finally
AFile.Free;
end;
finally
FileStream.Free;
end;
end;
```
Первый этап (чтение данных из файла) у нас уже реализован.
Перейдем ко второму и третьему.
Я не стал сильно мудрить и для восстановления структуры дерева взял за основу решения граф.
Идея простая, сначала добавим N узлов к графу, где каждый узел будет отвечать за один из элементов массива TPoifsProperty (собственно это видно в коде, блок «заполняем узлы»).
А следующим шагом нужно построить между узлами перекрестные ссылки, кто и на что ссылается.
Вообще само дерево строится достаточно просто, главное придерживаться нескольких простых правил:
* TPoifsProperty.ChildProp — всегда указывает на первый дочерний элемент в папке (заполнено только у папок)
* TPoifsProperty.PreviousProp — указывает на предыдущий элемент в рамках текущей папки.
* TPoifsProperty.NextProp — указывает на следующий элемент в рамках текущей папки.
Чтобы было нагляднее вот вам картинка:

Стрелка вниз, это ChildProp, вправо — NextProp, влево — PreviousProp.
В итоге сразу становится понятно, что в корне составного файла расположены два файла и одна папка, внутри которой размещены еще три файла.
**Впрочем, давайте посмотрим, как будет выглядеть третий этап, а именно построение ссылок между узлами графа.**
```
var
ATree: TStorageTree;
...
procedure FillAllChilds(RootIndex, CurrentIndex: Integer);
var
SubChildIndex: Integer;
RootNode, CurrNode, ChildNode: TStorageElement;
begin
if CurrentIndex < 0 then Exit;
// получаем ссылку на рутовый узел
RootNode := ATree.GetNode(RootIndex);
// получаем ссылку на добавляемый в него узел
CurrNode := ATree.GetNode(CurrentIndex);
if CurrNode = nil then Exit;
// если узел уже обработан - выходим
if CurrNode.Added then Exit;
CurrNode.Added := True;
// добавляем ссылку на него от рута
ATree.AddVector(RootNode, CurrNode);
// и у вновь добавленного вызываем добавление его чайлдов
FillAllChilds(CurrNode.ID, CurrNode.Data.ChildProp);
// теперь смотрим есть ли перед добавленным узлом еще элементы
SubChildIndex := CurrNode.Data.PreviousProp;
while SubChildIndex >= 0 do
begin
// если есть, добавляем их к руту
FillAllChilds(RootIndex, SubChildIndex);
ChildNode := ATree.GetNode(SubChildIndex);
if ChildNode <> nil then
SubChildIndex := ChildNode.Data.PreviousProp
else
SubChildIndex := -1;
end;
// то же самое делаем со всеми элементами, которые идут после текущего узла
SubChildIndex := CurrNode.Data.NextProp;
while SubChildIndex >= 0 do
begin
FillAllChilds(RootIndex, SubChildIndex);
ChildNode := ATree.GetNode(SubChildIndex);
if ChildNode <> nil then
SubChildIndex := ChildNode.Data.NextProp
else
SubChildIndex := -1;
end;
end;
```
Реализацию класса графа, представленного классом TStorageTree я рассматривать не буду, так как она не относится к теме статьи, код данного класса [потом увидите в исходниках](http://rouse.drkb.ru/blog/storage.zip).
Сейчас достаточно знать, что у него есть метод GetNode, возвращающий узел графа по его индексу (у которого есть ссылка на элемент массива TPoifsProperty, контролируемый им через свойство Data) и метод AddVector, создающий ссылку между двумя узлами графа.
**Теперь четвертый этап — на основе графа строим дерево папок и файлов.**
```
procedure FillTree(Node: TTreeNode; RootNodeIndex: Integer);
var
W: WideString;
TreeNode: TTreeNode;
I: Integer;
RootStorageNode, ChildStorageNode: TStorageElement;
begin
// получаем узел графа
RootStorageNode := ATree.GetNode(RootNodeIndex);
// добавляем его в дерево (назначаем имя и иконку)
W := RootStorageNode.Data.Caption;
TreeNode := TreeView1.Items.AddChildFirst(Node, W);
case RootStorageNode.Data.PropertyType of
STGTY_STORAGE: TreeNode.ImageIndex := 0;
STGTY_STREAM: TreeNode.ImageIndex := 1;
end;
// бежим по ссылкам от узла
for I := 0 to RootStorageNode.VectorCount - 1 do
begin
// смотрим, есть ли линк на дочерний узел (а вдруг мы папка?)
ChildStorageNode := TStorageElement(RootStorageNode.GetVector(I).SlaveNode);
if ChildStorageNode = nil then
Continue;
// если есть ссылка, и ссылка не на папку выше, то пускаем рекурсию
if ChildStorageNode.ID <> RootNodeIndex then
FillTree(TreeNode, ChildStorageNode.ID);
end;
end;
```
Банальная рекурсия.
Грубо бежим по узлам графа, начиная от корня, и ссылки на подчиненные узлы (получаемые из ребер графа GetVector(I).SlaveNode) являются тем, что хранится в текущей папке.
Спросите, почему не сделал построение дерева структуры на «Red-Black-Tree» с учетом поля NodeColor?
А шут его знает. Я этот алгоритм писал десяток лет назад и у меня есть золотое правило: «работает — не трогай там ничего». :)
И вот теперь мы подошли к пятому этапу — извлекаем данные во внешнюю папку.
Но для этого нужно прояснить для себя — как именно можно получить весь набор данных, ассоциированных с файлом.
Помните что я говорил про секцию FAT — данные не всегда будут идти последовательно и их нужно получать, ориентируясь на индексы секций, прописанных в FAT.
Смотрите, как можно получить данные «больших файлов» (размер которых больше или равен значению, хранящемуся в поле \_ulMiniSectorCutoff заголовка):
```
procedure TPoifsFile.GetDataFromStream(ChainStart: ULONG;
NeedLength: DWORD; const Stream: TStream);
begin
Stream.Size := 0;
while (Integer(ChainStart) >= 0) and (Stream.Size < NeedLength) do
begin
// получаем смещение на начало стрима
FStream.Position := GetBlockOffset(ChainStart);
// получаем указатель на следующий сектор
ChainStart := FFat[ChainStart];
// читаем часть данных
Stream.CopyFrom(FStream, FHeader._uSectorShift);
end;
// финальная правка
if Stream.Size > NeedLength then
Stream.Size := NeedLength;
end;
```
Финальная правка нужна из-за того что данные в секторах хранятся блоками, а реальный размер файла не всегда кратен их размеру.
Согласен, стоит переписать немного, чтобы убрать финальную правку, но — оно мне надо? :)
Впрочем, по параметрам, нас больше заинтересует ChainStart, в котором нет ничего секретного. Это значение поля StartBlock из структуры TPoifsProperty.
А вот так получаем данные для файлов меньшего размера, чем \_ulMiniSectorCutoff.
```
procedure TPoifsFile.GetDataFromMiniStream(ChainStart: ULONG;
NeedLength: DWORD; const Stream: TStream);
var
MiniStreamOffset: DWORD;
RealMiniStreamSector, TmpChain: Integer;
begin
Stream.Size := 0;
while (Integer(ChainStart) >= 0) and (Stream.Size < NeedLength) do
begin
// Смотрим в каком секторе должен располагаться данный Ministream
TmpChain := ChainStart;
RealMiniStreamSector := Properties[0].StartBlock;
while TmpChain >= 8 do
begin
Dec(TmpChain, 8);
RealMiniStreamSector := FFat[RealMiniStreamSector];
end;
// Получаем смещение сектора
MiniStreamOffset := GetBlockOffset(RealMiniStreamSector);
// получаем смещение на начало министрима
FStream.Position := MiniStreamOffset +
(ChainStart mod 8) * FHeader._uMiniSectorShift;
// получаем указатель на следующий блок министрима
ChainStart := FMiniFat[ChainStart];
// читаем часть данных
Stream.CopyFrom(FStream, FHeader._uMiniSectorShift);
end;
// финальная правка
if Stream.Size > NeedLength then
Stream.Size := NeedLength;
end;
```
Немножко хитрее, да?
Правда, если присмотреться, изменения тут только с расчетом офсета через TmpChain и тот же FAT. Если сектор выбивается за рамки дозволенного (восьмерку) то идем по цепочке FAT начиная от рута, пока TmpChain не станет меньше допустимого значения, ибо ссылка на минифат лежит именно в руте.
**Вот теперь можно написать процедуру извлечения данных любого файла, который мы укажем:**
```
procedure GetStorageData(ANode: TStorageElement; const Stream: TStream);
begin
if ANode.Data.Size < Integer(AFile.Header._ulMiniSectorCutoff) then
AFile.GetDataFromMiniStream(ANode.Data.StartBlock, ANode.Data.Size, Stream)
else
AFile.GetDataFromStream(ANode.Data.StartBlock, ANode.Data.Size, Stream);
end;
```
В данную процедуру мы будем передавать узел графа, который извлекается из составного файла в папку, и на основании его размера, вызывать один из реализованных выше методов.
**Вроде бы практически все, остался последний пятый этап — распаковка всего содержимого составного файла в папку.**
```
procedure Extract(Path: string; RootNodeIndex: Integer);
var
W: WideString;
I: Integer;
RootStorageNode, ChildStorageNode: TStorageElement;
F: TFileStream;
begin
RootStorageNode := ATree.GetNode(RootNodeIndex);
W := RootStorageNode.Data.Caption;
case RootStorageNode.Data.PropertyType of
STGTY_STORAGE:
Path := Path + W + '\';
STGTY_STREAM:
begin
try
ForceDirectories(Path);
F := TFileStream.Create(Path + W, fmCreate);
try
GetStorageData(RootStorageNode, F);
finally
F.Free;
end;
except
DebugLog.Add(Path + W);
end;
end;
end;
for I := 0 to RootStorageNode.VectorCount - 1 do
begin
ChildStorageNode := TStorageElement(RootStorageNode.GetVector(I).SlaveNode);
if ChildStorageNode = nil then
Continue;
if ChildStorageNode.ID <> RootNodeIndex then
Extract(Path, ChildStorageNode.ID);
end;
end;
```
Ну, здесь уже без комментариев. Все мы видели ранее — обычный алгоритм.
Если запустить созданный нами проект и натравить его на какой-нибудь вордовский документ, то выглядеть будет вот так:

А в папочке, куда мы это все извлекали, будет такое:

Не все файлы, да?
Ну, тут очень просто, если присмотритесь к именам в дереве, там видны какие-то черточки в виде "|" перед именем файла или непонятные пробелы перед «CompObj».
Это как раз те зарезервированные под OLE символы, о которых я говорил еще в первой главе (от 0 до 0x1F). Создать файлы с такими символами в наименованиях я не могу, поэтому они пропущены, но данные о них записаны в лог: «cannotread.log».
Конечно, это можно легко обработать, но для демки пойдет и так.
Код данного примера в архиве [в папке "..\RawStorageReader\".](http://rouse.drkb.ru/blog/storage.zip)
Впрочем, зачем мы это все написали?
Давайте попробуем при помощи нашего приложения, которое мы написали в предыдущей главе открыть вот такой файл: "..\corrupted\corrupted\_storage.bin"
Будет как-то так:

О как, давайте тогда ридером из второй главы, напрямую через API:

Печаль, тогда посмотрим что за беда, и откроем этот файл уже в RAW режиме:

Ага, ошибка чтения, смотрим стек:

Ошибка на этапе чтения свойств файлов, не смогли выполнить ReadBuffer в функции GetBlock.
Будем решать.
#### 6. Пробуем исправить ошибку в данных и читаем все что доступно.
Еще в самом начале статьи я говорил о целой когорте различных «восстанавливателей» документов от Word. Сейчас будем писать что-то наподобие них. :)
Все эти утилиты работают в двух режимах.
* они знают о формате составного файла.
* они знают о формате данных, которые Word хранит в своих стримах.
Я, конечно, не обладаю информацией о втором пункте, да и не надо оно мне, а вот о первом, после прочтения пятой главы, вы и сами знаете. :)
Вообще ошибок связанных с разрушением составного файла может быть всего четыре:
* убит заголовок (как правило, заполнен нулями)
* разрушен FAT
* не доступны данные TPoifsProperty
* изменены данные файлов в секторах
Первое — не лечится. Нет, ну может и найдется какой фанат и попробует вычислить значения первых секторов для построения FAT, но я таких не встречал.
Второе — практически не лечится.
Зная, что FAT содержат номера секторов, мы можем определить разрушение по следующему условию: следующее значение меньше чем константа ENDOFCHAIN (-2) или больше чем размер FAT массива.
Исправить можно изменением значения сбойного блока на константу ENDOFCHAIN, но, как правило, даже после такого вмешательства сектор минифат считается частично, да и массив свойств файлов будет доступен минимально (и то если повезет).
Третий вариант лечится.
Грубо, смотрим адрес ячейки FAT, где произошла ошибка чтения сектора, и выставляем ей значение ENDOFCHAIN. Этим мы, конечно, отрезаем кусок данных (в 99 процентах случаев убитых), но зато прочитаем то, что реально нам доступно.
Четвертый вариант не лечится, так как эти данные не принадлежат составному файлу, он просто их хранит, но он их не контролирует (только размер — не более).
Начинаем анализировать:
По хорошему мы можем справиться только с третьей проблемой, а именно — определить номер сбойного FAT индекса и поправить его.
Зная как работать с данными в RAW режиме, нам это не составит большого труда.
Для начала изменим процедуру чтения блоков данных:
```
function TPoifsFile.GetBlock(Adress: Integer): TPoifsBlock;
var
BlockOffset: Integer;
begin
BlockOffset := GetBlockOffset(Adress);
if BlockOffset < FStream.Size then
begin
FStream.Position := BlockOffset;
FStream.ReadBuffer(Result, SizeOf(TPoifsBlock));
end
else
raise Exception.Create('Wrong block offset at addres: ' + IntToStr(Adress));
end;
```
Пусть теперь она проверяет оффсеты и поднимет исключение, если вдруг что-то не срослось.
Второе изменение сделаем в процедуре ReadPropsArray, где будем более строго контролировать состояние FAT массива:
```
function TPoifsFile.ReadPropsArray: Boolean;
var
I, J, Len, LastGood: Integer;
PropsBlock: TPoifsPropsBlock;
begin
Result := True;
// инициализируем размер массива свойств
Len := 0;
// запоминаем номер первого сектора, в котором размещается Property Set Storage
J := FHeader._sectDirStart;
LastGood := J;
repeat
if J = FREESECT then
begin
FixFatEntry(LastGood, ENDOFCHAIN);
Break;
end;
// читам свойства блоками по 4 элемента
Inc(Len, 4);
SetLength(FPropsArray, Len);
// читаем с автоматической правкой
try
PropsBlock := TPoifsPropsBlock(GetBlock(J));
except
FixFatEntry(LastGood, ENDOFCHAIN);
Break;
end;
for I := 0 to 3 do
FPropsArray[Len - 4 + I] := PropsBlock[I];
LastGood := J;
// читаем номер следующего сектора из FAT
J := FFat[J];
if J < ENDOFCHAIN then
begin
FixFatEntry(LastGood, ENDOFCHAIN);
Break;
end;
until J = ENDOFCHAIN;
end;
```
Ну и осталось написать процедуру FixFatEntry:
```
procedure TPoifsFile.FixFatEntry(FatIndex, NewValue: Integer);
var
J, Offset: Integer;
begin
// Ищем оффсет в FAT цепочке
J := FatIndex mod 128;
Offset := FFatOffset[FatIndex] + J * 4;
// и пишем вместо сбойного значения новое
FStream.Position := Offset;
FStream.WriteBuffer(NewValue, SizeOf(Integer));
end;
```
Именно при помощи нее мы будем производить изменения FAT цепочки в оригинальном файле.
Теперь давайте посмотрим что получилось:

Ба… да там целая куча данных :)
Некоторые, конечно, слегка поломаны, но большую часть мы вытащили.
Вообще, для данного варианта ошибки, править данные в файле через процедуру FixFatEntry не всегда обязательно и можно пропустить вызов FStream.WriteBuffer.
Дело в том, что даже после такой правки, что утилита из второй главы, что из третьей, откроют такой составной файл, но скажут что он пуст, такая вот закавыка.
Но зато теперь у вас есть весь набор данных о составном файле :)
Код данного класса с поддержкой восстановления найдете в архиве [по следуюющему пути: "..\RawStorageReader\PoifsWithRepair.pas"](http://rouse.drkb.ru/blog/storage.zip).
Пожалуй, будем закругляться.
#### 7. Выводы и статистика
Если честно — я очень сильно боюсь, что своей статьей я вас оттолкнул от использования данной технологии.
Вся проблема в том, что не нужно допускать одной, самой распространенной ошибки — если приложение, открывшее составной файл на запись, будет некорректно завершено, составной файл **однажды** (не всегда, но) может быть разрушен.
Разрушен будет не просто так — это произойдет на этапе записи в файл, которая может внезапно прерваться.
Как думаете, сколько есть программных продуктов, которые отслеживают такую ситуацию?
Если скажете что много, возражу, да и механизм у них один — транзакции, во время которой я вытащу флэшку, на которую сохраняются данные :)
Хотя, давайте, я вам приведу немного статистики:
Все ошибки, которые я описал в статье, происходили, конечно, не единовременно.
Это накопленная мной база возможных (вероятных) ошибок.
Согласитесь, даже если мы будем использовать обычный текстовый файл, однажды мы сможем записать в него не совсем те данные, которые хотели.
А теперь статистика:
За последние 8 с половиной лет (скажем, дата отсчета реализации инструмента чтения составного файла в RAW режиме) у меня есть в наличии ровно 473 файла разрушенных баз, которые прислали нам наши пользователи.
Если брать за среднее количество пользователей тогда и сейчас, и осреднить — получится грубо 150 тысяч станций, на которых ежедневно запускалось наше ПО.
В течении 24 рабочих дней, ежемесячно и в течении 12 месяцев каждый год.
Считаем: 150000 ежедневных запусков \* 24 дня \* 12 месяцев \* 8 лет = 345 с копейками миллионов запусков (усредненное).
По факту, на руках я имею ровно 473 «поломатых» файла (иногда бывает 1-2 в месяц, иногда месяцами затишье). Из них (этот момент нужно учесть), около сотни были с битым FAT (а как я и говорил — битый фат, крайне плохо).
Так вот, практически вся эта сотня битых на уровне FAT-а файлов — это были удаленные составные файлы, которые потом восстанавливали утилитами типа UnErase и спрашивали: мол что с ним можно сделать?
А с ними делать уже нечего — не мы удаляли, не нам и восстанавливать.
Поэтому, откинув эту сотню, давайте посмотрим: каков шанс поломки составного файла?
Да всего лишь 1 к миллиону — CD при быстрой скорости записи чаще сбоить будет, чем это число :)
Не верите?
Напишите тест открытия такого файла с принудительным завершением процесса в нештатном режиме (к примеру, по разрушению стека) и посчитайте сколько файлов разрушиться?
Думаете это все еще не надежно?
Отлично — скажу следующее: данные файлы работают в рамках транзакционной модели.
Если сможете прямо вот так с ходу набросать код гарантированного «убития» данного файла по некорректному закрытию — с меня печенька :)
Ну а если думаете, что и этот тест не надежен, то скажу — у оставшихся файлов данные были восстановлены практически целиком, обычно не хватало только последнего кусочка (грубо небольшой части данных сметы, которая была не принципиальна).
Поэтому запомните два простых правила, чтобы добавить еще немного страховки:
* Не используйте составные файлы в том случае, если ваше приложение может работать с флэшки — убьете файл при вытаскивании флешки, если в этот момент ваше приложение запущено и лочит данный файл.
* Ставьте векторные исключения через AddVectoredExceptionHandler. Если у вас ошибка связанная со стеком — ваше приложение рухнет не успев добраться до первого обработчика SEH. А в векторном исключении вы, по крайней мере, корректно закроете файл — большего ведь и не нужно. (Потом при необходимости откроете его заново, если вдруг был False Alarm :)
Ну а я заканчиваю свое повествование, а исходный код к статье [можно забрать тут](http://rouse.drkb.ru/blog/storage.zip).
Как обычно, выражаю Благодарность участникам форума "[Мастера Дельфи](http://www.delphimaster.ru/)" за помощь с вычиткой статьи перед публикацией.
ЗЫ: кстати, по поводу поддержки длинных имен файлов (длиной до 1024 символа). Задумайтесь, а как вы будете распаковывать содержимое составного файла в обычную файловую систему, которая может быть даже не NTFS? :)
Удачи :)
— Александр (Rouse\_) Багель
Март, 2015 | https://habr.com/ru/post/254541/ | null | ru | null |
# Google AI Challenge. Как написать своего бота. Часть 1, 2
###### Этот топик — перевод первых двух частей руководства по написанию своего бота для Google AI Challenge.
Весь код написан на языке Python.
#### Шаг 1: Как избежать столкновений
##### План
Чтобы муравьи не сталкивались надо:
1) Предотвратить перемещение одного муравья на другого;
2) Предотвратить перемещение двух муравьев в одну и ту же точку;
3) отслеживать информацию о местонахождении всех наших муравьёв.
##### Реализация
Для отслеживания информации о том, где муравьи находятся, мы будем использовать словарь (он же HashMap, ассоциативный массив, JavaScript-объект). Каждый ключ массива будет позицией, а значение — муравей, который движется в эту точку. Местоположение будет кортежом (списоком, массивом) из двух значений — строк и столбцов на карте. Затем мы можем проверить список, прежде чем двигаться, чтобы 2 муравья не двигались на одно и то же место. Каждый раз, когда мы перемещаем муравья, мы должны обновить список.
Эта проверка будет пригодится в дальнейшем в руководстве, так что мы сделаем функцию, которая проверяет, возможен ли данный шаг. Она возвращает логическое (истина или ложь) значение.
##### Код
Вырежем комментарии из кода из примера и вставим новый код новый код:
```
def do_turn(self, ants):
# track all moves, prevent collisions
orders = {}
def do_move_direction(loc, direction):
new_loc = ants.destination(loc, direction)
if (ants.unoccupied(new_loc) and new_loc not in orders):
ants.issue_order((loc, direction))
orders[new_loc] = loc
return True
else:
return False
# default move
for ant_loc in ants.my_ants():
directions = ('n','e','s','w')
for direction in directions:
if do_move_direction(ant_loc, direction):
break
```
(Примечание: Убедитесь, что отступы правильные. В Python отступы определяют блоки кода и области видимости, поэтому отступы должны быть правильными)
Функция Do\_move\_direction принимает позицию муравья (кортеж (строка, столбец)) и направление ('N', 'е', 'S' или 'W') и пытается выполнить движение. Эта функция находится внутри метода класса (который также является функцией) и это нормально в Python. (Если вы пишете на другом языке, то, возможно, потребуется поставить функцию в другом месте) Мы используем некоторые предопределенные функции из начального бота:
ants.destination принимает местоположение и направление и возвращается место назначения для нас. Эта функция обрабатывает перемещение муравья через край карты, нам не нужно думать об этом
ants.unoccupied принимает местоположение и определяет, можно ли переместить туда муравья. Это лучше, чем ants.passable, которая не позволит нам переместится на еду или другич муравьёв.
Ассоциативный массив orders используется для отслеживания текущих движений. Проверка занятости new\_loc и её отсутствие в массиве orders поможет предотвратить столкновения.
##### Результат
Давайте запустим бота снова и посмотрим:
`C:\aichallenge>tutorial.cmd
running for 60 turns
ant_count c_turns climb? cutoff food r_turn ranking_bots s_alive s_hills score w_turn winning
turn 0 stats: [1,1,0] 0 [1,1] - 18 0 None [1,1] [1,1] [1,1] 0 None
turn 1 stats: [1,1,0] 0 [1,1] - 16 1 [0,0] [1,1] [1,1] [1,1] 1 [0,1]
turn 2 stats: [2,1,0] 0 [1,1] - 16 1 [0,0] [1,1] [1,1] [1,1] 1 [0,1]
...
turn 60 stats: [1,5,0] 0 [1,1] - 12 1 [0,0] [1,1] [1,1] [1,1] 1 [0,1]
score 1 1
status survived survived
playerturns 60 60`
Повтор: <http://aichallenge.org/ants_tutorial_step_1.php>
Уже лучше, но все еще не очень хорошо. Один одинокий муравей вышел и сразился с HunterBot. Это не самоубийство, а улучшение. Кроме того, мы создали вспомогательную функцию, которая пригодится позже.
#### Шаг 2: Сбор еды
##### План
Нам нужно более двух муравьёв чтобы победить, и есть еда недалеко от стартовой позиции муравья! Давайте попробуем собрать её. Мы должны переместить муравья к еде чтобы собрать её. Мы также хотим сделать это эффективно. Вы заметили, что HunterBot послал половину всех его муравьёв за едой в последней игре? Кажется, что это может быть неэффективно.
Мы собираемся реализовать нечто похожее на приоритетную очередь. Мы сделаем список всех наших муравьев, а затем посмотрим, как далеко он находится от каждой еды. Затем мы отсортируем список и отправить каждого муравья к ближайшей пищи, но только по одному муравью к одной еде. Другие муравьи будут свободны и будут заниматься другими важными делами. Мы также избавимся от глупых движений по умолчанию, которые остались от стартового бота.
##### Реализация
Чтобы отслеживать информацию о еде, за которой уже идут муравьи, нам нужен еще один массив. Он будет хранить расположение целевой пищи как ключ, и расположение муравьев, которые идут за ней в качестве значения. Мы можем проверять ключ цели, чтобы убедиться что мы не отправляем два муравья к одной и той же пищи. Мы создадим другую вспомогательную функцию, чтобы сделать несколько иной тип движения. Вместо расположения муравьев и направления, мы сделаем расположение муравьев и целевое расположение, и функция будет выяснять направление.
##### Код
Создайте следующие функции после функции do\_move\_direction:
```
targets = {}
def do_move_location(loc, dest):
directions = ants.direction(loc, dest)
for direction in directions:
if do_move_direction(loc, direction):
targets[dest] = loc
return True
break
else:
return False
```
Массив targets отслеживает муравьёв и их цель — еду. Мы используем другую стандартную функцию бота, чтобы помочь нам:
ants.direction принимает текущее место и цель, и возвращает список ближайших направлении «по прямой». Если цель вверху слева, то он вернет ['N', 'W'], и мы должны затем попытаться переместить нашего муравья в одно из этих двух направлений. Если цель прямо внизу, то он вернет ['S'] — список из одного элемента.
Заменим функцию move этим:
```
# find close food
ant_dist = []
for food_loc in ants.food():
for ant_loc in ants.my_ants():
dist = ants.distance(ant_loc, food_loc)
ant_dist.append((dist, ant_loc, food_loc))
ant_dist.sort()
for dist, ant_loc, food_loc in ant_dist:
if food_loc not in targets and ant_loc not in targets.values():
do_move_location(ant_loc, food_loc)
```
Здесь у нас есть список — ant\_dist — который будет хранить для каждого муравья сочетание пищи и расстояния как кортеж (расстояние, ant\_loc, food\_loc). Список строится вложенным циклом чтобы дать нам каждую комбинацию. Далее мы сортируем список. Python-списки имеют несколько полезных функций для сортировки. Чтобы отсортировать кортеж, питон будет сравнить первые значения каждого кортежа, а затем, если они такие же, перейдем к второму значению и так далее. Именно поэтому мы сохранили расстояние как первое значение, чтобы убедиться, что кратчайшее расстояние являются первыми в списке.
Далее мы в цикле по отсортированному списку проверяем есть ли у нас любые свободные муравьи которые могут собирать пищу. Food\_loc not in targets проверяет, имеет ли пища муравья который уже идёт за ней. Ant\_loc not in targets.values() проверяет что муравью еще не было дано задание. Если муравей будет найден, мы вызываем do\_move\_location.
##### Результат
Давайте запустим бота снова и посмотрим:
`C:\aichallenge>tutorial.cmd
running for 60 turns
ant_count c_turns climb? cutoff food r_turn ranking_bots s_alive s_hills score w_turn winning
turn 0 stats: [1,1,0] 0 [1,1] - 18 0 None [1,1] [1,1] [1,1] 0 None
turn 1 stats: [1,1,0] 0 [1,1] - 16 1 [0,0] [1,1] [1,1] [1,1] 1 [0,1]
turn 2 stats: [1,1,0] 0 [1,1] - 16 1 [0,0] [1,1] [1,1] [1,1] 1 [0,1]
...
turn 60 stats: [4,6,0] 0 [1,1] - 6 1 [0,0] [1,1] [1,1] [1,1] 1 [0,1]
score 1 1
status survived survived
playerturns 60 60`
Повтор: <http://aichallenge.org/ants_tutorial_step_2.php>
Вся пища, которую мы могли видеть, была захвачена. Если вы внимательно посмотрите на повтор, вы можете увидеть у нас еще есть 3 муравья у муравейника которые не могут появиться. В будущем лучше позаботиться об этом. Если муравьи не могут выйти, они не могут помочь нам победить.
Оригинал:
* <http://aichallenge.org/ants_tutorial_step_1.php>
* <http://aichallenge.org/ants_tutorial_step_2.php>
**P.S.** пока эта статья проходила через песочницу, [webkumo](https://habrahabr.ru/users/webkumo/) опубликовал похожую [статью](http://habrahabr.ru/blogs/sport_programming/130946/). Его статья содержит Ants Tutorial и Step 1: Avoiding collisions, эта — Step 1: Avoiding collisions и Step 2: Gathering Food. | https://habr.com/ru/post/130931/ | null | ru | null |
# Начинаем работу Python + Qt5 + QML урок №1
Всем привет. Сегодня познакомимся с QML. Узнаем что это такое и с чем его едят. Создадим небольшое приложение с использованием данной технологии.
### Небольшое отступление:
QML (Qt Meta Language) — декларативный язык программирования, основанный на JavaScript, предназначенный для создания дизайна приложений. Является частью Qt Quick, среды разработки пользовательского интерфейса, которая поставляется вместе с Qt.
В качестве примера декларативных языков можно привести SQL и HTML. Подробнее о QML можете почитать здесь: [документация](https://wiki.qt.io/IntroductionQtQuick/ru).
Начнем, пожалуй, с самого простого: создания окна. Создаем два файла base.qml и test.py следующего содержания:
base.qml
```
import QtQuick 2.0
Rectangle {
//задаем свойства нашему прямоугольнику
id:green_rectangle
width: 250; height: 250
//цвет нашего прямоугольника
color:"green"
//аналогично свойству border-radius
radius: 7
}
```
test.py
```
import sys
# Класс QUrl предоставляет удобный интерфейс для работы с Urls
from PyQt5.QtCore import QUrl
from PyQt5.QtWidgets import QApplication, QWidget
# Класс QQuickView предоставляет возможность отображать QML файлы.
from PyQt5.QtQuick import QQuickView
if __name__ == '__main__':
app = QApplication(sys.argv)
# Объект QQuickView, в который грузится UI для отображения
view = QQuickView()
view.setSource(QUrl('base.qml'))
view.show()
app.exec_()
sys.exit()
```
Код файла test.py должен быть вам полностью понятен, но если все же он вызывает у вас трудности, рекомендую пройти курс по PyQt5 здесь: <https://pythonworld.ru/gui/pyqt5-firstprograms.html>
Собственно это и есть простейший пример работы с qml, на выходе мы получим окно, размером 250X250 залитое зеленым цветом:

В QML, основным видимым элементом является элемент Rectangle. Элемент Rectangle имеет свойства для управления внешним видом и местоположением элемента, которые мы можем ему задавать, например, такие:
```
id: (уникальный идентификационный номер, нужен для обращения к объекту)
x: y: (отступы от родителя в px)
width: height: (ширина и высота)
color: (цвет заливки)
border.color: (цвет границы)
border.width: (ширина границы)
radius: (аналогично border-radius)
```
Другие свойства мы рассмотрим чуть позже.
Немного усложним задачу: создадим окно в котором будет прямоугольник с надписью: "Hello World":
```
Rectangle {
id:rec_main
width: 300; height: 300
color:"#fff"
radius: 7
Rectangle {
id:rec_green
width: 150; height: 150
color:"green"
radius: 7
border.color: "#0000FF"
border.width: 5
anchors.verticalCenter: parent.verticalCenter
anchors.horizontalCenter: parent.horizontalCenter
Text {
id: helloText
text: "Hello world!"
anchors.verticalCenter: parent.verticalCenter
anchors.horizontalCenter: parent.horizontalCenter
font.pointSize: 10; font.bold: true
}
}
}
```
Теперь мы получим такой результат:

Здесь мы центрируем по вертикали и горизонтали наш объект относительно родителя anchors.verticalCenter: parent.verticalCenter,anchors.horizontalCenter: parent.horizontalCenter. Parent позволяет обратится к родителю, в нашем случае родителем объекта Text является Rectangle с id:rec\_green.
В общем теперь вы должны понять, что интерфейс на QML строится на иерархии объектов. В нашем случае это выглядит так:

Сделали прямоугольник с надписью. Хм… Пока это мало напоминает полезный интерфейс, давайте добавим кнопку по клике на которую в консоль будет выводится надпись: "Hey Programmer".
Немного изменим код, теперь он будет выглядеть так:
```
import QtQuick 2.0
Rectangle {
id:rec_white
width: 300
height: 300
Rectangle {
id:btn_green
width: 80
height: 40
color:"green"
radius: 7
border.color: "#0000FF"
border.width: 1
anchors.verticalCenter: parent.verticalCenter
anchors.horizontalCenter: parent.horizontalCenter
Text {
id: btn_green_label
text: "Click me"
anchors.horizontalCenter: parent.horizontalCenter
anchors.verticalCenter: parent.verticalCenter
}
MouseArea {
anchors.fill: parent
onClicked: {
console.log("Hey Programmer");
}
}
}
}
```
В итоге получаем:

Здесь мы добавляем объект MouseArea, позволяющий работать с мышью.
anchors.fill: parent — говорим, что вся область родителя будет задействована.
onClicked — событие нажатия на кнопку. В нашем случае, вызывается функция, выводящая в консоль: 'Hey Programmer'.
На этом, пожалуй, сегодня и закончим. В следующих статьях разберем qml более подробно.
Пока вы, возможно, не видите преимуществ использования qml, но когда мы познакомимся с этим замечательным инструментом подробнее, вы поймете какой он удобный и функциональный.
Спасибо за внимание. Если у вас остались вопросы задавайте их в комментариях. Надеюсь статья была вам полезна. | https://habr.com/ru/post/326268/ | null | ru | null |
# Javascript: чтение двоичных данных из реестра
Сегодня возникла необходимость узнать смещение по вертикали панели задач Windows из HTA приложения используя JavaScript.
Необходимое значение находится в HKEY\_CURRENT\_USER\Software\Microsoft\Internet Explorer\Desktop\Components\0, двоичный параметр Position.
В итоге получился следующий код:
`var wsh = new ActiveXObject("WScript.Shell");
var key = "HKEY_CURRENT_USER\\Software\\Microsoft\\Internet Explorer\\Desktop\\Components\\0\\Position";
var regdata=wsh.RegRead(key)
var retval=parseInt('0x'+regdata.getItem(17).toString(16)+regdata.getItem(16).toString(16));`
Все это и много другое в HTA проекте HTAPrEx — [HTA Remote Process Explorer](http://code.google.com/p/htaprex/) | https://habr.com/ru/post/65679/ | null | ru | null |
# 9 команд для проверки информации о CPU в Linux
**Информация об аппаратном обеспечении CPU**
Информация о CPU (Central Processing Unit. Центральный процессор) включает в себя подробные сведения о процессоре, такие как архитектура, название производителя, модель, количество ядер, скорость каждого ядра и т.д.
В linux существует довольно много команд для получения подробной информации о CPU.
В этой статье мы рассмотрим некоторые из часто встречающихся команд, которые можно использовать для получения подробной информации о CPU.
**1. /proc/cpuinfo**
Файл /proc/cpuinfo содержит подробную информацию об отдельных ядрах CPU.
Выведите его содержимое с помощью `less` или `cat`.
```
$ less /proc/cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 23
model name : Intel(R) Core(TM)2 Quad CPU Q8400 @ 2.66GHz
stepping : 10
microcode : 0xa07
cpu MHz : 1998.000
cache size : 2048 KB
physical id : 0
siblings : 4
core id : 0
cpu cores : 4
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 13
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx lm constant_tsc arch_perfmon pebs bts rep_good nopl aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm sse4_1 xsave lahf_lm dtherm tpr_shadow vnmi flexpriority
bogomips : 5303.14
clflush size : 64
cache_alignment : 64
address sizes : 36 bits physical, 48 bits virtual
power management:
```
Каждый процессор или ядро перечислены отдельно, а различные подробности о скорости, размере кэша и названии модели включены в описание.
Чтобы подсчитать количество процессоров, используйте `grep` с `wc`
```
$ cat /proc/cpuinfo | grep processor | wc -l
4
```
Количество процессоров, показанное в /proc/cpuinfo, может не соответствовать реальному количеству ядер процессора. Например, процессор с 2 ядрами и гиперпоточностью будет показан как процессор с 4 ядрами.
Чтобы получить фактическое количество ядер, проверьте идентификатор ядра на наличие уникальных значений
```
$ cat /proc/cpuinfo | grep 'core id'
core id : 0
core id : 2
core id : 1
core id : 3
```
Соответственно, есть 4 разных идентификатора ядра. Это указывает на то, что существует 4 реальных ядра.
**2. lscpu - отображение информации об архитектуре CPU**
`lscpu` - это небольшая и быстрая команда, не требующая никаких опций. Она просто выводит информацию об аппаратном обеспечении CPU в удобном для пользователя формате.
```
$ lscpu
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 4
On-line CPU(s) list: 0-3
Thread(s) per core: 1
Core(s) per socket: 4
Socket(s): 1
NUMA node(s): 1
Vendor ID: GenuineIntel
CPU family: 6
Model: 23
Stepping: 10
CPU MHz: 1998.000
BogoMIPS: 5303.14
Virtualization: VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache: 2048K
NUMA node0 CPU(s): 0-3
```
**3. hardinfo**
`Hardinfo` - это gui инструмент на базе gtk, который генерирует отчеты о различных аппаратных компонентах. Но он также может запускаться из командной строки, в случае если отсутствует возможность отображения gui (Graphical User Interface — графический интерфейс пользователя).
```
$ hardinfo | less
```
Он создаст большой отчет о многих аппаратных частях, читая файлы из каталога /proc. Информация о CPU находится в начале отчета. Отчет также может быть записан в текстовый файл.
Hardinfo выполняет несколько эталонных тестов, занимающих несколько минут, прежде чем вывести отчет на экран.
**4. lshw**
Команда `lshw` может отобразить ограниченную информацию о CPU. lshw по умолчанию показывает информацию о различных аппаратных частях, а опция '`-class`' может быть использована для сбора информации о конкретной аппаратной части.
```
$ sudo lshw -class processor
*-cpu
description: CPU
product: Intel(R) Core(TM)2 Quad CPU Q8400 @ 2.66GHz
vendor: Intel Corp.
physical id: 0
bus info: cpu@0
version: Intel(R) Core(TM)2 Quad CPU Q8400 @ 2.66GHz
slot: LGA 775
size: 1998MHz
capacity: 4GHz
width: 64 bits
clock: 333MHz
capabilities: fpu fpu_exception wp vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx x86-64 constant_tsc arch_perfmon pebs bts rep_good nopl aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm sse4_1 xsave lahf_lm dtherm tpr_shadow vnmi flexpriority cpufreq
```
Производитель, модель и скорость процессора отображаются правильно. Однако из приведенного выше результата невозможно определить количество ядер в процессоре.
Чтобы узнать больше о команде lshw, ознакомьтесь с этой статьей:
[Примеры выполнения команды lshw для получения информации об аппаратном обеспечении в Linux](https://www.binarytides.com/linux-lshw-command/)
**5. nproc**
Команда `nproc` просто выводит количество доступных вычислительных блоков. Обратите внимание, что количество вычислительных блоков не всегда совпадает с количеством ядер.
```
$ nproc
4
```
**6. dmidecode**
Команда `dmidecode` отображает некоторую информацию о CPU, которая включает в себя тип сокета, наименование производителя и различные флаги.
```
$ sudo dmidecode -t 4
# dmidecode 2.12
SMBIOS 2.4 present.
Handle 0x0000, DMI type 4, 35 bytes
Processor Information
Socket Designation: LGA 775
Type: Central Processor
Family: Pentium D
Manufacturer: Intel(R) Corporation
ID: 7A 06 01 00 FF FB EB BF
Signature: Type 0, Family 6, Model 23, Stepping 10
Flags:
FPU (Floating-point unit on-chip)
VME (Virtual mode extension)
DE (Debugging extension)
PSE (Page size extension)
TSC (Time stamp counter)
MSR (Model specific registers)
PAE (Physical address extension)
MCE (Machine check exception)
CX8 (CMPXCHG8 instruction supported)
APIC (On-chip APIC hardware supported)
SEP (Fast system call)
MTRR (Memory type range registers)
PGE (Page global enable)
MCA (Machine check architecture)
CMOV (Conditional move instruction supported)
PAT (Page attribute table)
PSE-36 (36-bit page size extension)
CLFSH (CLFLUSH instruction supported)
DS (Debug store)
ACPI (ACPI supported)
MMX (MMX technology supported)
FXSR (FXSAVE and FXSTOR instructions supported)
SSE (Streaming SIMD extensions)
SSE2 (Streaming SIMD extensions 2)
SS (Self-snoop)
HTT (Multi-threading)
TM (Thermal monitor supported)
PBE (Pending break enabled)
Version: Intel(R) Core(TM)2 Quad CPU Q8400 @ 2.66GHz
Voltage: 1.6 V
External Clock: 333 MHz
Max Speed: 4000 MHz
Current Speed: 2666 MHz
Status: Populated, Enabled
Upgrade: Socket LGA775
L1 Cache Handle: 0x0003
L2 Cache Handle: 0x0001
L3 Cache Handle: Not Provided
Serial Number: Not Specified
Asset Tag: Not Specified
Part Number: Not Specified
```
**7. cpuid**
Команда `cpuid` собирает информацию [CPUID](https://en.wikipedia.org/wiki/CPUID) о процессорах Intel и AMD x86.
Программа может быть установлена с помощью `apt` на ubuntu
```
$ sudo apt-get install cpuid
```
А вот пример вывода
```
$ cpuid
.....
Vendor ID: "GenuineIntel"; CPUID level 13
Intel-specific functions:
Version 0001067a:
Type 0 - Original OEM
Family 6 - Pentium Pro
Model 7 - Pentium III/Pentium III Xeon - external L2 cache
Stepping 10
Reserved 4
Extended brand string: "Intel(R) Core(TM)2 Quad CPU Q8400 @ 2.66GHz"
CLFLUSH instruction cache line size: 8
Initial APIC ID: 2
Hyper threading siblings: 4
Feature flags bfebfbff:
FPU Floating Point Unit
VME Virtual 8086 Mode Enhancements
DE Debugging Extensions
PSE Page Size Extensions
TSC Time Stamp Counter
MSR Model Specific Registers
PAE Physical Address Extension
MCE Machine Check Exception
CX8 COMPXCHG8B Instruction
APIC On-chip Advanced Programmable Interrupt Controller present and enabled
SEP Fast System Call
MTRR Memory Type Range Registers
PGE PTE Global Flag
MCA Machine Check Architecture
CMOV Conditional Move and Compare Instructions
FGPAT Page Attribute Table
PSE-36 36-bit Page Size Extension
CLFSH CFLUSH instruction
DS Debug store
ACPI Thermal Monitor and Clock Ctrl
MMX MMX instruction set
FXSR Fast FP/MMX Streaming SIMD Extensions save/restore
SSE Streaming SIMD Extensions instruction set
SSE2 SSE2 extensions
SS Self Snoop
HT Hyper Threading
TM Thermal monitor
31 reserved
.....
```
**8. inxi**
Inxi - это скрипт, который использует другие программы для создания хорошо структурированного легко читаемого отчета о различных аппаратных компонентах системы. Ознакомьтесь с [полным руководством по inxi](https://www.binarytides.com/inxi-system-information-linux/).
```
$ sudo apt-get install inxi
```
Вывод соответствующей информации о CPU/процессоре
```
$ inxi -C
CPU: Quad core Intel Core2 Quad CPU Q8400 (-MCP-) cache: 2048 KB flags: (lm nx sse sse2 sse3 sse4_1 ssse3 vmx)
Clock Speeds: 1: 1998.00 MHz 2: 1998.00 MHz 3: 1998.00 MHz 4: 1998.00 MHz
```
Чтобы узнать больше о команде inxi и ее использовании, ознакомьтесь с этой статьей:
[Inxi - удивительный инструмент для проверки информации об аппаратном обеспечении в Linux](https://www.binarytides.com/inxi-system-information-linux/)
**9. Hwinfo**
Команда `hwinfo` - это программа для получения информации об оборудовании, которая может быть использована для сбора подробных сведений о различных аппаратных компонентах в системе Linux.
Она также отображает информацию о процессоре. Вот быстрый пример:
```
$ hwinfo --short --cpu
cpu:
Intel(R) Core(TM) i5-7400 CPU @ 3.00GHz, 2275 MHz
Intel(R) Core(TM) i5-7400 CPU @ 3.00GHz, 2262 MHz
Intel(R) Core(TM) i5-7400 CPU @ 3.00GHz, 2058 MHz
Intel(R) Core(TM) i5-7400 CPU @ 3.00GHz, 2133 MHz
$
```
Если не использовать опцию "--short", команда отобразит гораздо больше информации о каждом ядре CPU, например, архитектуру и характеристики процессора.
Чтобы более подробно изучить команду hwinfo, ознакомьтесь с этой статьей:
[Проверка информации об аппаратном обеспечении в Linux с помощью команды hwinfo](https://www.binarytides.com/linux-hwinfo-command/)
**Заключение**
Это были некоторые команды для проверки информации о CPU в системах на базе Linux, таких как Ubuntu, Fedora, Debian, CentOS и др.
Примеры других команд для проверки информации о CPU смотрите в этой статье:
[Как проверить информацию о процессоре и CPU в Linux - примеры команд](https://www.binarytides.com/linux-check-processor/)
Большинство команд обрабатываются с помощью интерфейса командной строки и выводятся в текстовом формате. Для GUI интерфейса используйте программу Hardinfo.
Она показывает подробности об аппаратном обеспечении различных компонентов в простом для использования GUI интерфейсе.
Если вы знаете какую-либо другую полезную команду, которая может отображать информацию о CPU, сообщите нам об этом в комментариях ниже
---
> Материал подготовлен в рамках курса [**Administrator Linux. Professional.**](https://otus.pw/wWuL/)
>
> Если вы хотели бы узнать подробнее о формате обучения и программе, познакомиться с преподавателем курса — приглашаем на день открытых дверей онлайн. Регистрация [здесь.](https://otus.pw/pArr/)
>
> А если вам интересно развитие в этой сфере с нуля до pro, рекомендуем ознакомиться с учебной программой [**специализации**](https://otus.pw/ikbj/).
>
> | https://habr.com/ru/post/581796/ | null | ru | null |
# Построение систем доставки видео на основе HTTP Dynamic Streaming от Adobe и OpenSource
В рамках проекта для одного из наших заказчиков в очередной раз встала задача построить систему конвертации/ хранения/ доставки видео в интернет. Типичная такая задача создания своего маленького (или не очень маленького) “Тьюба” только с профессиональным, а не UGC-контентом.
С момента создания первых “Тьюбов” технологии видео в интернете прошли некоторый путь развития, позволяют сейчас делать намного больше, да и требования к современному видео-сайту стали несколько иными.
Наиболее интересными трендами последнего времени, на наш взгляд, являются:
* возможность смотреть один видео-сайт с разных устройств,
* технология адаптивного HTTP стриминга
В результате появления и бурного распространения в последнее время мобильных устройств, реально удобных для потребления интернета с них, а также развития беспроводных технологий передачи данных, становится ясным, что нужно иметь вторую версию сайта, оптимизированную для мобильных iOS, Android и др. платформ. Третья версия сайта, оптимизированная под “10-ти футовый интерфейс”, скоро понадобится, когда станет популярной какая-либо технология WebTV, например GoogleTV.
Все это вписывается в т.н. концепцию “трех экранов”, с которого люди будут потреблять видео (и вообще интернет-контент) в ближайшем будущем — мобильник(планшет) в дороге, PC в офисе на работе, TV в гостиной дома.
Про технологию адаптивного HTTP стриминга хотелось бы поговорить поподробнее, что и является предметом данной статьи.
Сеть интернет по своей природе плохо подходит для доставки видео, особенно в реальном времени. С одной стороны мы хотим видеть плавный непрерывный поток видео, с другой — имеем нестабильное соединение с плавающими во времени характеристиками и бороться с этим можно двумя способами — увеличением задержки (буфера) или адаптаций битрейта потока.
Основная идея технологии адаптивного мультибитрейтного стриминга заключается как раз в адаптации потока — в том, что мы один ролик кодируем в нескольких битрейтах и стримим пользователю тот битрейт, который считаем возможным в данный момент времени, например, исходя из оценки текущей пропускной способности сети пользователя и оценки скорости декодирования (т.е. справляется ли компьютер пользователя с декодированием потока в реальном времени).
Прежде всего, это важно для сервисов прямых трансляций, когда пользователю важнее “не отставать от потока”, т.е., минимизируя вероятность возникновения “пребуферизации”, пусть даже временами жертвуя качеством картинки. Однако для для сервисов видео-по-запросу такая технология также крайне полезна — приятно ведь, когда видео стартует быстро, в том качестве, которое позволяет канал и всеми силами пытается не запинаться.
На практике это означает, что мы можем значительно улучшить восприятие сервиса не только пользователям с нестабильным/слабым каналом, где-нибудь глубоко в регионах, но и пользователям wifi-сетей, пользователям, у которых одно соединение является общим для нескольких пользователей в домохозяйстве и т.д. Для пользователей с выделенным качественным каналом данная технология просто автоматически определит скорость его канала и будет отдавать видео в подходящем битрейте — т.е. конечному пользователю больше не нужно знать о том, что такое 360p, 240p или SD, HD и т.д. — все происходит автоматически.
Расплачиваться за все эти преимущества приходится 3-мя вещами —
* усложнением процедуры стриминга,
* дополнительными затратами на кодирование,
* дополнительными затратами на хранение.
Первая причина на данный момент уже не должна приниматься во внимание, поскольку уже есть готовые opensource — кирпичики для строительства таких систем, о чем я дальше и расскажу.
Вторая и третья причины, конечно, важны, но тут разработчики сайта должны сами посчитать стоят ли их пользователи этих дополнительных затрат.
На данный момент существует, как минимум, три известные мне реализации технологии адаптивного мультибитрейтного стриминга:
* Apple HTTP Adaptive Streaming for iPhone/iPad,
* Microsoft Smooth Streaming for Silverlight,
* Adobe Dynamic Streaming for Flash.
Для практики разработки видео-сайтов наиболее важным, конечно, является реализация от Adobe, поскольку Apple HTTP Adaptive Streaming работает только для iOS устройств и Safari под MacOS X (хотя мне на днях показали один STB, в котором данный протокол реализован), а Silverlight, скажем так, пока не получил такой популярности как Flash.
Adobe реализовала Dynamic Streaming в рамках rtmp протокола уже довольно давно и только относительно недавно (с появлением flash 10.1) стало возможным использовать HTTP стриминг. Это очень важный шаг, поскольку раньше для использования динамического стриминга нужен был специализированный стриминговый сервер, теперь же бОльшая часть работы перенесена на клиент, а серверная поддержка упрощается вплоть до отдачи обычной HTTP статики.
Фактически нам нужно закодировать ролик в нескольких битрейтах, а дальше, либо нарезать на фрагменты, например, секунд по 5 и положить под быстрый сервер отдачи статики (см. рисунок ниже), либо, если существует сервер или стриминг-модуль, который из mp4 файликов может вырезать нужные фрагменты на лету, тогда на storage-уровень ставим его, а запросы маршрутизируем через какой-либо эффективный кешер. Более того, данный кешер может быть у провайдера CDN услуги. Одним из основных достоинств технологии адаптивного HTTP стриминга и является простота использования внешних CDN и кешеров — можно не заботится о преднаполнении кеша — в случае “cache miss” запрос проксируется на origin-server, одновременно сохраняясь в кеше.

Кеширование получается очень эффективным, поскольку в кеше прокси кусочками “оседает” востребованный контент. Причем эти кусочки относительно небольшие и можно придумывать различные стратегии управления кешем — когда “сохранять” кусочек, когда его удалять и т.д. Это дает большую свободу для разработки механизмов оптимизации разработчикам CDN сервисов. В свое время для первых версий системы доставки рутюба мы разрабатывали похожий механизм “кусочного” кеширования, позволивший долгое время проекту эффективно доставлять видео при минимуме оборудования.
С точки зрения программирования для поддержки HTTP Dynamic Streaming ребята из Adobe сделали одну простую вещь — у объекта NetStream появился метод [appendBytes](http://help.adobe.com/en_US/FlashPlatform/beta/reference/actionscript/3/flash/net/NetStream.html#appendBytes%28%29). Формат входного массива — байтпоток в FLV-формате. Фактически это дает возможность проигрывать байтпоток, а вопросы его доставки — отдельная задача. Например, можно доставлять эти байты посредством HTTP — кусочков и получится HTTP стриминг.
Системы от Apple и Microsoft реализуют систему доставки и проигрывания внутри своего “черного ящика”, а Adobe дает возможность программировать систему самостоятельно. Сделали они и открытую реализацию такой системы в рамках своего Open Source Media Framework. [OSMF](http://www.osmf.org/) — это набор базовых классов, упрощающих написание видео-плейеров на ActionScript3, который, в том числе, включает реализацию поддержки HTTP динамического стриминга. Более того, спецификации данного протокола и подробности реализации Adobe старается раскрывать. Посмотреть можно [тут](http://www.adobe.com/devnet/f4v.html) и [тут](http://sourceforge.net/adobe/osmf/wiki/Specifications/). Можете себе такое представить раньше, когда у Flash не было конкурентов и их будущее представлялось совершенно безоблачным?
Итак, возвращаемся к постановке задачи — мы хотим сделать видеохостинг, десктоп-версия будет использовать flash и технологию HTTP adaptive streaming.
Как собрать такую систему конвертации и доставки видео?
Кодировать будем в mp4, кодеки — x264 и faac, инструменты — ffmpeg, mencoder. Коммерческий софт мы не очень любим, если есть бесплатные альтернативы.
На данный момент мне известно о следующих реализациях данной технологии:
* коммерческий софт. Коммерческие сервера от Adobe и Wowza имеют реализацию данной технологии, в качестве основы для плейера можно взять OSMF. Вариант, наверное, хороший, но дорогой.
* есть свободная, но закрытая [реализация](http://www.adobe.com/products/httpdynamicstreaming/) от самой Adobe. Представляет собой перепаковщик исходных файлов в некий f4f-формат и модуль для apache, работающий с такими перепакованными файлами. Минусы — не получается работать с mp4-файликами, создаваемыми ffmpeg, поскольку исходники закрыты, понять почему — проблема.
* [USP](http://www.unified-streaming.com/index.php) от CodeShop. Плюсы — прекрасная открытая реализация серверной части, минусы — закрыта клиентская и, вообще-то, софт коммерческий, хоть и OpenSource. Если сайт, использующий технологию, коммерческий — показывает рекламу или взимает плату за просмотр, нужно покупать лицензии.
Я работаю в компании, которая занимается видео-технологиями в интернет уже лет 10 и у нас есть определенный опыт и, посмотрев на документацию протоколов Adobe HTTP Dynamic Streaming, мы решили, что для проекта нашего “Тюба” нам проще и быстрее реализовать серверную поддержку самостоятельно. А клиентская реализация протокола в OSMF открыта и под BSD-лицензией.
Результатом является проект OpenHttpStreamer, который мы решили выложить в OpenSource под LGPL.
Официальная страничка проекта — <http://inventos.ru/OpenHttpStreamer>
Исходники доступны на GitHub — <https://github.com/inventos/OpenHttpStreamer>.
Мы пробовали собирать под Ubuntu 10.10, Fedora 12, Debian(Squeeze). Из особенностей — нужны [scons](http://www.scons.org/), g++ версии 4.3.0 и выше и boost >=1.39.
Как пользоваться:
`$ git clone https://github.com/inventos/OpenHttpStreamer.git
$ cd OpenHttpStreamer/mp4frag
$ scons configure && scons
$ sudo scons install`
Если все прошло успешно в /usr/local/bin/mp4frag будет собранная утилита создания статических фрагментов
`$ mp4frag
Allowed options:
--help produce help message
--src arg source mp4 file name
--video_id arg (=some_video) video id for manifest file
--manifest arg (=manifest.f4m) manifest file name
--fragmentduration arg (=3000) single fragment duration, ms
--template make template files instead of full fragments
--nofragments make manifest only`
Закодируем ffmpeg’ом какой-нибудь ролик в двух качествах — 400 и 700 кбит/сек (примерно)
`$ ffmpeg -y -i test.mpg -acodec libfaac -ac 2 -ab 96k -ar 44100 -vcodec libx264 -vpre medium -g 100 -keyint_min 50 -b 300k -bt 300k -threads 2 test-q1.mp4
$ ffmpeg -y -i test.mpg -acodec libfaac -ac 2 -ab 96k -ar 44100 -vcodec libx264 -vpre medium -g 100 -keyint_min 50 -b 600k -bt 600k -threads 2 test-q2.mp4`
Получили два mp4 файлика — test-q1.mp4 и test-q2.mp4, из которых генерируем статические фрагменты:
`$ mp4frag --src test-q1.mp4 --src test-q2.mp4 --manifest=test.f4m`
Результатом работы является описатель файла (“манифест”) — test.f4m и статические файлики-фрагменты в папках 0/ и 1/
Выкладываем test.f4m 0/ 1/ под DocRoot любого веб-сервера, способного отдавать статику, и нам остается написать на флеше простой плейер, используя в качестве движка OSMF, или взять готовый плейер.
Для быстрого теста можно воспользоваться нашей сборкой OSMF-плейера.
Для этого
1. под DocRoot нашего сервера (там же, где и test.f4m) помещаем такой crossdomain.xml:
`xml version="1.0"?`
2. переходим в браузере по ссылке <http://inventos.ru/OpenHttpStreamer?url=http://your_http_host/test.f4m>
Как обычно, если что-то не получается, смотрим логи нашего сервера — есть ли обращения от плейера к crossdomain.xml, test.f4m, файликам сегментов. Удобно проверять, все ли верно — самим «подергать» нужные адреса —
`wget -O - -S «http://your_http_host/test.f4m»
wget -O - -S «http://your_http_host/1/Seg1Frag1»`
В заключение пару слов о том, что сейчас лежит в репозитарии. Пока написан только статический перепаковщик — mp4frag. Модуль для nginx в разработке. Мы уже продумали архитектуру и алгоритмистику, активно программируем и собираемся выпустить буквально на этой-следующей неделе — надеюсь, я по этому поводу еще напишу.
Модуль динамической генерации нам нужен, чтобы контент хранить в первозданном (mp4 после конвертации ffmpeg) виде, поскольку это достаточно универсальный формат, подходящий для других целей (стриминга на другие платформы). Есть интересный вариант — использование fragmented mp4, но он менее универсален.
Мы придумали простой способ — проиндексировать mp4 для быстрого доступа к нужным фрагментам и положить индексы в отдельном файлике рядом с самим контентом. Размер индекса будет всего около 1% от исходных файлов. Из-за того, что даже получив быстрый доступ к нужному фрагменту mdat в исходном mp4, нам нужно еще перемикшировать данные, добавив flv — заголовки ( особенность реализации OSMF), мы теряем в производительности по сравнению со статикой. Однако, проксируя запросы на данный модуль через быстрый web-cache и кешируя ответы, мы достигаем как высокой производительности, так и большой универсальности. | https://habr.com/ru/post/110135/ | null | ru | null |
# Android Camera2 API от чайника, часть 3. Media Codec и стрим видео по UDP
Итак, со съемками фоточек и записью видео при помощи Camera2 API мы вроде бы, разобрались. Осталось только научиться передавать видеопоток c Android устройства страждущим получателям извне. Конечной целью, как уже неоднократно ранее говорилось, является интеллектуализация роботелеги — ставим на неё смартфон и так сказать, превращаем обезьяну в человека. В этом нам поможет Media Codec. И конечно, новое Camera2 API.

Кому интересно, прошу под кат.
Детали о проекте с роботележкой можно найти [здесь](https://habr.com/ru/users/tarson/posts/), а мы пока займемся непосредственно стримингом видео с неё (вернее с прицепленного к ней Android смартфона) на персональную электронно-вычислительную машину.
#### Что нам для этого нужно?
Для того чтобы передать видео поток с экрана смартфона куда-либо ещё, как известно, его (поток) сначала необходимо преобразовать в подходящий ужатый формат (передавать покадрово выйдет слишком толсто), поставить time-stamps (временные метки) и отправить в бинарном виде получателю. Который произведёт обратную операцию декодирования.
Как раз этими низкоуровневыми чёрными делами и занимается класс Media Codec с 2013 года, с даты выхода Аndroid 4.3.

Другое дело, что раньше подступиться к кодированию видео, в отличие от сегодняшнего дня было не так-то просто. Чтобы вытащить картинку с камеры надо было использовать тонны [загадочного кода](https://bigflake.com/mediacodec/CameraToMpegTest.java.txt) в котором, как в заклинаниях якутских шаманов, единственная неточность могла привести к полному краху приложения. Добавьте к этому ещё предыдущее Camera API, где вместо готовых коллбэков приходилось ручками самостоятельно писать разные synchronized, а это занятие, скажем так, не для слабых духом.
И главное, издалека смотришь на рабочий [код](https://github.com/bytestar/android-h264-stream-demo/blob/master/AndroidH264StreamDemo/src/com/jemi/androidh264streamdemo/AvcEncoder.java), вроде бы в общих чертах всё ясно. Начинаешь переносить по частям в свой проект — сыпется непонятно почему. А скорректировать не получается, потому что в деталях уже разобраться тяжело.
Да и от сплошных ~~deprecated~~ как-то не по себе. Короче говоря, непорядок
К счастью, для непонятливых гуглостроители ввели волшебную концепцию поверхности **Surface**, работая с которой, можно избежать низкоуровневых деталей. Какой ценой и что при этом теряет разработчик, мне как неспециалисту понять сложно, но зато теперь мы чуть ли не буквально можем сказать: «Android, возьми эту Surface на которую отображается видео с камеры и ничего там не меняя, ну вот как есть, закодируй и отправь дальше». И самое удивительное, что это работает. А с новым Camera2 API программа и сама знает, когда данные отправлять, коллбэки ж новые появились!
Так что теперь закодировать видео — раз плюнуть. Чем мы сейчас и займёмся.
Берём код из [первой статьи](https://habr.com/ru/post/468083/) и как обычно выкидываем из него всё кроме кнопочек и инициализации камеры.
**Начнём с Layout для приложения**
```
xml version="1.0" encoding="utf-8"?
```
#### И закончим прицеплением Media Codec
В прошлом посте мы выводили на Surface изображение с камеры и с него же писали видео при помощи MediaRecorder. Для этого мы просто указывали оба компонента в списке Surface.
```
(Arrays.asList(surface, mMediaRecorder.getSurface()).
```
Здесь то же самое, только вместо mMediaRecorder указываем:
```
(Arrays.asList(surface, mEncoderSurface),
```
Получается, что-то типа:
```
private void startCameraPreviewSession() {
SurfaceTexture texture = mImageView.getSurfaceTexture();
texture.setDefaultBufferSize(320, 240);
surface = new Surface(texture);
try {
mPreviewBuilder = mCameraDevice.createCaptureRequest(CameraDevice.TEMPLATE_PREVIEW);
mPreviewBuilder.addTarget(surface);
mPreviewBuilder.addTarget(mEncoderSurface);
mCameraDevice.createCaptureSession(Arrays.asList(surface, mEncoderSurface),
new CameraCaptureSession.StateCallback() {
@Override
public void onConfigured(CameraCaptureSession session) {
mSession = session;
try {
mSession.setRepeatingRequest(mPreviewBuilder.build(), null, mBackgroundHandler);
} catch (CameraAccessException e) {
e.printStackTrace();
}
}
@Override
public void onConfigureFailed(CameraCaptureSession session) {
}
}, mBackgroundHandler);
} catch (CameraAccessException e) {
e.printStackTrace();
}
}
```
Что такое mEncoderSurface? А это та самая Surface, с которой будет работать Media Codec. Только для начала надо их обоих инициализировать примерно таким образом.
```
private void setUpMediaCodec() {
try {
mCodec = MediaCodec.createEncoderByType("video/avc"); // H264 кодек
} catch (Exception e) {
Log.i(LOG_TAG, "а нету кодека");
}
int width = 320; // ширина видео
int height = 240; // высота видео
int colorFormat = MediaCodecInfo.CodecCapabilities.COLOR_FormatSurface; // формат ввода цвета
int videoBitrate = 500000; // битрейт видео в bps (бит в секунду)
int videoFramePerSecond = 20; // FPS
int iframeInterval = 2; // I-Frame интервал в секундах
MediaFormat format = MediaFormat.createVideoFormat("video/avc", width, height);
format.setInteger(MediaFormat.KEY_COLOR_FORMAT, colorFormat);
format.setInteger(MediaFormat.KEY_BIT_RATE, videoBitrate);
format.setInteger(MediaFormat.KEY_FRAME_RATE, videoFramePerSecond);
format.setInteger(MediaFormat.KEY_I_FRAME_INTERVAL, iframeInterval);
mCodec.configure(format, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE); // конфигурируем кодек как кодер
mEncoderSurface = mCodec.createInputSurface(); // получаем Surface кодера
mCodec.setCallback(new EncoderCallback());
mCodec.start(); // запускаем кодер
Log.i(LOG_TAG, "запустили кодек");
}
```
Теперь остается прописать единственный коллбэк. Когда Media Codec вдруг ощутит, что очередные данные для дальнейшей трансляции готовы, он нас об этом известит именно через него:
```
private class EncoderCallback extends MediaCodec.Callback {
@Override
public void onInputBufferAvailable(MediaCodec codec, int index) {
}
@Override
public void onOutputBufferAvailable(MediaCodec codec, int index, MediaCodec.BufferInfo info) {
outPutByteBuffer = mCodec.getOutputBuffer(index);
byte[] outDate = new byte[info.size];
outPutByteBuffer.get(outDate);
Log.i(LOG_TAG, " outDate.length : " + outDate.length);
mCodec.releaseOutputBuffer(index, false);
}
@Override
public void onError(MediaCodec codec, MediaCodec.CodecException e) {
Log.i(LOG_TAG, "Error: " + e);
}
@Override
public void onOutputFormatChanged(MediaCodec codec, MediaFormat format) {
Log.i(LOG_TAG, "encoder output format changed: " + format);
}
}
```
Байтовый массив outDate — это настоящее сокровище. В нём уже готовые кусочки закодированного в формате H264 видеопотока, с которым мы теперь можем делать всё, что захотим.
Вот они…

Некоторые кусочки может быть великоваты для передачи по сети, ну да ничего, система, если надо их порубит ещё сама и отправит дальше получателю.
Но если сильно страшно, то покромсать можно самому, впихнув такой фрагмент
```
int count =0;
int temp =outDate.length ;
do {//кромсаем на небольше килобайта
byte[] ds;
temp = temp-1024;
if(temp>=0)
{ ds = new byte[1024];}
else
{ ds = new byte[temp+1024];}
for(int i =0;i=0);
```
Но нам пока надо убедиться воочию, что данные в буфере это действительно видеопоток в формате H264. Поэтому, давайте мы их отправим в файл:
Пропишем в сетапе:
```
private void setUpMediaCodec() {
File mFile = new File(Environment.getExternalStoragePublicDirectory(Environment.DIRECTORY_DCIM), "test3.h264");
try {
outputStream = new BufferedOutputStream(new FileOutputStream(mFile));
Log.i("Encoder", "outputStream initialized");
} catch (Exception e) {
e.printStackTrace();
}
```
А в коллбэке где буфер:
```
try {
outputStream.write(outDate, 0, outDate.length);// гоним байты в поток
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
```
Открываем приложение, жмем кнопку: «ВКЛЮЧИТЬ КАМЕРУ И СТРИМ». Начинается автоматически запись. Ждем немного и давим кнопку остановки.
Сохраненный файл штатно скорее всего не проиграется, поскольку формат не MP4, но если открыть его VLC плеером или сконвертить онлайн каким нибудь [ONLINE CONVERT](https://video.online-convert.com/ru/convert-to-mp4), то мы убедимся, что находимся на правильном пути. Правда изображение лежит на боку, но это поправимо.
Вообще, для каждого события записи, фотографирования или стрима, лучше, конечно, открывать каждый раз новую сессию, а старую закрывать. То есть, сначала мы включаем камеру и запускаем голое превью. Потом, если надо сделать снимок, превью закрываем и открываем превью, но уже с пристегнутым Image Reader. Если переходим на запись видео, то закрываем текущую сессию и запускаем сессию с превью и прицепленным к нему Media Recorder. Я этого не делал, чтобы не страдала наглядность кода, а вам решать, как удобнее самим.
А вот и сам код целиком.
**BasicMediaCodec**
```
package com.example.basicmediacodec;
import androidx.annotation.RequiresApi;
import androidx.appcompat.app.AppCompatActivity;
import androidx.core.content.ContextCompat;
import android.Manifest;
import android.content.Context;
import android.content.pm.ActivityInfo;
import android.content.pm.PackageManager;
import android.graphics.SurfaceTexture;
import android.hardware.camera2.CameraAccessException;
import android.hardware.camera2.CameraCaptureSession;
import android.hardware.camera2.CameraDevice;
import android.hardware.camera2.CameraManager;
import android.hardware.camera2.CaptureRequest;
import android.media.MediaCodec;
import android.media.MediaCodecInfo;
import android.media.MediaFormat;
import android.os.Build;
import android.os.Bundle;
import android.os.Environment;
import android.os.Handler;
import android.os.HandlerThread;
import android.os.StrictMode;
import android.util.Log;
import android.view.Surface;
import android.view.TextureView;
import android.view.View;
import android.widget.Button;
import android.widget.Toast;
import java.io.BufferedOutputStream;
import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.nio.ByteBuffer;
import java.util.Arrays;
public class MainActivity extends AppCompatActivity {
public static final String LOG_TAG = "myLogs";
public static Surface surface = null;
CameraService[] myCameras = null;
private CameraManager mCameraManager = null;
private final int CAMERA1 = 0;
private Button mButtonOpenCamera1 = null;
private Button mButtonStreamVideo = null;
private Button mButtonTStopStreamVideo = null;
public static TextureView mImageView = null;
private HandlerThread mBackgroundThread;
private Handler mBackgroundHandler = null;
private MediaCodec mCodec = null; // кодер
Surface mEncoderSurface; // Surface как вход данных для кодера
BufferedOutputStream outputStream;
ByteBuffer outPutByteBuffer;
private void startBackgroundThread() {
mBackgroundThread = new HandlerThread("CameraBackground");
mBackgroundThread.start();
mBackgroundHandler = new Handler(mBackgroundThread.getLooper());
}
private void stopBackgroundThread() {
mBackgroundThread.quitSafely();
try {
mBackgroundThread.join();
mBackgroundThread = null;
mBackgroundHandler = null;
} catch (InterruptedException e) {
e.printStackTrace();
}
}
@RequiresApi(api = Build.VERSION_CODES.M)
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setRequestedOrientation(ActivityInfo.SCREEN_ORIENTATION_PORTRAIT);
setContentView(R.layout.activity_main);
Log.d(LOG_TAG, "Запрашиваем разрешение");
if (checkSelfPermission(Manifest.permission.CAMERA) != PackageManager.PERMISSION_GRANTED
||
(ContextCompat.checkSelfPermission(MainActivity.this, Manifest.permission.WRITE_EXTERNAL_STORAGE) != PackageManager.PERMISSION_GRANTED)
) {
requestPermissions(new String[]{Manifest.permission.CAMERA, Manifest.permission.WRITE_EXTERNAL_STORAGE}, 1);
}
mButtonOpenCamera1 = findViewById(R.id.button1);
mButtonStreamVideo = findViewById(R.id.button2);
mButtonTStopStreamVideo = findViewById(R.id.button3);
mImageView = findViewById(R.id.textureView);
mButtonOpenCamera1.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View v) {
setUpMediaCodec();// инициализируем Медиа Кодек
if (myCameras[CAMERA1] != null) {// открываем камеру
if (!myCameras[CAMERA1].isOpen()) myCameras[CAMERA1].openCamera();
}
}
});
mButtonStreamVideo.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View v) {
{
// тут пока пусто
}
}
});
mButtonTStopStreamVideo.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View v) {
if (mCodec != null) {
Toast.makeText(MainActivity.this, " остановили стрим", Toast.LENGTH_SHORT).show();
myCameras[CAMERA1].stopStreamingVideo();
}
}
});
mCameraManager = (CameraManager) getSystemService(Context.CAMERA_SERVICE);
try {
// Получение списка камер с устройства
myCameras = new CameraService[mCameraManager.getCameraIdList().length];
for (String cameraID : mCameraManager.getCameraIdList()) {
Log.i(LOG_TAG, "cameraID: " + cameraID);
int id = Integer.parseInt(cameraID);
// создаем обработчик для камеры
myCameras[id] = new CameraService(mCameraManager, cameraID);
}
} catch (CameraAccessException e) {
Log.e(LOG_TAG, e.getMessage());
e.printStackTrace();
}
}
public class CameraService {
private String mCameraID;
private CameraDevice mCameraDevice = null;
private CameraCaptureSession mSession;
private CaptureRequest.Builder mPreviewBuilder;
public CameraService(CameraManager cameraManager, String cameraID) {
mCameraManager = cameraManager;
mCameraID = cameraID;
}
private CameraDevice.StateCallback mCameraCallback = new CameraDevice.StateCallback() {
@Override
public void onOpened(CameraDevice camera) {
mCameraDevice = camera;
Log.i(LOG_TAG, "Open camera with id:" + mCameraDevice.getId());
startCameraPreviewSession();
}
@Override
public void onDisconnected(CameraDevice camera) {
mCameraDevice.close();
Log.i(LOG_TAG, "disconnect camera with id:" + mCameraDevice.getId());
mCameraDevice = null;
}
@Override
public void onError(CameraDevice camera, int error) {
Log.i(LOG_TAG, "error! camera id:" + camera.getId() + " error:" + error);
}
};
private void startCameraPreviewSession() {
SurfaceTexture texture = mImageView.getSurfaceTexture();
texture.setDefaultBufferSize(320, 240);
surface = new Surface(texture);
try {
mPreviewBuilder = mCameraDevice.createCaptureRequest(CameraDevice.TEMPLATE_PREVIEW);
mPreviewBuilder.addTarget(surface);
mPreviewBuilder.addTarget(mEncoderSurface);
mCameraDevice.createCaptureSession(Arrays.asList(surface, mEncoderSurface),
new CameraCaptureSession.StateCallback() {
@Override
public void onConfigured(CameraCaptureSession session) {
mSession = session;
try {
mSession.setRepeatingRequest(mPreviewBuilder.build(), null, mBackgroundHandler);
} catch (CameraAccessException e) {
e.printStackTrace();
}
}
@Override
public void onConfigureFailed(CameraCaptureSession session) {
}
}, mBackgroundHandler);
} catch (CameraAccessException e) {
e.printStackTrace();
}
}
public boolean isOpen() {
if (mCameraDevice == null) {
return false;
} else {
return true;
}
}
public void openCamera() {
try {
if (checkSelfPermission(Manifest.permission.CAMERA) == PackageManager.PERMISSION_GRANTED) {
mCameraManager.openCamera(mCameraID, mCameraCallback, mBackgroundHandler);
}
} catch (CameraAccessException e) {
Log.i(LOG_TAG, e.getMessage());
}
}
public void closeCamera() {
if (mCameraDevice != null) {
mCameraDevice.close();
mCameraDevice = null;
}
}
public void stopStreamingVideo() {
if (mCameraDevice != null & mCodec != null) {
try {
mSession.stopRepeating();
mSession.abortCaptures();
} catch (CameraAccessException e) {
e.printStackTrace();
}
mCodec.stop();
mCodec.release();
mEncoderSurface.release();
closeCamera();
}
}
}
private void setUpMediaCodec() {
File mFile = new File(Environment.getExternalStoragePublicDirectory(Environment.DIRECTORY_DCIM), "test3.h264");
try {
outputStream = new BufferedOutputStream(new FileOutputStream(mFile));
Log.i("Encoder", "outputStream initialized");
} catch (Exception e) {
e.printStackTrace();
}
try {
mCodec = MediaCodec.createEncoderByType("video/avc"); // H264 кодек
} catch (Exception e) {
Log.i(LOG_TAG, "а нету кодека");
}
int width = 320; // ширина видео
int height = 240; // высота видео
int colorFormat = MediaCodecInfo.CodecCapabilities.COLOR_FormatSurface; // формат ввода цвета
int videoBitrate = 500000; // битрейт видео в bps (бит в секунду)
int videoFramePerSecond = 20; // FPS
int iframeInterval = 3; // I-Frame интервал в секундах
MediaFormat format = MediaFormat.createVideoFormat("video/avc", width, height);
format.setInteger(MediaFormat.KEY_COLOR_FORMAT, colorFormat);
format.setInteger(MediaFormat.KEY_BIT_RATE, videoBitrate);
format.setInteger(MediaFormat.KEY_FRAME_RATE, videoFramePerSecond);
format.setInteger(MediaFormat.KEY_I_FRAME_INTERVAL, iframeInterval);
mCodec.configure(format, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE); // конфигурируем кодек как кодер
mEncoderSurface = mCodec.createInputSurface(); // получаем Surface кодера
mCodec.setCallback(new EncoderCallback());
mCodec.start(); // запускаем кодер
Log.i(LOG_TAG, "запустили кодек");
}
private class EncoderCallback extends MediaCodec.Callback {
@Override
public void onInputBufferAvailable(MediaCodec codec, int index) {
}
@Override
public void onOutputBufferAvailable(MediaCodec codec, int index, MediaCodec.BufferInfo info) {
outPutByteBuffer = mCodec.getOutputBuffer(index);
byte[] outDate = new byte[info.size];
outPutByteBuffer.get(outDate);
try {
Log.i(LOG_TAG, " outDate.length : " + outDate.length);
outputStream.write(outDate, 0, outDate.length);// гоним байты в поток
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
mCodec.releaseOutputBuffer(index, false);
}
@Override
public void onError(MediaCodec codec, MediaCodec.CodecException e) {
Log.i(LOG_TAG, "Error: " + e);
}
@Override
public void onOutputFormatChanged(MediaCodec codec, MediaFormat format) {
Log.i(LOG_TAG, "encoder output format changed: " + format);
}
}
@Override
public void onPause() {
if (myCameras[CAMERA1].isOpen()) {
myCameras[CAMERA1].closeCamera();
}
stopBackgroundThread();
super.onPause();
}
@Override
public void onResume() {
super.onResume();
startBackgroundThread();
}
}
```
И не забудьте про разрешения в манифесте.
```
```
Итак, мы убедились, что Media Codec работает. Но использовать его для записи видео в файл как-то бездуховно. С такой задачей гораздо лучше справится Media Recorder, да ещё и звук добавит. Поэтому файловую часть мы снова выкинем и добавим блок кода для стриминга видео в сеть по udp протоколу. Это тоже очень просто.
Сначала инициализируем UDP практически сервер.
```
DatagramSocket udpSocket;
String ip_address = "192.168.1.84"; // целевой адрес куда пуляем видео
InetAddress address;
int port = 40002; // порт, который выставит получатель для прослушивания
……..
try {
udpSocket = new DatagramSocket();
Log.i(LOG_TAG, " создали udp сокет");
} catch (
SocketException e) {
Log.i(LOG_TAG, " не создали udp сокет");
}
try {
address = InetAddress.getByName(ip_address);
Log.i(LOG_TAG, " есть адрес");
} catch (Exception e) {
```
А в том же коллбэке, где мы отправляли данные по готовности в поток для файла, отправим их теперь в виде дэйтаграмм в нашу домашнюю сеть (надеюсь она есть у всех?)
```
try {
DatagramPacket packet = new DatagramPacket(outDate, outDate.length, address, port);
udpSocket.send(packet);
} catch (IOException e) {
Log.i(LOG_TAG, " не отправился UDP пакет");
}
```
И все?
Казалось бы, но нет. Приложение при запуске скрашится. Видите-ли, системе не нравится, что в главном потоке мы отправляем всякие дэйтаграмм пакеты. Но для паники нет оснований. Во-первых мы хоть и в главном потоке, но работаем все равно асинхронно, то есть по срабатыванию коллбэка. Во-вторых отправка udp пакетов, такой же асинхронный процесс. Мы только говорим операционной системе, что неплохо было бы отправить пакетик, но, что мы всецело в этом деле полагаемся на неё. Поэтому, чтобы Android не бунтовал, то в начале программы добавим две строчки:
```
StrictMode.ThreadPolicy policy = new StrictMode.ThreadPolicy.Builder().permitAll().build();
StrictMode.setThreadPolicy(policy);
```
В общем и целом, получится следующая маленькая ~~элегантная~~ демонстрационная программка:
```
package com.example.basicmediacodec;
import androidx.annotation.RequiresApi;
import androidx.appcompat.app.AppCompatActivity;
import androidx.core.content.ContextCompat;
import android.Manifest;
import android.content.Context;
import android.content.pm.ActivityInfo;
import android.content.pm.PackageManager;
import android.graphics.SurfaceTexture;
import android.hardware.camera2.CameraAccessException;
import android.hardware.camera2.CameraCaptureSession;
import android.hardware.camera2.CameraDevice;
import android.hardware.camera2.CameraManager;
import android.hardware.camera2.CaptureRequest;
import android.media.MediaCodec;
import android.media.MediaCodecInfo;
import android.media.MediaFormat;
import android.os.Build;
import android.os.Bundle;
import android.os.Handler;
import android.os.HandlerThread;
import android.os.StrictMode;
import android.util.Log;
import android.view.Surface;
import android.view.TextureView;
import android.view.View;
import android.widget.Button;
import android.widget.Toast;
import java.io.BufferedOutputStream;
import java.io.IOException;
import java.net.DatagramPacket;
import java.net.DatagramSocket;
import java.net.InetAddress;
import java.net.SocketException;
import java.nio.ByteBuffer;
import java.util.Arrays;
public class MainActivity extends AppCompatActivity {
public static final String LOG_TAG = "myLogs";
public static Surface surface = null;
CameraService[] myCameras = null;
private CameraManager mCameraManager = null;
private final int CAMERA1 = 0;
private Button mButtonOpenCamera1 = null;
private Button mButtonStreamVideo = null;
private Button mButtonTStopStreamVideo = null;
public static TextureView mImageView = null;
private HandlerThread mBackgroundThread;
private Handler mBackgroundHandler = null;
private MediaCodec mCodec = null; // кодер
Surface mEncoderSurface; // Surface как вход данных для кодера
BufferedOutputStream outputStream;
ByteBuffer outPutByteBuffer;
DatagramSocket udpSocket;
String ip_address = "192.168.1.84";
InetAddress address;
int port = 40002;
private void startBackgroundThread() {
mBackgroundThread = new HandlerThread("CameraBackground");
mBackgroundThread.start();
mBackgroundHandler = new Handler(mBackgroundThread.getLooper());
}
private void stopBackgroundThread() {
mBackgroundThread.quitSafely();
try {
mBackgroundThread.join();
mBackgroundThread = null;
mBackgroundHandler = null;
} catch (InterruptedException e) {
e.printStackTrace();
}
}
@RequiresApi(api = Build.VERSION_CODES.M)
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
StrictMode.ThreadPolicy policy = new StrictMode.ThreadPolicy.Builder().permitAll().build();
StrictMode.setThreadPolicy(policy);
setRequestedOrientation(ActivityInfo.SCREEN_ORIENTATION_PORTRAIT);
setContentView(R.layout.activity_main);
Log.d(LOG_TAG, "Запрашиваем разрешение");
if (checkSelfPermission(Manifest.permission.CAMERA) != PackageManager.PERMISSION_GRANTED
||
(ContextCompat.checkSelfPermission(MainActivity.this, Manifest.permission.WRITE_EXTERNAL_STORAGE) != PackageManager.PERMISSION_GRANTED)
) {
requestPermissions(new String[]{Manifest.permission.CAMERA, Manifest.permission.WRITE_EXTERNAL_STORAGE}, 1);
}
mButtonOpenCamera1 = findViewById(R.id.button1);
mButtonStreamVideo = findViewById(R.id.button2);
mButtonTStopStreamVideo = findViewById(R.id.button3);
mImageView = findViewById(R.id.textureView);
mButtonOpenCamera1.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View v) {
setUpMediaCodec();// инициализируем Медиа Кодек
if (myCameras[CAMERA1] != null) {// открываем камеру
if (!myCameras[CAMERA1].isOpen()) myCameras[CAMERA1].openCamera();
}
}
});
mButtonStreamVideo.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View v) {
{
// тут пока пусто
}
}
});
mButtonTStopStreamVideo.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(View v) {
if (mCodec != null) {
Toast.makeText(MainActivity.this, " остановили стрим", Toast.LENGTH_SHORT).show();
myCameras[CAMERA1].stopStreamingVideo();
}
}
});
try {
udpSocket = new DatagramSocket();
Log.i(LOG_TAG, " создали udp сокет");
} catch (
SocketException e) {
Log.i(LOG_TAG, " не создали udp сокет");
}
try {
address = InetAddress.getByName(ip_address);
Log.i(LOG_TAG, " есть адрес");
} catch (Exception e) {
}
mCameraManager = (CameraManager) getSystemService(Context.CAMERA_SERVICE);
try {
// Получение списка камер с устройства
myCameras = new CameraService[mCameraManager.getCameraIdList().length];
for (String cameraID : mCameraManager.getCameraIdList()) {
Log.i(LOG_TAG, "cameraID: " + cameraID);
int id = Integer.parseInt(cameraID);
// создаем обработчик для камеры
myCameras[id] = new CameraService(mCameraManager, cameraID);
}
} catch (CameraAccessException e) {
Log.e(LOG_TAG, e.getMessage());
e.printStackTrace();
}
}
public class CameraService {
private String mCameraID;
private CameraDevice mCameraDevice = null;
private CameraCaptureSession mSession;
private CaptureRequest.Builder mPreviewBuilder;
public CameraService(CameraManager cameraManager, String cameraID) {
mCameraManager = cameraManager;
mCameraID = cameraID;
}
private CameraDevice.StateCallback mCameraCallback = new CameraDevice.StateCallback() {
@Override
public void onOpened(CameraDevice camera) {
mCameraDevice = camera;
Log.i(LOG_TAG, "Open camera with id:" + mCameraDevice.getId());
startCameraPreviewSession();
}
@Override
public void onDisconnected(CameraDevice camera) {
mCameraDevice.close();
Log.i(LOG_TAG, "disconnect camera with id:" + mCameraDevice.getId());
mCameraDevice = null;
}
@Override
public void onError(CameraDevice camera, int error) {
Log.i(LOG_TAG, "error! camera id:" + camera.getId() + " error:" + error);
}
};
private void startCameraPreviewSession() {
SurfaceTexture texture = mImageView.getSurfaceTexture();
texture.setDefaultBufferSize(320, 240);
surface = new Surface(texture);
try {
mPreviewBuilder = mCameraDevice.createCaptureRequest(CameraDevice.TEMPLATE_PREVIEW);
mPreviewBuilder.addTarget(surface);
mPreviewBuilder.addTarget(mEncoderSurface);
mCameraDevice.createCaptureSession(Arrays.asList(surface, mEncoderSurface),
new CameraCaptureSession.StateCallback() {
@Override
public void onConfigured(CameraCaptureSession session) {
mSession = session;
try {
mSession.setRepeatingRequest(mPreviewBuilder.build(), null, mBackgroundHandler);
} catch (CameraAccessException e) {
e.printStackTrace();
}
}
@Override
public void onConfigureFailed(CameraCaptureSession session) {
}
}, mBackgroundHandler);
} catch (CameraAccessException e) {
e.printStackTrace();
}
}
public boolean isOpen() {
if (mCameraDevice == null) {
return false;
} else {
return true;
}
}
public void openCamera() {
try {
if (checkSelfPermission(Manifest.permission.CAMERA) == PackageManager.PERMISSION_GRANTED) {
mCameraManager.openCamera(mCameraID, mCameraCallback, mBackgroundHandler);
}
} catch (CameraAccessException e) {
Log.i(LOG_TAG, e.getMessage());
}
}
public void closeCamera() {
if (mCameraDevice != null) {
mCameraDevice.close();
mCameraDevice = null;
}
}
public void stopStreamingVideo() {
if (mCameraDevice != null & mCodec != null) {
try {
mSession.stopRepeating();
mSession.abortCaptures();
} catch (CameraAccessException e) {
e.printStackTrace();
}
mCodec.stop();
mCodec.release();
mEncoderSurface.release();
closeCamera();
}
}
}
private void setUpMediaCodec() {
try {
mCodec = MediaCodec.createEncoderByType("video/avc"); // H264 кодек
} catch (Exception e) {
Log.i(LOG_TAG, "а нету кодека");
}
int width = 320; // ширина видео
int height = 240; // высота видео
int colorFormat = MediaCodecInfo.CodecCapabilities.COLOR_FormatSurface; // формат ввода цвета
int videoBitrate = 500000; // битрейт видео в bps (бит в секунду)
int videoFramePerSecond = 20; // FPS
int iframeInterval = 3; // I-Frame интервал в секундах
MediaFormat format = MediaFormat.createVideoFormat("video/avc", width, height);
format.setInteger(MediaFormat.KEY_COLOR_FORMAT, colorFormat);
format.setInteger(MediaFormat.KEY_BIT_RATE, videoBitrate);
format.setInteger(MediaFormat.KEY_FRAME_RATE, videoFramePerSecond);
format.setInteger(MediaFormat.KEY_I_FRAME_INTERVAL, iframeInterval);
mCodec.configure(format, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE); // конфигурируем кодек как кодер
mEncoderSurface = mCodec.createInputSurface(); // получаем Surface кодера
mCodec.setCallback(new EncoderCallback());
mCodec.start(); // запускаем кодер
Log.i(LOG_TAG, "запустили кодек");
}
private class EncoderCallback extends MediaCodec.Callback {
@Override
public void onInputBufferAvailable(MediaCodec codec, int index) {
}
@Override
public void onOutputBufferAvailable(MediaCodec codec, int index, MediaCodec.BufferInfo info) {
outPutByteBuffer = mCodec.getOutputBuffer(index);
byte[] outDate = new byte[info.size];
outPutByteBuffer.get(outDate);
try {
DatagramPacket packet = new DatagramPacket(outDate, outDate.length, address, port);
udpSocket.send(packet);
} catch (IOException e) {
Log.i(LOG_TAG, " не отправился UDP пакет");
}
mCodec.releaseOutputBuffer(index, false);
}
@Override
public void onError(MediaCodec codec, MediaCodec.CodecException e) {
Log.i(LOG_TAG, "Error: " + e);
}
@Override
public void onOutputFormatChanged(MediaCodec codec, MediaFormat format) {
Log.i(LOG_TAG, "encoder output format changed: " + format);
}
}
@Override
public void onPause() {
if (myCameras[CAMERA1].isOpen()) {
myCameras[CAMERA1].closeCamera();
}
stopBackgroundThread();
super.onPause();
}
@Override
public void onResume() {
super.onResume();
startBackgroundThread();
}
}
```
Не знаю, как у других, но на моем Red Note 7 даже видно, как скачут килобайты по нужному адресу

И таких udp сокетов можно наплодить множество, на сколько хватит пропускной способности сети. Главное, чтобы были адреса куда. Будет у вас широкоадресная рассылка.
#### Теперь пойдём искать нужный адрес на компьютере
Надо сказать, что не каждая компьютерная программа способна всосать и переварить видео поток формата H264 по единственному udp каналу без какой-либо дополнительной информации. Но некоторые могут. Это например крайне широко известный медиаплеер [VLC](https://www.videolan.org/vlc%2F). Это настолько крутая штука, что если начать описывать её возможности, то из статьи получится целая книга. Наверняка у вас она есть. Если нет, поставьте.
И судя по описанию команд для него, udp пакеты переварить этот плеер может.
```
URL syntax:
file:///path/file Plain media file
http://host[:port]/file HTTP URL
ftp://host[:port]/file FTP URL
mms://host[:port]/file MMS URL
screen:// Screen capture
dvd://[device] DVD device
vcd://[device] VCD device
cdda://[device] Audio CD device
udp://[[]@[][:]]
```
Причём все эти source address и bind address, по идее и не нужны. Нужен только прослушиваемый порт.

И ещё, конечно, нужно не забыть про разрешение этот порт слушать (малварь же)

А вы знали, что Винда не дает сделать принтскрин с монитора ресурсов?
Или можно вообще брандмауэр отключить (не рекомендую)
Итак, преодолев эти тернии, запускаем VLC плеер с нашим адресом и наслаждаемся пустым экраном. Видео нет.
#### Как же так?
А вот так. У вас, наверно, стоит последняя версия VLC 3.08 Vetinari? Вот как раз, в этой версии udp объявлен deprecated и мало того выпилен нахрен.
Так-то логика разработчиков плеера понятна. Мало кому нужно использовать голый udp канал в наше время потому-что:
* Нормально работает только в домашней неперегруженной сети. Стоит вам выйти во внешний мир и ненумерованные дэйтаграммы начнут теряться и приходить не в том порядке, в котором их послали. А для видео декодера это очень неприятно.
* Незашифрован и легко компрометируется
Поэтому нормальные люди, конечно, используют протоколы более высокого уровня RTP и другие. То есть на пальцах — вы пишете сервер, который всё равно на низком уровне использует udp (для скорости), но параллельно обменивается управляющей информацией с клиентом кому он стримит видео. Какая там у него пропускная способность, не надо ли увеличить-уменьшить кэш для данных, какая детализация изображения оптимальна сейчас и так далее и тому подобное. Опять же звук тоже иногда нужен. А ему требуется, сами понимаете, синхронизация с видео.
Вон ребятам из Одноклассников даже пришлось свой [протокол](https://habr.com/ru/company/odnoklassniki/blog/467669/) запилить для стриминга. Но у них задачи-то, конечно, гораздо более важные — рассылать видео с котиками десяткам миллионов домохозяек по всему миру. Там одним udp каналом не обойдёшься.
Но нам-то писать свой RTP сервер на андроиде как-то грустно. Наверное, можно найти даже готовый и даже бесплатный, но попробуем пока не усложнять сущностей. Просто возьмем версию VLC плеера, где udp стриминг ещё работал.
Итак, качаем отсюда [VLC 2.2.6 Umbrella](http://download.videolan.org/pub/videolan/vlc/2.2.6/win64/)
Устанавливаем вместо или рядом со старым (то есть новым VLC), как вам заблагорассудится.
Запускаем и снова видим пустой экран.
А все это потому, что мы явно не настроили использование кодека H264. Так-то VLC смог бы выбрать кодек автоматически, если бы имел дело с файлом (в настройках изначально, как раз и указан автоматический выбор). Но ему-то кидают байтовый поток по единственному каналу, а кодеков, которые VLC поддерживает десятки. Как ему разобраться, какой применить?
Поэтому устанавливаем кодек силой.

И вот теперь наслаждаемся трансляцией «живого» видео. Единственное, оно зачем-то лежит на боку, но это уже легко поправить в настройках видеоплеера.
А ещё можно просто запускать плеер из командной строки по такому ключу:
```
C:\Program Files\VideoLAN\VLC\vlc udp://@:40002 --demux h264 --video-filter=transform --transform-type=90
```
И раскодирует сам и повернет.
Итак стриминг работает. Осталось только интегрировать его в окошко JAVA приложения на компьютере для управления роботележкой. Займемся этим очень скоро в финальной части. | https://habr.com/ru/post/473036/ | null | ru | null |
# Умное цветоводство, или Пусти ИТшника в огород… Часть 2
Друзья, наши технологические раскопки на ниве домашне-офисного озеленения вызвали явный интерес с вашей стороны (предыдущая статья [Умное цветоводство, или Пусти ИТ-шника в огород… Часть 1](https://habrahabr.ru/company/jetinfosystems/blog/312024/)). Посему, как и обещали, отвечаем на ваши вопросы.
Но сначала – фото компонентов. Сам микроконтроллер-МОЗГ:

Часы реального времени с автономным питанием:

Датчик влажности почвы (убитый):

LCD-модуль, 4 шурупа :)

**1. А где сами подробности-то? Код, костыли, проблемы возникшие?**
Собственно, сам код переделан под схему с одним реле. В заголовочной части даны ссылки на используемые библиотеки.
```
/*
Pich Irrigation Box (c) Mikhail Pichugin
2016
*/
#include
#include
#if defined(ARDUINO) && ARDUINO > 18 // Arduino 0019 or later
#include
#endif
#include // rep/ https://github.com/SodaqMoja/Sodaq\_DS3231
#include // https://github.com/marcmerlin/NewLiquidCrystal
#include // rep/ https://github.com/prampec/LcdBarGraph
#include // http://arduiniana.org/libraries/streaming/
// -------------------------------------------------------------------------
// -- character with one bar
byte ch\_level1[8] = {
B10000,
B10000,
B10000,
B10000,
B10000,
B10000,
B10000,
B10000
};
// -- character with two bars
byte ch\_level2[8] = {
B11000,
B11000,
B11000,
B11000,
B11000,
B11000,
B11000,
B11000
};
// -- character with three bars
byte ch\_level3[8] = {
B11100,
B11100,
B11100,
B11100,
B11100,
B11100,
B11100,
B11100
};
// -- character with four bars
byte ch\_level4[8] = {
B11110,
B11110,
B11110,
B11110,
B11110,
B11110,
B11110,
B11110
};
#define I2C\_ADDR 0x27
#define BACKLIGHT\_PIN 3
#define En\_pin 2
#define Rw\_pin 1
#define Rs\_pin 0
#define D4\_pin 4
#define D5\_pin 5
#define D6\_pin 6
#define D7\_pin 7
//#define SD\_pin 4
boolean last\_hour\_irrig = false;
boolean errorFlag = false;
boolean errorPulse = false;
boolean dispPulse = false;
byte int0Button = 0;
byte int0ButtonPin = 7; //pin кнопки ресет
byte irrig\_hours[] = {9,20}; //часы полива от xx до yy
byte lcdNumCols = 20; //количество символов на дисплее по оси Х
int sensorPin = A0; //pin сенсора влажности почвы
int sensorValue = 0; //текущее значение влажности
int last\_hour\_sensor = 0; //значение влажности замерянное в предыдущий раз
int moisturemin = 850; //минимальное значение влажности при котором включается полив
int irrig\_delay = 10; //длительность полива в сек.
int pinINT0 = 2; //pin прерывания INT0 с часов реального времени
int Relay1 = 4;
unsigned long prevMillis =0;
const long dispInterval =1000;
DateTime last\_date\_irrig;
LiquidCrystal\_I2C lcd(I2C\_ADDR,En\_pin,Rw\_pin,Rs\_pin,D4\_pin,D5\_pin,D6\_pin,D7\_pin);
LcdBarGraph lbg(&lcd,lcdNumCols, 0, 3);
volatile boolean alarmFlag;
void alarm() {
alarmFlag = true;
}
// -------------------------------------------------------------------------
void setup()
{
// Initialize common
Serial.begin(57600);
//while (!Serial) {
// ; // wait for serial port to connect. Needed for native USB port only
//}
Wire.begin();
// Initialize Real Time Clock
rtc.begin();
pinMode(pinINT0, INPUT);
last\_date\_irrig = rtc.now();
//if(last\_date\_irrig.year() == 2000){
//DateTime t(2016,2,28,11,0,0,6);
//rtc.setDateTime(t);
//Serial.println(F("-Setting date&time")); }
// Initialize INT0 for accepting interrupts
PORTD |= 0x04;
DDRD &=~ 0x04;
attachInterrupt(0, alarm, FALLING);
rtc.enableInterrupts(EveryHour); //interrupt at EverySecond, EveryMinute, EveryHour or rtc.enableInterrupts(18,4,0); // interrupt at (h,m,s)
// Initialize LCD
lcd.begin (lcdNumCols,4);
lcd.createChar(1, ch\_level1);
lcd.createChar(2, ch\_level2);
lcd.createChar(3, ch\_level3);
lcd.createChar(4, ch\_level4);
lcd.setBacklightPin(BACKLIGHT\_PIN,POSITIVE);
lcd.setBacklight(HIGH);
lcd.home (); // go home
//lcd.print("Start");
// Initialize Relay & Button
pinMode(Relay1, OUTPUT); // relay init
digitalWrite(Relay1, HIGH); // relay off
pinMode(int0ButtonPin, INPUT\_PULLUP); // int0button
//Serial.println(F("-Init OK"));
}
// -------------------------------------------------------------------------
void loop()
{
unsigned long currentMillis = millis();
// -- Input circut -------------------------------------------------------
int0Button = digitalRead(int0ButtonPin); //int0 button
if (int0Button == LOW) {
alarmFlag = true;
errorFlag = false;
}
rtc.convertTemperature();
DateTime now = rtc.now(); //get the current date-time
sensorValue = analogRead(sensorPin);
// -- Output circut ------------------------------------------------------
if (currentMillis-prevMillis>= dispInterval) {
prevMillis = currentMillis;
lcd.setCursor (0,0); lcd.print(int(rtc.getTemperature())); lcd.write((byte)223);
lcd.setCursor (4,0); lcd.print(now.year(), DEC); lcd.print('/'); lcd.print(now.month(), DEC); lcd.print('/'); lcd.print(now.date(), DEC); lcd.print(' '); lcd.print(now.hour(), DEC);
if (dispPulse) {
dispPulse = false; lcd.print(F(":"));
}
else { dispPulse = true; lcd.print(F(" "));
}
if (now.minute()<=9) {lcd.print("0");}
lcd.print(now.minute(), DEC);
lcd.setCursor (0,1); lcd.print(F("Sensor:")); lcd.print(sensorValue); lcd.print(F(" ")); lcd.print(F("min:")); lcd.print(moisturemin);
lcd.setCursor (0,2);
if (errorFlag) {
if (errorPulse) {errorPulse = false; lcd.print(F("Relay :OFF, ERROR ")); }
else {errorPulse = true; lcd.print(F("Relay :OFF, ERROR")); }
Serial.println(F("ERROR"));
}
else {
lcd.print(F("irH:")); lcd.print(irrig\_hours[0], DEC); lcd.print(F(" to ")); lcd.print(irrig\_hours[1], DEC); lcd.print(" "); lcd.print(irrig\_delay); lcd.print(F("Sec "));
}
lcd.setCursor (0,3); lcd.print(F("Lst:")); lcd.print(last\_date\_irrig.year(), DEC); lcd.print('/'); lcd.print(last\_date\_irrig.month(), DEC); lcd.print('/');
lcd.print(last\_date\_irrig.date(), DEC); lcd.print(' '); lcd.print(last\_date\_irrig.hour(), DEC); lcd.print(':');
if (last\_date\_irrig.minute()<=9) {lcd.print("0");}
lcd.print(last\_date\_irrig.minute(), DEC);
}
// -- Action circut -------------------------------------------------------
if (alarmFlag && !errorFlag && now.hour()>=irrig\_hours[0] && now.hour()<=irrig\_hours[1]) {
alarmFlag = false; //reset alarmFlag for next interrupt
Serial.println(F("Moisture check Interrupt"));
lcd.clear();
lcd.setCursor (0,0); lcd.print(F("Moisture check Int."));
if (sensorValue>=moisturemin) {
lcd.setCursor (0,1); lcd.print(F("Sensor data :")); lcd.print(sensorValue);
if (last\_hour\_irrig && abs(last\_hour\_sensor-sensorValue)<=5) {
errorFlag = true;
}
else {
Serial.println(F("-Irrigation"));
lcd.setCursor (0,2); lcd.print(F("Relay :ON"));
lcd.setCursor (0,3); lcd.print(F("Irrigation ")); lcd.print(irrig\_delay); lcd.print(F(" Sec "));
digitalWrite(Relay1, LOW); // Relay ON
for (int x=1; x
```
Костыли и проблемы коснулись только аппаратной части. Например, конкретно с нашим LCD-модулем корректно заработала только эта библиотека.
**2. А где WiFi и приложение для android/ios? Где статистика потребления воды с данными из облака? Сколько проживет цветок при отключении 220В?**
Подключение по Wi-Fi, равно как и по Bluetooth, на начальном этапе не планировалось – ресурсов данного контроллера маловато. Проживет цветок достаточно, чтобы все кто о нем знают, могли предположить, что с поливом что-то не так, и дать бедняге напиться
Могу только сказать, что в домашних условиях я подключал Ethernet-модуль и система отчитывалась в Твиттере о своих действиях. На работе этот модуль пришлось отключить, ибо не понятно, что писать в заявке для отдела информационного обеспечения: «Прошу подключить к ЛВС фикус вида Каучуконосный, MAC-адрес такой-то...»? Кстати, а какой это реально вид, кто скажет?
**3. Как справились с избыточной мощностью моторчика омывателя? Не было ли мысли использовать аквариумную помпу? Автомобильный это слишком всё-таки.**
Были опасения, что мощная струя воды будет размывать грунт – мы даже запаслись форсунками омывателей фар. Но обычного разделения одного потока на два через Т-коннектор оказалось достаточно.
**4. Как будете решать вопрос коррозии датчика влажности? Датчик влажности где расположен.**
Вообще-то датчик не столько коррозирует, столько разрушается от электролиза. Есть понимание, что, скорее всего, цветку неполезно иметь в почве следы этого процесса, но ничего другого пока предложить не можем. Были идеи отключения датчика на время между замерами, взвешивания, индукционного датчика, разностных температурных датчиков и еще что-то – не припомню уже ;)
Могу сказать, что стандартного датчика хватает примерно на 3–4 недели, но тут надо учитывать минерализацию конкретной почвы. Сейчас будет новая самодельная версия из нержавейки. Посмотрим, на сколько ее хватит.
**5. Как высчитывали норму полива?**
Потребление воды рассчитывали экспериментально. Почитали соответствующую литературу по фикусам, опытным путем вычислили, сколько ему требуется воды. Потом аналогично выяснили, какой расход воды у насоса. В нашем случае, чтобы насос накачал необходимое количество воды, требуется 10 секунд. Эта длительность и заложена в прошивку. В текущей версии никакие настройки поменять интерактивно нельзя. | https://habr.com/ru/post/313308/ | null | ru | null |
# Браузерные расширения, необходимые каждому веб-разработчику
Современные браузеры — это не только отличные приложения для просмотра веб-страниц.
Браузеры — это ещё и платформы, предлагающие веб-разработчикам массу удобных инструментов, помогающих создавать замечательные сайты. В распоряжении разработчика, помимо встроенных инструментов, есть огромное количество браузерных расширений. Автор статьи, перевод которой мы сегодня публикуем, отобрал самые лучшие, на его взгляд, расширения, которые призваны помочь программистам в решении самых разных встающих перед ними задач. Это, в основном, расширения для Google Chrome.
[](https://habr.com/ru/company/ruvds/blog/488662/)
Инструменты разработки для React/Redux и Vue.js
-----------------------------------------------
React и Vue.js — это широко известные инструменты для фронтенд-разработки. Для того чтобы максимально эффективно с ними работать, стоит установить соответствующие браузерные расширения.
Расширение [React Developer Tools](https://chrome.google.com/webstore/detail/react-developer-tools/fmkadmapgofadopljbjfkapdkoienihi) увеличивает возможности инструментов разработчика. С его помощью можно исследовать компоненты React, свойства, передаваемые компонентам, состояние компонентов. Оно способно принести React-разработчику реальную пользу.

*React Developer Tools*
Если вы, при работе с состоянием приложения, столкнулись с какими-то проблемами, вам на помощь может прийти расширение [Redux DevTools](https://chrome.google.com/webstore/detail/redux-devtools/lmhkpmbekcpmknklioeibfkpmmfibljd). Оно может быть использовано для работы с состояниями, устроенными по-разному, особенно хорошо оно показывает себя при использовании с Redux. Кстати, вот вам совет. Установите у себя это расширение и посетите сайт наподобие airbnb.com. На нём используется React/Redux, поэтому вы, с помощью Redux DevTools, сможете узнать о том, как устроено управление состоянием страниц на этом сайте. По мне — так это весьма познавательно.
[Vue.js devtools](https://chrome.google.com/webstore/detail/vuejs-devtools/nhdogjmejiglipccpnnnanhbledajbpd) — это то же самое, что и React Developer Tools, но для Vue.js. Это расширение весьма удобно при отладке компонентов Vue и пригодится всем, кто пользуется этим фреймворком.

*Vue.js devtools*
JSONView
--------
Ловили себя когда-нибудь на мысли о том, что в браузерах других программистов JSON-данные выглядят понятными и аккуратными, а в вашем — нет? Возможно, всё дело в том, что другие пользуются расширением [JSONView](http://chrome.google.com/webstore/detail/jsonview/chklaanhfefbnpoihckbnefhakgolnmc). Это расширение очень быстро и аккуратно форматирует JSON-данные. JSONView, определённо, одно из моих любимых браузерных расширений.

*JSONView*
Library Sniffer
---------------
[Library Sniffer](https://chrome.google.com/webstore/detail/library-sniffer/fhhdlnnepfjhlhilgmeepgkhjmhhhjkh) — это отличный инструмент для того, кто хочет быстро узнать о том, с помощью каких средств, библиотек или фреймворков, созданы просматриваемые им страницы. Например, с помощью Library Sniffer можно узнать о том, с помощью чего создан некий сайт: WordPress, Drupal, React, Vue.js, AngularJS…

*Library Sniffer*
CSS Scan 2.0
------------
[CSS Scan 2.0](https://chrome.google.com/webstore/detail/css-scan/gieabiemggnpnminflinemaickipbebg) — это полезное расширение, которое позволяет разработчику исследовать и копировать CSS, просто наводя указатель мыши на элементы страниц. У него, правда, есть один минус. Дело в том, что для работы с ним нужно купить лицензию.

*CSS Scan 2.0*
У этого расширения есть бесплатная альтернатива — [CSS Peeper](https://chrome.google.com/webstore/detail/css-peeper/mbnbehikldjhnfehhnaidhjhoofhpehk). Она рассчитана, в основном, на дизайнеров, а не на тех, кто пишет код.
Web Developer
-------------
Расширение [Web Developer](https://chrome.google.com/webstore/detail/web-developer/bfbameneiokkgbdmiekhjnmfkcnldhhm) позволяет оснастить браузер панелью, содержащей множество различных инструментов. С их помощью, например, можно отключать на страницах JavaScript, управлять расположением страницы, работать с изображениями. Это расширение доступно для Chrome и Firefox.

*Web Developer*
WhatFont
--------
[WhatFont](https://chrome.google.com/webstore/detail/whatfont/jabopobgcpjmedljpbcaablpmlmfcogm) — это довольно-таки маленькое расширение, которое позволяет идентифицировать шрифты, используемые на веб-страницах. Для того чтобы выяснить то, каким шрифтом оформлен фрагмент текста, достаточно включить расширение и навести указатель мыши на этот фрагмент. Работать с ним, как видите, предельно просто. Им, как и предыдущим расширением, могут пользоваться и те, кто работает в Chrome, и те, кто работает в Firefox.

*WhatFont*
ColorZilla
----------
Расширением [ColorZilla](https://chrome.google.com/webstore/detail/colorzilla/bhlhnicpbhignbdhedgjhgdocnmhomnp) можно пользоваться и в Chrome, и в Firefox. Оно даёт в распоряжение разработчика инструмент для взятия цветопроб, средство для выбора цвета, генератор градиентов и другие полезные инструменты для работы с цветом. Например, с его помощью можно узнать о том, какой цвет имеет любой пиксель веб-страницы. Оно хранит историю работы с цветом и содержит инструмент для просмотра палитр.

*ColorZilla*
Spectrum
--------
Доступность контента — это важный аспект современной веб-разработки. Дело в том, что возможности многих людей по взаимодействию с веб-страницами ограничены. Одним из таких ограничений является цветовая слепота (Color Vision Deficiency, CVD). Она влияет на возможность человека различать определённые цвета. Расширение [Spectrum](https://chrome.google.com/webstore/detail/spectrum/ofclemegkcmilinpcimpjkfhjfgmhieb) позволяет исследовать сайты на предмет их пригодности для людей с различными типами CVD.

*Spectrum*
Site Palette
------------
Расширение [Site Palette](https://chrome.google.com/webstore/detail/site-palette/pekhihjiehdafocefoimckjpbkegknoh) позволяет извлечь с сайта используемые на нём цвета и оформить их в виде цветовой палитры. Оно поддерживает несколько способов генерирования палитр, позволяет, выдавая специальную ссылку, делиться палитрами, поддерживает возможность печати палитр, умеет конвертировать их в PDF-файлы. И этим возможности Site Palette не ограничиваются.

*Site Palette*
Toby
----
Расширение [Toby](https://chrome.google.com/webstore/detail/toby-for-chrome/hddnkoipeenegfoeaoibdmnaalmgkpip) предназначено для организации браузерных вкладок таким образом, чтобы в ходе работы не приходилось бы держать открытым огромное количество вкладок. Это — нечто вроде панели управления вкладками, с которой удобно работать с помощью мыши. Это расширение способно положительно повлиять на продуктивность труда веб-разработчика.

*Toby*
Talend API Tester
-----------------
[Talend API Tester](https://chrome.google.com/webstore/detail/talend-api-tester-free-ed/aejoelaoggembcahagimdiliamlcdmfm) — это замечательное расширение, которое позволяет работать из браузера с различными API. Это могут быть API, основанные на технологиях REST, SOAP и HTTP. Это похоже, например, на Postman. Бесплатная версия расширения поддерживает выполнение всех видов HTTP-запросов, безопасный обмен данными, аутентификацию.

*Talend API Tester*
Full Page Screen Capture
------------------------
Хотелось ли вам когда-нибудь быстро и без лишних движений сделать полный скриншот просматриваемой страницы? Если это так — тогда вам вполне может пригодиться расширение [Full Page Screen Capture](https://chrome.google.com/webstore/detail/full-page-screen-capture/fdpohaocaechififmbbbbbknoalclacl). С его помощью можно получать скриншоты всего содержимого страниц в формате PDF или в виде изображения. Оно даже может работать с элементами, поддерживающими скроллинг, и с элементами `iframe`.

*Full Page Screen Capture*
Итоги
-----
Мы рассмотрели примерно полтора десятка браузерных расширений для веб-разработчиков. Надеемся, вы нашли среди них что-то такое, что вам пригодится.
**Уважаемые читатели!** Какими браузерными расширениями вы пользуетесь для веб-разработки?
[](https://ruvds.com/ru-rub/#order) | https://habr.com/ru/post/488662/ | null | ru | null |
# Самые известные и странные олдовые компьютерные вирусы (часть 2)
[](https://habr.com/ru/company/ruvds/blog/689872/)
[В первой части](https://habr.com/ru/company/ruvds/blog/688706/) мы рассказали о нескольких самых ранних из известных компьютерных вирусов на заре их зарождения. Теперь мы расскажем о вирусах на рубеже 80-х и 90-х годов. Это время стало эпохой не только колоссальных политических перемен, но и превращения вирусов из творений отдельных энтузиастов в предмет массового увлечения для одних и огромную проблему для других.
▍ Cascade (1988 год)
--------------------

Первый известный зашифрованный вирус, оставивший след в истории как меметичностью, так и тем, что сподвиг Касперского заняться созданием антивирусов. Судя по всему, он стал творением некоего немецкого программиста, возможно, даже студента: впервые вирус обнаружили на компьютерах Констанцского университета на границе со Швейцарией. По-немецки он называется поэтичным словом Herbstlaub, «осенняя листва».
Написанный на ассемблере резидентный вирус поражал .com файлы и отличался от предшественников тем, что помимо собственно тела содержал функцию дешифрования. Код вируса при запуске сначала подвергался расшифровке, и только потом запускался. Разные «экземпляры» вируса имели разный шифр, ключом к которому был размер заражённого им файла — но дешифратор был одним и тем же, что существенно упростило борьбу с ним по сравнению с будущими «полиморфами».

Судя по действию «Каскада», он мог быть своего рода студенческой шуткой. Вирус не ломал файлы, а просто вызывал характерное «осыпание» текста на экране под мелодию. Это мешало работе и вынуждало перезагружаться, что приводило к потере информации.
«Каскад» поразил множество компьютеров в странах Центральной Европы, но его исходная версия имела встроенный ограничитель по времени работы: вирус планово работал только с 1 октября по 31 декабря 1988 года. Увы, много «энтузиастов» стали выпускать свои адаптации с отключением таймера, и в результате «Каскад» мешал работе вплоть по начало 90-х годов. Последний случай заражения задокументирован в 1997 году.
По неясной до сих пор причине вирус имел ещё один встроенный ограничитель: он не должен был поражать компьютеры IBM PC. Но из-за ошибок программиста оно срабатывало далеко не всегда, и вирус добрался до бельгийского офиса IBM. Это сподвигло компанию заняться разработкой собственных антивирусных программ.

И не только их: в октябре 1989 года «Каскад» поймал Евгений Касперский. Это и зародило у него мысль заняться разработкой антивирусов. Первым вирусом, внесённым в базу данных первого антивируса от Касперского стал именно «Cascade».
А ещё «Каскад» вдохновил на работу Dark Avenger и других болгарских хакеров. Впрочем, феномен болгарских хакеров и вирусов 90-х (даже первую VX BBS для обмена вирусами и информацией по их написанию сделали именно болгары), в идеале, заслуживает отдельной статьи. И вообще, «Каскад» с его характерным эффектом стал настолько меметичным, что «засветился» даже в одном из сезонов Star Trek.
▍ Datacrime (1989 год)
----------------------

Этот вирус вызвал больше шума в прессе, чем реального вреда. По популярной в 1989 году у журналистов версии, его создал некий норвежский патриот, обиженный, что честь открытия Америки отдана Колумбу вместо викинга Лейфа Эрикссона. Возникло это предположение оттого, что вирус особенно злодействовал 13 октября, сразу после празднуемого в США каждое 12 октября Дня Колумба. Версия кривая, но публике понравилась, и в истории Datacrime остался под альтернативным названием «День Колумба».
Вирус проникал на компьютер пользователя через заражённые файлы. При их запуске в первой версии он заражал файлы .com по одному в каталоге, кроме тех, в которых D была седьмой по счёту: таким образом автор избегал повреждения COMMAND.COM. Вторая версия Datacrime умела заражать заодно и .exe файлы, а её код был полностью зашифрован.

Заражённые файлы мирно лежали в своих директориях или разносили вирус на другие машины до 13 октября. При запуске в обозначенный день и любой день до 31 декабря текущего года (почему авторы вирусов конца 80-х так любили привязывать работу вирусов к четвёртому кварталу?) «преступление данных» выводил на экран гордое сообщение: `DATACRIME VIRUS. RELEASED: 1 MARCH 1989` («Вирус Datacrime, выпущен 1 марта 1989 года»). И жесточайше форматировал нулевой цилиндр жёсткого диска (причём в первой версии делал это криво из-за ошибок автора), в силу чего погибала таблица размещения файлов FAT и данные безвозвратно терялись.
Распространение вируса было не слишком значительным, но в напуганной предыдущими инцидентами вроде прошлогоднего червя Морриса (см. [первую часть](http://habr.com/ru/company/ruvds/blog/688706/)) прессе случилась форменная истерика. Стоит заметить, что конец 80-х вообще был временем «вирусной паники» в западных обществах и прессе: доходило до волн устрашающих публикаций о новых крайне опасных вирусах… которых попросту не существовало в природе.

Сильнее всего Datacrime ударили по Нидерландам, где, по некоторым оценкам, оказались поражены до 10% всех компьютеров. Полиции этой страны пришлось даже срочно выпустить собственный антивирус для борьбы конкретно с Datacrime: голландские копы продавали его по 1 доллару за копию. Правда, работал полицейский антивирус сильно так себе и давал множество ложных срабатываний. Лучше работал антивирус VIRSCAN от IBM, который в том числе из-за шумихи вокруг Datacrime попытался зайти на новый перспективный рынок.
**Возможно, и сам вирус пришёл именно из Нидерландов:** первым о нём сообщил некто Фред Фогель ещё в марте 1989 года, и такое сочетание имени и фамилии характерно как раз для голландцев.
▍ AIDS (1989 год)
-----------------

Создатель следующего вируса подошёл к делу серьёзно и с изрядным цинизмом. Мир конца 80-х был страшно озабочен разгоравшейся эпидемией СПИДа. Меры по профилактике распространения ВИЧ только разрабатывались, поддерживающая антиретровирусная терапия тоже. Заражение обычно уводило людей в могилу с гарантией за считанные годы, в обществах и прессе бродили слухи, городские легенды и апокалиптические прогнозы один страшнее другого, заражённых сторонились как прокажённых.
На волне этой паники биолог-эволюционист Джозеф Попп из Гарварда в декабре 1989 года разослал по всему миру участникам конференции Всемирной организации здравоохранения по СПИДу в Стокгольме 20 000 (!) дискет, подписанных как «AIDS Introductory Information Diskette Version 2.0» («Диск с вводной информацией по СПИДу, версия 2.0»). Да-да, «СПИД» был едва ли не единственным в истории компьютерным вирусом, который массово распространялся по «обычной», а не электронной почте.
Множество занимавшихся борьбой с ВИЧ учёных и медиков, не слишком разбиравшихся в ещё только оформлявшихся вопросах компьютерной безопасности, попытались открыть содержимое. Последствиями стали массовые заражения их машин и потеря серьёзных объёмов наработанной информации по противодействию пандемии СПИДа.

На дискете находился первый в истории троян — впрочем, написанный на Turbo Pascal 3.01a «весьма неаккуратно». Зато самая концепция была оценена как «гениальная и чрезвычайно изощрённая». Вирус использовал уязвимость MS-DOS, внедрялся в систему, где прописывал свои скрытые файлы и переписывал системные файлы. Начинался отсчёт загрузок.
На девяностом запуске компьютера AIDS переименовывал и скрывал все файлы, выводил на экран обидное и сумбурное сообщение `«ATTENTION I have been elected to inform you that throughout your process of collecting and executing files, you have accdientally ¶HÜ¢KΣ► yourself over: again, that's PHUCKED yourself over. No, it cannot be; YES, it CAN be, a √ìτûs has infected your system. Now what do you have to say about that? HAHAHAHAHA. Have ¶HÜÑ with this one and remember, there is NO cure for AIDS`».
Сиречь «Внимание! Я был избран чтобы сообщить вам, что на протяжении всего вашего процесса сбора и выполнения файлов вы случайно на\*\*\*ли себя: опять же, это на\*\*ло вас. Нет, этого не может быть? ДА, это МОЖЕТ быть, вирус заразил вашу систему! Теперь, что вы можете сказать по этому поводу? ХАХАХАХАХА. Развлекись с этим и помни, что от СПИДа НЕТ лекарства!».

На диске видимым оставался единственный файл: счёт на 189 долларов США в панамском банке, который предлагалось оплатить для лечения от вируса. Правда, конспиратор из коварного биолога оказался гораздо худший, чем программист: Джозефа Поппа довольно быстро вычислили по адресу отправки дискет, задержали в аэропорту Амстердама и вернули в наручниках в США. Вычислять, в общем, пришлось недолго: хакер умудрился разослать вирус с собственного почтового ящика.
Впрочем, на суде Поппа признали невменяемым: он дичайше чудил, носил на носу презервативы и заворачивал бороду в бигуди. Причины его экстравагантного поступка остались неясны до сих пор: вероятно, его то ли не приняли на работу в ВОЗ, то ли коллеги отказались признавать его некие «гениальные» идеи по ВИЧ. После этой истории Попп улетел кукухой в другую сторону занялся пропагандой снижения брачного возраста для женщин, смыслом существования которых полагал рождение как можно большего количества детей.
**Впрочем, его главное начинание было продолжено:** трояны стали одной из наиболее популярных форм вирусов, а вымогательство посредством компьютерных вирусов — стремительно растущим криминальным бизнесом.
▍ Chameleon (1990 год)
----------------------

«Хамелеон» во многом стал развитием идей, заложенных создателем «Каскада». Собственно, его автор Марк Уошбёрн прочитал книгу Ральфа Бюргера «Computer Viruses. The Disease of High Technologies», заинтересовался идеей, взял за основу вирус «Vienna», и дополнил её продвинутой, самостоятельно меняющейся системой шифрования на основе «Cascade».
Если у «Каскада» при разнообразно зашифрованном теле вируса сам дешифровщик был одинаковым, что позволяло вычислять код вируса по сигнатуре, то у «Хамелеона» никакой постоянной сигнатуры попросту не существовало. Она менялась при каждом новом заражении без вмешательства создателя посредством «вшитого» рандомайзера, ключом служило системное время. Уошбёрн пояснял, что хотел продемонстрировать несовершенство существующих систем борьбы с вирусами на основе сигнатур, простым поиском заранее известных фрагментов кода.
*Марк Уошбёрн, «отец» полиморфных вирусов*
Ну… показал. Создатели антивирусов по всему миру схватились за головы и занялись поисками более продвинутых систем обнаружения вирусов с помощью дешифраторов и алгоритмических языков.
Вреда вирус не наносил, будучи по сути демонстратором технических возможностей. После запуска он искал файлы в текущем каталоге, используя маску \*.com. При обнаружении он проверял, не равен ли размер файла 10 или 63 488 байтам. Если нет, то он записывал три байта в начало и 1260 байт в конец (откуда и второе название, «1260»).
Естественно, наработку тут же взяли на вооружение и авторы действительно злокозненных вирусов. В том числе следующего.
▍ Whale (1990 год)
------------------

«Кит» вышел в немецком Гамбурге спустя полгода после «Хамелеона», летом 1990 года. На момент обнаружения был крупнейшим из компьютерных вирусов: первый обнаруженный экземпляр «весил» целых 9216 байт. Неспроста: вирус имел сложнейшую многоуровневую полиморфную систему шифрования, систему сокрытия присутствия в системе, а также антиотладочный функционал. Даже размер вируса менялся.
На расшифровку его кода у исследователей ушли недели. Ничего удивительно: автор с немецкой основательностью и солидностью подошёл к тому, чтобы максимально затруднить расшифровку своего творения, его трассировку, дизассемблирование и анализ.

Вредоносность вируса состояла в том, что он сильно замедлял работу поражённой системы и заставлял экран неприятно мерцать. По некоторым данным, он мог и «уронить» систему. Кроме того, «Кит» создавал файл C:FISH-#9.TBL, в который вписывал MBR винчестера и наглухо упоротый текст: `FISH VIRUS #9 A Whale is no Fish! Mind her Mutant Fish and the hidden Fish Eggs for they are damaging. The sixth Fish mutates only if Whale is in her Cave` (РЫБНЫЙ ВИРУС №9 Кит — это не Рыба! Обратите внимание на Рыбу-мутанта и Яйца скрытой Рыбы, ибо они вредны. Шестая Рыба мутирует только в том случае, если Кит находится в ее Пещере).
С 19 февраля по 20 марта вирус «завешивал» систему и выводил на экран строку `THE WHALE IN SEARCH OF THE 8 FISH I AM '~knzyvo}' IN HAMBURG` («Кит в поиске восьми рыб я (криво зашифрованное «головастик») в Гамбурге»).
Что всё это значило и что употреблял автор, так и осталось загадкой.
▍ Другие части
--------------
* [Самые известные и странные олдовые компьютерные вирусы: Creeper, Elk Cloner и другие](https://habr.com/ru/company/ruvds/blog/688706/)
* [Самые известные и странные олдовые компьютерные вирусы (часть 2)](https://habr.com/ru/company/ruvds/blog/689872/) **< — Вы тут**
* [Самые известные и странные олдовые компьютерные вирусы (часть 3)](https://habr.com/ru/company/ruvds/blog/690988/)
> **[Telegram-канал](https://bit.ly/3KZeaxv) и [уютный чат](https://bit.ly/3qoIOXs) для клиентов**
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=article&utm_campaign=erwinmal&utm_content=samye_izvestnye_i_strannye_oldovye_kompyuternye_virusy_(chast_2)) | https://habr.com/ru/post/689872/ | null | ru | null |
# (Архив) Matreshka.js v0.1
**Статья устарела. См. [актуальную историю версий](http://ru.matreshka.io/#whats-new).**
* [Введение](http://habrahabr.ru/post/196146/)
* [Наследование](http://habrahabr.ru/post/200078/)
* [MK.Object](http://habrahabr.ru/post/196886/)
* [MK.Array](http://habrahabr.ru/post/198212/)
* **Matreshka.js v0.1**
* [Matreshka.js v0.2](http://habrahabr.ru/post/231333/)
* [Реализация TodoMVC](http://habrahabr.ru/post/231347/)
(Все предыдущие статьи обновлены до актуального состояния)
[Репозиторий](https://github.com/finom/matreshka)
[Сайт (там же и документация)](http://finom.github.io/matreshka/)
[](http://finom.github.io/matreshka/)Всем привет. Прошло 5 месяцев после последней публикации серии статей о Матрешке. С тех пор исправлен небольшой ряд найденных ошибок, появилось несколько удобных фич, в том числе и под влияниев ваших комментариев, проект обрел спонсора в лице [Shooju](http://www.shooju.com/), получил логотип и нормальный, не-бутстраповский сайт.
**Напомню, Матрешка - фреймворк общего назначения, в котором значимость данных доминирует над внешним видом, и интерфейс автоматически обновляется, когда обновляются данные.**Матрешка позволяет довольно просто связать данные и элементы представления (например, свойство объекта и значение поля ввода), не заботясь о дальнейшей синхронизации данных и представления. Например, самая простая привязка выглядит так:
```
1
2
3
```
Создаем экземпляр:
```
var mk = new Matreshka();
```
Связываем свойство x с элементом `.my-select`:
```
mk.bindElement( 'x', '.my-select' );
```
Меняем данные
```
mk.x = 2;
```
После того, как мы присвоим свойству x другое значение, остояние элемента изменися соответствующим образом.
[Взгляните на живой пример](http://jsbin.com/vidawequ/7/edit)
Другой важной чертой матрешки являются события (в том числе и кастомные). Например, Матрешка умеет отлавливать изменение значения свойства:
```
mk.on( 'change:x', function( evt ) {
alert( 'x изменен на ' + evt.value );
});
```
Код выведет `"x изменен на Привет"`:
```
mk.x = 'Привет';
```
Подробнее об этих и других фичах смотрите по ссылкам выше.
**Немного об оформлении статьи**Я буду использовать jsdoc синтаксис для обозначения методов и свойств, в частности — решетку (#) например, `MK#addDependence` значит, что я говорю о методе `addDependence`, экземпляра класса `MK`.
Самое вкусное
=============
Зависимости (метод [MK#addDependence](http://finom.github.io/matreshka/docs/Matreshka.html#addDependence))
----------------------------------------------------------------------------------------------------------
Этот крутейший метод позволяет установить зависимость одних данных от других. Первый аргумент — ключ зависимого свойства, второй — массив ключей, от которых зависит свойство (или строка с ключами, перечисляемыми через пробел), третий — функция-обработчик, которая должна возвращать новое значение для свойства. Это эдакая замена геттеру, с той разницей, что геттер вызывается каждый раз, когда вы получаете свойство, а `addDependence` вычисляет значение свойства заранее, при изменении данных, от которых зависит свойство. С геттером нужно работать очень аккуратно, так как относительно тяжелые вычисления могут сильно повлиять на производительность вашего кода. «Зависимости», в свою очередь, по ресурсоемкости ничем не отличаются от обычной обработки событий изменения данных и являются, по сути, синтаксическим сахаром над ними. Кроме этого, метод является еще одним шагом к самодокументирующемуся коду.
Скажем, нам нужно, чтобы свойство `f` всегда являлось суммой свойств `a, b, c, d, e`.
Вот так выглядит код, построенный на чистых событиях:
```
this.on( 'change:a change:b change:c change:d change:e', function() {
this.f = this.a + this.b + this.c + this.d + this.e;
});
```
Теперь сравните его с таким:
```
this.addDependence( 'f', 'a b c d e', function() {
return this.a + this.b + this.c + this.d + this.e;
});
```
Или даже с таким:
```
this.addDependence( 'f', 'a b c d e', function( a, b, c, d, e ) {
return a + b + c + d + e;
});
```
**Во-первых**, нам приходится проделывать меньше телодвижений (не нужно кучи `'change:'`)
**Во-вторых**, по имени метода и аргументам нам хорошо понятно, для чего созданы соответствующие строки кода. Переводя на человеческий язык, первый способ можно озвучить так: «при изменении свойств `a, b, c, d, e` делать что-то», а второй так: «добавить зависимость свойства `f` от свойств `a, b, c, d, e`». Чувствуете разницу?
**В-третьих**, если одно из свойств, от которых зависит другое свойство будет изменено с флагом `silent`, первый вариант не сработает.
Например, есть задача вычисления периметра.
Вариант 1, на событиях:
```
this.on( 'change:a change:b', function() {
this.p = ( this.a + this.b ) * 2;
});
```
Вариант 2, с помощью зависимостей:
```
// Вариант 2
this.addDependence( 'p', 'a b', function() {
return ( this.a + this.b ) * 2;
});
```
Теперь, если вызовем:
```
this.set({
a: 2,
b: 3
}, {
silent: true
});
```
… то в первом варианте `p` не изменится, во втором — изменится.
Обратите внимание если вы навесили обработчик события на изменение `p`, и одно из свойств, от которых зависит `p`, изменилось с флагом `silent`, то, как и предполагается, обработчик изменения `p` не будет вызван.
```
this.on( 'change:p', function() { /* ... */ } );
this.set( 'a', 12, { silent: true }); // для войства "p" изменение тоже будет "тихим"
```
В следующей версии планируется добавить зависимость свойства от данных, находящихся в других классах (часто встречающаяся задача в приложениях, где данные доминируют над внешним видом). Это реализовано уже сейчас, но не документированно из-за ограничений синтаксиса языка. Предполагается, что зависимость от других классов будет выглядеть так:
```
this.addDependence( 'a', [
instance1, 'b c d',
instance2, 'e f g',
this, 'h i j'
], function() { /* ... */ });
```
Где нечетный элемент массива из второго аргумента является экземпляром, четный — списком ключей. Выглядит специфически, буду рад другим вариантам.
На странице с примерами можете посмотреть [работу метода вживую](http://finom.github.io/matreshka/examples/#matreshka_adddependence).
По поводу [комментария](http://habrahabr.ru/post/196886/#comment_6965160)
[Rendol](https://habrahabr.ru/users/rendol/): маппинг можно реализовать с помощью зависимостей.
Медиаторы (посредники)
----------------------
### Метод [MK#setMediator](http://finom.github.io/matreshka/docs/Matreshka.html#setMediator)
Довольно часто встрачается задача валидации и конвертации данных. Скажем, в вашем классе есть свойство `a`, которое всегда должно быть строкой и ничем иначе. Давайте попробуем решить эту задачу, используя стандартный инструментарий:
```
// обработчик-конвертер
this.on( 'change:a', function() {
if( typeof this.a !== 'string' ) {
this.a = String( this.a );
}
});
// какоий-нибудь обработчик1
this.on( 'change:a', function() {
if( typeof this.a === 'string' ) {
/* ... */
}
});
// какоий-нибудь обработчик2
this.on( 'change:a change:b', function() {
if( typeof this.a === 'string' ) {
/* ... */
}
});
// присваиваем число
this.a = 123;
```
Понимаете, что здесь происходит? Первый обработчик конвертирует `a` в строку, а последние два обработчика вынуждены проверять, является ли `a` строкой, так как обработчик-конвертер запускает все обработчики (в том числе и самого себя) заново. Скитаясь в поисках решения, типа события `beforechange:%ключ%`, было решено ввести новое понятие во фреймворк — «посредник».
Посредник (или медиатор) меняет значение свойства до того, как сработает какое-либо событие, связанное с изменением этого свойства.
Синтаксис метода `MK#setMediator` прост: первым аргументом передается ключ, для которого нужно установить медиатор, второй аргумент — функция, которая должна возвращать новое значение свойства. Альтернативный синтаксис: в метод передается объект ключ-медиатор для случая, если вы хотите навесить сразу несколько медиаторов на класс.
Например, свойство `a` всегда должно быть строкой, а свойство `b` всегда должно быть целым числом (или `NaN`)
```
this.setMediator( 'a', function( value ) {
return String( value );
});
this.setMediator( 'b', function( value ) {
return parseInt( value );
});
```
А для тех, кто знает Javascript хорошо:
```
this.setMediator( 'a', String );
this.setMediator( 'b', parseInt );
```
Медиаторы не ограничены такими простыми возможностями. Ничего не запрещает производить какие-нибудь вычисления, но только аккуратно, дабы не навредить производительности приложения.
Метод мегаудобен и крут, в том числе, когда сервер принимает какой-нибудь определенный тип значения. Медиатор может быть только один. Следующий вызов `MK#setMediator` с тем же свойством перекроет старый медиатор. Для того, чтоб удалить «посредника», вместо функции можно передать `null`.
[Взгляните на живой пример](http://finom.github.io/matreshka/examples/#matreshka_setmediator) со страницы с примерами.
```
mk.setMediator({
percentageValue: function( v ) {
return v > 100 ? 100 : v < 0 ? 0 : v;
},
stringValue: String,
integerValue: parseInt
});
```
Мы установили медиаторы для трех свойств. Первое — процентное свойство: значение свойства может быть от 0 до 100, то что выходит за границы этого диапазона, автоматически преобразуется в валидное значение (если меньше 0, то значение становится 0, если больше 100, то значение становится 100). Второе значение — строковое, свойство должно быть всегда строкой. Третье всегда должно быть целым числом (или `NaN`). Развивая мысль, можно создать свойство, которое всегда true или false, можно создать свойство, которое всегда будет экземпляром какого-нибудь класса…
### Метод [MK.Array#setItemMediator](http://finom.github.io/matreshka/docs/Matreshka.Array.html#setItemMediator)
Есть еще один вид медиатора: медиатор элемента массива. При установке такого медиатора, он преобразует каждый добавленный элемент так, как вы хотите. Взгляните на пример из документации:
```
var mkArray = new MK.Array( 1, 2, 3, 4, 5 );
mkArray.setItemMediator( function( value ) {
return String( value );
});
mkArray.push( 6, 7 );
mkArray.unshift( true, {} );
```
```
console.log( mkArray.toJSON() ); // [ "true", "[object Object]", "1", "2", "3", "4", "5", "6", "7" ]
```
Здесь создается типизированный массив: массив строк. Да, конечно, такой типизированный массив отличается по производительности от встроенных типизированных массивов в худшую сторону. Но возможности по валидации и преобразованию данных теперь не знают границ.
Не забудьте, что медиатор элемента массива може быть единственным на весь класс. А удалить медиатор можно, установив его в `null`.
```
mkArray.setItemMediator( null );
```
Кстати, пример выше можно исправить для продвинутых программистов:
```
mkArray.setItemMediator( String );
```
Круто?
«По многочисленным заявкам»
===========================
После публикации первой серии статей, хабраюзеры раскритиковали некоторые особенности Матрешки. Критика была обоснованной, и было приняо решение пересмотреть спорные моменты и внести исправления. Вот некоторые из них:
1. [MK.Array#pop](http://finom.github.io/matreshka/docs/Matreshka.Array.html#pop) и [MK.Array#shift](http://finom.github.io/matreshka/docs/Matreshka.Array.html#shift) возвращают удаленный элемент, вместо «себя». [Starfall](https://habrahabr.ru/users/starfall/): [Комментарий к статье](http://habrahabr.ru/post/198212/#comment_6926972), [winbackgo](https://habrahabr.ru/users/winbackgo/): [Комментарий к статье](http://habrahabr.ru/post/198212/#comment_6927628)
2. Дефолтные биндеры для `input[type="text"]` и `textarea` теперь слушают событие `'paste'`, а не только `'keyup'`. [safron](https://habrahabr.ru/users/safron/): [Коментарий к статье](http://habrahabr.ru/post/200078/#comment_6928384)
3. Дефолтные биндеры для `input[type="checkbox"]` и `input[type="radio"]` теперь слушают событие `'keyup'`. Это значит, что с этими элементами можно работать с клавиатуры при привязки данных к ним (то же комментарий).

Balalaika
---------
Кроме этого, было решено убрать жесткую зависимость от `jQuery`. На мой взгляд, `jQuery` — замечательная библиотека, но теряющая актуальность в новых браузерах. Теперь, если на странице отсутствует `jQuery`, её заменяет мини библотека, которую я обозвал «Балалайкой» (обратите внимание: только если отсутствует; если `jQuery` подключен, то по-прежнему используется `jQuery`).
Балалайка наследует `Array.prototype`, поэтому разработчику доступны все методы, которуе есть у массива, плюс `jQuery` совместимые методы для работы с классами (`addClass`, `removeClass`, `hasClass`), событиями (`on`, `off`), парсингом HTML (`parseHTML`) и другие.
Чтобы использовать Балалайку напрямую, используется глобальная переменная [$b](http://finom.github.io/matreshka/docs/global.html#$b):
```
$b( 'div' ).forEach( function(){ /* ... */ } );
$b( '.blah-blah', context ).is( 'div' );
$b( 'input[type="text"]' ).on( 'keydown', handler );
```
(Планируется написать отдельный пост о Балалайке)
[banzalik](https://habrahabr.ru/users/banzalik/): [Коментарий с пожеланием](http://habrahabr.ru/post/196146/#comment_6919318)
[jMas](https://habrahabr.ru/users/jmas/): [Еще один комментарий](http://habrahabr.ru/post/196886/#comment_6926878)
Другие нововведения
===================
Метод [MK#select](http://finom.github.io/matreshka/docs/Matreshka.html#select)
------------------------------------------------------------------------------
Выбирает первый попавшийся элемент, соответствующий селектору внутри привязанного к `this` (ключ `"__this__"`, см. предыдущие статьи). Метод создан для упрощенной работы с отдельными элементами, а не с коллекциями элементов.
```
this.select( '.blah-blah' );
```
Метод [MK#selectAll](http://finom.github.io/matreshka/docs/Matreshka.html#selectAll)
------------------------------------------------------------------------------------
Выбирает все элементы, соответствующие селектору внутри привязанного к `this`. Делает то же самое, что и метод `$` (знак доллара). `MK#selectAll` создан для полноты набора методов: если есть метод «выбрать» (`MK#select`), значит должен быть метод «выбрать все».
```
this.selectAll( '.blah-blah' );
// то же самое, что и
this.$( '.blah-blah' );
```
Метод [MK.Array#pull](http://finom.github.io/matreshka/docs/Matreshka.Array.html#pull)
--------------------------------------------------------------------------------------
Удаляет и возвращает элемент с заданным индексом.
```
var x = this.pull( 3 );
```
Является синтаксическим сахаром над `splice`.
```
var x = this.splice( 3, 1 )[ 0 ];
```
Свойства [isMK](http://finom.github.io/matreshka/docs/Matreshka.html#isMK), [isMKArray](http://finom.github.io/matreshka/docs/Matreshka.html#isMKArray) и [isMKObject](http://finom.github.io/matreshka/docs/Matreshka.html#isMKObject)
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Свойства, которые всегда `true` в экземплярах соответствующих классов
```
var mkObject = new MK.Object();
alert( mkObject.isMK && mkObject.isMKObject ); // true
```
Фиксы
=====
Кроме этого, было исправлено несколько ошибок. Вот список исправлений:
* Ничего не делать, если в качестве аргумента методам [MK.Object#addJSONKeys](http://finom.github.io/matreshka/docs/Matreshka.Object.html#addJSONKeys) и [MK.Object#removeJSONKeys](http://finom.github.io/matreshka/docs/Matreshka.Object.html#removeJSONKeys) передан `undefined` (или не передано ничего).
* Можно использовать числа в методах [MK.Object#addJSONKeys](http://finom.github.io/matreshka/docs/Matreshka.Object.html#addJSONKeys), [MK.Object#removeJSONKeys](http://finom.github.io/matreshka/docs/Matreshka.Object.html#removeJSONKeys), [MK#remove](http://finom.github.io/matreshka/docs/Matreshka.html#remove)
* Пофикшен метод [MK#once](http://finom.github.io/matreshka/docs/Matreshka.html#once)
Переименованные методы и свойства
=================================
Следуя рекомендациям semver.org, устаревшие методы и свойства не будут удалены до релиза 1.0, но в консоль будут выводиться предупреждения и просьбы использовать новые методы.
* MK.elementProcessors -> [MK.**defaultBinders**](http://finom.github.io/matreshka/docs/Matreshka.html#defaultBinders)
* MK#el -> [MK#**bound**](http://finom.github.io/matreshka/docs/Matreshka.html#bound)
* MK#$el -> [MK#**boundAll**](http://finom.github.io/matreshka/docs/Matreshka.html#boundAll)
* MK.htmlp -> [MK.**binders.innerHTML()**](http://finom.github.io/matreshka/docs/Matreshka.binders.html#innerHTML)
* MK.classp() -> [MK.**binders.className()**](http://finom.github.io/matreshka/docs/Matreshka.binders.html#className)
«Умный» массив
==============
В `MK.Array` был влит плагин `MK.DOMArray`, который был упомянут в статье об `MK.Array`. То есть функционал, который отражала гифка «для привлечения внимания» работает из коробки. Напомню, что плагин `MK.DOMArray` меняет DOM автоматически, когда массив менялся (добавление, удаление, сортировка...).
Взгляните на [пример с сайта Матрешки](http://finom.github.io/matreshka/examples/#mk.array_itemrenderer). Более подробное описание умного массива планируется несколько позже.
«Дорожная карта»
================
* Реализовать заменяемое свойство `Model` (которое будет похоже на `model` из `Backbone`). Эта фича будет являться синтаксическим сахаром над медиатором элемента массива.
* Ленивая инициализация. Сейчас, при наследовании, нужно всегда вызывать метод `initMK`. Не кошерно.
* Переписать движок событий. За основу, возможно, будет взят DOM интерфейс `EventTarget`.
* Обновить метод `MK#addDependence` для зависимостей от других экземпляров классов (о чем было написано выше).
* Оптимизировать код для минификатора.
* Исправить тексты на сайте. Сайт, как вы видите, на английском языке, и в тексте есть ошибки. Вы можете помочь исправить ошибки, используя сочетание Ctrl+Enter после выделения текста, в котором есть ошибка (чтоб не делать пул реквестов). Я буду очень благодарен.
В версии 1.0 (которая планируется, примерно, через год) планируется, во-первых, удалить устаревшие методы, во вторых убрать поддержку восьмого Осла. Все котята интерета будут рады, когда никто больше не будет поддерживать ИЕ8.
В завершение
============
Несмотря на кажущуюся тишину вокруг проекта, Матрешка развивается. Все фичи не только тщательно тестируются, но и трудятся в живых приложениях.
Еще одной целью Матрешки — это сделать разработчика, использующего фреймворк, «богом данных», который полностью, на все 100% контролирует то, что происходит в модели, конечно, не заботясь об интерфейсе. Например, планируется реализовать всплытие события изменения данных по дереву объектов и массивов, и это будет очень круто. Дальше — больше…
То пространство, которое предоставляет ядро Матрешки, базирующееся на акцессорах (геттерах и сеттерах), дает широчайшее поле для программистского творчества. Согласитесь, идея посредников и зависимостей лежала на поверхности. Скажем, у инпута свойство `value` всегда является строкой, чтоб бы мы туда не поместили, свойство `valueAsNumber` всегда число, которое зависит от строкового значения…
Спасибо, что прочли (или проскроллили) пост до конца. Всем лучей добра. | https://habr.com/ru/post/217241/ | null | ru | null |
# Машинное обучение для менеджеров: таинство сепуления
### Введение
Очередной раз работая с компанией, делающей проект, связанный с машинным обучением (ML), я обратил внимание, что менеджеры используют термины из области ML, не понимая их сути. Хотя слова произносятся грамматически правильно и в нужных местах предложений, однако их смысл им не более ясен, чем назначение *сепулек*, которые, как известно, применяются в сепулькариях для сепуления. В тоже время тимлидам и простым разрабам кажется, что они говорят с менеджментом на одном языке, что и приводит к конфликтным ситуациям, так осложняющим работу над проектом. Итак, данная статья посвящена приемам фасилитации (с латинского: упрощение или облегчение) общения разработчиков с менеджментом или тому, как просто и доходчиво объяснить базовые термины ML, приведя тем самым ваш проект к успеху. Если вам близка эта тема — добро пожаловать под кат.
> Эстету на заметку: Сепульки, сепулькарий и сепуление — термины, примененные гениальным Станиславом Лемом в 14 путешествии Ийона Тихого.
>
>
### Начало проекта
Проект ML должен начаться с легитимации метрики валидизации. Звучит устрашающе, не правда ли? Давайте начнем объяснения. Легитимация (по-русски с латинского это узаконивание) — это просто приход к согласию сторон, зафиксированный письменно и завизированный — желательно, конечно, тоже письменно. Стороны — это как донор, так и менеджмент проекта, а также его исполнители.
Теперь перейдем к **валидизации**. Программист ML обычно имеет опыт написания кода валидизации и при трассировке видит возвращаемые ему true и false. Но как объяснить это понятие менеджеру, не имеющему дела с кодом? Давайте воспользуемся вот таким простым жизненным примером.
Представьте, что вы проходите мимо рынка и видите: продают персики. Продавец говорит вам: «Бэри! Хароший пэрсик, свэжий, сочный такой, нэ пожалэеш». Однако вы приглядываетесь и видите: в одном месте он испорчен. Вы говорите: «ну где же он хороший? вот — подгнивший». Продавец предлагает за полцены. Если вы думаете: «Испорченное можно и вырезать, это всего четверть, вроде и выгодно» — и покупаете его, то на языке ML происходит валидизация и персик (на сленге ML — sample) признается валидным. В случае же, если вы думаете, что можно в другом месте найти и лучший вместо порченного, то происходит инвалидизация, а персик признается вами не валидным.
Получается, в валидизации нет ничего сложно и все мы каждый день занимаемся валидизацией, признавая что-то одно хорошим, годным для себя или инвалидизацией, признавая что-то другое плохим, негодным.
> Эстету на заметку: Неожиданно Журден с удивлением узнает, что всю жизнь выражался прозой (с). Мольер, Мещанин во дворянстве.
>
>
Наконец, осталось лишь объяснить, что такое **метрика валидизации**. Давайте задумаемся, почему мы решили купить персик из предыдущего примера?
* он достаточно дешевый (цена < порогового значения)
* он достаточно спелый (спелость > порогового значения), но не переспелый (спелость ниже 2-го порогового значения)
* он нормального размера, то есть его величина находится в категории «нормальный» (все категории: слишком маленький, маленький, нормальный, большой, огромный)
* он не достаточно порченый (площадь подгнивших и порченных областей меньше порогового значения)
Все это, перечисленное выше и есть пример метрики валидизации, состоящей в данном примере из 4 категорий. В самом простом случае, это когда персик удовлетворяет сразу всем критериям, то он будет признан валидным и куплен.
Теперь становится очевидным, почему так важно договориться с самого начала, как именно будет проходить валидизация, по какому числу параметров и какие пороговые значения будут устраивать все заинтересованные стороны. Особый раздел могут занимать описания действий в случае частичного соответствия условиям.
Естественно, каждый проект ML в зависимости от своей предметной сферы будет иметь свою собственную метрику валидизации. Документ, фиксирующий метрику валидизации, является таким же важным для проекта ML, как конституция для государства.
Только после того, как в проекте, наконец, появился зафиксированный документ, регламентирующий метрику валидизации и стал доступен всем участникам проекта, имеет смысл написать его код. Код валидизации — это сердце проекта и его качество должно быть безукоризненно, любая ошибка в этой части с большой долей вероятности может привести к краху всего проекта ML в целом.
### Таинство вычисления accuracy
Важнейшим показателем текущего положения дел в проекте для менеджмента является **accuracy**. Как же по-простому объяснить менеджеру, что это такое и какие действия нужно выполнить, чтобы его вычислить?
Сначала нам нужно объяснить, что такое валидизированная выборка. В нашем примере — это когда мы купили не один персик, а тонну. Мы садимся сами или нанимаем работников и они перебирают персики в 2 контейнера. На контейнерах надписи: Х (хороший) и П (плохой). Работа, выполненная по переборке персиков, и есть создание валидизированной выборки.
Как объяснить, зачем нужна валидизированная выборка? Представьте, что у вас есть младшая сестра и вы хотите научить ее выбирать персики. Вы берете ее на рынок и говорите: «Учись, смотри, как делаю я». Когда вам кажется, что она уже научилась, вы хотите проверить ее умения. Как это сделать? Вы создаете контрольную выборку, т.е. берете из контейнеров, например, по 100 уже перебранных персиков из каждого контейнера и незаметно наклеиваете на них тайные наклейки, чтобы знать самому из какого контейнера они были взяты, но сестре это было бы неизвестно, и предлагаете ей самостоятельно разложить их в новые пустые контейнеры. Процент совпадений выборов вашей сестры с тайными наклейками и есть показатель accuracy. Другими словами, accuracy — это объективное значение того, насколько вашей сестре можно доверить выбор персиков вместо вас. 100% означает, что она — ваша вылитая копия и все делает ровно, как и вы. 0% — что ее мнение прямо противоположно вашему.
> Эстету на заметку: Да, вы правы, со временем персики могут начать портиться и нужно учесть, что их годность придется время от времени пересматривать. И в компьютерных данных такое тоже бывает, например, с такой характеристикой, как «актуальность».
>
>
А теперь разберем 4 показателя эффективности ML, в которых бывает путаются. Это true-positive (TP), false-positive (FP), true-negative (TN) и false-negative(FN). Первая половина слова означает совпадение (true) или несовпадение (false) мнения вашей сестры с тайной наклейкой на персике. Вторая половина просто означает контейнер, в который ваша сестра бросила персик (X-хороший — positive, П-плохой — negative). А два слова вместе — это просто число персиков в такой категории.
Кроме accuracy еще используют 3 вспомогательных показателя, это precision (точность), recall (чувствительность) и f1\_score.
**Precision** показывает % совпадений с вашим мнением персиков, брошенных в контейнер Х (хороший). 100% означает, что все персики, признанные вами годными, признаны таковыми и вашей сестрой. Меньшее значение означает, что в контейнер Х попались и те, что признаны вами негодными. Показатель важен тогда, когда для бизнеса критично, чтобы негодные персики не попадали в годные, но вот если годный будет признан ошибочно негодным — то ничего страшного.
**Recall** показывает соотношение между правильно отобранными годными персиками (TP) и к сумме этого значения с хорошими персиками, ошибочно признанными негодными (TP+FN). 100% означает, что ваша сестра никогда не кидает годные персики в корзину с плохими и является противоположностью Precision. Этот показатель важен, когда для бизнеса необходимо, чтобы годные персики как можно реже попадали в контейнер к негодным.
**F1 score** — это синтетический показатель, объединяющий пользу от precision и recall. Его большое значение свидетельствует о сбалансированности обучения и говорит о том, что как хорошие персики не попадают в корзину с плохими, так и плохие не бросаются к хорошим.
> Эстету на заметку: Этот показатель является средним гармоническим между precisions и recall и считается по формуле:
>
>
>
>
> ```
> f1_score = 2*(recall*precision) / (recall + precision)
> ```
>
Зачастую возникает вопрос: зачем менеджеру проекта ML так глубоко знать и понимать все эти показатели. Ответ: это важно для бизнеса. Как менеджеру молочной фермы нужно знать, что такое удои и по какой формуле они считаются, как менеджеру фермерского хозяйства нужно знать, что такое урожайность и как она вычисляется. Да, менеджер может не вникать, как именно доятся коровы, как они телятся и как их лечить, но понимать главные бизнес-показатели проекта — это залог успешности бизнеса.
### Итоги
Все мы, участники проектов ML, делаем хорошее и нужное дело. Кто из нас, будучи студентом, не мечтал, перебирая картофель, помидоры и капусту в колхозе, чтобы за него это делали роботы, а не человек (с). Мы делаем сказку былью и пусть наши проекты будут успешными. Я буду рад, если эта статья поможет внести небольшой вклад в успешное начинание проектов ML.
Если эта статья покажется вам полезной, пишите в комментариях и я сделаю 2-ю статью о том, как объяснить менеджменту аддитивность и генерализацию, эти столпы правильного, годного проекта ML. | https://habr.com/ru/post/447094/ | null | ru | null |
# Raspberry Pi + FreeBPX(asterisk) + Mikrotik = АТС мини
**Настройка "с нуля"**
* Введение, начало
* Установка и настройка FreePBX
* Подключение GSM модема
* Настройка fail2ban
* Настройка Mikrotik
Введение, начало
----------------
В небольшой офис потребовалась АТС, для звонков по России и между сотрудниками. Был выбор между использованием готовых решений от SIP провайдеров и самодельной личной АТС. У каждой стороны есть свои плюсы и минусы. Так как офис только запускался, сотрудников мало, тотальный режим экономии, то от провайдеров отказался - абонентская плата за номер (при том что номер дается городской, к которому сложно привязать мессенджеры, мобильные номера от провайдера у клиентов не вызывают доверия и так же имеют проблемы с привязкой к мессенджерам) и тарифы на звонки на мобильные номера клиентов у всех не менее 1,5 руб./мин.
Т.к. в наличии был не используемый Raspberry Pi 3B+, то решено было использовать его в качестве АТС с Asterisk. MicroSD карта, от 8Гб, желательно 16Гб для установки системы. Были попытки установки голой версии с нуля по различным туториалам из сети, но во всех постоянно были какие то проблемы, т.к. они все написаны от 2 до 10 лет назад, на быстрый старт они не сработали.
Так же для автономной работы без зависимости от провайдеров нужен USB модем с поддержкой голосовых вызовов, есть списки нормально работающих модемов (предварительно разблокированных по инструкциям из 4ПДА), у меня работает Huawei E1550.
Для безопасной работы в сети использую Mikrotik RB951G, теоретически можно любой, OS у них одна и та же (основ настройки роутера здесь не будет, подразумевается, что у вас интернет через него уже работает). Так же нужен интернет провайдер с возможностью предоставить статический или динамический IP адрес, что бы можно было подключатся к АТС из любого места сети интернет. Через приватные адреса у меня не получилось работать (через мобильные сети тоже, они все предоставляют адрес, к которому нет подключения снаружи, да же через DDNS сервисы).
Установка и настройка FreePBX
-----------------------------
Сохраняем себе в закладки сайт <http://www.raspberry-asterisk.org/> , там скачиваем образ системы [raspbx-10-10-2020.zip](http://download.raspberry-asterisk.org/raspbx-10-10-2020.zip). Распаковываем архив, если для записи используется программа [Win32DiskImager](http://disk-imager.ru/download.html), можно без распаковки и использовать для записи, например, [BalenaItcher](https://www.balena.io/etcher/). Записываем на компьютер скачанный образ на карту microSd, записанную карту вставляем в raspberry, подключаем кабели (сеть к роутеру, питание), включаем и ждем загрузки, монитор не нужен. В роутере в разделе ip-dhcp server-leases смотрим назначенный адрес нашей АТС, это нужно будет для подключения по ssh.
В браузере набираем <http://raspbx/>, проходим первоначальную регистрацию, назначение имени и пароля администратора FreePBX, желательно сложный защищенный, если нет желания все снова настраивать восстанавливать. В конечном итоге после входа должно получится так:
Так же подключаемся через Putty к asterisk, логин и пароль пока стандартные root/raspberry. Меняем пароль по умолчанию:
```
passwd
```
Все пароли сохраняйте в надежных местах, потому что, когда долго не подходишь к работающему устройству, то память может и забыть пароль для входа, который достаточно сложно восстановить.
Так как система основана на Debian, то здесь работают стандартные команды. Обновляем систему, настраиваем свою временную зону, устанавливаем модуль для работы с USB модемом, файловый навигатор MC для удобства:
```
raspbx-upgrade
configure-timezone
install-dongle
apt install mc
```
При установке модуля dongle указываем реальный номер, который будет использоваться в модеме (у оператора сотовой связи выбираем тариф с пакетом минут на звонки по России).
Так как у меня не получилось запустить систему на современном драйвере pjsip (в телефонах тишина), то все настройки будут на legacy sip, работает на всех абонентских устройствах.
В браузере переходим по порядку основные настройки:
Пояснение: 3-4 для безопасности, 5 - определение адреса внешнего IP, 6 - настройки вашей локальной сети, 7 - сужаем диапазон портов, так как сотрудников мало, чуть ниже выбираем стандартные кодеки ulaw alaw gsm, 9 - по завершению нажимаем на Apply config, ждем обновления конфигурации.Переходим на закладку SIP legacy setting:
1,2 -меняем стандартные значения портов на свои, 3 - пусть будет, пригодится, 4 - для безопасности при подборах паролей.Так же меняем стандартное значение порта на вкладке PJSIP, все сохраняем и применяем ( submit & apply config).
Настраиваем extension (это номера для подключения абонентов):
настроили абонентов, Submit & Apply config.
Настройка trunk для модема:
6 - максимальное число каналов - ставим 1Маршрут для входящих звонков:
Маршрут для исходящих звонков:
Шаблоны для набранных номеров, здесь можно ограничить направление звонков, местные, межгород, международные. Звонок будет работать, если совпадет с набранным шаблоном.С графической частью закончили. Главное не забывать после каждых действий Submit & Apply Config, что бы внесенные изменения сохранялись.
Подключение GSM модема
----------------------
Здесь собранная копипаста из разных источников:
> Тестированные модемы:
> Предварительно на компьютере перевести GSM-модем в режим работы «только модем» ( **AT^U2DIAG=0** ) и в режим только 2G (**AT^SYSCFG=13,1,3fffffff,0,0** ) с помощь Putty или любым другим способом, можно и через raspberry, но и так здесь большой объем.
>
>
* E171 - ОК
* E1550 - ОК
* E150 - Голос только в одну сторону
* E3131 - Работают не стабильно, при исходящих голос только в одну сторону
* E352 - Нет голосовых функций
Подключаем GSM-модем HUAWEI E1550, проверяем появились ли устройства ttyUSB\*:
```
ls -al /dev | grep ttyUSB
```
полученный ответ команды**crw-rw---- 1 root dialout 188, 0 фев 27 11:34 ttyUSB0**
**crw-rw---- 1 root dialout 188, 1 фев 27 11:33 ttyUSB1**
**crw-rw---- 1 root dialout 188, 2 фев 27 12:37 ttyUSB2**
Чтобы при подключении GSM-модема, Asterisk имел доступ к нему, необходимо устройству назначить владельца **asterisk** и группу **dialout**. Создаем файл (nano /etc/udev/rules.d/92-dongle.rules) со следующим содержимым:
| |
| --- |
| KERNEL=="ttyUSB\*", MODE="0666", OWNER="asterisk", GROUP="dialout" |
Перезагружаем raspberry командой reboot и переподключаемся к атс с помощью Putty.
Настройка файла dongle.conf ( nano /etc/asterisk/dongle.conf ) - проверяем параметр exten и прописываем imei модема, остальное можно не трогать:
```
initstate=start ; specified initial state of device, must be one of 'stop' 'start' 'remote'
; 'remove' same as 'disable=yes'
exten=+79234567890 ; Проверяем наш номер сим карты, он связан с ранее настроенными
dtmf=relax ; control of incoming DTMF detection, possible values:
; off - off DTMF tones detection, voice data passed to asterisk unalte$
; use this value for gateways or if not use DTMF for AVR or in$
; inband - do DTMF tones detection
; relax - like inband but with relaxdtmf option
; default is 'relax' by compatibility reason
; dongle required settings
[dongle0]
audio=/dev/ttyUSB1 ; tty port for audio connection; no default value
data=/dev/ttyUSB2 ; tty port for AT commands; no default value
imei=351234567898991 ; ПРОПИСЫВАЕМ IMEI модема
;imsi=123456789012345
```
В консоли asterisk, перечитываем конфигурацию chan\_dongle и проверяем состояние устройства. Если все было сделано правильно, то подключение к GSM-модему будет осуществлено и устройство будет отображаться в консоли asterisk:
```
root@raspbx:/# asterisk -rv
raspbx*CLI> dongle show devices
ID Group State RSSI Mode Submode Provider Name Model Firmware IMEI IMSI Number
dongle0 0 Free 26 3 3 MegaFon E1550 11.608.14.15.311 35******* 2**************3 Unknown
```
Настройка файла конфигурации для звонков и смс (настраивал только входящие смс с переадресацией на настроенный extension) :
```
nano /etc/asterisk/extensions_custom.conf
[from-trunk-dongle]
; можно раскомментировать, тогда смс будут записываться в файл sms.txt, смотреть потом в логах
;exten => sms,1,Verbose(Incoming SMS from ${CALLERID(num)} ${BASE64_DECODE(${SMS_BASE64})})
;exten => sms,n,Set(FILE(/var/log/asterisk/sms.txt,,,a)=${STRFTIME(${EPOCH},,%Y-%m-%d %H:%M:%S)} - ${DONGLE$
;exten => sms,n,System(echo >> /var/log/asterisk/sms.txt)
;exten => sms,n,Hangup()
exten => _.,1,Set(CALLERID(name)=${CALLERID(num)})
exten => _.,n,Goto(from-trunk,${EXTEN},1)
; закомментировать, если выше было раскомментировано
exten => sms,1,Set(MESSAGE(body)=${BASE64_DECODE(${SMS_BASE64})})
exten => sms,n,System(echo '${STRFTIME(${EPOCH},,%Y-%m-%d %H:%M:%S)} - ${DONGLENAME} - ${CALLERID(num)}: ${$
exten => sms,n,Set(MESSAGE(from)="${CALLERID(num)}" <${CALLERID(num)}>)
exten => sms,n,Set(CALLERID(name)=${CALLERID(num)})
exten => sms,n,Verbose(1,${MESSAGE(from)})
exten => sms,n,MessageSend(sip:250,${MESSAGE(from)}) ; Прописываем куда пересылать входящие сообщения - на номер 250
exten => sms,n,Hangup()
exten => ussd,1,Verbose(Incoming USSD: ${BASE64_DECODE(${USSD_BASE64})})
exten => ussd,n,System(echo '${STRFTIME(${EPOCH},,%Y-%m-%d %H:%M:%S)} - ${DONGLENAME}: ${BASE64_DECODE(${US$
exten => ussd,n,Hangup()
; отправка СМС из СИП клиента через модем
[messages]
include => send-sms
exten => _XXX,1,MessageSend(sip:${EXTEN},"${CALLERID(name)}"${MESSAGE(from)})
[send-sms]
exten => _.,1,NoOp(SMS send to dongle)
same => n,NoOp(To ${MESSAGE(to)})
same => n,NoOp(From ${MESSAGE(from)})
same => n,NoOp(Body ${MESSAGE(body)})
same => n,Set(SMSTO=${EXTEN})
same => n,DongleSendSMS(dongle0,${SMSTO},"${MESSAGE(body)}",1440,yes)
same => n,Hangup()
```
Сохраняем, перезагружаем, пробуем звонить (входящие исходящие) и присылать смс. Должно все работать.
Пробовал вариант подключения смартфона по Bluetooth в качестве шлюза, все работало, но качество связи было ужасное, причем на стороне астериска (голос сильно искаженный, скорее всего из-за кодеков блютуза, настроить не смог).
Настраиваем защиту asterisk freepbx с помощью fail2ban (By @UKVoIPForums )
--------------------------------------------------------------------------
Полноценных русскоязычных гайдов для начинающих не нашел, есть на английском форуме:
```
install-fail2ban
```
Создаем тюрьму:
```
sudo nano /etc/fail2ban/jail.local
```
Копируем содержимое в файл jail.local
```
[DEFAULT]
# "ignoreip" can be an IP address, a CIDR mask or a DNS host. Fail2ban will not
# ban a host which matches an address in this list. Several addresses can be
# defined using space separator.
ignoreip = 127.0.0.1/8 ::1
[asterisk]
enabled = true
filter = asterisk
action = iptables-asterisk[name=asterisk]
logpath = /var/log/asterisk/security_log
bantime = 31536000
findtime = 86400
maxretry = 3
[sshd]
enabled = true
port = ssh
filter = sshd
logpath = /var/log/auth.log
banaction = iptables-allports
bantime = 31536000
findtime = 86400
maxretry = 3
[freepbx]
enabled = true
port = http,https
filter = freepbx
logpath = /var/log/asterisk/freepbx_security.log
bantime = 31536000
findtime = 86400
maxretry = 3
```
Еще 6 файлов конфигурации нужно создать/изменить, поехали:
```
sudo nano /etc/fail2ban/filter.d/freepbx.conf
```
1. Копируем содержимое в файл freepbx.conf
```
[INCLUDES]
before = common.conf
[Definition]
datepattern = ^\[%%Y-%%b-%%d %%H:%%M:%%S\]
failregex = \[freepbx_security\.NOTICE\]: Authentication failure for .* from
```
```
sudo nano /etc/fail2ban/filter.d/asterisk.conf
```
2. Копируем содержимое в файл asterisk.conf, на всякий случай скопируйте существующее содержимое оригинального файла
```
# Fail2Ban configuration file
#
#
# $Revision: 251 $
#
[INCLUDES]
# Read common prefixes. If any customizations available -- read them from
# common.local
before = common.conf
[Definition]
#_daemon = asterisk
# Option: failregex
# Notes.: regex to match the password failures messages in the logfile. The
# host must be matched by a group named "host". The tag "" can
# be used for standard IP/hostname matching and is only an alias for
# (?:::f{4,6}:)?(?P\S+)
# Values: TEXT
#
# Asterisk 1.8 uses Host:Port format which is reflected here
failregex = NOTICE.\* .\*: Registration from '.\*' failed for ':.\*' - Wrong password
NOTICE.\* .\*: Registration from '.\*' failed for ':.\*' - No matching peer found
NOTICE.\* .\*: Registration from '.\*' failed for ':.\*' - Username/auth name mismatch
NOTICE.\* .\*: Registration from '.\*' failed for ':.\*' - Device does not match ACL
NOTICE.\* .\*: Registration from '.\*' failed for ':.\*' - Peer is not supposed to register
NOTICE.\* .\*: Registration from '.\*' failed for ':.\*' - ACL error (permit/deny)
NOTICE.\* .\*: Registration from '.\*' failed for ':.\*' - Device does not match ACL
NOTICE.\* .\*: Registration from '\".\*\".\*' failed for ':.\*' - No matching peer found
NOTICE.\* .\*: Registration from '\".\*\".\*' failed for ':.\*' - Wrong password
NOTICE.\* failed to authenticate as '.\*'$
NOTICE.\* .\*: No registration for peer '.\*' \(from \)
NOTICE.\* .\*: Host failed MD5 authentication for '.\*' (.\*)
NOTICE.\* .\*: Failed to authenticate user .\*@.\*
NOTICE.\* .\*: failed to authenticate as '.\*'
NOTICE.\* .\*: tried to authenticate with nonexistent user '.\*'
SECURITY.\* .\*: SecurityEvent="ChallengeSent",.\*,.\*,Service="(PJ)?SIP",.\*,AccountID="",.\*,.\*,RemoteAddress=".\*/.\*//.\*",Challenge=""
SECURITY.\* .\*: SecurityEvent="InvalidAccountID",.\*,Severity="Error",Service="(PJ)?SIP",.\*,.\*,.\*,.\*,RemoteAddress=".\*/.\*//.\*"
SECURITY.\* .\*: SecurityEvent="ChallengeResponseFailed",.\*,Severity="Error",Service="(PJ)?SIP",.\*,.\*,.\*,.\*,RemoteAddress=".\*/.\*//.\*",.\*
SECURITY.\* .\*: SecurityEvent="InvalidPassword",.\*,Severity="Error",Service="(PJ)?SIP",.\*,.\*,.\*,.\*,RemoteAddress=".\*/.\*//.\*",.\*
# Option: ignoreregex
# Notes.: regex to ignore. If this regex matches, the line is ignored.
# Values: TEXT
#
```
```
sudo nano /etc/fail2ban/action.d/iptables-asterisk.conf
```
3. Копируем содержимое в файл iptables-asterisk.conf (в файле по аналогии добавляем наши кастомные порты, которые мы прописывали в настройках SIP)
```
# Fail2Ban configuration file
#
# Author: Razvan Turtureanu
#
# $Revision$
#
[Definition]
# Option: actionstart
# Notes.: command executed once at the start of Fail2Ban.
# Values: CMD
#
actionstart = iptables -N fail2ban-
iptables -A fail2ban- -j RETURN
iptables -I -p tcp --dport 5061 -j fail2ban-
iptables -I -p udp --dport 5060 -j fail2ban-
iptables -I -p tcp --dport 5060 -j fail2ban-
# Option: actionstop
# Notes.: command executed once at the end of Fail2Ban
# Values: CMD
#
actionstop = iptables -D -p tcp --dport 5061 -j fail2ban-
iptables -D -p udp --dport 5060 -j fail2ban-
iptables -D -p tcp --dport 5060 -j fail2ban-
iptables -F fail2ban-
iptables -X fail2ban-
# Option: actioncheck
# Notes.: command executed once before each actionban command
# Values: CMD
#
actioncheck = iptables -n -L | grep -q fail2ban-
# Option: actionban
# Notes.: command executed when banning an IP. Take care that the
# command is executed with Fail2Ban user rights.
# Tags: IP address
# number of failures
# unix timestamp of the ban time
# Values: CMD
#
actionban = iptables -I fail2ban- 1 -s -j DROP
# Option: actionunban
# Notes.: command executed when unbanning an IP. Take care that the
# command is executed with Fail2Ban user rights.
# Tags: IP address
# number of failures
# unix timestamp of the ban time
# Values: CMD
#
actionunban = iptables -D fail2ban- -s -j DROP
[Init]
# Defaut name of the chain
#
name = default
# Option: chain
# Notes specifies the iptables chain to which the fail2ban rules should be
# added
# Values: STRING Default: INPUT
chain = INPUT
```
```
sudo nano /etc/asterisk/logger_logfiles_custom.conf
```
4. Копируем содержимое в файл logger\_logfiles\_custom.conf
```
security_log => SECURITY,NOTICE
```
```
sudo nano /etc/logrotate.d/asterisk-security
```
5. Копируем содержимое в файл asterisk-security
```
/var/log/asterisk/security_log {
weekly
missingok
rotate 4
size 2000k
sharedscripts
create 0664 asterisk asterisk
su asterisk asterisk
postrotate
/usr/sbin/invoke-rc.d asterisk logger-reload > /dev/null 2> /dev/null
endscript
}
```
```
sudo nano /etc/logrotate.d/freepbx-security
```
6. Копируем содержимое в файл freepbx-security
```
/var/log/asterisk/freepbx_security.log {
weekly
missingok
rotate 4
size 2000k
sharedscripts
create 0664 asterisk asterisk
su asterisk asterisk
postrotate
/usr/sbin/invoke-rc.d asterisk logger-reload > /dev/null 2> /dev/null
endscript
}
```
Перезагружаемся - reboot
Памятка для работы с fail2ban:**File permissions and owner/group information:**
/etc/fail2ban/jail.local = rw-r--r-- root root
/etc/fail2ban/filter.d/freepbx.conf = rw-r--r-- root root
/etc/fail2ban/filter.d/asterisk.conf = rw-r--r-- root root
/etc/fail2ban/action.d/iptables-asterisk.conf = rw-r--r-- root root
/etc/asterisk/logger\_logfiles\_custom.conf = rw-rw-r-- asterisk asterisk
/etc/logrotate.d/asterisk\_security = rw-r--r-- root root
**Basic Fail2ban commands:**
Start Fail2ban = `sudo service fail2ban start`
Stop Fail2ban = `sudo service fail2ban stop`
Restart Fail2ban = `sudo service fail2ban restart`
**Get the current status of an individual jail:**
FreePBX status = `sudo fail2ban-client status freepbx`
Asterisk status = `sudo fail2ban-client status asterisk`
SSHD status = `sudo fail2ban-client status sshd`
**Ban/Unban IP addresses:**
Ban IP = `sudo fail2ban-client set *YOURJAILNAMEHERE banip IPADDRESSHERE`
Unban IP = `sudo fail2ban-client set *YOURJAILNAMEHERE unbanip IPADDRESSHERE`
*\*Replace****YOURJAILNAMEHERE****with****freepbx****,****asterisk****or****sshd****.*
*\*Replace****IPADDRESSHERE****with the IP address that you want to ban/unban.*
Настройка Mikrotik
------------------
Нужно настроить проброс портов и защиту.
IP-Firewall-жмем на плюсик:
Создаем ловушки на стандартных портах и рядом стоящих для сканировщиков и отправляем в бан. Правило копируем и делаем для tcp, так же можно сделать для других стандартных портов 22,3389,8291Делаем проброс портов во вкладке NAT (номера, которые прописывали в SIP настройках FreePBX), копируем и пишем диапазон RTP по аналогииПроброс портов для работы абонентов в локальной сетиТак же можно/желательно делать перезагрузку системы в автоматическом режиме по расписанию, для сброса зависшего модема, у меня завис через 5 дней работы, а рядом никого, пришлось ехать и в ручную перегружать.
```
crontab -e
# пишем в конце файла (перезагрузка каждый день в 5 утра)
0 5 * * * /sbin/reboot
```
Желательно настроить VPN доступ к микротику из интернета, для разруливания внештатных ситуаций по случайно забаненым адресам абонентов.
Долго собирал из разных источников эту работающую инструкцию. Может кому то и поможет.
P.S. Добавлена возможность отправки СМС через модем из SIP клиента, например Zoiper.
Если есть у кого интересные и полезные советы-рекомендации по улучшению настройки FreePBX, то просьба сообщать, что бы добавить для полноценного мануала. | https://habr.com/ru/post/550734/ | null | ru | null |
# Установка Sharepoint фермы
Начали собирать ферму из 2ух фронтендов + сервер MS SQL.
На обе машины — MOSS 2007 + WSS SP1 + MOSS SP1
Настроили все как обычно, сделали базу на одной машине — потом накатили **Infrastructure Update**
НИ В КОЕМ СЛУЧАЕ НЕ СТАВЬТЕ ЭТОТ АПДЕЙТ СРАЗУ ЕСЛИ СОБИРАЕТЕСЬ ОБЬЕДИНЯТЬ СЕРВЕРА В ФЕРМУ!
В итоге, получили что на одном сервере версия шарпоинта больше чем на 2ом (тк для установки обновления инфраструктуры нужно уже сконфигурировать базу данных)
А база при установке фермы должна быть общая… поэтому команда stsadm'a на присоединение к ферме кидает Securtiy Exception :(
В итоге, сейчас будем переставлять весь MOSS так как откат обновления инфраструктуры не помог :(
**UPDATE:**
Конфигурируем infrastructure update на 1ой машине… валится с ошибкой, что на 2ой чего-то не хватает для полного счастья. Предлагает запустить **psconfing.exe -cmd upgrade -force** на 2ой машине.
При попытке сконфигурировать infrastructure update на 2ой машине фермы вылетает
`Ошибка: Сбой обновления продуктов и технологий SharePoint.`
На technet.microsoft.com было найдено описание проблемы:
`При добавлении нового веб-сервера в существующую ферму, в которой не содержится веб-приложений, и обновлении веб-сервера с последующим запуском мастера настройки продуктов и технологий SharePoint может выдаваться сообщение об ошибке Failed to upgrade SharePoint Products and Technologies.
Эта ошибка возникает в том случае, если мастеру настройки продуктов и технологий SharePoint не удается найти или изменить файл Web.config.`
Решение по проблеме:
`Для устранения этой неполадки необходимо вручную скопировать файл **Web.config** из папки **<диск>:\Program Files\Common Files\Microsoft Shared\Web Server Extensions\12\Config** в папку **<диск>:\Program Files\Common Files\Microsoft Shared\Web Server Extensions\12\Template\Layouts**. После копирования файла Web.config в папку "Layouts" мастер настройки продуктов и технологий SharePoint можно запустить повторно.`
топаем **psconfing.exe -cmd upgrade -force** повторно, вроде все завелось :)
[Развертывание обновлений](http://technet.microsoft.com/ru-ru/library/cc263467.aspx)
PS: Да, еще забыл сказать, что **не** нужно секюрить настройки машин до добавления в ферму.
(Команда psconfig.exe -cmd secureresources). | https://habr.com/ru/post/57195/ | null | ru | null |
# Обеспечение обратной совместимости .NET-приложений при использовании WinRT
Создание Windows Runtime (WinRT) в качестве API, с одной стороны, можно только приветствовать, так как предыдущий — WinAPI — особой простотой и человеколюбием не отличался. С другой стороны, в полный рост при этом всплывает проблема обратной совместимости. Что делать, если нужно заиспользовать какую-то приятную мелочь, появившуюся в Win8, но при этом не терять совместимости с Win7, все еще бодро шагающей в строю?
Официальный MSDN к этому относится весьма однозначно: если нужен WinRT, то забываем про версии Windows, старше восьмерки; если нужно поддерживать всякое старье, то собираем приложение отдельно без упоминания об WinRT. Такие вот простые и незатейливые парни работают в Microsoft. Тем не менее, решение проблемы, причем достаточно простое, удалось отыскать.
Суть в том, что мы можем всю нужную для счастья имплементацию, требующую WinRT, отнести в отдельную сборку, и в случае необходимости пытаться подгрузить ее динамически: удается — замечательно, ну а не получается — смиряемся и подсовываем заглушку с тем же интерфейсом.
Допустим, у нас возникло желание, пользуясь WinRT, читать значения датчика освещенности ноутбука/планшета. За это отвечает класс LightSensor из пространства имен Windows.Devices.Sensors. В таком случае диаграмму классов можно представить следующим образом:

**Interfaces** — самый обыкновенный Class Library, содержащий интерфейс IWinRTAccessor, возвращающий своим единственным методом GetLightValue ровно то, что нам нужно, а именно уровень освещенности в случае наличия сенсора и null в случае его отсутствия. Там же объявлена заглушка FakeWinRTAccessor, реализующая этот интерфейс, всегда возвращающая null. Кроме того здесь же расположен класс WinRTAccessorFactory, чей фабричный метод инстанцирует нужную реализацию IWinRTAccessor. Самая примитивная реализация этого фабричного метода выглядит так:
```
public static IWinRTAccessor GetAccessor()
{
if (_winRtAccessor == null)
{
try
{
String path = Path.Combine(Path.GetDirectoryName(Assembly.GetExecutingAssembly().Location), WinRTAccessorAssemblyName);
Assembly assembly = Assembly.LoadFile(path);
Type type = assembly.GetTypes().First(t => t.GetInterface(typeof (IWinRTAccessor).Name) != null);
_winRtAccessor = (IWinRTAccessor) Activator.CreateInstance(type);
}
catch
{
_winRtAccessor = new FakeWinRTAccessor();
}
}
return _winRtAccessor;
}
```
**WinRTLib** — не менее обыкновенный Class Library (на имя которого и указывает константа WinRTAccessorAssemblyName), в котором сосредоточена логика работы с WinRT, однако для его поддержки нужно пойти на небольшую хитрость: прописать в файле проекта (.csproj) следующий Property Group:
8.0
И уже только после этого добавлять Windows Core References. Нас в данном случае интересует Windows.Devices:

Сам метод, извлекающий показания датчика освещенности, спасибо новому API, весьма прост:
```
public Single? GetLightValue()
{
LightSensor light = LightSensor.GetDefault();
if (light != null)
return light.GetCurrentReading().IlluminanceInLux;
return null;
}
```
В принципе, этого бы и хватило, если не отложенная компиляция: в более ранних версиях Windows эта сборка имеет все шансы корректно загрузиться и инстанцировать экземпляр RealWinRTAccessor, а упасть уже на вызове его метода при обращении к WinRT. Чтобы этого не произошло, дернем WinRT прямо в конструкторе:
```
public RealWinRTAccessor()
{
LightSensor.GetDefault();
}
```
Теперь, когда нужно получить показание датчика освещенности, можно дергать:
```
WinRTAccessorFactory.GetAccessor().GetLightValue()
```
Этот код отработает как при наличии WinRT, так и для более ранних версий Windows — в этом случае результатом вызова GetLightValue будет null.
Из преимуществ данного подхода: достижение поставленной цели и относительная простота.
Из недостатков: необходимость наличия прав на загрузку сборок через Assembly.LoadFile, ручная проверка (ее здесь нет, но должна быть) оригинальности подгружаемой сборки, ручное управление сборкой и местоположением WinRTLib, т.к. она не является Reference кого бы то ни было. | https://habr.com/ru/post/258015/ | null | ru | null |
# Однократные подписки
При создании разных сервисов очередей часто возникает вопрос: «А как лучше реализовать систему уведомлений о событиях в очереди?» Она часто бывает сложнее в реализации, нежели сам сервис очереди. Система распространения уведомлений встречается во многих программных комплексах. Как правило, клиентов у таких систем немного: десятки, реже — сотни.
Давайте обсудим способы построения таких систем в случаях, когда клиентов не сотни, а сотни тысяч.
---
Предположим, что нам надо построить сервис, способный уведомить множество подписчиков. Причём это множество достаточно велико — десятки или сотни тысяч на экземпляр.
Какие проблемы нас ожидают при решении этой задачи?
**Клиентская сторона**:
* Клиент должен иметь информацию о том что происходит на сервере:
+ консистентно;
+ с минимально возможной задержкой.
* Среди тысяч клиентов обязательно будут быстрые и медленные, работающие и зависающие.
**Серверная сторона**:
* Система уведомлений клиента X не должна зависеть от скорости канала у клиента Y.
* Система уведомлений вообще не должна зависеть от скоростей клиентов (обобщение предыдущего пункта).
Если порефлексировать над этими проблемами, то можно понять, какие обязательные свойства будут у системы доставки событий от сервера к клиенту. А вариативность остальных свойств даст нам множество решений.
### Требования к системе
Итак, обязательные свойства:
* Система доставки событий должна записывать отправляемые события в буфер (а не сокет). Запись в память даст максимальную производительность и предотвратит блокировку записывающего.
Вариативные свойства:
* Либо: Клиент должен получать **все** отправляемые ему сообщения вне зависимости от скорости канала.
* Либо: Клиент должен уметь диагностировать разрыв соединения и восстанавливать консистентность своего состояния после сбоя.
### Поиск вариантов
#### Резиновая очередь
Рассмотрим первый из вариантов. В общем случае, с учётом обязательных свойств это можно реализовать при помощи «резинового» буфера (или очереди неограниченных размеров). Недостатки этого подхода очевидны:
* При наличии медленных клиентов растёт потребление памяти системой передачи сообщений.
* При наличии хотя бы одного клиента, который всегда (на протяжении очень длительного времени) не справляется с передаваемым ему потоком сообщений, мы гарантированно придём к тому, что в гости к системе постучится ООМ-киллер.
#### Очередь фиксированного размера
Первое, что приходит в голову, это ограничение размера очереди. Но если мы его вводим, то должны сразу предусматривать протокол действий при переполнении буфера (или очереди). Пример алгоритма работы сервера может быть приблизительно таким:
Если обнаруживается переполнение буфера, то он очищается, при этом сохраняется пометка об этом событии. Клиент реализует примерно такой алгоритм:
Этот алгоритм подписки требует устойчивости клиента к повторной обработке события (идемпотентность).
### Реальные приложения
Если мы рассмотрим реальные приложения, то увидим такую ситуацию:
> Крайне редко через канал связи pub/sub передаются сами данные. В основном передаётся самый минимум данных.
>
>
Если это чат, то через канал уведомлений передаётся информация о появлении новых сообщений в таком-то чате, об изменении пользователем своего статуса и т.д. Если это подписка-репликация, то по каналу уведомлений передаются номера последних изменённых сообщений и другая информация.
В некоторых случаях по каналу уведомлений передаются **все** данные, но, как правило, это сделано потому, что данных очень мало. И даже тогда предусматривается режим восстановления состояния с нуля: канал может быть разорван, клиент или сервер быть перезапущен, и т.п.
#### Передача состояния
Множество приложений с архитектурой pub/sub передают через систему уведомлений не сообщения, а некое состояние. Вернее, при помощи сообщений передаётся информация о состоянии сервера. Например:
* Сервер присылает сообщение «на сервере 40 заказов».
* Клиент сверяет со своим «у меня 38 заказов, надо получить ещё два».
Или:
* Сервер присылает сообщение «клиент отправил сообщение в чат XXX и в нём стало YYY сообщений».
* Клиент сверяет со своим «мой клиент смотрит в чат XXX?». И если смотрит, то «сколько у моего клиента сообщений в чате XXX?».
Редко когда архитектуру передачи уведомлений нельзя свести к передаче состояния. Обычно, если это не сделано, то, во-первых, это можно сделать. А во-вторых, если это сделать, то, скорее всего, система станет лучше (повысится производительность, отзывчивость и т.д.).
Однако мы отвлеклись. Итак, давайте выпишем проблемные вопросы системы передачи сообщений, когда через неё передаются именно уведомления. В частности, уведомления об изменении состояния.
**Проблема 1**: Батчинг сообщений.
Часто встречается, особенно при интеграции разнородных систем. Сервер загружает CRON-скриптом с другого сервера 100500 данных, а в систему уведомлений приходит большой пакет событий, который переполняет рассмотренные выше буферы.
**Проблема 2**: Клиент медленнее сервера.
Встречается не так редко. Клиент не успевает обрабатывать весь поток сообщений с сервера. В этом случае обычно стремятся к тому, чтобы клиент обрабатывал сообщения в режиме батчинга либо периодически полностью перевостанавливал своё состояние.
Примечание: «медленный клиент» может означать как недостаток вычислительной мощности на клиенте, так и низкую пропускную способность канала к нему.
**Проблема 3**: Большой объём памяти, требуемый для буферов между клиентом и сервером (следствие проблемы 1 и иногда 2).
Если мы будем рассматривать все эти проблемы, то увидим, что **поскольку код восстановления после переполнения буфера всё равно необходим**, и для медленных клиентов чем больше буфер, тем хуже, то неизбежно придём к выводу, что **систему уведомлений можно редуцировать до буфера с размером 1**. То есть вариант «Отписываемся при каждом отправлении сообщения в канал». Алгоритм работы сервера получается таким:
Алгоритм работы клиента:
Если протокол между клиентом и сервером асинхронный, то, памятуя о паттерне «передача состояния», можем написать такой алгоритм обработки запроса `subscribe` на сервере:
А алгоритм обслуживания серверного `push` будет таким:
То есть:
* Клиент отправляет запрос «подписаться».
* В ответ получает текущее состояние.
* Получает информацию о произошедшем событии.
* Переподписывается.
Данные, передаваемые при изменении состояния, не имеют большого значения, поскольку на момент их получения клиент де-факто отписан от наблюдения за состоянием.
### Ещё оптимизируем
Если сервер между переподписками клиента будет хранить статус изменения состояния в период отключенности клиента, то можно сэкономить дополнительный запрос состояния. Но эта оптимизация доступна только в случае, когда мы можем контроллировать разницу между:
* клиент не переподписывается, потому что обрабатывает состояние;
* клиент не переподписывается, потому что отключился.
Если между клиентом и сервером установлено постоянное соединение (например, TCP), то эта разница легко диагностируется: TCP установлен, значит клиент в порядке.
Достоинства получившейся схемы доставки уведомлений:
* Схема крайне хорошо переносит “батчинг”.
* Схема максимально толерантна к медленным клиентам.
Недостатки:
* Схема оптимизирована именно под передачу состояния. Передача просто потока уведомлений ложится в схему плохо.
### Request-Response?
Схема очень похожа на обычную пару запрос-ответ. Отличие в том, что сервер между запросами «помнит» о подписывавшихся клиентах, и на основании этого ответ может быть как выдан сразу, так и задержан.
### Tarantool
Традиционно в Tarantool pub-sub подписки делались следующим образом: клиент выполнял запрос `subscribe`, который «задерживался» до появления события или до таймаута. Классический long-polling. На сервере при этом «ожидала» события хранимая процедура, со всеми связанными с её запуском накладными расходами. Какие недостатки у такого подхода?
* На сервере есть поток, ожидающий событие.
* На клиенте есть поток, ожидающий ответ на запрос.
Это приводило к тому, что одним Tarantool'ом было сложно обслужить больше нескольких тысяч клиентов (ограничения по числу файберов, по размеру потребляемой памяти LuaJIT и т.п.). Но начиная с версии 2.10 протокол и ядро Tarantool'а будет поддерживать систему однократных подписок, описанную выше. Ни серверу ни клиенту больше не требуется «содержать» поток, обслуживающий систему доставки событий. С помощью этой технологии теперь можно писать приложения, позволяющие одному Tarantool'у обслуживать десятки тысяч подключённых клиентов.
Между Tarantool'ами этот механизм будет выглядеть примерно так:
```
-- Клиент
net_box.watch(
key,
function(key, state)
-- Состояние, определяемое ключом `key`
-- поменялось на новое значение
...
-- Переподписка произойдёт после завершения
-- этой функции
end
)
-- Сервер
-- уведомляем подписчиков о том, что состояние, определяемое
-- ключом `key` теперь имеет новое значение - `new_state`
box.broadcast(key, new_state)
```
Старые решения pub/sub в Tarantool'е продолжат работать без изменений. Новые могут использовать этот механизм для того, чтобы поддерживать огромное количество клиентов или потреблять меньше ресурсов. Помимо того, что пользователи смогут строить свои приложения с использованием этого механизма, Tarantool будет распространять через него информацию о таких событиях:
* смена мастера (лидера) в кластере;
* предстоящее выключение узла;
* некоторые статусы сервера.
Приложения смогут реагировать на подобные изменения и реже попадать в ситуации обработки ошибок, связанные с ними.
Применения
----------
### Пример 1
Схема типового кластера Tarantool с шардингом будет выглядеть примерно так:
Каждое хранилище — это маленький кластер (replica set) из Tarantool'ов. Роутер удерживает соединения с каждым хранилищем (с каждым его узлом), и благодаря этому:
* обнаруживает лидеров replica set'ов;
* мониторит работоспособность узлов;
* перенаправляет пользовательские запросы к хранилищам.
Если в кластере, скажем, 50 хранилищ, каждое из которых представляет собой replica set из трёх нод, то только для обнаружения лидеров роутер вынужден «держать на балансе» 150 потоков (файберов). Это значительные накладные ресурсы как на память, так и на CPU. Но начиная с версии 2.10 требования роутеров к ресурсам значительно уменьшатся благодаря внедрению данного механизма.
### Ещё пример
Несколько лет назад мы строили систему оповещения множества пользователей о происходящих на сервере событиях. Она использовалась для уведомления примерно 100 тыс. исполнителей (преимущественно водителей такси) о появляющихся заказах. Об этой системе [даже написали статью](http://unera.net/all/2017/11/02/event-lp.html). В то время для масштабирования мы выделяли одно ядро CPU на 3-5 тыс. водителей. Система уведомления 100 тыс. исполнителей использовала два 16-ядерных сервера. И основным ограничителем была память LuaJIT. С использованием описанного механизма можно редуцировать сервис всего до одного ядра.
Заключение
----------
Tarantool иногда называют базой данных, иногда сервером приложений. Но это нечто большее. Tarantool — это конструктор, с помощью которого вы можете построить что-то мощное и серьёзное, и при этом не требовательное к ресурсам. В статье описан один из новых «кубиков», позволяющий сделать недорогую систему уведомлений огромного числа подписчиков.
Скачать Tarantool можно [на официальном сайте](https://www.tarantool.io/ru/download?utm_source=habr&utm_medium=articles&utm_campaign=2021), а получить помощь — [в Telegram-чате](https://t.me/tarantoolru?utm_source=habr&utm_medium=articles&utm_campaign=2021). | https://habr.com/ru/post/590375/ | null | ru | null |
# Трассировка лучей на GPU в Unity — Часть 3
[[Первая](https://habr.com/ru/post/355018/) и [вторая](https://habr.com/ru/post/412685/) части.]

Сегодня мы совершим большой скачок. Мы отойдём от исключительно сферических конструкций и бесконечной плоскости, которые трассировали ранее, и добавим треугольники — всю суть современной компьютерной графики, элемент, из которого состоят все виртуальные миры. Если вы хотите продолжить с того, чем мы закончили в прошлый раз, то воспользуйтесь [кодом из части 2](https://bitbucket.org/Daerst/gpu-ray-tracing-in-unity/src/Tutorial_Pt2/). Готовый код того, что мы будем делать сегодня, выложен [здесь](https://bitbucket.org/Daerst/gpu-ray-tracing-in-unity/src/Tutorial_Pt3/). Давайте приступим!
Треугольники
------------
*Треугольник* — это всего лишь список трёх соединённых *вершин*, каждая из которых хранит свою позицию, а иногда и нормаль. Порядок обхода вершин с вашей точки обзора определяет, на что мы смотрим — на переднюю или заднюю грань треугольника. Традиционно «передом» считается порядок обхода против часовой стрелки.
Во-первых, нам нужно иметь возможность определять, пересекает ли луч треугольник, и если да, то в какой точке. Очень популярный (но совершенно точно [не единственный](http://www.realtimerendering.com/intersections.html)) алгоритм для определения пересечений луча с треугольником был предложен в 1997 году джентльменами [Томасом Акенин-Меллером](https://twitter.com/inversepixel) и Беном Трембором. Подробно о нём можно прочитать в их статье «Fast, Minimum Storage Ray-Triangle Intersection» [здесь](http://fileadmin.cs.lth.se/cs/Personal/Tomas_Akenine-Moller/pubs/raytri_tam.pdf).
Код из статьи легко можно портировать в код шейдера на HLSL:
```
static const float EPSILON = 1e-8;
bool IntersectTriangle_MT97(Ray ray, float3 vert0, float3 vert1, float3 vert2,
inout float t, inout float u, inout float v)
{
// find vectors for two edges sharing vert0
float3 edge1 = vert1 - vert0;
float3 edge2 = vert2 - vert0;
// begin calculating determinant - also used to calculate U parameter
float3 pvec = cross(ray.direction, edge2);
// if determinant is near zero, ray lies in plane of triangle
float det = dot(edge1, pvec);
// use backface culling
if (det < EPSILON)
return false;
float inv_det = 1.0f / det;
// calculate distance from vert0 to ray origin
float3 tvec = ray.origin - vert0;
// calculate U parameter and test bounds
u = dot(tvec, pvec) * inv_det;
if (u < 0.0 || u > 1.0f)
return false;
// prepare to test V parameter
float3 qvec = cross(tvec, edge1);
// calculate V parameter and test bounds
v = dot(ray.direction, qvec) * inv_det;
if (v < 0.0 || u + v > 1.0f)
return false;
// calculate t, ray intersects triangle
t = dot(edge2, qvec) * inv_det;
return true;
}
```
Чтобы воспользоваться этой функцией, нам нужен луч и три вершины треугольника. Возвращаемое значение сообщает нам, произошло ли пересечение треугольника. В случае пересечения вычисляются три дополнительных значения: `t` описывает расстояние вдоль луча до точки пересечения, а `u` / `v` — это две из трёх барицентрических координат, определяющих местоположение точки пересечения на треугольнике (последнюю координату можно вычислить как `w = 1 - u - v`). Если вы пока не знакомы с барицентрическими координатами, то прочитайте их превосходное объяснение на [Scratchapixel](https://www.scratchapixel.com/lessons/3d-basic-rendering/ray-tracing-rendering-a-triangle/barycentric-coordinates).
Без лишних промедлений давайте оттрассируем один треугольник с указанными в коде вершинами! Найдите в шейдере функцию `Trace` и добавьте в неё следующий фрагмент кода:
```
// Trace single triangle
float3 v0 = float3(-150, 0, -150);
float3 v1 = float3(150, 0, -150);
float3 v2 = float3(0, 150 * sqrt(2), -150);
float t, u, v;
if (IntersectTriangle_MT97(ray, v0, v1, v2, t, u, v))
{
if (t > 0 && t < bestHit.distance)
{
bestHit.distance = t;
bestHit.position = ray.origin + t * ray.direction;
bestHit.normal = normalize(cross(v1 - v0, v2 - v0));
bestHit.albedo = 0.00f;
bestHit.specular = 0.65f * float3(1, 0.4f, 0.2f);
bestHit.smoothness = 0.9f;
bestHit.emission = 0.0f;
}
}
```
Как я и говорил, `t` хранит расстояние вдоль луча, и мы можем напрямую использовать это значение для вычисления точки пересечения. Нормаль, которая важна для вычисления правильного отражения, может быть вычислена с помощью векторного произведения любых двух рёбер треугольника. Запустите режим игры и полюбуйтесь своим первым оттрассированным треугольником:

**Упражнение:** попробуйте вычислить позицию с помощью барицентрических координат, а не расстояния. Если вы всё сделаете правильно, то блестящий треугольник будет выглядеть в точности как раньше.
Меши из треугольников
---------------------
Мы преодолели первое препятствие, но трассировка целых мешей из треугольников — это совершенно другая история. Сначала нам нужно узнать базовые сведения о мешах. Если вы их знаете, то можете спокойно пропустить следующий абзац.
В компьютерной графике меш задаётся несколькими буферами, самыми важными из которых являются буферы *вершин* и *индексов*. *Буфер вершин* — это список 3D-векторов, описывающий позицию каждой вершины в *пространстве объекта* (это значит, что такие значения не нужно изменять при переносе, повороте или масштабировании объекта — они преобразуются из *пространства объекта* в *мировое пространство* на лету, с помощью матричного умножения). *Буфер индексов* — это список целочисленных значений, являющихся *индексами*, указывающими на буфер вершин. Каждые три индекса составляют треугольник. Например, если буфер индексов имеет вид [0, 1, 2, 0, 2, 3], то в нём есть два треугольника: первый треугольник состоит из первой, второй и третьей вершин в буфере вершин, а второй треугольник состоит из первой, третьей и четвёртой вершин. Следовательно, буфер индексов также определяет вышеупомянутый порядок обхода. Кроме буферов вершин и индексов могут существовать дополнительные буферы, добавляющие к каждой вершине другую информацию. Самые часто встречающиеся дополнительные буферы хранят *нормали*, *координаты текстур* (которые называются *texcoords* или просто *UV*), а также *цвета вершин*.
Использование GameObjects
-------------------------
В первую очередь нам нужно узнать, какие GameObjects должны стать частью процесса трассировки лучей. Наивным решением было бы просто воспользоваться `FindObjectOfType()`, но сделаем нечто более гибкое и быстрое. Давайте добавим новый компонент `RayTracingObject`:
```
using UnityEngine;
[RequireComponent(typeof(MeshRenderer))]
[RequireComponent(typeof(MeshFilter))]
public class RayTracingObject : MonoBehaviour
{
private void OnEnable()
{
RayTracingMaster.RegisterObject(this);
}
private void OnDisable()
{
RayTracingMaster.UnregisterObject(this);
}
}
```
Этот компонент добавляется к каждому объекту, который мы хотим использовать для трассировки лучей и занимается их регистрацией с помощью `RayTracingMaster`. Добавим в мастер следующие функции:
```
private static bool _meshObjectsNeedRebuilding = false;
private static List \_rayTracingObjects = new List();
public static void RegisterObject(RayTracingObject obj)
{
\_rayTracingObjects.Add(obj);
\_meshObjectsNeedRebuilding = true;
}
public static void UnregisterObject(RayTracingObject obj)
{
\_rayTracingObjects.Remove(obj);
\_meshObjectsNeedRebuilding = true;
}
```
Всё идёт хорошо — теперь мы знаем, какие объекты нужно трассировать. Но далее идёт сложная часть: мы собираемся собрать все данные от мешей Unity (матрица, буферы вершин и индексы — помните о них?), записать их в собственные структуры данных и загрузить их в GPU, чтобы ими мог воспользоваться шейдер. Давайте начнём с задания структур данных и буферов на стороне C#, в мастере:
```
struct MeshObject
{
public Matrix4x4 localToWorldMatrix;
public int indices_offset;
public int indices_count;
}
private static List \_meshObjects = new List();
private static List \_vertices = new List();
private static List \_indices = new List();
private ComputeBuffer \_meshObjectBuffer;
private ComputeBuffer \_vertexBuffer;
private ComputeBuffer \_indexBuffer;
```
… а теперь давайте сделаем то же самое в шейдере. Вы ведь к этому уже привыкли?
```
struct MeshObject
{
float4x4 localToWorldMatrix;
int indices_offset;
int indices_count;
};
StructuredBuffer \_MeshObjects;
StructuredBuffer \_Vertices;
StructuredBuffer \_Indices;
```
Структуры данных готовы, и мы можем заполнить их настоящими данными. Мы собираем все вершины всех мешей в один большой `List`, а все индексы в большой `List`. С вершинами никаких проблем не возникает, но индексы нужно изменить так, чтобы они продолжали указывать на верную вершину в нашем большом буфере. Представьте, что мы уже добавили объекты с 1000 вершин, а теперь добавляем простой меш-куб. Первый треугольник может состоять из индексов [0, 1, 2], но так как у нас в буфере уже было 1000 вершин, то перед добавлением вершин куба нужно сместить индексы. То есть они превратятся в [1000, 1001, 1002]. Вот как это выглядит в коде:
```
private void RebuildMeshObjectBuffers()
{
if (!_meshObjectsNeedRebuilding)
{
return;
}
_meshObjectsNeedRebuilding = false;
_currentSample = 0;
// Clear all lists
_meshObjects.Clear();
_vertices.Clear();
_indices.Clear();
// Loop over all objects and gather their data
foreach (RayTracingObject obj in _rayTracingObjects)
{
Mesh mesh = obj.GetComponent().sharedMesh;
// Add vertex data
int firstVertex = \_vertices.Count;
\_vertices.AddRange(mesh.vertices);
// Add index data - if the vertex buffer wasn't empty before, the
// indices need to be offset
int firstIndex = \_indices.Count;
var indices = mesh.GetIndices(0);
\_indices.AddRange(indices.Select(index => index + firstVertex));
// Add the object itself
\_meshObjects.Add(new MeshObject()
{
localToWorldMatrix = obj.transform.localToWorldMatrix,
indices\_offset = firstIndex,
indices\_count = indices.Length
});
}
CreateComputeBuffer(ref \_meshObjectBuffer, \_meshObjects, 72);
CreateComputeBuffer(ref \_vertexBuffer, \_vertices, 12);
CreateComputeBuffer(ref \_indexBuffer, \_indices, 4);
}
```
Вызовем `RebuildMeshObjectBuffers` в функции `OnRenderImage`, и не забудем освободить новые буферы в `OnDisable`. Вот две вспомогательные функции, которые я использовал в показанном выше коде, чтобы немного упростить обработку буферов:
```
private static void CreateComputeBuffer(ref ComputeBuffer buffer, List data, int stride)
where T : struct
{
// Do we already have a compute buffer?
if (buffer != null)
{
// If no data or buffer doesn't match the given criteria, release it
if (data.Count == 0 || buffer.count != data.Count || buffer.stride != stride)
{
buffer.Release();
buffer = null;
}
}
if (data.Count != 0)
{
// If the buffer has been released or wasn't there to
// begin with, create it
if (buffer == null)
{
buffer = new ComputeBuffer(data.Count, stride);
}
// Set data on the buffer
buffer.SetData(data);
}
}
private void SetComputeBuffer(string name, ComputeBuffer buffer)
{
if (buffer != null)
{
RayTracingShader.SetBuffer(0, name, buffer);
}
}
```
Отлично, мы создали буферы и они заполнены нужными данными! Теперь нам просто нужно сообщить об этом шейдеру. Добавим в `SetShaderParameters` следующий код (и благодаря новым вспомогательным функциям мы можем сократить код буфера сфер):
```
SetComputeBuffer("_Spheres", _sphereBuffer);
SetComputeBuffer("_MeshObjects", _meshObjectBuffer);
SetComputeBuffer("_Vertices", _vertexBuffer);
SetComputeBuffer("_Indices", _indexBuffer);
```
Итак, работа скучноватая, но давайте посмотрим, что мы только что сделали: мы собрали все внутренние данные мешей (матрицу, вершины и индексы), поместили их в удобную и простую структуру, а затем отправили в GPU, который теперь с нетерпением ждёт, когда их можно будет использовать.
Трассировка мешей
-----------------
Давайте не будем заставлять его ждать. В шейдере у нас уже есть код трассировки отдельного треугольника, а меш — это, по сути, просто множество треугольников. Единственный новый аспект здесь заключается в том, что мы используем матрицу для преобразования вершин из пространства объекта в мировое пространство с помощью встроенной функции `mul` (сокращение от multiply). Матрица содержит перенос, поворот и масштаб объекта. Она имеет размер 4×4, поэтому для умножения нам понадобится 4d-вектор. Первые три компонента (x, y, z) берутся из буфера вершин. Четвёртому компоненту (w) мы задаём значение 1, потому что имеем дело с точкой. Если бы это было направление, то мы бы записали в него 0, чтобы игнорировать все переносы и масштаб в матрице. Вас это сбивает с толку? Тогда прочитайте не меньше восьми раз [этот туториал](http://www.opengl-tutorial.org/beginners-tutorials/tutorial-3-matrices/). Вот код шейдера:
```
void IntersectMeshObject(Ray ray, inout RayHit bestHit, MeshObject meshObject)
{
uint offset = meshObject.indices_offset;
uint count = offset + meshObject.indices_count;
for (uint i = offset; i < count; i += 3)
{
float3 v0 = (mul(meshObject.localToWorldMatrix, float4(_Vertices[_Indices[i]], 1))).xyz;
float3 v1 = (mul(meshObject.localToWorldMatrix, float4(_Vertices[_Indices[i + 1]], 1))).xyz;
float3 v2 = (mul(meshObject.localToWorldMatrix, float4(_Vertices[_Indices[i + 2]], 1))).xyz;
float t, u, v;
if (IntersectTriangle_MT97(ray, v0, v1, v2, t, u, v))
{
if (t > 0 && t < bestHit.distance)
{
bestHit.distance = t;
bestHit.position = ray.origin + t * ray.direction;
bestHit.normal = normalize(cross(v1 - v0, v2 - v0));
bestHit.albedo = 0.0f;
bestHit.specular = 0.65f;
bestHit.smoothness = 0.99f;
bestHit.emission = 0.0f;
}
}
}
}
```
Мы всего в одном шаге от того, чтобы увидеть всё это в действии. Давайте немного реструктурируем функцию `Trace` и добавим трассировку объектов-мешей:
```
RayHit Trace(Ray ray)
{
RayHit bestHit = CreateRayHit();
uint count, stride, i;
// Trace ground plane
IntersectGroundPlane(ray, bestHit);
// Trace spheres
_Spheres.GetDimensions(count, stride);
for (i = 0; i < count; i++)
{
IntersectSphere(ray, bestHit, _Spheres[i]);
}
// Trace mesh objects
_MeshObjects.GetDimensions(count, stride);
for (i = 0; i < count; i++)
{
IntersectMeshObject(ray, bestHit, _MeshObjects[i]);
}
return bestHit;
}
```
Результаты
----------
Вот и всё! Давайте добавим несколько простых мешей (вполне подойдут примитивы Unity), дадим им компонент `RayTracingObject` и понаблюдаем за магией. **Не используйте** пока детализированных мешей (больше нескольких сотен треугольников)! Нашему шейдеру не хватает оптимизации, и если перестараться, то для трассировки хотя бы одного сэмпла на пиксель могут уйти секунды или даже минуты. В результате система остановит драйвер GPU, движок Unity может вылететь, а компьютеру потребуется перезагрузка.

Заметьте, что наши меши имеют не плавное, а плоское затенение. Так как мы пока не загрузили в буфер нормали вершин, для получения нормали вершины каждого треугольника нужно выполнять векторное произведение. Кроме того, мы не можем интерполировать по площади треугольника. Мы займёмся этой проблемой в следующей части туториала.
Ради интереса я скачал стэнфордского кролика (Stanford Bunny) из [архива Моргана Макгвайра](https://casual-effects.com/g3d/data10/index.html#mesh3) и с помощью модификатора decimate пакета [Blender](https://www.blender.org/) снизил количество вершин до 431. Вы можете поэспериментировать с параметрами освещения и жёстко прописанным материалом в функции шейдера `IntersectMeshObject`. Вот диэлектрический кролик с красивыми мягкими тенями и небольшим рассеянным глобальным освещением в [Grafitti Shelter](https://hdrihaven.com/hdri/?h=graffiti_shelter):

… а вот металлический кролик под сильным направленным освещением [Cape Hill](https://hdrihaven.com/hdri/?h=cape_hill), отбрасывающий на плоскость пола дискотечные блики:

… а вот два маленьких кролика, прячущихся под большой каменной Сюзанной под голубым небом [Kiara 9 Dusk](https://hdrihaven.com/hdri/?h=kiara_9_dusk) (я прописал альтернативный материал для второго объекта, проверяя, равно ли смещение индексов нулю):

Что дальше?
-----------
Очень здорово впервые видеть реальный меш в собственном трейсере, правда? Сегодня мы обработали кое-какие данные, узнали о пересечении по алгоритму Меллера-Трэмбора и собрали всё так, чтобы сразу же можно было использовать GameObjects движка Unity. Кроме того, мы увидели одно из преимуществ трассировки лучей: как только ты добавляешь в код новое пересечение, все красивые эффекты (мягкие тени, отражённое и рассеянное глобальное освещение, и так далее) сразу начинают работать.
Рендеринг блестящего кролика занял кучу времени, и мне всё равно пришлось использовать немного фильтрации, чтобы избавиться от самого очевидного шума. Для решения этой проблемы сцена обычно записывается в пространственную структуру, например, в сетку, K-мерное дерево или иерархию ограничивающих объёмов, что значительно повышает скорость рендеринга крупных сцен.
Но нужно двигаться по порядку: дальше мы устраним проблему с нормалями, чтобы наши меши (даже низкополигональные) выглядели более гладкими, чем сейчас. Также неплохо было бы автоматически обновлять матрицы при перемещении объектов и напрямую ссылаться на материалы Unity, а не просто прописывать их в коде. Этим мы и займёмся в следующей части серии туториалов. Спасибо за чтение, и до встречи в части 4! | https://habr.com/ru/post/450308/ | null | ru | null |
# Работа с изображениями средствами phpThumbOf
phpThumbOf — это аддон для MODx, основанный на популярном скрипте phpThumb. Он позволяет модифицировать изображения средствами различных графических библиотек «на лету».
Я не буду описывать процесс установки аддона из репозитория. Будем считать, что вы уже скачали его и установили.
Причиной написания поста послужил тот факт, что официальная документация по phpThumbOf просто ужасна. Прочитав ман, я подумал, что единственной функцией, которую можно использовать для модификации изображения при его выводе является зум-кроп (zoom-crop), ибо больше там ничего не сказано. Но позже, попробовав использовать некоторые другие опции phpThumb я выяснил, что они прекрасно работают!
Анатомия phpThumbOf — фильтр вывода
-----------------------------------
Фильтр Вывода MODx-а позволяет прогнать значение элемента через любой набор фильтров непосредственно перед его выводом на страницу. Синтаксис выглядит следующим образом:
> [[element:modifier=`value`]]
Первым и наиболее правильным способом использования phpThumbOf является именно **Фильтра Вывода**, который добавляется к TV-параметру типа «изображение».
Просто для полноты рассказа, я покажу, как добавить такой tv-параметр к шаблону.
Для начала, создайте новый tv-параметр и назовите его как сочтёте нужным. Мой вариант:
[](http://primebit.ru/wp-content/uploads/2011/10/01-tv-creation-e1311459747180.png)
Далее, в закладке «Тип ввода» выберите «Изображение»:
[](http://primebit.ru/wp-content/uploads/2011/10/02-tv-image-type-e1311460888561.png)
Все, что нам осталось сделать, это указать способ вывода tv-параметра — ставим SRC.
Для экспериментов выберем какую-нибудь интересную картинку. Я нашёл себе такую:
[](http://primebit.ru/wp-content/uploads/2011/10/hot-air-balloons1-e1311471772311.jpg)
Теперь, когда мы указали в каком-нибудь ресурсе выбранную нами куртинку в качестве значения созданного нами дополнительного параметра, его можно вывести в контенте ресурса с помощью конструкции:
> 
>
>
Как я упоминал в начале статьи, выходной фильтр изменяет элемент до того, как он будет отрисован на странице. Передадим значение нашего tv-параметра выходному фильтру phpThumbOf:
> [[\*tvImage**:phpthumbof=`w=120&h=120`**]]
>
>
```
Ремарка: если мы выводим tv-параметр в шаблоне или чанке, то знак звездочка "*" нужно заменить на плюс "+": [[+tvImage:phpthumbof=`w=120&h=120`]]
```
В результате, мы получим новое сгенерированное изображение, основанное на той картинке, что мы выбрали для ресурса, но масштабированное до размеров 120х120 пикселей. Но как Вы могли заметить, у изображения появились белые поля, возникшие из-за нарушения пропорций исходного изображения.
[](http://primebit.ru/wp-content/uploads/2011/10/03-balloons-120px-e1311463866227.png)
Избежать этого можно очень просто, достаточно не указывать ширину или высоту. Давайте оставим только фиксированную ширину:
> [[+tvImage:phpthumbof=`w=120`]]
>
>
Теперь результирующее изображение отмасштабировано только по заданной ширине, высота будет пропорциональной исходному соотношению сторон.
[](http://primebit.ru/wp-content/uploads/2011/10/05-balloons-width-only-e1311485798599.png)
Как Вы можете видеть, возможности ресайза изображений безгранично гибки. Вот ещё один пример с шириной 270 пикселей. Кроме того, вы можете получать на выходе изображения больше оригинального, но это порочная практика ;).
> [[\*tvImage:phpthumbof=`**w=270**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/04a-balloons-270px-e1311490516506.png)
Обрезка изображения с точными размерами
---------------------------------------
Если мы хотим получить изображение с размерами именно 120 на 120 пикселей, мы можем его обрезать. Для этого, необходимо добавить опцию кропа (zoom-crop) `**&zc=1.**`
> [[\*tvImage:phpthumbof=`w=120&h=120**&zc=1**`]]
>
>
Теперь мы имеем обрезанную версию нашего изображения с точными размерами и без белых полей.
[](http://primebit.ru/wp-content/uploads/2011/10/04-balloons-120px-cropped-e1311465932732.png)
Фильтры PhpThumb — веселье только начинается
--------------------------------------------
Теперь, когда вы знаете, как управлять размером изображения, я покажу вам реальную силу phpThumb — фильтры. Я просто приведу несколько примеров фильтров, доступных в phpThumb. **Обратите внимание, что все новые фильтры я добавляю в конец предыдущих примеров. При этом, их позиция имеет значение! Фильтры применяются слева направо.**
### Blur (размытие)
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1**&fltr[]=blur|10**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/06-balloons-blur10-e1311487594392.png)
### Grayscale (преобразование палитры в градации серого)
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1**&fltr[]=gray**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/07-balloons-grayscale-e1311487995750.png)
### Скругление углов
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1**&fltr[]=ric|20|20**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/08-balloons-rounded-e1311488375137.png)
Обратите внимание, что у изображения появились белые углы в тех местах, где изображение «скруглилось». Мы можем побороть эту проблему, преобразовав результирующее изображение в PNG-формат.
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1**&f=png**&fltr[]=ric|20|20`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/09-balloons-rounded-png-e1311488679910.png)
### Рамка
Периодически возникает необходимость добавить к изображению рамку. Конечно, это можно сделать средствами CSS. Но иногда возникают моменты, когда CSS бесполезен. Я хочу показать Вам один из таких примеров.
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1**&f=png&fltr[]=bord|5|0|0|FFFFFF&fltr[]=rot|-15|E4F6FE**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/16-balloons-rotate+border-e1311532537823.png)
### Вращение изображения
Вращение требует небольшого пояснения. Вы должны указать цвет фона для неграфических области в углах. В этом примере мы используем #006699, вращение -45°.
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1**&fltr[]=rot|-45|006699**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/10-balloons-rotate45-e1311489222797.png)
Если Вы хотите уменьшить количество JPG=артефактов, вы можете увеличить качество изображения (1-100):
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1&fltr[]=rot|-45|006699**&q=100**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/11-balloons-rotate45-jpg100-e1311489466801.png)
Если Вы хотите получить прозрачный фон, просто измените вывод в PNG, как мы делали это раньше:
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1&fltr[]=rot|-45|**&f=png**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/12-balloons-rotate45-png-e1311489598818.png)
### Color Overlay (наложение цвета)
Данный фильтр позволяет накладывать любые шестнадцатеричные цвета на изображение. Первое значение — процент, второе — цвет в шестнадцатеричном формате.
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1**&fltr[]=clr|35|990033**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/13-balloons-colorize-red-e1311489964269.png)
Если Вы хотите получить двухцветное изображение, необходимо сначала наложить фильтр **grayscale** для обесцвечивания картинки.
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1**&fltr[]=gray**&fltr[]=clr|35|990033`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/14-balloons-duotone-red-e1311490264861.png)
### Простой текстовый водяной знак
С помощью phpThumb Вы можете накладывать на изображение текстовые и графические водяные знаки. В случае с текстовыми вотермарками Вы можете указать размер, положение, прозрачность и TTF-шрифт.
Вообще, доступных очень много. Рекомендую ознакомиться с документацией.
Вот простой водяной знак на основе стандартного шрифта сервера:
> [[\*tvImage:phpthumbof=`w=120&h=120&zc=1&fltr[]=gray**&fltr[]=wmt|Belafonte Code|3|T|FFFFFF||100|20|0||0|**`]]
>
>
[](http://primebit.ru/wp-content/uploads/2011/10/15-balloons-watermark-text-e1311528975812.png)
Финиш
-----
Вот, наверно, и все о чем я хотел рассказать. С бОльшим количеством примеров использования phpThumb вы можете ознакомиться на [официальной странице проекта](http://phpthumb.sourceforge.net/demo/demo/phpThumb.demo.demo.php).
P.S. ~~Хотел опубликовать в блог «MODx CMS», но как обычно бывает на хабре, не хватило кармы.~~
P.S.S. Перенес в «MODx CMS» | https://habr.com/ru/post/131424/ | null | ru | null |
# Retrofit2 на Android используя Kotlin
Сегодня мы рассмотрим работу с **Retrofit** 2. Правды ради стоит отметить, что мы будем работать еще с 2 отдельными библиотеками, а именно **Picasso** и **Spots-dialog**.
Это статью я рекомендую к прочтению только для тех, кто еще не работал с Retrofit 2. Ведь в этой статье я буду описывать все максимально подробно, чтобы все поняли.
#### 0. Создание проекта
Здесь все максимально просто, создаем новый проект в Android Studio, выбираем Empty Activity. Далее необходимо выбрать язык программирования, у нас это будет Kotlin.
#### 1. Добавление зависимостей
Сейчас нам нужно добавить все необходимые библиотеки, поэтому мы заходим в build.gradle и добавляем следующие:
```
dependencies {
implementation 'com.squareup.retrofit2:retrofit:2.9.0'
implementation 'com.squareup.retrofit2:converter-gson:2.5.0'
implementation 'com.squareup.picasso:picasso:2.71828'
//noinspection GradleCompatible
implementation 'com.android.support:design:28.0.0'
implementation 'com.github.d-max:spots-dialog:1.1@aar'
}
```
Как вы уже могли заметить здесь мы добавили все необходимые библиотеки, в том числе и Spots progress dialog. Более подробно вы можете ознакомится с этим [здесь.](https://github.com/dybarsky/spots-dialog) После чего в build.gradle(Modul:app) мы должны вставить это:
```
compileOptions {
sourceCompatibility JavaVersion.VERSION_1_8
targetCompatibility JavaVersion.VERSION_1_8
}
```
Осталось лишь зайти в manifests и добавить разрешение на использование телефона
```
```
#### 2. Добавление data class'ов
Прежде чем перейти к второму пункту нам нужно узнать, а откуда получать данные? Парсить будет [отсюда.](https://www.simplifiedcoding.net/demos/marvel/)
Отлично, далее копируем содержимое этого сайта и идем [сюда.](https://jsoneditoronline.org/#left=local.gidove&right=local.yovani) Сюда мы вставляем ранее скопированный текст с нашего сайта, после того как мы нажали на tree нам выдался список, раскроем его, теперь мы видим, что у нас есть 8 объектов. Если кто-то не понял, то я покажу вам скрин:

То что вы видите справа это наш текст, который мы скопировали, а то что справа, это уже обработанные данные.
Теперь вернемся к Android Studio мы создаем папку называем ее Model там мы создаем kotlin class и называем ее Movie из обычного класса мы преобразуем data class, мы просто перед class добавим data, а фигурные скобки заменяем на круглые, далее в скобках указываем переменные которые мы уже подсмотрели на сайте, кстати переменные должны быть нулабельного типа.
**Полный код**
```
data class Movie(
var name: String? = null,
var realname: String? = null,
var team: String? = null,
var firstapperance: String? = null,
var createdby: String? = null,
var publisher: String? = null,
var imageurl: String? = null,
var bio: String? = null
)
```
Если вы зададитесь вопросом, а почему папка называется Model, то я вам скажу, что:
**Model** — это логика, которая связанна с данными приложения. Другими словами это POJO, классы работы с API, базой данных.
#### 3. Создание Client
Далее мы создаем папку Retrofit, а в папке мы создаем object, и называем его RetrofitClient, далее создаем переменную retrofit типа Retrofit, после этого создаем функцию и называем ее getCleint(baseUrl: String) и тип возвращаемого значения Retrofit. В теле функции необходимо выполнить проверку retrofit'a на null и если ретрофит равен null, то мы к ретрофиту присваиваем Retrofit.Builder() присоединяем baseUrl с параметром baseUrl далее присоединяем метод addconverterFactory c параметром GsonConverterFactory.create() и билдим с помощью метода build() и возвращаем ретрофит в ненулевой тип
**Полный код**
```
import retrofit2.Retrofit
import retrofit2.converter.gson.GsonConverterFactory
object RetrofitClient {
private var retrofit: Retrofit? = null
fun getClient(baseUrl: String): Retrofit {
if (retrofit == null) {
retrofit = Retrofit.Builder()
.baseUrl(baseUrl)
.addConverterFactory(GsonConverterFactory.create())
.build()
}
return retrofit!!
}
}
```
**Builder в Retrofit** — это экземпляр, который использует интерфейс и API Builder, чтобы задать определение конечной точки URL для операций HTTP
#### 4. Работа с Interface
**Interface -** нужен для создания абстрактных классов.
Создаем пакет Interface в него мы кладем Interface и называем RetrofitServieces. Создаем Get запрос в скобках пишем кавычки, а в кавычках указывает ветку с которой будем парсить данные у нас это marvel. Но перед этим стоит сказать что такое GET и POST запрос
**GET** — запрашивает данные с определенного ресурса(сайта)
**POST** — отправляет данные на сервер для последующей обработки
Хорошо, теперь нужно создать функцию getMovieList, которая должна будет возвращать Call типа MutableList, a MutableList должен быть типа Movie
**Полный код**
```
import com.example.retrofitmarvel.Model.Movie
import retrofit2.Call
import retrofit2.http.*
interface RetrofitServices {
@GET("marvel")
fun getMovieList(): Call>
}
```
#### 5. Common
Сейчас мы должны создать папку Common, в эту папку мы кладем object и называем его Common, создаем переменную, называем ее BASE\_URL и в нее мы должны положить ссылку с которой парсим данные, но не класть последнюю ветку, так как именно с нее мы получаем данные. Создаем переменную retrofitServices, у нее есть метод get() к нему мы присваиваем RetrofitClient, а уже потом к RetrofitClient мы сетим метод getClient c параметром RetrofitServices::class.java
**Полный код**
```
import com.example.retrofitmarvel.Interface.RetrofitServices
import com.example.retrofitmarvel.Retrofit.RetrofitClient
object Common {
private val BASE_URL = "https://www.simplifiedcoding.net/demos/"
val retrofitService: RetrofitServices
get() = RetrofitClient.getClient(BASE_URL).create(RetrofitServices::class.java)
}
```
#### 6. Макет
Переходим к activity\_main.xml и добавляем туда RecyclerView
**XML**
```
xml version="1.0" encoding="utf-8"?
```
В папке layout создаем item\_layout в root element указываем CardView
**item\_layout**
```
```
#### 7. Adapter
Теперь мы должны создать пакет Adapter, в него мы кладем класс и называем его MyMovieAdapter
**Adapter** отвечает за извлечение данных из набора данных и за создание объектов View по основе этих данных.
В классе MyMovieAdapter мы создаем переменные, которые будут доступны только в этом классе private val movieList: MutableList типа Movie и указываем тип возвращаемого значения у нас это будет RecyclerView.Adapter типа MyMovieAdapter.MyViewHolder
Имплементируем методы, а именно onCreateViewHolder, getItemCount и onBindViewHolder.
Создаем класс MyViewHolder, в данном класс указываем параметр itemView: View и тип возвращаемого значения RecyclerView.ViewHolder и в тело данного класса мы помещаем переменные, например:
val image:ImageView = itemView.image\_movie image\_movie у нас тянется из item\_layout
и так указываем для всех оставшихся view элементов.
Создам функцию bind c параметром listItem: Movie, здесь мы можем сделать наши view элементы кликабельными, я думаю вы умеете это делать.
Далее мы переделываем getItemCount() в override fun getItemCount() = movieList.size. Здесь все просто, мы создали функцию и возвращаем movieList.size. Отлично, осталось лишь разобраться с onBindViewHolder и onCreateViewHolder
**onCreateViewHolder** — создает новый объект ViewHolder всякий раз, когда RecyclerView нуждается в этом.
**onBindViewHolder** — принимает объект ViewHolder и устанавливает необходимые данные для соответствующей строки во view компоненте
Сейчас мы разберем случай c onCreateViewHolder тип возвращаемого значения MyViewHolder.
Создаем переменную itemView присваиваем ей LayoutInflater.from(parent.context).inflate(R.layout.item\_layout, parent, false) и возвращаем MyViewHolder с параметром itemView. Теперь переходим к onBindViewHolder в теле мы создаем переменную listItem: Movie и присваиваем movieList[position]. Далее к holder'y мы присоединяем метод bind с параметрами listItem. Далее используем библиотеку Picasso.
Picasso.get().load(movieList[position].imageurl).into(holder.image). После чего добавляем holder.txt\_name.text = movieList[position].name, и так мы делаем со всеми нашими view элементами
**Полный код**
```
import android.content.Context
import android.view.LayoutInflater
import android.view.View
import android.view.ViewGroup
import android.widget.ImageView
import android.widget.TextView
import android.widget.Toast
import androidx.recyclerview.widget.RecyclerView
import com.example.retrofitmarvel.Model.Movie
import com.example.retrofitmarvel.R
import com.squareup.picasso.Picasso
import kotlinx.android.synthetic.main.item_layout.view.*
class MyMovieAdapter(private val context: Context,private val movieList: MutableList):RecyclerView.Adapter() {
class MyViewHolder(itemView: View): RecyclerView.ViewHolder(itemView){
val image: ImageView = itemView.image\_movie
val txt\_name: TextView = itemView.txt\_name
val txt\_team: TextView = itemView.txt\_team
val txt\_createdby: TextView = itemView.txt\_createdby
fun bind(listItem: Movie) {
image.setOnClickListener {
Toast.makeText(it.context, "нажал на ${itemView.image\_movie}", Toast.LENGTH\_SHORT)
.show()
}
itemView.setOnClickListener {
Toast.makeText(it.context, "нажал на ${itemView.txt\_name.text}", Toast.LENGTH\_SHORT).show()
}
}
}
override fun onCreateViewHolder(parent: ViewGroup, viewType: Int): MyViewHolder {
val itemView = LayoutInflater.from(parent.context).inflate(R.layout.item\_layout, parent, false)
return MyViewHolder(itemView)
}
override fun getItemCount() = movieList.size
override fun onBindViewHolder(holder: MyViewHolder, position: Int) {
val listItem = movieList[position]
holder.bind(listItem)
Picasso.get().load(movieList[position].imageurl).into(holder.image)
holder.txt\_name.text = movieList[position].name
holder.txt\_team.text = movieList[position].team
holder.txt\_createdby.text = movieList[position].createdby
}
}
```
#### 8. MainActivity
Отлично! Осталось совсем чуть-чуть. Переходим в MainActivity для начала мы создадим переменные, и чтобы не объявлять их типа null объявим их через lateinit var mService: RetrofitServices, нам необходимо создать еще 3 таких, а именно: LinearLayoutManager, MyMovieAdapter, AlertDialog. Вы можете назвать их как хотите, это роли не сыграет. В методе onCreate мы к RetrofitServices присваиваем Common.retrofitServices. На следующей строке к нашему recyclerView мы присоединяем setHasFixedSize(true) — благодаря этому методу мы сможем оптимизировать свой список, после мы к нашему layoutManager присваиваем LinearLayoutManager(this).
**Layout Manager** — это вещь, которая отвечает позиционирование View компонентов, которые больше не видны пользователю. Далее все также легко к нашему списку присоединяем layoutManager и уже к этому присваиваем layoutManager. Хорошо, теперь работа с библиотекой SpotsDialog. указываем ранее названную переменную с типом AlertDialog присваиваем SpotsDialog присоединяем метод Builder после этого присоединяем метод setCancelablec c параметром true к этому мы должны присоединить метод setContext c параметром this и присоединить метод build.
Теперь мы должны создать новую функцию за пределами метода onCreate назваться функция будет getAllMovieList. В теле этой функции мы должны указать наш dialog и присоединить к нему метод show()
далее к mService добавляем метод getMovieList .enqueue(object: Callback { )
Сейчас нам необходимо имплементировать методы, у нас их две **onResponse** и **onFailure**
и в onResponse, а именно в теле данного метода мы к adapter'y присваиваем
```
MyMovieAdapter(baseContext, response.body() as MutableList)
```
далее к adapter'y присваиваем метод notifyDataSetChanged(). К нашему списку мы присоединяем adapter и присваиваем adapter. после к dialog присваиваем метод dismiss(). Это значит то, что наш диалог пропадет после того, как наши данные загрузятся.
**Полный код**
```
import android.app.AlertDialog
import androidx.appcompat.app.AppCompatActivity
import android.os.Bundle
import androidx.recyclerview.widget.LinearLayoutManager
import com.example.retrofitmarvel.Adapter.MyMovieAdapter
import com.example.retrofitmarvel.Common.Common
import com.example.retrofitmarvel.Interface.RetrofitServices
import com.example.retrofitmarvel.Model.Movie
import com.example.retrofitmarvel.R
import dmax.dialog.SpotsDialog
import kotlinx.android.synthetic.main.activity_main.*
import retrofit2.Call
import retrofit2.Callback
import retrofit2.Response
class MainActivity : AppCompatActivity() {
lateinit var mService: RetrofitServices
lateinit var layoutManager: LinearLayoutManager
lateinit var adapter: MyMovieAdapter
lateinit var dialog: AlertDialog
override fun onCreate(savedInstanceState: Bundle?) {
super.onCreate(savedInstanceState)
setContentView(R.layout.activity_main)
mService = Common.retrofitService
recyclerMovieList.setHasFixedSize(true)
layoutManager = LinearLayoutManager(this)
recyclerMovieList.layoutManager = layoutManager
dialog = SpotsDialog.Builder().setCancelable(true).setContext(this).build()
getAllMovieList()
}
private fun getAllMovieList() {
dialog.show()
mService.getMovieList().enqueue(object : Callback> {
override fun onFailure(call: Call>, t: Throwable) {
}
override fun onResponse(call: Call>, response: Response>) {
adapter = MyMovieAdapter(baseContext, response.body() as MutableList)
adapter.notifyDataSetChanged()
recyclerMovieList.adapter = adapter
dialog.dismiss()
}
})
}
}
```
Отлично! В этой статье мы научились работать с Retrofit2 и помещать его в RecyclerView. | https://habr.com/ru/post/520544/ | null | ru | null |
# Новые сборки оперы. Юнайт по выбору
Пока Opera Unite еще дорабатывается до полностью рабочего состояния, сборки разделились на две категории: Opera 10.0 и Opera 10.10, соответственно, без Unite и с оной. Релиз бета-версии Оперы 10.10 намечается сразу после релиза основной версии 10.0.
Если у вас уже включена опция `opera:config#AutoUpdate|DownloadAllSnapshots` и вы уже устанавливали предыдущие сборки, то сегодня Опера должна сама обновиться до версии 10.0.
###### У меня на линуксе это почему-то не сработало. Наверно это только для сборок без Юнайт.
Для тех, кто хочет продолжать тестировать Юнайт есть возможность скачать сборку версии 10.10, для которых впоследствии будет также работать автообновление.
Также из основных изменений стоит отметить, что Опера теперь должна работать с FreeBSD 8, но пока нет сборок для 64-битных FreeBSD 7/8. Также кнопка гостевого просмотра в сервисе фотогалереи не работает для закрытого/личного прав доступа.
**Ccылки на закачку сборки Opera 10.0*** [Windows MSI](http://snapshot.opera.com/windows/Opera_1000_1723_in.exe) / [Windows Classic](http://snapshot.opera.com/windows/Opera_1000_1723_classic.exe)
* [Macintosh (Intel-only)](http://snapshot.opera.com/mac/Opera_10.00_6629_Intel.dmg) / [Macintosh (Universal)](http://snapshot.opera.com/mac/Opera_10.00_6629.dmg)
* [UNIX/Linux](http://snapshot.opera.com/unix/snapshot-4562/)
**Ccылки на закачку сборки Opera 10.10 с Unite*** [Windows MSI](http://snapshot.opera.com/windows/Opera_1010_1724_in.exe) / [Windows Classic](http://snapshot.opera.com/windows/Opera_1010_1724_classic.exe)
* [Macintosh (Intel-only)](http://snapshot.opera.com/mac/Opera_10.10_6630_Intel.dmg) / [Macintosh (Universal)](http://snapshot.opera.com/mac/Opera_10.10_6630.dmg)
* [UNIX/Linux](http://snapshot.opera.com/unix/snapshot-4563/)
Новость в [блоге](http://my.opera.com/desktopteam/blog/2009/08/20/more-snapshots) разработчиков. | https://habr.com/ru/post/67593/ | null | ru | null |
# Exim: как скрыть связь одного сервера и несколкьких доменов
Заказчики попросили меня добавить на их почтовый сервер Exim еще доменов, но при условии, чтобы не была обнаружена связь их основного домена и каждого следующего доменов.
Естественно обратную запись в ДНС не изменить для каждого домена персонально. Я нашел единственный путь потребовать от провайдера дополнительную сеточку адресов. (Ай-яй-яй! Как плохо! Знаю, в такое тяжелое время такое разгильдяйство!). Но провайдер, как оказалось, с легкостью добавил еще сеть, без проблем.
Адреса получены, можно приступать.
Что нужно? Создать PTR-записи для каждого IP-адреса. Это понятно. Сеть не у меня обслуживается, поэтому провайдеру отправил запрос. Естественно, пришлось для каждой пары ip-domain создавать непохожий домен чтобы при поисках не была заметна тенденция или почерк одного админа.
Создал пары PTR-записей:
`10.2.3.4 mail.domain1.ru
10.2.3.5 mx.domain2.ru`
В Exim есть параметр smtp\_active\_hostname, который во многих местах конфига используется. В частности в заголовках Received:.
Для определения этого параметра в соответствии с парой ip-domain я создал такую конструкцию в конфиге Exim:
`...
smtp_active_hostname = ${lookup{$received_ip_address}\
nwildlsearch{EXIM_DIR/hostname_incoming_ip}{$value}{$primary_hostname}}
...`
Файл hostname\_incoming\_ip выглядит так:
`# cat hostname_incoming_ip
10.2.3.4 mail.domain1.ru
10.2.3.5 mx.domain2.ru`
Таким образом значение smtp\_active\_hostname в Exim становилось mail.domain1.ru, если значение переменной received\_ip\_address было 10.2.3.4, если адрес не упоминался в файле, то значение переменной smtp\_active\_hostname становилось равным primary\_hostname.
Для отправки исходящего письма нужно указывать корректный src-ip, который бы в ДНС был связан бы со своим доменом, а также указывать подходящий HELO(EHLO).
Сделал я это все в транспорте remote\_smtp так:
`remote_smtp:
driver = smtp
helo_data = ${lookup{$sender_address_domain}\
nwildlsearch{EXIM_DIR/helo_data}{$value}{$primary_hostname}}
interface = ${lookup{$sender_address_domain}\
nwildlsearch{EXIM_DIR/outgoing_ip}{$value}{EXIM_OUTGOING_IP}}`
В ДНС внес соответствующие MX записи для каждого нового домена.
Получил следующее: входящая почта приходит по MX-ам как положено. Удаленный админ по логам видит на какой MX доставилось письмо. Для каждого из моих доменов — разный. Отлично! Исходящая с локальной сети почта уходит, используя свой внешний IP-адрес и указывая подходящее значение HELO(EHLO) и с подходящими значениями для домена в заголовке Received:.
Я считаю, что хорошо бы доделать следующее: выдавать на простое подключение к 25 порту каждого из моих IP-адресов различную инфу для smtp\_banner и не принимать почту для домена, который не привязан к адресу, на который пришел коннект. Тогда бы был полный ажур! Ну пока руки не доходят.
Вот так гибко и удобно можно настраивать Exim. | https://habr.com/ru/post/125407/ | null | ru | null |
# Обертка над WWW в Unity3D

Всем привет! Решил поделиться своим велосипедиком для работы с WWW в Unity3D.
Что такое WWW?
**WWW** — это класс, который позволяет отправлять веб запросы на указанный URL и получать ответ в виде текста, текстуры, загружать бандлы. Подробнее можно прочесть в справке ([клац](http://docs.unity3d.com/Documentation/ScriptReference/WWW.html)).
Я остановлюсь на текстовом формате данных.
##### Предпосылки
Иногда возникает задача связать игру с сервером, написанном на Php(хотя можно любой другой яп использовать для развертки backend части). Все время отправлять запросы в виде new WWW(Address + "?api=login&username=..."); не удобно, хочется сделать удобнее работу с посылкой/приемом данных.
Есть еще одна загвоздка: запросы посылаются синхронно, блокируя главный поток. Существует вариант использовать корутины, чтобы избежать этого.
В итоге, созрела мысль написать нечто, что могло бы упростить жизнь для работы с WWW.text.
##### Реализация
Обычно требуется дернуть какой-нибудь метод на сервере, который вернет результат. Список методом можно засунуть в enum, и затем расширять по мере надобности:
```
public enum PacketTypes
{
nil,
auth,
updateinfo
}
```
Следующими будут объекты запроса/ответа, представленные классами NetRequest и NetResponse соответственно. Они скрывают формат обмена данными и хранят их в Dictionary(универсально же). NetRequest позволяет получить строку запроса для отправки на сервер через GetParamsString(). NetResponse содержит уже готовые к использованию данные, а так же позволяет проверить ответ на ошибку через IsError.
Еще используется некий класс HttpUtility(не из System.Web, автор Patrik Torstensson), который позволяет кодировать символы(пробел, кавычки и др.). Причина в том, что в System.Web для Unity3d этого класса нет. Приведу лишь исходник, рассматривать не будем.
**HttpUtility.cs**
```
//
// System.Web.HttpUtility
//
// Authors:
// Patrik Torstensson (Patrik.Torstensson@labs2.com)
// Wictor Wilén (decode/encode functions) (wictor@ibizkit.se)
// Tim Coleman (tim@timcoleman.com)
// Gonzalo Paniagua Javier (gonzalo@ximian.com)
//
// Copyright (C) 2005 Novell, Inc (http://www.novell.com)
//
// Permission is hereby granted, free of charge, to any person obtaining
// a copy of this software and associated documentation files (the
// "Software"), to deal in the Software without restriction, including
// without limitation the rights to use, copy, modify, merge, publish,
// distribute, sublicense, and/or sell copies of the Software, and to
// permit persons to whom the Software is furnished to do so, subject to
// the following conditions:
//
// The above copyright notice and this permission notice shall be
// included in all copies or substantial portions of the Software.
//
// THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
// EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
// MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
// NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE
// LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
// OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION
// WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
//
using System.Collections;
using System.Collections.Specialized;
using System.Globalization;
using System.IO;
using System.Text;
using System;
public sealed class HttpUtility
{
#region Fields
static Hashtable entities;
static object lock_ = new object();
#endregion // Fields
static Hashtable Entities
{
get
{
lock (lock_)
{
if (entities == null)
InitEntities();
return entities;
}
}
}
#region Constructors
static void InitEntities()
{
// Build the hash table of HTML entity references. This list comes
// from the HTML 4.01 W3C recommendation.
entities = new Hashtable();
entities.Add("nbsp", '\u00A0');
entities.Add("iexcl", '\u00A1');
entities.Add("cent", '\u00A2');
entities.Add("pound", '\u00A3');
entities.Add("curren", '\u00A4');
entities.Add("yen", '\u00A5');
entities.Add("brvbar", '\u00A6');
entities.Add("sect", '\u00A7');
entities.Add("uml", '\u00A8');
entities.Add("copy", '\u00A9');
entities.Add("ordf", '\u00AA');
entities.Add("laquo", '\u00AB');
entities.Add("not", '\u00AC');
entities.Add("shy", '\u00AD');
entities.Add("reg", '\u00AE');
entities.Add("macr", '\u00AF');
entities.Add("deg", '\u00B0');
entities.Add("plusmn", '\u00B1');
entities.Add("sup2", '\u00B2');
entities.Add("sup3", '\u00B3');
entities.Add("acute", '\u00B4');
entities.Add("micro", '\u00B5');
entities.Add("para", '\u00B6');
entities.Add("middot", '\u00B7');
entities.Add("cedil", '\u00B8');
entities.Add("sup1", '\u00B9');
entities.Add("ordm", '\u00BA');
entities.Add("raquo", '\u00BB');
entities.Add("frac14", '\u00BC');
entities.Add("frac12", '\u00BD');
entities.Add("frac34", '\u00BE');
entities.Add("iquest", '\u00BF');
entities.Add("Agrave", '\u00C0');
entities.Add("Aacute", '\u00C1');
entities.Add("Acirc", '\u00C2');
entities.Add("Atilde", '\u00C3');
entities.Add("Auml", '\u00C4');
entities.Add("Aring", '\u00C5');
entities.Add("AElig", '\u00C6');
entities.Add("Ccedil", '\u00C7');
entities.Add("Egrave", '\u00C8');
entities.Add("Eacute", '\u00C9');
entities.Add("Ecirc", '\u00CA');
entities.Add("Euml", '\u00CB');
entities.Add("Igrave", '\u00CC');
entities.Add("Iacute", '\u00CD');
entities.Add("Icirc", '\u00CE');
entities.Add("Iuml", '\u00CF');
entities.Add("ETH", '\u00D0');
entities.Add("Ntilde", '\u00D1');
entities.Add("Ograve", '\u00D2');
entities.Add("Oacute", '\u00D3');
entities.Add("Ocirc", '\u00D4');
entities.Add("Otilde", '\u00D5');
entities.Add("Ouml", '\u00D6');
entities.Add("times", '\u00D7');
entities.Add("Oslash", '\u00D8');
entities.Add("Ugrave", '\u00D9');
entities.Add("Uacute", '\u00DA');
entities.Add("Ucirc", '\u00DB');
entities.Add("Uuml", '\u00DC');
entities.Add("Yacute", '\u00DD');
entities.Add("THORN", '\u00DE');
entities.Add("szlig", '\u00DF');
entities.Add("agrave", '\u00E0');
entities.Add("aacute", '\u00E1');
entities.Add("acirc", '\u00E2');
entities.Add("atilde", '\u00E3');
entities.Add("auml", '\u00E4');
entities.Add("aring", '\u00E5');
entities.Add("aelig", '\u00E6');
entities.Add("ccedil", '\u00E7');
entities.Add("egrave", '\u00E8');
entities.Add("eacute", '\u00E9');
entities.Add("ecirc", '\u00EA');
entities.Add("euml", '\u00EB');
entities.Add("igrave", '\u00EC');
entities.Add("iacute", '\u00ED');
entities.Add("icirc", '\u00EE');
entities.Add("iuml", '\u00EF');
entities.Add("eth", '\u00F0');
entities.Add("ntilde", '\u00F1');
entities.Add("ograve", '\u00F2');
entities.Add("oacute", '\u00F3');
entities.Add("ocirc", '\u00F4');
entities.Add("otilde", '\u00F5');
entities.Add("ouml", '\u00F6');
entities.Add("divide", '\u00F7');
entities.Add("oslash", '\u00F8');
entities.Add("ugrave", '\u00F9');
entities.Add("uacute", '\u00FA');
entities.Add("ucirc", '\u00FB');
entities.Add("uuml", '\u00FC');
entities.Add("yacute", '\u00FD');
entities.Add("thorn", '\u00FE');
entities.Add("yuml", '\u00FF');
entities.Add("fnof", '\u0192');
entities.Add("Alpha", '\u0391');
entities.Add("Beta", '\u0392');
entities.Add("Gamma", '\u0393');
entities.Add("Delta", '\u0394');
entities.Add("Epsilon", '\u0395');
entities.Add("Zeta", '\u0396');
entities.Add("Eta", '\u0397');
entities.Add("Theta", '\u0398');
entities.Add("Iota", '\u0399');
entities.Add("Kappa", '\u039A');
entities.Add("Lambda", '\u039B');
entities.Add("Mu", '\u039C');
entities.Add("Nu", '\u039D');
entities.Add("Xi", '\u039E');
entities.Add("Omicron", '\u039F');
entities.Add("Pi", '\u03A0');
entities.Add("Rho", '\u03A1');
entities.Add("Sigma", '\u03A3');
entities.Add("Tau", '\u03A4');
entities.Add("Upsilon", '\u03A5');
entities.Add("Phi", '\u03A6');
entities.Add("Chi", '\u03A7');
entities.Add("Psi", '\u03A8');
entities.Add("Omega", '\u03A9');
entities.Add("alpha", '\u03B1');
entities.Add("beta", '\u03B2');
entities.Add("gamma", '\u03B3');
entities.Add("delta", '\u03B4');
entities.Add("epsilon", '\u03B5');
entities.Add("zeta", '\u03B6');
entities.Add("eta", '\u03B7');
entities.Add("theta", '\u03B8');
entities.Add("iota", '\u03B9');
entities.Add("kappa", '\u03BA');
entities.Add("lambda", '\u03BB');
entities.Add("mu", '\u03BC');
entities.Add("nu", '\u03BD');
entities.Add("xi", '\u03BE');
entities.Add("omicron", '\u03BF');
entities.Add("pi", '\u03C0');
entities.Add("rho", '\u03C1');
entities.Add("sigmaf", '\u03C2');
entities.Add("sigma", '\u03C3');
entities.Add("tau", '\u03C4');
entities.Add("upsilon", '\u03C5');
entities.Add("phi", '\u03C6');
entities.Add("chi", '\u03C7');
entities.Add("psi", '\u03C8');
entities.Add("omega", '\u03C9');
entities.Add("thetasym", '\u03D1');
entities.Add("upsih", '\u03D2');
entities.Add("piv", '\u03D6');
entities.Add("bull", '\u2022');
entities.Add("hellip", '\u2026');
entities.Add("prime", '\u2032');
entities.Add("Prime", '\u2033');
entities.Add("oline", '\u203E');
entities.Add("frasl", '\u2044');
entities.Add("weierp", '\u2118');
entities.Add("image", '\u2111');
entities.Add("real", '\u211C');
entities.Add("trade", '\u2122');
entities.Add("alefsym", '\u2135');
entities.Add("larr", '\u2190');
entities.Add("uarr", '\u2191');
entities.Add("rarr", '\u2192');
entities.Add("darr", '\u2193');
entities.Add("harr", '\u2194');
entities.Add("crarr", '\u21B5');
entities.Add("lArr", '\u21D0');
entities.Add("uArr", '\u21D1');
entities.Add("rArr", '\u21D2');
entities.Add("dArr", '\u21D3');
entities.Add("hArr", '\u21D4');
entities.Add("forall", '\u2200');
entities.Add("part", '\u2202');
entities.Add("exist", '\u2203');
entities.Add("empty", '\u2205');
entities.Add("nabla", '\u2207');
entities.Add("isin", '\u2208');
entities.Add("notin", '\u2209');
entities.Add("ni", '\u220B');
entities.Add("prod", '\u220F');
entities.Add("sum", '\u2211');
entities.Add("minus", '\u2212');
entities.Add("lowast", '\u2217');
entities.Add("radic", '\u221A');
entities.Add("prop", '\u221D');
entities.Add("infin", '\u221E');
entities.Add("ang", '\u2220');
entities.Add("and", '\u2227');
entities.Add("or", '\u2228');
entities.Add("cap", '\u2229');
entities.Add("cup", '\u222A');
entities.Add("int", '\u222B');
entities.Add("there4", '\u2234');
entities.Add("sim", '\u223C');
entities.Add("cong", '\u2245');
entities.Add("asymp", '\u2248');
entities.Add("ne", '\u2260');
entities.Add("equiv", '\u2261');
entities.Add("le", '\u2264');
entities.Add("ge", '\u2265');
entities.Add("sub", '\u2282');
entities.Add("sup", '\u2283');
entities.Add("nsub", '\u2284');
entities.Add("sube", '\u2286');
entities.Add("supe", '\u2287');
entities.Add("oplus", '\u2295');
entities.Add("otimes", '\u2297');
entities.Add("perp", '\u22A5');
entities.Add("sdot", '\u22C5');
entities.Add("lceil", '\u2308');
entities.Add("rceil", '\u2309');
entities.Add("lfloor", '\u230A');
entities.Add("rfloor", '\u230B');
entities.Add("lang", '\u2329');
entities.Add("rang", '\u232A');
entities.Add("loz", '\u25CA');
entities.Add("spades", '\u2660');
entities.Add("clubs", '\u2663');
entities.Add("hearts", '\u2665');
entities.Add("diams", '\u2666');
entities.Add("quot", '\u0022');
entities.Add("amp", '\u0026');
entities.Add("lt", '\u003C');
entities.Add("gt", '\u003E');
entities.Add("OElig", '\u0152');
entities.Add("oelig", '\u0153');
entities.Add("Scaron", '\u0160');
entities.Add("scaron", '\u0161');
entities.Add("Yuml", '\u0178');
entities.Add("circ", '\u02C6');
entities.Add("tilde", '\u02DC');
entities.Add("ensp", '\u2002');
entities.Add("emsp", '\u2003');
entities.Add("thinsp", '\u2009');
entities.Add("zwnj", '\u200C');
entities.Add("zwj", '\u200D');
entities.Add("lrm", '\u200E');
entities.Add("rlm", '\u200F');
entities.Add("ndash", '\u2013');
entities.Add("mdash", '\u2014');
entities.Add("lsquo", '\u2018');
entities.Add("rsquo", '\u2019');
entities.Add("sbquo", '\u201A');
entities.Add("ldquo", '\u201C');
entities.Add("rdquo", '\u201D');
entities.Add("bdquo", '\u201E');
entities.Add("dagger", '\u2020');
entities.Add("Dagger", '\u2021');
entities.Add("permil", '\u2030');
entities.Add("lsaquo", '\u2039');
entities.Add("rsaquo", '\u203A');
entities.Add("euro", '\u20AC');
}
public HttpUtility()
{
}
#endregion // Constructors
#region Methods
public static void HtmlAttributeEncode(string s, TextWriter output)
{
output.Write(HtmlAttributeEncode(s));
}
public static string HtmlAttributeEncode(string s)
{
if (null == s)
return null;
if (s.IndexOf('&') == -1 && s.IndexOf('"') == -1)
return s;
StringBuilder output = new StringBuilder();
foreach (char c in s)
switch (c)
{
case '&':
output.Append("&");
break;
case '"':
output.Append(""");
break;
default:
output.Append(c);
break;
}
return output.ToString();
}
public static string UrlDecode(string str)
{
return UrlDecode(str, Encoding.UTF8);
}
private static char[] GetChars(MemoryStream b, Encoding e)
{
return e.GetChars(b.GetBuffer(), 0, (int)b.Length);
}
public static string UrlDecode(string s, Encoding e)
{
if (null == s)
return null;
if (s.IndexOf('%') == -1 && s.IndexOf('+') == -1)
return s;
if (e == null)
e = Encoding.UTF8;
StringBuilder output = new StringBuilder();
long len = s.Length;
MemoryStream bytes = new MemoryStream();
int xchar;
for (int i = 0; i < len; i++)
{
if (s[i] == '%' && i + 2 < len && s[i + 1] != '%')
{
if (s[i + 1] == 'u' && i + 5 < len)
{
if (bytes.Length > 0)
{
output.Append(GetChars(bytes, e));
bytes.SetLength(0);
}
xchar = GetChar(s, i + 2, 4);
if (xchar != -1)
{
output.Append((char)xchar);
i += 5;
}
else
{
output.Append('%');
}
}
else if ((xchar = GetChar(s, i + 1, 2)) != -1)
{
bytes.WriteByte((byte)xchar);
i += 2;
}
else
{
output.Append('%');
}
continue;
}
if (bytes.Length > 0)
{
output.Append(GetChars(bytes, e));
bytes.SetLength(0);
}
if (s[i] == '+')
{
output.Append(' ');
}
else
{
output.Append(s[i]);
}
}
if (bytes.Length > 0)
{
output.Append(GetChars(bytes, e));
}
bytes = null;
return output.ToString();
}
public static string UrlDecode(byte[] bytes, Encoding e)
{
if (bytes == null)
return null;
return UrlDecode(bytes, 0, bytes.Length, e);
}
private static int GetInt(byte b)
{
char c = (char)b;
if (c >= '0' && c <= '9')
return c - '0';
if (c >= 'a' && c <= 'f')
return c - 'a' + 10;
if (c >= 'A' && c <= 'F')
return c - 'A' + 10;
return -1;
}
private static int GetChar(byte[] bytes, int offset, int length)
{
int value = 0;
int end = length + offset;
for (int i = offset; i < end; i++)
{
int current = GetInt(bytes[i]);
if (current == -1)
return -1;
value = (value << 4) + current;
}
return value;
}
private static int GetChar(string str, int offset, int length)
{
int val = 0;
int end = length + offset;
for (int i = offset; i < end; i++)
{
char c = str[i];
if (c > 127)
return -1;
int current = GetInt((byte)c);
if (current == -1)
return -1;
val = (val << 4) + current;
}
return val;
}
public static string UrlDecode(byte[] bytes, int offset, int count, Encoding e)
{
if (bytes == null)
return null;
if (count == 0)
return String.Empty;
if (bytes == null)
throw new ArgumentNullException("bytes");
if (offset < 0 || offset > bytes.Length)
throw new ArgumentOutOfRangeException("offset");
if (count < 0 || offset + count > bytes.Length)
throw new ArgumentOutOfRangeException("count");
StringBuilder output = new StringBuilder();
MemoryStream acc = new MemoryStream();
int end = count + offset;
int xchar;
for (int i = offset; i < end; i++)
{
if (bytes[i] == '%' && i + 2 < count && bytes[i + 1] != '%')
{
if (bytes[i + 1] == (byte)'u' && i + 5 < end)
{
if (acc.Length > 0)
{
output.Append(GetChars(acc, e));
acc.SetLength(0);
}
xchar = GetChar(bytes, i + 2, 4);
if (xchar != -1)
{
output.Append((char)xchar);
i += 5;
continue;
}
}
else if ((xchar = GetChar(bytes, i + 1, 2)) != -1)
{
acc.WriteByte((byte)xchar);
i += 2;
continue;
}
}
if (acc.Length > 0)
{
output.Append(GetChars(acc, e));
acc.SetLength(0);
}
if (bytes[i] == '+')
{
output.Append(' ');
}
else
{
output.Append((char)bytes[i]);
}
}
if (acc.Length > 0)
{
output.Append(GetChars(acc, e));
}
acc = null;
return output.ToString();
}
public static byte[] UrlDecodeToBytes(byte[] bytes)
{
if (bytes == null)
return null;
return UrlDecodeToBytes(bytes, 0, bytes.Length);
}
public static byte[] UrlDecodeToBytes(string str)
{
return UrlDecodeToBytes(str, Encoding.UTF8);
}
public static byte[] UrlDecodeToBytes(string str, Encoding e)
{
if (str == null)
return null;
if (e == null)
throw new ArgumentNullException("e");
return UrlDecodeToBytes(e.GetBytes(str));
}
public static byte[] UrlDecodeToBytes(byte[] bytes, int offset, int count)
{
if (bytes == null)
return null;
if (count == 0)
return new byte[0];
int len = bytes.Length;
if (offset < 0 || offset >= len)
throw new ArgumentOutOfRangeException("offset");
if (count < 0 || offset > len - count)
throw new ArgumentOutOfRangeException("count");
MemoryStream result = new MemoryStream();
int end = offset + count;
for (int i = offset; i < end; i++)
{
char c = (char)bytes[i];
if (c == '+')
{
c = ' ';
}
else if (c == '%' && i < end - 2)
{
int xchar = GetChar(bytes, i + 1, 2);
if (xchar != -1)
{
c = (char)xchar;
i += 2;
}
}
result.WriteByte((byte)c);
}
return result.ToArray();
}
static char[] hexChars = "0123456789abcdef".ToCharArray();
const string notEncoded = "!'()*-._";
static void UrlEncodeChar(char c, Stream result, bool isUnicode)
{
if (c > 255)
{
//FIXME: what happens when there is an internal error?
//if (!isUnicode)
// throw new ArgumentOutOfRangeException ("c", c, "c must be less than 256");
int idx;
int i = (int)c;
result.WriteByte((byte)'%');
result.WriteByte((byte)'u');
idx = i >> 12;
result.WriteByte((byte)hexChars[idx]);
idx = (i >> 8) & 0x0F;
result.WriteByte((byte)hexChars[idx]);
idx = (i >> 4) & 0x0F;
result.WriteByte((byte)hexChars[idx]);
idx = i & 0x0F;
result.WriteByte((byte)hexChars[idx]);
return;
}
if (c > ' ' && notEncoded.IndexOf(c) != -1)
{
result.WriteByte((byte)c);
return;
}
if (c == ' ')
{
result.WriteByte((byte)'+');
return;
}
if ((c < '0') ||
(c < 'A' && c > '9') ||
(c > 'Z' && c < 'a') ||
(c > 'z'))
{
if (isUnicode && c > 127)
{
result.WriteByte((byte)'%');
result.WriteByte((byte)'u');
result.WriteByte((byte)'0');
result.WriteByte((byte)'0');
}
else
result.WriteByte((byte)'%');
int idx = ((int)c) >> 4;
result.WriteByte((byte)hexChars[idx]);
idx = ((int)c) & 0x0F;
result.WriteByte((byte)hexChars[idx]);
}
else
result.WriteByte((byte)c);
}
public static byte[] UrlEncodeToBytes(byte[] bytes, int offset, int count)
{
if (bytes == null)
return null;
int len = bytes.Length;
if (len == 0)
return new byte[0];
if (offset < 0 || offset >= len)
throw new ArgumentOutOfRangeException("offset");
if (count < 0 || count > len - offset)
throw new ArgumentOutOfRangeException("count");
MemoryStream result = new MemoryStream(count);
int end = offset + count;
for (int i = offset; i < end; i++)
UrlEncodeChar((char)bytes[i], result, false);
return result.ToArray();
}
public static byte[] UrlEncodeUnicodeToBytes(string str)
{
if (str == null)
return null;
if (str == "")
return new byte[0];
MemoryStream result = new MemoryStream(str.Length);
foreach (char c in str)
{
UrlEncodeChar(c, result, true);
}
return result.ToArray();
}
///
/// Decodes an HTML-encoded string and returns the decoded string.
///
/// The HTML string to decode.
/// The decoded text.
public static string HtmlDecode(string s)
{
if (s == null)
throw new ArgumentNullException("s");
if (s.IndexOf('&') == -1)
return s;
StringBuilder entity = new StringBuilder();
StringBuilder output = new StringBuilder();
int len = s.Length;
// 0 -> nothing,
// 1 -> right after '&'
// 2 -> between '&' and ';' but no '#'
// 3 -> '#' found after '&' and getting numbers
int state = 0;
int number = 0;
bool have_trailing_digits = false;
for (int i = 0; i < len; i++)
{
char c = s[i];
if (state == 0)
{
if (c == '&')
{
entity.Append(c);
state = 1;
}
else
{
output.Append(c);
}
continue;
}
if (c == '&')
{
state = 1;
if (have_trailing_digits)
{
entity.Append(number.ToString(CultureInfo.InvariantCulture));
have_trailing_digits = false;
}
output.Append(entity.ToString());
entity.Length = 0;
entity.Append('&');
continue;
}
if (state == 1)
{
if (c == ';')
{
state = 0;
output.Append(entity.ToString());
output.Append(c);
entity.Length = 0;
}
else
{
number = 0;
if (c != '#')
{
state = 2;
}
else
{
state = 3;
}
entity.Append(c);
}
}
else if (state == 2)
{
entity.Append(c);
if (c == ';')
{
string key = entity.ToString();
if (key.Length > 1 && Entities.ContainsKey(key.Substring(1, key.Length - 2)))
key = Entities[key.Substring(1, key.Length - 2)].ToString();
output.Append(key);
state = 0;
entity.Length = 0;
}
}
else if (state == 3)
{
if (c == ';')
{
if (number > 65535)
{
output.Append("&#");
output.Append(number.ToString(CultureInfo.InvariantCulture));
output.Append(";");
}
else
{
output.Append((char)number);
}
state = 0;
entity.Length = 0;
have_trailing_digits = false;
}
else if (Char.IsDigit(c))
{
number = number * 10 + ((int)c - '0');
have_trailing_digits = true;
}
else
{
state = 2;
if (have_trailing_digits)
{
entity.Append(number.ToString(CultureInfo.InvariantCulture));
have_trailing_digits = false;
}
entity.Append(c);
}
}
}
if (entity.Length > 0)
{
output.Append(entity.ToString());
}
else if (have_trailing_digits)
{
output.Append(number.ToString(CultureInfo.InvariantCulture));
}
return output.ToString();
}
///
/// Decodes an HTML-encoded string and sends the resulting output to a TextWriter output stream.
///
/// The HTML string to decode
/// The TextWriter output stream containing the decoded string.
public static void HtmlDecode(string s, TextWriter output)
{
if (s != null)
output.Write(HtmlDecode(s));
}
///
/// HTML-encodes a string and returns the encoded string.
///
/// The text string to encode.
/// The HTML-encoded text.
public static string HtmlEncode(string s)
{
if (s == null)
return null;
StringBuilder output = new StringBuilder();
foreach (char c in s)
switch (c)
{
case '&':
output.Append("&");
break;
case '>':
output.Append(">");
break;
case '<':
output.Append("<");
break;
case '"':
output.Append(""");
break;
default:
// MS starts encoding with &# from 160 and stops at 255.
// We don't do that. One reason is the 65308/65310 unicode
// characters that look like '<' and '>'.
if (c > 159)
{
output.Append("&#");
output.Append(((int)c).ToString(CultureInfo.InvariantCulture));
output.Append(";");
}
else
{
output.Append(c);
}
break;
}
return output.ToString();
}
/// <summary>
/// HTML-encodes a string and sends the resulting output to a TextWriter output stream.
/// </summary>
/// <param name="s">The string to encode. </param>
/// <param name="output">The TextWriter output stream containing the encoded string. </param>
public static void HtmlEncode(string s, TextWriter output)
{
if (s != null)
output.Write(HtmlEncode(s));
}
#if NET_1_1
public static string UrlPathEncode (string s)
{
if (s == null || s.Length == 0)
return s;
MemoryStream result = new MemoryStream ();
int length = s.Length;
for (int i = 0; i < length; i++) {
UrlPathEncodeChar (s [i], result);
}
return Encoding.ASCII.GetString (result.ToArray ());
}
static void UrlPathEncodeChar (char c, Stream result) {
if (c > 127) {
byte [] bIn = Encoding.UTF8.GetBytes (c.ToString ());
for (int i = 0; i < bIn.Length; i++) {
result.WriteByte ((byte) '%');
int idx = ((int) bIn [i]) >> 4;
result.WriteByte ((byte) hexChars [idx]);
idx = ((int) bIn [i]) & 0x0F;
result.WriteByte ((byte) hexChars [idx]);
}
}
else if (c == ' ') {
result.WriteByte ((byte) '%');
result.WriteByte ((byte) '2');
result.WriteByte ((byte) '0');
}
else
result.WriteByte ((byte) c);
}
#endif
#if NET_2_0
public static NameValueCollection ParseQueryString (string query)
{
return ParseQueryString (query, Encoding.UTF8);
}
public static NameValueCollection ParseQueryString (string query, Encoding encoding)
{
if (query == null)
throw new ArgumentNullException ("query");
if (encoding == null)
throw new ArgumentNullException ("encoding");
if (query.Length == 0 || (query.Length == 1 && query[0] == '?'))
return new NameValueCollection ();
if (query[0] == '?')
query = query.Substring (1);
NameValueCollection result = new NameValueCollection ();
ParseQueryString (query, encoding, result);
return result;
}
#endif
internal static void ParseQueryString(string query, Encoding encoding, NameValueCollection result)
{
if (query.Length == 0)
return;
int namePos = 0;
while (namePos <= query.Length)
{
int valuePos = -1, valueEnd = -1;
for (int q = namePos; q < query.Length; q++)
{
if (valuePos == -1 && query[q] == '=')
{
valuePos = q + 1;
}
else if (query[q] == '&')
{
valueEnd = q;
break;
}
}
string name, value;
if (valuePos == -1)
{
name = null;
valuePos = namePos;
}
else
{
name = UrlDecode(query.Substring(namePos, valuePos - namePos - 1), encoding);
}
if (valueEnd < 0)
{
namePos = -1;
valueEnd = query.Length;
}
else
{
namePos = valueEnd + 1;
}
value = UrlDecode(query.Substring(valuePos, valueEnd - valuePos), encoding);
result.Add(name, value);
if (namePos == -1) break;
}
}
#endregion // Methods
}
</code></pre><br/>
</div></div><br/>
<br/>
NetRequest.cs<br/>
<pre><code class="cs">using System.Collections.Generic;
using System.Linq;
public class NetRequest : Dictionary<string, string>
{
private const string METHOD_KEY = "method";
public NetRequest(PacketTypes header)
{
AddParam(METHOD_KEY, header.ToString());
}
public void AddParam(string key, string value)
{
var val = HttpUtility.HtmlEncode(value);
if (ContainsKey(key))
base[key] = val;
else
Add(key, val);
}
public void AddParam(string key, long value)
{
AddParam(key, value.ToString());
}
public void AddParam(string key, bool value)
{
AddParam(key, value ? 1 : 0);
}
public void RemoveParam(string key)
{
if (ContainsKey(key))
Remove(key);
}
public string GetParamsString()
{
return string.Join("&", this.Select(n => n.Key + "=" + n.Value).ToArray());
}
}
</code></pre><br/>
<br/>
NetResponse.cs<br/>
<pre><code class="cs">using System.Collections.Generic;
public class NetResponse : Dictionary<string, string>
{
private const string ERROR_KEY = "error";
public string GetError
{
get
{
if (IsError)
return base[ERROR_KEY];
return string.Empty;
}
}
public bool IsError
{
get { return ContainsKey(ERROR_KEY); }
}
public NetResponse(string data)
{
var mas = data.Split(new[] { '&' });
foreach (var s in mas)
{
var keyVal = s.Split(new[] { '=' });
Add(keyVal[0], HttpUtility.UrlDecode(keyVal[1]));
}
}
}
</code></pre><br/>
<br/>
Теперь о том, как это используется. Есть класс Network(синглтон), который содержит метод для отправки запросов, а также реализацию методов API на стороне клиента(чтобы заполнять запросы конкретными данными).<br/>
<br/>
Network.cs<br/>
<pre><code class="cs">using System.Collections;
using UnityEngine;
public class Network
{
private static Network _instance;
public static Network Instance
{
get
{
if (_instance == null)
_instance = new Network();
return _instance;
}
}
private const string SERVER_PATH = "http://localhost:8080/server/engine.php";
private IEnumerator SendRequest(NetRequest request)
{
var www = new WWW(string.Concat(SERVER_PATH, "?", request.GetParamsString()));
while (!www.isDone)
yield return www;
if (!string.IsNullOrEmpty(www.error))
{
//Logger.Log("[Network] SendRequest ERROR:" + www.error);
yield return new NetResponse("error=" + www.error);
yield break;
}
//Logger.Log("[Network] input data:{0}", www.text);
yield return new NetResponse(www.text);
}
/// <summary>
/// Обновляем данные
/// </summary>
public IEnumerator SendUpdateInfo(int points)
{
var request = new NetRequest(PacketTypes.updateinfo);
request.AddParam("points", points);
return SendRequest(request).ContinueWith(response =>
{
if (response.IsError)
{
//Logger.Log("SendUpdateInfoError:", response.GetError);
}
else
{
//OK
}
});
}
}
</code></pre><br/>
<br/>
Тут, пожалуй, два важных момента:<br/>
<br/>
Во-первых, метод <b>SendRequest</b> возвращает IEnumerator, т.к. мы хотим выполнить запрос «асинхронно». Мы ждем пока выполниться запрос и затем возвращаем объект NetResponse с данными.<br/>
<br/>
Во-вторых, если случается ошибка в WWW или приходит с сервера, то мы удачно суем ее в NetResponse и обрабатываем вышележащей логикой.<br/>
<br/>
Если нужно, то мы, до отправки запроса, можем прикрепить недостающие данные(hash от всей начинки, ID юзера и прочее) прямо в SendRequest.<br/>
<br/>
Остановимся на IEnumerator SendUpdateInfo(int points). Зачем IEnumerator? Это, братцы, нужно для StartCoroutine. Именно так мы будем вызывать методы. Но где профит?<br/>
<br/>
Он ниже<br/>
<br/>
<pre><code class="cs">return SendRequest(request).ContinueWith(response =>
{
if (response.IsError)
{
//Logger.Log("SendUpdateInfoError:", response.GetError);
}
else
{
//OK
}
});
</code></pre><br/>
<br/>
Т.к. мы возвращаем NetResponse из SendRequest, то мы имеем доступ уже к данным, парсить ничего не нужно.<br/>
<br/>
Осталось только разобраться что такое <b>.ContinueWith</b>:<br/>
<br/>
<pre><code class="cs">public static class NetApiExt
{
public static IEnumerator ContinueWith(this IEnumerator request, Action<NetResponse> resp)
{
var link = request;
while (link.MoveNext())
{
yield return link;
}
var obj = link.Current as NetResponse;
resp(obj);
yield return obj;
}
}
</code></pre><br/>
<br/>
Вот такой хак:)<br/>
<br/>
Можно ответ ловить как внутри метода отправки, так и снаружи:<br/>
<br/>
<pre><code class="cs"> StartCoroutine(Network.Instance.SendUpdateInfo(userPoints).ContinueWith(reponse =>
{
if (!reponse.IsError)
{
//var newPoints = int.Parse(reponse["points"]);
}
}));
</code></pre><br/>
<br/>
Серверную часть приведу лишь частично. Получаем через $_GET[«some key»], далее что-то делаем и нужное добавляем к объекту класса NetResponse:<br/>
<br/>
<pre><code class="php">class NetResponse
{
private $mas = array();
public function AddParam($key, $val){
$this->mas[$key] = urlencode($val);
}
public function AddError($val){
$this->AddParam("error", $val);
}
public function SendResponse(){
$res = "";
foreach ($this->mas as $key => $val) {
$res = $res.strtolower($key)."=".$val."&";
}
if(strlen($res) > 0)
echo substr($res,0,-1);
}
}
</code></pre><br/>
<br/>
Остается вызвать<br/>
<pre><code class="php">$resp = new NetResponse;
$resp->AddParam("points","123456");
//...
echo response.SendResponse();
</code></pre><br/>
<br/>
<h5>Итого</h5><br/>
Конечно, вариант не идеальный, но практическое применение нашел + хорошая переносимость от проекта к проекту.<br/>
<br/>
Хочу спросить вас, дорогие %username%ы, как вы работаете с WWW, что интересного придумали?</div>
``` | https://habr.com/ru/post/211482/ | null | ru | null |
# Полезный NaN
О NaN больше всего известно то, что он не равен самому себе.
```
NaN === NaN // false
```
И что операции, невозможные арифметически, вернут NaN.
```
'BlaBlaBla'/0 // NaN
```
Но у NaN есть одно мало известное(?), и, как мне кажется, весьма полезное применение.
### TL;DR Все дело в Date
В двух словах:
```
new Date(NaN) // Invalid Date
```
Чем полезно? Invalid Date все равно Date. И все операции с Date все ещё на месте.
Любые операции с Date, кроме прямой установки timestamp вернут NaN, оставив Date как Invalid Date.
```
const x = new Date(NaN) // Invalid Date
x.setTime(12345) // 12345
x.toString() // "Thu Jan 01 1970 00:00:12 GMT+0000 (+00)"
```
При этом, проверка на валидность даты становится проще некуда
```
const x = new Date(NaN) // Invalid Date
isNaN(x) // true
x.setTime(0)
isNaN(x) // false
```
Заметьте, преобразование в timestamp здесь не требуется, valueOf() делает это под капотом.
Все операции с Date — мутабельные. Тем не менее, клонирование через конструктор прекрасно работает и с Invalid Date.
```
const x = new Date(NaN) // Invalid Date
const y = new Date(x) // Invalid Date
```
Сравнение двух дат напрямую в Date не реализовано и сравнивать даты можно только через timestamp. NaN гарантирует что Invalid Date точно не будет равно никакой другой дате. Думаю, это весьма полезное свойство.
```
const x = new Date(NaN) // Invalid Date
const y = new Date(NaN) // Invalid Date
x.getTime() === y.getTime() // false
```
К моему сожалению, конструктор Date ведёт себя несколько странно по отношению к входному параметру.
```
new Date(null) // Thu Jan 01 1970 00:00:00 GMT+0000 (+00)
```
Было бы намного логичнее конструировать Invalid Date, ведь null — это не совсем ноль. Оставим это на совести Javascript-а.
Однако, если насильственно передать в конструктор undefined, то результат выглядит ожидаемым. Так что будьте осторожны.
```
new Date(undefined) // Invalid Date
```
Статья получилась больше о Date чем о NaN, но, в целом, именно об этой связке я хотел рассказать. | https://habr.com/ru/post/336124/ | null | ru | null |
# Портируем html5 игру на Android
Это продолжение моей прошлой статьи "[Создаем html5 мини-бродилку на CraftyJS](http://habrahabr.ru/blogs/gdev/125857/)". Я подумал, сейчас так много возможностей относительно просто портировать любое html5 приложение на мобильную платформы, почему бы не попробовать?

Ниже, то что из этого вышло. Внимательно читаем вывод!
#### Что нам потребуется
* PhoneGap и окружение для работы с ним ([инструкция по установке](http://www.phonegap.com/start#android))
* Проект из предидущей статьи
* Крайне желательно наличие android телефона
#### Задача
Нужно портировать игру бродилку на android, сделать краткий вывод статистики и управление по средствам акселерометра.
#### Предварительная подготовка
С начала, выслушав критику к прошлой статье, я убрал из index.html множественные вызовы js файлов, оставив только главные библиотеки. Для этого я подключил библиотеку [requirejs](http://requirejs.org/). Так же я сразу подключил phonegap.js и немного изменил верстку, вот как теперь все это выглядит:
/index.html
```
Simpe RPG
Level:
1
Score:
0
```
/css/game.css
```
body, html { margin:0; padding: 0; overflow:hidden; font-family:Arial; font-size:20px; background-color: #000; }
#cr-stage { color:white; float:left; }
#sidebar { top: 0; left: 0; width: 150px; height: 100px; position: absolute; color:white;}
#sidebar div { margin: 10px 5px; text-align: center; }
```
/js/game.js
```
var Settings = {
width: 480, // ширина игрового поля
height: 320, // высота
poligon: 16, // размер полигона 16x16
level: 1, // текущий уровень
flower_count: 0 // цветков на уровне
};
var AllScripts = [
// objects
'js/objects/flower',
'js/objects/bush',
'js/objects/grass',
'js/objects/unit',
'js/objects/fourway_accel',
'js/objects/player',
'js/objects/fourway_ai',
'js/objects/monster',
// scenes
'js/scenes/loading',
'js/scenes/main',
'js/scenes/win',
'js/scenes/lose'
];
require(AllScripts, function() {
require.ready(function() {
Crafty.init(Settings.width, Settings.height); // создаем игровое поле
// подгружаем спрайт
Crafty.sprite(Settings.poligon, "images/sprite.png", {
grass1: [0,0],
grass2: [1,0],
grass3: [2,0],
grass4: [3,0],
flower: [0,1],
bush1: [0,2],
bush2: [1,2],
player: [0,3],
monster: [0,4]
});
// запускаем первую сцену
Crafty.scene("loading");
});
});
```
Обратите внимание, что я так же изменил width и height в соответствие с разрешением мобильного телефона.
#### Акселерометр
Теперь давайте займемся управлением, для это изменим /js/objects/player.js заменив компонент Fourway на FourwayAccel, а так же вызов this.fourway(1) на this.fourway\_accel(1). Дальше, нам нужно создать этот самый компонент, вот он:
```
Crafty.c("FourwayAccel", {
_speed: 3,
_touch_element: null,
init: function() {
this._movement= { x: 0, y: 0};
this.accels = {};
this.accels['left'] = false;
this.accels['right'] = false;
this.accels['top'] = false;
this.accels['bottom'] = false;
},
fourway_accel: function(speed) {
var self = this;
self._speed = speed;
self.bind('Acceleration', function(acceleration) {
if (acceleration.y < -2) this.start_or_stop_move('left');
if (acceleration.y > 2) this.start_or_stop_move('right');
if (acceleration.x < -2) this.start_or_stop_move('top');
if (acceleration.x > 2) this.start_or_stop_move('bottom');
});
self.bind("EnterFrame",function() {
if (self.disableControls) return;
if(self._movement.x !== 0) {
self.x += self._movement.x;
self.trigger('Moved', {x: self.x - self._movement.x, y: self.y});
}
if(self._movement.y !== 0) {
self.y += self._movement.y;
self.trigger('Moved', {x: self.x, y: self.y - self._movement.y});
}
});
return self;
},
start_or_stop_move: function(move_type) {
var move_speed = this.get_speed(move_type);
if (this.accels[move_type]) {
// stop move
this._movement.x = Math.round((this._movement.x - move_speed.x)*1000)/1000;
this._movement.y = Math.round((this._movement.y - move_speed.y)*1000)/1000;
this.accels[move_type] = false;
} else {
// start move
this.accels[move_type] = true;
this._movement.x = Math.round((this._movement.x + move_speed.x)*1000)/1000;
this._movement.y = Math.round((this._movement.y + move_speed.y)*1000)/1000;
}
this.trigger('NewDirection', this._movement);
},
get_speed: function(key_id) {
switch (key_id) {
case 'top':
return {x: 0, y: -this._speed};
case 'left':
return {x: -this._speed, y: 0};
case 'right':
return {x: this._speed, y: 0};
case 'bottom':
return {x: 0, y: this._speed};
}
}
});
```
После вызова метода fourway\_accel, мы начинаем слушать событие «Acceleration», которое мы создадим чуть позже. Данное событие передает нам данные о наклоне (x,y,z). Нас тут интересует только x и y. Для упрощения, я проверяю достаточно большой уровень наклона, меньше -2 или больше 2.
Как только наклон достиг определенного градуса, вызывается функция «start\_or\_stop\_move», которой передается направление наклона. Данная функция, в зависимости от скорости задает направление движения игрока, которое потом отрисовывается в событие «EnterFrame».
Дальше нам нужно создать сам генератор события «Acceleration», для этого добавим следующий код в /js/game.js:
```
var watchID = null;
function stopWatch() {
if (watchID) {
navigator.accelerometer.clearWatch(watchID);
watchID = null;
}
}
function startWatch() {
var options = { frequency: 200 };
watchID = navigator.accelerometer.watchAcceleration(onSuccess, onError, options);
// с помощью этого куска, можно дебажить акселерометр в хроме
// window.addEventListener('deviceorientation', function(event) {
// Crafty.trigger("Acceleration", {x: event.beta, y: event.alpha, z: event.gamma})
// }, false);
}
function onSuccess(acceleration) {
Crafty.trigger("Acceleration", acceleration)
}
function onError() {
console.log('error!');
}
```
Более подробно, о работе с акселерометром в phonegap, можно прочесть в [документации](http://docs.phonegap.com/phonegap_accelerometer_accelerometer.md.html).
Теперь, нам нужно вызвать startWatch() в сцене /js/scenes/main.js, а так же stopWatch() в сценах win.js и lose.js
#### Непосредственный запуск на телефоне
Итак, будем считать что вы уже сделал все, что описано в [документации](http://www.phonegap.com/start#android). Нужно немного подправить AndroidManifest.xml, добавив в секцию activity строчку: android:screenOrientation=«landscape». Это необходимо для того, что бы ориентация экрана всегда была альбомной.
Приводим AndroidrpgActivity.java к такому виду:
```
package com.phonegap.simplerpg;
import android.os.Bundle;
import android.view.WindowManager;
import com.phonegap.*;
public class AndroidrpgActivity extends DroidGap {
/** Called when the activity is first created. */
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
getWindow().clearFlags(WindowManager.LayoutParams.FLAG_FORCE_NOT_FULLSCREEN);
getWindow().setFlags(WindowManager.LayoutParams.FLAG_FULLSCREEN, WindowManager.LayoutParams.FLAG_FULLSCREEN);
super.loadUrl("file:///android_asset/www/index.html");
}
}
```
Думаю переменная FLAG\_FULLSCREEN говорит сама за себя.
#### Результат и вывод
Вот, что у меня в итоге получилось (извините за качество):

Работает? О да! Доволен ли я? О нет!
Дело в том, что толи я криворукий, толи лыжи не едут, но приложение получилось крайне тормазнутым. Результат больше похож на пошаговую стратегию, чем на Action. И дело тут, я думаю, все же в лыжах, ответ наверное очевиден. PhoneGap — отличная библиотека для tumblr читалок и прочих новостных ридеров, но для игрушек лучше использовать нативный для android Java.
Исходники, как обычно на [GitHub](https://github.com/arion/simplerpg/tree/android_port). | https://habr.com/ru/post/126118/ | null | ru | null |
# Использование метода Монте-Карло для создания портфеля
Начинающие (да и не только) инвесторы часто задаются вопросом о том, как отобрать для себя идеальное соотношение активов входящих в портфель. Часто (или не очень, но знаю про двух точно) у некоторых брокеров эту функцию выполняет торговый робот. Но заложенные в них алгоритмы не раскрываются.
В этом посте будет рассмотрено то, как оптимизировать портфель при помощи Python и симуляции Монте Карло. Под оптимизацией портфеля понимается такое соотношение весов, которое будет удовлетворять одному из условий:
* Портфель с минимальным уровнем риском при желаемой доходности;
* Портфель с максимальной доходностью при установленном риске;
* Портфель с максимальным значением доходности
Для расчета возьмем девять акций, которые рекомендовал торговый робот одного из брокеров на начало января 2020 года и так же он устанавливал по ним оптимальные веса в портфеле: 'ATVI','BA','CNP','CMA', 'STZ','GPN','MPC','NEM' и 'PKI'. Для анализа будет взяты данные по акциям за последние три года.
```
#Загружаем библиотеки
import pandas as pd
import yfinance as yf
import numpy as np
import matplotlib.pyplot as plt
# Получаем данные по акциям
ticker = ['ATVI','BA','CNP','CMA', 'STZ','GPN','MPC','NEM', 'PKI']
stock = yf.download(ticker,'2017-01-01', '2019-01-31')
```
Если сложить долю всех акций, входящих в портфель, то сумма должна стремиться к единице (а лучше быть равна). Дальше как обычно проведем подготовку данных для расчетов:
```
# Выделение скорректированой цены закрытия
all_adj_close = stock[['Adj Close']]
# ежедневная доходность
all_returns = all_adj_close.pct_change()
# узнаем среднюю доходность и получаем ковариационную матрицу
mean_returns = all_returns.mean()
cov_matrix = all_returns.cov()
```
Теперь можно провести расчет для весов предложенных торговым роботом и узнать доходность данного портфеля за последник три года и стандартное отклонение.
```
#предложение по весам торгового робота
robot = np.array([0.0441, 0.1030, 0.1086, 0.2070, 0.1525, 0.0714, 0.0647, 0.1828, 0.0661])
# доходность, стандартное отклонение и коэффициент Шарпо
portfolio_return_robot = np.sum(mean_returns * robot)
portfolio_std_dev_robot = np.sqrt(np.dot(robot.T,np.dot(cov_matrix, robot)))
sharpo_robot = portfolio_return_robot/portfolio_std_dev_robot
# объединим полученные значения в таблицу и выведем ее
robot_result = np.array([portfolio_return_robot, portfolio_std_dev_robot, sharpo_robot])
robot_result = np.array([portfolio_return_robot, portfolio_std_dev_robot, sharpo_robot])
robot_result = np.concatenate((robot_result, robot), axis=0)
robot_sim_result = pd.DataFrame(robot_result, columns=['Robot'], index=['ret','stdev','sharpe',ticker[0],ticker[1],ticker[2],ticker[3],ticker[4],ticker[5],ticker[6],ticker[7],ticker[8]])
print(robot_sim_result)
```

#### Симуляция Монте-Карло
Первоначально небольшое вступительное слово о том, как используется метод Монте-Карла для оптимизации портфеля
Сначала акциям задаются случайные веса, после чего производится расчет доходности и стандартного отклонения. Полученные значения сохраняются. Следующим шагом случайным образом меняются веса (главное не забывать, что их сумма должна составлять единицу) и все повторяется — расчет и сохранение полученного значения. Количество итераций зависит от времени, мощностей компьютера для расчета и рисков, который готов принять инвестор. В этот раз попробуем провести 10000 расчетов для выявления портфеля с минимальным убытком и максимальным значением коэффициента Шарпа.
```
#создаем массив из нулей
num_iterations = 10000
simulation_res = np.zeros((4+len(ticker)-1,num_iterations))
# сама итерация
for i in range(num_iterations):
#Выбрать случайные веса и нормализовать, чтоб сумма равнялась 1
weights = np.array(np.random.random(9))
weights /= np.sum(weights)
#Вычислить доходность и стандартное отклонение
portfolio_return = np.sum(mean_returns * weights)
portfolio_std_dev = np.sqrt(np.dot(weights.T,np.dot(cov_matrix, weights)))
#Сохранить все полученные значения в массив
simulation_res[0,i] = portfolio_return
simulation_res[1,i] = portfolio_std_dev
#Вычислить коэффициент Шарпа и сохранить
simulation_res[2,i] = simulation_res[0,i] / simulation_res[1,i]
#Сохранить веса
for j in range(len(weights)):
simulation_res[j+3,i] = weights[j]
# сохраняем полученный массив в DataFrame для построения данных и анализа.
sim_frame = pd.DataFrame(simulation_res.T,columns=['ret','stdev','sharpe',ticker[0],ticker[1],ticker[2],ticker[3],ticker[4],ticker[5],ticker[6],ticker[7],ticker[8]])
```
Теперь можно рассчитать портфель с максимальным коэффициентом Шарпа или минимальным риска.
```
# узнать максимальный Sharpe Ratio
max_sharpe = sim_frame.iloc[sim_frame['sharpe'].idxmax()]
# узнать минимальное стандартное отклонение
min_std = sim_frame.iloc[sim_frame['stdev'].idxmin()]
print ("The portfolio for max Sharpe Ratio:\n", max_sharpe)
print ("The portfolio for min risk:\n", min_std)
```


Ну а самое важное представление можно получить, когда данные визуализируешь:
```
fig, ax = plt.subplots(figsize=(10, 10))
#Создать разноцветный график scatter plot для различных значений коэффициента Шарпо по оси x и стандартного отклонения по оси y
plt.scatter(sim_frame.stdev,sim_frame.ret,c=sim_frame.sharpe,cmap='RdYlBu')
plt.xlabel('Standard Deviation')
plt.ylabel('Returns')
plt.ylim(0,.0015)
plt.xlim(0.007,0.012)
plt.scatter(max_sharpe[1],max_sharpe[0],marker=(5,1,0),color='r',s=600)
plt.scatter(min_std[1],min_std[0],marker=(5,1,0),color='b',s=600)
plt.scatter(portfolio_std_dev_robot, portfolio_return_robot,marker=(5,1,0),color='g',s=600)
plt.show()
```

Портфель с максимальным коэффициентом Шарпа показан красной звездой, синей — с минимальным стандартным отклонением и зеленой — предложенный роботом. Как видно — портфель, предложенный роботом, не совпадает с этими показателями, но на каком остановиться портфеле — выбор остается за инвестором. А я постараюсь в конце года вернуться к сравнению портфелей. А сейчас все три портфеля находятся в просадке. | https://habr.com/ru/post/500262/ | null | ru | null |
# NGINX: Перехват ошибок 5хх с помощью отладочного сервера
#### Является ли ошибкой ответ 5хх, если его никто не видит? [[1]](https://ru.wikipedia.org/wiki/%D0%97%D0%B2%D1%83%D0%BA_%D0%BF%D0%B0%D0%B4%D0%B0%D1%8E%D1%89%D0%B5%D0%B3%D0%BE_%D0%B4%D0%B5%D1%80%D0%B5%D0%B2%D0%B0_%D0%B2_%D0%BB%D0%B5%D1%81%D1%83)

Вне зависимости от того, как долго и тщательно программное обеспечение проверяется перед запуском, часть проблем проявляется только в рабочем окружении. Например, race condition от параллельного обслуживания большого количества клиентов или исключения при валидации непредвиденных данных от пользователя. В результате эти проблемы могут привести к 5хх ошибкам.
HTTP 5хх ответы зачастую возвращаются пользователям и могут нанести ущерб репутации компании даже за короткий промежуток времени. В то же время, отладить проблему на рабочем сервере зачастую очень непросто. Даже простое извлечение проблемной сессии из логов может превратиться в поиск иголки в стоге сена. И даже если будут собраны все необходимые логи со всех рабочих серверов — этого может быть недостаточно для понимания причин проблемы.
Для облегчения процесса поиска и отладки могут быть использованы некоторые полезные приёмы в случае, когда NGINX используется для проксирования или балансировки приложения. В этой статье будет рассмотрено особое использование директивы `error_page` в применении к типичной инфраструктуре приложения с проксированием через NGINX.
#### Сервер отладки
Сервер отладки (отладочный сервер, Debug Server) — специальный сервер, на который перенаправляются запросы, вызывающие ошибки на рабочих серверах. Это достигается использованием того преимущества, что NGINX может детектировать 5xx ошибки, возвращаемые из upstream и перенаправлять приводящие к ошибкам запросы из разных групп upstream на отладочный сервер. А так как отладочный сервер будет обрабатывать только запросы, приводящие к ошибкам, то в логах будет информация, относящаяся исключительно к ошибкам. Таким образом, проблема поиска иголок в стоге сена сводится к горстке иголок.
Так как отладочный сервер не обслуживает рабочие клиентские запросы, то нет нужды затачивать его на производительность. Вместо этого, на нём можно включить максимальное логирование и добавить инструменты диагностики на любой вкус. Например:
* Запуск приложения в режиме отладки
* Включение подробного логирования на сервере
* Добавление профилирования приложения
* Подсчет ресурсов использованных сервером
Инструменты отладки обычно отключаются для рабочих серверов, так как зачастую замедляют работу приложения. Однако, для отладочного сервера их можно безопасно включить. Ниже приведён пример инфраструктуры приложения с отладочным сервером.

В идеальном мире, процесс конфигурирования и выделение ресурсов для отладочного сервера не должен отличаться от процесса настройки обычного рабочего сервера. Но если сделать сервер отладки в виде виртуальной машины, то в этом могут быть свои преимущества (например, клонирование и копирование для автономной аналитики). Однако, в таком случае, существует риск, что сервер может быть перегружен в случае возникновения серьёзной проблемы, которая вызовет внезапный всплеск ошибок 5xx. В NGINX Plus этого можно избежать с помощью параметра [max\_conns](http://nginx.org/ru/docs/http/ngx_http_upstream_module.html#max_conns) для ограничения количества параллельных соединений (ниже будет приведён пример конфигурации).
Так как сервер отладки загружен не так, как рабочий сервер, то не все ошибки 5xx могут воспроизводиться. В такой ситуации можно предположить, что вы достигли предела масштабирования приложения и исчерпали ресурсы, и никакой ошибки в самом приложении нет. Независимо от основной причины, использование отладочного сервера поможет улучшить взаимодействие с пользователем и предостеречь его от 5xx ошибок.
#### Конфигурация
Ниже приведен простой пример конфигурации сервера отладки для приема запросов, которые привели к 5xx ошибке на одном из основных серверов.
```
upstream app_server {
server 172.16.0.1;
server 172.16.0.2;
server 172.16.0.3;
}
upstream debug_server {
server 172.16.0.9 max_conns=20;
}
server {
listen *:80;
location / {
proxy_pass http://app_server;
proxy_intercept_errors on;
error_page 500 503 504 @debug;
}
location @debug {
proxy_pass http://debug_server;
access_log /var/log/nginx/access_debug_server.log detailed;
error_log /var/log/nginx/error_debug_server.log;
}
}
```
В блоке [upstream](http://nginx.org/ru/docs/http/ngx_http_upstream_module.html#upstream) `app_server` указаны адреса рабочих серверов. Далее указывается один адрес сервера отладки в `upstream debug_server`.
Первый блок [location](http://nginx.org/ru/docs/http/ngx_http_core_module.html#location) настраивает простое проксирование с помощью директивы [proxy\_pass](http://nginx.org/ru/docs/http/ngx_http_proxy_module.html#proxy_pass) для балансировки серверов приложения в `upstream` **`app_server`** (в примере не указан алгоритм балансировки, поэтому используется стандартный алгоритм Round Robin). Включенная директива [proxy\_intercept\_errors](http://nginx.org/ru/docs/http/ngx_http_proxy_module.html#proxy_intercept_errors) означает, что любой ответ с HTTP статусом 300 или выше будет обрабатываться с помощью директивы [error\_page](http://nginx.org/ru/docs/http/ngx_http_core_module.html#error_page). В нашем примере перехватываются только 500, 503 и 504 ошибки и передаются на обработку в блок `location` **`@debug`**. Все остальные ответы, такие как 404, отсылаются пользователю без изменений.
В блоке `@debug` происходят два действия: во-первых, проксирование в группу `upstream` **`debug_server`**, которая, разумеется, содержит сервер отладки; во-вторых, запись access\_log и error\_log в отдельные файлы. Изолируя сообщения, сгенерированные ошибочными запросами на рабочие сервера, можно легко соотнести их с ошибками, которые сгенерируются на самом отладочном сервере.
Отметим, что директива [access\_log](http://nginx.org/ru/docs/http/ngx_http_log_module.html#access_log) ссылается на отдельный формат логирования — **detailed**. Этот формат можно определить, указав в директиве [log\_format](http://nginx.org/ru/docs/http/ngx_http_log_module.html#log_format) на уровне `http` следующие значения:
```
log_format detailed '$remote_addr - $remote_user [$time_local] '
'"$request" $status $body_bytes_sent "$http_referer" '
'"$http_user_agent" $request_length $request_time '
'$upstream_response_length $upstream_response_time '
'$upstream_status';
```
Формат **detailed** расширяет формат по умолчанию **combined** добавлением пяти переменных, которые предоставляют дополнительную информацию о запросе к отладочному серверу и его ответе.
* `$request_length` – полный размер запроса, включая заголовки и тело, в байтах
* `$request_time` – время обработки запроса, в миллисекундах
* `$upstream_response_length` – длинна ответа полученного от отладочного сервера, в байтах
* `$upstream_response_time`– время затраченное на получение ответа от отладочного сервера, в миллисекундах
* `$upstream_status` – код статуса ответа от отладочного сервера
Перечисленные выше дополнительные поля в логе очень полезны для детектирования некорректных запросов и запросов с большим временем выполнения. Последние могут указывать на неверные таймауты в приложении или другие межпроцессные коммуникационные проблемы.
#### Идемпотентность при переотправке запросов
Возможно, в некоторых случаях, хочется избежать перенаправления запросов на сервер отладки. Например, если в приложении произошла ошибка при попытке изменить несколько записей в базе данных, то новый запрос может повторить обращение к базе данных и внести изменения ещё раз. Это может привести к беспорядку в базе данных.
Поэтому безопасно переотправлять запрос можно только в случае, если он *идемпотентный* – то есть запрос, при повторных отправках которого, результат будет один и тот же. HTTP `GET`, `PUT`, и `DELETE` методы идемпотентны, в то время как `POST` – нет. Однако, стоит отметить, что идемпотентность HTTP методов может зависеть от реализации приложения и отличаться от формально определенных.
Есть три варианта как обрабатывать идемпотентность на отладочном сервере:
1. Запустить отладочный сервер в режиме read-only для базы данных. В таком случае переотправка запросов безопасна, так как не вносит никаких изменений. Логирование запросов на отладочном сервере будет происходить без изменений, но меньше информации будет доступно для диагностики проблемы (из-за режима read-only).
2. Переотправлять на отладочный сервер только идемпотентные запросы.
3. Развернуть второй отладочный сервер в режиме read-only для базы данных и переотправлять на него неидемпотентные запросы, а идемпотентные продолжать отправлять на основной сервер отладки. В таком случае будут обрабатываться все запросы, но потребуется дополнительная настройка.
Для полноты картины, рассмотрим конфигурацию для третьего варианта:
```
upstream app_server {
server 172.16.0.1;
server 172.16.0.2;
server 172.16.0.3;
}
upstream debug_server {
server 172.16.0.9 max_conns=20;
}
upstream readonly_server {
server 172.16.0.10 max_conns=20;
}
map $request_method $debug_location {
'POST' @readonly;
'LOCK' @readonly;
'PATCH' @readonly;
default @debug;
}
server {
listen *:80;
location / {
proxy_pass http://app_server;
proxy_intercept_errors on;
error_page 500 503 504 $debug_location;
}
location @debug {
proxy_pass http://debug_server;
access_log /var/log/nginx/access_debug_server.log detailed;
error_log /var/log/nginx/error_debug_server.log;
}
location @readonly {
proxy_pass http://readonly_server;
access_log /var/log/nginx/access_readonly_server.log detailed;
error_log /var/log/nginx/error_readonly_server.log;
}
}
```
Используя директиву [map](http://nginx.org/ru/docs/http/ngx_http_map_module.html#map) с переменной [$request\_method](http://nginx.org/ru/docs/http/ngx_http_core_module.html#var_request_method), в зависимости от идемпотентности метода, устанавливается значение новой переменной `$debug_location`. При срабатывании директивы `error_page` вычисляется переменная `$debug_location`, и определяется, на какой именно отладочный сервер будет переотправляться запрос.
Нередко для повторной отправки неудавшихся запросов на остальные сервера в upstream (перед отправкой на отладочный сервер) используется директива [proxy\_next\_upstream](http://nginx.org/ru/docs/http/ngx_http_proxy_module.html#proxy_next_upstream). Хотя, как правило, это используется для ошибок на сетевом уровне, но возможно также расширение и для 5xx ошибок. Начиная с версии NGINX 1.9.13 неидемпотентные запросы, которые приводят к ошибкам 5xx, не переотправляются по умолчанию. Для включения такого поведения, нужно добавить параметр `non_idempotent` в директиве `proxy_next_upstream`. Такое же поведение реализовано в NGINX Plus начиная с версии R9 (апрель 2016г.).
```
location / {
proxy_pass http://app_server;
proxy_next_upstream http_500 http_503 http_504 non_idempotent;
proxy_intercept_errors on;
error_page 500 503 504 @debug;
}
```
#### Заключение
Не стоит игнорировать ошибки 5хх. Если вы используете модель DevOps, экспериментируете с Continuous Delivery или просто желаете уменьшить риск при обновлениях — NGINX предоставляет инструменты, которые могут помочь лучше реагировать на возникающие проблемы. | https://habr.com/ru/post/308880/ | null | ru | null |
# Потоки в .NET. Часть 1
Этот топик дает начальные сведения об использовании потоков на платфоре .NET. Это мой первый пост на Хабре, поэтому не судите очень строго. Также хотелось бы услышать конструктивную критику о том, как можно улучшить материал.
Поток (thread) – это независимая последовательность инструкций в программе. Самый простой способ создания потоков– вызов делегата асинхронным образом.
> `static int TestThread(int data, int ms)
>
> {
>
> Console.WriteLine("TestThread started");
>
> Thread.Sleep(ms);
>
> Console.WriteLine("TestThread completed");
>
> return ++data;
>
> }
>
>
>
> public delegate int TestThreadDelegate(int data, int ms);
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Есть несколько способов узнать завершил ли делегат свою работу.Это можно сделать с помощью метода BeginInvoke(), в котором входные параметры можно передать вместе с типом делегата. Этот метод возвращает тип IAsyncResult, у которого есть свойство IsCompleted. Вторым способом ожидания результата является использование дескриптора ожидания. Получить к нему доступ можно с помощью свойства AsyncWaitHandle. Третьим способом является использование обратного асинхронного вызова:
> `static void Main()
>
> {
>
>
>
> TestThreadDelegate d1 = TestThread;
>
>
>
> d1.BeginInvoke(1, 3000, TestThreadCompleted, d1);
>
> for (int i = 0; i < 100; i++)
>
> {
>
> Console.Write(".");
>
> Thread.Sleep(50);
>
> }
>
>
>
> }
>
>
>
> static void TestThreadCompleted(IAsyncResult ar)
>
> {
>
> if (ar == null) throw new ArgumentNullException("ar");
>
> TestThreadDelegate d1 = ar.AsyncState as TestThreadDelegate;
>
> Trace.Assert(d1 != null, "Invalid object type");
>
>
>
> int result = d1.EndInvoke(ar);
>
> Console.WriteLine("result: {0}", result);
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Другим способом создания потоков является использование класса Thread. Он также позволяет управлять ими.
> `using System;
>
> using System.Threading;
>
>
>
> namespace Csharp.Threading.FirstThread
>
> {
>
> class Program
>
> {
>
> static void Main(string[] args)
>
> {
>
> Thread t1 = new Thread(ThreadMain);
>
> t1.Start();
>
> Console.WriteLine("This is the main thread.");
>
> }
>
> static void ThreadMain()
>
> {
>
> Console.WriteLine("In thread.");
>
> }
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Передавать данные потокам можно двумя способами: используя конструктор Thread с делегатом ParameterizedThreadStart, либо путем создания специального класса и определения метода потока, как метода экземпляра:
> `public class MyThread
>
> {
>
> private string data;
>
>
>
> public MyThread(string data)
>
> {
>
> this.data = data;
>
> }
>
>
>
> public void ThreadMain()
>
> {
>
> Console.WriteLine("Running in a thread, data: {0}", data);
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
В Main:
> `MyThread obj = new myThread(“text”);
>
>
>
> Thread tr = new Thread(obj.ThreadMain);
>
>
>
> tr.Start();
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Существует два типа потоков: приоритетный и фоновый. Процесс продолжает выполняться до тех пор, пока выполняется хотя бы один приоритетный поток. С помощью класса Thread по умолчанию создается именно он. Чтобы поток был фоновым нужно использовать свойство IsBackground.
Операционная система планирует порядок выполнения потоков. На этот процесс можно влиять путем назначения потоку соответствующего приоритета с помощью свойства Priority.
Иногда нужно заранее создать набор потоков, также увеличивать или уменьшать этот набор при возникновении необходимости. Для этого предусмотрен класс ThreadPool.
> `using System;
>
> using System.Threading;
>
>
>
> namespace Csharp.Threading.Pools
>
> {
>
>
>
> class Program
>
> {
>
> static void Main()
>
> {
>
>
>
> for (int i = 0; i < 5; i++)
>
> {
>
> ThreadPool.QueueUserWorkItem(JobForAThread);
>
>
>
> }
>
>
>
> Thread.Sleep(5000);
>
> }
>
>
>
> static void JobForAThread(object state)
>
> {
>
> for (int i = 0; i < 3; i++)
>
> {
>
> Console.WriteLine("loop {0}, running inside pooled thread {1}", i,
>
> Thread.CurrentThread.ManagedThreadId);
>
> Thread.Sleep(10);
>
> }
>
>
>
> }
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Но у пулов потоков есть некоторые ограничения: они являются фоновыми, также менять приоритет или имя потока в пуле нельзя.
Для начала это все. В следующий раз мы поговорим о взаимоблокировке и синхронизации потоков.
**UPD.** Перенес в .NET. Спасибо за карму. | https://habr.com/ru/post/67693/ | null | ru | null |
# Как изобрести велосипед и познакомиться с FRP
Недавно мне выпал шанс заняться веб-приложением для взаимодействия с интерактивной доской (!) для мобильных устройств (!!) на любом стеке технологий, как серверных, так и клиентских (!!!). На этапе прототипа задача представляла собой простейший графический редактор. Заказчик изъявил желание уметь рисовать ломаные каким-нибудь способом, круги, отрезки, произвольные кривые и добавлять текст. Все вроде бы просто, однако, наученный горьким опытом GoF, Фаулера и прочих апологетов всяческих паттернов, я сразу понял, что заказчик лукавит, и что уже через неделю-месяц после прототипа ему понадобится рисовать эллипсы, прямоугольники и кучи прочих ништяков. И все это точно надо будет делать разными способами. По крайней мере, для десктопа и мобил.
Собственно, можно все сделать в лоб (для прототипа-то), но выпали выходные, пауза в задачах текущего проекта, и я решил сделать все по-хорошему. И в первый же вечер — **callback hell**.
А потом…

Картинка выше сделана, разумеется, на базе того самого редактора.
#### О чувстве прекрасного
Сразу в голове возникла идея описывать инструменты для рисования так, чтобы код максимально походил на потенциальное техзадание. Скажем
ТЗ:
> Как пользователь я хочу уметь рисовать отрезки
>
> 1. Нажатие левой кнопки мыши отмечает начало отрезка
>
> 2. Движение мыши после нажатия с удержанием левой кнопки мыши рисует промежуточный результат
>
> 3. После того как кнопку отпустили, отмечается конец отрезка
>
> 4. Данные посылаются на сервер
Сферический код в вакууме:
```
myDrawingBoard
.once(“mousedown”, setStartingPoint)
.any(“mousemove”, drawLine)
.once(“mouseup”, setEndingPoint)
.atLast(saveFigure)
```
По крайней мере, так этот код выглядел у меня в голове. Нечто подобное я видел на jQuery Russia этой весной, где реализация была натянута на Rx.js. Увы, возможности просмотреть видео или пообщаться с докладчиком у меня не было, а посему пришлось изобретать велосипед самостоятельно.
Поболтав с коллегами, я пришел к выводу, что сама задача – это конечный автомат. А мой код требует небольшого колдовства над этим самым автоматом, поскольку события надо отслеживать над какими-то регулярно существующими нодами, но перехватывать надо далеко не все эти события, а только те, которые нужны в текущем состоянии автомата.
Собственно, путем кратковременной медитации над блокнотом, я построил вот такую схему и обозвал ее “Flat Event Chain” – плоская цепочка событий.

Каждое состояние представляет собой так называемый MetaEvent – малую цепочку событий, состоящую из набора повторяющихся событий (типа «any») и закрывающего одиночного события (типа «once»). Если повторяющихся событий в MetaEvent может не быть, то закрывающее присутствовать обязано, иначе мы никогда не сможем сказать, когда выйти из этого состояния.

В данной модели возможны коллизии, когда повторяемые события имеют общий тип. Для этого каждому элементу цепочки присваивается уникальное имя и на уровне метасобытия проходит проверка, каким обработчиком пользоваться. Как только мы решили, какой из элементов будет отвечать за обработку этого события, все предыдущие обработчики уничтожаются. Когда перехватывается закрывающее одиночное событие, MetaEvent считается выполненным и автомат переводится в следующее состояние.
#### О реализации
Каждый элемент цепочки представляет собой вот такой модуль:
```
var BaseEvent = function (type, element, callback, context) {
this.element = element;
this.callback = callback;
this.context = context;
this.id = GuidFactory.create();
this.name = "me_" + this.id;
if (type instanceof Object) {
for (var key in type) {
this._codes = type[key] instanceof Array
? type[key]
: [type[key]];
type = key;
this.element = $(document);
break;
}
}
this.type = type;
this._uniqueType = type + "." + this.id;
this._handlers = [];
};
BaseEvent.prototype = {
on: function (callback, context) {
this._handlers.push({callback: callback, context: context || this});
return this;
},
trigger: function () {
for (var i = 0; i < this._handlers.length; ++i) {
var obj = this._handlers[i];
obj.callback.apply(obj.context, arguments);
}
},
init: function () {
var _this = this;
this.element.on(this._uniqueType, function (evt) {
if (!_this._codes || _this._codes.indexOf(evt.keyCode) >= 0) {
_this.trigger(evt);
}
})
},
dispose: function () {
this.element.off(this._uniqueType);
}
};
```
BaseEvent предполагает возможность своей инициализации (активации подписки на клиентское событие) через метод init, и освобождения ресурсов через dispose. Как можно увидеть, для событий предусмотрена нотация как в стиле «eventType», так и в стиле {«eventType»: [keyCode]} — последний вариант будет перехватывать только те события, в которых был передан нужный keyCode (если нужен только один, можно не писать массив).
Таким образом описывается цепочка:
```
var MetaEvent = function () {
this._events = [];
this._closingEvent = null;
this._currentEvent = null;
this.closed = false;
this.id = GuidFactory.create();
this.name = "me_" + this.id;
};
MetaEvent.prototype = {
push: function (evt) {
if (this.closed)
throw new Error("Cannot push event to closed MetaEvent");
this._events.push(evt);
},
close: function (evt) {
if (this.closed)
throw new Error("Cannot close already closed MetaEvent");
this._closingEvent = evt;
this.closed = true;
},
init: function (stateMachine) {
this._createEventIndex();
this._stateMachine = stateMachine;
for (var id in this._eventIndex) {
this._initEvent(this._eventIndex[id]);
}
},
dispose: function () {
for (var id in this._eventIndex) {
this._eventIndex[id].dispose();
}
},
_initEvent: function (evt) {
var _this = this;
evt.init();
evt.on(function (evt) {
if (this.id === _this._closingEvent.id &&
this.callback.apply(this.context || this.element, [evt]) !== false) {
_this._stateMachine[_this.name]();
} else if (this.id === _this._currentEvent.id) {
this.callback.apply(this.context || this.element, [evt]);
} else if (this.type !== _this._currentEvent.type &&
this.callback.apply(this.context || this.element, [evt]) !== false) {
_this._disposePreviousEvents(this.id);
_this._currentEvent = _this._eventIndex[this.id];
}
});
},
_createEventIndex: function () {
this._eventIndex = {};
for (var i = 0; i < this._events.length; ++i) {
var evt = this._events[i];
this._eventIndex[evt.id] = evt;
}
this._eventIndex[this._closingEvent.id] = this._closingEvent;
this._currentEvent = this._events[0] || this._closingEvent;
},
_disposePreviousEvents: function (eventId) {
for (var i = 0; i < this._events.length; ++i) {
var evt = this._events[i];
if (evt.id !== eventId) {
evt.dispose();
} else {
break;
}
}
}
};
```
MetaEvent предполагает возможность добавления повторяющихся событий через push и добавление закрывающего события через close, а также те же самые init и dispose, что и в BaseEvent. Здесь можно обратить внимание на то, что если callback возвращает false, то машина не поменяет своего состояния. Это не очень красиво, но равно нехорошо было бы пользоваться и evt.preventDefault. По крайней мере, return false в данном контексте никак не повлияет на default обработчик события и его bubbling.
Собственно, остается только навернуть это все вокруг State Machine. В качестве оной я воспользовался опенсорсным решением вот [отсюда](https://github.com/jakesgordon/javascript-state-machine).
```
var EventChain = function (element) {
this._element = $(element);
this._metaEvents = [];
this._atLast = null;
};
EventChain.prototype = {
_lastEvent: function () {
return this._metaEvents.length > 0
? this._metaEvents[this._metaEvents.length - 1]
: null;
},
_createEventIndex: function () {
this._eventIndex = {};
for (var i = 0; i < this._metaEvents.length; ++i) {
var evt = this._metaEvents[i];
this._eventIndex[evt.id] = evt;
}
},
_createEvents: function () {
return this._metaEvents.map(function (evt, index, metaEvents) {
return {
name: evt.name,
from: evt.id,
to: index + 1 < metaEvents.length
? metaEvents[index + 1].id
: "atLast"
}
});
},
_createCallbacks: function () {
var result = {},
_this = this;
for (var i in this._eventIndex) {
result["onenter" + this._eventIndex[i].id] = function (evt, from, to, data) {
_this._eventIndex[to].init(this);
}
result["onleave" + this._eventIndex[i].id] = function (evt, from, to, data) {
if (_this._eventIndex[from]) {
_this._eventIndex[from].dispose();
}
}
}
result["onatLast"] = function (evt, from, to) {
if (_this._eventIndex[from]) {
_this._eventIndex[from].dispose();
}
if (_this._atLastCallback) {
_this._atLastCallback.apply(
_this._atLastContext || _this._element,
arguments);
}
};
return result;
},
// add event that will be handled only once
once: function (type, element, callback, context) {
if (element instanceof Function) {
context = callback;
callback = element;
element = this._element;
}
var lastEvent = this._lastEvent();
if (lastEvent && !lastEvent.closed) {
lastEvent.close(new BaseEvent(type, element, callback, context));
} else {
var evt = new MetaEvent();
evt.close(new BaseEvent(type, element, callback, context));
this._metaEvents.push(evt);
}
return this;
},
// add event that will be handled twice
twice: function (type, element, callback, context) {
return this
.once(type, element, callback, context)
.once(type, element, callback, context);
},
// add event that will be repeated any times
any: function (type, element, callback, context) {
if (element instanceof Function) {
context = callback;
callback = element;
element = this._element;
}
var lastEvent = this._lastEvent();
if (lastEvent && !lastEvent.closed) {
lastEvent.push(new BaseEvent(type, element, callback, context));
} else {
var evt = new MetaEvent();
evt.push(new BaseEvent(type, element, callback, context));
this._metaEvents.push(evt);
}
return this;
},
// add event that will be repeated at least once
onceAndMore: function (type, element, callback, context) {
return this
.once(type, element, callback, context)
.any(type, element, callback, context);
},
// set function that will be called after queue is done
atLast: function (callback, context) {
this._atLastCallback = callback;
this._atLastContext = context;
return this;
},
// set event that will cancel queue immediately
cancel: function (type, element, callback, context) {
var _this = this;
if (element instanceof Function) {
context = callback;
callback = element;
element = this._element;
}
new BaseEvent(type, element, callback, context)
.on("caught", function (evt) {
if (this.callback.apply(this.context || this.element, [evt]) !== false) {
_this.dispose();
}
})
.init();
return this;
},
// initialize state machine
init: function () {
this._createEventIndex();
var callbacks = this._createCallbacks(),
events = this._createEvents(),
stateMachine = StateMachine.create({
initial: this._metaEvents[0].id,
final: "atLast",
events: events,
callbacks: callbacks
});
return this;
},
dispose: function () {
for (var i = 0; i < this._metaEvents.length; ++i) {
this._metaEvents[i].dispose();
}
}
};
```
Сама цепочка из MetaEvents изначально заточена на конкретный DOM-элемент, который передается через крошечное расширение для jQuery:
```
jQuery.fn.eventChain = function () {
return new EventChain(this);
};
```
Что касается инструментов для рисования, тут я сразу накидал всяких паттернов, но это потому, что в прототипе уже требовалась куча этих инструментов. Без лишнего кода – вот так выглядит рисовалка прямых линий.
```
var LineDrawer = new (ConcreteDrawer.extend({
__type: "line",
__draw: function (data) {
return new SmartPath(data).draw();
},
__startDrawing: function (data) {
return Board.EventLayer.eventChain()
.once("mousedown", this._placeStartPoint, this)
.any("mousemove", this.__drawTemporaryFigure, this)
.once("mouseup", this._placeEndPoint, this)
.cancel({"keydown": 27}, this.cancelDrawing, this)
.atLast(this.__saveFigure, this)
.init();
},
_placeStartPoint: function (evt) {
this.__figureData.x1 = Board.EventLayer.pageX(evt);
this.__figureData.y1 = Board.EventLayer.pageY(evt);
},
__drawTemporaryFigure: function (evt) {
this._placeEndPoint(evt);
this.base();
},
_placeEndPoint: function (evt) {
this.__figureData.x2 = Board.EventLayer.pageX(evt);
this.__figureData.y2 = Board.EventLayer.pageY(evt);
}
}))();
```
Собственно, как несложно догадаться, LineDrawer может инициализировать процесс рисования, например, как реакцию на нужное клиентское событие (клик по иконке линии в тулбаре). У меня для этого написана небольшая цепочка ответственности, таким образом создание нового инструмента для рисования обходится в десяток строк.
После того, как прототип был уже готов, я вдруг столкнулся с жутким предположением – а что, если заказчику захочется повторять не отдельное событие, но целые паттерны, подцепочки событий. Скажем, достаточно тривиальная задача:
Фантастическое ТЗ «Полигон»:
> Как пользователь я хочу уметь рисовать ломаные линии.
>
> 1. Нажатие левой кнопки мыши отмечает начало отрезка.
>
> 2. Движение мыши показывает промежуточный результат.
>
> 3. Нажатие пробела отмечает вершину ломаной.
>
> 4. Повторять пункты 2 и 3 до тех пор, пока пользователь не отпустит кнопку мыши, после чего сохранить последний промежуточный результат.
В реализованной выше концепции такая задача уже невыполнима – по крайней мере, в ней можно описать только определенное количество звеньев цепи, ни никак не произвольное.
Внутреннее чувство прекрасного потребовало вот такой стиль:
```
return Board.EventLayer.eventChain()
.once("mousedown", this._placeStartPoint, this)
.any(function (chain) {
return chain
.any("mousemove", this.__drawTemporaryFigure, this)
.once({"keydown": 32}, this._placePolygonePoint, this);
}, this)
.once("mouseup", this._placePolygonePoint, this)
.cancel({"keydown": 27}, this.cancelDrawing, this)
.atLast(this.__saveFigure, this)
.init();
```
В таком стиле уже крылось готовое решение, которое потребовало добавить к обычному BaseEvent чуть более сложный CycleEvent.
```
var CycleEvent = Base.extend({
constructor: function (cycle, element, context) {
this._cycle = cycle;
this._element = element;
this._context = context;
this.callback = function () {};
this.id = GuidFactory.create();
this.name = "me_" + this.id;
this.type = "cycle_" + this.id;
},
init: function () {
this._cycleChain = this._cycle
.apply(this._context || this, [this._element.eventChain()])
.atLast(this._restartCycle, this);
this._cycleChain.init();
return this._cycleChain;
},
dispose: function () {
this._cycleChain.dispose();
},
_restartCycle: function () {
this.dispose();
this.init();
this.trigger("caught");
}
});
```
Внешний контракт полностью совпадает с BaseEvent, а посему достаточно только немножко пропатчить метод any в EventQueue, чтобы он мог работать и с такими данными.
```
any: function (type, element, callback, context) {
if (type instanceof Function) {
return this._cycle(type, element)
} else if (element instanceof Function) {
context = callback;
callback = element;
element = this._element;
}
var lastEvent = this._lastEvent();
if (lastEvent && !lastEvent.closed) {
lastEvent.push(new BaseEvent(type, element, callback, context));
} else {
var evt = new MetaEvent();
evt.push(new BaseEvent(type, element, callback, context));
this._metaEvents.push(evt);
}
return this;
},
// add cycle of events with same syntax
_cycle: function (cycle, context) {
var lastEvent = this._lastEvent();
if (lastEvent && !lastEvent.closed) {
lastEvent.push(new CycleEvent(cycle, this._element, context));
} else {
var evt = new MetaEvent();
evt.push(new CycleEvent(cycle, this._element, context));
this._metaEvents.push(evt);
}
return this;
}
```
#### О результате и причем тут вообще FRP
Тут, конечно, вопрос спорный, есть ли во всем этом FRP. Если представить набор данных о графическом примитиве как множество, то, по сути, код, который мы пишем после eventChain() представляет собой описание операций над этим множеством и их композиции. Возможность добавления повторяющихся событий и паттернов событий добавляет всему этому гибкости, но вообще для какого-никакого FRP было бы достаточно и once-событий.
Ценность данного кода — еще более спорный вопрос. Однако же в контексте задачи он определенно со своими обязанностями справляется идеально. Очевидно, что его есть куда расширять: например, если добавить поддержку promises, можно красиво описывать сложные анимации, а если добавить концепцию равнозначных событий (она пока реализована наполовину, позволяя равноценно отслеживать нажатия разных клавиш), можно создавать несложные игры.
##### Ссылки:
[Код на Cloud9](https://preview.c9.io/quilin/eventchain/)
[Демо на Cloud9](https://preview.c9.io/quilin/eventchain/EventChain/demo/index.htm)
[State Machine](https://github.com/jakesgordon/javascript-state-machine)
[Raphaёl.js](http://raphaeljs.com/) | https://habr.com/ru/post/245269/ | null | ru | null |
# Экспорт пользовательского интерфейса из Фотошопа
#### Экспорт пользовательского интерфейса из Фотошопа
Каждый разработчик игр в сталкивается с проблемой переноса/натягивания пользовательского интерфейса.
Большинство моих знакомых просят художников делать текстурные атласы, и потом в ручную или при помощи встроенных в игру тулзов располагают это на экране.
Самая острая проблема заключается именно в расстановке данных объектов на экране. Я встречал варианты ручного позиционирования через .ini файлы с указанием положения на экране и описание прямоугольника с текстурными координатами. Это вполне приемлемо если у вас немного элементов и есть свободное время.
#### Решение
Мне не хочется писать встроенный редактор и тем более расставлять элементы по экрану вручную. Я не хочу просить/требовать других людей (дизайнеров и художников) делать работу которая может быть автоматизирована.
В результате родился скрипт для Фотошопа, который делает это в автоматическом режиме:
1) Экспортирует Layer Comps (не путать с Layers) в картинки .png (кропая по краям где начинаются непрозрачные области)
2) Экспортирует Layer Comps (не путать с Layers) в файлики .crp где описано откуда и как эта картинка была вырезана из исходного изображения и содержит строку:
* x1 — в оригинальной картинке
* y1 — в оригинальной картинке
* x2 — в оригинальной картинке
* y2 — в оригинальной картинке
* W — размер оригинальной картинки
* H — размер оригинальной картинки
* x — в результирующей картинке
* y — в результирующей картинке
* w — в результирующей картинке
* h — в результирующей картинке
* w — размер результирующей картинки
* h — размер результирующей картинки
Пример:
102 211 300 380 1024 768 0 0 198 169 256 256
#### Процесс настройки и экспорта



#### Особенности работы скрипта
* Путь куда экспортировать представлен в названии Layer Comp
* Cлеши в имени Layer Comp не разрешены поэтому надо использовать #
* Директории в файловой системе должны быть созданы (скрипт специально их не создает)
* [NOIMAGE]префикс в названии Layer Comps говорит что на выходе будет только .crp файл
* Леер комп должен быть не пустой (содержать изображение)
* после успешного экспорта последний путь и настройки запоминаются в документе и при следующем открытии этого документа восстанавливаются
#### Использование результатов
Дальше вы можете либо натравить на все это ваши тулзы и генерировать большой атлас и файл с описанием где и что лежит, либо использовать как есть, я использую как есть.
`control Play
{
Type = ImageButton
Crop = PLATFORM_NEUTRAL/UI/MainMenu/Play_N.crp
ImageNormal = PLATFORM_NEUTRAL/UI/MainMenu/Play_N.png
ImageActive = PLATFORM_NEUTRAL/UI/MainMenu/Play_N.png
}`
#### Код
Код красотой не отличается и местами вообще не понятен — [исходник](http://sites.google.com/site/b4gpub/LayerCompsToFiles.jsx)
Основой для скрипта послужил один из скриптов фотошопа #PhotoshopDir#/Presets/Scripts/Layer Comps To Files.jsx
Запускать через File/Scripts/Browse
P.S.: Благодаря коментариям [tyr](https://habrahabr.ru/users/tyr/) скорость работы скрипта была увеличена в несколько раз. | https://habr.com/ru/post/135429/ | null | ru | null |
# Как разыграть соседа по комнате
#### От переводчика
Студент [Университета Тафтса](https://ru.wikipedia.org/wiki/%D0%A3%D0%BD%D0%B8%D0%B2%D0%B5%D1%80%D1%81%D0%B8%D1%82%D0%B5%D1%82_%D0%A2%D0%B0%D1%84%D1%82%D1%81%D0%B0) рассказывает, как подкалывал своего соседа по комнате. Он даже меня подколол, когда начал свою историю с того, что у них в общаге висит 4K-телевизор.
Введение
--------
Перед тем, как я расскажу о том, как доводил несчастного Логана, я должен объяснить устройство медиа-системы в нашей комнате. Скоро вы поймёте, зачем.
Логан, если ты читаешь это, надеюсь, ты больше развлекался, чем нет.
Диспозиция
----------
У нас стои́т комп с десктопной Убунтой, подключенный к телеку. Он выступает в роли медиа-сервера. Так как ему всё равно нужно постоянное интернет-подключение, там ещё крутится веб-сервер с парой страничек, SSH-сервер и ряд других сервисов.
В связи с тем, что телек 4K, а комп собран из того, что было под рукой, его видеокарта не тянет. Логан решил купить старую видюху NVIDIA, выпущенную пару поколений назад (которая всё же намного лучше, чем та, что была), чтобы нормально воспроизводить 4K-видео.
Рождение идеи
-------------
Вскоре после установки у нас вылезли пара глюков с драйверами. В этот момент я и подумал, что было бы забавно иметь возможность вручную показывать сообщения об ошибках.
После некоторых поисков в инете стало ясно, что удалённо вызвать демонстрацию сообщения на телевизоре так же просто, как:
1. Войти по SSH на комп под пользователем, под которым запущена трансляция
2. `DISPLAY=:0 zenity --info --text 'Привет!'`
`DISPLAY=:0` нужно, так как в моей сессии нет дисплея, а я хочу показать сообщение на основном экране.
Раз уж у нас были проблемы с видюхой NVIDIA, я решил остановиться на чём-то вроде:
```
DISPLAY=:0 zenity --warning --text 'Система работает в режиме слабой графики.'
```
Это работало, но каждый раз логиниться на сервер с помощью SSH-клиента, чтобы подоставать Логана — такое себе удовольствие. Поэтому я решил схитрить. Я подумал о задании в кроне, чтобы бесить его по расписанию, но тут была пара проблем:
1. Собственно, регулярность
2. У нас были другие задачи в кроне, что повышало риск раскрытия моего коварного задания
Другие варианты типа скрипта SysVInit были отброшены по тем же причинам. Поэтому я решил сделать публичную веб-страничку с кнопкой «Поиметь Логана».
Подготовка розыгрыша
--------------------
Я прикинул, что мне понадобятся парочка вещей для начала:
1. Что-то, обрабатывающее пользовательский ввод
2. Что-то, выполняющее произвольные команды от имени веб-пользователя
Так я пришёл к:
1. NGINX
2. Расширение FPM для NGINX
3. PHP
4. Пакет FPM для PHP
В итоге я сделал сайт с лендингом `logan.html` и «страничкой действия» `zenity.php`:
**logan.html**
```
form button {
font-size: 20px;
}
div.explanation {
width: 400px;
}
Поиметь Логана
```
Тут немного ерунды в тегах `meta`, чтобы адаптировать страничку для мобильников (помните, что я делаю это лёгким в использовании на ходу?) Для тех, кто не умеет рендерить HTML в голове, показываю, как это выглядит:

Когда нажимается кнопка, POST-запрос улетает на другую страницу, которая делает всю грязную работу:
**zenity.php**
```
php
/* zenity.php */
$messages = Array(
"Возникла ошибка.",
"Возникла ошибка.",
"Возникла ошибка.",
"Возникла ошибка.",
"Возникла ошибка.",
"Возникла ошибка.",
"Этому драйверу видеоадаптера не удаётся найти совместимое оборудование.",
"Драйвер дисплея не отвечает.",
"Драйвер дисплея не отвечает.",
"Драйвер дисплея не отвечает.",
"Драйвер дисплея не отвечает and has recovered.",
"Система работает в режиме слабой графики.",
"Система работает в режиме слабой графики.",
"Система работает в режиме слабой графики.",
"Система работает в режиме слабой графики.",
"Система работает в режиме слабой графики.",
"Система работает в режиме слабой графики.",
"Драйвер NVIDIA не отвечает.",
"NVIDIA остановила это устройство из-за ошибки. (код 43)",
"Возникла ошибка на интерфейсе wlx10bef54d395c."
);
$statuses = Array("error", "warning");
$msg = $messages[array_rand($messages)];
$status = $statuses[array_rand($statuses)];
$timeout = "--timeout 10";
exec("sudo -u thedisplayuser /usr/sbin/zenity --$status --display=:0 --text 'Ошибка: $msg' $timeout /dev/null &");
include 'logan.html';
?>
Всплывающее окно с рандомным сообщением об ошибке только что появилось
на домашнем телике и выбесило Логана, который ничего не знает об этом сайте.
Сейчас он офигевает, какого хрена у нас столько проблем с видюхой/интернетом/и т.д.

```
Эта страница делает ряд вещей:
1. Выбирает случайное сообщение об ошибке
2. Выбирает тип диалогового окна
3. Демонстрирует сообщение в течение заданного периода времени (10 секунд)
4. Рисует кнопку и объясняет, что происходит — всё в сопровождении забавной фотки Логана собственной персоной
Для тех, кто всё ещё не умеет рендерить HTML в голове (снова, надеюсь, большинство людей), страница выглядит так:

Если вы удивлены, почему веб-странице позволено исполнять код таким образом, и почему владелец сессии веб-сервера (`www-data`) может выполнять команды как пользователь дисплея (`thedisplayuser`), вы, возможно, будете счастливы узнать, что я строго ограничил это в файле `sudoers`:
```
# /etc/sudoers
www-data ALL=(thedisplayuser) NOPASSWD: /usr/bin/zenity
```
Эта конкретная часть конфигурации позволяет www-data запускать только /usr/bin/zenity как thedisplayuser без пароля. Я сделал это после того, как намаялся с дурацкими ошибками в настройках PHP и NGINX. Затем я отправил URL паре друзей в кампусе, которые знают Логана.
Результат розыгрыша
-------------------
Хвала небесам, Логан отреагировал так бурно, как он это умеет. Если бы он был слегка раздражён, то мысль о том, что мои усилия потрачены впустую, раздражала бы уже меня. Но нет! Он потерял самообладание. Не могу сосчитать, сколько было ребутов, переустановок драйвера и модификаций ядра. Я жалею лишь, что не заснял на видео, как он взбесился после запуска VLC, когда кто-то выкинул кучу окошек с сообщениями об ошибках видеокарты.
Но я слишком увлёкся, и Крис, ещё один наш сосед по комнате, решил вмешаться…
Охота на охотника
-----------------
### Первый этап
Одним прекрасным днём, когда Логан спал, я заметил сообщение об ошибке, которое гласило: «За всем этим стоит Макс». Чоооо? Я получил пранкобраточку! Итак, я стал разбираться и выяснил, что кто-то (Крис) внёс эту фразу в набор случайных сообщений в `zenity.php`. Я по-быстрому удалил её (пока Логан не прочухал, что его разыгрывают) и решил, что веселье закончилось. Не тут-то было.
### Второй этап
Спустя неделю или около того сообщение вылезло снова. Я подумал, что Крис спалил меня и заново добавил его в список. Ни фига. Его там не было. После тщательного изучения файла я обратил внимание, что он теперь называется `/usr/sbin/zenity` вместо `/usr/bin/zenity` (системный по-умолчанию), и в `sudoers` была соответствующая разрешающая запись. Так что это за `/usr/sbin/zenity`? Шелл-скрипт:
```
#!/bin/bash
echo '.' >> /tmp/log.txt
if [ 0 -eq $((RANDOM % 100)) ];
then /usr/bin/zenity --error --display=:0 --text "За этим стоит Макс." --timeout 10 > /dev/null &
else /usr/bin/zenity "$@"
fi
```
Что ж, это было гадство следующего уровня, если я вообще встречал подобное. 99% времени всё работало, как надо, а в оставшийся один процент выскакивало сообщение «За этим стоит Макс». Я удалил файл (знаю, не стоило) и запись в `sudoers`, привёл `zenity.php` в исходный вид. Сообщения перестали появляться. Но потом они вернулись.
### Третий этап
Я проверил `zenity.php`. Ничего нового. `/usr/sbin/zenity`? Исчез. Я обескуражен. Тогда я решил заглянуть внутрь `/usr/bin/zenity`:
```
#!/bin/bash
# --- ВСЯКИЙ БИНАРНЫЙ МУСОР ---
# --- ВСЯКИЙ БИНАРНЫЙ МУСОР ---
# --- ВСЯКИЙ БИНАРНЫЙ МУСОР ---
# --- ВСЯКИЙ БИНАРНЫЙ МУСОР ---
# --- ВСЯКИЙ БИНАРНЫЙ МУСОР ---
if [ 0 -eq $((RANDOM % 70)) ];
then /usr/bin/rpmdb-client --error --display=:0 --text "З""а"" ""э""т""им ""с""т""о""и""т"" ""М""а""к""с." --timeout 10 > /dev/null &
else /usr/bin/rpmdb-client "$@"
fi
```
Маленький хитрый гадёныш. Он исправил бинарник zenity, сделав из него баш-скрипт, который срабатывает 1 раз и 70. Какого чёрта? И что это вообще за `rpmdb-client`? Итак, я дал отпор, изменив его:
```
# <ОБРЕЗАНО>
if [ 0 -eq $((RANDOM % 70)) ];
then /usr/sbin/rpmdb-client --error --display=:0 --text "З""а"" ""э""т""им ""с""т""о""и""т"" ""М""а""к""с." --timeout 10 > /dev/null &
else /usr/bin/rpmdb-client "$@"
fi
```
Уловили разницу? В превом случае вызывается `/usr/sbin/rpmdb-client` вместо `/usr/bin/rpmdb-client`, который запускает ничего не делающий баш-скрипт. При достаточном везении он не заметит лишнего символа и его сообщение никогда не появится.
TODO: Разобраться с разницей между исполняемым ELF-файлами `/usr/sbin/zenity` и `/usr/bin/rpmdb-client`, который создал Крис. В бинарниках есть какое-то странное отличие, которое я пока не понял.
### Четвёртый этап
Я решил укрепить оборону, пока Крис не заметил разницу в одну букву, описанную выше. Я отменил все свои изменения и решил вместо этого пропатчить `zenity`. Глубокая признательность Тому Хеббу (как и в каждом моём техническом посте) за помощь с этим. Вот что я сделал:
1. Настроил `apt` на загрузку исходников (в данном случае, добавив `deb-src` в `/etc/apt/sources.list`)
2. `apt-get source zenity`
3. Сделал патч с `quilt`:
1. `quilt new myPatch.diff`
2. Патч для `src/msg.c`, который определяет наличие слова «Макс» в тексте сообщения:
**msg.c**
```
Index: zenity-3.18.1.1/src/msg.c
===================================================================
--- zenity-3.18.1.1.orig/src/msg.c
+++ zenity-3.18.1.1/src/msg.c
@@ -21,6 +21,8 @@
* Authors: Glynn Foster
\*/
+#include
+
#include "config.h"
#include "zenity.h"
@@ -85,6 +87,11 @@ zenity\_msg (ZenityData \*data, ZenityMsgD
GObject \*text;
GObject \*image;
+ if (strstr(msg\_data->dialog\_text, "Max")
+ || strstr(msg\_data->dialog\_text, "max")) {
+ return;
+ }
+
switch (msg\_data->mode) {
case ZENITY\_MSG\_WARNING:
builder = zenity\_util\_load\_ui\_file ("zenity\_warning\_dialog", NULL);
```
3. `quilt add src/msg.c`
4. `quilt pop`
4. `dpkg-source --commit`
5. `dpkg-buildpackage -us -uc`
6. Осознал, что создание и установка нового пакета — это более палевно, чем подмена бинарника
7. По-тихому заменил бинарник `rpmdb-client` (его `zenity`) моей версией
8. Похлопал себя по спине
Этот патч меняет поведение `zenity` таким образом, что, как только в тексте сообщения появляется слово «Макс», приложение по-тихому ничего не делает.
Заключение
----------
До конца марта Крис так и не узнал, что я подправил бинарник. В результате Логан не увидел ни одного сообщения с моим именем. Так что я решил продолжать розыгрыш до тех пор, пока я ему всё не расскажу после окончания курса. Но когда занятия закочились, мы разъехались. Хотя мы с Логаном снова будем жить вместе в следующем году, скорее всего мы не будем столько времени проводить в комнате, чтобы розыгрыш имел смысл. Поэтому я решил опубликовать этот пост перед тем, как устраивать новые проделки. | https://habr.com/ru/post/417915/ | null | ru | null |
# Добавляем в Android-приложение систему локального поиска
Многие программы нуждаются в функции поиска. Сегодня мы рассмотрим пример реализации подобного функционала в приложении для ресторана. Наша основная цель – дать пользователю возможность быстро и легко найти в меню из множества блюд то, чего ему хочется.
Мы расскажем о том, как добавили функцию [локального поиска](https://developer.android.com/training/search/index.html) по содержимому существующего приложения и при этом сохранили единообразие пользовательского интерфейса. Мы рассмотрим здесь изменения, внесённые в пользовательский интерфейс и причины этих изменений, так же поговорим о добавлении в элемент класса Activity объекта GestureOverlayView и о создании собственных жестов. Естественно, особое внимание будет уделено поиску.
[](https://habrahabr.ru/company/intel/blog/276099/)
*Экран результатов поиска в приложении ресторана*
Подробнее о поиске
------------------
Перед тем, как добавить в приложение функцию поиска, нужно учесть некоторые особенности, ответить на ряд вопросов.
**Что именно нужно искать?** Мы хотим выполнять поиск по заголовкам продуктов и по их описаниям для того, чтобы пользователь мог получить наиболее полный набор результатов, так как одни лишь заголовки не всегда позволяют точно понять, о каком именно блюде идёт речь. Кроме того, к элементам, по которым выполняется поиск, можно добавить скрытые метаданные.
**Как нужно отображать результаты поиска, какой макет для этого использовать?** Мы начали со списка (объект ListView), сделали его в том же стиле, в котором выполнена корзина покупателя. Однако при таком представлении блюда выглядят не особо привлекательно – виной всему слишком маленькие размеры фотоснимков. Когда мы увеличили размеры изображений в списке, оказалось, что на странице теперь слишком мало места для отображения результатов. В итоге было принято решение разместить результаты поиска в сетке (элемент GridView), поступить так же, как сделано в основной части ресторанного меню, но вместо того, чтобы размещать сбоку большой блок с подробностями о выбранном блюде, мы поместили на всём экране набор продуктов. Это, в частности, помогает быстро отличить страницу с результатами поиска от обычного экрана меню. Для того чтобы посмотреть подробности о блюде, пользователь должен коснуться его фотографии на странице результатов поиска. В ответ на это над страницей появится диалоговое окно (объект DialogFragment), его можно видеть на одном из рисунков, приведенных ниже. Благодаря этому пользователь может быстро вернуться к странице поиска и продолжить просмотр других блюд, просто коснувшись пространства за пределами диалогового окна. Поиск, в идеале, должен выполняться практически мгновенно, без задержек, так как пользователи хотят найти то, что им нужно, как можно быстрее. Иначе они либо не смогут найти то, что хотят, либо им просто надоест ждать результатов, они просто не будут ничего искать и покинут приложение.
**Как обрабатывать конфиденциальные данные пользователя?** Можно создать систему поиска, которая будет выдавать подсказки, основываясь на введённых ранее поисковых запросах или поиск, для работы которого пользователю нужно будет вводить более или менее подробные сведения о себе. Это поднимает вопросы о том, что другие люди могут увидеть, что именно ищет пользователь, и о том, куда именно отправляются введённые персональные данные. В нашем случае речь идёт о приложении ресторана, поэтому если кто-то узнает, что пользователю нравятся шоколадные пирожные, ничего страшного не произойдёт. Однако есть и проекты, в которых конфиденциальности нужно уделять самое пристальное внимание. В нашем приложении пользователю не нужно вводить никакой информации о себе, не производится логирования поисковых запросов, не ведётся их история.
Поиск в приложении для ресторана
--------------------------------
Первый шаг реализации поиска в ресторанном приложении заключается в переработке класса базы данных и добавлении в него метода для построения новой таблицы с результатами поиска. Таблица будет использована для вывода информации на экран. Подробности о базе данных, с которой мы работаем в данном приложении, можно почитать [здесь](https://software.intel.com/en-us/android/articles/using-a-database-with-your-android-app). Поиск по базе данных легко реализовать с использованием SQLite-запросов. Фактически, тут нужно несколько строк кода. Здесь мы выполняем поиск в названиях и описаниях товаров всего, что содержит введённый пользователем поисковый запрос. В качестве результатов поиска мы возвращаем все столбцы базы данных, так как эти сведения понадобятся позже для отображения подробностей о блюде, изображения которого коснулся пользователь. Учтите, что если ваша база данных очень большая, поиск может занять заметное время, поэтому стоит задуматься об отображении прогресс-бара или вращающегося индикатора, чтобы пользователь видел, что приложение работает. Вот метод для выполнения поиска по базе данных.
```
/**
* Построение таблицы элементов, содержащих поисковый запрос (searchTerm) в названиях или описаниях
*/
public Cursor searchMenuItems(String searchTerm) {
SQLiteDatabase db = getReadableDatabase();
SQLiteQueryBuilder qb = new SQLiteQueryBuilder();
qb.setTables(TABLES.MENU);
Cursor c = qb.query(db, null, "("+MenuColumns.NAME+" LIKE '%"+searchTerm+"%') " +
"OR ("+MenuColumns.DESCRIPTION+" LIKE '%" + searchTerm+"%')",
null, null, null, null);
return c;
}
```
Теперь нужно доработать нашу главную Activity, включить в ActionBar строку поиска. Для того чтобы узнать подробнее о настройке ActionBar, обратитесь к [этому](https://software.intel.com/en-us/android/articles/building-dynamic-ui-for-android-devices) материалу. Поисковый функционал будет полностью реализован внутри приложения. Нам не нужно, чтобы в поиске участвовали другие программы, установленные на устройстве, не надо нам и посылать запрос на поиск некоему внешнему приложению.
Добавим эту строковую переменную в класс MainActivity. Мы будем использовать её для отправки строки запроса в поисковый Intent. Это – переменная класса для добавления дополнительных данных в объект класса Intent.
```
/* Метка строки поиска */
public final static String SEARCH_MESSAGE= "com.example.restaurant.MESSAGE";
```
Теперь обновим метод onCreateOptionsMenu в классе MainActivity. Добавим в него код для инициализации ActionBar:
```
/**
* Инициализация action menu в ActionBar
*/
public boolean onCreateOptionsMenu(Menu menu) {
getMenuInflater().inflate(R.menu.action_bar, menu);
//настраиваем поисковую строку
MenuItem searchItem = menu.findItem(R.id.action_search);
SearchView mSearchView = (SearchView) searchItem.getActionView();
searchItem.setShowAsActionFlags(MenuItem.SHOW_AS_ACTION_IF_ROOM
| MenuItem.SHOW_AS_ACTION_COLLAPSE_ACTION_VIEW);
// задаём слушатель запросов
mSearchView.setOnQueryTextListener(new OnQueryTextListener() {
@Override
public boolean onQueryTextSubmit(String query) {
//запускаем поисковый intent
Intent searchIntent = new Intent(MainActivity.this, SearchResultsActivity.class);
searchIntent.putExtra(SEARCH_MESSAGE, query);
startActivity(searchIntent);
return false;
}
@Override
public boolean onQueryTextChange(String query) {
//в этом случае не делаем ничего
return true;
}
});
return super.onCreateOptionsMenu(menu);
}
```
Теперь добавим класс SearchResultActivity.
```
public class SearchResultsActivity extends Activity{
TextView mQueryText;
GridView searchListResults;
SearchAdapter adapter;
Vector searchList;
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.search\_query\_grid\_results);
mQueryText = (TextView) findViewById(R.id.txt\_query);
//Настройка GridView
searchListResults = (GridView)findViewById(R.id.search\_results);
searchList= new Vector();
//здесь получаем и обрабатываем поисковый запрос
final Intent queryIntent = getIntent();
doSearchQuery(queryIntent);
adapter= new SearchAdapter(this,searchList);
searchListResults.setAdapter(adapter);
//Слушатель для GridView
searchListResults.setOnItemClickListener(new AdapterView.OnItemClickListener() {
@Override
public void onItemClick(AdapterView parent, View v, int position, long id){
FragmentTransaction ft = getFragmentManager().beginTransaction();
Fragment prev = getFragmentManager().findFragmentByTag("dialog");
if (prev != null) {
ft.remove(prev);
}
ft.addToBackStack(null);
DialogFragment newFragment = SearchResultsDialogFragment.newInstance(searchList.elementAt(position));
newFragment.show(ft, "dialog");
}
});
}
```
Занимаясь построением списка, мы обрабатываем и вариант, когда в результате поиска ничего не нашлось. А именно, если поиск не дал результатов, мы покажем пользователю диалоговое окно, сообщим о том, что произошло и закроем Activity, в которой планировалось отобразить результаты. В итоге пользователь не увидит пустой страницы. Делаем это мы в том же классе SearchResultActivity, ниже дано его продолжение.
```
/**
* Строим список найденных элементов.
*/
private void doSearchQuery(final Intent queryIntent) {
//Получаем текст запроса
String message= queryIntent.getStringExtra(MainActivity.SEARCH_MESSAGE);
//Записываем его в поле в пользовательском интерфейсе
mQueryText.setText(message);
RestaurantDatabase dB= new RestaurantDatabase(this);
MenuFactory mMF= MenuFactory.getInstance();
Cursor c= dB.searchMenuItems(message);
Set categories = new HashSet();
while (c.moveToNext()) {
String category = c.getString(c.getColumnIndexOrThrow(RestaurantDatabase.MenuColumns.CATEGORY));
categories.add(category);
//Создаём новый элемент меню и добавляем его в список MenuItem item= mMF.new MenuItem();
item.setCategory(category);
item.setName(c.getString(c.getColumnIndexOrThrow(RestaurantDatabase.MenuColumns.NAME)));
item.setDescription(c.getString(c.getColumnIndexOrThrow(RestaurantDatabase.MenuColumns.DESCRIPTION)));
item.setNutrition(c.getString(c.getColumnIndexOrThrow(RestaurantDatabase.MenuColumns.NUTRITION)));
item.setPrice(c.getString(c.getColumnIndexOrThrow(RestaurantDatabase.MenuColumns.PRICE)));
item.setImageName(c.getString(c.getColumnIndexOrThrow(RestaurantDatabase.MenuColumns.IMAGENAME)));
searchList.add(item);
}
c.close();
//Если ничего не нашлось, сообщаем об этом пользователю
if(searchList.size()==0){
Intent intent = new Intent(SearchResultsActivity.this, OrderViewDialogue.class);
intent.putExtra(OrderViewActivity.DIALOGUE\_MESSAGE, "Sorry, no matching items found.");
startActivity(intent);
SearchResultsActivity.this.finish();
}
}
```
Далее рассмотрен адаптер для элемента GridView. Его мы построили на основе похожего кода из основного меню, внеся в него незначительные правки. Кроме того, мы можем доработать и существующие файлы макетов. Построение единообразно выглядящих экранов приложения – одно из преимуществ повторного использования кода, дополняющее отсутствие необходимости создавать каждый экран с нуля. Выше вы могли заметить, что мы повторно использовали класс OrderViewDialogue, изначально, написанный для корзины, но подходящий и здесь. Итак, вот продолжение кода:
```
/**
* Код SearchAdapter для поддержки GridView с найденными элементами. Каждый элемент содержит view_grid_item, который включает в себя изображение, название и цену блюда.
*/
class SearchAdapter extends BaseAdapter {
private Vector mFoundList;
private LayoutInflater inflater;
public SearchAdapter(Context c, Vector list) {
mFoundList= list;
inflater = LayoutInflater.from(c);
}
public int getCount() {
return mFoundList.size();
}
public Object getItem(int position) {
return mFoundList.get(position);
}
public long getItemId(int position) {
return 0;
}
// Создаём новый элемент ItemView для каждого элемента, перечисленного в адаптере
public View getView(int position, View convertView, ViewGroup parent) {
View v = convertView;
ImageView picture;
TextView name;
TextView price;
if(v == null) {
v = inflater.inflate(R.layout.view\_grid\_item, parent, false);
v.setTag(R.id.picture, v.findViewById(R.id.picture));
v.setTag(R.id.grid\_name, v.findViewById(R.id.grid\_name));
v.setTag(R.id.grid\_price, v.findViewById(R.id.grid\_price));
}
picture= (ImageView) v.getTag(R.id.picture);
name= (TextView) v.getTag(R.id.grid\_name);
price= (TextView) v.getTag(R.id.grid\_price);
final MenuItem foundItem = (MenuItem) mFoundList.get(position);
InputStream inputStream = null;
AssetManager assetManager = null;
try {
assetManager = getAssets();
inputStream = assetManager.open(foundItem.imageName);
picture.setImageBitmap(BitmapFactory.decodeStream(inputStream));
} catch (Exception e) {
Log.d("ActionBarLog", e.getMessage());
} finally {
}
name.setText(foundItem.name);
price.setText(foundItem.price);
return v;
}
}
}
```
Ещё одна деталь, которую стоит рассмотреть – это использование портретной или ландшафтной версии интерфейса. Ниже приведен код файла search\_query\_grid\_results.xml, который находится в папке res/layout-land folder и задаёт ландшафтный вариант интерфейса. Число столбцов (numColumns) установлено в 4. Почти такой же файл для портретной ориентации интерфейса расположен в папке res/layout-port. От ландшафтного варианта он отличается лишь тем, что в нём элементы располагаются в два столбца.
```
xml version="1.0" encoding="utf-8"?
```
Вот, как выглядит экран результатов поиска, поверх которого открыто диалоговое окно с подробностями о блюде, изображения которого коснулся пользователь.

*Поисковый экран и окно с подробностями о блюде*
Обработка жестов
----------------
Для того чтобы выйти из окна с результатами поиска, мы хотели бы сдвинуть, смахнуть его соответствующим жестом влево или вправо, так же как при просмотре других страниц в основном меню. Класс GestureDetector отлично работает со списками (ListView), но вот с таблицами (GridView) – нет. Поэтому нам нужно перейти на использование GestureOverlayView.
Для начала нужно создать библиотеку жестов, используя приложение GestureBuilder, которое можно найти среди примеров, поставляющихся вместе с Android SDK. В частности, то, что нам нужно, расположено по адресу android\sdk\samples\android-23\legacy\GestureBuilder.
Для использования приложения его нужно скомпилировать и запустить на устройстве, а затем задать с его помощью имена и конфигурации жестов. После добавления всех необходимых жестов (в нашем случае это скольжение влево, left swipe, и скольжение вправо, right swipe), нужно скопировать файл «gestures» с устройства и поместить в папку res/raw. Приложение подскажет точное расположение этого файла, в нашем случае достаточно было подключить устройство к ПК по USB и заглянуть в корневую директорию.

*Приложение Gesture Builder*
Скопировав файл с жестами в нужное место, необходимо обновить класс SearhcResultActivity, добавив в него объявления переменных для работы с GestureOverlayView:
```
GestureLibrary gestureLibrary;
GestureOverlayView gestureOverlayView;
```
В методе onCreate нужно инициализировать элемент интерфейса, загрузить библиотеку и настроить слушатель, который определяет действия программы в ответ на жесты, выполняемые пользователем. Для успешной работы рассматриваемого механизма нужно убедиться в том, что в коде используются те же имена, которые записаны в библиотеке жестов.
В качестве анимации мы решили применить overridePendingTransition. Для входящей анимации используется значение 0, что означает отсутствие анимации. Можно создать пустой xml-файл анимации и использовать его, но это приведёт к тому, что система довольно много времени потратит на «размышления» и исходящая анимация будет исполнена слишком быстро.
```
gestureOverlayView = (GestureOverlayView)findViewById(R.id.gestures);
//Инициализация библиотеки жестов и установка слушателя
gestureLibrary = GestureLibraries.fromRawResource(this, R.raw.gestures);
gestureLibrary.load();
gestureOverlayView.addOnGesturePerformedListener(new OnGesturePerformedListener(){
@Override
public void onGesturePerformed(GestureOverlayView view, Gesture gesture) {
ArrayList prediction = gestureLibrary.recognize(gesture);
if(prediction.size() > 0){
String action= prediction.get(0).name;
//Наша библиотека жестов содержит жесты с названиями "left swipe" и "right swipe"
if("left swipe".equals(action)){
//скольжение влево
SearchResultsActivity.this.finish();
overridePendingTransition(0, R.anim.move\_left);
} else if("right swipe".equals(action)){
//скольжение влево
SearchResultsActivity.this.finish();
overridePendingTransition(0, R.anim.move\_right);
}
}
}});
// «Линии жестов» теперь прозрачные, а не жёлтые, как в приложении для их создания
gestureOverlayView.setGestureVisible(false);
```
Вот код файла анимации сдвига влево, move\_left.xml. Файл, ответственный за анимацию сдвига вправо, move\_right.xml, выглядит точно так же за исключением того, что значение toXDelta неотрицательно.
```
xml version="1.0" encoding="utf-8"?
```
Обратите внимание на то, что GrivView не может иметь параметр layout\_height равный 0dp, когда находится внутри GestureOverlayView, так как он займёт указанные 0dp вместо того, чтобы расшириться, наподобие LinearLayout. Для того чтобы выполнить это требование, в нашем случае, параметр layout\_height был установлен в значение fill\_parent. Кроме того, нам не нужно, чтобы жесты были видимыми, не нужна нам и задержка, которая вызвана тем, что линия жеста плавно исчезает с экрана. Наши «линии жестов» и так прозрачны, да и лишние задержки нам ни к чему. Поэтому устанавливаем fadeOffset и fadeDuration в значение 0. Ниже показан обновлённый xml-код, задающий взаимоотношения GridView и GestureOverlayView.
```
```
Выводы
------
Мы рассмотрели последовательность решений, которые нужно принять при проектировании системы локального поиска для Android-приложения. Кроме того, мы рассказали о некоторых потенциальных проблемах, и о том, как их избежать, привели примеры кода и xml-разметки. Сейчас вы вполне можете встроить поисковую функциональность в собственное приложение и при этом ваш поиск будет не только работать, но и учитывать требования пользователей. А это значит, что они обязательно найдут то, что им нужно. | https://habr.com/ru/post/276099/ | null | ru | null |
# Разбираемся с промисами в JavaScript
Доброго времени суток, Хабр! Представляю вашему вниманию перевод статьи [«Understanding Promises in JavaScript»](https://blog.bitsrc.io/understanding-promises-in-javascript-c5248de9ff8f) автора Sukhjinder Arora.

*От автора перевода: Так же, как и сам автор, я надеюсь, что статья оказалась для вас полезной. Пожалуйста, если она и вправду помогла вам узнать для себя что-то новое, то не поленитесь зайти на оригинал статьи и поблагодарить автора! Буду рад вашему фидбеку!
[Ссылка на перевод статьи по асинхронному JavaScript от этого же автора](https://habr.com/ru/post/439620/).*
JavaScript — это однопоточный язык программирования, это означает, что за раз может быть выполнено что-то одно. До ES6 мы использовали обратные вызовы, чтобы управлять асинхронными задачами, такими как сетевой запрос.
Используя промисы, мы можем избегать “ад обратных вызовов” и сделать наш код чище, более читабельным и более простым для понимания.
Предположим, что мы хотим асинхронно получить некоторые данные с сервера, используя обратные вызовы мы сделали бы что-то вроде этого:
```
getData(function(x){
console.log(x);
getMoreData(x, function(y){
console.log(y);
getSomeMoreData(y, function(z){
console.log(z);
});
});
});
```
Здесь я запрашиваю некоторые данные с сервера при помощи функции *getData()*, которая получает данные внутри функции обратного вызова. Внутри функции обратного вызова я запрашиваю дополнительные данные при помощи вызова функции *getMoreData()*, передавая предыдущие данные как аргумент и так далее.
Это то, что мы называем “адом обратных вызовов”, где каждый обратный вызов вложен внутрь другого, и каждый внутренний обратный вызов зависит от его родителя.
Мы можем переписать приведенный выше фрагмент используя промисы:
```
getData()
.then((x) => {
console.log(x);
return getMoreData(x);
})
.then((y) => {
console.log(y);
return getSomeMoreData(y);
})
.then((z) => {
console.log(z);
});
```
Вы можете видеть, что стало более читабельно, чем в случае первого примера с обратными вызовами.
Что такое Промисы?
------------------
Промис(Обещание) — это объект который содержит будущее значение асинхронной операции. Например, если вы запрашиваете некоторые данные с сервера, промис обещает нам получить эти данные, которые мы сможем использовать в будущем.
Прежде чем погрузиться во все эти технические штуки, давайте разберемся с терминологией промисов.
### Состояния промисов
Промис в JavaScript, как и обещание в реальной жизни, имеет 3 состояния. Это может быть 1) нерешенный(в ожидании), 2) решенный/resolved (выполненный) или 3) отклоненный/rejected.

**Нерешенный или Ожидающий** — Промис ожидает, если результат не готов. То есть, ожидает завершение чего-либо(например, завершения асинхронной операции).
**Решенный или Выполненный** — Промис решен, если результат доступен. То есть, что-то завершило свое выполнение(например, асинхронная операция) и все прошло хорошо.
**Отклоненный** — Промиc отклонен, если произошла ошибка в процессе выполнения.
Теперь мы знаем, что такое Промис и его терминологию, давайте вернемся назад к практической части промисов.
### Создаем Промис
В большинстве случаев вы будете просто использовать промисы, а не создавать их, но все же важно знать как они создаются.
Синтаксис:
```
const promise = new Promise((resolve, reject) => {
...
});
```
Мы создали новый промис, используя конструктор Промисов, он принимает один аргумент, обратный вызов, также известный как исполнительная функция, которая принимает 2 обратных вызова, *resolve* и *reject*.
Исполнительная функция выполняется сразу же после создания промиса. Промис становится выполненным при помощи вызова *resolve()*, а отклоненным при помощи *reject()*. Например:
```
const promise = new Promise((resolve, reject) => {
if(allWentWell) {
resolve('Все прошло отлично!');
} else {
reject('Что-то пошло не так');
}
});
```
*resolve()* и *reject()* принимают один аргумент, который может быть строкой, числом, логическим выражением, массивом или объектом.
Давайте взглянем на другой пример, чтобы полностью понять как создаются промисы.
```
const promise = new Promise((resolve, reject) => {
const randomNumber = Math.random();
setTimeout(() => {
if(randomNumber < .6) {
resolve('Все прошло отлично!');
} else {
reject('Что-то пошло не так');
}
}, 2000);
});
```
Здесь я создал новый промис используя конструктор Промисов. Промис выполняется или отклоняется через 2 секунды после его создания. Промис выполняется, если *randomNumber* меньше, чем .6 и отклоняется в остальных случаях.
Когда промис был создан, он будет в состоянии ожидания и его значение будет *undefined*.

После 2 секунд таймер заканчивается, промис случайным образом либо выполняется, либо отклоняется, и его значением будет то, которое передано в функцию *resolve* или *reject*. Ниже пример двух случаев:
Успешное выполнение:

Отклонение промиса:

**Примечание:** Промис может быть выполнен или отклонен только один раз. Дальнейшие вызовы *resolve()* или *reject()* никак не повлияют на состояние промиса. Пример:
```
const promise = new Promise((resolve, reject) => {
resolve('Promise resolved'); // Промис выполнен
reject('Promise rejected'); // Промис уже не может быть отклонен
});
```
Так как *resolve()* была вызвана первой, то промис теперь получается статус “выполненный”. Последующий вызов *reject()* никак не повлияет на состояние промиса.
### Использование Промиса
Теперь мы знаем как создавать промисы, давайте теперь разберемся как применять уже созданный промис. Мы используем промисы при помощи методов *then()* и *catch()*.
Например, запрос данных из API при помощи *fetch*, которая возвращает промис.
*.then()* **синтаксис:** *promise.then(successCallback, failureCallback)*
*successCallback* вызывается, если промис был успешно выполнен. Принимает один аргумент, который является значением переданным в *resolve()*.
*failureCallback* вызывается, если промис был отклонен. Принимает один аргумент, который является значением преданным в *reject()*.
Пример:
```
const promise = new Promise((resolve, reject) => {
const randomNumber = Math.random();
if(randomNumber < .7) {
resolve('Все прошло отлично!');
} else {
reject(new Error('Что-то пошло не так'));
}
});
promise.then((data) => {
console.log(data); // вывести 'Все прошло отлично!'
},
(error) => {
console.log(error); // вывести ошибку
}
);
```
Если промис был выполнен, то вызывается *successCallback* со значением, переданным в *resolve()*. И если промис был отклонен, то вызывается *failureCallback* со значением, переданным в reject().
*.catch()* **синтаксис:** *promise.catch(failureCallback)*
Мы используем *catch()* для обработки ошибок. Это более читабельно, нежели обработка ошибок внутри *failureCallback* внутри обратного вызова метода *then()*.
```
const promise = new Promise((resolve, reject) => {
reject(new Error('Что-то пошло не так'));
});
promise
.then((data) => {
console.log(data);
})
.catch((error) => {
console.log(error); // вывести ошибку
});
```
### Цепочка промисов
Методы *then()* и *catch()* также могут возвращать новый промис, который может быть обработан цепочкой других then() в конце предыдущего метода then().
Мы используем цепочку промисов, когда хотим выполнить последовательность промисов.
Например:
```
const promise1 = new Promise((resolve, reject) => {
resolve('Promise1 выполнен');
});
const promise2 = new Promise((resolve, reject) => {
resolve('Promise2 выполнен');
});
const promise3 = new Promise((resolve, reject) => {
reject('Promise3 отклонен');
});
promise1
.then((data) => {
console.log(data); // Promise1 выполнен
return promise2;
})
.then((data) => {
console.log(data); // Promise2 выполнен
return promise3;
})
.then((data) => {
console.log(data);
})
.catch((error) => {
console.log(error); // Promise3 отклонен
});
```
#### И так, что тут происходит?
Когда *promise1* выполнен, вызывается метод *then(),* который возвращает promise2.
Далее, когда выполнен *promise2*, снова вызывается *then()* и возвращает *promise3*.
Так как promise3 отклонен, вместо следующего *then()*, вызывается *catch()*, который и обрабатывает отклонение *promise3*.
**Примечание:** Как правило достаточно одного метода *catch()* для обработки отклонения любого из промисов в цепочке, если этот метод находится в конце неё.
#### Распространенная ошибка
Достаточно много новичков делают ошибку, вкладывая одни промисы внутрь других. Например:
```
const promise1 = new Promise((resolve, reject) => {
resolve('Promise1 выполнен');
});
const promise2 = new Promise((resolve, reject) => {
resolve('Promise2 выполнен');
});
const promise3 = new Promise((resolve, reject) => {
reject('Promise3 отклонен');
});
promise1.then((data) => {
console.log(data); // Promise1 выполнен
promise2.then((data) => {
console.log(data); // Promise2 выполнен
promise3.then((data) => {
console.log(data);
}).catch((error) => {
console.log(error); // Promise3 отклонен
});
}).catch((error) => {
console.log(error);
})
}).catch((error) => {
console.log(error);
});
```
Несмотря на то, что это будет работать нормально, это считается плохим стилем и делает код менее читабельным. Если у вас есть последовательность промисов для выполнения, будет лучше ставить их один за другим, нежели вкладывать один внутрь другого.
### Promise.all( )
Этот метод берет массив промисов и возвращает новый промис, который будет выполненным, когда все промисы внутри массива выполнены или отклонен, как только встречается промис, который отклоняется. Например:
```
const promise1 = new Promise((resolve, reject) => {
setTimeout(() => {
resolve('Promise1 выполнен');
}, 2000);
});
const promise2 = new Promise((resolve, reject) => {
setTimeout(() => {
resolve('Promise2 выполнен');
}, 1500);
});
Promise.all([promise1, promise2])
.then((data) => console.log(data[0], data[1]))
.catch((error) => console.log(error));
```
Здесь аргументом внутри *then()* выступает массив, который содержит значения промисов в том же порядке, в котором они передавались в *Promise.all()*.(Только в том случае, если все промисы выполняются)
Промис отклоняется с причиной отклонения первого промиса в переданном массиве. Например:
```
const promise1 = new Promise((resolve, reject) => {
setTimeout(() => {
resolve('Promise1 выполнен');
}, 2000);
});
const promise2 = new Promise((resolve, reject) => {
setTimeout(() => {
reject('Promise2 отклонен');
}, 1500);
});
Promise.all([promise1, promise2])
.then((data) => console.log(data[0], data[1]))
.catch((error) => console.log(error)); // Promise2 отклонен
```
Здесь у нас есть два промиса, где один выполняется через 2 секунды, а другой отклоняется через 1.5 секунды. Как только второй промис отклоняется, возвращенный от *Promise.all()* промис отклоняется не дожидаясь выполнения первого.
Этот метод может быть полезен, когда у вас есть более одного промиса и вы хотите знать, когда все промисы выполнены. Например, если вы запрашиваете данные из стороннего API и вы хотите что-то сделать с этими данными только тогда, когда все запросы проходят успешно.
По итогу мы имеем *Promise.all()*, который ждет успешное выполнение всех промисов, либо завершает свое выполнение при обнаружении первой неудачи в массиве промисов.
### Promise.race( )
Этот метод принимает массив промисов и возвращает один новый промис, который будет выполненным, как только встретится выполненный промис в массиве или же отклоняется, если отклоненный промис встречается раньше. Например:
```
const promise1 = new Promise((resolve, reject) => {
setTimeout(() => {
resolve('Promise1 выполнен');
}, 1000);
});
const promise2 = new Promise((resolve, reject) => {
setTimeout(() => {
reject('Promise2 отклонен');
}, 1500);
});
Promise.race([promise1, promise2])
.then((data) => console.log(data)) // Promise1 выполнен
.catch((error) => console.log(error));
```
Тут мы имеем два промиса, где один выполняется через 1 секунду, а другой отклоняется через 1.5 секунды. Как только первый промис выполнен, возвращенный из Promise.race() промис будет иметь статус выполненного не дожидаясь статуса второго промиса.
Здесь *data*, которая передается в *then()* является значением первого, выполненного, промиса.
По итогу, *Promise.race()* дожидается первого промиса и берет его статус как статус возвращаемого промиса.
*Комментарий автора перевода: Отсюда собственно и название. Race — гонка*
Заключение
----------
Мы узнали, что такое промисы и с чем их едят в JavaScript. Промисы состоят из двух частей 1) Создание промиса и 2) Использование промиса. Большую часть времени вы будете пользоваться промисами, нежели создавать их, но важно знать как они создаются.
Вот и все, надеюсь эта статья оказалась для вас полезной! | https://habr.com/ru/post/439746/ | null | ru | null |
# Разработка простого музыкального синтезатора на ATMEGA8
Несколько лет назад я изготовил на микроконтроллере ATmega8 часы с будильником, где реализовал однотональный (одноголосный) простейший синтезатор мелодий. В Интернете немало статей для начинающих, посвящённых этой теме. Как правило, для генерации частоты (нот) применяют 16-разрядный таймер, который конфигурируется определённым образом, заставляя на аппаратном уровне выдавать сигнал в форме меандра на определённом выводе МК. Второй (8-разрядный) таймер применяется для реализации длительности ноты или паузы. Ноты по известным формулам сопоставляются с частотами, а они, в свою очередь, сопоставляются с определёнными 16-битными числами, обратно пропорциональные частотам, которые задают периоды счёта таймера.
В своей конструкции я предусмотрел три мелодии, которые были написаны в одной тональности и гамме. Тем самым, мне пришлось использовать ограниченное и определённое количество нот, что облегчало моделирование. Кроме того, все три мелодии проигрывались с одним темпом. Код ноты и код её длительности легко помещались в один байт. Единственным недостатком такой модели служило отсутствие универсальности, возможности быстрого редактирования, замены или дополнения мелодии. Для того чтобы записать мелодию, я для начала набросал её в нотном редакторе на компьютере, затем переписывал ноты и их длительности, с нумерацией которых я заранее определился, а потом формировал результирующие байты. Последние операции делал с помощью программы Excel.
В дальнейшем мне захотелось устранить вышесказанный недостаток, предав конструкции некую универсальность и сократив время на реализацию мелодии. Была такая задумка, чтобы программа МК читала байты одного из известных нотных форматов. Самый популярный и распространённый – формат MIDI. Грамотнее говоря, это не столько формат, сколько целая «наука», о которой можно почитать на просторах Интернета. Спецификация MIDI определяет протокол передачи сообщений реального времени по соответствующему физическому интерфейсу и описывает, как устроены файлы midi, в которых могут храниться эти сообщения. Формат midi является музыкально-ориентированным, поэтому находит применение в соответствующей сфере. Это синхронное управление звуковой аппаратурой, цветомузыкой, музыкальными синтезаторами и роботами и т.д. В бытовой сфере формат midi встречался в эпоху начала развития мобильных телефонов. В этом случае в миди файл записываются сообщения о включении или отключении той или иной ноты, информация о музыкальном инструменте, громкости звучания нот и прочее. В мобильном телефоне, воспроизводящий такой файл, содержится синтезатор, который интерпретирует миди сообщения в этом файле в реальном времени и воспроизводит мелодию. На самых ранних этапах телефоны были способны воспроизводить только однотональные мелодии. Со временем появилась так называемая полифония.
В Интернете я встречал статьи про реализацию полифонического синтезатора на МК, который читает миди файлы. В таком случае, как минимум, применяется заранее сформированная «волновая таблица» (перечень форм звуковой волны) под каждый музыкальный инструмент, хранящаяся в памяти МК. А в моём конкретном случае речь пойдёт о реализации более простой модели: однотональный (одноголосный) синтезатор.
Для начала я тщательно изучил устройство файла миди, придя к выводу, что в нём, кроме нужной информации о нотах, содержится дополнительная избыточная информация. Поэтому было решено написать простую программу для преобразования миди файла в свой формат. Программа, работая с множеством миди файлов, не только преобразует форматы, но и упорядочивает их определённым образом. Заранее я определился с организацией хранения множества мелодий в памяти ПЗУ (EEPROM 24XX512). Для удобства визуализации в HEX редакторе я сделал так, чтобы каждая мелодия начиналась с начала сектора. В отличие от SD карты (к примеру), понятие сектора к используемому ПЗУ неприменимо, поэтому я выражаюсь условно. Размер сектора составляет 512 байт. А первый сектор ПЗУ отведён под адреса секторов начал каждой мелодии. Предполагается, что мелодия может занять несколько секторов.
Полное описание формата миди файла, разумеется, здесь производить не стоит. Я затрону только самые необходимые и нужные моменты. Миди файл содержит 16 каналов, которым, как правило, чаще всего, соответствует тот или иной музыкальный инструмент. В нашем случае никакого значения не имеет, что это за инструмент, и необходим только один канал. Содержимое каждого канала, совместно с заголовком, оформляется в миди файл по принципу, который очень похож на организацию хранения видео и аудио потоков в контейнере AVI. Про последнее я писал ранее в одной из своих статей. Заголовок миди файла представляет собой набор некоторых параметров. Один из таких параметров – разрешающая способность во времени. Она выражается в количестве «тиков» (своего рода пиксель) на четверть (PPQN). Четверть – это временной отрезок, в течение которого звучит четвертная нота. В зависимости от темпа мелодии, длительность четверти может быть различной. Следовательно, длительность одного «пикселя» (период дискретизации) зависит от темпа и PPQN. Вся информация о времени того или иного события определяется с точностью до этой длительности.
Кроме того, в заголовке записан тип миди файла (тип 0 или тип 1) и число каналов. Не вдаваясь в подробности, будем работать с типом 1, числом каналов 2. Миди файл с однотональной мелодией, по логике, содержит один канал. Но в файле миди «типа 1» присутствует, кроме основного, ещё один «немузыкальный» канал, в котором записана дополнительная информация, не содержащая нот. Это так называемые метаданные. Здесь также не стоит вдаваться в подробности. Единственная необходимая нам информация, которая там лежит, это информация о темпе, причём в необычном формате: микросекунды на четверть. В дальнейшем будет показано, как воспользоваться данной информацией, совместно с PPQN, для конфигурации таймера МК, отвечающего за темп.
В блоке основного канала с нотами нас интересует только информация о событиях включения и отключения нот. У события включения ноты имеется два параметра: номер и громкость ноты. Всего предусмотрено 128 нот и 128 уровней громкости. Нас интересует только первый параметр, ибо не важно, какая громкость у ноты: все ноты при воспроизведении мелодии МК будут звучать с одинаковой громкостью. И, конечно же, в мелодии не должно быть нот «с наложением», то есть, в любой момент времени не должно звучать более одной ноты одновременно. Код события взятия (включения) ноты – 0x90. Код события выключения ноты – 0x80. Однако, по крайней мере, редактор «Cakewalk Pro Audio 9» при экспорте композиции в миди формат не использует событие с кодом 0x80. Вместо этого действует событие 0x90 на протяжении всей нотной партии, а признаком отключения ноты служит её нулевая громкость. То есть, событие «отключить ноту» эквивалентно событию «включить ноту с нулевой громкостью». Возможно, это сделано из соображения экономии. Согласно спецификации, код события можно повторно не писать, если данное событие повторяется. Между событиями записывается информация о временном промежутке в формате переменной длины. Это целочисленные значения количества «тиков», о которых говорилось выше. Чаще всего для записи промежутка времени хватает одного байта. Если два события следуют одно за другим, то между ними временной промежуток, очевидно, равен нулю. Это, к примеру, отключение первой и включение следующей за ней второй ноты, если между ними отсутствует пауза (пробел).
Попробуем с помощью программы «Cakewalk Pro Audio 9» написать последовательность нот. Существует множество редакторов, но я остановился на первом попавшимся.

Для начала нужно настроить параметры проекта. В данном редакторе можно задать разрешающую способность во времени (PPQN). Я выбираю минимальное значение, равное 48. Слишком большое значение выбирать бессмысленно, так как придётся работать с большими числами, превосходящими по размеру 1 байт. А вот минимальное значение 48 вполне устраивает. В практически каждой мелодии не встречаются ноты короче, чем 1/32. А если количество «тиков» на четверть составляет 48, то нота или пауза 1/32 будет иметь продолжительность в 48/(32/4)=6 «тиков». То есть, имеется теоретическая возможность нацело поделить 1/32 ноту на 2, и даже на 3. Остальные параметры в окне свойства проекта оставляем по умолчанию.

Далее открываем свойство первого трека и присваиваем ему номер канала, равный 1. На свой вкус выбираем патч, который соответствует музыкальному инструменту при воспроизведении мелодии в редакторе. На конечный результат номер патча, разумеется, не будет сказываться.

Темп мелодии задаётся в количестве четвертей в минуту на панели инструментов редактора. По умолчанию значение темпа составляет 100 bpm.
В микроконтроллере имеется 8-разрядный таймер, который, как уже говорилось, будет использоваться для регулирования длительности звучащих нот и пауз. Было решено, что интервал времени между соседними срабатываниями (прерываниями) такого таймера будет соответствовать интервалу одного «тика». В зависимости от темпа мелодии значение данного интервала времени будет разное. Я решил использовать прерывания таймера по переполнению. А в зависимости от параметра начальной инициализации таймера есть возможность регулировать этот самый интервал времени, который зависит от темпа мелодии. Теперь перейдём к расчётам.
Как правило, на практике, в среднем, темп композиций лежит в диапазоне порядка от 50 до 200. Уже было сказано, что темп в миди файле задаётся микросекундами на четверть. Для темпа 50 это значение составляет 60000000/50=1200000, а для темпа 250 это составит 240000. Так как, согласно проекту, в четверти содержится 48 тиков, то длина тика для минимально темпа составит 1200000/48=25000 мкс. А для максимального темпа, если посчитать аналогично, – 5000 мкс. Для МК с частотой кварца 8 мГц и максимальным предварительным делителем таймера, равным 1024, получаем следующее. Для минимального темпа таймеру нужно посчитать 25000/(1024/8)=195 раза. Результат округлён до ближайшего целого значения, погрешность округления практически не отражается на результате. Для максимального темпа – 5000/(1024/8)=39. Здесь погрешность округления не сказывается тем более, так как округлённое значение 39 получается и для соседних значений темпов от 248 до 253. Соответственно, таймер нужно инициализировать инверсным значением: для минимального темпа – (256-195)=61, а для максимального – (256-39)=217. Минимальный темп, при котором будет обеспечена работа с таймером в текущей конфигурации МК, составляет 39 bpm. При этом значении таймеру необходимо считать 250 раз. А при значении 38 – уже 257, что выходит за пределы разрядности таймера. Я решил взять в расчётах за минимальный темп значение в 40 bpm, а за максимальный – 240.
Для подсчёта количества тиков будет применяться виртуальный таймер на базе вышесказанного. Именно количество тиков и задаёт длительность ноты или паузы, о чём уже было сказано выше.
Для реализации воспроизведения нот используется второй, 16-битный таймер. Согласно спецификации миди, всего предусмотрено 128 нот. Но на практике их используется гораздо меньше. Более того, ноты самых нижних (с частотами около 50 Гц) и самых верхних (с частотами около 8 кГц) октав будут воспроизводиться микроконтроллером не совсем благозвучно. Но при всём при этом 16-битный таймер с фиксированным делителем охватывает почти весь диапазон нот, предусмотренный миди, а именно, без первых 35-ти. Но я выбрал в качестве начала ноту с номером 37 (её код 36, так как кодировка идёт от нуля). Это сделано для удобства, так как этому номеру соответствует нота «C», как первая нота в традиционном звукоряде. Именно ей соответствует частота 65.4 Гц, а полупериод составляет – 1/65.4/2=0.00764 сек. Этот период времени при частоте МК 8 мГц и делителе 1 (то есть без делителя) таймер отсчитает приблизительно в целом за 0.00764/(1/8000000)= 61156 раза. Для 35-й ноты, если подсчитать, данное значение составит 68645, что выходит за диапазон счёта 16-разрядного таймера. Но, даже если бы была необходимость воспроизводить ноты, ниже 36-й, можно ввести первый доступный делитель таймера, равный 8. Но практической необходимости в этом нет, как нет её даже и для воспроизведения самых верхних нот. Тем не менее, для самой верхней 128-й ноты, ноты «G» с частотой 12543.85 Гц, значения таймера составляет, если посчитать аналогично, 319. Специфика всех приведённых расчётов обусловлена определённой конфигурацией режима таймера, что будет показано позже.
Теперь у меня возник не менее важный вопрос: как получить зависимость между номером ноты и кодом для таймера? Есть известная формула для расчёта частоты ноты по её номеру. А код таймера для известной частоты вычисляется легко, как это было показано выше на примерах. Но в формуле зависимости частоты от ноты фигурирует корень 12-й степени, и вообще, не хотелось бы загружать контроллер такими вычислительными процедурами. С другой стороны, создавать массив кодов таймера для всех нот тоже не рационально. И я решил поступить следующим образом, выбрав золотую середину. Достаточно создать массив кодов таймера для самых первых 12-ти нот, которые составляют одну октаву. А ноты следующих октав получать последовательным умножением частот нот первой октавы на 2. Или, то же самое, последовательным делением значений кодов таймера на 2. Ещё одно удобство заключается в том, что номер октавы служит, по совпадению, аргументом в операции побитового сдвига вправо (»), которая будет применяться в качестве операции деления на степени двойки. Я выбрал этот оператор не случайно, так как его аргумент отражает показатель степени двойки делителя (количество деления на 2). А это и есть номер октавы. Для применяемого мною набора нот задействовано в целом 8 октав (последняя октава неполная). Нота в миди файле кодируется одним байтом, точнее, 7-ю битами. Для того чтобы воспроизвести ноты в МК, согласно вышесказанной идее, необходимо в первую очередь вычислить по коду ноты номер октавы и номер ноты в октаве. Данная операция осуществляется на этапе преобразования миди файла в упрощённый формат. Восемь октав, как раз, можно закодировать тремя битами, а 12 нот в октаве – четырьмя. Итого получается, что нота кодируется теми же семью битами, как и в миди файле, но только в другом представлении, удобном для МК. Из-за того, что 4-мя битами можно закодировать 16 комбинаций, а нот в октаве 12, имеются незадействованные байты.
Последний восьмой бит можно использовать, как маркер включения или отключения ноты. В случае с МК, ввиду одноголосности мелодии, информация об отключаемой ноте будет являться избыточной. При непосредственной смене ноты в мелодии происходит не «отключение-включение», а «переключение» ноты. А в случае наступления паузы происходит «включение тишины», для чего можно выделить специальный байт из множества незадействованных байтов, а информацию об отключении ноты и вовсе не использовать. Такая идея хороша тем, что экономит размер получившейся мелодии после преобразования, но в целом усложняет модель. Я не последовал этой идее, так как памяти и без того предостаточно.
Информация о нотах мелодии в миди файле хранится в блоке соответствующего канала в представлении «интервал-событие-интервал-событие…». В преобразованном формате применяется точно такой же принцип. Для записи события (включения или отключения ноты) используется, как уже говорилось выше, один байт. Первый бит (самый старший бит 7) кодирует тип события. Значение «1» — включение ноты, а значение «0» — отключение. Следующие три бита кодируют номер октавы, а самые младшие четыре бита – номер ноты в октаве. Для записи интервала времени также используется один байт. В оригинальном же формате миди для этого применяется формат переменной длины. Его небольшой недостаток заключается в том, что только 7 бит кодируют интервал времени (количество «тиков»), а восьмой бит служит признаком продолжения. То есть, одним байтом, фактически, можно закодировать интервал до 128 тиков. Но так как интервалы времени между событиями в реальных и простых мелодиях иногда превосходят 128, но почти никогда не превосходят 256, я отказался от формата переменной длины и обошёлся одним байтом. Именно он кодирует интервал времени до 256 тиков. Так как по проекту применяется 48 тиков на четверть, или же, 48\*4=192 тика на такт, то одним байтом можно закодировать интервал, длительностью в 256/192=1.(3) (одну целую и одну треть) такта, что вполне достаточно.
В собственном формате, в который преобразуется миди файл, я также применил небольшой заголовок, размером в 16 байт. Первые 14 байт содержат название мелодии. Естественно, длина названия не должна превосходить 14 символов. Затем следует нулевой пробел. Следующий последний байт отражает темп мелодии в представлении, удобном для МК. Это значение вычисляется на этапе преобразования и служит для инициализации таймера МК, отвечающего за темп. О том, как оно вычисляется, говорилось несколько абзацев выше.
Начиная с 17-ого байта, следует содержимое мелодии. Каждый нечётный байт соответствует интервалу времени, а каждый чётный – событию (ноте). Первый байт будет нулевой, если мелодия начинается с ноты, от начала миди файла, без предварительной паузы. Признаком конца мелодии служит метка из двух байтов 0xFF. Задача предусматривает циклическое воспроизведение мелодии микроконтроллером. Для того чтобы мелодия в цикле звучала благозвучно с точки зрения ритмики, её необходимо зациклить грамотно. Для этого, по необходимости, нужно выдержать после последней ноты паузу определённой длины, как правило, до заполнения последнего такта. А для этого нужно отвести соответствующее событие. Я задействовал байт 0x0F, который не используется в кодировании ноты. Он соответствует отключению 16-ой ноты в первой октаве, что является абсурдом, так как нот в октаве всего 12. О незадействованных байтах уже говорилось выше. Таким образом, данный байт кодирует «беззвучную ноту», старший бит которого также может служить признаком включения или отключения, несмотря на избыточность информации и в этом случае. Для задания этой ноты в миди редакторе я отвёл первую или вторую ноту (любую из них). Напомню, что в модели не используются первые 36 нот. Таким образом, первая (или вторая) нота используется по необходимости для правильного завершения мелодии, чтобы не нарушалась ритмичность при воспроизведении её в цикле.
Продолжая работать в редакторе «Cakewalk Pro Audio 9», составим произвольную мелодию. На рисунках ниже изображены ноты мелодии, которые я переписал с одной из картинок в Интернете. Изображения нот представлены в двух стилях: в стиле «Piano roll» и в классическом стиле. Первый очень удобен для написания и редактирования мелодии с помощью компьютерной мыши. Именно им я и пользуюсь.


Как видно из рисунка, в конце применена самая низкая (первая) нота для признака тишины на нужном временном отрезке, чтобы грамотно организовать цикличность. А в самом начале мелодии, ввиду наличия затакта, перед первой нотой есть отступ в одну четверть.
В редакторе предусмотрен режим отображения событий в табличном виде.

Как видно из рисунка, в списке событий нет ничего лишнего, кроме взятия нот, как порой это бывает при лишних манипуляциях над музыкальным проектом. Если всё же лишние события, не относящиеся к нотам, по каким-либо причинам попали в список, их можно удалить нажатием клавиши «Del». Хотя, на этапе преобразования все лишние события игнорируются, а дельта-время «накапливается». Этой функцией, кстати, я дополнял программу на этапе отладки. Как можно догадаться, таблица отражает время включения и время длительности каждой ноты совместно с другими свойствами, которые нам не нужны. То есть, одной строкой в таблице выражены сразу два миди события: включение и отключение ноты.
Сохраним мелодию в формат «миди 1», как показано на рисунке.

Откроем сохранённый файл в HEX редакторе. Сразу нужно оговорить, что, в отличие от тех же avi файлов (о чём я раньше писал), байты числовых значений в миди файле представлены не в реверсном порядке, а по старшинству (big endian).

На рисунке я отметил маркерами только нужные байты. Сначала жирной красной рамкой выделены три группы по два байта в каждой. Это соответственно, тип миди формата (1), число каналов (2) и число тиков на четверть (48). Именно такими значениями должны обладать эти три константы для дальнейшей работы программы по преобразованию. Пурпурными дугами отмечены начала каждого из двух каналов. В первом канале серой рамкой отмечены 6 байт, внутри которой голубой рамкой выделены три байта. Эти 6 байт относятся к мета событию (маркер-признак 0xFF) с кодом 0x51 и длиной содержимого в 0x03 байта. Три байта далее – содержимое события. Данное событие задаёт темп мелодии как раз этими тремя байтами в голубой рамке. Последний младший байт можно смело отбросить, ибо сверхточность не важна. Подробное и доскональное описание всех байтов в файле я приводить не буду. Во втором треке – в треке с нотами – в синюю рамку обведены значения интервалов времени. Они, между прочим, в данном конкретном примере, не превзошли одного байта, кроме единственного случая с предпоследней нотой. Именно предпоследняя нота мелодии (считая лишнюю псевдо ноту концовки) длится три четверти такта, что составляет 48\*3=144 тика и превосходит 128. И именно для неё приходится задействовать два байта, согласно формату переменной длины. А для представления интервала времени в преобразованном формате значение 144 легко кодируется одним байтом. Этот особый случай я обвёл в двойную синюю рамку. В зелёную рамку обведены ноты, точнее их коды. В серую рамку обведены громкости звучания каждой ноты. Как уже говорилось, нулевая громкость является признаком отключения (отпускания) ноты, и на протяжении всей композиции действует одно событие: включение ноты. Код этого события, 0x90, помечен жёлтой заливкой. Я не стал обрисовывать все ноты до конца мелодии. Единственное исключение – двойная синяя рамка для единственного интервала времени, превосходящего порог в 128 тиков.
Опять же, как говорилось выше, программа для преобразования миди файла в собственный формат для МК, на самом деле работает с группой из нескольких миди файлов, а на выходе создаёт файл-образ для EEPROM. Рассмотрим фрагмент из этого файла, который относится к содержимому преобразованной мелодии из примера выше. Я его открыл в другом HEX редакторе, чтобы показать образ по секторам и обратить на это внимание. Каждая новая мелодия начинается с нового сектора.

Последний байт из первой строки (первые 16 байт), обведённый в красную рамку, задаёт темп мелодии. По расчётам значение 0xC1 (193) приходится на темпы 154, 155 и 156. Как раз, я в проекте задавал темп мелодии 155 bpm, что было видно на одном из скриншотов ранее. Первые байты (до 14-го), обведённые в голубую рамку, определяют название композиции. В данном примере – «Classic». Для МК эта информация лишняя, она нужна только для ориентировки в HEX редакторе. Хотя, если делать более сложный проект на МК с применением дисплея, можно пользоваться этой информацией, отображая название воспроизводимой мелодии.
Со второй строки (с 17-го байта) начинается содержимое мелодии. Как и в случае с оригинальным файлом миди, я не стал раскрашивать все ноты, а раскрасил лишь часть. Нечётные байты, выделенные синей рамкой, являются интервалами времени. Чётные байты, выделенные зелёной рамкой, являются нотами совместно с признаками их включения/отключения. К примеру, первые два «зелёных» байта, 0xB4 и 0x34, относятся к одной и той же ноте с кодом 0x34, а байты отличаются только одним старшим битом. В байте 0xB4 (0b10110100) старший бит равняется единице, что является признаком включения ноты, а в байте 0x34 (0b00110100) старший бит равняется нулю, что является признаком отключения ноты. Байтом 0x34 закодирована нота с такими параметрами: код октавы 0b011, а код ноты в октаве – 0b0100. Или же, в десятичном виде, 3 и 4 соответственно. Если считать не от нуля, то получается, что первая нота в мелодии принадлежит четвёртой октаве и является в ней пятой по счёту. Нумерация октав здесь выбрана произвольно без учёта стандартных нумераций. Оговоренная нота, согласно моей расчётной вспомогательной таблице Excel, является нотой с кодом 76 (0x4C) для миди формата, то есть нотой E6 (нота «ми» 6-ой миди октавы). Так оно и есть: композиция начинается именно с этой ноты.
Нельзя не отметить особый случай в нотной последовательности, когда одна и та же нота повторяется без паузы. В нашем примере все соседние ноты, которые без пауз, разные. Но встречаются мелодии, где нота без паузы повторяется. То есть, интервал времени между отключением одной и включением следующей за ней точно такой же ноты равен нулю. Ввиду особенности сложного синтеза музыки подобная последовательность будет звучать привычно на любом синтезаторе. Но в случае с МК это будет звучать настолько слитно, что на слух будет сложно различить границу между двумя одинаковыми нотами. На практике, конечно же, чёткого слияния не будет из-за промежуточных вычислений, происходящих в МК, но всё равно, данный интервал времени вероятнее всего будет гораздо меньше длительности даже одного тика. Для таких особых случаев программа на этапе преобразования, натыкаясь на такую комбинацию, вводит паузу между нотами, длиной в 1 тик и уменьшает длительность стоящей левее ноты на этот же интервал времени. Минимального «зазора» в 1 тик вполне достаточно, как показала практика.
В двойную синюю рамку я обвёл то значение интервала времени (0x90), которое превосходит 128, и на которое пришлось потратить в миди файле два байта, согласно формату переменной длины. Зелёными кружками обведены байты включения и отключения той самой псевдо ноты для выравнивания композиции. Программа МК, увидев эти байты, будет интерпретировать их как включение тишины. Наконец, два байта 0xFF, обведённые в жирную синюю рамку, являются признаком конца мелодии. Значения всех следующих байтов в пределах текущего сектора памяти могут быть любыми, они игнорируются.
Рассмотрим самый первый сектор выходного файла-образа EEPROM. Как уже я писал, он служит списком адресов секторов начал мелодий. Программа успешно просканировала 8 мелодий без ошибок (на момент написания статьи я записал 8 мелодий). Значение количества мелодий записывается в последний 512-й байт сектора. А с самого начала сектора записываются адреса. Для первой мелодии адрес равен 0x01, что соответствует второму сектору (первому, если считать с нуля). Третья и четвёртая мелодия (две из восьми) оказались длинноватыми и не поместились в один сектор. Поэтому в последовательности адресов наблюдаются пропуски. На память, размером 64кБ, если посчитать, можно записать не более 127 мелодий, поэтому одного сектора для адресации вполне достаточно.

Все предварительные оценки и расчёты, отражённые в статье, я проводил в Excel. Ниже на рисунках приведены скриншоты получившихся таблиц (в двухоконном режиме).


Кому интересно, ниже под спойлером приведён текст программы на Си, которая преобразует миди файлы в файл для микроконтроллера. Из текста я убрал лишние строчки, которые служили для отладки. Программа, пока что, рабочая, на читаемость и грамотность написания кода не претендует.
**Основной файл 1.cpp**
```
#include
#include
#include
#define SPACE 1
HANDLE openInputFile(const char \* filename) {
return CreateFile ( filename, // Open Two.txt.
GENERIC\_READ, // Open for writing
0, // Do not share
NULL, // No security
OPEN\_ALWAYS, // Open or create
FILE\_ATTRIBUTE\_NORMAL, // Normal file
NULL); // No template file
}
HANDLE openOutputFile(const char \* filename) {
return CreateFile ( filename, // Open Two.txt.
GENERIC\_WRITE, // Open for writing
0, // Do not share
NULL, // No security
OPEN\_ALWAYS, // Open or create
FILE\_ATTRIBUTE\_NORMAL, // Normal file
NULL); // No template file
}
void filepos(HANDLE f, unsigned int p){
LONG LPos;
LPos = p;
SetFilePointer (f, LPos, NULL, FILE\_BEGIN); //FILE\_CURRENT
//https://docs.microsoft.com/en-us/windows/desktop/api/fileapi/nf-fileapi-setfilepointer
}
DWORD wr;
DWORD ww;
unsigned long int read32(HANDLE f){
unsigned char b3,b2,b1,b0;
ReadFile(f, &b3, 1, ≀, NULL);
ReadFile(f, &b2, 1, ≀, NULL);
ReadFile(f, &b1, 1, ≀, NULL);
ReadFile(f, &b0, 1, ≀, NULL);
return b3<<24|b2<<16|b1<<8|b0;
}
unsigned long int read24(HANDLE f){
unsigned char b2,b1,b0;
ReadFile(f, &b2, 1, ≀, NULL);
ReadFile(f, &b1, 1, ≀, NULL);
ReadFile(f, &b0, 1, ≀, NULL);
return b2<<16|b1<<8|b0;
}
unsigned int read16(HANDLE f){
unsigned char b1,b0;
ReadFile(f, &b1, 1, ≀, NULL);
ReadFile(f, &b0, 1, ≀, NULL);
return b1<<8|b0;
}
unsigned char read8(HANDLE f){
unsigned char b0;
ReadFile(f, &b0, 1, ≀, NULL);
return b0;
}
void message(unsigned char e){
printf("Error %d: ",e);
switch(e){
case 1: //В мета-треке встретилось не мета-событие;
printf("In track0 event is not FF\n");
break;
case 2: //Длина мета-события превышает 127
printf("Len of FF >127\n");
break;
case 3: //Неподходящий формат миди;
printf("Midi is incorrect\n");
break;
case 4: //Превышение дельта времени события;
printf("Delta>255\n");
break;
case 5: //В сообщении контроллера встретились RPN или NRPN;
printf("RPN or NRPN is detected\n");
break;
case 6: //Нота вне допустимого диапазона;
printf("Note in 1...35 range\n");
break;
case 7: //Превышение длинны имени миди файла;
printf("Long of name of midi file >18\n");
break;
}
system("PAUSE");
}
int main(){
HANDLE in;
HANDLE out;
unsigned int i,j;
unsigned int inpos;
unsigned int outpos=0;
unsigned char byte; //Просто байт;
unsigned char byte1; //Байт данных 1 сообщения канала;
unsigned char byte2; //Байт данных 2 сообщения канала;
unsigned char status; //Статус-байт (для запоминания);
unsigned char sz0; //Длина мета-события;
unsigned long int bsz0; //Размер блока трека с мета-данными;
unsigned short int format, ntrks, ppqn; //Данные блока заголовка;
unsigned long int bsz1; //Размер блока трека с нотами;
unsigned long int bpm; //Темп (в микросек. на четверть);
unsigned long int time=0; //Продолжительность мелодии в тиках (для статистики);
unsigned char scale; //Выходной байт для таймера МК, задающий темп;
unsigned char oct; //Номер ноты в пределах октавы;
unsigned char nt; //Номер октавы;
unsigned char outnote; //Выходная нота в моём формате для МК;
unsigned char prnote=0; //Запоминание предыдущей ноты;
unsigned char tdt; //Байт (часть) величины переменной длины;
unsigned int dt; //Расчитанная величина переменной длины (в тиках);
unsigned int outdelta=0; //Длительность ноты или тишины (в тиках);
unsigned char prdelta=0; //Запоминание предыдущего ноты;
char fullname[30]; //Имя входного файла с директорией;
char name[16]; //Название мелодии;
WIN32\_FIND\_DATA fld; //Структура с файлом mid;
HANDLE hf;
unsigned short int csz; //Размер текущей мелодии;
unsigned char nfile=0; //Число мелодий;
unsigned char adr[128]; //Буфер с адресами начал мелодий;
out=openOutputFile("IMAGE.out");
outpos=512; //Отсюда начнётся первая мелодия;
filepos(out,outpos);
hf=FindFirstFile(".\\midi\\\*.mid",&fld);
do{
printf("\n\*\*\*\*\* %s \*\*\*\*\*\n",fld.cFileName);
if(strlen(fld.cFileName)>18){ //Контроль длины имени файла;
message(7);
}
sprintf(name,"%s",fld.cFileName);
name[strlen(fld.cFileName)-4]=0; //Обрезка расширения;
sprintf(fullname,".\\midi\\%s",fld.cFileName); //Формируем полное имя с подкаталогом;
WriteFile(out, name, strlen(name), &ww, NULL); //Записываем название мелодии в заголовок;
in=openInputFile(fullname); //Открываем миди файл на обработку;
#include "process.cpp" //Основная часть программы в другом файле;
outpos+=((csz/512)+1)\*512; //Переходим на ближайший новый сектор;
adr[nfile]=(outpos/512)-((csz/512)+1); //Номер сектора (адрес) для обработанной мелодии;
filepos(out,outpos);
CloseHandle(in);
nfile+=1;
}while(FindNextFile(hf,&fld)); //Переход на следующий файл, пока они не кончатся;
FindClose(hf);
WriteFile(out, &outnote, 1, &ww, NULL);
outpos=0; //Здесь адреса начал мелодий;
filepos(out,outpos);
WriteFile(out, adr, nfile, &ww, NULL);
outpos=511; //Здесь количество мелодий;
filepos(out,outpos);
WriteFile(out, &nfile, 1, &ww, NULL);
CloseHandle(out);
system("PAUSE");
return 0;
}
```
**Вложенный файл process.cpp**
```
time=0;
inpos=8;
//Обработка блока заголовка;
filepos(in,inpos);
format=read16(in);
ntrks=read16(in);
ppqn=read16(in);
if(format!=1 || ntrks!=2 || ppqn!=48){
message(3);
}
inpos+=10;
filepos(in,inpos);
//Обработка блока трека с мета-данными;
bsz0=read32(in);
inpos+=4;
while(inpos<22+bsz0){ //Пока не будут обработаны все байты блока;
tdt=read8(in);
inpos+=1;
//Обработка формата переменной длины;
dt=(unsigned int)(tdt&0x7F);
while(tdt&0x80){
tdt=read8(in);
inpos+=1;
dt=(dt<<7)|(tdt&0x7F);
}
byte=read8(in);
inpos+=1;
if(byte==0xFF){ //Расчитываю на то, что мета-трек состоит только из мета-событий;
byte=read8(in); //Считываем тип мета-события;
sz0=read8(in); //Считываем его длину, надеясь, что оно не длиннее 127 (для простоты);
if(sz0&0x80){
message(2);
}
inpos+=2;
switch(byte){
case 0x51: //Меня интересует только "Set Tempo";
bpm=read24(in);
scale=256-(bpm/(ppqn*128));
printf("scale=%d\n",scale);
filepos(out,outpos+15); //Записываем темп;
WriteFile(out, &scale, 1, &ww, NULL);
csz=16;
break;
default:
break;
}
inpos+=sz0;
filepos(in,inpos); //Это обязательно, если не попаду на 0x51;
}else{
message(1);
}
}
//Обработка блока трека с нотами;
outdelta=0;
inpos+=4;
filepos(in,inpos);
bsz1=read32(in);
inpos+=4;
while(inpos<30+bsz0+bsz1){
tdt=read8(in);
inpos+=1;
//Обработка формата переменной длины;
dt=(unsigned int)(tdt&0x7F);
while(tdt&0x80){
tdt=read8(in);
inpos+=1;
dt=(dt<<7)|(tdt&0x7F);
}
outdelta+=dt; //Накапливаем время события;
//Накопление актуально, если посреди нотных событий встречаются другие, ненотные;
time+=dt; //Накапливаем общее время;
byte=read8(in); //Это может быть и статус, и данные;
inpos+=1;
if(byte&0x80){ //Если это статус;
status=byte; //Обновляем статус;
if(byte==0xFF){ //Если вдруг это мета-данные;
byte=read8(in); //То пропускаем всё их содержимое, они нас не интересуют;
sz0=read8(in);
inpos+=(2+sz0);
filepos(in,inpos);
}else{ //Иначе считываем первый байт данных;
byte1=read8(in);
inpos+=1;
}
}else{ //А если это не статус, то это первый байт данных для предыдущего статуса;
byte1=byte;
}
switch(status&0xF0){ //Анализируем статус, не обращая внимания на номер канала;
case 0xF0: //Это уже перехвачено ранее, как мета-событие;
break;
case 0x80: //Отключение ноты;
byte2=read8(in); //Считываем второй ненужный байт данных (динамика ноты);
inpos+=1; //А первый байт содержит номер ноты, с ним и работаем;
if(byte1>1&&byte1<36){ //Ноты не должны быть из этого диапазона по моему проекту;
message(6);
}
if(byte1>1){ //Обычная нота;
oct=((byte1-36)/12); //Расчёт номера октавы;
nt=(byte1-36)%12; //Расчёт номера ноты в октаве;
}else{ //Псевдо нота для выравнивания;
oct=0;
nt=15;
}
outnote=(oct<<4)|nt; //Формирование выходного байта;
prnote=outnote;
prdelta=outdelta;
if(outdelta>255){ //Длительность события не должна превышать 255 (по моей идее);
message(4);
}
WriteFile(out, &outdelta, 1, &ww, NULL);
WriteFile(out, &outnote, 1, &ww, NULL);
csz+=2;
outdelta=0; //Инициализируем длительность заново;
break;
case 0x90: //Включение и отключение ноты;
byte2=read8(in); //Считываем второй байт данных (динамика ноты);
inpos+=1; //А первый байт содержит номер ноты, с ним и работаем;
if(byte1>1&&byte1<36){ //Ноты не должны быть из этого диапазона по моему проекту;
message(6);
}
if(byte1>1){ //Обычная нота;
oct=((byte1-36)/12); //Расчёт номера октавы;
nt=(byte1-36)%12; //Расчёт номера ноты в октаве;
}else{ //Псевдо нота для выравнивания;
oct=0;
nt=15;
}
if(byte2){ //Если динамика ненулевая, это включение ноты;
outnote=0x80|(oct<<4)|nt; //Старший бит = 1;
//Устранение слияния одинаковых нот;
if(!outdelta && (outnote&0x7F)==prnote){ //Если нет паузы и ноты совпадают;
prdelta-=SPACE; //Корректируем дельта-время;
filepos(out,outpos+csz-2); //Становимся на две позиции назад;
WriteFile(out, &prdelta, 1, &ww, NULL); //Записываем коррекцию;
filepos(out,outpos+csz);
outdelta=SPACE; //Вместо нуля - величина коррекции;
}
}else{ //Если динамика нулевая, это эквивалент отключения ноты;
outnote=(oct<<4)|nt;
prnote=outnote; //Запоминание текущей ноты;
prdelta=outdelta; //Запоминание текущего дельта-времени;
}
if(outdelta>255){ //По моему проекту дельта-время должно умещаться в байт;
message(4);
}
WriteFile(out, &outdelta, 1, &ww, NULL);
WriteFile(out, &outnote, 1, &ww, NULL);
csz+=2;
outdelta=0; //Переинициализация дельта-времени для очередного накопления;
break; //Все остальные статусы (команды) игнорируем;
case 0xA0: //Сообщение послекасания;
byte2=read8(in);
inpos+=1;
break;
case 0xB0: //Номер и значение контроллера;
if(byte1>=98&&byte1>=101){ //Если вдруг встретятся вложенные контроллеры NRPN и RPN;
message(5); //Предупредить об этом;
}
byte2=read8(in);
inpos+=1;
break;
case 0xC0: //Номер программы (муз. инструмент канала);
//Эта команда, например, не имеет второго байта;
break;
case 0xD0: //Давление;
break;
case 0xE0: //Звуковысотное колесо;
byte2=read8(in);
inpos+=1;
break;
default: //Всё остальное (оно не должно встретиться);
break;
}
}
//Записываем в конец файла метку 0xFFFF, как признак конца мелодии;
outdelta=255;
outnote=255;
WriteFile(out, &outdelta, 1, &ww, NULL);
WriteFile(out, &outnote, 1, &ww, NULL);
csz+=2;
//Вывод продолжительности в тиках, полных тактах и оставшихся тиках;
printf("Length: %i (%i:%02i)\n",time,time/192,time%192);
```
Базовая часть программы для МК, на самом деле, весьма простая. Рассмотрим один из вариантов её реализации, точнее, её основную часть.
Таймер 1, применяемый для генерации звучания нот, конфигурируется следующим образом. Для включения и отключения ноты используются соответственно следующее подстановки.
```
#define ENT1 TCCR1B=0x09;TCCR1A=0x40
#define DIST1 TCCR1B=0x00;TCCR1A=0x00;PORTB.1=0
```
Перед включением таймера нужно присвоить регистру OCR1A 16-битное значение, которое будет соответствовать воспроизводимой частоте. Это будет показано далее. При включении таймера регистру TCCR1B присваивается режим «Waveform Generation Mode» c делителем таймера, равным 1, а регистру TCCR1A – «Toggle OC1A on Compare Match». При этом сигнал снимается со специально отведённого вывода МК «OC1A». В ATmega8 в SMD корпусе это вывод с номером 13, он же совпадает с PORTB.1. При отключении таймера оба регистра обнуляются, а вывод PORTB.1 принудительно становится в ноль. Это нужно для того, чтобы предотвратить во время тишины выход постоянного напряжения, который будет нежелательным для входа УНЧ. Хотя, можно поставить в цепи конденсатор, но можно и программно отключать вывод. Постоянное напряжение может возникнуть на этом выводе в том случае, если нота будет отключена в момент соответствующей фазы сигнала, а это в 50% случаев.
Создадим массив значений таймера для 12-ти нот самой первой октавы. Данные значения были рассчитаны заранее.
```
freq[]={61156,57724,54484,51426,48540,45815,43244,40817,38526,36364,34323,32396};
```
Значения нот других октав, как я уже говорил, будут получаться методом деления на степени двойки.
Конфигурация таймера 0 ещё проще. Он работает постоянно, с прерыванием по переполнению, каждый раз инициализируясь заново тем значением, который соответствует темпу мелодии. Делитель таймера равен 5: TCCR0=0x05. На базе этого таймера создан виртуальный таймер, который отсчитывает тики (отрезки времени) в мелодии. Обработка реакции срабатывания этого таймера помещена в основной цикл программы.
Функция прерывания таймера 0 выглядит следующим образом.
```
interrupt [TIM0_OVF] void timer0_ovf_isr(void){
if(ent01){
vt01+=1;
}
TCNT0=top0;
}
```
Здесь переменная ent01 отвечает за активирование виртуального таймера. По этой переменной его можно включить или отключить при необходимости. Переменная vt01 – счётная основная переменная виртуального таймера. Строка TCNT0=top0 обозначает инициализацию таймера 0 на нужное значение top0, которое считывается из заголовка мелодии перед её воспроизведением.
Номеру мелодии, которую нужно воспроизвести, соответствует переменная alm. Она же служит и флагом начала воспроизведения. Ей нужно присвоить номер мелодии одним из способов, в зависимости от поставленной задачи. После этого станет активным следующий блок основного цикла.
```
if(alm){ //Как только номер мелодии не ноль;
adr=eepr(alm-1)<<9; //Узнаём адрес по номеру мелодии (<<9 это умножение на 512);
adr+=15; //Позиционируемся на то место, где прописана информация о темпе мелодии;
top0=eepr(adr); //Считываем это значение;
adr+=1; //Позиционируемся на начало самих нот мелодии;
adr0=adr; //Запоминаем этот адрес во временную переменную (нужно для зацикливания);
top01=eepr(adr); //Считываем первое значение количества тиков в "вершину счёта" виртуального таймера;
adr+=1; //Переходим на первую ноту;
note=eepr(adr); //Считываем ноту;
adr+=1; //Переходим на второе значение дельта-времени;
vt01=0; //Подготавливаем виртуальный таймер к работе;
ent01=1; //Запускаем виртуальный таймер;
TCNT0=0; //Запускаем базовый таймер;
alm=0; //Чтобы в цикле повторно не попасть в этот блок, обнуляем номер мелодии;
}
```
Дальнейшие переключения с ноты на ноту осуществляется в блоке обработки виртуального таймера, который также помещён в основной цикл.
```
if(vt01>=top01){ //Как только сработает ВТ, отсчитав нужное количество тиков;
vt01=0; //Инициализируем ВТ заново;
if(note&0x80){ //Если считанная нота с меткой "включить";
nt=note&15; //Вычисляем номер ноты в октаве;
oct=(note&0x7F)>>4; //Вычисляем номер октавы;
if(nt!=15){ //Если номер ноты в октаве не равен 15, это обычная нота;
OCR1A=freq[nt]>>oct; //Конфигурируем нотный таймер на нужную частоту;
//Подробное описание идей и операций этой краткой записи было ранее;
ENT1; //Включаем ноту;
}else{ //Иначе это "волшебная нота" для выравнивания концовки;
DIST1; //Включаем тишину;
}
}else{ //Иначе это нота с меткой "выключить";
DIST1; //Включаем тишину;
}
top01=eepr(adr); //Считываем следующее количество тиков в переменную "вершина ВТ";
adr+=1; //Переходим на следующую ноту;
note=eepr(adr); //И также её считываем;
adr+=1; //Идём дальше;
if(note==255 && top01==255){ //Анализируем считанные значения на предмет конца мелодии;
top01=eepr(adr0); //Переходим на начальный адрес, который заранее запомнили;
note=eepr(adr0+1); //Считываем начальные параметры аналогично;
adr=adr0+2; //Продвигаемся на следующую пару;
}
}
```
Из комментариев в тексте программы всё должно быть достаточно ясно и понятно.
Для остановки мелодии применяется следующая вставка основного цикла.
```
if(stop){ //Флаг остановки мелодии;
DIST1; //Отключаем нотный таймер;
ent01=0; //Отключаем виртуальный таймер;
vt01=0; //Сбрасываем виртуальный таймер;
}
```
Есть небольшое замечание по поводу реализации воспроизведения мелодии. Перед началом звучания каждой новой ноты микроконтроллер тратит небольшое количество времени на преобразование прочитанного байта ноты в величину значения таймера. Это время, как оказалось на практике, сравнительно небольшое, и на качестве воспроизведения не отражается. Но у меня были сомнения, что данная операция останется незаметной. При этом возникали бы лишние паузы перед каждой нотой, и ритмичность мелодии была бы нарушена. Но данная проблема тоже решаема. Достаточно рассчитывать значения таймера следующей ноты заранее, пока звучит текущая нота. Эту процедуру по специально отведённому флагу нужно выполнять отдельно от обработки виртуального таймера в основном цикле программы. Ввиду того, что время расчёта вряд ли превзойдёт время звучания даже самой короткой ноты, такое решение уместно.
Теперь перейдём к тестированию программы.
Помимо вышеприведённых фрагментов кода, в программу МК я добавил функции обработки кнопок, с помощью которых я управляю включением или отключением той или иной мелодии. К МК подключена EEPROM по I2C шине, работа с которой реализована на программном уровне. Проект делал при помощи «CodeVisionAVR» совместно с «CodeWizardAVR». Выход МК с вывода 13 подаю на звуковую карту ПК через делитель и записываю звук мелодии в звуковом редакторе. Память EEPROM я прошивал с помощью программно-аппаратных средств, о которых я писал в одной из предыдущих статей. Из-за того, что не все байты файла-образа являются полезными, прошивку памяти можно осуществлять только по полезным байтам (до маркеров конца мелодий) с целью экономии времени записи и ресурса чипа. Для этого можно сделать отдельную программу, или же, осуществлять запись байтов в чип непосредственно во время преобразования, дополнив основную программу.
Среди восьми мелодий есть три тестовых, с помощью которых я оценю на слух частотный диапазон, звучание сливающихся одинаковых нот, звучание самых коротких нот, быстрые переходы и т.д. Напомню, что сливающиеся одинаковые ноты звучат на самом деле с паузой в один тик, а первая нота в слиянии длится на один тик меньше.
Одна из тестовых мелодий – последовательность нот с первой по последней при длительности одной ноты в одну четверть и темпом мелодии 40 bpm.

При таком раскладе одна нота звучит чуть больше секунды, и поэтому можно детально прослушать, как звучит весь диапазон нот. На частотном спектре в звуковом редакторе «Adobe Audition» наблюдаются основные частотные составляющие и их верхние гармоники ввиду соответствующей пилообразной формы сигнала. А ещё в глаза бросается логарифмическая зависимость между номером ноты и частотой.

Анализируя промежутки времени, отчётливо видно, что реальная пауза между подряд идущими нотами составляет в среднем примерно 145 семплов (при частоте дискретизации аудиозаписи 44100 Гц), что составляет порядка 3 мс. Это и есть то время, в течение которого МК проделывает необходимые вычисления. Данные вставки присутствуют регулярно перед каждой нотой. Я специально написал значение в семплах, так как эта информация оригинальнее и точнее, хотя, это не особо принципиально.

А длина одного тика при среднем темпе мелодии 120 bpm составляет порядка 10 мс. Отсюда следует, что, в принципе, можно было бы не вводить ту самую поправку в 1 тик, когда две одинаковые ноты идут одна за другой без паузы. Думаю, что регулярной вставки в 3 мс между нотами вполне бы было достаточно. При прослушивании мелодии данные регулярные вставки вообще не заметны, и мелодии звучат ровно. Поэтому нет особой необходимости выполнять расчёт значения таймера для следующей ноты во время звучания текущей.
Другая тестовая мелодия с темпом 200 bpm содержит подряд идущие одинаковые 1/32 ноты из среднего диапазона без паузы. В этом случае после обработки при воспроизведении между ними присутствует пауза в 1 тик, что составляет при данном быстром темпе 310 семплов (около 6 мс) записанного сигнала.

Длина данной паузы, кстати, сравнима с периодом сигнала, что говорит о высоком темпе мелодии. А её звучание напоминает трель.
В принципе, на этом можно закончить. Результатом работы устройства я остался доволен, он превзошёл все ожидания. Большую часть времени я посвятил изучению миди формата и отладке программы для преобразования. Одну из следующих статей я также посвящу теме, связанной с миди, где будет рассказано о применении этого формата в других интересных приложениях. | https://habr.com/ru/post/454514/ | null | ru | null |
# Конвертация длинных ссылок в короткие
Небольшой скрипт для приведение URL в емаксе в приличный вид. Работает через сервис bit.ly.
Интерфейс представлен функцией short-url-dwim. Если она вызвана, когда курсор находится над URL (указания протокола требуется), то URL заменяется на короткую ссылку. В другом случае будет предложено ввести URL в минибуфере, короткая ссылка будет вставлена на место курсора.
Сообщения об ошибках выводятся в минибуфере.
#### Код скрипта:
`(defvar short-url-user "emacsshorturl")
(defvar short-url-apiKey "R_ac13b2e481b5a73db361ddfa1430fef5")
(defun short-url (url place-url)
(unless url (error "Url is nil"))
(let ((reply (replace-regexp-in-string
"\n" ""
(shell-command-to-string
(concat "curl --url \"api.bit.ly/shorten\" -F version=\"2.0.1\" -F"
"longUrl=\"" url "\""
" -F login=\"" short-url-user
"\" -F apiKey=\"" short-url-apiKey
"\" 2> /dev/null")))))
(when (string-match ".*\"errorMessage\": \"\\([^\"]+\\)\".*" reply)
(error (concat
"ERROR: "
(replace-regexp-in-string
".*\"errorMessage\": \"\\([^\"]+\\)\".*"
"\\1" reply))))
(let ((shortUrl (replace-regexp-in-string
".*\"shortUrl\": \"\\([^\"]*\\)\".*"
"\\1" reply)))
(when place-url
(delete-region (car place-url) (cdr place-url)))
(insert shortUrl))))
(defun short-url-dwim ()
(interactive)
(let ((bounds-url (bounds-of-thing-at-point 'url)))
(if bounds-url
(short-url (thing-at-point 'url) bounds-url)
(short-url-user-url (read-from-minibuffer "URL: ")))))
(provide 'short-url)`
#### Установка и настройка
Код необходимо поместить в файл c именем «short-url.el» в вашу load-path папку. Далее в .emacs поместить следующий код:
`(require 'short-url)`
Крайне рекомендую зарегистрироваться на bit.ly и настроить скрипт на свой аккаунт. Для этог есть как минимум 2 причины:
* У вас будет статистика посещения ваших ссылок.
* У вас ничего не отвалится, если что-то изменится с аккаунтом установленным по умолчанию.
Для этого допишите в .emacs следующее:
`(setq short-url-user <Ваш логин>)
(setq short-url-apiKey <Ваш apiKey>)` | https://habr.com/ru/post/63995/ | null | ru | null |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.