text stringlengths 20 1.01M | url stringlengths 14 1.25k | dump stringlengths 9 15 ⌀ | lang stringclasses 4
values | source stringclasses 4
values |
|---|---|---|---|---|
# Как отличить начинающего профессионала от умудренного хоббиста в цифровой схемотехнике?
В чем главное отличие между FPGA-хоббистом, ностальгирующим по КР580ИК80 на пенсии - и начинающим микроархитектором, ориентированным на будущее трудоустройство в передовую процессорную компанию или сфинансированный венчурными капиталистами стартап?
Три слова: **понимание концепции конвейера**. Молодым профессионалом, не старым хоббистом.
Это наглядно видно, если вы погуглите тексты про FPGA для начинающих. Если текст пишет программист, которому захотелось потрогать FPGA чисто для разнообразия, он как правило до конвейера не доходит. Помигает лампочками, поговорит про конечные автоматы и может начнет встраивать какую-нибудь FPGA-реализацию старого 8-битного процессора.
(Некоторые из таких людей даже пишут книги - [вот](https://github.com/robertdunne/FPGA-ARM/blob/master/Listing_8-2.txt) некий Роберт Дунне реализовал процессор конечным автоматом с состояниями fetch/decode/execute, но до конвейера не дожал)
Все это происходит потому, что понимание работы конвейера как правило требует некоего мозгового усилия, типа толчка штанги. И если мозг уже поставлен десятилетиями программирования на Си и ассемблере, он упирается, потому что это ему контринтуитивно.
Но это надо преодолеть, поскольку если вы придете интервьироваться в какой-нибудь AMD на позицию юного проектировщика, вас будут спрашивать не как помигать лампочками и засунуть Радио РК-86 в Xilinx, а как стоя перед интервьирующим написать на доске на языке описания аппаратуры Verilog конвейерную реализацию какого-нибудь умножения со сложением. Или сделать это на компьютере отрезанном от интернета, так что вы даже не cможете нагуглить решение - вот садисты, а?
Именно этому вопросу будет посвящено следующее занятие [Сколковской Школы Синтеза Цифровых Схем](http://www.chipexpo.ru/shkola-sinteza-cifrovyh-shem-na-verilog).
Это занятие состоится 4 декабря в Технопарке "Альтаир" МИРЭА
(пр-т Вернадского, 86, стр.2, Метро"Юго-Западная)
Вот живой линк на трансляцию:
В свое время я написал [тест в стиле ЕГЭ](https://silicon-russia.com/public_materials/2016_11_04_one_day_mipsfpga_connected_mcu_materials_public_for_the_website/06_optional_introductory_materials_if_necessary_for_the_audience/08_quizes/quiz_5_comb_seq_pipe_1.html) для студентов университета под названием NPU в Фримонт, Калифорния, где я помогал преподавать компьютерную архитектуру Тимуру Палташеву из AMD. В тесте приводились три реализации арифметического блока для вычисления возведения числа - комбинационная, последовательностная и конвейерная.
Этот тест я приведу ниже, а до него приведу аллегорическое объяснение информации, нужной для прохождения теста, из [другого моего текста](https://panchul.livejournal.com/268104.html):
> **Разъяснение на пальцах концепций комбинационной (combinational), секвенциальной (sequential) и конвейерной (pipelined) организации вычислений**
>
> Представьте, что вам нужно организовать работу медкомиссии военкомата. Это можно сделать несколькими способами, в зависимости от поставленных целей.
>
> Если целью является минимизация количества помещений для осмотра, то можно усадить всех членов комиссии в одну большую комнату, в которую впускать по одному. Это пример комбинационной (combinational) организации вычислений. Недостатком его будет то, что каждый акт осмотра будет долгим, а члены комиссии будут скучать [каждый из четырех членов комиссии соответствует схеме умножения на схеме ниже].
>
>
Как это выглядит в виде кода на языке описания аппаратуры Verilog, а также синтезированной из него схемы (до mapping-а, размещения и трассировки). Комбинационный каскад из пяти операций умножения:
```
module pow_5_implementation_1
(
input [17:0] n,
output [17:0] n_pow_5
);
assign n_pow_5 = n * n * n * n * n;
endmodule
```

> Если целью является минимизация количества специалистов, то можно устроить и так, но при этом у военкоматовца-одиночки должно быть несколько специальностей (глазник, зубник, уролог), и нужно будет нанять специального товарища, который бы временно выводил допризывника из комнаты, пока военкоматовец меняет в ней оборудование - вешает табличку проверки зрения на стену, ставит зубоврачебное кресло (обстановка, определяемая состоянием конечного автомата, state). А потом помощник по звоночку (тактовому сигналу, clock) вводил бы допризывника обратно для следущей стадии осмотра.
>
> Это пример последовательностной (sequential) организации вычислений. Частным случаем такой организации вычислений является популярный в 1970-х годах микрокод - трюк, который я не буду рассматривать в данном посте.
>
>
Соотвественно (здесь у нас только операция умножения, которое повторяется пять раз, Но можно построить пример, в котором тут будет ALU с разными операциями в каждом такте):
```
module pow_5_implementation_3
(
input clock,
input reset_n,
input run,
input [17:0] n,
output ready,
output [17:0] n_pow_5
);
reg [4:0] shift;
always @(posedge clock or negedge reset_n)
if (! reset_n)
shift <= 0;
else if (run)
shift <= 5'b10000;
else
shift <= shift >> 1;
assign ready = shift [0];
reg [17:0] r_n, mul;
always @(posedge clock)
if (run)
begin
r_n <= n;
mul <= n;
end
else
begin
mul <= mul * r_n;
end
assign n_pow_5 = mul;
endmodule
```

> Наконец, если у вас есть много комнат и специалистов, то можно организовать конвейер (pipeline), который будет обеспечивать наибольшую пропускную способность, в идеальном случае определяемую только одним (самым медленным) специалистом. В неидеальном случае допризывник может начать пререкаться и затормозит процесс для всех (stall) или для всех. кто стоит за ним (slip). Против этого существуют всякие out-of-order методы, которые я не буду рассматривать в этом посте - наш "военкомат" (конвейер для вычисления функции) будет работать идеально.
>
>
На фото выше - только одна комната. Можно представить несколько комнат с медиками, которые пересекает в процессе допризывник, как чиcло n пересекает пять "комнат" (регистров из D-триггеров, перед которыми сидят медики - четыре операции умножения.
```
module pow_5_implementation_2
(
input clock,
input [17:0] n,
output reg [17:0] n_pow_5
);
reg [17:0] n_1, n_2, n_3;
reg [17:0] n_pow_2, n_pow_3, n_pow_4;
always @(posedge clock)
begin
n_1 <= n;
n_2 <= n_1;
n_3 <= n_2;
n_pow_2 <= n * n;
n_pow_3 <= n_pow_2 * n_1;
n_pow_4 <= n_pow_3 * n_2;
n_pow_5 <= n_pow_4 * n_3;
end
endmodule
```
А теперь вы можете сами ответить на вопросы, которые я задавал студентам в Северо-Западном Политехническом Университете по поводу этих трех схем:
**7. Which implementation is likely to allow the highest maximum frequency (assuming that the outputs of the combinational implementation are connected to clocked register)?**
a) pow\_5\_implementation\_1; b) pow\_5\_implementation\_2; c) pow\_5\_implementation\_3
**8. Which implementation is likely to use the smallest number of gates?**
**9. Which implementation is likely to have the highest throughput (number of calculated pow\_5(n) results per seconds)?**
**10. Which implementation is going to have the smallest latency in clock cycles (assuming that the outputs of the combinational implementation are connected to clocked registers)?**
И коронный вопрос:
**11. The testbench instantiated all three implementations of pow\_5.**
```
module testbench;
reg clock;
reg reset_n;
reg run;
reg [17:0] n;
wire ready;
wire [17:0] n_pow_5_implementation_1;
wire [17:0] n_pow_5_implementation_2;
wire [17:0] n_pow_5_implementation_3;
initial
begin
clock = 1;
forever # 50 clock = ! clock;
end
initial
begin
repeat (2) @(posedge clock);
reset_n <= 0;
repeat (2) @(posedge clock);
reset_n <= 1;
end
pow_5_implementation_1 pow_5_implementation_1
(n, n_pow_5_implementation_1);
pow_5_implementation_2 pow_5_implementation_2
(clock, n, n_pow_5_implementation_2);
pow_5_implementation_3 pow_5_implementation_3
(clock, reset_n, run, n, ready, n_pow_5_implementation_3);
integer i;
initial
begin
#0
$dumpvars;
$monitor ("clock %b reset_n %b n %d comb %d seq %d run %b ready %b pipe %d",
clock,
reset_n,
n,
n_pow_5_implementation_1,
n_pow_5_implementation_2,
run,
ready,
n_pow_5_implementation_3);
@(posedge reset_n);
@(posedge clock);
for (i = 0; i < 50; i = i + 1)
begin
n <= i & 7;
run <= (i == 0 || ready);
@(posedge clock);
end
$finish;
end
endmodule
```
**An engineer simulated the testbench and got the following waveform. However he forgots the order he added the last three signals to the waveform. Can you determine which signal is the output of combinational implementation, sequential non-pipelined implementation and sequential pipelined implementation?**
a) The order is (from upper n\_pow\_5... to lower n\_pow\_5...): combinational, sequential non-pipelined implementation, pipelined
b) combinational, pipelined, sequential non-pipelined implementation
c) pipelined, combinational, sequential non-pipelined implementation
d) pipelined, sequential non-pipelined implementation, combinational
e) sequential non-pipelined implementation, combinational, pipelined
f) sequential non-pipelined implementation, pipelined, combinational
Если вы разобрались с этим упражнением, то вам будет гораздо проще понять и как работает конвейер в процессоре, графическом процессоре, сетевых чипах - принцип тот же самый, но вокруг этого много наворотов - приостановок, очередей, backpressure, кредиты итд - за знание всего этого собственно и платят заработную плату в группах разработки чипов в Apple, NVidia, Cisco, Syntacore, НИИСИ (крутой российский процессор Комдив-64) итд.
Следующее занятие на школе будет про графику. Собственно вот вся программа:
* 30 октября 2021: 1. Введение в маршрут проектирования и упражнения с комбинационной логикой.
* 13 ноября 2021: 2. Архитектура: вид процессора с точки зрения программиста.
* 20 ноября 2021: 3. Последовательностая логика и конечные автоматы.
* 27 ноября 2021: 4. Разбор учебного проекта: распознавание и генерация звуков и мелодий.
* 4 декабря 2021: 5. Конвейеры и систолические массивы, с приложением для искуственного интеллекта.
* 11 декабря 2021: 6. Разбор учебного проекта: модульная графичеcкая игра со спрайтами.
* 18 декабря 2021: 7. Микроархитектура однотактового процессора.
* 25 декабря 2021: 8. Микроархитектура конвейерного процессора.
* 15 января 2022: 9. Проектирование процессорного кэша и измерение его производительности.
* 22 января 2022: 10. Стандартные блоки и приемы проектирования: очереди FIFO и кредитные счетчики.
* 29 января 2022: 11. Стандартные блоки и приемы проектирования: арбитры, банки и разделение памяти.
* 5 февраля 2022: 12. Пробуем маршрут RTL2GDSII: как разрабатываются массовые микросхемы. Часть I.
* 12 февраля 2022: 13. Пробуем маршрут RTL2GDSII: как разрабатываются массовые микросхемы. Часть II.
* 19 февраля 2022: 14. Имитиция собеседования на позицию проектировщика цифровых микросхем.
* 26 февраля 2022: 15. Разбор имитации интервью с вручением поощрительных призов.
Присоединяйтесь онлайн и офлайн - еще даже остались бесплатные (оплаченные Syntacore / Ядро Микропроцессоры, Максимом Масловым и Cadence Design Systems) платы с микросхемами ПЛИС. См. пост [Готовимся к Сколковской Школе Синтеза Цифровых Схем: литература, FPGA платы и сенсоры](https://habr.com/ru/post/582580/) - для деталей: | https://habr.com/ru/post/593377/ | null | ru | null |
# Сдвиг блока
Здравствуйте.
Есть идея к добавлению в спецификацию CSS.
Свойство skew сдвигает один указанный угол или сторону блока по горизонтали или вертикали на установленное смещение. Сдвиг стороны сдвигает оба угла этой стороны, образуя параллелограмм. Текст и внутренние элементы сохраняют своё положения (в отличии от свойства [rotation](http://www.w3.org/TR/css3-box/#rotating)) и не искажаются соответственно преобразованиям блока.
Одно свойство применяется к одной стороне или углу, противоположная сторона наследует своё состояние (положение).
Смещение задаётся в процентах от ширины соответствующей стороны или в фиксированных единицах.
Знак сдвига соответствует прямолинейной прямоугольной (декартовой) системе координат (Рис. 1.).

Рис. 1.
Поведение блока при изменении размера:
По вертикали блок увеличивает/уменьшает свою высоту соответственно блочной модели css.
По горизонтали содержимое блока не выходит за ограничения установленным свойством width этого блока или рамок установленных родительским блоком, область содержимого ограничивается соответственно отступам (Рис. 1.), исключая overflow переопределение.
`skew-point: [left|center|right] || [top|center|bottom]`
Начальное значение: center center
``skew-length: |
Начальное значение: 0
skew: <'skew-point'> && <'skew-length'>`
Пример:
Сдвиг стороны (два угла одновременно): `skew: left center 10px;`` | https://habr.com/ru/post/22213/ | null | ru | null |
# Как сделать быстрое веб-приложение или 8 советов разработчикам по оптимизации кода
Легкая и быстрая — вот два слова, на которые мы молимся, создавая Diafan.CMS. У нас нет больших библиотек на случай атомной войны, а всё новое добавляется по необходимости. Общая логика системы доработана и отполирована за многие годы, поэтому в системе можно себе позволить ветвить и дорабатывать функционал, оставляя простым для понимания код и легкой для разработки CMS. Как это достигается? Мы сформировали несколько советов.
Наша система неоднократно завоевывала звание быстрой и оптимизированной системы, код которой максимально ярко показывает себя под нагрузками ([первое исследование](http://research.cmsmagazine.ru/nagruzochnoe-testirovanie-cms/), [второе исследование](https://roem.ru/14-04-2015/192219/cms-highload/)). В комментариях к исследованиям мы обещали, что напишем статью о том, как достигаются такие результаты. А где еще публиковать такую статью, как не на Хабре?
Несмотря на то, что практические примеры рассматриваются на базе нашей Diafan.CMS, приведенные ниже советы будут полезны любым веб-разработчикам сайтов, отдельных модулей, мобильных приложений и сетевых программ.
1. Масштабируйте Ваше приложение только по потребностям
-------------------------------------------------------
***Двигайтесь от простого к сложному.***
Допустим, Вашему проекту понадобились SMS-уведомления. Код отправки SMS достаточно простой, в несколько строк: это просто валидация телефона и GET-запрос к серверу отправки SMS — прямо так его и интегрируйте.
Например, когда в Diafan.CMS потребовались SMS-уведомления администратору на поступление заказов, мы поместили этот простой код прямо в модуле «Магазин», в функции, формирующей заказ.
Затем SMS-уведомления нам понадобились в модуле «Обратная связь» и «Рассылки». Тогда мы вынесли этот функционал в виде глобальной фунцкции в отдельный файл includes/sms.php и спокойно использовали в разных модулях в таком виде:
```
include_once('includes/sms.php');
Sms::send($message, $to);
```
Когда потребовалось дополнить SMS-уведомления настройками и своим интерфейсом, мы перенесли этот функционал в отдельный модуль.
И если понадобится возможность подключать разные бэкенды, например, чтобы работать с разными SMS-операторами, это можно делать в модуле, общая структура системы это позволяет.
Суть в том, что не нужно на первых этапах разрабатывать какие-то сложные библиотеки для работы с новым функционалом, не нужно выносить 100500 настроек, которые запутают администратора сайта и потребуют написания кипы документации. А потом может не понадобится. Лучше сделать только то, что требуется на данном этапе.
Это не приводит к снежному кому, если система имеет четкую иерархию «код — подключаемые функции — подключаемые модули». Ваше приложение останется простым и легким для понимания на каждом этапе разработки.
Отказываясь от лишнего кода, который не используется на текущем этапе разработки, можно убить сразу двух зайцев:
* полный контроль кода, исключающий логические ошибки и проблемы безопасности;
* общий размер приложения не будет расти.
Более того, такой подход нас привел еще к одной особенности. Мы очень мало используем внешний код, плагины и библиотеки. Вопреки «велосипедной» ошибке, мы считаем, что лучше написать одну функцию под свои задачи, чем включить огромную стороннюю библиотеку.
2. Уделяйте внимание обработке URL-ссылок
-----------------------------------------
***Разбор ссылок сервером — это узкое место, через которое проходят все страницы сайта. Старайтесь делать это место как можно проще для сервера.***
Чаще всего для адресной навигации по страницам сайта, вместо простых для сервера адресов вида site.ru/?PAGE=34, используется так называемое «ЧПУ» (человеко-понятные-урл), когда каждой странице сайта соответствует красивый строковый понятный адрес. Например, по адресу site.ru/o\_kompanii/ открывается страница «О компании». Здесь «o\_kompanii» — это строковое ЧПУ, интерпретируемое в site.ru/?url=o\_kompanii по которому CMS ищет страницу с именем o\_kompanii в базе и выводит её содержимое на сайте. Как если бы её запросить по PAGE=34. Однако, помимо строкового имени страницы, через адресную строку могут передаваться еще и некоторые параметры и их может быть много. Анализ таких ЧПУ может быть весьма затруднительным.
В Diafan.CMS всего один шаблон для построения ссылок: /строковоеЧПУ/числовойпараметр3/другойчисловойпараметр25/ 3, 25 — это значения параметров. Т.е. если в URL есть числовые параметры — значит перед ними стоят переменные, во всяком случае это самая частая структура.
Мы сразу отбрасываем все числовые параметры, а затем уже, если что-то осталось, смотрим строковую ЧПУ в базе данных и страницу, ей соответствующую. Если по ЧПУ страницу не находим, то начинаем прибавлять по одному параметру к ЧПУ и снова смотреть в базе. Да, такой алгоритм состоит из нескольких лишних SQL-запросов, но они будут только для таких особых страниц или для страниц 404, если искусственно подставить туда переменные. Что не нагружает базу для всех остальных (а их большинство) страниц.
Проще этого только некрасивые ссылки с $\_GET данными, типа site.ru/?url=page:13&m=3&m2=25.
3. Запускайте функционал только по необходимости
------------------------------------------------
***При запуске любой страницы сайта сначала загружайте только самый необходимый функционал, который в 99% случаев будет использован. Все остальное запускайте только по потребностям.***
Например, если в Diafan.CMS к товару нужно подключить рейтинг, мы просто обращаемся к переменной $this->diafan->\_rating и она отдаст всю подключаемую часть модуля «Рейтинг». Так как при первом обращении к псевдопеременной $this->diafan\_\*\*\* будет проверено наличие запрашиваемого модуля и выполнено корректное подключение к нему, как экземпляру класса. Это удобно и в использовании, и отсекает любой лишний функционал в текущий момент исполнения скрипта. Если рейтинг на странице не нужен, он не будет запускаться вообще.
4. Функционал, создающий дополнительную нагрузку, подключайте опционально
-------------------------------------------------------------------------
***Не подключайте дополнительный функционал глобально во все модули, давайте возможность включить его опционально.***
Например, в любом модуле, где используются комментарии, в Diafan.CMS есть опция «Подключить комментарии». Это исключает ситуации, когда комментарии к товарам нужны, а к новостям не нужны, и веб-мастер просто скрывает в шаблоне новостей вывод комментариев, но CMS продолжает выполнять SQL-запрос, искать комментарии к новостям, формировать все необходимые данные. Иными словами тратить ресурсы сервера понапрасну.
То же самое относится к любому другому функционалу, который мало-мальски использует ресурсы сервера. Не нужен счетчик посещений, рейтинг новостей, изображения к пунктам меню? Выносите их подключение в настройки и отключайте по умолчанию. Это позволит экономить ресурсы.
Это же касается скрытых настроек, например «Права доступа», когда нужно гибко настраивать ограничения доступа к разным конкретным материалам сайта для разных пользователей (Гость, Пользователь, Оптовик и пр.) Чтобы обеспечить эту возможность, проще всего ко всем SQL-запросам всех материалов добавлять:
*… LEFT JOIN access AS a ON a.element\_id='id\_material' AND (e.access='yes' AND a.role='role\_current\_user')*, который проверяет, есть ли у текущего пользователя доступ к запрашиваемому материалу.
А зачем нам эта нагрузка, если все новости видят все пользователи и этих ситуаций гораздо больше? Есть смысл добавлять этот LEFT JOIN к SQL-запросу опционально. В Diafan.CMS включение/выключение этой настроки просходит автоматически, без участия админа. То есть, если для какого-то материала нужно ограничить доступ, достаточно отметить настройку и запросы к БД усложняются. Если нет, то запросы простые.
5. Минимизируйте количество запросов к БД
-----------------------------------------
***Используйте prepare-функции.***
Случается так, что функционал одного модуля используется в другом. Представим, что у нас в модуле магазин есть 10 товаров и у каждого картинки из модуля изображений. Самая частая ошибка, совершаемая новичками, когда в цикле вывода товаров делаются дополнительные запросы в таблицу изображений.
```
$rows = SELECT * FROM shop; //запрос товаров
foreach ($rows as $row)
{
echo "Товар".$row['id']; //вывод товара в цикле
$img = SELECT * FROM img WHERE shopid=$row['id']; //запрос изображений к текущему товару
foreach ($img)
{
echo "Картинка к товару".$img["link"]; //вывод изображения к текущему товару
}
}
```
***\* здесь и ниже код условный, для наглядности алгоритма и передачи смысла.***
Таким образом получается 1+10=11 отдельных запросов SELECT к SQL-серверу. Однако, оптимальнее сделать запрос товаров, запомнить все ID полученных товаров, и затем сделать всего один SQL-запрос: выбрать все изображения для всех наших товаров сразу. Получится всего 2 запроса SELECT, вместо 11.
```
$rows = SELECT * FROM shop; //запрос товаров
foreach ($rows as $row)
{
$goods[] = $row['id']; //запоминаем полученные товары в массив
} $img = SELECT * FROM img WHERE shopid IN implode($goods[]); //запрос изображений для всех товаров
foreach ($img)
{
$images[] = $img['link']; //запоминаем полученные изображения в массиве
}
foreach ($goods[])
{
echo "Товар".$goods[]; //вывод товаров в цикле
echo "Картинка к товару".$images[$goods[id]]; //и изображений к ним
}
```
Но здесь проблема в том, что нарушается логика циклов и код становится неудобным. Нам удалось найти изящное решение, красивое для использования и оптимальное для сервера: функция prepare. Код получился такой:
```
$rows = SELECT * FROM shop; //запрос товаров
foreach($rows as $row)
{
$this->diafan->_images->prepare($row['id'], 'shop'); //запоминаем товары
}
foreach($rows as $row)
{
$images[$id] = $this->diafan->_images->get($row['id'], 'shop'); // запрос изображений функцией get
echo "Товар".$row['id']; //вывод товаров
echo "Картинка к товару".$images['id']; //и изображений к ним
}
```
Функция prepare просто запоминает все элементы, для которых нужно получить картинки. А особенность функции get в том, что SQL-запрос будет выполнен при первом вызове и результат тоже запомнится. Все остальные вызовы get из этого цикла будут работать с полученными в первый раз данными.
И так сделано для любого функционала: запрос ЧПУ для формирования ссылок, запрос тегов, запрос рейтинга и пр. Поэтому в Diafan.CMS обращения к SQL-серверу минимальны.
6. Используйте кэширование
--------------------------
***Пишите свои алгоритмы кеширования, используйте серверные.***
Если интернет-магазин устоялся и новые товары не добавляются, зачем каждый раз обращаться к БД, чтобы сформировать список товаров для каждого покупателя? Достаточно один раз обратиться к SQL-серверу, сохранить результаты запроса в текстовом файле в папке кеша и затем брать их оттуда. Если в список добавляется новый товар, или запрашивается иная страница, например, отсортированный список товаров, можно сбросить файл кеша, и снова обратиться к БД. Но только один раз, для того, чтобы обновить кеш.
Можно кешировать как участки сайта, блоки, списки, карточки и элементы, так и все страницы сайта. [Подробнее](http://www.diafan.ru/highload/).
Важно помнить, что статические ресурсы нагужают сервер на порядок меньше, чем динамические, поэтому старайтесь как можно меньше обращаться к SQL и РНР-интерпретатору. По умолчанию в Diafan.CMS используется файловый кэш, но подключить можно и Memcache. Мы кэшируем только данные. Все оформление в кэш не попадает. Это позволяет экономить место под кэш и как следствие быстрее с ним работать.
7. Минимизируйте динамическое получение данных
----------------------------------------------
***Лучше один раз подождать администратору сайта, чем ждать будет каждый пользователь.***
Например, в Diafan.CMS есть гибкая система скидок, когда у одного товара может быть несколько цен, каждая с установленной скидкой, еще и в разных валютах. Мы не высчитываем новые цены на сайте для каждого посетителя сайта. Мы делаем это при установке скидки в административной части сайта, считаем все различные варианты цены для выбранных товаров и собираем их в отдельную таблицу shop\_price с признаком price\_id. Исходная цена на товар определяется как id=price\_id. Если id<>price\_id, то это уже вариация цены либо со скидкой либо в основной валюте сайта. И в этой таблице сразу указывается для кого эта цена (если она установлена для какой-то конкретной группы пользователей).
Да, если товаров много, при добавлении или изменении скидки администратор будет ждать, глядя на крутящееся колесико. Зато посетителям сайта ждать не придется, ведь при выводе на сайте, а также при поиске, сортировке и прочих ёмких операциях система просто из всех доступных цен из одной таблицы по одному price\_id выбирает самую маленькую и всё.
8. Используйте нормализацию БД и индексы в таблицах
---------------------------------------------------
***Разносите сложную структуру информации по разным простым таблицам и используйте индексы по ним. Бывает, выгоднее сделать два простых запроса, чем строить один сложный INNER JOIN.***
В Diafan.CMS в основном все смежные таблицы имеют примерно одну структуру: id, element\_id, element\_type, module\_name. Запросы по ним предельно простые.
SELECT \* FROM rating WHERE element\_id=3 AND module\_name='shop' AND element\_type='element'
И по всем указанным полям обязательно стоят индексы.
Заключение
----------
Если разобраться, мы не сообщили ничего нового и почти все пункты очевидны. Однако, теорию знают многие, но на практике применяют не всегда. Надеемся, наши советы помогут собраться, перестать лениться и создавать прекрасные, быстрые и оптимизированные приложения. | https://habr.com/ru/post/300930/ | null | ru | null |
# Тестовая ферма из Android-устройств: как собрать, отладить и не взорвать офис

У нас был небольшой бюджет и большие проблемы с рутинным тестированием в match3-игре, у которой накопилось более 1500 уровней. А вот чего у нас не было, так это идеально подходящего коробочного решения, работающего на лету и без пересборок. Поэтому мы нагородили собственную ферму с высаженной грядкой из десятка Xiaomi, отправкой статистики, отчетами в Slack, блекджеком и коровой.
Я Павел Щеваев, CTO студии BIT.GAMES, которая является частью международного игрового бренда MY.GAMES. Вы можете знать нас по RPG «Гильдия Героев», а ваши мамы — по «Домовятам» в Одноклассниках. Да, это были мы. :) Но сегодня речь пойдет о нашем новом проекте Storyngton Hall. Это головоломка «три в ряд» с сюжетом, по которому красивые леди разгадывают загадки, декорируют комнаты, примеряют платья, устраивают балы, и, в конце концов, выходят замуж.
Игра реализована на С# и Unity, доступна на iOS и Android. На сегодняшний день у неё 4 млн установок. Какие проблемы назрели?
**Большие объемы.** В игре более 1500 уровней, каждые две недели добавляется еще несколько десятков. И вот на 934 уровне ломается туториал.

Ребятам из QA практически нереально оперативно добраться до 934 уровня, до того как приложение окажется у игроков.
**Бюджеты памяти.** Не единожды происходило неконтролируемое потребление памяти, которое мы обнаруживали уже в консоли Google Play. Вот, например, график падений после того, как художник запушил несжатую текстуру; игра перестала помещаться в бюджет и начала чаще падать.

Что мы придумали
----------------
Нам захотелось получить автоматизированное решение, которое помогало бы ловить проблему ещё до того, как она ушла в билд. Идея была такова:
* берем весь наш массив уровней;
* делим их на батчи с наборами уровней, поделенные по количеству устройств;
* прогоняем уровни на реальных устройствах.

Помимо ловли ошибок мы хотели дать возможность разработчикам больше пространства для смелых экспериментов, организовав так называемую «сетку безопасности».
Готовые решения на рынке
------------------------
Изобретать что-то самим не особо хотелось, и мы начали смотреть, что предлагает рынок.

Требования были такие:
* Надёжность: ферма должна чётко и стабильно выполнять тесты каждую ночь.
* Простота: ферма должна использовать инструментарий, который нами изучен и понятен.
* Масштабируемость: ферма должна автоматически определять новые устройства и распределять по ним уровни.
* Скриптуемость: тесты должны быть написаны на скриптовом языке, чтобы была возможность запускать их без пересборки приложения, т.к. сборка приложения занимает много времени.
К сожалению, ни Device Farmer (бывший STF), ни Selenium, ни прочие варианты не подошли. Пришлось городить ферму самим.
Android Test Farm (ATF)
-----------------------
Ферма представляет собой хаб из десятка устройств, подключенного к Mac Mini. В этом видео я инициирую сессию тестирования со своей машины — загружаются тестовые скрипты, затем запускаю приложение:
Скрипты полностью эмулируют сессию игрока: открывают окошки, проходят туториалы, играют в уровни и проч. Все тапы и свайпы эмулируются в ускоренном режиме.
Что по железкам?
----------------

Аппаратный состав фермы:
* старенький Mac Mini;
* 10-портовый USB-хаб, найденный на Ozon (есть и на 30);
* бесперебойник;
* жаропрочный короб;
* 10 одинаковых смартфонов Xiaomi 9A.
**Почему 10?**
Сначала смартфонов было 4, но оказалось, что для текущего объёма тестирования оптимально использовать 10. Если потребуется ускорить выполнение тестов, то добавим ещё.
**Почему одинаковые?**
Чтобы точно ориентироваться в просадках по памяти, нам нужны одинаковые устройства. Если смартфоны будут разные, то показатели потребления памяти будут сильно разниться из-за различий железа. Однажды попробовав использовать 5 разных устройств для этих целей, мы осознали бесполезность затеи.
**Почему Xiaomi?**
Мы старались выбирать такие устройства, которые соответствуют среднему уровню смартфонов игроков: не супертоповые, но и не самые дешёвые. И если игра работает на них хорошо, то этот опыт можно экстраполировать на схожие и более дорогие устройства. Практика показала, что Xiaomi 9A — это относительно надежное устройство из средней ценовой категории, которое хорошо работает через ADB и подходит нам в полной мере.
Делать iOS-ферму не планировали изначально, потому что Apple не предоставляет открытых средств для низкоуровневого доступа к устройствам. К тому же игра написана на Unity и в ней минимум платформозависимого кода, поэтому всю массу уровней можно спокойно тестировать на Android-устройствах. Кроме того, эти десять смартфонов Xiaomi укладываются в стоимость одного приличного iPhone. А если нет разницы, зачем платить больше?
Стек технологий
---------------
Здесь мы довольно консервативны и используем то, что проверено временем: PHP, BHL, ADB, SSH, Slack, ClickHouse, Redash.

Из всего перечисленного вам точно не знаком [BHL](https://github.com/bitdotgames/bhl) — это интерпретируемый, скриптуемый, строго типизируемый язык программирования, наша собственная разработка. В нём есть встроенные примитивы для удобного псевдораспараллеливания кода, поддерживается hot reload на лету. Благодаря этому мы можем компилировать скрипт в бинарный код, отправить на устройство и запустить без пересборки приложения.
Как устроены наши тестовые скрипты
----------------------------------
Рассмотрим простейший пример.

Функция `TestWaitUI` является корутиной и выполняется в неблокирующем режиме на протяжении нескольких кадров. И пока она выполняется, не блокируется основной геймлей. В этом коде ожидается, что появится UI окно — `UILogin`. Как только оно появлятся, бот нажимает кнопку «close\_btn», используя функцию `TestTapUIButton`, таким образом пытаясь его закрыть.
Еще пример реального кода с фермы:

Самое интересное происходит внутри конструкции `рaral`. Всё, что находится в ней — а именно несколько секций `forever`, — выполняется параллельно друг другу. Тестовый скрипт ожидает появления разных UI, и в зависимости от их типа выполняет те или иные действия. В основном всё сводится к тому, что мы ждём появления какой-нибудь кнопки вроде `continue`/`close` и нажимаем её. В свою очередь секция paral выполняется в цикле, пока не появится UI главного окна «UIMainScreen».
Полный цикл тестирования
------------------------
Предположим у нас есть вышеупомянутый тестовый сценарий:

Давайте загрузим его на устройства через инструмент ATF, который предоставляет API для работы с фермой:

Инструмент ATF через SSH связывается с хостом, к которому подключен USB-хаб. Он же заводит тред в Slack…

… и впоследствии синхронизирует все необходимые данные с массивом устройств через интерфейс ADB:

В процессе тестирование устройства сами сообщают о прогрессе и обо всём, что на них происходит, через внешний файл.

С помощью механизма ADB мы получаем данные с устройств, важные события отсылаем в Slack и записываем статистику в ClickHouse. Позже по накопленной статистике можно построить различные графики и отчеты с помощью Redash.
Работа с устройствами через ADB
-------------------------------

ADB — это низкоуровневый USB-интерфейс, с помощью которого можно подключаться к устройствам и делать с ними практически всё, что угодно. При помощи ADB мы:
* записываем на устройства внешний файл с тестовым скриптом BHL;
* туда же пушим специальную версию приложения, в которую добавлена тонкая надстройка, позволяющая выполнять тестовые скрипты BHL;
* периодически считываем с устройств файл со статусом выполнения тестов.
Интеграция со Slack
-------------------
Когда у нас начинается тестовая сессия, мы записываем её название с уникальным идентификатором и запускаем тестовые планы — это заданные разработчиком логические группы тестов, и их может быть сколько угодно. В данном случае у нас два тестовых плана:
1. Прогон туториальных уровней. План выполняется первым, потому что проверке туториалов отдан наивысший приоритет.
2. Прогон обычных уровней.
В каждый тестовый план включена такая информация:
* версия сборки;
* количество устройств;
* статистика, какие устройства работают, а какие отключились;
* счётчики ошибок, вылетов, зависаний;
* прогресс выполнения.


Есть еще цветовая идентификация:
* зелёный — всё хорошо;
* оранжевый — что-то было, но не критичное;
* красный — критичные ошибки.
Перейдя в тред тестового плана можно посмотреть подробности и понять, какие неприятности произошли.

О чём мы сообщаем в случае ошибки
---------------------------------

* Последний скриншот. В случае фатальной ошибки на устройстве игра останавливается, и мы можем увидеть, в каком состоянии была игра.
* Стектрейс.
* Код реплея — это текстовая строка, в которой закодированы все действия игрока.
```
ljPaAC9AbTMvbGV2ZWxzL2V4cGVyaW1lbnQvY3J5c3RhbC9sdmxfMTFfOV9zcXVhcmVfMs0Pc56VAZIFA5IFAkwAlQGSBQeSBQjMoQCVAZIGBJIGBczQAJUBkgUGkgUHzPoAlQKSBgeSBgfNARwAlQGSCAOSCATNAVUAlQGSBAGSBALNCqoAlQGSBACSBAHNCzwAlQGSBAKSAwLNC2AAlQGSAwKSAgLNDKUAlQGSAwWSAwTNDUQAlQGSAgKSAwLNDm4AlQGSAwOSAgPNDsgAlQGSAwSSAgTNDw8AAJA=
```
В нашей игре движок Match3 детерминирован, и, имея все инпуты от игрока, мы можем воспроизводить пользовательскую сессию в редакторе. Это позволяет понять, что человек делал.
Реплей загружаем в редактор, перематываем на последний ход, стартуем симуляцию — и бац! — вот она, ошибка. Мы видим её саму и действия, которые к ней привели.
### Отчёты в Redash

В Redash мы выгружаем статистику:
* потребления памяти;
* падений;
* предупреждений по перерасходу памяти.
Когда приложение начинает вести себя нехорошо, то Android и iOS шлют предупреждения, чтобы разработчики могли предпринять действия. Именно это мы и записываем в Redash.
### Случай из практики

В отчёте из Redash вы можете видеть динамику потребления памяти. Здесь мы журналируем максимальное потребление (синий), среднее (красный) и медианное (зелёный). График идёт в обратном порядке времени: слева свежие данные, правее — старые. Особое внимание мы обращаем на максимальное потребление. Если у игроков превышен уровень потребление памяти, то с большой вероятностью это приведёт к падению.
На крайнем правом столбце видно сначала повышенное потребление памяти — 808 Мб, а потом оно снижается до 650. Это результат того, что наш ведущий программист покудесничал с текстурами, добавил сжатие и это отразилось на показателях.
Когда в продакшене было повышенное потребление, билд себя чувствовал не очень, и это можно заметить по отчету о падениях в консоли Google Play. После того, как мы залили сборку с более оптимальными текстурами, количество падений пошло вниз. Ферма подсказала нам, что дела стали намного лучше ещё до того, как мы стали что-то выпускать в продакшн.
Итог
----
На всё про всё ушло полгода разработки разной степени интенсивности. Ферма в рамках CI каждую ночь прогоняют 1500+ уровней примерно за 5 часов. По мере необходимости размер фермы будем увеличивать.
Маленькие рецепты для тех, кто захочет обзавестись собственной фермой
---------------------------------------------------------------------

### Как эмулировать пользовательский ввод
1. Использовать новую подсистему Input System для Unity (в последней версии). Возможно, она даже неплохо работает, но нам не подошла, потому что проект Storyngton Hall разработан под те версии Unity, где подсистема недоступна. Переезжать на новую версию Unity нам из-за этого было бы неразумно. Тем не менее, рекомендую посмотреть в ту сторону — это самое гибкое решение.
2. `$ adb shell input tap x y` — через низкоуровневые механизмы ADB тоже можно эмулировать ввод. Всё замечательно, но дико медленно: эмуляция каждого тапа занимает несколько секунд. Если бы мы пошли таким путём, то ферма проходила бы весь цикл тестов не за 5, а за 15 часов.
3. Связка Java + Android Activity оказалась нашим спасением. Мы эмулируем ввод на уровне Android Activity, обращаясь к ней из кода приложения. В C# это выглядит примерно так:
```
public void Tap(Vector3 p) {
var pt = World2Display(p);
#if UNITY_ANDROID
const string bridge_name = "com.goplaytoday.utils.atf.ATFUtils";
using(var bridge = new AndroidJavaClass(bridge_name))
{
bridge.CallStatic("EmulateTap", (int)pt.x, (int)pt.y);
}
#endif
}
```
### Как эмулировать тапы
```
public static void EmulateTap(Activity activity, int x, int y) {
PointerProperties[] properties = new PointerProperties[1];
PointerProperties prop = new PointerProperties();
prop.id = 0;
prop.toolType = MotionEvent.TOOL_TYPE_FINGER;
properties[0] = prop;
PointerCoords[] coords = new PointerCoords[1];
PointerCoords coord = new PointerCoords();
coord.x = x;
coord.y = y;
coords[0] = coord;
int source = InputDevice.SOURCE_TOUCHSCREEN;
int deviceId = 0;
final long ms = SystemClock.uptimeMillis();
activity.dispatchTouchEvent(
MotionEvent.obtain(ms, ms, MotionEvent.ACTION_DOWN, 1, properties, coords, 0, 0, 0, 0, deviceId, 0, source, 0));
activity.dispatchTouchEvent(
MotionEvent.obtain(ms, ms+200, MotionEvent.ACTION_UP, 1, properties, coords, 0, 0, 0, 0, deviceId, 0, source, 0));
}
```
Привожу работающий пример на Java для Unity — бился над ним целый день. Все берут примеры со Stack Overflow, которые должны работать, но они, естественно, не работают. Пришлось довольно долго итерировать и прорабатывать, пока наконец не получилось то, что нужно.
### Как эмулировать свайпы
Свайпы отняли у меня еще полдня. Привожу пример работающего кода:
```
public static void EmulateSwipe(Activity activity, int x1, int y1, int x2, int y2, int durationMs) {
PointerProperties[] props = new PointerProperties[1];
PointerProperties prop = new PointerProperties();
prop.id = 0; prop.toolType = MotionEvent.TOOL_TYPE_FINGER;
props[0] = prop;
PointerCoords[] coords = new PointerCoords[1]; PointerCoords coord = new PointerCoords();
int source = InputDevice.SOURCE_TOUCHSCREEN; int deviceId = 0; int maxMoveSteps = 10;
int sleepTime = durationMs / maxMoveSteps;
activity.runOnUiThread(new Runnable() {
public void run() {
final long ms = SystemClock.uptimeMillis();
coord.x = x1; coord.y = y1; coords[0] = coord;
activity.dispatchTouchEvent(
MotionEvent.obtain(ms, ms, MotionEvent.ACTION_DOWN, 1, props, coords, 0, 0, 0, 0, deviceId, 0, source, 0));
for(int i=0;i
```
### Как измерить потребление памяти
Существует много различного инструментария, тот же Unity Profiler, Android Studio и прочее. Но зачастую они не отражают объективного положения дел, особенно Unity Profiler. Вы думаете, что у вас потребляется одно количество памяти, а на деле — в разы больше. Мы столкнулись с тем, что механизм ADB даёт наиболее точные результаты. Команда `$ adb shell dumpsys meminfo <бандл приложения>` помогает отследить, сколько сейчас реально занимает ваша игра в памяти.

### Как ускорить тесты

Мы ускоряем тесты в несколько раз там, где это уместно. Благодаря тому, что у нас симуляция match-3 изолирована от представления, мы смело можем ускорить тесты в четыре раза. В Unity есть довольно удобный механизм, который позволяет изменить масштаб времени: Time.timeScale. За подробностями обратитесь к документации.
### Устройство может перестает отвечать в любой момент

В мире реальных и не самых топовых железок может произойти всё, что угодно: устройства могут зависнуть, проложения вдруг начнут вылетать и ещё по всякому сходить с ума. Если будете делать ферму, то готовьтесь к тому, что всё может пойти в разнос. Эту проблему мы решаем довольно просто:
* Наши тестовые скрипты периодически записывают в файл особую строчку `PING`.
* ATF считывает этот файл и анализирует, как давно не было пингов с устройств.
* Если пингов не было давно, то устройство считается зависшим, мы его перегружаем и заново запускаем набор тестов.
### Команда ADB может зависнуть

Команда ADB, конечно, замечательная и надёжная, но и она может войти в ступор. Мы решили проблему кардинально. Все наши shell-команды обёртываются в специальный таймаут-скрипт, у которого есть жёсткие ограничения по времени выполнения. В примере выше, если команда не выполняется за 10 секунд, то мы считаем это ошибкой и сигнализируем о ней в Slack.
### Устройство может взорваться

Один наш смартфон вспучился, задняя крышка стала отходить — вздулся аккумулятор. Мы отложили его, и где-то через пару недель он реально взорвался. Именно поэтому необходимо нормальное охлаждение и жаропрочный корпус.
Резюмирую
---------
### Достоинства Android Test Farm
* Оправдано для больших, долгоиграющих проектов от 1 года, которые находятся в активной разработке или на поддержке.
* Снимает много рутины и облегчает жизнь тестерам.
* Формирует сетку безопасности и придаёт разработчикам смелости для экспериментов.
### Недостатки Android Test Farm
* Нет смысла внедрять для маленьких проектов.
* Решение не из коробки, придётся попотеть самим.
* Требует постоянной поддержки и человека, который возьмёт ферму на контроль. Разработчики постоянно добавляют новый функционал, поэтому тестовые скрипты время от времени ломаются.
* Не полностью защищает от ошибок, скорее это ещё один эшелон защиты, который добавляет уверенности, что всё работает более-менее нормально.
* Ферма не покажет визуальные глюки, когда какой-то спрайтик съехал, или что-то неправильно отображается.
* Иногда требуется физический доступ к устройствам, с удалёнки не поуправляешь.
Если решитесь делать такую ферму, то реализуйте её как можно раньше, еще до релиза проекта. Так вы сможете замерить потребление памяти, увидеть регрессии и принять нужное решение ещё до того, как опубликуетесь в сторах. Мы внедрили ферму не сразу и упустили момент с потреблением памяти, хотя могли отловить это перед тем, как уже нагнали рекламы и привлекли много пользователей. Так что если планируется серьёзный проект на много денег — внедряйте как можно раньше. | https://habr.com/ru/post/579210/ | null | ru | null |
# Программирование nes/dendy скроллинг фона
В интернете много статей показывающих как скролить фон на два экрана (скажем так это стандартно), а вот как скролить фон на несколько экранов вперед как например в марио, или чип и дейле мало где можно найти а если и находиться такое в интернете то объяснение как это сделать? Довольно сложное для понимания человеку который только начинает свой путь в nes...
---
Давайте разберем алгоритм как сделать прокрутку к примеру на 4 экрана:
1. Переключить nametable на следующий экран от позиции аппаратной прокрутки
2. Проверить сместился ли персонаж в право (или лево) на 8 пикселей и нужно ли отрисовать (буду писать отрисовать на самом деле имея ввиду заполнить) новый столбец в nametable
3. Заполнить attribute table для нового столбца (то есть указать его цвет)
4. Обновить карту коллизий на экран (более подробно будет описано в следующей статье)
Позволю сделать себе, несколько важных замечаний, прежде чем мы перейдем к реализации задуманного плана.
1. Нам надо перерисовать следующий за позиции аппаратного скролинга (либо перед ним через 32 тайла, а проще говоря в следующим nametable 2 ($2400-$27FF), либо если позиция скрола находиться в nametable 2 то надо перерисовать фон в nametable 1 ($2000-$23FF).
2. Nametable - как следует из названия представляет с собой таблицу, но в ней 4 строки и 255 столбцов, если можно так выразиться возьмем к примеру nametable 1:
1. $2000 - $20FF
2. $2100 - $21FF
3. $2200 - $22FF
4. $2300 - $23FF
3. Разрешение экрана nes 32х32 тайла ( с допущением последние просто обрезаются)
Давайте наглядно посмотрим на nametable и выведем формулу по которой будем вычислять
nametable в проекции на экранНа самом деле, замечание номер 2 было для большего понимания как заполняется nametable в первую очередь рассмотрим реализацию алгоритма определения того что прокрутка сместилась на 8 пикселей. Тут надо вспомнить что 8 а точнее 7 (0-7) это %00000111 то есть в последних цифрах числа содержится цифра 7 и если ее отфильтровать через операцию END и если в этом случае будет установлен флаг Z то получается что позиция прокрутки увеличилось на 8 (либо содержит 8)
```
LDA scrollPosition
AND #%00000111
BNE NewColumnCheckDone
JSR drawNewCollumnNametable
```
Алгоритм заполнения nametable тоже довольно прост, нам всего лишь надо вычислить младший и старший байт текущего nametable, оговорюсь что надо определить в каком nametable находиться прокрутка и просто переключить текущую таблицу имен на следующую и обратно. В момент когда прокрутка находиться в позиции $FD это из разрешения nes по горизонтали у нас 253 точки.
```
LDA #%1000100 ; set to increment +32 mode
EOR nameTable
STA $2000
LDA $2002 ; read PPU status to reset the high/low latch
LDA colHig
STA $2006 ; write the high byte of column address
LDA colLow
STA $2006 ; write the low byte of column address
```
Пока все просто, но надо вычислить еще позицию столбца для заполнения нового nametable. Формула довольно простая scroll/8 номер тайла это младший байт, старший байт будет равен nametable\*4 + $24 в ассемблере нету операций умножения и деления но можно смещать вправо и влево что приведет к умножение на 2 и соответственно деление на 2 каждое смещение числа, в коде это выглядит так:
```
LDA scrollPosition
LSR A
LSR A
LSR A
STA colLow
STA columnNumber
LDA nameTable
ASL A
ASL A
CLC
ADC #$24
STA colHig
```
Карту я определил в секции RODATA как массив байт пример вы сможете увидите в репозитории на github.com где есть полный листинг программы, ссылку приведу ниже. Я не стал заморачиваться и писать еще несколько десятков строк что бы переворачивать массив таким образом что бы можно было и человеку читать и программе. По этому определил его как повернутым на 90% и в зеркальном отражение. В общем строка в массиве ровна столбцу в таблице имен. Для того что бы его прочитать с определенного момента и загрузить в таблицу имен, нам просто необходимо вычислить младший и старший байт да бы начать чтение с младшего байта и загрузить 32 байта в память приставки. Формула тоже простая collumnNumber \* 32 = sourceLow и старший бит, и тут я посмотрел в код и он не нужен на данный момент мне. Реализация данной формулы тоже проста:
```
LDA columnNumber
ASL A
ASL A
ASL A
ASL A
ASL A
STA sourceLow
```
И на последок загружаем все в память
```
LDX #$1E ; copy 30 bytes
LDY #$00
DrawColumnLoop:
LDA (sourceLow), y
STA $2007
INY
DEX
BNE DrawColumnLoop
LDA #%10010000
EOR nameTable
STA $2000
```
В этой статье я привел основные моменты перерисовки фона для динамической его прокрутки, в исходном коде вы найдете еще несколько строк обвязки которые подготавливают данные. Увеличивают сначала х координату игрока и если игрок на середине экрана то увеличивается прокрутка, есть математика которая определяет загрузку attribute table и обновляет атрибуты для новых колонок, так же алгоритм вычисления колизий с картой. Все это будет описано в следующих статьях.
Ссылки:
* [Видео/аудио версия статьи](https://youtu.be/RMgCD15M5io)
* [Репозиторий с кодом](https://github.com/lnroma/newGameNes)
* [Графика денди](https://%D0%92%D1%8B%D1%87%D0%B8%D1%81%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%BA%D0%BE%D0%BB%D0%BB%D0%B8%D0%B7%D0%B8%D0%B9%20%20https://habr.com/ru/post/553848/)
* [Считывание контроллера](https://habr.com/ru/post/552604/)
* [Вводная статья программирование на nes/dendy](https://habr.com/ru/post/551488/) | https://habr.com/ru/post/715994/ | null | ru | null |
# Как настроить интеграцию между kafka и rabbitmq (путешествие туда и обратно)
Данная статья будет полезна тем, кто столкнулся с проблемой интеграции kafka и rabbitmq. Материал не претендует на подробный туториал, но поможет помочь настроить рабочий процесс. Я расскажу, как отправить сообщение в rabbitmq и получить его на стороне kafka, а также обратный процесс, с которым, спойлер, всё оказалось сложнее.
Путешествие «туда и обратно».
Зачем?
Ситуация максимально банальна и проста. Когда разные команды, делают свои проекты с использованием разных message broker’ов, рано или поздно наступает момент, когда появляется необходимость интеграции (и да, я в курсе, что kafka - нечто большее, чем просто mb). Первое, что приходит на ум – это сделать интеграцию через REST, но мы получаем сразу несколько значительных минусов. Например, long pulling. Как поставить на расчет долгий процесс? Как дождаться ответа? Итог: реализации на REST очень далеки от идеала. Внедрение REST так же повлечет танцы с бубном, так как текущая архитектура уже заточена под message broker.
Следующей технологией для интеграции можно рассмотреть grpc. Хороший вариант, но тоже имеет изъян, так как не очень хорошо работает с асинхронными запросами, а нас интересовали именно длительные запросы.
Итак, мы пришли к решению использовать брокер сообщений, но тут появилась главная проблема: одна команда использовала rabbitmq, а другая apache kafka. Первой мыслью было выбрать одну технологию и использовать ее, но оценив трудозатраты по переписыванию pipleline взаимодействия в любой из систем решено было искать альтернативные варианты. Да, конечно, apache kafka – это нечто большее, чем просто брокер сообщений, но в данной ситуации нам требовалась именно эта его функция.
Просматривая интернеты, я наткнулся на [интересную статью](https://rmoff.net/2020/01/08/streaming-messages-from-rabbitmq-into-kafka-with-kafka-connect/), в которой описывалась именно та ситуация, в которую я попал. Воодушевленный находкой, я подумал, вот она, «моя прелесть», начал изучать туториал и пытаться развернуть сервис локально.
Был собран и использован контейнер
```
from kafka-connect:6.2.0
```
Далее во всех туториалах была обозначена schema-registry
`schema-registry:`
`image: confluentinc/cp-schema-registry:6.2.0
container_name: schema-registry
ports:
- 8081:8081
hostname: schema-registry
depends_on:
- kafka
environment:
SCHEMA_REGISTRY_HOST_NAME: schema-registry
SCHEMA_REGISTRY_KAFKASTORE_BOOTSTRAP_SERVERS: PLAINTEXT://server-name.local:9092
SCHEMA_REGISTRY_CUB_KAFKA_TIMEOUT: 300`
Ее я тоже поднял, но в дальнейшем она оказалась для меня бесполезной, ее предназначение – это использование дополнительных сериализаторов, меня полностью устроили дефолтные.
### Из kafka в rabbitmq
Следующим этапом была настройка коннекторов. Для успешного создания коннектора нужно сначала подготовить kafka и rabbitmq.
На стороне kafka создаем топик **kafka\_result**. Со стороны rabbitmq нужно создать очередь **kafka\_to\_rabbit**, еще понадобиться exchange **kafka\_to\_rabbit\_exch** и, конечно, выполнить binding (операцию привязки очереди к exchange) с ключом kafka-connectors.
Kafka, в отличие от rabbitmq, не удаляет сообщение из топиков, и для контроля прочитанных сообщений нам необходимы конфигурационные топики, которые наш сервис создаст самостоятельно, нам остается только при старте в окружение добавить названия этих топиков. В некоторых ситуациях создание топиков запрещено извне, поэтому придется обратиться к администраторам kafka.
В нашем случае это
`CONNECT_OFFSET_STORAGE_TOPIC _kafka-connect-group-01-offsets`
`CONNECT_STATUS_STORAGE_TOPIC _kafka-connect-group-01-status`
`CONNECT_CONFIG_STORAGE_TOPIC _kafka-connect-group-01-configs`
После чего, запускаем наш сервис и выполняем POST запрос.
**https://service\_addres/connectors**
`{
"name": "kafka-to-rabbit",
"config" : {
"connector.class" : "io.confluent.connect.rabbitmq.sink.RabbitMQSinkConnector",
"tasks.max" : "1",
"topics" : "kafka_result",
"rabbitmq.queue" : "kafka_to_rabbit",
"rabbitmq.username": "guest",
"rabbitmq.password": "guest",
"rabbitmq.host": "host-rabbitmq",
"rabbitmq.port": "5672",
"rabbitmq.exchange": "kafka-to-rabbit-exch",
"rabbitmq.routing.key": "kafka-connectors",
"rabbitmq.delivery.mode": "PERSISTENT",
"confluent.topic.bootstrap.servers":"addres_kafka_server:9092",
"rabbitmq.virtual.host": "/",
"value.converter": "org.apache.kafka.connect.converters.ByteArrayConverter",
"key.converter": "org.apache.kafka.connect.storage.StringConverter"
}
}`
В случае удачного выполнения запроса, вернется 201 ответ. Проверить создавшийся коннектор можно в браузере по тому же адресу (или через get запрос)
**https://service\_addres/connectors**
Можно увидеть массив коннекторов.
Отлично, если все получилось. Отправляем сообщение в топик kafka и получаем это сообщение на стороне rabbitmq, при чем конфигурационные топики будут контролировать, чтобы нам не приходило дубликатов, и сообщения не потерялись.
Прекрасно, но есть один нюанс. Почти все англоязычные туториалы на этом заканчиваются, как будто всех интересует только перепушивание сообщений из kafka rabbitmq.
А обратно то как? Как перепушить сообщение из rabbitmq в kafka?
### Из rabbitmq в kafka
Вернемся к созданию нашего коннектора. Там есть строчка.
`"connector.class" : "io.confluent.connect.rabbitmq.sink.RabbitMQSinkConnector"`
RabbitMQSinkConnector – отвечает за перепушивание из rabbitmq в kafka.
Теперь нам нужен RabbitMQSourceConnector. Пытаемся создать новый коннектор и получаем ошибку, что такой коннектор не найден в нашем контейнере. Неприятно.
Решение проблемы заключается в том, что при сборке нашего контейнера нужно дополнительно поставить плагин. Исправляем наш докер файл и добавляем туда строчку`confluent-hub install --no-prompt --verbose confluentinc/kafka-connect-rabbitmq:1.5.2`
Пересобираем контейнер и пробуем создать обратный коннектор
`{
"name": " rabbit-to-kafka",
"config": {
"connector.class" : "io.confluent.connect.rabbitmq.RabbitMQSourceConnector",
"kafka.topic" : " kafka_task",
"rabbitmq.queue" : "rabbitmq_to_kafka",
"rabbitmq.username": "guest",
"rabbitmq.password": "guest",
"rabbitmq.host": "hostname",
"rabbitmq.port": "5672",
"rabbitmq.virtual.host": "/",
"confluent.license":"",
"confluent.topic.bootstrap.servers":"kafka_host:9092",
"confluent.topic.replication.factor":1,
"value.converter": "org.apache.kafka.connect.converters.ByteArrayConverter",
"key.converter": "org.apache.kafka.connect.storage.StringConverter"
}
}`
Выполняем POST запрос и дожидаемся 201 ответа, проверяем коннекторы и видим успешно создавшийся
Отлично, теперь визуализируем нашу схему взаимодействия rabbitmq с kafka.
1. Отправляем сообщение в очередь rabbit\_to\_kafka и получаем его в топике kafka\_task
2. Отправляем сообщение в топик kafka\_result и получаем сообщение в очереди kafka\_to\_rabbit
В данной статье описано двусторонне взаимодействие, из rabbitMQ в kafka и обратно, в большинстве примеров найденных в сети описаны ситуации одностороннего взаимодействия, я потратил значительное время чтобы соединить все в одно. | https://habr.com/ru/post/659545/ | null | ru | null |
# Эдвард руки — С++
Я искал, с чем бы сравнить программирование на С++ и я вспомнил фильм 1990 года режиссера Тима Бертона — [«Эдвард руки-ножницы»](http://ru.wikipedia.org/wiki/%D0%AD%D0%B4%D0%B2%D0%B0%D1%80%D0%B4_%D0%A0%D1%83%D0%BA%D0%B8-%D0%BD%D0%BE%D0%B6%D0%BD%D0%B8%D1%86%D1%8B)
Это темная версия Пиноккио, снятая в атмосфере пригорода. В этом фильме жуткий парень (Джонни Депп) пытается аккуратно обнять Ванону Райден, но его неуклюжие руки-ножницы делают это очень опасным для них обоих. Его лицо уже покрыто глубокими шрамами.
Если у вас ножницы вместо рук, то это не так уж и плохо. У Эдварда много талантов: например, он может потрясающе стричь собак!
Меня часто посещают похожие мысли после посещения С++ конференций: в этот раз это было после [Going Native 2013.](http://channel9.msdn.com/Events/GoingNative/2013) В прошлом году были восторги и волнения по поводу нового стандарта — С++11. В этом году это было проверкой в реальных условиях. Не поймите меня неправильно: там было много потрясающих собачьих причесок (я имею в виду код на С++, который был простым и элегантным), но основная часть конференции была о том, как избежать увечий и оказать первую помощь в случае нечаянной ампутации.
###### Маленький магазинчик ужасов.
Там было так много разговоров о том, как не использовать С++, что это натолкнуло меня на такую мысль: речь идет не о проблеме некомпетентных программистов, просто использование С++ — это вообще неправильно. Так, если вы только изучаете основы языка и пытаетесь использовать его, то вы обречены.
У С++ есть оправдание: обратная совместимость, в частности, совместимость с С. Вы можете относиться к С как к подмножеству С++, по-настоящему ассемблерному языку, который вам лучше не использовать в повседневном программированию, кроме тех ситуаций, когда это явно необходимо. Если вы слепо погружены в С++, то вы размышляете о чистых указателях, **for**-циклах — всё это действительно дурацкая затея.
Хорошо известный пример того, как не надо делать — это использование **malloc** для динамического выделения памяти и **free** для ее освобождения. **malloc** принимает количество байт и возвращает указатель на void, который вам надо кастить во что-то более удобное — придумать худшее API для управления памяти тяжело. Вот пример действительно плохого (но почти корректного, если бы не возможность обращения по нулевому указателю) кода:
```
struct Pod {
int count;
int * counters;
};
int n = 10;
Pod * pod = (Pod *) malloc (sizeof Pod);
pod->count = n
pod->counters = (int *) malloc (n * sizeof(int));
...
free (pod->counters);
free (pod);
```
Надеюсь, что так на С++ не пишет никто, хотя я уверен, что есть много старых приложений с такими конструкциями, поэтому не надо смеяться.
С++ «решил» проблему чересчур многословного и подверженного ошибкам вычисления размера заменой **malloc** и **free** на **new** и **delete**. Корректная версия кода выше на С++ должна выглядеть так:
```
struct Pod {
int count;
int * counters;
};
int n = 10;
Pod * pod = new Pod;
pod->count = n;
pod->counters = new int [n];
...
delete [] pod->counters;
delete pod;
```
Кстати, проблема обращения по нулевому указателю тоже решилась, потому что **new** бросит исключение, когда системе не хватает памяти. В коде выше всё еще остается небольшой шанс утечки памяти, если второй вызов **new** будет неудачным (Но как часто это случается? Подсказка: насколько большим может быть **n**?). Короче, вот по-настоящему корректная версия кода:
```
class Snd { // Sophisticated New Data (в противовес POD)
public:
Snd (int n) : _count(n), _counters(new int [n]) {}
~Snd () { delete [] _counters; }
private:
int _count;
int * _counters;
};
Snd * snd = new Snd (10);
...
delete snd;
```
Всё ли мы сделали? Конечно нет! Код не является безопасным в плане исключений.
С++ рекомендует вам избегать чистых указателей, избегать массивов и избегать **delete**.
Таким образом, на замену **malloc** пришел оператор **new**, который тоже сломан: он возвращает опасный указатель, а указатели — это зло.
Все мы знаем (и шрамы на наших лицах это подтверждают), что крайне желательно использовать STL-контейнеры и умные указатели везде, где это возможно. Да, и нужно использовать value-семантику для передачи объектов. Но подождите! Value-семантика приносит потерю производительности из-за чрезмерного копирования. А что насчет **shared\_ptr** и векторов из **shared\_ptr**? Но они добавляют оверхэд при подсчете ссылок! Нет, вот новая идея: move-семантика и rvalue-ссылки.
Я могу продолжать снова и снова (часто я так и делаю!). Вы видите закономерность? Каждое улучшение требует нового улучшения. Теперь у нас не только С-подмножество, которое следует избегать. Каждая новая фича языка или дополнение в библиотеку порождает новую серию подводных камней. И вы знаете, новые фичи имеют ужасный дизайн, если Скот Мейерс говорил о ней. (Его последнее выступление, как вы догадались, было о подводных камнях семантики перемещения).
###### Философия С++
Бьерн Страустроуп подчеркивает, насколько важна обратная совместимость для С++.
Это один из столпов философии языка. Учитывая огромное количество старого кода, это имеет смысл. Но совместимость ведет к тяжелым последствиям для эволюции языка. Если бы природа относилась к обратной совместимости так же, как С++, то люди до сих пор имели бы хвосты, жабры, плавники, рога и внешние скелеты — ведь всё это имело смысл в какой-то момент эволюции.
С++ стал чрезвычайно сложным языком. Есть бесконечное множество способов сделать одно и то же — и почти все из них либо просто неправильны, опасны, неподдерживаемы либо всё вышеперечисленное. Проблема в том, что большинство кода компилируется и даже запускается. Ошибки и недочеты выявляются гораздо позже, часто после того, как продукт был выпущен.
Вы можете сказать, что это всего лишь природа программирования.
Если вы так думаете, то вам нужно как следует посмотреть в сторону Хаскеля. Ваша первая реакция будет: я не знаю, как реализовать это (что угодно, кроме факториала и чисел Фибоначчи) в этом чересчур ограниченном языке программирования. Это полностью отличается от опыта на С++, когда вы можете разрабатывать на нем с первого дня.
Вы не представляете, что в лучшем случае вам понадобится 10 лет чтобы найти «правильный путь» программирования на С++ (если он вообще есть). Представьте себе, чем лучше вы программируете на С++, тем больше функционального стиля в ваших программах. Спросите любого гуру С++ и он ответит вам: избегайте mutation, избегайте побочных эффектов, не используйте циклы, избегайте иерархий классов и наследования.
Но вам понадобится строгая дисциплина и тотальный контроль над вашими сотрудниками, чтобы это осуществить — ведь С++ разрешает всё.
Хаскель не такой добрый, он не даст вам (или вашим коллегам) писать небезопасный код.
Да, сначала вы будете чесать затылок, пытаясь реализовать на Хаскеле то, что на С++ пишете за 10 минут. Если вам повезло и вы работаете на [Шона Пэрента"](http://cppnow.org/about-sean-parent/) или других исключительных программистов, то они будут просматривать ваш код и покажут, как не писать на С++. В противном случае, вы можете быть в неведении в течение десятилетий, причиняя раны самому себе и мечтая о собачьих прическах.
###### Управление ресурсами
Я начал эту статью с примерами управления ресурсами (строго говоря, управления памятью), потому что это одно из моих личных предпочтений. Я выступал и писал об этом с девяностых годов (см. библиографию в конце). Очевидно, что я не справился, потому что спустя 20 лет техники управления ресурсами всё еще не общеизвестны. Бьерн Страуструп был вынужден половину свой вступительной речи говорить об управлении ресурсами перед толпой передовых С++ программистов. Опять же, можно было обвинять некомпетентных программистов в непринятии управления ресурсами как основы С++.
Однако проблема в том, что в языке нет ничего, что бы сообщило программисту о неладах в коде, который я привел в начале статьи. Фактически, изучение корректных техник принимается как изучение нового языка.
Почему это так сложно? Потому что большая часть управления ресурсами в С++ — это управление памятью. На самом деле, неоднократно подчеркивалось, что сборщик мусора не решит проблему управления ресурсами: всегда будут хэндлы файлов и окон, открытые базы данных и транзакции, итд. Всё это важные ресурсы, но управление ими скрыто тенью утомительного управления памятью. Причина, по которой С++ не имеет сборщика мусора не в том, что его нельзя сделать эффективно, а в том, что С++ сам по себе враждебен к сборке мусора. Компилятор и среда выполнения должны всегда предполагать худшее: не только что любой указатель может указывать на любой другой указатель, но и что адрес памяти может быть сохранен как целое число или его младшие биты могут быть использованы как битовые поля (вот почему для С++ рассматриваются только консервативные сборщики мусора).
Это распространенное, но ошибочное мнение, что подсчет ссылок (в частности, использование shared-указателей) лучше сборки мусора. [Современные исследования](http://www.cs.virginia.edu/~cs415/reading/bacon-garbage.pdf) показывают, что эти два подхода являются всего лишь разными сторонами одной медали. Вы должны понимать, что удаление shared-указателя может привести к сколь угодно длинным паузам в выполнении программы, равно как и работа сборщика мусора. Это происходит не только потому, что каждый серьезный алгоритм подсчета ссылок должен уметь работать с циклами, но еще и потому, что каждый раз, когда счетчик ссылок на какую-то часть данных достигает нуля, целый граф указателей, достижимых из этого объекта, должен быть пройден. Структуры данных, спроектированные с применением shared-указателей, могут требовать много времени для удаления и, за исключением простых случаев, вы никогда не знаете, какой из указателей выйдет за область видимости и вызовет деструктор.
Аккуратное управление ресурсами и использование **shared\_ptr** всё же могут быть обоснованными в однопоточных приложениях, но вы обретаете большие неприятности, когда начинаете работать с многопоточностью. Каждое увеличение и уменьшение счетчика требует блокировки! Эта блокировка обычно реализуется с помощью атомарных переменных, но есть еще и мьютексы! Не позволяйте себя обмануть: доступ к атомарным переменным обходится дорого. Это подводит меня к центральной проблеме в С++.
###### Многопоточность и параллелизм
Прошло 8 лет с тех пор, как Герб Саттер лихо заявил: [«Халява закончилась!»](http://www.gotw.ca/publications/concurrency-ddj.htm)
С тех пор огромный танкер С++ всё медленнее меняет свой курс. Многопоточность не была изобретена в 2005 году. Posix-потоки были созданы в 1995 году. Майкрософт представила потоки в Windows 95, а поддержку многопроцессорных систем — в Windows NT. Однако многопоточность была признана в стандарте С++ только 2011 года.
С++ 11 был вынужден начать с глубоких раздумий. Надо было определить модель памяти: когда и в каком порядке память, записанная из нескольких потоков, становится видимой из других потоков. Исходя из практических соображений, модель памяти в С++ была скопирована с Java (за вычетом некоторых спорных гарантий, который Java дает о поведении в случае рейсов). Короче говоря, программы на С++ являются последовательно согласованными, если нет рейсов. Но С++ приходится конкурировать с языком ассемблера, поэтому полная модель памяти включает так называемую слабую атомарность, которую я предпочитаю описывать как переносимые рейсы и рекомендую держаться подальше от нее.
C++11 также определяет примитивы для создания и управления потоками, а также базовые примитивы для синхронизации, определенные Дейкстрой и Хоаром в шестидесятых, такие как мьютексы и условные переменные. Можно усомниться в том, что они являются по-настоящему верной основой для синхронизации, но это не так уж и важно, ведь их всё равно нельзя использовать в композиции. Компонуемая абстракция для синхронизации — это STM (Software Transactional Memory), которую сложно реализовать корректно и эффективно в императивном языке программирования. В Комитете Стандарта есть группа изучения STM, так что есть шанс, что в один прекрасный день STM станет частью стандарта. Но STM будет очень сложно использовать должным образом, ведь С++ не предлагает никакого контроля последствий своих действий.
Еще была ошибочная и запутанная попытка предоставить поддержку task-ориентированного параллелизма с [асинхронными задачами](http://bartoszmilewski.com/2011/10/10/async-tasks-in-c11-not-quite-there-yet/) и не компонуемыми [future](http://bartoszmilewski.com/2009/03/03/broken-promises-c0x-futures/) (и то, и другое являются серьезными кандидатами в deprecated-список в С++ 14). Локальные переменные потоков были также стандартизированы исходя из task-ориентированного подхода, который является более сложным. Блокировки и условные переменные тоже связано с потоками, а не с тасками. Поэтому это было вполне себе катастрофой. Комитет Стандарта обеспечил себя работой по удалению всего этого на много лет вперед. Работа включает в себя task-ориентированный компонуемый параллелизм, связь между потоками, чтобы заменить futures (хотелось бы надеяться), отмену task'ов и, возможно в далекой перспективе, работающий с данными параллелизм, включая поддержку GPU.
Производная от Microsoft PPL и Intel TBB должна стать частью Стандарта (надеюсь, что Microsoft AMP там не будет).
Давайте поверим в это и допустим, что все эти вещи будут стандартизированы и реализованы к, скажем, 2015 году. Даже если это вдруг случится, я всё еще не верю, что люди получат возможность использовать С++ для массового параллельного программирования. С++ был спроектирован для однопоточного проектирования, а параллельное программирование требует революционных, а не эволюционных изменений. Два слова: data race. Императивные языки не предоставляют защиты от рейсов — может быть, за исключением D.
В С++ данные по умолчанию расшарены между потоками, являются изменяемыми по умолчанию, и функции имеют побочные эффекты также по умолчанию. Все эти указатели и ссылки создают благодатную почву для рейсов, а подверженность структур данных и функций рейсам никак не отражается в системе типов. В С++, даже если у вас есть константная ссылка на объект, нет никаких гарантий, что другой поток не модифицирует его. Хуже того, любые ссылки внутри конст-объектов по умолчанию являются изменяемыми.
D, по крайней мере, имеет понятие глубокой константности и неизменности (ни один поток не может изменить неизменную структуру данных). Еще один плюс D — это возможность объявлять чистые функции. Еще в D изменяемые объекты не расшарены между потоками по умолчанию. Это шаг в верном направлении, хотя он и добавляет стоимость выполнения при работе с расшаренными объектами. Хотя самое главное: потоки не являются хорошей абстракцией для параллельного программирования, поэтому такой подход не будет работать для легковесных задачи и работой с очередями, когда задачи передаются между потоками.
Но С++ не поддерживает ничего из этого и не похоже, что когда-нибудь начнет.
Конечно, вы можете назвать всё это про-многопоточностью и фичами параллелизма как функционального программирования — в частности, неизменность и чистые функции.
Но рискну показаться навязчивым: Хаскель на голову впереди всех в отношении параллелизма, включая поддержку GPU. Вот почему я так легко перешел на сторону Хаскеля после долгих лет хорошей евангелистской практики на С++. Каждый программист, серьезно относящийся к параллелизму и многопоточности, должен изучить Хаскель, чтобы понять его работу с ними. Есть отличная книга Саймона Марлоу — [«Parallel and Concurrent Programming in Haskell»](http://www.amazon.com/Parallel-Concurrent-Programming-Haskell-Multithreaded/dp/1449335942). После ее прочтения вы либо начнете использовать техники функционального программирования при работе с С++, либо обнаружите глобальное несоответствие между параллельным программированием и императивным языком, после чего переключитесь на Хаскель.
###### Заключение
Я считаю, что язык С++ и вся его философия находятся в прямом конфликте с требованиями функционального программирования. Этот конфликт несет ответственность за очень медленное внедрение параллельного программирования в мэйнстримную разработку софта. Мощности многоядерных процессоров, векторные юниты и GPU теряют производительность из-за устаревших парадигм программирования.
###### Библиография
Здесь я привел несколько из моих публикаций об управлении ресурсами:
1. Bartosz Milewski, “Resource Management in C++,” Journal of Object Oriented Programming, March/April 1997, Vol. 10, No 1. p. 14-22. Здесь всё еще нет unique\_ptr, поэтому я использую auto\_ptr, если это необходимо. Я реализовал auto\_vector, ведь нет возможности пользоваться вектором auto\_ptr.
2. C++ Report in September 1998 and February 1999 (auto\_ptr еще используется).
* [Strong Pointers and Resource Management in C++](http://www.informit.com/articles/article.aspx?p=21477).
* [Resource Management in Action](http://www.informit.com/articles/article.aspx?p=21476)
3. [C++ in Action](http://www.amazon.com/Action-Industrial-Strength-Programming-Techniques/dp/0201699486) (still auto\_ptr), Addison Wesley 2001.Смотрите часть этой книги, в которой говорится о [управлении ресурсами](http://www.bartosz.com/book/tech/5resource.html).
4. [Walking Down Memory Lane](http://erdani.com/publications/cuj-2005-10.pdf), with Andrei Alexandrescu, CUJ October 2005 (используется unique\_ptr)
5. [unique\_ptr–How Unique is it?](http://bartoszmilewski.com/2009/05/21/unique_ptr-how-unique-is-it/), WordPress, 2009 | https://habr.com/ru/post/196110/ | null | ru | null |
# Бизнес-процессы в enterprise компаниях: домыслы и реальность. Проливаем свет с помощью R
Краткая заметка по теме business process mining в контексте роста интереса к концепции "digital twin". В силу периодического выплывания этой темы считаю целесообразным поделиться подходами к решению.
Постановка задачи
=================
Ситуация предельно проста.
* Есть компания X (Y, Z, ...).
* В компании есть бизнес-процессы, автоматизированные различными ИТ системами.
* Есть бизнес-аналитики, которые нарисовали bpmn диаграммы по этим процессам. Если говорить точнее, их собственное "bpmn представление" о том, как эти процессы должны были бы выглядеть.
* Бизнес пользователи хотят иметь какое-то представление (KPI) по этим процессам.
Как докопаться до истины и посчитать эти метрики?
Является продолжением [предыдущих публикаций](https://habrahabr.ru/users/i_shutov/posts/).
Формулируем задачу в понятных для компьютера требованиях
========================================================
Базисные постулаты:
* Есть временнОй лог событий (это могут разнообразные логи ИТ систем, cdr\xdr, просто записи событий в БД) разной степени чистоты, полноты и согласованности.
* ИТ системы действуют как конечный автомат и "гуляют" между различными состояниями в соответствии с действиями пользователей и бизнес-логикой, заложенной программистами в них.
* Взаимодействие пользователей осуществляется в транзакционном виде.
Корректировки физического мира:
* Количество внесенных изменений в ИТ системы таково, что bpmn диаграммы бизнес-аналитиков не имеют почти ничего общего с реальностью.
* Данные могут быть сильно неструктурированными (например, логи приложений).
* "Транзакционность" является логическим понятием. Сами записи событий содержат только атрибуты, присущие этому состоянию и нет никакого сквозного идентификатора транзакции.
* Число записей в сутки составляет **десятки-сотни-тысячи миллионов штук**.
Решение "поставил-посчитал"
===========================
Для решения подобных задач необходимо:
* реконструировать транзакции;
* реконструировать реальные бизнес-процессы;
* провести расчеты;
* сформировать результаты в human-readable формате.
Можно начать искать вендорские решения и платить миллионы. Но у нас же в руках есть R. Он вполне прекрасно позволяет решить эту задачу. Краткие соображения ниже.
Вроде все просто и в R есть хороший согласованный набор пакетов [bupaR](https://www.bupar.net/). Но ложка дегтя присутствует и она отравляет все. Этот набор за приемлемое время справляется только с небольшим количеством событий (сотни тысяч — несколько миллионов).
Для больших объемов надо использовать иные подходы.
Добавляем скорости!
===================
Эмулируем входной набор данных
------------------------------
Для демонстрации идей необходимо сформировать некий тестовый набор данных. Возьмем в качестве физического исходника мат.модели пример федеральной сети магазинов, благо это понятно абсолютно всем. Хотя с таким же успехом это могут быть банкоматы, колл-центры, общественный транспорт, водоснабжение и т.д.
* Есть магазины разного масштаба (маленькие, средние и большие).
* В магазинах есть кассы (pos терминалы).
* Номера магазинов могут быть цифробуквенными, номера терминалов — цифровые.
* В магазины ходят покупатели и делают покупки чего-нибудь и при этом оплачивают картой.
* Взаимодействие pos терминала с картой и банком описывается определенным набором состояний и правилами перехода между ними.
* Операции бывают успешные, неуспешные, отложенные и незавершенные (банк недоступен, например).
* Транзакции обладают таймаутами.
Берем следующий набор паттернов бизнес-операций:
```
"INIT-REQUEST-RESPONSE-SUCCESS"
"INIT-REQUEST-RESPONSE-ERROR"
"INIT-REQUEST-RESPONSE-DEFFERED"
"INIT-REQUEST"
"INIT"
```
Для демонстрации подхода создадим малый семпл, но это все прекрасно работает и на миллиардах записей (для такого объема без суперглубокой оптимизации **характерное время измеряется всего сотнями секунд** на одном сервере весьма посредственной производительности).
Сразу спойлеры для больших объемов:
* во многих местах средствами `tidyverse` можно ответа и не дождаться;
* оптимизация даже микрошагов полезна и может дать значимый вклад.
**Код для симуляции сэмплов**
```
library(tidyverse)
library(datapasta)
library(tictoc)
library(data.table)
library(stringi)
library(anytime)
library(rTRNG)
data.table::setDTthreads(0) # отдаем все ядра в распоряжение data.table
data.table::getDTthreads() # проверим доступное количество потоков
set.seed(46572)
RcppParallel::setThreadOptions(numThreads = parallel::detectCores() - 1)
# Важное допущение -- нет параллельных бизнес-транзакций, все выполняется строго последовательно
# Есть 5 типа паттернов бизнес-операций, 2 последних -- глобальные сбои
bo_pattern <- tibble::tribble(
# маркеры паттерна, частота в пуле операций, средняя длительность транзакции
~pattern, ~prob, ~mean_duration,
"INIT-REQUEST-RESPONSE-SUCCESS", 0.7, 5,
"INIT-REQUEST-RESPONSE-ERROR", 0.15, 5,
"INIT-REQUEST-RESPONSE-DEFFERED", 0.07, 8,
"INIT-REQUEST", 0.05, 2,
"INIT", 0.03, 0.5
)
# Проверка корректности данных + расчет абсолютных частот событий
checkmate::assertTRUE(sum(bo_pattern$prob) == 1)
df <- bo_pattern %>%
separate_rows(pattern) %>%
# нормировочный коэффициент
mutate(coeff = sum(prob)) %>%
group_by(pattern) %>%
# переведем в проценты
summarise(event_prob = sum(prob/coeff)*100) %>%
ungroup()
checkmate::assertTRUE(sum(df$event_prob) == 100)
# Пусть есть 3 типа магазинов: маленькие (4 кассы), средние (12 касс), большие (30 касс)
df1 <- tribble(
~type, ~n_pos, ~n_store,
"small", 4, 10,
"medium", 12, 5,
"large", 30, 2
) %>%
# генерируем номера магазинов для каждой группы
mutate(store = map2(row_number(), n_store,
~sample(x = .x * 1000 + 1:.y, size = .y, replace = FALSE))) %>%
unnest(store) %>%
# генерируем номера терминалов для каждого магазина
mutate(pos = map(n_pos, ~sample(x = .x, size = .x, replace = FALSE))) %>%
unnest(pos) %>%
mutate(pattern = sample(bo_pattern$pattern, n(), replace = TRUE, prob = bo_pattern$prob))
tic("Generate transactions")
# транзакции идут одна за другой, в параллель ничего не исполняется
# для упрощения задачи мы сгенерируем количество записей с запасом, а потом отсечем по временнЫм границам
df2 <- df1 %>%
# для каждой транзакции случайным образом сгенерируем общую продолжительность
select(-matches("duration")) %>%
left_join(bo_pattern, by = "pattern") %>%
# раздуем сэмплы
sample_frac(size = 200, replace = TRUE) %>%
mutate(duration = rnorm(n(), mean = mean_duration, sd = mean_duration * .25)) %>%
select(-prob, -mean_duration) %>%
# отбрасываем все транзакции, которые имеют отрицательную длительность или > таймаута
# таймаут устанавливаем равным 30 секунд
filter(duration > 0.5 & duration < 30) %>%
# теперь для каждого POS сгенерим поток событий на основе паттернов
mutate(session_id = row_number()) %>%
# расщепляем транзакции на отдельные состояния, при этом порядок следования состояний сохраняется
separate_rows(pattern) %>%
rename(event = pattern)
toc()
tic("Generate time markers, data.table way")
samples_tbl <- data.table::as.data.table(df2) %>%
# setkey(session_id, duration, physical = FALSE) %>%
# на каждую транзакцию надо навесить времена между каждой отдельным состоянием
# 1-ая операция тоже имеет дельту от конца предыдущей, полагаем, что она будет не менее 5 секунд
# .[, ticks := base::sort(runif(.N, 5, 5 + duration)), by = .(session_id, duration)] %>%
# при малом объеме данных очень большие накладные расходы на match.arg у функции base::order!!
# делаем в два захода
# сначала просто генерируем случайные числа от 0 до 1 для каждой записи отдельно
# и масштабируем одним вектором
# .[, tshift := runif(.N, 0, 1)] %>%
# в таком расладе trng быстрее в несколько раз (может даже на порядок получиться)
# фактически, здесь мы считаем случайные соотношения времен между операциями внутри транзакции
.[, trand := runif_trng(.N, 0, 1, parallelGrain = 100L) * duration] %>%
# делаем сортировку вектора внутри каждой сессии, простая сортировка будет ОЧЕНЬ долгой
# .[, ticks := sort(tshift), by = .(session_id)] %>%
# делаем трюк, формируем составной индекс из session_id, который является монотонным, и смещением по времени
.[, t_idx := session_id + trand / max(trand)/10] %>%
# подтягиваем в колонку сортированное значение вектора с реконструкцией
# session_id в целой части гарантирует сортировку пропорций в рамках каждой транзакции без доп. группировок
.[, tshift := (sort(t_idx) - session_id) * 10 * max(trand)] %>%
# добавим дополнительной реалистичности, между транзакциями на одном POS должны быть большие паузы (60 сек)
.[event == "INIT", tshift := tshift + runif_trng(.N, 0, 60, parallelGrain = 100L)] %>%
# удаляем весь промежуточный мусор
.[, `:=`(duration = NULL, trand = NULL, t_idx = NULL,
n_store = NULL, n_pos = NULL,
timestamp = as.numeric(anytime("2019-03-11 08:00:00 MSK")))] %>%
# переводим все в физическое время, начиная от 01.03.2019 для каждой кассы отдельно
.[, timestamp := timestamp + cumsum(tshift), by = .(store, pos)] %>%
# фильтруем по текущему рабочему дню
.[timestamp <= as.numeric(anytime("2019-04-11 23:00:00 MSK")), ] %>%
# и обратно одним действием преобразуем числа во время для вектора
.[, timestamp := anytime(timestamp, tz = "Europe/Moscow")] %>%
as_tibble() %>%
select(store, pos, event, timestamp, session_id)
toc()
```
Для чистоты эксперимента оставим только значащие параметры и все перемешаем. В реальной жизни надо еще случайным образом выкинуть часть фрагментов (возможно отдельными временными блоками), эмулируя тем самым потери в получении данных.
```
# перемешиваем данные
log_tbl <- samples_tbl %>%
select(store, pos, state = event, timestamp_msk = timestamp) %>%
sample_n(n())
# посмотрим графически
log_tbl %>%
mutate(timegroup = lubridate::ceiling_date(timestamp_msk, unit = "10 mins")) %>%
ggplot(aes(timegroup)) +
# geom_bar(width = 0.7*600) +
geom_bar(colour = "white", size = 1.3) +
theme_bw()
```

Проиллюстрируем картинкой схему процесса

и распределение по состояниям

Незначительные флуктуации обусловлены тем, что таблица считается вначале (есть во включенном коде), а `bupaR::process_map` работал в конце, когда часть случайно сгенерированных данных, не подходящих под интегральные ограничения, была срезана элементами фильтрации.
Реконструкция транзакций
------------------------
Первое, что обычно предлагают, когда приходится собирать\разбирать\сопоставлять временные ряды, это группировки и циклы сравнений. В демонстрационных примерах на 100 записей этот поход сработает, но миллионных списках — нет. Чтобы справиться с этой задачей надо локализовать точки потери времени (внутренние циклы, промежуточные выделения памяти и копирование) и постараться устранить их до минимума.
В итоге эту задачу можно свести к десятку строчек.
**код реконструкции транзакций**
```
clean_dt <- as.data.table(log_tbl) %>%
# все транзакции начинаются с INIT
.[, start := (state == "INIT")] %>%
# синтетический session_id будем строить в рамках одного дня, поэтому
# для кардинального сокращения времени преобразования перевод даты в строку сделаем по группам
.[, event_date := lubridate::as_date(timestamp_msk)] %>%
.[, date_str := format(.BY[[1]], "%y%m%d"), by = event_date] %>%
# временнУю сортировку от прошлого к будущему сделаем один раз для всех
# timestamp_msk уже содержит миллисекунды
setorder(store, pos, timestamp_msk) %>%
# есть еще одна беда -- разрыв в поступлении данных может приводить к искажению правильного шаблона путем приклейки огрызков
.[, session_id := paste(date_str, store, pos, cumsum(start), sep = "_")] %>%
# попробуем подкорректировать путем введения разрешенного транзакционного окна (возьмем 30 сек)
# .[, time_shift := timestamp_msk - shift(timestamp_msk), by = .(store, pos)] %>%
# в отсортированном списке событий протягиваем куммулятивный максимум времени, ориентируясь на INIT
.[, time_locf := cummax(as.numeric(timestamp_msk) * as.numeric(start)), by = .(store, pos)] %>%
.[, time_shift := as.numeric(timestamp_msk) - time_locf] %>%
# маркируем транзакционное окно, при генерации мы его установили равным 30 секунд
.[, lost_chain := time_shift > 30] %>%
# .[, time_shift := as.numeric(!start) * as.numeric(timestamp_msk - shift(timestamp_msk, fill = 0))] %>%
# INIT зануляет куммулятивную дельту
# .[, time_accu := cumsum(time_shift)] %>%
.[, date_str := NULL]
# агрегируем и потом считаем объемные показатели на уровне транзакций
# для больших объемов tidyverse не годится, дождаться конца исполнения не получилось
dt <- as.data.table(clean_dt) %>%
# исключаем огрызки из транзакционного анализа!!!
.[lost_chain != TRUE] %>%
# делаем глобальную сортировку для прямой отсылки к 1-му и последнему элементу
.[order(timestamp_msk, store, pos)] %>%
.[, bp_pattern := stri_join(state, collapse = "-"), by = session_id]
# проверим статистику по паттернам
as_tibble(dt) %>%
distinct(session_id, bp_pattern) %>%
count(session_id, sort = TRUE)
```
Через несколько секунд имеем реконструированную картину бизнес-процессов.
И (кто бы мог подумать!!!) по факту оказывается, что автоматизированные в ИТ системах бизнес-процессы работают несколько не так (или совсем не так), как всех убеждали бизнес-аналитики. Удивления и споры "владельцев процесса" будут сопровождать изучение финальной картинки.
Активно применяем трюки
=======================
Когда скорость вычисления становится важной величиной мало просто написать рабочий код. Необходимо обратить внимание на все уровни. Также есть ряд алгоритмических трюков, которые позволяют существенно сократить время выполнения.
В частности, в этой задаче можно упомянуть следующее:
1. Для основного процессинга только `data.table` (скорость, работа по ссылкам), + учет внутренней оптимизации запросов.
2. `POSIXct` может содержать миллисекунды (хоть штатно и не отображается, но можно подправить с помощью `options(digits.secs=X)`), прячем их туда, проще будет сравнивать и сортировать.
3. Избегаем физической сортировки внутри групп! Однократная физическая сортировка всего вектора гарантирует сортировку данных в группировках.
4. Избегаем вычислений внутри групп. Все что можно, стараемся выполнить на исходных данных (применяем векторизацию, снижаем накладные на вызовы функций).
5. Используем таймаут на транзакции, чтобы бороться с временными разрывами.
6. Методы locf (Last Observation Carried Forward) работают медленно. Для переноса свойств по шкале времени используем `cumsum`, `cummax`.
7. Трудоемкие операции, такие как преобразование POSIX -> строка, поиск по регуляркам и т.п. делаем не поэлементно, а на свертках. Накладные на внутреннюю индексацию и группировку преобразуемого поля несопоставимо меньше.
8. Активно используем многопоточность (в т.ч. внутрипакетную).
9. Не пренебрегаем микрооптимизацией. Например, `stri_c` в несколько раз быстрее `paste0`.
```
# Тест 1
log <- getLog(fileName)
bench::mark(
paste0 = paste0(log$value, collapse = "\n"),
stringi = stri_c(log$value, collapse = "\n")
)
# # A tibble: 2 x 13
# expression min median `itr/sec` mem_alloc `gc/sec` n_itr n_gc total_time
#
# 1 paste0 58ms 59.1ms 16.9 496KB 0 9 0 533ms
# 2 stringi 16.9ms 17.5ms 57.1 0B 0 29 0 508ms
```
Предыдущая публикация — [Швейцарский нож для обработки json](https://habr.com/ru/post/448950/). | https://habr.com/ru/post/461463/ | null | ru | null |
# Организация доступа в сеть WI-FI московского метрополитена с точки зрения безопасности
#### Введение
В данном исследовании проанализирована схема работы беспроводной сети московского метрополитена с точки зрения обычного пользователя. В рамках тестирования использовался телефон на Android. Случаи, когда телефон не был ни разу авторизован в сети, рассматриваются в ограниченном формате.
#### Процесс подключения
При подключении к сети WI-FI происходит следующее:
Происходит первоначальная ассоциация устройства с WI-FI точкой. Затем устройство устанавливает TCP соединение c сервером Google.

*Рисунок 1: установление TCP соединения*
Далее телефон на Android проверяет необходимость авторизации в сети, путем отправки GET запроса на сервер Google. Если приходит ответ – авторизация не требуется, если не приходит – требуется авторизация, если происходит редирект на веб-страницу авторизации, телефон отображает ее.

*Рисунок 2: проверка на необходимость авторизации*
Шлюз, в свою очередь, на любой http-запрос отвечает, подменяя ответы запрашиваемого сервера на редирект к странице авторизации.


*Рисунок 3: редирект на страницу авторизации*
Далее мы жмем кнопку «войти в интернет». Вот сам пакет, видно, что он идет на адрес из private сегмента:

*Рисунок 4: пакет с запросом на авторизацию wi-fi.ru*
А сам запрос выглядит следующим образом:
```
GET / HTTP/1.1
Host: wi-fi.ru
Connection: keep-alive
Cache-Control: max-age=0
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8
Upgrade-Insecure-Requests: 1
User-Agent: Mozilla/5.0 (Linux; Android 5.1.1; HUAWEI MT7-L09 Build/HuaweiMT7-L09) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.83 Mobile Safari/537.36
Referer: https://login.wi-fi.ru/am/UI/Login?org=mac&service=coa&client_mac=66-a0-f6-dd-d2-9e&ForceAuth=true
Accept-Encoding: gzip, deflate, sdch
Accept-Language: ru-RU,ru;q=0.8,en-US;q=0.6,en;q=0.4
Cookie: adfoxUserID=19:154848341; _ym_uid=1449217853212630314; _ym_isad=1; device_type=mobile; surf_prev_url=undefined; surf_curr_url=http://wi-fi.ru/; crtg_rta=; _mtp=0:ijk1njsr:69XJtN~ZNVIaYHb4OT3NHAOjPvLS50k4; _ga=GA1.2.1994719851.1449217854; amlbcookie=01; t=AQIC5wM2LY4SfcxCV1htnKzHF3mtmXJCDcvGniOTgqxvUMc.*AAJTSQACMDIAAlNLABQtNTkwNDE0MjY2MjYxNzMzMzgwOAACUzEAAjAx*
If-None-Match: W/"74f5335bcd0524bfcd031469fc9c52e5"
```
#### Анализ
Видно, что в качестве параметра в том числе передается MAC адрес нашего устройства. Это наводит на мысль, что мак адрес является идентификатором, и именно по нему сеть понимает, оплачен у нас интернет или нет. Нужно отметить, что адреса login.wi-fi.ru и wi-fi.ru доступны в том числе и из публичного интернета. Это позволяет нам проверить любой MAC адрес на его статус. Выглядит это следующим образом:
MAC адрес, который не бывал в метро:

*Рисунок 5: MAC адрес, ни разу не бывавший в метро*
MAC адрес, который не оплатил интернет:

*Рисунок 6: MAC не оплатил интернет*
MAC адрес, который оплатил интернет, попадает на страницу с ошибкой (так как мы не внутри сети), но потом успешно автоматически перенаправляется на wi-fi.ru:

*Рисунок 7: ошибка при подключении*

*Рисунок 8: успешное подключение*
Выяснилось, что при авторизации сервер отдает на страницу тип подключаемого MAC адреса:

*Рисунок 9: группы, к которым принадлежит наш MAC*
В том числе видно, что если у нас в группе прописан mosmetro\_premium, значит мы счастливый обладатель оплаченного интернета.
#### Тест
Для автоматизации поиска различных типов MAC адресов был написан скрипт на Python: <https://bitbucket.org/hollow1/metro>
C его помощью была найдена парочка «оплаченных» адресов:

*Рисунок 10: «оплаченные» адреса*
И в экспериментальных целях непосредственно в метро был подменен MAC тестового устройства на «оплаченный»:
```
sudo ifconfig en0 ether xx:xx:xx:xx:xx:xx
```
И все успешно завелось, без регистрации и смс. | https://habr.com/ru/post/304222/ | null | ru | null |
# Взломать шифр Хилла? Легко
Цель: взломать шифр Хилла
-------------------------
Доброго времени суток, уважаемые читатели! Сегодня я хотел поделиться способом, который помог мне вскрыть текст, зашифрованный методом Хилла. Что такое метод Хилла описывать не буду: до меня уже постарались опытные умельцы донести особенности данного способа. [Ссылка на пост](https://habrahabr.ru/post/332714).
### Что имеем?
Скажу сразу, что на руках не имелось ни открытого текста, ни ключа. Было известно, что текст длинной **6286** символов был зашифрован матрицей **7 х 7**. Поэтому для нашего же удобства, мы разобьем текст на **898** строчек по **7** символов. В тексте не содержатся буквы **'ё'** и **'ъ'**. В целях благоразумства, я не буду приводить весь зашифрованный текст, а лишь его часть:
`тчгяцмекещэнлжсвтйджтчгсмнежздыщзяотьдрпюмимаадрх...`
На вид бессмысленная ерунда, пока что…
### Как будем ломать?
Рассмотрим атаку «грубой силой». Выше было оговорено, что из алфавита исключены две буквы, поэтому все линейные комбинации при шифровании (как и при дешифровке) берутся по **mod 31** (учитывая, что это простое число, текст становится чуть более безопасным).
Если рассматривать перебор обратных матриц-ключей, то всего нам придется перебрать  комбинаций (это число примерно умещается в 75 знаков). Поэтому такой способ исключается моментально, хотя! Если из этого множества можно было бы каким-нибудь более-менее быстрым способом перебрать подмножество **невырожденных матриц**, то возможно задача облегчилась бы. К сожалению я такого способа не знаю и не уверен, что такой вообще существует!
### Как быть?
Предлагаю слегка «смягчить» нашу атаку и воспользоваться смекалкой. Представим, что мы знаем исходную матрицу и возьмем одну из ее строчек. Пускай это будет **первая строчка**. Если мы применим умножение **первой строки ключа** на **первый блок** размера 7, то мы получим **первую букву** открытого текста. Если умножим на второй блок, то имеем **седьмую букву** открытого текста и т.д. Таким вот образом мы можем получить 898 символов открытого текста и собрать с него какую-то статистику! Отлично, тогда нам придется подобрать такие семь строчек ключей, которые удовлетворяет некоторому критерию. Таким критерием я взял **[индекс совпадений](https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D0%B4%D0%B5%D0%BA%D1%81_%D1%81%D0%BE%D0%B2%D0%BF%D0%B0%D0%B4%D0%B5%D0%BD%D0%B8%D0%B9)** русского языка. Для этого нужно собрать все 898 букв, посчитать частотность для каждой буквы и рассчитать их индекс совпадений (ИС). пересчёт ИС впрямую навеял сомнения по следующей причине: использование типа **double** препятствует быстрому выполнению программы. Мне посчастливилось найти прекраснейшую [статью](http://www.threaded.com/cryptography2.htm) о **ФИ-тесте** для моноалфавитности. Очень кратко:
* Рассчитывается «критическая» точка , где N — длина текста;
* Берется случайный текст, рассчитывается , где F — сколько раз встречается буква в тексте;
* Узнаем, насколько лучше  аппроксимирует .
Скорее вы подметите, что тут ничего нового-то и нет. Всё тоже самое можно проделать при взломе шифра Виженёра. Однако, это нам позволит в программе использовать только целочисленные типы, засчёт чего производительность пересчёта только ускорится.
### Начинаем ломать...
Сразу оговорюсь: да, я ~~быдло~~-кодер. Ни капли не сомневаюсь, что профессионалы языка С найдут здесь к чему придраться :). Программа была распараллелена на 8 потоков.
Скажу, что для нашего текста . Приведу код одного потока:
```
int chast[898]; /*Номера букв исходного текста*/
int mass[31]; /*Массив количества каждой буквы*/
int c1;
int c2;
int c3;
register __int32 PHI_O; /*PHI(O)*/
for (int k1 = 0; k1 < 4; k1++) {
/*Здесь вложенные циклы for ...*/
for (int k7 = 0; k7 < 31; k7++) {
/*При новой комбинации ключа очищаем массив и PHI(o) */
memset(mass, 0, sizeof(mass));
PHI_O = 0;
/*Сгенерированный ключ применяем к зашифрованном тексту*/
for (int i = 0; i < 898; i++)
{
c1 = k1 * sym[7 * i] + k2 * sym[7 * i + 1];
c2 = k3 * sym[7 * i + 2] + k4 * sym[7 * i + 3];
c3 = k5 * sym[7 * i + 4] + k6 * sym[7 * i + 5] + k7* sym[7 * i + 6];
chast[i] = (c1 + c2 + c3) % 31; /*Получаем какой-то текст*/
mass[chast[i]]++; /*Сразу кладём в подсчет буквы*/
}
for (int i = 0; i < 31; i++)
PHI_O += mass[i] * (mass[i] - 1);
if(PHI_O > 39000)
{
cout << PHI_O << '\n';
printf("%d %d %d %d %d %d %d\n", k1, k2, k3, k4, k5, k6, k7);
}
}
/*Куча закрывающихся скобок от вложенных циклов */
}
```
Таким образом один поток перебирает  строчек матрицы ключа и производится фи-тест. Как следствие я получил достаточно много кандидатур на «хорошие» ключи. Некоторые были настолько изящны, что их ИС на 898 символов был равен **0,0529**! *Не всё золото, что блестит*. Я не поленился пересчитать частотность букв, полученные с помощью строки-ключа и заметил удивительную вещь:
*Данный ряд букв полностью удовлетворял критерию фи-теста, но частотность букв не являлась правдоподобной.* Иными словами буква «в» могла встретиться так же часто, как в натуральном тексте встречается буква «о», а «о» могла и вовсе не встретиться, но при этом свойство ИС сохранялось. Мне не удалось дать этому *математическое* объяснение. Я исключаю, что это случайное совпадение. Итак, нам пришлось *~~отделить мух от котлет~~* выбрать самых лучших кандидатов, которые неплохо сочетаются с частотностью литер нашего любимого и родного русского языка. Удивительно, такому жёсткому отбору удовлетворяли кандидатуры нескольких бойцов:
* 3 16 5 24 17 20 25
* 6 30 5 1 13 12 3
* 7 11 18 12 17 27 15
* 12 17 0 15 5 16 1
* 15 19 27 14 21 10 2
* 25 14 27 20 22 21 22
* 29 3 1 10 30 28 26
Осталось-то всего ничего… Расположить их в нужной последовательности. Для этого мне пришлось создать матрицу-ключ, с помощью функции перестановки элементов менять между собой индексы строчек (т.е. перестановка шла только между индексами) и применять полученную матрицу к зашифрованному тексту, все это дело я выводил в текстовый файл (чудно) и пытался зацепиться хоть за какой-то осмысленный текст. Ищем… ищем… стоп! Кажется что-то получилось! Да!

Кстати найти среди 7! строк осмысленный текст очень легко, займет не больше 2 минут. Кажется, это всё!
### Выводы
Вычисления на CPU на 8 потоках заняли у меня 10 часов. ЭВМ пыхтела как паровоз. Столкнулся с трудностями не раз. Во-первых, были кучи ошибок внутри кода, которые спустя 10 часов давали неверный результат. Во-вторых, было сложно подобрать подходящий критерий. В-третьих, программа не давалась хорошей оптимизации (в этой статье я привёл кусок неоптимизированного кода). Что касается **теоретической** стороны вопроса: [Разделяй и властвуй](https://eprint.iacr.org/2015/802.pdf).
Данная статья (*по указанной ссылке*) обязательна к прочтению всем, кто интересуется классическим криптоанализом. Техника отлично подходит для *небольших* текстов, когда широкодушно не применишь свои навыки частотного анализа. Метод «жестко» рекурсивен в том смысле, что сильно зависит от всех предыдущих результатов. По этой причине его невозможно распараллелить (кстати, его и не оптимизировать при всём желании), но метод динамичен и должен привести к верному результату (в теории).
Что же на **практике**? **CUDA**~~же без него~~! Будь у меня своя ферма титанов (хотя бы штучек 10), шифр Хилла был бы разорван в клочья менее, чем за минуту. Концепция параллельных вычислений на CUDA, как стая голодных пираний, не даёт шанса остаться криптостойким этому методу шифрования, сжимая время в несколько тысяч раз. Я не огромный специалист в этом деле, но я ни чуть не сомневаюсь, что это идея легко реализуема и надеюсь её кто-то осуществит (если очень захочет).
Это всё! Надеюсь моя статья будет хоть чуточку полезной для вас! Спасибо за внимание. | https://habr.com/ru/post/345876/ | null | ru | null |
# Speedtest on premise
В производственной среде часто бывает нужно быстро оценить скорость сетевого подключения в локальной сети.
Один из лучших инструментов — iperf. Но если речь не идет о точной диагностике, он сложен для рядового пользователя, да и непрофильному ИТ специалисту потребуется время «включиться» и вспомнить, как он работает. Интернет-спидометры подходят плохо, т. к. показывают характеристики Интернет-подключения к какому-то внешнему серверу, и никак не отражают состояние напр., гигабитного линка ПК от какого-то корпуса до вашего ЦОД. Ookla предлагает вариант self-hosted ноды speedtest. Ранее удобный для локального развертывания Speedtest mini сейчас не поддерживается и заменен на Speedtest Custom, являющийся закрытым продуктом. Подписка для включения всех функций стоит $1995/год для 1-го сервера. Копирование файла - метод совсем грубый, т. к. засекать время неудобно, вмешивается антивирус и кэш при копировании повторном или в обратную сторону. Частично помогает программа LAN Speed Test, бесплатной Lite версии которой для оценки достаточно. Но хочется чего-то простого, универсального, без дополнительного ПО на клиенте и открытого.
На сайте [Awesome Open Source](https://awesomeopensource.com/) попался проект [Librespeed](https://awesomeopensource.com/project/librespeed/speedtest). Self-hosted, HTML5, PHP, одно- и многосерверные конфигурации, статистика, легко ставится и настраивается, работает на разных дистрибутивах или в контейнере. Стандартный интерфейс можно посмотреть на <https://librespeed.org/>
* Достоинства: очень просто, быстро, наглядно; ведется статистика.
* Недостатки: как и любой веб-спидометр, годится только для оценки, не подходит для глубокого анализа; измеряет L7 (HTTP(S)), а не L2 (Ethernet подключение).
Веб-спидометр не покажет скорость Ethernet-линка. Особенности tcp/ip описаны, напр., в статье «[Как получить и измерить высокоскоростное соединение по TCP](https://habr.com/ru/post/115527)», сюда добавляется влияние самого HTTP, веб-сервера, браузера и, при использовании, шифрования. "Ping" в случае с http сущность также синтетическая и т.д. В корпоративной сети уточняйте свои настройки прокси-сервера, чтобы измерять скорость от клиента, а не от прокси. :)
Содержание
----------
1. [Установка (Apache).](#install_apache)
2. [Установка nginx (на выбор).](#install_nginx)
3. [Настройка БД статистики.](#setup_db)
4. [Создание БД.](#create_db)
5. [Создание в БД таблицы.](#create_table)
6. [Настройка подключения к БД.](#setup_db_connection)
7. [Настройка брандмауэра.](#setup_firewall)
8. [Запуск Апача.](#start_apache)
9. [Первый запуск.](#first_run)
10. [Персонализация.](#personalisation)
11. [Очистка.](#cleanup)
Подробная информация - на [странице проекта](https://github.com/librespeed/speedtest/blob/master/doc.md), ниже инструкция по запуску на CentOS 7 и Apache, с сохранением телеметрии в MariaDB. Добавлена глава для любитетелей nginx.
На чистой ОС в минимальной установке (до)настраиваем сеть, выполняем обновление, для ВМ устанавливаем гостевого агента виртуализации. SELinux и брандмауэр отключать не нужно!
Установка (Apache)
------------------
Нам потребуются следующие пакеты:
`$ sudo yum install vim git httpd php php-gd php-mysql mariadb-server mod_ssl`
Загружаем проект, делаем архивную копию и копируем файлы веб-сервера:
`$ cd /opt/ && sudo git clone https://github.com/librespeed/speedtest/`
`$ sudo tar czf /opt/speedtest.`date +%F`.tgz /opt/speedtest/`
`$ sudo cp -RZ /opt/speedtest/* /var/www/html/`
В php.ini нужно увеличить значение переменной post\_max\_size до 20 МиБ или выше
`$ sudo vim /etc/php.ini`
post\_max\_size = **20**M
На этом для Апача настройка почти завершена.
Установка (nginx, на выбор)
---------------------------
Настройка Энжинэкса немного сложнее. Настройки подсмотрены [здесь](https://www.cnblogs.com/lsgxeva/p/14079107.html).
Установка дополнительных пакетов:
`$ sudo yum install nginx php-fpm`
Делаем резервные настройки:`$ sudo cp /etc/nginx/nginx.conf /etc/nginx/nginx.conf.`date +%F``
`$ sudo cp /etc/php-fpm.d/www.conf /etc/php-fpm.d/www.conf.`date +%F``
`$ sudo cp /etc/php.ini /etc/php.ini.``date +%F`
Меняем секцию {server} nginx
$ sudo vim /etc/nginx/nginx.conf server {
listen 8080;
listen [::]:8080;
server\_name \_;
root /opt/speedtest;
# Load configuration files for the default server block.
include /etc/nginx/default.d/\*.conf;
location / {
index index.html index.htm index.php;
}
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
location ~ \.php$ {
fastcgi\_pass 127.0.0.1:9000;
fastcgi\_index index.php;
fastcgi\_param SCRIPT\_FILENAME $document\_root$fastcgi\_script\_name;
include fastcgi\_params;
}
error\_page 404 /404.html;
location = /404.html {
}
error\_page 500 502 503 504 /50x.html;
location = /50x.html {
}
}
Аналогично для PHP-FPM
$ sudo vim /etc/php.ini; cgi.fix\_pathinfo provides \*real\* PATH\_INFO/PATH\_TRANSLATED support for CGI. PHP's
; previous behaviour was to set PATH\_TRANSLATED to SCRIPT\_FILENAME, and to not grok
; what PATH\_INFO is. For more information on PATH\_INFO, see the cgi specs. Setting
; this to 1 will cause PHP CGI to fix its paths to conform to the spec. A setting
; of zero causes PHP to behave as before. Default is 1. You should fix your scripts
; to use SCRIPT\_FILENAME rather than PATH\_TRANSLATED.
; http://php.net/cgi.fix-pathinfo
**cgi.fix\_pathinfo=0**
$ sudo vim /etc/php-fpm.d/www.conf; Unix user/group of processes
; Note: The user is mandatory. If the group is not set, the default user's group
; will be used.
; RPM: apache Choosed to be able to access some dir as httpd
**user = nginx**
; RPM: Keep a group allowed to write in log dir.
**group = nginx**
Дополнительно
`$ sudo firewall-cmd --permanent --add-port=8080/tcp`
`$ sudo firewall-cmd --reload`
`$ sudo systemctl --now enable php-fpm.service nginx.service`
В этом случае предполагается, что корень сайта нашего спидометра остается в /opt/speedtest, модификация файлов должна производиться там и при очистке удалять каталог не следует. В качестве эксперимента можно поставить оба веб-сервера. ))
Настройка БД статистики
-----------------------
*Если статистика не нужна, шаг можно пропустить.*
*БД можно не плодить, а использовать уже имеющуюся на другом сервере. Настройки будут немного отличаться. Ниже инструкция для полностью автономной установки с локальной БД.*
`$ sudo systemctl enable mariadb.service`
`$ sudo systemctl start mariadb.service`
`$ sudo mysql_secure_installation`
Вывод программы настройкиEnter current password for root (enter for none):
Set root password? [Y/n]
New password:
Re-enter new password:
Remove anonymous users? [Y/n]
Disallow root login remotely? [Y/n]
Remove test database and access to it? [Y/n]
Reload privilege tables now? [Y/n]
Создание БД
-----------
`$ mysql -u root -p`
`MariaDB [(none)]> CREATE SCHEMA stats;`
`MariaDB [(none)]> USE stats;`
`MariaDB [stats]> CREATE USER 'my_user'@'localhost' IDENTIFIED BY 'myReallyStrongPA$$';`
`Query OK, 0 rows affected (0.00 sec)`
`MariaDB [stats]> GRANT ALL PRIVILEGES ON stats.* TO 'my_user'@'localhost';`
`Query OK, 0 rows affected (0.00 sec)`
`MariaDB [stats]> FLUSH PRIVILEGES;`
`Query OK, 0 rows affected (0.00 sec)`
`^d`
`MariaDB [stats]> Bye`
Создание в БД таблицы
---------------------
`$ mysql -u my_user -pmyReallyStrongPA\$\$ stats < /var/www/html/results/telemetry_mysql.sql`
*При использовании в командной строке пароля с спецсимволами их нужно экранировать.*
Настройка подключения к БД
--------------------------
`$ sudo vim /var/www/html/results/telemetry_settings.php`
В конфиге меняем 5 параметров:
`$stats_password = 'myP@$$';`
`$MySql_username = 'my_user';`
`$MySql_password = 'myReallyStrongPA$$';`
`$MySql_hostname = 'localhost';`
`$MySql_databasename = 'stats';`
Полное содержание конфигурационного файлаphp</p// Type of db: "mysql", "sqlite" or "postgresql"
$db\_type = 'mysql';
// Password to login to stats.php. Change this!!!
$stats\_password = '**myP@$$**';
// If set to true, test IDs will be obfuscated to prevent users from guessing URLs of other tests
$enable\_id\_obfuscation = false;
// If set to true, IP addresses will be redacted from IP and ISP info fields, as well as the log
$redact\_ip\_addresses = false;
// Sqlite3 settings
$Sqlite\_db\_file = '../../speedtest\_telemetry.sql';
// Mysql settings
$MySql\_username = '**my\_user**';
$MySql\_password = '**myReallyStrongPA$$**';
$MySql\_hostname = '**localhost**';
$MySql\_databasename = '**stats**';
$MySql\_port = '3306';
// Postgresql settings
$PostgreSql\_username = 'USERNAME';
$PostgreSql\_password = 'PASSWORD';
$PostgreSql\_hostname = 'DB\_HOSTNAME';
$PostgreSql\_databasename = 'DB\_NAME';
Выходим с сохранением — Shift+zz.
Настройка брандмауэра
---------------------
`$ sudo firewall-cmd --add-service=http --add-service=https --permanent`
`$ sudo firewall-cmd --reload`
`$ sudo firewall-cmd --list-all`
Запуск Апача
------------
`$ sudo chown -R apache:apache /var/www/html/`
`$ sudo systemctl --now enable httpd.service`
*Далее рекомендуется заменить самоподписанный сертификат на выпущенный в вашем центре сертификации.*
Первый запуск
-------------
Пора открыть на клиенте браузер и сделать первый замер:
http:///example-singleServer-basic.html
Страница статистики
http:///results/stats.php
Персонализация теста
--------------------
В комплекте идет несколько шаблонов
Шаблоны LibreSpeedВот некоторые из них:example-singleServer-full.html
example-singleServer-chart.html
example-singleServer-progressBar.html
example-singleServer-pretty.html
`$ sudo cp /var/www/html/example-singleServer-full.html /var/www/html/index.html`
В ней можно подкрутить заголовки, добавить «перевод» и пр.
`$ sudo vim /var/www/html/index.html`
"Локализация"Слева указаны номера строк (актуальны на момент написания статьи):
162 content:"Start"; -> **Начать**
165 content:"Abort"; -> **Прервать**
276 LibreSpeed Example -> **Мой супер тест**
279 LibreSpeed Example
==================
-> **Сетевой спидометр ООО АБВ**
282 [Privacy](#) -> **dd** *(удалить)*
286 Ping -> **Задержка**
291 Jitter -> **Дрожжание**
298 Download -> **Загрузка**
304 Upload -> **Выгрузка**
288, 293 ms -> **Мб/с**
301, 307 Mbps -> **Мб/с**
Для «серых» IP-адресов преобразование IP to geo работать не будет и оно нам не интересно. В локальной сети полезнее получить имя хоста.
`$ sudo vim /var/www/html/backend/getIP.php`
Строки 57, 62 и 67
`return 'private IPv4 access';`
дополнить функцией `gethostbyaddr` до
`return 'private IPv4 access (' . gethostbyaddr ($ip) . ')';`
В редакторе vim это можно сделать по всему тексту командой
`:%s/return 'private IPv4 access';/return 'private IPv4 access (' . gethostbyaddr ($ip) . ')';/g`
Очистка
-------
Для повышения безопасности и просто аккуратности установки целесообразно удалить более не используемые файлы:
`$ sudo rm -rf /opt/speedtest/ /var/www/html/docker/`
`$ sudo rm -f /var/www/html/example*html /var/www/html/results/telemetry*sql`
На этом все, долгого аптайма и стабильной работы! | https://habr.com/ru/post/550578/ | null | ru | null |
# Коллективное сознание на практике
Данный пост надо воспринимать:
или **очень серьезно**
или **игнорировать**или **троллить в комментах**.
Была ли у вас идея (у программистов) сделать мир лучше?
Одному с этой задачей не справиться - сложность слишком высока. Тут нужно коллективное сознание.
Попробуем? Го, я создал репозиторий.
---
Да! Серьезно, [вот он.](https://github.com/jazzz13/collective_mind)
Приглашаю всех кому интересно не лениться и делать форки, а потом пулы.
Собственно, а в чем суть?
-------------------------
Индивидуальный разум очень специфический и содержит сложные идеи и формулировки, которые весьма субъективны. Два человека (или несколько) еще могут хорошо друг друга понять на глубоком уровне абстракции, но когда речь идет о большем количестве людей - синхронизация страдает.
Зато большенство людей (и тем более программистов) хорошо договорились о базовых понятиях, если позволите, фундаментальных. [Голод, радость, страх, любовь, печаль, наследование, инкапсуляция, подлость, ...] - этот бесконечный список слов, и некоторые мыслительные процессы воспринимаются большинством людей одинаково объективно.
Так давайте поговорим на простом языке с применением доступных IT-практик?
Задача
------
Нужно в заданном формате дописать файл [README.md](https://github.com/jazzz13/collective_mind/blob/main/README.md) .
Формат. Есть 4 раздела:
- Новые фичи
- Баги мира
- Что сейчас или в будущем может сделать IT что бы решить данные задачи
- Предложения и другие идеи
- Практические предложения по коллективному взаимодействию и достижению цели
В каждый раздел можно вписать свои **лаконичные** мысли/вопросы/аргументы. Сообщение должно стремиться быть понятными большинству. Длинна записи не должна быть длиннее 20ти слов.
Структура сообщений [yaml-подобная](https://yaml.org/), пример:
```
Тема:
- Сообщение 1
- Сообщение 2
- Сообщение 2.1
_ Сообщение 3
```
Через ~две недели опубликую результаты.
[Репозиторий](https://github.com/jazzz13/collective_mind).
Вот этого надо избежать | https://habr.com/ru/post/695502/ | null | ru | null |
# Squzy — бесплатная open-source self-host система мониторинга с инцидентами и уведомлениями
Однажды знойным зимним вечером к нам пришла идея написать приложение для проверки Sitemap фирмы, в которой мы работаем, с возможностью нотификации при возникновении ошибки.
Постепенно эта идея перешла к реализации, там появились мысли по улучшению, возник мониторинг хостов, затем — мониторинг приложений, и как вишенка на торте — инциденты с нотификацией.
В итоге мы получили полноценную систему мониторинга, являющуюся полностью open-source self-host решением, не имеющим внешних коммуникаций, с полностью определяемыми пользователем инцидентами.
И в этом посте мы хотим познакомить Вас с получившимся продуктом.
Технические детали
------------------
Для разработки была выбрана микросервисная архитектура. Бэкэнд разрабатывался на GoLang-е, как быстром и удобном языке для разработки микросервисов. Для общения между сервисами мы использовали gRPC. Кроме того, что gRPC работает на HTTP/2 со всеми вытекающими, описание интерфейсов сервисов через proto позволит Вам, как пользователям, создавать собственные имплементации отдельных частей системы, если в этом возникнет необходимость.
В проекте используются Mongo как база быстрого доступа и Postgres для хранения собираемой статистики.
Для сборки и деплоя использовался Bazel. Bazel позволяет декларативно описывать зависимости и отношения между пакетами в Golang. Кроме этого, мы начали тестировать Bazel с remote cache, что позитивно сказывается на скорости работы системы. Также Bazel собирает все приложения в Docker и организует Unit testing. Все это интегрировано в Github actions.
Dashboard системы написан на Angular 9.
Мы стараемся держать планку в unit тестах, в данный момент покрыта каждая сущность. В ближайших планах реализация интеграционных и E2E тестов, для наиболее полного поддержания системы
### Описание системы
Как уже было сказано выше, Squzy представляет собой набор взаимодействующих друг с другом микросервисов, каждый из которых занимается отдельно взятой задачей.
**Список сервисов:**
* Agent Client — клиент, разворачиваемый на устройстве. Собирает информацию о процессоре, загрузке памяти и сетевом взаимодействии. Отправляет информацию в Agent Server.
* Agent Server — обработчик информации, поступающей от клиента. Собирает список клиентов в Mongo, а информацию от агентов передает в Storage.
* Application Monitoiring — мониторинг приложений, осуществляемый путем добавления модулей/пакетов Squzy в приложения, собирающих информацию о транзакциях. На текущий момент поддерживается GoLang и NodeJS, в краткосрочной перспективе — PHP & Java имплементации.
* Monitoring — мониторинг external/internal сервисов.
* Storage — сервис для доступа к собранной статистике. Текущая имплементация использует Postgres, но в дальнейшем планируется перейти на ClickHouse.
* Incident Manager- обработка инцидентов. Система позволяет пользователю создавать свои собственные правила обработки нештатных ситуаций (подробнее об этом расскажем чуть позже). Сами правила хранятся в Mongo, в то время как инциденты в случае возникновения передаются в Storage.
* Notification Manager — сервис для уведомления пользователей в случае возникновения инцидента. На текущий момент поддерживает уведомления в Webhook & Slack.
* API — является API Gateway для системы
Схема взаимодействия сервисов выглядит следующим образом:

Для демонстрации возможностей Squzy разработано демо, мониторящее свой же сервер и позволяющее следить за системой на dashboard’e:<https://demo.squzy.app/>.
Некоторые возможности, такие как добавление/удаление новых сущностей, в демо отключены, однако оно позволяет увидеть и пощупать все части системы. Ниже остановимся поподробнее на каждом из видов мониторинга.
Эта часть системы отвечает за external/internal проверки. В данный момент она позволяет отправлять запросы и ожидать ответы на следующие типы endpoint-ов:
1. Tcp — проверка открытого порта;
2. gRPC — проверка по [протоколу](https://github.com/grpc/grpc/blob/master/doc/health-checking.md);
3. Http — проверка на соответствие статус коду;
4. SiteMap — проверка того, что все URL из Sitemap отвечают *200 OK*;
5. JsonValue — сбор определенных значений из JSON ответа.
Squzy позволяет добавлять свои заголовки ко всем видам HTTP проверок.
Интерфейс добавления проверки через Squzy dashboard выглядит следующим образом:

Здесь интервал — интервал между проверками в секундах, а timeout — время, после которого проверка считается неудачной.
После создания пользователю доступна конфигурация чекера:

На каждый вид проверки можно написать инцидент правило. Подробнее об инцидентах будет рассказано ниже, здесь же просто приведем пример:

В данном случае мы измеряем значение курса доллара с сайта, и если он будет больше 80 мы создадим инцидент.
[Ссылка на demo.](https://demo.squzy.app/checkers/5eef6c310f11cd1079c1e1b7)
Инциденты можно создавать на:
* Длительность проверки (время получения ответа от сервера);
* Статус (возвращаемый статус код);
* Значение (информация, передаваемая в чекере).
### Squzy agent
Для мониторинга хостов в системе используется Squzy Agent, устанавливаемый на сервер. В данный момент он собирает следующую статистику:
* CPU — нагрузка по процессорам;
* Memory — Used/Free/Total/Shared;
* Disk — Used/Free/Total по каждому из дисков;
* Net — по каждому сетевому интерфейсу.
**Timeline агента:**
1. Агент регистрируется в Agent Server и получает ID (при регистрации есть возможность указать интервал мониторинга и имя агента);
2. Агент с определенным интервалом отправляет статистику на сервер;
3. ….
4. Агент уведомляет сервер о выключении.
Если связи с сервером нет, агент продолжает собирать статистику и она будет отправлена при восстановлении соединения.
Demo версию агента можно посмотреть здесь: <https://demo.squzy.app/agents/5f142b6141a1c6518723483a/live>
Агент также может иметь набор правил для проверки инцидентов:

### Squzy Application Monitoring
Для мониторинга приложений разработаны интеграции с популярными frameworks для **Go**/**NodeJs** (дальше больше, как говорят успешные маркетологи). Интеграции определяют тип транзакции (**Http**/**Router**/**gRPC**/**WebSocket**/etc) и анализируют ответы от движков/запросов.
Также Squzy поддерживает Tracing транзакций, что позволяет мониторить связанные между собой транзакции нескольких серверов/сервисов. Пример мониторинга таких транзакций на Dashboard: <https://demo.squzy.app/transactions/om8l8LP96PRsvx67UxkES>.
Библиотеки для интеграции в Go и Node Js.
* Go — <https://github.com/squzy/squzy_go> (GIN/gRPC/Http);
* NodeJs — <https://github.com/squzy/squzy_node> (Express) + FE (Angular + vanilla).
По своей сути библиотеки представляют собой Middleware, засекающий время до отправки транзакции и время после ее обработки и анализирующий ответ. Также мы написали пример GO приложения для мониторинга: <https://github.com/squzy/test_tracing.>
Вы можете создавать свои транзакции и измерять время их выполнения, статусы и ошибки. Для это используйте пакет Core. Для удобства поддержки продукта во всех языках будут использоваться одинаковые названия для пакетов, определяющих поведение.
**Можно создавать инциденты на транзакции, основываясь на следующих данных:**
* Длительность транзакции;
* Статус транзакции;
* Полученные ошибки;
* Тип транзакции.
### Squzy Incident Manager + Notification Manager
Инциденты в Squzy основаны на правилах. При добавлении новой сущности в Storage происходит проверка выполнения описанного правила, и в случае, если оно выполняется, создается инцидент (если он уже не был создан).
Правила представляют собой расширенную версию [expr](https://github.com/antonmedv/expr), к которой добавлены специфические правила, учитывающие спецификацию системы, такие как **Last** (берет n последних записей из Storage), **Use** (использовать при этом конкретный фильтр) и так далее. Подробное описание всех правил Вы можете найти на <https://squzy.app/usage/squzy-incident/incident-rules>, здесь же мы остановимся на показательном примере.
Представим, что у Вас есть сервер с 1792 процессорами, 256 Гб ОЗУ и 16 Тб места на жестком диске. И Вы очень хотите проверить, что ваш девопс не запускает Doom на мониторе отображения загрузки ЦП. Вы знаете, что поддержка одностраничного сайта, который обслуживает Ваш сервер, никогда не загружает на 100 процентов больше 8 процессоров дольше, чем на минуту. Кроме того, оперативка свободна более чем наполовину. В то время как жесткий диск имеет целый Тб свободного места в запасе (не хранить же известные архивы дома — жена увидит). В таком случае, зная, что метрики собираются раз в 10 секунд, вы можете определить следующее правило для проверки корректности работы Вашего сервера:
```
any(Last(7, UseType(All)),
{all(.CpuInfo.Cpus, {.Load > 80}) &&
.MemoryInfo.Mem.UsedPercent < 50 &&
.DiskInfo.Disks["System"].Free > 1000000000000}
)
```
Аналогично Squzy позволяет описывать различные паттерны нежелательного поведения системы.
После того, как проверка правила прошла успешно (или, скорее, неуспешно), создается инцидент и происходит нотификация пользователя, в случае, если она настроена.
Активный инцидент, то есть инцидент, который еще не был проверен пользователем, может быть закрыт автоматически, то есть если он в какой-то момент не прошел проверку, в случае выбора соответствующего параметра.
На каждую проверяемую сущность будь то приложение/чекер/агент, можно создать свои нотификации об инцидентах.
### Заключение
Сейчас мы находимся в стадии сбора фидбеков и комментариев от IT- сообщества.
Уже сейчас у нас есть ряд планов по развитию продукта:
1. добавление Java/PHP интеграций;
2. чекеры баз данных;
3. переход с Postgres на ClickHouse;
4. больше методов нотификаций;
5. интеграция с kubernetes;
6. улучшение документации;
7. GQL API;
8. Интеграционные и E2E тесты ;
9. мониторинг мобильных приложений.
10. Автодополнения для правилов инцидентов на UI
Мы будем рады любым фидбекам и предложениям.
### Ссылки
* Backend системы: <https://github.com/squzy/squzy>
* Frontend системы: <https://github.com/squzy/squzy-dashboard>
* Demo dashboard: <https://demo.squzy.app/>
* Документация: <https://squzy.app/>
* Авторы: [PxyUp](https://github.com/PxyUp) [DreamAndDrum](https://github.com/DreamAndDrum)
**P.S.:**
Спасибо за статью [Vonotirax](https://habr.com/ru/users/Vonotirax/)
[Попробовать в 1 клик](https://github.com/squzy/starter) | https://habr.com/ru/post/512452/ | null | ru | null |
# Загрузка stage слоя DWH. Часть 1
Доброго дня. Меня зовут Иван Клименко, я разработчик потоков обработки данных в компании Аскона. В этом цикле статей я расскажу опыт внедрения инструмента Apache Nifi для формирования DWH.
Данная статья посвящена первому этапу внедрения Apache NIFI - начальным потокам выгрузки, внедрению инкрементальной загрузки, и описанию существующей архитектуры.
### Цели, задачи
Я вхожу в группу обработки данных подразделения “Платформа данных”. Пришёл в команду в начале прошлого года с задачей организовать сбор данных от источников и заполнение DWH с применением Apache NIFI. Так как некая структура уже существовала, то появились обозначения:
1. Старая архитектура - сбор данных от источников выполняется раз в сутки, ночью, инструмент - SSIS на MsSqlServer (да, в качестве хранилища применяется MSSql, но мы планируем переход на GreenPlum), все инициализируется джобами через Sql Server Agent.
2. Новая архитектура - сбор данных от источников выполняется раз в сутки с помощью Apache NIFI, заполняются стейджинговые таблицы, потом все по старому - джоб, пакеты, SSIS…
Какие были трудности в старой архитектуре:
1. Загрузка осуществлялась раз в сутки и в случае большого объема данных SSIS не справлялся с выгрузкой данных от источника, и джоб падал.
2. С увеличением объема данных и количества выгружаемых сущностей времени на выгрузку и перестройку витрин стало не хватать.
3. Не выполнялась инкрементальная загрузка.
Задачи новой архитектуры:
1. Обеспечить загрузку данных по мере их изменения на источнике.
2. Масштабировать нагрузку на большое количество таблиц.
3. Обеспечить формирование витринного слоя на основе загружаемого инкремента.
4. Разделить процессы загрузки и пересчета витрин.
5. Обеспечить легкую миграцию на GreenPlum.
### Поток ETL
Основным источником данных является ЕРП “Галактика”, СУБД - Oracle. У нашей команды есть доступ к источнику и есть возможность разработки View. Так как в NIFI есть встроенный механизм сохранения инкрементального поля при запросе (числовое поле или дата-время), решено было для каждой таблицы источника создавать два View - исторический и инкрементальный. Структура View одинаковая, отличие только в том, что для инкрементального представления данные извлекаются из журналов, срок журналирования от 2 недель до 1 месяца. В каждой таблице есть два числовых поля - дата и время изменения записи. Так как NIFI умеет хранить только возрастающие поля, а время является циклично зависимым, решили сделать инкрементальный ключ, объединив в одном поле дату и время изменения записи в числовом представлении.
Был разработан поток загрузки данных, который извлекает данные из таблицы источника, выполняет ряд преобразований и выполняет загрузку в целевую таблицу. Отмечу, что в основном поток разработал мой коллега Фархад, я подключился после решения инфраструктурных задач.
Рис. 1. Общий вид потока. Дает представление о направлении движении данных.Рассмотрим подробнее, от запуска и до завершения.
На начальном этапе происходит извлечение данных с помощью процессора QueryDatabaseTable.
Рис. 2. Процессор QueryDatabaseTable - порождает поток и выполняет запрос к источнику.Рис. 3. Натсройки QueryDatabaseTableВ настройках указываем соединение, схему и таблицу, перечисляем поля (либо оставляем поле пустым, тогда будут выбраны все поля), и указываем имя поля в настройке ***Maximum-value Columns***. NIFI при запросе вычислит максимум и сохранит его в своем состоянии. При следующей генерации запроса NIFI добавит условие “WHERE DT\_KEY > 1923929292929”, то есть подставит и имя поля и его предыдущее значение. Таким образом реализуется инкрменетальная выгрузка.
Далее необходимо выполнить ряд преобразований. Так как могут поступать данные, которые уже были введены в систему (например, при редактировании), надо понять, произошли ли изменения данных. В целях отслеживания мы рассчитываем хеш каждой записи, и если он будет отличаться, то требуется обновить данные в витринном слое.
Рис. 4. Обновление данных и вычисление хэшаСначала идет подготовка данных. Формируем новое поле с помощью **Updaterecord**, и вычисляем его хэш с помощью стороннего процессора **HashColumn** (спасибо автору за разработку, исходник в github). При дальнейшей разработки я решил максимально использовать штатные процессоры. В следующей части я покажу, как именно я заменил эту связку.
Рис. 5. Настройки UpdateRecordВ настройках **UpdateAttribute** указываем имя нового поля - *HASH\_DIFF,* и правило его формирования - конкатенация значимых полей. В результате формируется новое поле, в котором будет строка, содержащая все поля. И процессор **HashColumn** вычислит хеш по заданному алгоритму и поместит значение в это же поле.
 Рис. 6. Последовательность действия при преобразовании к CSVСначала идет формирование атрибутов, где атрибуту *$filename* присваивается текущее имя файла с расширением "*.csv".* Этот атрибут понадобится при сохранении файла. Далее добавляется мета-информация - в каждую запись вносим время выгрузки. Запись преобразуется к CVS-формату с помощью процессора **ConvertRecord**. В результате контент из формата "Avro" будет преобразован к "CSV", экранирование происходит в зависимости от настройки сервиса записи.
Рис. 7. Запись файла в сетевую папку и очистка контентаПолученный файл сохраняется на сетевую папку на сервере, где крутится целевой MS Sql с помощью PutSmbFile, и выполняем очистку контента. Это необязательный шаг, однако при работе было замечено, что при наличии контента последующий запрос сильно тормозит.
После записи на сервере выполняется запрос для вставки данных в таблицу с помощью компонента ExecuteSQL.
Рис. 8. Последовательность действий для внесения и удаления данных на сервере Сам запрос имеет следующий вид:
```
BULK INSERT #{tgt.sql.schema}.#{tgt.sql.table.name.customer_orders}
FROM '#{local.folder.Bulk.Insert}${filename}'
WITH(FIRSTROW = 2, FIELDTERMINATOR = '~',ROWTERMINATOR = '0x0a',
CODEPAGE = 65001, TABLOCK )
```
Как видно, на сервер передается имя файла для внесения в заданную таблицу, где схема и таблица определена в параметрах группы, а имя файла извлекается из атрибута.
В случае, если произошел сбой, поток отправляется на повтор, и в случае трех неудачных внесений формируется письмо об ошибке.
При удачном внесении выполняется хранимая процедура, удаляющая загруженный файл:
```
DECLARE
@deletefile NVARCHAR(MAX) , @cmd NVARCHAR(MAX)
set @deletefile = '${filename}'
set @cmd =
'xp_cmdshell ''del "#{local.folder.Bulk.Insert}\' + @deletefile + '"''';
EXEC (@cmd)
```
Файл можно удалить и средствами NIFI, например через GetSmbFile, но в этом случае контент передается по сети обратно. Можно вызвать скрипт SSH или PowerShell, но это выдача дополнительных разрешений для пользователя NIFI.
Дальнейшие шаги являются служебными - формирование и запись лога, отправка уведомлений и т.д.
### Заключение.
Данный поток позволил нашей команде обкатать инкрементальную загрузку, исключить загрузку данных от источника средствами SSIS, разделить процесс загрузки данных от процесса расчета витрин.
Достоинства:
1. Простой поток, в котором отражены все этапы ETL - выгрузка, преобразования, загрузка.
2. Легко масштабировать - сохранив в виде шаблона или положив в Registry, меняя переменные и список полей можно легко добавить новую таблицу.
3. Легко мониторить - видно, какой поток упал, где ошибка.
Недостатки:
1. Когда количество таблиц превысило 20, стало неудобно поддерживать это решение.
2. Все запуски выполнялись примерно в одно и то же время, создавая сильную нагрузку на источник.
3. При необходимости модификации приходилось вносить изменения во все потоки, в одном и том же месте.
В следующих частях я расскажу о развитии потока выгрузки, его параметризации, как решалась задача информирования о завершении загрузки и уведомления об ошибках, и к чему мы пришли в итоге.
[Часть 2.](https://habr.com/ru/post/646403/) | https://habr.com/ru/post/599911/ | null | ru | null |
# Тонкости работы в командной строке Windows
Недавно я вырос из лютого эникея в очень большой компании, до скромного сисадмина надзирающего за сетью в 10 ПК. И, как очень ленивый сисадмин, столкнулся с задачами по автоматизации своей деятельности. Полгода назад я еще не знал, что в командной строке Windows есть конвейеры. Это стало первым шокирующим открытием. И я пошел дальше, и выяснилось, что там, где я раньше писал утилитки на C#, Delphi или громоздкие скрипты с вложенными циклами, можно было обойтись парой команд `forfiles` или `robocopy`.
Не буду рассказывать о банальностях, типа о перечислении файлов и папок клавишей `Tab`. Под хабракатом расскажу о том, что может быть полезно начинающим админам и эникеям.
##### Горячие клавиши
Начнем с горячих клавиш, ведь сначала необходимо изучить, что нам может дать рабочая среда.
**F1** — В консоли эта клавиша работает в точности как и стрелка вправо, т.е. выводит по одному символу из последней введенной (либо выбранной в истории) команды.
**F2 + <символ>** — Выводит последнюю введенную команду до указанного символа. Например, если последняя введенная вами команда выглядела вот так:
```
ping 192.168.25.1
```
то после нажатия комбинации клавиш **F2 + 5** вы получите:
```
ping 192.168.2
```
**F3** — Выводит последнюю, и только последнюю, в истории команду целиком.
**F5** — Выводит последние введенные команды по порядку, также как и стрелка вверх.
**F6** — Вставляет символ EOF на текущую позицию командной строки, что аналогично нажатию комбинации Ctrl + Z.
**F7** — Диалоговое окно, содержащее историю команд.

**Alt + F7** — Очищает историю команд.
**<символ(ы)> + F8** — Перебирает команды, которые начинаются с символов уже введенных в командную строку.
Если перед нажатием **F8** ничего не вводить, то эта клавиша будет работать как и стрелка вверх, но с небольшим отличием — перебор строк будет осуществляться циклично, т.е. после первой команды из списка будет выведена последняя.
**F9 + <число>** — Вставляет команду из истории под соответствующим номером. К примеру, в ситуации приведенной на скрине выше при нажатии комбинации **F9 + 4** в консоли появится:
```
ipconfig
```
##### Операторы командной строки
Я, давным-давно, когда был маленький, даже не представлял как можно работать в консоли без графического интерфейса. Ведь вывод команд порой занимает десятки страниц, а если надо выбрать оттуда какие-то данные, то и постраничный вывод не спасет. Но однажды я поставил на старый комп FreeBSD, открыл хандбук и просто голова кругом пошла от открывшихся возможностей. Там можно перенаправить вывод команды на вход другой команды и это называется конвейером.
Оператором конвейера в \*nix и cmd, является символ вертикальной черты.
```
|
```
Например, вывод всех текстовых файлов в текущей папке покажет команда
```
dir | find ".txt"
```
###### Оператор объединения команд
```
&
```
Пример: Команда1 & Команда2 – сначала выполнятся Команда1, а уже потом Команда2
###### Оператор И
```
&&
```
Пример: Команда1 && Команда2 — Команда2 будет выполняться только в том случае, если произошло успешное выполнение Команды1
###### Оператор ИЛИ
```
||
```
Пример: Команда1 || Команда2 — Команда2 будет выполняться только в том случае, если Команда1 не смогла выполниться.
Для группирования команд используются круглые скобки, примеры:
* (Команда1 & Команда2) && Команда3 – Если Команды1 и Команды2, выполнятся успешно, произойдет выполнение Команды3.
* (Команда1 & Команда2) || Команда3 — Если Команды1 и Команды2, не выполнятся, произойдет выполнение Команды3.
Спасибо за внимание! Жду критики и предложений…
###### UPD1
Для тех, кто не в теме, циркумфлекс(вот этот знак "^") означает нажатие клавиши с `Ctrl``(^C = Ctrl +C`).
`^C` — Прерывает команду, ну это все знают.
`^S` — Приостанавливает выполнение команды, а потом запускает.
`^I` — Аналог Tab, перебирает папки и файлы.
`^M` — Аналог Enter.
`^H` — Аналог Backspace.
`^G` — Написав в пакетном файле команду `echo ^G` можно пикать системным динамиком(спикером).
(Команды `^I` и `^H`, получены мной методом «научного тыка», еще есть `^J` но не знаю, что она делает)
P.S. Другие тонкости командной строки Windows, уже неоднократно освещались на Хабре. И не вижу смысла копи-пастить.
P.P.S. Ссылки на интересные посты и статьи по другим возможностям командной строки Windows:
[Ввод-вывод, циклы, переменные](http://habrahabr.ru/post/60604/)
[Работа с массивами](http://habrahabr.ru/post/75951/)
[Интереснейший топик по теме](http://www.cyberforum.ru/cmd-bat/thread672170.html) | https://habr.com/ru/post/218759/ | null | ru | null |
# Распределенное хранилище данных в концепции Data Lake: установка CDH
Продолжаем делиться опытом по организации хранилища данных, о котором начали рассказывать в [предыдущем посте](https://habr.com/company/neoflex/blog/413149/). На этот раз хотим поговорить о том, как мы решали задачи по установке CDH.

Установка CDH
-------------
Запускаем сервер Cloudera Manager, добавляем его в автозагрузку и проверяем, что он перешёл в активное состояние:
```
systemctl start cloudera-scm-server
systemctl enable cloudera-scm-server
systemctl status cloudera-scm-server
```
После того, как он поднялся, переходим по ссылке «hostname:7180/», авторизуемся (admin/admin) и продолжаем установку из GUI. После авторизации автоматически начнется установка и будет произведён переход на страницу добавления хостов в кластер:

Рекомендуется добавлять все хосты, которые будут так или иначе связаны с развертываемой средой (даже если на них не будут располагаться сервисы Cloudera). Это могут быть машины с средствами непрерывной интеграции, BI или ETL средствами или инструментами Data Discovery. Включение данных машин в кластер позволит установить шлюзы сервисов кластера (Gateways), содержащие файлы с конфигурацией и расположением сервисов кластера, что упростит интеграцию со сторонними программами. Также Cloudera Manager предоставляет удобные средства мониторинга и создание мониторов ключевых метрик всех машин кластера в едином окне, что упростит локализацию проблем во время эксплуатации. Хосты добавляются с помощью кнопки “New Search” — совершается переход на страницу добавления машин в кластер, где предлагается предоставить для них данные для подключения по SSH:

После добавления хостов переходим к этапу выбора способа установки. Поскольку мы скачали парсэли, выбираем способ «Use Parcels (Recommended)», и теперь надо добавить наш репозиторий. Нажимаем на кнопку «More options», удаляем все установленные там по умолчанию репозитории и добавляем адрес репозитория с парсэлем CDH – «hostname/parcels/cdh/». После подтверждения справа от надписи «Select the version of CDH» должна отобразиться версия CDH, представленная в скаченном парсэле. Для данного способа установки на этой вкладке можно ничего не настраивать:

На следующей вкладке будет предложено установить JDK. Поскольку мы уже сделали это на этапе подготовки к установке, пропускаем данный шаг:

При переходе на следующую вкладку начинается установка компонентов кластера на указанные хосты. После окончания установки станет доступен переход к следующему шагу. Если в ходе установки будут встречаться ошибки (сталкивался с такой ситуацией при установке локальных Dev сред), то посмотреть их подробности можно с помощью команды *«tail -f /var/log/cloudera-scm-server/cloudera-scm-server.log»* и по нажатию кнопки «Details» в правой части таблицы:

На следующем шаге установки вам предложат выбрать один из подготовленных наборов сервисов для установки. Сервисы и их роли в дальнейшем можно будет сконфигурировать вручную, поэтому не очень принципиально, что выбрать на данной вкладке. В нашем случае обычно устанавливался «Core with Impala». Также здесь можно указать необходимость установки Cloudera Navigator. Если вы устанавливаете Enterprise версию, то стоит установить этот полезный инструмент:

На следующей вкладки для сервисов из выбранного набора предлагается выбрать роли и хосты, на которые они будут установлены. Ниже будут приведены некоторые рекомендации по установке ролей на хосты.
#### Роли HDFS
**NameNode** — ставится в единственном экземпляре на одну из Master Nodes, желательно, самую ненагруженную, поскольку она очень важна для работы кластера и вносит весомый вклад в утилизацию ресурсов.
**SecondaryNameNode** — ставится в единственном экземпляре на одну из Master Nodes, желательно, не на ту же ноду, что и NameNode (для обеспечения отказоустойчивости).
**Balancer** — ставится в единственном экземпляре на одну из Master Nodes.
**HttpFS** — дополнительное API к HDFS, можно не устанавливать.
**NFS Gateway** — очень полезная роль, позволяет монтировать HDFS как сетевой диск. Ставится в единственном экземпляре на одну из Master Nodes.
**DataNode** — ставится на все Data Nodes.
#### Роли Hive
**Gateway** – конфигурационные файлы Hive. Ставится на все хосты кластера.
**Hive Metastore Server** – сервер метаданных, ставится в единственном экземпляре на одну из Master Nodes (например ту, где установлен PostgreSQL – он хранит там свои данные).
**WebHCat** – можно не устанавливать.
**HiveServer2** – ставится в единственном экземпляре на ту же Master Node, что и Hive Metastore Server (требование для их совместной работы).
#### Роли Hue
**Hue Server** – GUI для HDFS, ставится в единственном экземпляре на одну из Master Nodes.
**Load Balancer** – балансировщик нагрузки на GUI для HDFS, ставится в единственном экземпляре на одну из Master Nodes.
#### Роли Impala
**Impala StateStore** – ставится в единственном экземпляре на одну из Master Nodes.
**Impala Catalog Server** – ставится в единственном экземпляре на одну из Master Nodes.
**Impala Daemon** – ставится на все Data Nodes (можно оставить значение по умолчанию).
#### Роли Cloudera Manager Services
Service Monitor, Activity Monitor, Host Monitor, Reports Manager, Event Server, Alert Publisher ставятся в единственном экземпляре на одну из Master Nodes.
#### Роли Oozie
Oozie Server – ставится в единственном экземпляре на одну из Master Nodes.
#### Роли Yarn
**ResourceManager** – ставится в единственном экземпляре на одну из Master Nodes.
**JobHistory Server** – ставится в единственном экземпляре на одну из Master Nodes.
**NodeManager** – ставится на все Data Nodes (можно оставить значение по умолчанию).
#### Роли ZooKeeper
ZooKeeper Server – для обеспечения отказоустойчивости ставится в трех экземплярах на Master Nodes.
#### Роли Cloudera Navigator
**Navigator Audit Server** – ставится в единственном экземпляре на одну из Master Nodes.
**Navigator Metadata Server** – ставится в единственном экземпляре на одну из Master Nodes.

Следующей после распределения ролей идет вкладка с кратким списком настроек устанавливаемых сервисов. Их изменение будет доступно после окончания установки и на данном этапе их можно оставить без изменений:

Вслед за настройками сервисов идет конфигурация баз данных для сервисов, которые в них нуждаются. Вводим полное имя хоста, на котором установлен PostgreSQL, в листбоксах «Database Type» выбираем соответствующий пункт и в остальных полях указываем данные для подключения к соответствующим базам. После того, как все данные введены, нажимаем кнопку «Test Connection» и проверяем, что базы доступны. Если это так, то в правой части таблицы напротив каждой из баз появится надпись «Successful»:

Все готово к развертыванию сервисов. Переходим на следующую вкладку и наблюдаем за этим процессом. Если мы все сделали правильно, то все шаги будут выполнены успешно. В противном случае процесс прервется на одном из шагов и по нажатию стрелки будет доступен лог ошибки:

Поздравляю – CDH развернут и практически готов к эксплуатации!

Можно переходить к установке дополнительных парсэлей.
Установка дополнительных парсэлей
---------------------------------
В случаях, когда базового набора сервисов CHD не хватает или же требуется более свежая версия, можно установить дополнительные парсэли, расширяющие доступный список сервисов, которые можно развернуть в кластере. В ходе нашего проекта нам потребовался сервис Spark версии 2.2 для запуска разработанных задач и функционирования инструментов Data Discovery. В состав CDH он не входит, поэтому установим его отдельно. Для этого нажимаем на кнопку «Hosts» и выбираем пункт выпадающего списка «Parcels»:

Откроется вкладка с парсэлями, на которой представлен список кластеров, управляемых данным Cloudera Manager и установленных на них парсэлей. Для добавления парсэля с Spark 2.2 выбираем нужный кластер и нажимаем кнопку «Configuration» в правом верхнем углу.

Нажимаем на кнопку «+», в появившейся строке указываем адрес репозитория с парсэлем Spark 2.2 («hostname/parcels/spark/») и нажимаем кнопку «Save Changes»:

После этих манипуляций в списке парсэлей на предыдущей вкладке должен появиться новый с именем SPARK2. Изначально он появляется как доступный для скачивания, поэтому следующим шагом мы скачиваем его, нажав кнопку «Download»:

Скачанный парсэль требуется раскидать на ноды кластера, чтобы можно было устанавливать из него сервисы. Для этого нажимаем кнопку «Distribute», появившуюся в правой части строки с парсэлем SPARK2:

Последним шагом в работе с парселем является его активизация. Активируем его, нажав кнопку «Activate», появившуюся в правой части строки с парсэлем:

После подтверждения нужный нам сервис становится доступным для установки. Но тут есть нюансы. Для установки некоторых сервисов в кластер требуется произвести какие-либо дополнительные действия помимо установки парсэля. Обычно об этом написано на официальном сайте в разделе, посвященном установке и обновлению данного сервиса (вот ее пример для Spark 2 — [www.cloudera.com/documentation/spark2/latest/topics/spark2\_installing.html](https://www.cloudera.com/documentation/spark2/latest/topics/spark2_installing.html)). В данном случае требуется скачать файл Spark 2 CSD (доступен на странице «Version and Packaging Information» — [www.cloudera.com/documentation/spark2/latest/topics/spark2\_packaging.html](https://www.cloudera.com/documentation/spark2/latest/topics/spark2_packaging.html)), установить его на хост с Cloudera Manager и перезагрузить последний. Сделаем это – скачиваем данный файл, переносим его на нужный хост и выполняем команды из инструкции:
```
mv SPARK2_ON_YARN-2.1.0.cloudera1.jar /opt/cloudera/csd/
chown cloudera-scm:cloudera-scm /opt/cloudera/csd/SPARK2_ON_YARN-2.1.0.cloudera1.jar
chmod 644 /opt/cloudera/csd/SPARK2_ON_YARN-2.1.0.cloudera1.jar
systemctl restart cloudera-scm-server
```
Когда Cloudera Manager поднимется, все будет готово к установке Spark 2. На главном экране нажимаем стрелочку справа от имени кластера и выбираем пункт «Add Service» выпадающего меню:

В списке сервисов, доступных для установки, выбираем тот, который нам нужен:

На следующей вкладке выбираем набор зависимостей для нового сервиса. Например тот, где список шире:

Далее идет вкладка с выбором ролей и хостов, на которые они будут установлены, аналогичная той, что была во время установки CDH. Роль History Server рекомендуется ставить в единственном экземпляре на одну из Master Nodes, а Gateway на все сервера кластера:

После выбора ролей предлагается проверить и подтвердить изменения, вносимые в кластер во время установки сервиса. Здесь можно оставить все по умолчанию:

Подтверждение изменений запускает установку сервиса в кластер. Если все сделано верно, то установка будет успешно завершена:

Поздравляю! Spark 2 успешно установлен в кластер:

Для завершения процесса установки требуется перезагрузить кластер. После этого все готово к работе.
На этапе установки сервиса могут возникнуть ошибки. Например, при установке на одну из сред не удавалось развернуть роль Spark 2 Gateway. В решении этой проблемы помогло копирование содержимого файла /var/lib/alternatives/spark2-conf с хоста, на который данная роль успешно установилась, в аналогичный файл проблемной машины. Для диагностики ошибок установки удобно использовать файлы логов соответствующих процессов, которые хранятся в папке /var/run/cloudera-scm-agent/process/.
На этом на сегодня всё. В следующем посте серии будет раскрыта тема администрирования кластера CDH. | https://habr.com/ru/post/414831/ | null | ru | null |
# Как обновить статус в Facebook, LinkedIn & Twitter при помощи spring-social
Не так давно я уже [писал](http://habrahabr.ru/blogs/java/108138/) о новом проекте SpringSource: [spring-social](http://www.springsource.org/spring-social). Сегодня я хочу рассказать (вернее показать на примере) как можно данную библиотеку использовать. В качестве примера используется простейшее приложение, которое позволяет залогиниться во все три сервиса и обновлять статус одновременно во всех трех (осторожно — под катом много букв и кода и совсем нет картинок).

Обновление статуса было взято в качестве примера потому что:
\* это просто и понятно;
\* эта функция не поддерживается spring-social для LinkedIn-а, то есть можно посмотреть как добавлять реализацию APIшых методов сервисов, не реализованных в spring-social по умолчанию.
В принципе на месте обновления статуса может быть любая другая функциональность.
Сами разработчики советуют смотреть в качестве примера использования библиотеки их приложение GreenHouse — но, приложение достаточно большое и вычленить имено «социальную» часть не так легко. Было так же опубликовано пара примеров — но достаточно примитивных — не дающих «полной картины». Потому я и решил написать небольшой пример (самому разобраться и другим показать) который бы с одной стороны представлял с собой некоторое законченный пример от логина в сервис до отправки статуса, а с другой стороны был бы максимально простым. Потому — извините что html голый без каких либо стилей — плюс java-код не везде «красив» — в некоторых местах код можно было бы сделать «правильней» например путем наследования, но это бы «зымылило» бы пример — пришлось бы разбираться еще с дополнительной иерархией классов.
Данный пост является вольным переводом моего [англоязычного поста](http://www.emforge.net/web/akakunin/blogs/-/blogs/update-status-in-facebook-twitter-and-linkedin-with-spring-social).
Все исходники доступны в svn: <http://svn.emforge.net/svnroot/akakunin-experiments/update-status>
Исходники так же можно просмотреть на [сайте EmForge](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&p_p_col_id=column-1&p_p_col_count=1&_scmportlet_WAR_emforgeportlet_path=update-status)
#### Базовое приложение
В качестве «базы» мы используем простейшее приложение на spring framework и spring-mvc. В данном приложении используется стандартный джентльменский набор:
\* Maven для сборки;
\* Spring Framework 3.0.5;
\* Spring-Security 3.0.5;
\* JPA (через Hibernate);
\* HSQL в качестве базы.
В принципе все максимально стандартно и просто. Есть единственная Entity — [net.emforge.updatestatus.entity.User](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fentity%2FUser.java) — которая хранит пользователей (userName, password). Для каждого пользователя так же сохраняются токены, которые используются для работы с каждым из сервисов.
Есть DAO-класс [UserDao](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fdao%2FUserDao.java), и сервис [UserServiceImpl](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fservice%2FUserServiceImpl.java).
В приложении целых две странички — главная (index) с формой для логина и регистрации (обрабатывается [UserController](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fcontroller%2FUserController.java)-ом), и страничка status доступная только залогиненым пользователям — о ней мы поговорим позже.
Все вместе это представляет собой простейшее приложение где пользователь может зарегистрироваться или залогиниться, и на страничке status законнектиться с одним из сервисов и обновить статус.
#### Регистрация приложения
Что бы данный пример работал, вам будет необходимо сначала зарегистрировать свое приложение в тех сервисах, которые вы собираетесь использовать:
\* Регистрация на Facebook-е осуществляется на странице <http://developers.facebook.com/setup/> — только просьба использовать в качестве SiteURL [localhost](http://localhost):8080/update-status/ — иначе callback работать не будет;
\* Регистрация в Twitter: <http://dev.twitter.com/apps/new>;
\* Регистрация в LinkedIn: <https://www.linkedin.com/secure/developer>
В каждом случае вы получите два ключа — ключ приложения (или id приложения) & security-token — их надо сохранить в [src/main/resources/config.properties](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fresources%2Fconfig.properties)
#### Запустить по быстрому
Если вы хотите по быстрому посмотреть как это работает и у вас есть java & maven (я надеюсь что это так :) ) — то просто возьмите исходники из svn и выполните (после того как пропишите свои ключи в config.properties)
`mvn tomcat:run`
После чего приложение должно быть доступно по адресу <http://localhost:8080/update-status>
Создайте нового пользователя — и вперед, а мы посмотрим как же это все реализовано
#### Коннект в LinkedIn и Twitter
Для работы с обоими сервисами используется OAuth и процедура соединения аналогична — так что покажу на примере twitter-а.
Для работы с сервисом пишем простейший класс [TwitterProvider](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fsocial%2FTwitterProvider.java) главный метод в котором — getOAuthService:
> `public OAuthService getOAuthService() {
>
> OAuthConfig config = new OAuthConfig();
>
> config.setRequestTokenEndpoint("https://api.twitter.com/oauth/request\_token");
>
> config.setAccessTokenEndpoint("https://api.twitter.com/oauth/access\_token");
>
> config.setAccessTokenVerb(Verb.POST);
>
> config.setRequestTokenVerb(Verb.POST);
>
> config.setApiKey(apiKey);
>
> config.setApiSecret(apiSecret);
>
> config.setCallback(callbackUrl);
>
>
>
> return new OAuth10aServiceImpl(
>
> new HMACSha1SignatureService(),
>
> new TimestampServiceImpl(),
>
> new BaseStringExtractorImpl(),
>
> new HeaderExtractorImpl(),
>
> new TokenExtractorImpl(),
>
> new TokenExtractorImpl(),
>
> config);
>
> }`
**apiKey,** **apiSecret** & **callbackUrl** инжектятся из config.properties (куда мы из сначала прописываем).
Для коннекта добавляем ссылку **/connet/twitter** и вешаем обработчик (в [SocialController](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fcontroller%2FSocialController.java)):
> `@RequestMapping(value = "/connect/twitter", method = RequestMethod.GET)
>
> public String requestConnectionToTwitter(WebRequest request) {
>
> // get request token
>
> Token requestToken = twitterProvider.getOAuthService().getRequestToken();
>
> // store request token in session
>
> request.setAttribute("twitter\_request\_token", requestToken, WebRequest.SCOPE\_SESSION);
>
>
>
> return "redirect:" + twitterProvider.getAuthorizeUrl() + "?oauth\_token=" + requestToken.getToken();
>
> }`
По сути дела данный обработчик делает редирект на Twitter для прохождения логина в нем. В случае успешного логина Twitter сделает редирект на callbackUrl и передаст туда ключи пользователя. Повесим в SocialController обработчик для callBack-а:
> `/\*\* Callback from twitter on success login
>
> \*
>
> \* @param verifier
>
> \* @param request
>
> \* @return
>
> \*/
>
> @RequestMapping(value = "/callback/twitter", method = RequestMethod.GET, params = "oauth\_token")
>
> public String authorizeTwitterCallback(@RequestParam(value = "oauth\_verifier", defaultValue = "verifier") String verifier,
>
> WebRequest request) {
>
> // get request token from session
>
> Token requestToken = (Token)request.getAttribute("twitter\_request\_token", WebRequest.SCOPE\_SESSION);
>
>
>
> // get access token
>
> Token accessToken = twitterProvider.getOAuthService().getAccessToken(requestToken, new Verifier(verifier));
>
> String userName = getCurrentUser().getName();
>
> userService.updateTwitterAuthentication(userName, accessToken.getToken(), accessToken.getSecret());
>
>
>
> return "redirect:/status";
>
>
>
> }`
В этом обработчике мы получаем токены и сохраняем их для пользователя для дальнейшего использования.
#### Коннект в Facebook
В Facebook-ом все немного хитрее. Для того что бы законнектиться в Facebook мы размещаем на нашу страничку [status.jsp](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fwebapp%2FWEB-INF%2Fviews%2Fstatus.jsp) кнопку «Connect to Facebook» используя следующий код:
> `<form id="fb\_signin" action="connect/facebook" />" method="post">
>
> <div class="formInfo">
>
> div>
>
> <div id="fb-root">div>
>
> <p><fb:login-button perms="email,publish\_stream,offline\_access" onlogin="$('#fb\_signin').submit();" v="2" length="long">Connect to Facebookfb:login-button>p>
>
> form>
>
>
>
> <facebook:init />`
Тут важно обратить внимание на следующие моменты:
\* **facebook:init** тег реализован в библиотеке spring-social и ему требуется, что бы в спринговом контексте был бин **${facebookProvider}** — у нас он реализован в классе [FacebookProvider](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fsocial%2FFacebookProvider.java). По сути дела из этого бина тег берет только ключи;
\* **fb:login-button** генерит кнопку «Connect to Facebook»;
\* form-action **/connect/facebook** будет использован в качестве callback-а в случае успешного выполнения логина.
Так же для того что бы этот код заработал необходимо подключить tagLib
`<%@ taglib uri="http://www.springframework.org/spring-social/facebook/tags" prefix="facebook" %>`
и подключить jQuery — в моем случае я просто сделал
Ну и надо написать обработчик callback-а, который придет на /connect/facebook:
> `@RequestMapping(value="/connect/facebook", method=RequestMethod.POST)
>
> public String connectAccountToFacebook(@FacebookAccessToken String accessToken,
>
> @FacebookUserId String facebookUserId) {
>
> if (facebookUserId != null && accessToken != null) {
>
> // store facebook information
>
> String userName = getCurrentUser().getName();
>
> userService.updateFacebookAuthentication(userName, accessToken, facebookUserId);
>
> }
>
> return "redirect:/status";
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
В данном примере мы увидим две интересные аннотации: @FacebookAccessToken и @FacebookUserId — это одна из фичек spring-social, но что бы она работала, нам необходимо добавить в проект специальный WebArgResolver. Для этого добавляем в [applicationContext.xml](http://www.emforge.net/web/akakunian-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fwebapp%2FWEB-INF%2Fspring%2FapplicationContext.xml):
> `<bean id="facebookWebArgResolver" class="org.springframework.social.facebook.FacebookWebArgumentResolver">
>
> <constructor-arg name="apiKey" value="${facebook.appId}"/>
>
> bean>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Обработка callback-а аналогична Tiwtter & Linkedin — сохраняем ключи (в нашем случае facebookUserId & facebookToken) для дальнейшего использования.
#### Отправка статуса в Twitter & Facebook
Законнектиться-законнектились, теперь можно и статус обновлять. На страничке статус у нас есть textArea где пользователь вводит текст и отправляет сообщение. Обработчик формы выглядит следующим образом:
> `@RequestMapping(value = "/status", method = RequestMethod.POST)
>
> public String sendStatus(@Valid StatusForm statusForm, BindingResult result, ModelMap modelMap) {
>
> User user = getCurrentUser();
>
>
>
> LinkedInTemplateExt linkedInTemplate = linkedInProvider.createTemplate(user);
>
> FacebookTemplate facebookTemplate = facebookProvider.createTemplate(user);
>
> TwitterTemplate twitterTemplate = twitterProvider.createTemplate(user);
>
>
>
> // send message to LinkedIn
>
> if (linkedInTemplate != null) {
>
> linkedInTemplate.updateStatus(statusForm.getStatus());
>
> }
>
>
>
> // send message to Facebook
>
> if (facebookTemplate != null) {
>
> facebookTemplate.updateStatus(statusForm.getStatus());
>
> }
>
>
>
> // send message to Twitter
>
> if (twitterTemplate != null) {
>
> twitterTemplate.updateStatus(statusForm.getStatus());
>
> }
>
> return "redirect:/status";
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
В данном обработчике мы получаем **FacebookTemplate** & **TwitterTemplate** (оба класса из spring-social) используя ключи текущего пользователя и вызываем их метод **updateStatus**
#### Отправка статуса в LinkedIn
С LinkedIn-ом получилось немного сложней — тот LinkedInTemplate, которые реализован в spring-social не содержит метода для обновления статуса — так что нам придется написать его самим (используя REST-API вызов [api.linkedin.com/v1/people/~/person-activities](http://api.linkedin.com/v1/people/~/person-activities)). Для этого мы пишем класс [LinkedInTemplateExt](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fsocial%2Flinkedin%2FLinkedInTemplateExt.java) — наследник «оригинального» LinkedInTemplate в котором:
\* Инициализируем собственный объект класса **RestOperations** — при этом используется специальный OAuth1RequestSignerFactory.getRequestSigner для «правильного» кодирования вызовов (еще одна фича spring-social);
\* Реализуем сам метод updateStatus:
> `public void updateStatus(String message) {
>
> LinkedInPersonActivity personActivity = new LinkedInPersonActivity(message);
>
>
>
> restOperationsExt.postForLocation("http://api.linkedin.com/v1/people/~/person-activities", personActivity);
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
нам так же потребуется написать класс [LinkedInPersonActivity](http://www.emforge.net/web/akakunin-experiments/sources?p_p_id=scmportlet_WAR_emforgeportlet&p_p_lifecycle=0&p_p_state=maximized&p_p_mode=view&_scmportlet_WAR_emforgeportlet_action=file_view&_scmportlet_WAR_emforgeportlet_path=update-status%2Fsrc%2Fmain%2Fjava%2Fnet%2Femforge%2Fupdatestatus%2Fsocial%2Flinkedin%2FLinkedInPersonActivity.java) — для передачи статуса:
> `@XmlRootElement(name = "activity")
>
> public class LinkedInPersonActivity {
>
> public LinkedInPersonActivity() {
>
> }
>
> public LinkedInPersonActivity(String body) {
>
> this.body = body;
>
> }
>
>
>
> @XmlElement(name = "content-type")
>
> String contentType = "linkedin-html";
>
>
>
> @XmlElement(name = "body")
>
> String body;
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Все — метод готов — как видно — не смотря на то что LinkedInTemplate изначально поддерживает очень мало функций из API — добавление новых функций не такая уж и сложная задача.
Вот вроде и все — надеюсь этот пример окажется полезным. | https://habr.com/ru/post/108824/ | null | ru | null |
# Оптимизация с помощью замыканий
Дано — раз в секунду дергается AJAX'ом скрипт, в нем несколько вызовов одной функции (назовем ее updater) с разными аргументами. Функция в соответствии с аргументами апдейтит некоторый набор DOM-элементов (меняет контент, скрывает, показывает) на текущей странице. Используется jQuery, визэффекты и т.п. Т.е. на клиента приходит примерно такой код…
> `updater('id1', 10, 20);
>
> updater('id33', 11, 22);
>
> updater('id181', 102, 27);
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Проблема — после увеличения количества вызываемых функций (увеличилось количество типовых блоков) все жутко тормозит — много времени уходит на jQuery, на выбор DOM-элементов по селекторам.
Требуется по-возможности быстро и безболезненно, не меняя верстку и не отказываясь от jQuery оптимизировать процесс.
Решение — делаем функцию, которая генерирует для каждого типового блока новую функцию-апдейтер используя замыкания. При этом все «долгие» операции ($('.class .class').parent('div') и.т.п.) закэшировать.
Пусть ранее было
> `function updater(rootId, arg2, arg3)
>
> {
>
> $('#'+rootId+' .some .selector').some().action();
>
> $('#'+rootId+' .some2 .selector3').some().action();
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Прегенерируем все «апдейтеры» и вызываем нужный — все результаты «долгих» операции закэшированы, остались только обновления элементов и манипуляции с ними, зависящие от оставшихся аргументов.
> `function makeUpdater(rootId) {
>
> if($('#'+rootId).length>0)
>
> {
>
> var someVar = $('#'+rootId+' .some .selector');
>
> var someVar2 = $('#'+rootId+' .some2 .selector3');
>
> return function(arg2, arg3) {
>
> someVar.some().action();
>
> someVar2.some().action();
>
> // do smth else...
>
> }
>
> }
>
> else
>
> return function(arg2, arg3) {}
>
> }
>
>
>
> var updaters = new Array();
>
> var idx = 0;
>
> $('div.rootElement').each(function() {
>
> updaters[idx++] = makeUpdater($(this).attr('id'));
>
> });
>
>
>
> function updater(rootId, arg2, arg3) {
>
> updaterFnc = // По rootId получаем ранее сформированный апдейтер из updaters
>
> updaterFnc(arg2, arg3);
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
**UPD:** Алтернативное решение — кэширование селекторов: [habrahabr.ru/blogs/jquery/63145](http://habrahabr.ru/blogs/jquery/63145/) | https://habr.com/ru/post/63119/ | null | ru | null |
# Динамические формы в ASP.NET MVC
Часто у пользователя требуется узнать информацию о нескольких дополнительных объектах, число которых заранее не известно. Для это используют динамические формы, поля которых создаются javascript кодом на клиентской машине. В asp.net mvc работая в связке Controller-View мы работаем с типизированными объектами. Преобразованием значений из requestа пришедшего с клиента в типизированный объект занимается класс ModelBinder. Для простых объектов это достаточно тривиальная задача. Но как правильно обработать динамические данные, имена параметров которые заранее неизвестны. Решением этой задачи и посвящен этот пост.
В asp.net MVC контроллер (Controller) уведомляет представление (View) о изменениях модели передавая ему типизированный объект данных:
```
public class Customer
{
public int CustomerID { get; set; } // Unique key
public string Name { get; set; }
}
```
Передача данных во View:
```
[AcceptVerbs(HttpVerbs.Get)]
public ViewResult CustomerView()
{
return View(new Customer { CustomerID = 14, Name = "Papa Carlo"});
}
```
В представлении GiftView.aspx мы отображаем значения этого объекта:
```
<%@ Page Title="" Language="C#" MasterPageFile="~/Views/Shared/Site.Master" Inherits="System.Web.Mvc.ViewPage" %>
ID : <%= Html.Encode("CustomerID") %>
Name : <%= Html.Encode("Name") %>
```
Так же в asp.net MVC существует раздельное использование GET и POST запроса с помощью аттрибута AcceptVerbs перед методом обработки данных контроллером. Данные, которые поступают в POST запросе обрабатываются ModelBinder-ом и инициализируют объект, который поступает параметром в метод для обработки данных:
```
[AcceptVerbs(HttpVerbs.Get)]
public ActionResult EditCustomer(int idCustomer)
{
//тут получаем объект Customer из источника данных по idCustomer
return View(Customer);
}
[AcceptVerbs(HttpVerbs.Post)]
public ActionResult EditCustomer(Customer customer)
{
if (ModelState.IsValid)
{
//если валидация прошла то сохраняем
}
return View(customer);
}
```
Где View для этого метода контроллера:
```
<%@ Page Title="" Language="C#" MasterPageFile="~/Views/Shared/Site.Master" Inherits="System.Web.Mvc.ViewPage" %>
<% using (Html.BeginForm()) { %>
<%= Html.Hidden("CustomerID") %>
Name : <%= Html.TextBox("Name") %>
<% } %>
```
Это очень удобно в использовании, но есть одна проблема когда мы сталкиваемся с заполнением динамических форм. Для добавления дополнительных полей используется javascript, который их сгенерирует. Но как их потом правильно передать на сервер, чтобы получить типизированный объект? Есть несколько решений этой ситуации. Но для начала расширим наш объект, с которым мы работаем в форме:
```
public class Ownership
{
public string Name { get; set; }
public int Price {get; set; }
}
public class Customer
{
...
public List Ownerships { get; set; }
}
```
Первый метод:
В методе-обработчике POST-запроса не будем принимать никаких параметров, а вручную обработаем свойство Request.Params (NameValueCollection).
Второй метод:
В методе-обработчике POST-запроса принимем параметр FormCollection, и опять же вручную обработаем этот параметр.
Третий метод:
Напишем свою версию обработки данных (ModelBinder) и добавим на обработку определенного типа данных.
Но всё же есть четвертый способ — предоставить правильно имена данных в представлении, корректно написать создание новых полей и предоставить работу по их обработке стандартному ModelBinderу, а на входе получить уже заполненый объект типа Customer с данными. Итак наше EditCustomer View:
```
<%@ Page Title="" Language="C#" MasterPageFile="~/Views/Shared/Site.Master" Inherits="System.Web.Mvc.ViewPage" %>
<% using (Html.BeginForm()) { %>
<%= Html.Hidden("CustomerID") %>
Name : <%= Html.TextBox("Name") %>
Add
<% int index = 0;
foreach (var ownership in Model.Ownerships)
{ %>
Name : <%= Html.TextBox("Ownerships[" + index.ToString() + "].Name")%>
Price : <%= Html.TextBox("Ownerships[" + index.ToString() + "].Price")%>
Remove
<%} %>
<%
index++;
} %>
<% } %>
//объявим javascript переменные для сохранения правильности счетчика (использование см. дальше)
var OwnershipsCount = <%= Model.Ownerships.Count.ToString() %>;
```
Теперь опишем правильно jquery для добавления и удаления дополнительных полей:
```
$().ready(function() {
///Add/Remove
$("#AddOwnership").click(AddOwnership);
$(".remove-ownership").click(RemoveOwnership);
});
```
Теперь опишем функцию на добавление:
```
function AddOwnership()
{
//добавляем поля
var OwnershipContainer = $("").attr("class", "ownership-container").attr("id", "OwnershipContainer" + OwnershipsCount).appendTo("#Ownerships");
OwnershipContainer.text(" Name : ");
$("").attr("type", "text").attr("name", "Ownerships[" + OwnershipsCount + "].Name").attr("id", "Ownerships[" + OwnershipsCount + "]_Name").appendTo(OwnershipContainer);
OwnershipContainer.text(" Price : ");
$("").attr("type", "text").attr("name", "Ownerships[" + OwnershipsCount + "].Price").attr("id", "Ownerships[" + OwnershipsCount + "]_Price").appendTo(OwnershipContainer);
var RemoveButton = $("").attr("class", "remove-ownership").text("Remove").appendTo(OwnershipContainer);
//на нажатие этого элемента добавляем обработчик - функцию удаления
RemoveButton.click(RemoveOwnership);
OwnershipsCount++;
}
```
Для того чтобы стандартный ModelBinder правильно обработал наш массив, индекс массива должен идти неразрывно, и поэтому, когда мы удаляем промежуточное поле например с номером 4, то все последующие надо пересчитать.
```
function RemoveOwnership() {
var RecalculateStartNum = parseInt($(this).parent().attr("id").substring("OwnershipContainer".length));
//удаляем этот div
$(this).parent().remove();
for (var i = RecalculateStartNum+1; i < OwnershipsCount; i++)
{
//функция пересчета аттрибутов name и id
RecalculateNamesAndIds(i);
}
OwnershipsCount--;
}
function RecalculateNamesAndIds(number) {
var prevNumber = number - 1;
$("#OwnershipContainer" + number).attr("id", "OwnershipContainer" + prevNumber);
//скобки "[" и "]" которые присутствуют в id DOM-объекта в jquery селекторе необходим экранировать двойным обратным слэшем \\
$("#Ownerships\\[" + number + "\\]_Name").attr("id", "Ownerships[" + prevNumber + "]_Name").attr("name", "Ownerships[" + prevNumber + "].Name");
$("#Ownerships\\[" + number + "\\]_Price").attr("id", "Ownerships[" + prevNumber + "]_Price").attr("name", "Ownerships[" + prevNumber + "].Price");
}
```
Вот и всё. Таким образом именованные поля формы стандартный ModelBinder сможет корректно обработать. | https://habr.com/ru/post/88766/ | null | ru | null |
# Zone.js или как Dart спас Angular

Я фронтенд-разработчик в компании Wrike, пишу на JavaScript и на Dart, который компилируется в JavaScript. Сегодня я хочу рассказать о библиотеке Zone.js, лежащей в основе Angular 2.
Изначально Zone.js была придумана разработчиками Google для языка программирования Dart и утилиты Dart2JS. С помощью этой библиотеки «гугловцы» решили проблему с дайджест-циклом, которая была характерна для первого Angular’а.
Чтобы понять, где эта библиотека используется и для чего нужна, прошу под кат.
Проблема
--------
Если вы пишите на JavaScript или на языках, которые компилируются в JavaScript, то наверняка сталкивались с такой ситуацией:
[работающий пример](https://jsfiddle.net/zolotyh/1cmpf0ov/):
```
var feedback = {
message: 'Привет!',
send: function () {
alert(this.message)
}
}
setTimeout(feedback.send)
```
Проблема известна давно — потерялся контекст. Поэтому во всплывающем сообщении мы увидим «undefined». Я знаю 4 способа выйти из положения:
* Передать переменную «message», используя [замыкания](https://jsfiddle.net/zolotyh/jwjuLk4u/)
* Привязать контекст к функции, которую мы передаем в setTimeout, при помощи [bind](https://jsfiddle.net/zolotyh/ypegy5v6/)
* Использовать [ES6 классы и стрелочные функции](https://jsfiddle.net/zolotyh/u4v3ja8f/)
* Использовать оператор [двойное двоеточие](https://jsfiddle.net/zolotyh/wpath6dz/)
На этом можно было бы и закончить, если бы не…
Корень зла
----------
Рассмотренный нами пример — это верхушка айсберга, на самом деле проблема потери контекста более глобальна. Дело в том, что контекст в JavaScript теряется в месте вызова асинхронных функций, и чтобы его сохранить, необходимо всю цепочку вызовов постоянно **держать в голове** и контролировать. Это особенно сложно в больших проектах
Есть обратный эффект: из-за потери контекста **теряется связь** с местом, откуда вызывается асинхронная функция. Например, непонятно, в каком месте мы навесили обработчик клика, который вызвал ошибку. В консоли видна только ссылка на сам обработчик клика, но **не показано**, где он подписан.
Решение
-------
Сколько способов вызовов функций асинхронно вы знаете? Мне на ум приходит setTimeout, addEventListener, асинхронные запросы к серверу и т.д. и т. п. Не так уж и много — количество этих мест конечно. Что это значит? Если предотвратить потерю контекста на каждый асинхронный вызов, проблема решится. Для начала давайте попробуем предотвратить потерю контекста в setTimeout:
Напишем класс с конструктором и тремя методами
```
class Context {
constructor(parentContext) {
let context;
if (parentContext) {
// Создаем копию
context = Object.create(parentContext)
context.parent = parentContext;
} else {
// Возвращаем текущий контекст
context = this;
}
return context;
}
fork() {
// Возвращаем копию
return new Context(this);
}
bind(fn) {
// Получаем текущий контекст
const context = this.fork();
// Возвращаем функцию в которой уже замкнут контекст
return () => {
return context.run(() => fn.apply(this, arguments), this, arguments);
}
}
run(fn) {
// Заменяем текущий контекст на наш
let oldContext = context;
context = this;
const result = fn.call() // Выполняем функцию в контексте
context = oldContext; // Возвращаем как было
return result; // Результат выполнения
}
}
```
После этого подменим исходный setTimeout:
```
context = new Context();
var nativeSetTimeout = window.setTimeout; // Подменяем setTimeout
context.setTimeout = (callback, time) => {
callback = context.bind(callback);
return nativeSetTimeout.call(window, callback.bind(context), time);
};
window.setTimeout = function (){
return context.setTimeout.apply(this, arguments);
};
```
Теперь клиентский код:
```
context.fork({} /* пустой объект, чтобы склонировалось*/).run(() => {
context.message = 'Привет!';
setTimeout(() => {
console.log(`%cСообщение в контексте: «${context.message}»`, 'font-size: x-large');
}, 0);
});
console.log(`%cСообщение вне контекста: «${context.message}»`,'font-size: x-large');
```
Теперь связь сохраняется. Вот пример [рабочего кода](https://jsfiddle.net/zolotyh/mm0tsh1n/). Используя ту же технику, можно заменить асинхронные вызовы для большинства случаев и управлять контекстом в ручном режиме предсказуемо.
А вот ниже наглядная иллюстрация работы. Каждая зона раскрашена в собственный цвет:

По сути, мы реализовали часть библиотеки Zone.js. Думаю, что на этом можно остановиться и не писать свой велосипед, а продолжить изучение зон, используя оригинальную библиотеку.
Описание библиотеки
-------------------
После подключения библиотеки в глобальной области видимости появляется объект Zone. Zone.current содержит ссылку на текущую зону. Метод fork объекта Zone возвращает новую зону на основе родительской. О том, какие параметры здесь возможны, лучше посмотреть в [документации на github](https://github.com/angular/zone.js/blob/master/dist/zone.js.d.ts). Метод run принимает функцию, тело которой выполнится в пределах этой зоны. Вот [пример](https://jsfiddle.net/zolotyh/4st0wtv7/).
```
const childZone = Zone.current.fork({
name: 'Дочерняя зона'
});
const handler = () => {
alert(`Код запустился в зоне с именем «${Zone.current.name}»`);
}
childZone.run(handler);
handler();
```
Разработчики библиотеки выделяют три вида асинхронных задач:
* Микротаски (MicroTasks) — задачи, которые выполняются сразу после завершения итерации лупа JavaScript-машины. Эти задачи нельзя отменить.
* Макротаски (MacroTasks) — задачи, которые выполняются на раньше наступления определенного времени (setTimeout). Эти задачи отменяемы.
* События (EventTasks) — задачи, которые выполняются по много раз, после наступления события, время задержки неизвестно.
Zone.js перехватывает попытку планирования асинхронных задач, выполнение обратных вызов, ошибки и прочее. Задачи планируются как явно, при помощи вызова специальных методов у объекта Zone.current, так и неявно, с помощью вызова асинхронной функции (setTimeout), как мы это делали в первой части статьи.
Зоны легко комбинировать: например, одна зона отлавливает ошибки в своих границах и отправляет нотификации на сервер, а дочерняя зона (потомок) выполняет функцию трекера и отправляет на сервер статистику работы пользователя в графическом интерфейсе. При этом, если в пределах дочерней зоны случится ошибка, то родительская зона перехватит и пошлет информацию на сервер. Вот [пример комбинирования зон](https://jsfiddle.net/zolotyh/w7trLaL3/).
```
const errorHandlerZone = Zone.current.fork({
name: 'ErrorZone',
onHandleError: (parentZoneDelegate, currentZone, targetZone, error) => {
sendError(error);
return false;
}
});
const trackingZone = errorHandlerZone.fork({
name: 'TrackingZone'
});
class Widget {
render = () => {
throw 'render error';
}
}
trackingZone.runGuarded(function(){
document.addEventListener('click', (event) => {
trackEvent(event);
}, true);
const widget = new Widget();
widget.render();
return this;
});
function sendError(error){
alert(`Ошибка: ${error} Название зоны: ${Zone.current.name}`);
}
function trackEvent(event){
alert(`Трекинг: ${event} Название зоны: ${Zone.current.name}`);
}
```
Другие полезные примеры
-----------------------
### Длинные трейсы
Первый и довольно типичный пример, о котором я писал выше, — ошибка в консоли. Упал обработчик клика по кнопке и все бы ничего, вот только непонятно, где он навешен. При помощи Zone.js мы можем это определить. Для этого используем специальную зону из репозитория Zone.js. Вот [пример](https://jsfiddle.net/zolotyh/zkdzky2r/).
### Профилирование
При помощи зон замеряем время работы кода, в котором содержатся асинхронные вызовы, исключая задержку не связанную с кодом: таймауты, ожидания ответа сервера и паузы между событиями. [Пример](https://jsfiddle.net/zolotyh/7f404twp/).
Причем здесь Angular 2?
-----------------------
Зоны используются во втором Angular’е. Фреймворк понимает, что нужно запустить механизм поиска изменений, когда происходят асинхронные событие. О наступлении этого асинхронного события он узнает как раз от Zone.js.
Если представить все выше изложенное как код, то получится нечто подобное:
```
// Новая версия addEventListener
function addEventListener(eventName, callback) {
// Вызов настоящего addEventListener
callRealAddEventListener(eventName, function () {
// Оригинальный обратный вызов
callback(...);
// Заускаем поиск изменений
var changed = angular2.runChangeDetection();
if (changed) {
angular2.reRenderUIPart(); // Отображаем изменения
}
});
}
```
Благодаря зонам мы знаем, в каком элементе произошло асинхронное событие. Остается понять, нужно ли рендерить изменения для дочерних элементов, и здесь есть отличительная особенность Angular 2. В первом Angular’е приходилось запускать дайджест-цикл, который много раз обходил дочерние и родительские элементы, чтобы проверить: изменилась модель или нет. Второй Angular проверяет на изменения однонаправленно.
Недостатки
----------
Zone.js меняет стандартное поведение браузерного API ([переопределять setTimeout](#setTimeout) нехорошо). Это минус. При том, что [манкипатчинг](https://ru.wikipedia.org/wiki/Monkey_patch) выполнен аккуратно, мы использовали [антипаттерн](https://ru.wikipedia.org/wiki/%D0%90%D0%BD%D1%82%D0%B8%D0%BF%D0%B0%D1%82%D1%82%D0%B5%D1%80%D0%BD). Появились дополнительные издержки при вызове базовых функций. Эти издержки малы, но они есть.
Манкипатчинг может привести к дополнительным багам в стандартных ситуациях. Хотя сам я ни разу не натыкался на эти баги, потенциально они возможны.
Еще у меня не получилось заставить работать зоны в приложении на React и Angular первой версии так, как я хотел.
На самом деле ничего не мешает использовать Zone.js как таковой, но вот сделать так, чтобы каждый компонент вызывался в отдельной зоне — проблематично. Для полноценной работы зон нужно, чтобы каждый кусок асинхронного кода (привязка событий, асинхронные запросы к серверу) вызывался в пределах зоны. Мне не удалось управлять этими процессами. Реакт использует виртуальный дом и умный рендеринг с кэшированием, а базовые события в Angular навешиваются в базовых директивах типа ngClick, переписывать которые утомительно. Есть шанс, что у вас это получится. Делитесь успехами в комментариях.
Вывод: Никогда не говори никогда
--------------------------------
Zone.js — тот случай, когда манкипатчинг уместен. Те преимущества, которые дает библиотека, перекрывают недостатки подхода, а нарушение неписаных правил иногда приводит к победе. | https://habr.com/ru/post/310422/ | null | ru | null |
# Оформление кода, оптимизация процесса проверки качества кода
#### JavaScript, the winning style

Код написанный в одном стиле, имеет много преимуществ: меньше мелких ошибок, многие ошибки легко обнаружить почти сразу, другие же можно легко отладить еще на стадии разработки. Новым же программистам не придется тратить лишнее время на изучение вашего кода (это не значит что им не придется разбираться в самом коде, а значит лишь что его легче будет читать) и им будет проще влиться в проект.
Качество кода станет только лучше, если вся команда будет придерживаться заранее определенного стиля. Это безусловно стоит того, чтобы потрать немного времени на выработку общих правил.
В отличие от Питона у которого есть единый свод правил [«Style Guide for Python Code»](http://www.python.org/dev/peps/pep-0008/), у языка JavaScript такого нет. Однако на выбор есть целых 6 популярных гайдов:
* [Google JavaScript Style Guide](http://google-styleguide.googlecode.com/svn/trunk/javascriptguide.xml)
* [npm’s coding style](https://npmjs.org/doc/coding-style.html)
* [Felix’s Node.js Style Guide](http://nodeguide.com/style.html)
* [Idiomatic JavaScript](https://github.com/rwaldron/idiomatic.js/)
* [jQuery JavaScript Style Guide](http://contribute.jquery.org/style-guide/js/)
* [Douglas Crockford’s JavaScript coding style](http://javascript.crockford.com/code.html)
Помимо гайдов, не стоит так же забывать об автоматических анализаторах кода, таких, например, как JSLint и JSHint. И в них уже заложены свои настройки. **Вопрос в том, какой же все-таки максимально правильный способ писать код на JavaScript, который был бы актуален и максимально соответствовал бы большинству рекомендаций?** Давайте попробуем объединить большинство рекомендаций в этой статье и подумаем как можно оптимизировать процесс проверки качества кода.
#### Оформление
##### Отступ
* **2 пробела, не больше и без табуляции: Google, npm, Node.js, Idiomatic**
* Табуляция: jQuery
* 4 пробела: Crockford
##### Пробел между аргументами и выражением
* **Без пробела, как на примере: Google, npm, Node.js**
```
project.MyClass = function(arg1, arg2) {
```
* С пробелом, как на примере: Idiomatic, jQuery
```
for ( i = 0; i < length; i++ ) {
```
* Без особого мнения: Crockford
Многие гайды так же напоминают, чтобы не было пробелов в конце строк (trailing spaces)
##### Длина строки
* **Максимум 80 знаков: Google, npm, Node.js, Crockford**
При переносе строк, отступ не обязательно должен быть равен 2, если вам надо, например, перенести на следующую строку аргументы функции, то выровнить их можно по тому месте где стоит первый аргумент. Как другой вариант, можно так же использовать 4 пробела вместо 2, когда переносите длинные строки.
* Без особого мнения: jQuery, Idiomatic
##### Точка с запятой
* **Всегда использовать точку с запятой: Google, Node.js, Crockford**
* Не использовать в некоторых ситуациях: npm
* Без особого мнения: jQuery, Idiomatic
##### Комментарии:
* **JSDoc**: Google, Idiomatic
* В Idiomatic Style Guide так же разрешены более простые комментарии, но JSDoc предпочтительнее
* Без особого мнения: npm, Node.js, jQuery, Crockford
##### Кавычки
* **Предпочтительнее одинарные кавычки. Лучше `'value'`, чем `"value":` Google, Node.js**
* Двойные кавычки ": jQuery
* Без особого мнения: npm, Idiomatic, Crockford
##### Декларирование переменных
* **Одна переменная на одной строке: Node.js**
```
var foo = '';
var bar = '';
```
* Несколько переменных, разделяемые запятыми в конце строки, как на примере: Idiomatic, jQuery
```
var foo = "",
bar = "",
quux;
```
* Запятая в начале строки: npm
```
var foo = ""
, bar = ""
, quux;
```
* Без особого мнения: Google, Crockford
##### Скобки
* **Ставьте открывающую скобки на той же строке: Google, npm, Node, Idiomatic, jQuery, Crockford**
```
function thisIsBlock() {
```
Это подразумевает, что скобки следует использовать всегда, даже в ситуации, где их можно опустить.
* В npm гайде указано, что скобки нужно использовать только в случае, когда тело функции переносится на следующую строку.
```
if (foo) bar()
while (foo) {
bar()
}
```
##### Глобальные переменные
* **Не используйте глобальные переменные: Google, Crockford**
*Google:*
> Global name conflicts are difficult to debug, and can cause intractable problems when two projects try to integrate. In order to make it possible to share common JavaScript code, we’ve adopted conventions to prevent collisions.
*Перевод:*
> Глобальные переменные сложнее отлаживать, и они могут стать причиный нетривиальных проблем, когда двум проектам надо интегрироваться. Мы приняли соглашение о стиле написания кода, чтобы иметь возможность распространять совместимый код.
>
>
* Crockford считает, что глобальные переменные не нужно использовать вовсе.
* Без особого мнения: Idiomatic, jQuery, npm, Node
#### Имена
##### Переменные
* **Первое слово с маленькой буквы, все последующие с большой: Google, npm, Node, Idiomatic**
```
var foo = "";
var fooName = "";
```
##### Константы
* **Все слово большими буквами: Google, npm, Node**
```
var CONS = 'VALUE';
var CONSTANT_NAME = 'VALUE';
```
* Без особого мнения: jQuery, Idiomatic, Crockford
##### Функции
* **Первое слово с маленькой буквы, все последующие с большой (camelCaps/camelCase): Google, npm, Node, Idiomatic**
Предпочтительнее длинное имя, которое бы описывало действие функции
```
function veryLongOperationName
function short()..
```
Используйте слова is, set, get:
```
function isReady()
function setName()
function getName()
```
* Без особого мнения: jQuery, Crockford
##### Массивы
* **Используйте множественную форму слова: Idiomatic**
```
var documents = [];
```
* Без особого мнения:Google, jQuery, npm, Node, Crockford
##### Объекты и классы
* **Используйте Pascal case (каждое слово с большой буквы): Google, npm, Node**
```
var ThisIsObject = new Date();
```
* Без особого мнения: jQuery, Idiomatic, Crockford
##### Другое
Используйте all-lower-hyphen-css-case для многосоставных названий файлов и настроек: npm
#### Используйте JSHint и .jshintrc файл
JSHint — это анализатор кода, который укажет вам на ошибки в коде. Он совместим со многими широко используемыми текстовыми редакторами. Так же это хороший способ поддерживать стилистическое единство и целостность кода. Различные способы использования можно найти в [документации](http://www.jshint.com/docs/#options). Ниже наш пример .jshintrc файла, который следует всем данным выше рекомендациям. Поместите этот файл а корневую папку вашего проекта, и если у вас установлен JSHint плагин, то ваш редактор теперь будут проверять код в соответствии с правилами которые вы определили.
```
{
"camelcase" : true,
"indent": 2,
"undef": true,
"quotmark": "single",
"maxlen": 80,
"trailing": true,
"curly": true
}
```
Во все файлы, которые обрабатываются браузером добавляем:
```
/* jshint browser:true, jquery:true */
```
В файлы Node.js добавляем:
```
/*jshint node:true */
```
Во все типы JS файлов, так же лучше добавить:
```
'use strict';
```
Это повлияет и на JSHint и на обработчика JavaScript в целом, который станет менее терпимым к ошибкам, но будет работать быстрее. [Почитать больше о 'use strict'](http://learn.javascript.ru/strict-mode) (внешняя ссылка)
#### Автоматическая проверка кода JSHint перед git commit
Если вы хотите быть уверены в том что все ваши JS файлы прошли проверку и следуют общему стилю, который вы определили в .jshintrc. То добавьте эти строки в ваш **.git/hooks/pre-commit** файл. Теперь перед тем как закомитить изменения, скрипт будет проверять только измененные файлы на нарушения стилистики кода. И если таковые имеются, то операция будет прервана.
```
#!/bin/bash
# Pre-commit Git hook to run JSHint on JavaScript files.
#
# If you absolutely must commit without testing,
# use: git commit --no-verify
filenames=($(git diff --cached --name-only HEAD))
which jshint &> /dev/null
if [ $? -ne 0 ];
then
echo "error: jshint not found"
echo "install with: sudo npm install -g jshint"
exit 1
fi
for i in "${filenames[@]}"
do
if [[ $i =~ \.js$ ]];
then
echo jshint $i
jshint $i
if [ $? -ne 0 ];
then
exit 1
fi
fi
done
```
ps.
По просьбам прочитавших (оригинальную статью), была создана [Git репозитория](https://github.com/Seravo/js-winning-style) любой желающий может внести свои изменения в .jshintrc или в документацию.
*От переводчика:
Я знаю лично автора оригинальной статьи и получил добро на внесения изменений при переводе. Об особенно серьезных неточностях перевода или ошибках прошу сообщить мне, любым способом, который вам нравится. Возможно не самый искусный перевод, но я старался, спасибо кто дочитал все до конца.
Оригинальная статья: [(http://seravo.fi/2013/javascript-the-winning-style)](http://seravo.fi/2013/javascript-the-winning-style)* | https://habr.com/ru/post/189872/ | null | ru | null |
# Автоматизация управления Let's Encrypt SSL сертификатами используя DNS-01 challenge и AWS
Пост описывает шаги для автоматизации управления SSL сертификатами от **[Let's Encrypt CA](https://letsencrypt.org/)** используя *[DNS-01 challenge](https://letsencrypt.org/docs/challenge-types/)* и *AWS*.
**[acme-dns-route53](https://github.com/begmaroman/acme-dns-route53)** — это инструмент, который позволит нам реализовать данную фичу. Он умеет работать с SSL сертификатами от Let's Encrypt, сохранять их в Amazon Certificate Manager, использовать Route53 API для реализации DNS-01 challenge, и, в конце, пушить уведомления в SNS. В *acme-dns-route53* так же присутствует built-in функционал для использования внутри AWS Lambda, и это то, что нам нужно.
Данная статья разбита на 4 раздела:
* создание zip файла;
* создание IAM роли;
* создание лямбда функции которая запускает *acme-dns-route53*;
* создание CloudWatch таймера который триггерит функцию 2 раза в день;
***Note:** перед началом необходимо установить [GoLang 1.9+](https://golang.org/doc/install) и [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-install.html)*
### Создание zip файла
*acme-dns-route53 написан на GoLang и поддерживает версию не ниже 1.9.*
Нам нужно создать zip файл с бинарником `acme-dns-route53` внутри. Для этого необходимо установить `acme-dns-route53` из GitHub репозитория используя команду `go install`:
```
$ env GOOS=linux GOARCH=amd64 go install github.com/begmaroman/acme-dns-route53
```
Бинарник установлен в `$GOPATH/bin` директорию. Обратите внимание на то, что при установке мы указали две переенные окружениея: `GOOS=linux` и `GOARCH=amd64`. Они дают понять Go компилятору об необходимости создания бинарника подходящего для Linux OS и amd64 архитектуры — это то, что запускается в AWS.
AWS пердполагает деплой нашей программы в zip файле, так что давайте создадим `acme-dns-route53.zip` архив который будет содержать только что установленный бинарник:
```
$ zip -j ~/acme-dns-route53.zip $GOPATH/bin/acme-dns-route53
```
***Note:** бинарник должен быть в корне zip архива. Для этого мы используем `-j` флаг.*
Теперь наш zip-ник готов к деплою, осталось только создать роль с необходимыми правами.
### Создание IAM роли
Нам нужно засетапить IAM роль с правами, необходимыми нашей лямбде во время ее выполнения.
Давайте назовем эту policy `lambda-acme-dns-route53-executor` и сразу дадим ей базовую роль `AWSLambdaBasicExecutionRole`. Это позволит нашей лямбде запуститься и писать логи в AWS CloudWatch сервис.
Для начала создаем JSON файл в котором описаны наши права. Это, по сути, разрешит лямбда-сервисам использовать роль `lambda-acme-dns-route53-executor`:
```
$ touch ~/lambda-acme-dns-route53-executor-policy.json
```
Содержимое нашего файла следующее:
```
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"logs:CreateLogGroup"
],
"Resource": "arn:aws:logs:::\*"
},
{
"Effect": "Allow",
"Action": [
"logs:PutLogEvents",
"logs:CreateLogStream"
],
"Resource": "arn:aws:logs:::log-group:/aws/lambda/acme-dns-route53:\*"
},
{
"Sid": "",
"Effect": "Allow",
"Action": [
"route53:ListHostedZones",
"cloudwatch:PutMetricData",
"acm:ImportCertificate",
"acm:ListCertificates"
],
"Resource": "\*"
},
{
"Sid": "",
"Effect": "Allow",
"Action": [
"sns:Publish",
"route53:GetChange",
"route53:ChangeResourceRecordSets",
"acm:ImportCertificate",
"acm:DescribeCertificate"
],
"Resource": [
"arn:aws:sns:::",
"arn:aws:route53:::hostedzone/\*",
"arn:aws:route53:::change/\*",
"arn:aws:acm:::certificate/\*"
]
}
]
}
```
Теперь выполним команду `aws iam create-role` для создания роли:
```
$ aws iam create-role --role-name lambda-acme-dns-route53-executor \
--assume-role-policy-document ~/lambda-acme-dns-route53-executor-policy.json
```
***Note:** запомните policy ARN (Amazon Resource Name) — он нам понадобится на следующих этапах.*
Роль `lambda-acme-dns-route53-executor` создана, теперь нам нужно указать разрешения для нее. Самый простой способ сделать это — использовать команду `aws iam attach-role-policy`, передав policy ARN `AWSLambdaBasicExecutionRole` следующим образом:
```
$ aws iam attach-role-policy --role-name lambda-acme-dns-route53-executor \
--policy-arn arn:aws:iam::aws:policy/service-role/AWSLambdaBasicExecutionRole
```
***Note:** список с остальными политиками можно найти [здесь](https://docs.aws.amazon.com/lambda/latest/dg/lambda-permissions.html#lambda-intro-execution-role).*
### Создание лямбда функции которая запускает *acme-dns-route53*
Ура! Теперь можно и задеплоить нашу функцию на AWS с помощью команды `aws lambda create-function`. Лямбда должна быть сконфигурированна используя следующие переменные окружения:
* `AWS_LAMBDA` — дает понять *acme-dns-route53* о том, что выполнение происходить внутри AWS Lambda.
* `DOMAINS` — список доменов, разделенных запятыми.
* `LETSENCRYPT_EMAIL` — содержит [Let’s Encrypt Email](https://letsencrypt.org/docs/expiration-emails/).
* `NOTIFICATION_TOPIC` — название SNS Notification Topic (опционально).
* `STAGING` — при значении `1` используется staging environment.
* `RENEW_BEFORE` — количество дней, определяющих период до истечения срока, в течение которого сертификат должен быть продлен.
* `1024` MB — лимит памяти, может быть изменен.
* `900` secs (15 min) — таймаут.
* `acme-dns-route53` — название нашего бинарника, который лежит в архиве.
* `fileb://~/acme-dns-route53.zip` — путь к архиву, который мы создали.
Теперь деплоим:
```
$ aws lambda create-function \
--function-name acme-dns-route53 \
--runtime go1.x \
--role arn:aws:iam:::role/lambda-acme-dns-route53-executor \
--environment Variables="{AWS\_LAMBDA=1,DOMAINS=\"example1.com,example2.com\",LETSENCRYPT\_EMAIL=begmaroman@gmail.com,STAGING=0,NOTIFICATION\_TOPIC=acme-dns-route53-obtained,RENEW\_BEFORE=7}" \
--memory-size 1024 \
--timeout 900 \
--handler acme-dns-route53 \
--zip-file fileb://~/acme-dns-route53.zip
{
"FunctionName": "acme-dns-route53",
"LastModified": "2019-05-03T19:07:09.325+0000",
"RevisionId": "e3fadec9-2180-4bff-bb9a-999b1b71a558",
"MemorySize": 1024,
"Environment": {
"Variables": {
"DOMAINS": "example1.com,example2.com",
"STAGING": "1",
"LETSENCRYPT\_EMAIL": "your@email.com",
"NOTIFICATION\_TOPIC": "acme-dns-route53-obtained",
"RENEW\_BEFORE": "7",
"AWS\_LAMBDA": "1"
}
},
"Version": "$LATEST",
"Role": "arn:aws:iam:::role/lambda-acme-dns-route53-executor",
"Timeout": 900,
"Runtime": "go1.x",
"TracingConfig": {
"Mode": "PassThrough"
},
"CodeSha256": "+2KgE5mh5LGaOsni36pdmPP9O35wgZ6TbddspyaIXXw=",
"Description": "",
"CodeSize": 8456317,
"FunctionArn": "arn:aws:lambda:us-east-1::function:acme-dns-route53",
"Handler": "acme-dns-route53"
}
```
### Создание CloudWatch таймера который триггерит функцию 2 раза в день
Последний шаг — это настроить крон, который вызывает нашу функцию дважды в день:
* создать правило CloudWatch со значением `schedule_expression`.
* создать цель правила (что должно выполняться), указав ARN лямбда-функции.
* дать разрешение правилу вызов лямбда-функции.
Ниже я прикрепил свой Terraform конфиг, но на самом деле это делается очень просто с помощью AWS консоль или AWS CLI.
```
# Cloudwatch event rule that runs acme-dns-route53 lambda every 12 hours
resource "aws_cloudwatch_event_rule" "acme_dns_route53_sheduler" {
name = "acme-dns-route53-issuer-scheduler"
schedule_expression = "cron(0 */12 * * ? *)"
}
# Specify the lambda function to run
resource "aws_cloudwatch_event_target" "acme_dns_route53_sheduler_target" {
rule = "${aws_cloudwatch_event_rule.acme_dns_route53_sheduler.name}"
arn = "${aws_lambda_function.acme_dns_route53.arn}"
}
# Give CloudWatch permission to invoke the function
resource "aws_lambda_permission" "permission" {
action = "lambda:InvokeFunction"
function_name = "${aws_lambda_function.acme_dns_route53.function_name}"
principal = "events.amazonaws.com"
source_arn = "${aws_cloudwatch_event_rule.acme_dns_route53_sheduler.arn}"
}
```
Теперь и у вас настроено автоматическое создание и обновление SSL сертификатов | https://habr.com/ru/post/451848/ | null | ru | null |
# Особенности использования SailsJS для начинающих (Часть 1)

#### Синопсис
Эта статья содержит полезные для новичков методы и способы разработки на SailsJS, которые могут быть неизвестны или непонятны тем кто только ступил на путь разработки в этом удобном и многофункциональном фреймворке. Это может быть все — начиная от обычных команд, генераторов или сервисов, и заканчивая встроенными методами запросов. Здесь собраны полезные мелочи платформы которые смогут защитить вас от написания костылей или велосипедов. Заинтересовало?

#### Использование CoffeeScript в backend
Возможно не все знают но в Sails реализована не только автоматическая компиляция CoffeeScript не только в фронтенд части, но и при написании других компонентов системы. Для использования этой возможности необходимо установить *coffee-script* в локальном окружении проекта:
```
npm install coffee-script --save
```
Далее необходимо немного поправить файл *app,js* в корне проекта. В начало файла (перед объявлением переменной sails) добавьте следующую строку.
```
require('coffee-script');
```
Это были маленькие манипуляции чтобы исключить встроенную проблему, которая некоторых может ввести в ступор.
А теперь для генерации необходимого нам API на Coffee, в Sails существует аргумент *--coffee*
##### Генерация API целиком (модель + контроллер)
```
sails generate api post --coffee
```
где *post* имя нашего api.
##### Генерация модели
```
sails generate model post --coffee
```
##### Генерация контроллера
```
sails generate controller post --coffee
```
Вот с помощью таких нехитрых манипуляций мы включили поддержку Coffee в SailsJS, работает в версии 0.10х. В офф. документации не описано.

#### Встроенная система базовых ответов
Думаю многие из нас сталкивались с ситуацией когда нужно было создать или использовать страницу с ответом множественного использования, начиная с простого ответа ошибки 404, и заканчивая формирования чего-либо из входных данных без использования контроллеров. Для этих случаев в Sails предусмотрена система ответов которая располагается в *api/responses*. Из по-умолчанию встроенных ответов можно считать:
* res.serverError() — ошибка 500
* res.notFound() — ошибка 404
* res.forbidden() — ошибка 403
* res.ok() — ответ 200
Это не просто передающие статус обработчики вроде *res.send(404)* а полноценно формируемое ответ представление — страницы ошибки, которые вы например видите когда открываете не заданную в sails страницу или ошибочную обработку, и получаете визуальный ответ ошибки 404 или 500 с текстом ошибки. Пример использования.
```
res.notFound('Ошибка'); // возбуждает ошибку 404 и выводит текст ошибки (первый аргумент)
res.notFound('Ошибка', '/'); // передает текст ошибки, и страницу куда перенаправить с случае возникновения
```
В базовом случае, при простой передаче одного аргумента с текстом ошибки, выглядеть будет примерно так:

Это простые и удобные утилиты, которые могут не замечать некоторые новички. Также если вы проведете небольшой аудит кода этих ответов (который весьма прост и хорошо закомментирован) вы сможете без труда самостоятельно составлять свои ответы. Подробнее о ответах в Sails можете [почитать тут](http://beta.sailsjs.org/#/documentation/reference/Response).

#### Сервисы
Когда мы хотим чтобы происходила обработка чего-либо не зависимо от отдельно взятого контроллера, нечто что мы хотим использовать много раз, или сделать удобную для нас обертку для какой-либо библиотеки или модуля, мы можем использовать для этого сервисы SailsJS. Сервисы это удобные в использовании модули с которыми можно работать локально в вашем приложении. Все сервисы располагаются в *api/services*, для использования сервисов много умений не требуется. Сейчас разложу по пальцам. Предположим мы хотим создать некий сервис *Custom* с выполняемым им методом *N*, а потом вызвать его из контроллера. Для этого создайте файл CustomService.js в *api/services*, теперь в этом файле мы должны определить метод N — для этого достаточно такого простого содержания.
```
exports.N = function(opt1, opt2) { // Объявляем метод N - функция
.....
}
```
Вызвать метод N в любом нашем контроллере можно так
```
CustomService.N();
```
Как видите все предельно просто и понятно, также используя серсисы можно успешно и понятно создавать API для генераторов.

#### Конфигурации
Некоторые из начинающих совершают не летальную но очень необдуманную ошибку — они хранят значения некоторых кастомно изменяемых переменных или объектов для конфигурирования своих приложений в самих контроллерах (или вообще хранят их как атрибут *defaultsTo* в моделях). Вместо этого разумнее хранить все свои конфигурации в положенном им фреймворком месте — config/. Сейчас мы рассмотрим как совсем быстро создать и использовать конфигурации. Предположим мы хотим создать конфигурацию Custom с 2 хранимыми параметрами — N и S, а потом использовать их в своем контроллере. Для этого в *config/* создайте файл *custom.js*, c таким содержанием.
```
module.exports.custom = {
N: '.....',
S: 'custom'
}
```
Для доступа к конфигурации из любой части вашего приложения — достаточно использовать простейшие средства.
```
var N = sails.config.custom.N;
var S = sails.config.custom.S;
```
#### В заключение
На этом завершим первую часть небольшого дополнения вводного курса для новичков в SailsJS. В следующей статье будет рассмотрены такие полезные вопросы как «Реализация выгрузки файлов на сервер с помощью стандартных средств Sails» и многие другие возможности которые появились в Sails начиная с версии 0.10. | https://habr.com/ru/post/228253/ | null | ru | null |
# Мониторинг кластера Kubernetes при помощи Prometheus
Здравствуйте, коллеги.
Мы только что отдали в перевод интересную книгу Брендана Бёрнса, рассказывающую о паттернах проектирования для распределенных систем
 Кроме того, у нас уже полным ходом идет перевод книги "[Mastering Kubernetes](https://www.amazon.com/Mastering-Kubernetes-Master-container-management/dp/1788999789/)" (2-е издание) и готовится к выходу в сентябре авторская книга о Docker, о которой обязательно будет отдельный пост.
Полагаем, что следующая остановка на этом пути — книга о Prometheus, поэтому сегодня предлагаем вашему вниманию перевод небольшой статьи Бьёрна Венцеля о тесном взаимодействии Prometheus и Kubernetes. Не забудьте пожалуйста поучаствовать в опросе.
Мониторинг кластера Kubernetes – очень важное дело. В кластере содержится масса информации, позволяющей ответить на вопросы из разряда: сколько сейчас в наличии памяти, дискового пространства, как активно используется cpu? Какой контейнер сколько ресурсов расходует? Также сюда относятся вопросы о состоянии приложений, работающих в кластере.
Один из состоявшихся инструментов для такой работы называется Prometheus. Его поддерживает фонд Cloud Native Computing Foundation, исходно Prometheus разрабатывался в компании SoundCloud. Концептуально Prometheus очень прост:
#### Архитектура
Сервер Prometheus может работать, например, в кластере Kubernetes и получать конфигурацию через специальный файл. Такая конфигурация, в частности, содержит информацию о том, где находится терминал, с которого нужно собрать данные по истечении указанного интервала. Затем сервер Prometheus запрашивает с этих терминалов метрики в специальном формате (обычно они доступны по адресу `/metrics`) и сохраняет их в базе данных временных рядов. Ниже приведен краткий пример: небольшой конфигурационный файл, запрашивающий метрики у модуля `node_exporter`, развертываемого в качестве агента на каждом узле:
```
scrape_configs:
- job_name: "node_exporter"
scrape_interval: "15s"
target_groups:
- targets: [':9100']
```
Сначала определяем имя задания `job_name`, позже по этому имени можно запрашивать метрики в Prometheus, затем интервал снятия данных `scrape_interval` и группу серверов, на которых работает `node_exporter`. Теперь Prometheus будет каждые 15 секунд запрашивать у сервера путь `path /metrics` к актуальным метрикам. Выглядит примерно так:
```
# HELP go_gc_duration_seconds A summary of the GC invocation durations.
# TYPE go_gc_duration_seconds summary
go_gc_duration_seconds{quantile="0"} 1.4852e-05
go_gc_duration_seconds{quantile="0.25"} 2.0702e-05
go_gc_duration_seconds{quantile="0.5"} 2.2059e-05
...
```
Сначала дается название метрики, затем подписи (информация в фигурных скобках) и, наконец, значение метрики. Самое интересное — функция поиска по этим метрикам. Для этой цели в Prometheus есть очень мощный [язык запросов](https://prometheus.io/docs/prometheus/latest/querying/basics/).
Основная идея Prometheus, уже описанная выше, такова: Prometheus с заданным интервалом опрашивает порт по поводу метрик и сохраняет их в базе данных временных рядов. Если Prometheus не может снять метрики сам, то существует и другая функциональность под названием pushgateway. Шлюз pushgateway принимает метрики, присланные внешними заданиями, а Prometheus с заданным интервалом собирает информацию с этого шлюза.
Еще один опциональный компонент архитектуры Prometheus – это `alertmanager`. Компонент `alertmanager` позволяет задавать пределы, и в случае их превышения посылать уведомления по электронной почте, slack или opsgenie.
Кроме того, сервер Prometheus содержит множество [интегрированных возможностей](https://prometheus.io/docs/prometheus/latest/configuration/configuration/), например, может запрашивать на Amazon API инстансы ec2 или запрашивать у Kubernetes поды, узлы и сервисы. Также в нем есть множество [экспортеров](https://prometheus.io/docs/instrumenting/exporters/), например, вышеупомянутый `node_exporter`. Такие экспортеры могут работать, к примеру, на узле, где установлено приложение вроде MySQL и с заданным интервалом опрашивать приложение по поводу метрик и предоставлять их на терминале /metrics, а сервер Prometheus может собирать оттуда эти метрики.
Кроме того, не составляет труда написать собственный экспортер – например, для приложения, предоставляющего такие метрики, как информация jvm. Есть, к примеру, такая [библиотека](https://github.com/prometheus/client_java), разработанная Prometheus для экспорта таких метрик. Эта библиотека может использоваться в сочетании со Spring, а также позволяет вам определять собственные метрики. Вот пример со страницы `client_java`:
```
@Controller
public class MyController {
@RequestMapping("/")
@PrometheusTimeMethod(name = "my_controller_path_duration_seconds", help = "Some helpful info here")
public Object handleMain() {
// Делаем что-либо
}
}
```
Это метрика, описывающая длительность метода, а другие метрики теперь можно предоставлять через терминал или проталкивать через pushgateway.
#### Использование в кластере Kubernetes
Как я уже упоминал, для использования Prometheus в кластере Kubernetes есть интегрированные возможности для снятия информации с пода, узла и сервиса. Самое интересное, что Kubernetes специально спроектирован для работы с Prometheus. Например, `kubelet` и `kube-apiserver` предоставляют метрики, доступные для чтения в Prometheus, поэтому организовать мониторинг очень просто.
В этом примере для начала я использую официальный helm-чарт.
Для себя я немного изменил конфигурацию helm-чарта, устанавливаемого по умолчанию. Во-первых, мне нужно было активировать `rbac` в установке Prometheus, в противном случае Prometheus был не в состоянии собирать информацию с `kube-apiserver`. Поэтому я написал собственный файл values.yaml, в котором описано, как должен отображаться helm-чарт.
Я внес самые простые изменения:
1. `alertmanager.enabled: false`, то есть отменил развертывание alertmanager в кластере (я не собирался использовать alertmanager, думаю, предупреждения проще сконфигурировать при помощи Grafana)
2. `kubeStateMetrics.enabled: false` думаю, эти метрики возвращают лишь некоторую информацию о предельном количестве подов. При первом запуске системы эта информация мне не важна
3. `server.persistentVolume.enabled: false` пока у меня по умолчанию не сконфигурирован персистентный том
4. Я изменил в Prometheus конфигурацию сбора информации, как это сделано в [pull-реквесте на github](https://github.com/helm/charts/pull/2700). Дело в том, что в Kubernetes v1.7 метрики cAdvisor работают на другом порте.
После этого можно запустить Prometheus при помощи helm:
`helm install stable/prometheus --name prometheus-monitoring -f prometheus-values.yaml`
Так мы установим сервер Prometheus, и на каждом узле – установим под node\_exporter. Теперь можно перейти в графический веб-интерфейс Prometheus и посмотреть некоторую информацию:
`kubectl port-forward 9090`
На следующем скриншоте показано, с каких целей Prometheus собирает информацию (Status/targets), и когда в последние несколько раз снималась информация:

Здесь видно, как Prometheus запрашивает метрики у apiserver, узлов, cadvisor, работающего на узлах и у конечных точек сервисов kubernetes. Можно посмотреть метрики подробно, перейдя в Graph и написав запрос для просмотра интересующей нас информации:

Здесь, например, мы видим свободное хранилище в точке монтирования “/”. В нижней части схемы заметны подписи, добавляемые Prometheus или уже доступные у node\_exporter. Мы используем эти подписи, чтобы запрашивать только точку монтирования “/”.
#### Настраиваемые метрики с аннотациями
Как уже было показано на первом скриншоте, где выведены цели, с которых Prometheus запрашивает метрики, также существует метрика для пода, работающего в кластере. Одна из приятных фич Prometheus – это возможность снимать информацию с целых подов. Если контейнер в поде предоставляет метрики Prometheus, то мы можем собирать эти метрики при помощи Prometheus автоматически. Единственное, о чем еще нам нужно позаботиться – снабдить установку двумя аннотациями; в моем случае `nginx-ingress-controller` делает это «из коробки»:
```
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: nginx-ingress-controller
namespace: ingress-nginx
spec:
replicas: 1
selector:
matchLabels:
app: ingress-nginx
template:
metadata:
labels:
app: ingress-nginx
annotations:
prometheus.io/port: '10254'
prometheus.io/scrape: 'true'
...
```
Здесь мы видим, что шаблон развертывания снабжается двумя аннотациями Prometheus. Первая описывает порт, через который Prometheus должен запрашивать метрики, а вторая активирует функционал сбора данных. Теперь Prometheus запрашивает у `Kubernetes Api-Server` поды, аннотированные для сбора информации, и пытается собрать информацию с терминала /metrics.
#### Работа в федеративном режиме
У нас есть проект, в котором Prometheus используется в федеративном режиме. Идея такова: мы собираем лишь ту информацию, что доступна только изнутри кластера (или эту информацию проще собрать именно изнутри кластера), включаем федеративный режим и получаем эту информацию при помощи второго Prometheus, установленного вне кластера. Таким образом удается собирать информацию сразу с нескольких кластеров Kubernetes, также захватывая и другие компоненты, не доступные изнутри данного кластера или не касающиеся этого кластера. Вдобавок, затем не приходится долговременно хранить в кластере собранные данные и, если с кластером что-то пойдет не так, мы сможем собрать некоторую информацию, например, node\_exporter, и извне кластера. | https://habr.com/ru/post/421175/ | null | ru | null |
# Что делать, если поймал HardFault?
Что делать, если поймал HardFault? Как понять, каким событием он был вызван? Как определить строчку кода, которая привела к этому? Давайте разбираться.
Всем привет! Сложно найти программиста микроконтроллеров, который ни разу не сталкивался с тяжелым отказом. Очень часто он никак не обрабатывается, а просто остаётся висеть в бесконечном цикле обработчика, предусмотренном в startup файле производителя. В то же время программист пытается интуитивно найти причину отказа. На мой взгляд это не самый оптимальный путь решения проблемы.
В данной статье я хочу описать методику анализа тяжелых отказов популярных микроконтроллеров с ядром Cortex M3/M4. Хотя, пожалуй, «методика» — слишком громкое слово. Скорее, я просто разберу на примере то, как я анализирую возникновение тяжелых отказов, и покажу, что можно сделать в подобной ситуации. Я буду использовать программное обеспечение от IAR и отладочную плату STM32F4DISCOVERY, так как эти инструменты есть у многих начинающих программистов. Однако это совершенно не принципиально, данный пример можно адаптировать под любой процессор семейства и любую среду разработки.

Падение в HardFault
-------------------
Перед тем, как пытаться анализировать HatdFault, нужно в него попасть. Есть много способов это сделать. Мне сразу же пришло на ум попытаться переключить процессор из состояния Thumb в состояние ARM, путем задания адреса инструкции безусловного перехода четным числом.
*Небольшое отступление. Как известно, микроконтроллеры семейства Cortex M3/M4 используют набор ассемблерных инструкций Thumb-2 и всегда работают в режиме Thumb. Режим ARM не поддерживается. Если попытаться задать значение адреса безусловного перехода(BX reg) со сброшенным младшим битом, то произойдет исключение UsageFault, так как процессор будет пытаться переключить своё состояние в ARM. Подробнее об этом можно почитать в [1](пункты 2.8 THE INSTRUCTION SET; 4.3.4 Assembler Language: Call and Unconditional Branch).*
Для начала, я предлагаю смоделировать безусловный переход по четному адресу на языке C/C++. Для этого я создам функцию func\_hard\_fault, затем попытаюсь вызвать ее по указателю, предварительно уменьшив адрес указателя на единицу. Сделать это можно следующим образом:
```
void func_hard_fault(void);
void main(void)
{
void (*ptr_hard_fault_func) (void); //Объявляем указатель на функцию отказа
ptr_hard_fault_func = reinterpret_cast(reinterpret\_cast(func\_hard\_fault) - 1); //Присваиваем ему значение со сброшенным младшим битом
ptr\_hard\_fault\_func(); //Вызов функции отказа
while(1) continue;
}
void func\_hard\_fault(void) //Функция, вызов которой приведет к отказу
{
while(1) continue;
}
```
Посмотрим с отладчиком, что же у меня получилось.

Красным я выделил текущую инструкцию перехода по адресу в РОН R1, который содержит чётный адрес перехода. Как результат:

Еще проще данную операцию можно выполнить с помощью ассемблерных вставок:
```
void main(void)
{
//Переходим на свой же адрес
asm("LDR R1, =0x0800029A"); //Псевдо-инструкция для записи значения переходf
asm("BX r1"); //Переход по адресу R1
while(1) continue;
}
```
Ура, мы попали в HardFault, миссия выполнена!
Анализ HardFault
----------------
#### Откуда мы попали в HardFault?
На мой взгляд, самое важное — узнать то, откуда мы попали в HardFault. Сделать это не сложно. Для начала напишем свой обработчик ситуации HardFault.
```
extern "C"
{
void HardFault_Handler(void)
{
}
}
```
Теперь поговорим о том, как выяснить, как мы здесь оказались. В процессорном ядре Cortex M3/M4 есть такая замечательная вещь, как сохранение контекста [1](пункт 9.1.1 Stacking). Если говорить простым языком, при возникновении любого исключения, содержимое регистров R0-R3, R12, LR, PC, PSR сохраняется в стеке.

Здесь для нас самым важным будет регистр PC, который содержит информацию о текущей выполняемой инструкции. Так как значение регистра было сохранено в стек во время возникновения исключительной ситуации, то там будет содержаться адрес последней выполняемой инструкции. Остальные регистры менее важны для анализа, но нечто полезное можно выцепить и из них. LR — адрес возврата последнего перехода, R0-R3, R12 — значения, которые могут подсказать в каком направлении двигаться, PSR — просто общий регистр состояния программы.
Предлагаю выяснить значения регистров в обработчике. Для этого был написал такой код (подобный код я встречал в одном из файлов производителя):
```
extern "C"
{
void HardFault_Handler(void)
{
struct
{
uint32_t r0;
uint32_t r1;
uint32_t r2;
uint32_t r3;
uint32_t r12;
uint32_t lr;
uint32_t pc;
uint32_t psr;
}*stack_ptr; //Указатель на текущее значение стека(SP)
asm(
"TST lr, #4 \n" //Тестируем 3ий бит указателя стека(побитовое И)
"ITE EQ \n" //Значение указателя стека имеет бит 3?
"MRSEQ %[ptr], MSP \n" //Да, сохраняем основной указатель стека
"MRSNE %[ptr], PSP \n" //Нет, сохраняем указатель стека процесса
: [ptr] "=r" (stack_ptr)
);
while(1) continue;
}
}
```
Как результат, имеем значения всех сохраняемых регистров:

Что же здесь произошло? Сначала мы завели указатель стека stack\_ptr, тут все понятно. Сложности возникают с ассемблерной вставкой (если есть потребность в понимании ассемблерных инструкций для Cortex, то рекомендую [2]).
Почему мы просто не сохранили стек через MRS stack\_ptr, MSP? Дело в том, что ядра Cortex M3/M4 имеют два указателя стека [1](пункт 3.1.3 Stack Pointer R13) — основной указатель стека MSP и указатель стека процесса PSP. Они используются для разных режимов работы процессора. Не буду подробно углубляться в то, для чего это сделано и как это работает, однако дам небольшое пояснение.
Для выяснения режима работы процессора(используется в данный MSP или PSP), нужно проверить третий бит регистра связи. Этот бит определяет то, какой указатель стека используется для возвращения из исключения. Если этот бит установлен, то это MSP, если нет, то PSP. В целом, большинство приложений, написанных на C/C++ используют только MSP, и эту проверку можно и не делать.
Так что же по итогу? Имея список сохраняемых регистров, мы можем без труда определить то, откуда программа упала в HardFault по регистру PC. PC указывает на адрес 0x0800029A, который и является адресом нашей «ломающей» инструкции. Не стоит также забывать о важности значений остальных регистров.
#### Причина возникновения HardFault
На самом деле, мы можем также выяснить причину возникновения HardFault. В этом нам помогут два регистра. Hard fault status register (HFSR) и Configurable fault status register (CFSR; UFSR+BFSR+MMFSR). Регистр CFSR состоит из трёх регистров: Usage fault status register (UFSR), Bus fault status register (BFSR), Memory management fault address register (MMFSR). Почитать про них можно, например, в [1] и [3].
Предлагаю посмотреть, что эти регистры выдают в моём случае:

Во-первых, установлен бит HFSR FORCED. Значит произошёл отказ, который не может быть обработан. Для дальнейшей диагностики следует изучить остальные регистры статуса отказов.
Во-вторых, выставлен бит CFSR INVSTATE. Это значит, что произошёл UsageFault, так как процессор попытался выполнить инструкцию, которая незаконно использует EPSR.
Что такое EPSR? EPSR — Execution program status register. Это внутренний регистр PSR — специального регистра состояния программы(который, как мы помним, сохраняется в стеке). Двадцать четвертый бит этого регистра указывает на текущее состояние процессора (Thumb или ARM). Это как раз может определять нашу причину возникновения отказа. Давайте попробуем его считать:
```
volatile uint32_t EPSR = 0xFFFFFFFF;
asm(
"MRS %[epsr], PSP \n"
: [epsr] "=r" (EPSR)
);
```
В результате выполнения получаем значение EPSR = 0.

Получается, что регистр показывает состояние ARM и мы нашли причину возникновения отказа? На самом деле нет. Ведь согласно [3](стр. 23), считывание этого регистра с помощью специальной команды MSR всегда возвращает нуль. Мне не очень понятно почему это работает именно так, ведь этот регистр и так только для чтения, а тут его полностью и считать нельзя(можно только некоторые биты через xPSR). Возможно это некие ограничения архитектуры.
По итогу, к сожалению, вся эта информация практически ничего не дает рядовому программисту МК. Именно поэтому я рассматриваю все данные регистры только как дополнение к анализу сохраненного контекста.
Однако, например, если отказ был вызван делением на нуль(данный отказ разрешается установкой бита DIV\_0\_TRP регистра CCR), то в регистре CFSR будет выставлен бит DIVBYZERO, что укажет нам на причину возникновения этого самого отказа.
#### Что дальше?
Что же можно сделать после того, как мы проанализировали причину возникновения отказа? Мне кажется хорошим вариантом такой порядок действий:
1. Вывести в отладочную консоль(printf) значения всех анализируемых регистров. Это можно сделать только при наличии отладчика JTAG.
2. Сохранить информацию об отказе во внутреннюю или внешнюю(если имеется) flash. Также можно вывести значение регистра PC на экран устройства(если имеется).
3. Перезагрузить процессор NVIC\_SystemReset().

### Источники
1. Joseph Yiu. The definitive guide to the ARM Cortex-M3.
2. Cortex-M3 Devices Generic User Guide.
3. STM32 Cortex-M4 MCUs and MPUs programming manual. | https://habr.com/ru/post/511924/ | null | ru | null |
# Гайд по миграции с Vue 2 на Vue 3. Часть 2
Эта статья — перевод оригинальной статьи Andy Li из Vue Mastery "[Vue 3 Migration Changes: Replace, Rename, and Remove (Pt. 2)](https://www.vuemastery.com/blog/migration/)".
Также я веду телеграм канал “[Frontend по-флотски](https://t.me/frontend_pasta)”, где рассказываю про интересные вещи из мира разработки интерфейсов.
### Вступление
Команда Vue недавно выпустила долгожданный[билд миграции для Vue 3](https://github.com/vuejs/vue-next/tree/master/packages/vue-compat). Если вы думали об обновлении своего приложения с Vue 2 до Vue 3, это то, что вам нужно.
Процесс обновления приложения до последней версии фреймворка может оказаться непростой задачей. Эта серия статей создана, чтобы упростить этот процесс.
Серия миграции на Vue 3 состоит из двух частей:
1. [Билд для миграции на Vue 3](https://habr.com/ru/post/570184/)
2. Изменения для миграции на Vue (эта статья)
Если вы не знакомы с билдом для миграции, ознакомьтесь со статьей [Билд для миграции на Vue 3](https://habr.com/ru/post/570184/), это предварительная подготовка для этой статьи. Если у вас нет приложения для переноса, вы все равно можете использовать эту статью, чтобы узнать, что изменилось в Vue 3. Но имейте в виду, что мы обсуждаем здесь только изменения, мы не будем углубляться в новые функции, такие как Composition API. (ознакомьтесь с курсом Vue Mastery's [Composition API](https://www.vuemastery.com/courses/vue-3-essentials), если вам это интересно)
Наряду с этой статьей мы также создали [наглядный альбом](https://www.vuemastery.com/pdf/Migration-Guide-Cheat-Sheet.pdf) для наиболее распространенных изменений.
### Процесс миграции
Это процесс использования билда миграции, который вы могли видеть в предыдущей статье:
В предыдущей статье мы исправили несколько простых устаревших функций, чтобы проиллюстрировать, как использовать билд миграции. Эта статья об устаревших функциях Vue 2.
Основываясь на описанном выше процессе миграции, функции, устаревшие в Vue 3, можно разделить на четыре категории: **несовместимые**, **замененные**, **переименованные** и **удаленные**.
Каждая категория будет содержать различные устаревшие фичи и соответствующие им стратегии миграции (то, что вам нужно сделать, чтобы ваш код снова работал на Vue 3).
Для удобства использования (и поиска в Google) я поместил названия флагов "устаревания" в соответствующие разделы статьи. Это флаги, которые появляются, когда вы запускаете сборку миграции с устаревшим кодом.
Опять же, если вы не понимаете что здесь происходит, вы можете освежить свою память с помощью статьи [Билд для миграции на Vue 3](https://habr.com/ru/post/570184/).
Без лишних слов, давайте начнем наше путешествие!
Несовместимые
-------------
Устаревшие фичи в этой категории фактически приведут к тому, что ваше приложение вообще не будет работать, даже если запущен билд миграции. Поэтому нам нужно исправить их, прежде всего.
Named и Scoped слоты (заменены)
-------------------------------
Слоты и слоты с ограниченной областью видимости - это сложные темы, которые мы не будем рассматривать в этой статье. Но это руководство может помочь вам реорганизовать код для Vue 3, если вы уже используете в своих компонентах.
В Vue 2 вы можете создать именованный слот с ограниченной областью видимости следующим образом:
```
My Heading for {{ slotProps.items.length }} items
=================================================
```
(Это все еще работает в Vue 2.6, но считается устаревшим и больше не будет работать в Vue 3.)
В Vue 3 вам нужно будет изменить его на это:
```
My Heading for {{ slotProps.items.length }} items
=================================================
```
Изменения:
* Использование v-slot вместо того, чтобы объединить вместе slot и slot-scope, чтобы сделать то же самое.
* Если вам не нужен slotProps, вы можете просто указать атрибут v-slot: heading без значения.
INSTANCE\_SCOPED\_SLOTS
Кстати, если ваш код использует свойство $scopedSlots, его необходимо переименовать в $slots в Vue 3.
Functional атрибут (удален)
---------------------------
COMPILER\_SFC\_FUNCTIONAL
В Vue 2 вы можете создать функциональный компонент в однофайловом компоненте (SFC) следующим образом:
```
{{ text }}
==========
export default {
props: ['text']
}
```
В Vue 3 вам придется удалить атрибут functional:
```
{{ text }}
==========
export default {
props: ['text']
}
```
Таким образом, технически вы больше не можете создавать функциональные компоненты в формате SFC. Но поскольку преимущество функциональных компонентов в производительности во Vue 3 намного меньше, это в любом случае небольшая потеря. (Мы все еще можем создавать функциональные компоненты в Vue 3, но не в в файле .vue. Подробнее об этом в разделе «Функциональные компоненты» ниже)
Mounted Container
-----------------
GLOBAL\_MOUNT\_CONTAINER
Vue 3 не заменяет элемент, к которому подключено ваше приложение, поэтому вы можете увидеть два div с id="app" в обработанном HTML.
Чтобы избежать дублирования стилей, вам придется удалить id="app" из одного из двух тегов
v-if и v-for
------------
COMPILER\_V\_IF\_V\_FOR\_PRECEDENCE
Если вы используете v-if и v-for вместе в одном элементе, вам придется реорганизовать свой код.
Поскольку настройка Vue CLI ESLint по умолчанию фактически не позволит вам использовать v-if и v-for вместе в одном элементе даже в приложении Vue 2, маловероятно, что у вас действительно есть такой код.
Но в том случае, если он есть, то вот что изменилось.
В Vue 2 v-for имеет приоритет над v-if, а в Vue 3 v-if имеет приоритет над v-for.
Итак, код на Vue 2, который отображает числа меньше 10 выглядит так:
```
* {{ num }}
```
В Vue 3 вам нужно написать это так:
```
* {{ num }}
```
numsLower10 должно быть вычисляемым свойством.
v-if branch keys
----------------
COMPILER\_V\_IF\_SAME\_KEY
Если у вас есть один и тот же ключ для нескольких ветвей одного и того же условного v-if:
```
* {{ num }}
{{ num }}
```
В Vue 3 вам придется удалить их (или назначить им разные ключи):
```
* {{ num }}
{{ num }}
```
Vue автоматически назначит им уникальные ключи.
v-for key
---------
COMPILER\_V\_FOR\_TEMPLATE\_KEY\_PLACEMENT
Если вы используете v-for на с :key на внутренних элементах:
```
{{ num }}
```
Тогда в Vue 3 вам нужно будет поместить :key в
```
{{ num }}
```
Transition classes (переименованы)
----------------------------------
Если вы используете элемент для анимации, вам придется переименовать имена классов для v-enter и v-leave:
* v-enter => v-enter-from
* v-leave => v-leave-from
(Это изменение немного особенное, потому что билд миграции не предупредит вас об этом.)
Теперь мы можем перейти к другим, менее неизбежным отказам от поддержки. Вы можете работать с ними в любом порядке.
Заменённые
----------
Устаревшие фичи в этой категории удаляются, но заменяются новыми функциями в качестве решений.
Инициализация приложения (заменено)
-----------------------------------
GLOBAL\_MOUNT / GLOBAL\_EXTEND / GLOBAL\_PROTOTYPE / GLOBAL\_OBSERVABLE / GLOBAL\_PRIVATE\_UTIL
Ваш файл Vue 2 main.js может выглядеть примерно так:
```
import Vue from "vue" // import an object
import App from './App.vue'
import router from './router'
import store from './store'
Vue.use(store)
Vue.use(router)
Vue.component('my-heading', {
props: [ 'text' ],
template: '{{ text }}
==========
'
})
// create an instance using the new keyword
const app = new Vue(App)
app.$mount("#app");
```
В Vue 3 вам нужно будет изменить его на это:
```
import { createApp } from 'vue' // import a function
import App from './App.vue'
import router from './router'
import store from './store'
// create an instance using the function
const app = createApp(App)
app.use(store)
app.use(router)
app.component('my-heading', {
props: [ 'text' ],
template: '{{ text }}
==========
'
})
// no dollar sign
app.mount('#app')
```
Изменения:
* Больше нет импорта Vue из пакета vue. Мы должны использовать новую функцию createApp для создания экземпляра приложения.
* У метода mount нет знака доллара.
* Вместо использования таких функций, как Vue.use и Vue.component, которые повлияли бы на поведение Vue глобально, теперь мы должны использовать эквивалентные методы экземпляра, такие как app.use и app.component.
Вот список изменений от старого Global API к новому Instance API:
* `Vue.component` ⇒`app.component`
* `Vue.use` ⇒ `app.use`
* `Vue.config` ⇒ `app.config`
* `Vue.directive` ⇒ `app.directive`
* `Vue.mixin` ⇒ `app.mixin`
* `Vue.prototype` ⇒ `Vue.config.globalProperties`
* `Vue.extend` ⇒ `(nothing)`
* `Vue.util` ⇒ `(nothing)`
Vue.extend удален. Поскольку экземпляр приложения больше не создается с помощью ключевого слова new и конструктора Vue, нет необходимости создавать конструктор подкласса путем наследования базового конструктора Vue с помощью функции extend.
Хотя Vue.util все еще существует, но теперь он приватный, поэтому вы тоже не сможете его использовать.
Vue.config.ignoredElements заменяется на app.config.compilerOptions.isCustomElement, который должен быть функцией вместо массива. И Vue.config.productionTip удален.
Функциональный компонент (заменен)
----------------------------------
COMPONENT\_FUNCTIONAL
Без использования функциональный компонент Vue 2 можно создать следующим образом:
```
export default {
functional: true,
props: ['text'],
render(h, { props }) {
return h(`h1`, {}, props.text)
}
}
```
В Vue 3 вам нужно будет изменить его на это:
```
import { h } from 'vue'
const Heading = (props) => {
return h('h1', {}, props.text)
}
Heading.props = ['text']
export default Heading
```
Изменения:
* Функциональный компонент должен быть функцией, а не параметром.
* Хотя это и не является особенной темой функционального компонента, функция h в Vue 3 должна быть импортирована из пакета vue, а не передаваться в качестве параметра функции рендеринга.
### v-for References (заменено)
V\_FOR\_REF
Если вы используете ref на элементе v-for для взятия всех ссылок HTML-элементов, к которым вы сможете получить доступ позже через this.$Refs.myNodes:
```
* ...
// later
...
mounted () {
console.log(this.$refs.myNodes) // list of HTML element nodes
}
```
В Vue 3 вам нужно будет использовать :ref (с двоеточием) для привязки к коллбэк функции:
```
* ...
// later
...
data() {
return {
myNodes: [] // create an array to hold the nodes
}
},
beforeUpdate() {
this.myNodes = [] // reset empty before each update
},
methods: {
setNode(el) { // this will be called automatically
this.myNodes.push(el) // add the node
}
},
updated() {
console.log(this.myNodes) // finally, a list of HTML node references
},
```
Здесь мы используем коллбэк функцию для добавления каждого узла в массив во время рендеринга. В конце у вас будет this.myNodes в качестве замены для this.$Refs.myNodes.
### Native event (заменён)
COMPILER\_V\_ON\_NATIVE
Чтобы проиллюстрировать проблему, допустим, у нас есть такой компонент SpecialButton:
```
Special Button
```
Когда вы используете этот компонент (в родительском компоненте), давайте также предположим, что вы хотите добавить собственное событие click к элементу , вы бы сделали это так (в Vue 2):
В Vue 3 модификатор native удален, поэтому приведенный выше код не будет работать.
Итак, как нам добавить нативное событие click к элементу , расположенному в нашем компоненте SpecialButton?
Нужно будет удалить модификатор native, и он снова заработает:
Это устаревание было легко исправлено, но из-за этого возникла новая проблема.
В Vue 3 все события, прикрепленные к компоненту, будут обрабатываться как нативные события и будут добавляться к корневому элементу этого компонента. Это поведение по умолчанию, и поэтому нам больше не нужен модификатор native.
Но что, если событие, которое мы добавляем, не предназначено для использования в качестве нативного?
Например, мы хотим, чтобы SpecialButton генерировал кастомное событие:
```
Special Button
```
В родительском компоненте мы должны слушать событие следующим образом:
Как и событие click, кастомное событие click по умолчанию будет прикреплено к корневому элементу () компонента SpecialButton, что не является тем, чего мы хотим добиться. Хотя кастомное событие click по-прежнему будет генерироваться, проблема в том, что это же событие также присоединяется к элементу как нативное событие.
Сейчас это не кажется большой проблемой, так как кастомное событие click никогда не будет запускаться на . Но это может быть проблемой, если настраиваемое событие называется click или любым именем, которое также является нативным событием. В этом случае один щелчок мыши вызовет несколько событий click. (один на , другой ошибочно на )
Решением этого является новый способ оповещения в Vue 3.
С помощью параметра emits мы можем настроить так как нам необходимо, чтобы наше событие не было ошибочно принято за нативное событие и добавлено в корневой элемент.
Итак, если мы укажем все пользовательские события (в нашем случае только одно), которые будут генерироваться в SpecialButton:
```
export default {
name: 'SpecialButton',
emits: ['special-click'] // ADD
}
```
Vue будет знать, что это кастомное событие, и не будет прикреплять наше событие click к корневому элементу как нативное событие.
Поэтому, если вы используете модификатор .native, вам придется его удалить. А чтобы предотвратить добавление непреднамеренных событий к корневому элементу, вам придется использовать emits для документирования всех настраиваемых событий, которые может генерировать компонент.
Переименованные
---------------
Устаревания в этой категории самые тривиальные. Все, что вам нужно сделать, это изменить старые имена на новые.
### v-model prop and event (переименованные)
COMPONENT\_V\_MODEL
Если вы используете v-model в компоненте, вам придется переименовать этот prop и событие:
* value ⇒ modelValue
* $emit("input") ⇒ $emit("update:modelValue")
(Не забудьте указать название события в параметре emits, как упоминалось ранее)
### Lifecycle hooks (переименованные)
OPTIONS\_BEFORE\_DESTROY / OPTIONS\_BEFORE\_DESTROY
Если вы используете хуки жизненного цикла beforeDestroy и destroy, вам придется переименовать их:
* beforeDestroy ⇒ beforeUnmount
* destroyed ⇒ unmounted
(Никаких изменений в других хуках)
### Lifecycle events (переименованные)
INSTANCE\_EVENT\_HOOKS
Если вы отслеживаете события жизненного цикла компонента в его родительском компоненте:
```
```
В Vue 3 вам придется переименовать префикс атрибута с @hook: на @vnode-:
```
```
Как упоминалось в предыдущем разделе, beforeDestroy и destroy были переименованы. Поэтому, если вы используете @hook:beforeDestroy и @hook:destroy, вам придется вместо этого переименовать их в @vnode-beforeMount и @vode-unmounted.
### Custom directive hooks (переименованные)
CUSTOM\_DIR
Если вы создавали свои собственные директивы, вам придется переименовать следующие хуки в своих реализациях директив:
* bind ⇒ beforeMount
* inserted ⇒ mounted
* componentUpdated ⇒ updated
* unbind ⇒ unmounted
Если вы используете update хук, он был удалён в Vue 3, поэтому вам нужно переместить код оттуда в updated хук.
Удалённые
---------
Эта категория посвящена удаленным фичам. Для некоторых из них нам просто нужно будет прекратить использовать их в нашем коде, а для других нужно будет найти обходные пути.
### Reactive property setters (удалённые)
GLOBAL\_SET / GLOBAL\_DELETE / INSTANCE\_SET / INSTANCE\_SET
Vue 3 был переписан с новой системой реактивности, основанной на технологиях ES6, поэтому нет необходимости делать отдельные свойства реактивными. В результате Vue 3 больше не предлагает следующие API, поэтому вам придется их удалить:
* Vue.set
* Vue.delete
* vm.$set
* vm.$delete
(vm ссылается на экземпляр Vue)
### vm.$children (удалённые)
INSTANCE\_CHILDREN
Если вы используете this.$children в своем компоненте для доступа к дочернему компоненту:
```
Hello World
...
mounted() {
console.log(this.$children[0])
},
```
В Vue 3 вам придется использовать атрибут ref вместе со свойством this.$refs в качестве обходного пути.
Вкратце, если вы установите ref с именем дочернего компонента:
```
Hello World
```
Вы сможете получить к нему доступ, используя свойство $refs в своем JavaScript коде:
```
mounted() {
console.log(this.$refs.hello)
}
```
### vm.$listeners (удалённые)
INSTANCE\_LISTENERS
Если вы используете this.$listeners для доступа к обработчикам событий, переданных из родительского компонента:
```
// Parent component
// Child component
mounted() {
console.log(this.$listeners)
}
```
В Vue 3 вам придется обращаться к ним отдельно через свойство $attrs:
```
mounted() {
console.log(this.$attrs.onClick)
console.log(this.$attrs.onMouseenter)
}
```
### vm.$on, vm.$off, vm.$once (удалённые)
INSTANCE\_EVENT\_EMITTER
Это может повлиять на ваш проект, если вы использовали vm.$on, vm.$off или vm.$once как часть механизма для PubSub. Вам придется удалить эти методы экземпляра и использовать для этого другую библиотеку.
В качестве потенциального решения обратите внимание на сторонний инструмент под названием tiny-emitter.
### Filters (удалённые)
FILTERS
Если вы используете фильтры (синтаксис вертикальной черты) в своем шаблоне:
```
{{ num | roundDown }}
...
filters: {
roundDown(value) {
return Math.floor(value)
}
},
```
В Vue 3 вам придется вместо этого использовать простое вычисляемое свойство:
```
...
computed: {
numRoundedDown() {
return Math.floor(this.num)
}
},
```
Обоснование удаления фильтров состоит в том, что используемый синтаксис не соответствует реальному поведению JavaScript (вертикальная черта должна быть побитовым оператором в JavaScript). Большинство вещей, которые мы помещаем в двойные фигурные скобки, являются настоящим JavaScript, поэтому было бы ошибкой, если бы этого не было.
Еще одно преимущество вычисляемого свойства над фильтром состоит в том, что код шаблона будет чище.
### is attribute (удалённые)
COMPILER\_IS\_ON\_ELEMENT
В Vue 2 вы можете применить атрибут is к нативному элементу, чтобы отобразить его как компонент:
В Vue 3 вам нужно будет заменить нативный элемент на , чтобы получить такое же поведение:
Если вы не используете формат Single File Component, вы можете просто добавить префикс vue:
### Keyboard codes (удалённые)
V\_ON\_KEYCODE\_MODIFIER
В Vue 2 вы можете прослушивать события на определенных клавишах на клавиатуре с соответствующими кодами клавиш:
(112 представляет собой клавишу Enter)
В Vue 3 вам придется вместо этого использовать название:
Всякое разное
-------------
В этой категории есть все устаревания, которые не соответствуют трем основным категориям (заменить, переименовать и удалить).
### v-bind порядок
COMPILER\_V\_BIND\_OBJECT\_ORDER
v-bind теперь чувствителен к порядку.
Если вы используете v-bind="object" и ожидаете, что один или несколько других атрибутов переопределяют свойства объекта, вам необходимо переместить атрибут v-bind перед всеми другими указанными атрибутами.
Допустим, у вас было это:
Свойства объекта будут переопределены двумя другими атрибутами, поскольку у них одинаковые имена a и b.
В Vue 3 вам нужно будет поставить v-bind перед другими атрибутами, чтобы добиться того же «перекрывающего» эффекта:
### v-bind модификатор sync
COMPILER\_V\_BIND\_SYNC
Если вы используете v-bind с модификатором sync:
В Vue 3 вам придется вместо этого использовать v-model:
v-model был улучшен в Vue 3. Теперь вы можете передать аргумент для v-model, как в это с title выше, и вы даже можете иметь несколько v-model.
Но ваш линтер может выдать ошибку об этом новом способе использования v-model:
Чтобы исправить это, вам нужно добавить правило в свой package.json, чтобы отключить его:
```
"parserOptions": {
"parser": "babel-eslint"
},
"rules": {
"vue/no-v-model-argument": "off" // ADD
}
```
(делайте это только в том случае, если ваш линтер выдает ошибку)
### Async Component
COMPONENT\_ASYNC
Асинхронный компонент в Vue 2 выглядит так:
```
const MyComponent = {
component: () => import('./MyComponent.vue'),
...
}
```
В Vue 3 вам нужно будет изменить его на это:
```
import { defineAsyncComponent } from 'vue'
const MyComponent = defineAsyncComponent({
loader: () => import('./MyComponent.vue'),
...
})
```
Изменения:
* Использование новой функции defineAsyncComponent.
* Название поля component изменено на loader.
Если ваш асинхронный компонент является просто функцией, он также должен быть заключен в defineAsyncComponent:
```
// Before
const MyComponent = () => import('./MyComponent.vue')
// After
const MyComponent = defineAsyncComponent(() => import('./MyComponent.vue'))
```
### watch array deep
WATCH\_ARRAY
Если вы используете watch для наблюдения за массивом, вы должны передать параметр deep:
```
watch: {
items: {
handler(val, oldVal) {
console.log(oldVal + ' --> ' + val)
},
deep: true // ADD
}
},
```
### false в атрибутах
ATTR\_FALSE\_VALUE / ATTR\_ENUMERATED\_COERSION
Если вы используете false для удаления атрибута, который не является boolean:
```
// template

// rendered

```
В Vue 3 вместо этого нужно использовать null:
```
// template

// rendered

```
Сделав его false в Vue 3, он просто отобразит false в HTML.
Если вы используете так называемые «перечисляемые атрибуты», такие как draggable и проверка орфографии, они также подчиняются указанным выше правилам в Vue 3: false для установки false, null для удаления.
### class и style
INSTANCE\_ATTRS\_CLASS\_STYLE
В Vue 3 class и style включены в $attrs, поэтому вы можете столкнуться с некоторыми «сбоями», если ваш код ожидает, что class и style не будут частью $attrs.
В частности, если ваш код использует inheritAttrs: false в компоненте, в Vue 2 class и style по-прежнему будут передаваться корневому элементу этого компонента, поскольку они не являются частью $attrs, но в Vue 3 class и style больше не будет передаваться в корень, поскольку они являются частью $attrs.
Vuex и Vue Router
-----------------
Если вы используете Vuex и Vue router, вам необходимо обновить их до Vuex 4 и Vue Router 4.
```
"dependencies": {
"vuex": "^4.0.0",
"vue-router": "^4.0.0",
...
}
```
Подобно Vue 3, Vuex 4 и Vue Router 4 также изменили свои глобальные API. Теперь вам нужно использовать createStore и createRouter так же, как и createApp:
```
import { createStore } from 'vuex'
import { createRouter } from 'vue-router'
const store = createStore({
state: {...},
mutations: {...},
actions: {...},
})
const router = createRouter({
routes: [...]
})
```
Ещё
---
Есть еще несколько устаревших штук, которые не рассматриваются здесь, потому что они либо слишком тривиальны, чтобы повлиять на что-либо, либо просто очень необычны. Но с приложением, запущенным в билде миграции, если вы когда-нибудь столкнетесь с каким-либо предупреждением, которое не было упомянуто здесь, вы можете поискать флаг предупреждения в Google и прочитать страницу документации об этом.
Как упоминалось ранее, мы также создали [шпаргалку](https://www.vuemastery.com/pdf/Migration-Guide-Cheat-Sheet.pdf) по некоторым устаревшим функциям, описанным в этой статье. | https://habr.com/ru/post/571774/ | null | ru | null |
# Не возможно обновить (UPDATE) ту же таблицу, которую используешь в SELECT-запросе
Сегодня наткнулся на очень неприятный баг в MySQL. При выполнении следующего запроса в MySQL 5.0.45:
`UPDATE `files` SET `file_md5` =
(
SELECT MD5( `file_blob` )
FROM `files`
WHERE `id`= 6
)
WHERE `id` = 6`
Получил ошибку:
*#1093 — You can't specify target table 'files' for update in FROM clause*
Как выяснилось дело в [баге номер 6980](http://bugs.mysql.com/bug.php?id=6980). В MySQL вы не можете изменять (в том числе и DELETE) ту же таблицу, которую используете в SELECT-запросе. Такое поведение задокументировано по адресу [dev.mysql.com/doc/mysql/en/UPDATE.html](http://dev.mysql.com/doc/mysql/en/UPDATE.html). Баг был обнаружен еще в MySQL 4.1.7, но по сей день не исправлен.
Один из выходов — **использовать несколько запросов**.
Либо можно **использовать временную таблицу во вложенном запросе**:
`UPDATE `apples`
SET `price` = (
SELECT `price` FROM (
SELECT * FROM `apples`
) AS x
WHERE `variety` = 'gala')
WHERE `variety` = 'fuji';`
Но данный метод очень некрасив и плохо сказывается на производительности. И, к сожалению, не будет работать если вы будете обращаться ко временной таблице больше одного раза… | https://habr.com/ru/post/49531/ | null | ru | null |
# PHP-Дайджест № 107 – свежие новости, материалы и инструменты (9 – 23 апреля 2017)
[](https://habrahabr.ru/company/zfort/blog/327198/)
Предлагаем вашему вниманию очередную подборку со ссылками на новости и материалы.
Приятного чтения!
### Новости и релизы
* [Yii 1.1.18](https://habrahabr.ru/post/326920/)
* [HHVM 3.19](http://hhvm.com/blog/2017/04/13/hhvm-3-19.html)
* [PHP 7.0.18](http://www.php.net/ChangeLog-7.php#7.0.18), [PHP 7.1.4](http://www.php.net/ChangeLog-7.php#7.1.4)
* [Объявлены релиз-менеджеры PHP 7.2](http://news.php.net/php.internals/98769) — Ими стали [Sara Golemon](https://twitter.com/SaraMG), прежде была лидером HHVM, а также [Remi Collet](https://twitter.com/RemiCollet), мейнтейнер известного [репозитория](https://blog.remirepo.net/) имени себя. Оба [много контрибьютили](https://github.com/php/php-src/graphs/contributors) в PHP.
*  [YiiConf 2017](https://habrahabr.ru/company/devconf/blog/327146/) — 16 июня 2017 в Москве пройдёт конференция веб-разработчиков, посвящённая PHP фреймворку Yii.
* [DevConf 2017](https://devconf.ru) — 17 июня в Москве пройдет очередная ежегодная конференция для веб-разработчиков. [Открыт прием заявок](https://devconf.ru/ru/offers) на доклады.
* [PHP Frameworks Days 2017](https://frameworksdays.com/event/php-fwdays-17) — 11 июня в Киеве пройдет ежегодная конференция посвященная PHP. [Список докладчиков](https://frameworksdays.com/event/php-fwdays-17/speakers) формируется, но уже заявлены [Zeev Suraski](https://twitter.com/zeevs), [Marco «Ocramius» Pivetta](https://twitter.com/Ocramius), [Mariusz Gil](https://twitter.com/mariuszgil), [Łukasz Szymański](https://twitter.com/szymanskilukasz).
### PHP
* [Замена интерфейса Serializable](https://externals.io/thread/834) — Предложение от Никиты Попова, пока не оформленное в виде RFC. Текущая реализация интерфейса имеет ряд проблем, в том числе безопасности. Предлагается использовать интерфейс с магическими методами, которые не требуют вызова serialize/unserialize, вместо этого работают с массивами:
```
public function __serialize() : array;
public function __unserialize(array $data) : void;
```
### Инструменты
* [spiral/spiral 1.0.0](https://github.com/spiral/spiral) — RAD фреймворк с поддержкой PSR7 и HMVC архитектурой.
* [povils/phpmnd](https://github.com/povils/phpmnd) — Детектор использования магических чисел в PHP
* [cytopia/devilbox](https://github.com/cytopia/devilbox) — Современная замена XAMPP на базе Docker.
* [Pterodactyl/Panel](https://github.com/pterodactyl/panel) — Панель управления игровым сервером на основе Laravel.
* [minds/minds](https://github.com/minds/minds) — Реализация социальной сети с [бэкендом](https://github.com/minds/engine) на PHP.
* [pietercolpaert/hardf](https://github.com/pietercolpaert/hardf) — Библиотека для работы с RDF. Порт [N3.js](https://github.com/RubenVerborgh/N3.js).
* [Генератор конфига Docker Compose для популярных PHP-фреймворков и CMS](https://cloudestuary.com/projects/create)
* [opis/closure](https://github.com/opis/closure) — Библиотека позволяет сериализовать замыкания. Альтернатива [jeremeamia/super\_closure](https://github.com/jeremeamia/super_closure).
### Материалы для обучения
* ##### Symfony
+ Продолжение серии статей от Fabien Potencier, об Symfony 4 и его экосистеме:
- [Структура директорий](http://fabien.potencier.org/symfony4-directory-structure.html)
- [Автоматизация рабочего процесса](http://fabien.potencier.org/symfony4-workflow-automation.html)
- [Репозитории рецептов](http://fabien.potencier.org/symfony4-contributing-recipes.html)
+ [Неделя Symfony #537 (10-16 апреля 2017)](http://symfony.com/blog/a-week-of-symfony-537-10-16-april-2017)
+ [Неделя Symfony #538 (17-23 апреля 2017)](http://symfony.com/blog/a-week-of-symfony-538-17-23-april-2017)
* ##### Yii
+ [Yii development notes #5](https://www.patreon.com/posts/8854668)
+ [Yii Вопросы и Ответы — часть 1](https://samdark.github.io/blog/yii-qa-1/)
+ [Обработка ошибок и исключений в Yii](https://code.tutsplus.com/tutorials/how-to-handle-errors-exceptions-in-the-yii-framework--cms-28531)
+  [Доменные сущности и Doctrine ORM в Yii2](http://www.elisdn.ru/blog/108/domain-entities-doctrine)
+  [Yii2-advanced: Гибкая настройка Yii2 RBAC (роли, разрешения, правила)](https://habrahabr.ru/post/327170/)
* ##### Laravel
+ [clarkeash/doorman](https://github.com/clarkeash/doorman) — Система приглашений для Laravel.
+ [Создание бота викторины для Facebook Messenger на Laravel](https://tutorials.botsfloor.com/building-a-facebook-messenger-trivia-bot-with-laravel-part-1-61209b0e35db)
+ [Туториал по созданию хелпера для Laravel](https://code.tutsplus.com/tutorials/how-to-create-a-laravel-helper--cms-28537)
* ##### Zend
+ [andrey-mokhov/bjy-profiler](https://github.com/andrey-mokhov/bjy-profiler) — Профайлер SQL запросов для ZF3. Прислал [mokhovcom](https://habrahabr.ru/users/mokhovcom/).
+ [Неделя Zend Framework — 2017-04-13](http://tinyletter.com/mwopzend/letters/zend-framework-community-news-for-the-week-of-2017-04-13)
+ [Неделя Zend Framework — 2017-04-20](http://tinyletter.com/mwopzend/letters/zend-framework-community-news-for-the-week-of-2017-04-20)
* [Обзор Xdebug по случаю 15-ти летия инструмента](https://www.sitepoint.com/getting-know-love-xdebug/)
* [Трейты — зло?](https://samdark.github.io/blog/are-traits-evil/)
* [Когда следует объявлять методы финальными](https://slamdunk.github.io/blog/when-to-declare-methods-final/)
* [От массивов к классам](https://www.exakat.io/moving-from-array-to-class/)
* [Построение гибких PHP приложений](http://blog.nikolaposa.in.rs/2017/04/12/building-flexible-php-projects/) — Прислал [im\_special\_one](https://habrahabr.ru/users/im_special_one/).
* [Автозапуск PHPUnit тестов с помощью](https://hackernoon.com/automatically-running-phpunit-with-watchman-e02757e733e7) [Watchman](https://facebook.github.io/watchman/)
* [Обзор PhalconPHP для разработки высоконагруженных RESTful API](https://www.toptal.com/phalcon/phalcon-php-restful-apis)
* [Как использовать новый код в легаси-приложении](https://qafoo.com/blog/101_branch_by_abstraction.html)
* [Начинаем работать с RabbitMQ в PHP](https://blog.forma-pro.com/getting-started-with-rabbitmq-in-php-84d331e20a66)
* [Запускаем PHP, Ruby, и Go на AWS Lambda](https://aws.amazon.com/blogs/compute/scripting-languages-for-aws-lambda-running-php-ruby-and-go/)
*  [DDD в PHP: Value Object или Объект-Значение](http://phpprofi.ru/blogs/post/58)
*  [Создание строго типизированных массивов и коллекций с использованием value object](http://phpprofi.ru/blogs/post/56)
*  [php-cs-fixer: Пишем свой фиксер](https://habrahabr.ru/post/326040/)
*  [Сравнение производительности версий PHP](https://habrahabr.ru/company/mailru/blog/326696/)
*  [Шаблоны проектирования с человеческим лицом](https://habrahabr.ru/company/mailru/blog/325492/)
*  [Виртуальная Машина PHP 7](https://habrahabr.ru/company/badoo/blog/327068/)
### Занимательное
* [О проблемах в сообществе PHP](https://medium.com/@jonasd_94502/on-toxicity-in-the-php-community-44fc73ed24c4) — Прислал [im\_special\_one](https://habrahabr.ru/users/im_special_one/).
*  [$PHP не нужен](https://habrahabr.ru/post/326284/)
Спасибо за внимание!
Если вы заметили ошибку или неточность — сообщите, пожалуйста, в [личку](https://habrahabr.ru/conversations/pronskiy/).
Вопросы и предложения пишите на [почту](mailto:roman@pronskiy.com) или в [твиттер](https://twitter.com/pronskiy).
[Прислать ссылку](https://bit.ly/php-digest-add-link)
[Быстрый поиск по всем дайджестам](https://pronskiy.com/php-digest/)
← [Предыдущий выпуск: PHP-Дайджест № 106](https://habrahabr.ru/company/zfort/blog/326036/) | https://habr.com/ru/post/327198/ | null | ru | null |
# ОС Аврора 4.0.2 для разработчиков: обзор и примеры исходного кода
Релиз ОС Аврора 4.0.2 — первый [сертифицируемый](https://auroraos.ru/blog/tpost/8rslf01231-novoe-pokolenie-rossiiskoi-mobilnoi-os-a) выпуск четвёртого поколения операционной системы, именно он теперь будет использоваться на устройствах в актуальных проектах.
В этой статье мы расскажем о ключевых нововведениях и детально рассмотрим некоторые важные для разработчиков изменения (изоляцию приложений, валидацию и подписание пакетов). На примере приложения «Push Receiver» мы разберём обновлённую регистрацию D-Bus служб и покажем, как адаптировать приложение под ОС Аврора 4.0.2 с фокусом на важные особенности исходного кода приложений для нового поколения операционной системы.
[Видеообзор основных нововведений Аврора 4.0](https://www.youtube.com/watch?v=1sun-eNDkVY)
Аврора 4.0.2: ключевые нововведения
-----------------------------------
### Унификация корпоративного и сертифицированного вариантов исполнения ОС Аврора: одно приложение без пересборки
ОС Аврора выпускается в двух вариантах исполнения — [корпоративном и сертифицированном](https://community.omprussia.ru/documentation/software_development/sdk/distributions.html). В Авроре третьего поколения приложения, разработанные под корпоративное исполнение, приходилось дополнительно адаптировать под сертифицированное исполнение в другом дистрибутиве SDK. Теперь политики безопасности унифицированы, и все приложения для ОС Аврора 4.0 могут использоваться в проектах с корпоративным и с сертифицированным исполнением.
* Приложения устанавливаются на оба варианта исполнения ОС Аврора без пересборки.
* [SDK унифицирован](https://community.omprussia.ru/documentation/software_development/sdk/distributions.html).
* В обоих вариантах исполнения теперь доступны основные механизмы безопасности: подпись пакетов, валидация приложений, подпись модулей ядра, контроль целостности, шифрование пользовательских данных, изоляция приложений.
### Переработанные инструменты подписания и валидации
Вместо двух файлов для подписания установочных пакетов и бинарных файлов теперь используется единый сертификат подписи пакета (RPM) и файлов внутри него (IMA).
* Для устройств на третьем поколении ОС Аврора формировался отдельный rpm-пакет, устанавливающий сертификаты разработчиков. Теперь это делать не нужно — сертификат разработчика записывается на устройство при установке подписанного им приложения.
* Разработчикам доступны [публичные ключевые пары](https://community.omprussia.ru/documentation/software_development/guides/package_signing.html#public_certificates), которые рекомендуется использовать при разработке, а приватные сертификаты нужны только сотрудникам со специальным доступом для подписания релизов. Пакеты, подписанные публичными сертификатами могут быть установлены на устройства, не содержащие сертификата заказчика. Как и сертификат разработчика, он записывает на устройство после установки первого пакета с подписью эксплуатанта. После этого на устройство могут быть установлены только пакеты подписанные тем же сертификатом эксплуатанта и приватными сертификатами разработчиков.
В Аврора 4.0 валидация пакетов, которая раньше требовалась только для сертифицированного исполнения, стала обязательной для всех приложений.
* Инструменты валидации позволяют проверить, может ли пакет быть установлен на устройстве. Валидатор выполняет простой статический анализ возможных проблем с кодом — успешная проверка означает отсутствие неисправностей в структуре пакета. Проверка кода при валидации не является заменой тестированию, поскольку успешно прошедшее валидацию приложение может работать некорректно. Тем не менее, теперь основные ошибки проверки RPM могут быть найдены и исправлены в процессе разработки до этапа QA.
* [Новый валидатор RPM-пакетов](https://community.omprussia.ru/documentation/tools/rpm-validator.html) поддерживает профили в зависимости от подписи компании-разработчика приложения.
### Изоляция приложений (сэндбоксинг)
Начиная с версии 4.0.1, в ОС Аврора реализован механизм безопасного исполнения программ — изоляция (сэндбоксинг). Каждое приложение запускается в «песочнице» — изолированном окружении, которое ограничивает доступ к API и данным. Изоляция минимизирует риск компрометации системы при запуске не заслуживающих доверия или потенциально уязвимых программ.
* Разрешения, необходимые для работы приложения, теперь указываются в desktop-файле, где следует [декларировать требуемые функции](https://community.omprussia.ru/documentation/software_development/guidelines/rpm_requirements.html#desktop_firejail) для доступа к различным типам данных и к отдельным каталогам на устройстве, а также к API, работающим с этими данными или взаимодействующим с другими приложениями или системными сервисами.
* В приложениях для третьего поколения ОС Аврора иногда использовался подход, при котором RPM-пакет устанавливал данные для других приложений: файлы настроек, информацию о лицензии и т.п. В ОС Аврора 4 каждое приложение выполняется в изолированном окружении, поэтому не имеет непосредственный доступ к произвольным файлам других пакетов. Однако реализован механизм общих директорий, позволяющий обмениваться данными. Изучить его работу можно на примере [Push Sender Config](https://gitlab.com/omprussia/examples/PushSenderConfig), который поставляет файл настроек для приложения [Push Sender](https://gitlab.com/omprussia/examples/PushSender).
* Разрешения, необходимые для работы приложения, теперь указываются в desktop-файле, где следует [декларировать требуемые функции](https://community.omprussia.ru/documentation/software_development/guidelines/rpm_requirements.html#desktop_firejail) для доступа к различным типам данных и к отдельным каталогам на устройстве, а также к API, работающим с этими данными или взаимодействующим с другими приложениями или системными сервисами.
Изоляцию приложений мы далее более подробно рассмотрим в примере.
### Многопользовательский режим
В ОС Аврора четвёртого поколения реализован многопользовательский режим (одно устройство — до 6 пользователей + администратор). Многопользовательский режим позволяет организовать посменную работу на устройстве с ОС Аврора с новыми настройками рабочего окружения для каждого пользователя. Администратор обладает дополнительными привилегиями, в частности, может управлять аккаунтами других пользователей, настраивать политики безопасности и т. п.
* На экране ввода пароля пользователь выбирает свою учетную запись и получает доступ к своим данным и приложениям. Пользовательские данные в разных учетных записях на одном устройстве полностью независимы друг от друга. Шифрование данных осуществляется прозрачно для приложений: монтирование директории происходит при авторизации пользователя.
* Значения путей к директориям пользователя могут быть получены через [специальные API](https://community.omprussia.ru/documentation/software_development/reference/user_data.html) (хардкодить не нужно).
### Новый режим разработчика, нововведения в SDK, Platform SDK
Для разработки под предыдущее поколение ОС Аврора готовились различные дистрибутивы: сборка без предустановленного режима разработчика поставлялась заказчикам для использования в проектах, для разработки предоставлялись отдельные версии ОС с предустановленными инструментами.
В Авроре 4.0 переработан подход к активации режима разработчика на устройствах: перепрошивка не требуется, поскольку стала возможна загрузка и установка соответствующих пакетов из репозиториев, благодаря чему администратор может перевести любое устройство в режим разработчика.
* В настройках разработчика стало можно отключать валидацию RPM-пакетов на устройстве, чтобы разработчики могли проверять свои наработки уровня Proof-of-Concept. Важно помнить, что **финальное решение должно корректно проходить валидацию**, иначе оно не сможет быть установлено на используемые в проектах устройства.

* «Тихая установка» — долгожданная новая функция режима разработчика. Мы знаем, что раньше разработчиков (как и нас) сильно раздражала необходимость при деплое каждой новой сборки приложения подтверждать её установку на устройство. Рады наконец-то предложить коллегам решение для автоматической установки пакетов из SDK.
В четвёртом поколении Авроры представлен новый продукт [Platform SDK](https://community.omprussia.ru/documentation/software_development/psdk.html) — он предназначен для сборки приложений из командной строки и может использоваться для автоматизации процессов выпуска релизов.
[Аврора SDK](https://community.omprussia.ru/documentation/software_development/sdk.html) существенно обновлен, чтобы ускорить и сделать более удобной разработку приложений в Аврора IDE.
* В качестве контейнера среды сборки стало можно выбирать не только VirtualBox, но и Docker — зачастую это может существенно ускорить сборку приложений.
* В IDE появились диалоги для [валидации](https://community.omprussia.ru/documentation/software_development/sdk/validation_dialog.html) и [подписи](https://community.omprussia.ru/documentation/software_development/sdk/sign_dialog.html) RPM-пакетов, регистрации SSU, а также для управления [эмуляцией](https://community.omprussia.ru/documentation/software_development/sdk/emulation.html) (последний может имитировать работу датчиков, камеры и изменение геоданных).
### Проектирование и разработка UI/UX приложений
Аврора 4.0 качественно расширяет возможности разработчиков по кастомизации внешнего вида и UX приложений. Теперь в их распоряжении есть [набор компонентов и подробное руководство](https://www.figma.com/community/file/1070268277075531514/Aurora-4.0-UI-Kit) по проектированию интерфейсов прикладного ПО для четвертой версии Авроры.
* В UI Kit Аврора 4.0 включены все новые системные компоненты, стили и иконки, описаны и визуализированы жесты, основные свойства и компоненты, приведено подробное руководство по их применению в дизайне и верстке с примерами корректного использования.
* Добавлены [API, позволяющие управлять фоном и цветовым оформлением](https://community.omprussia.ru/documentation/software_development/reference/silica/silica-background-reference.html) приложений, API для кастомизации полей ввода, единый настраиваемый компонент для работы с кнопками.
* [Всплывающие уведомления](https://community.omprussia.ru/documentation/software_development/reference/notifications.html) теперь могут содержать не только строку текста и иконку, но и графику (например, миниатюру изображения, пришедшего в мессенджер). Разработчики могут предложить пользователю несколько действий с уведомлением на выбор, реализовав их отдельными кнопками (например, для входящего сообщения или вызова). Добавлен новый класс уведомлений, позволяющий сообщить о только что выполненном действии (например, об установленном будильнике).
* Разработан [API вырезов](https://community.omprussia.ru/documentation/software_development/guides/screen_insets.html) для управления внешним видом в зависимости от наличия вырезов, строки состояния или скруглений экрана.
[Видеообзор по UI/UX изменениям](https://www.youtube.com/watch?v=VXyLJXGzWhQ)
### Система push-сообщений
Для устройств на ОС Аврора 4 доступна система push-сообщений — коротких уведомлений от сторонних приложений на мобильное устройство, которые доставляются через Интернет или через интранет. Такой тип сообщений позволяет серверам приложений информировать пользователей о важных событиях, даже если приложение не запущено. Соответствующее инфраструктурное решение является частью [Аврора Центр](https://auroraos.ru/auroracenter).
* Для разработчиков прикладного ПО предусмотрен [соответствующий API](https://community.omprussia.ru/documentation/software_development/reference/push-notifications.html), работу с которым мы далее более подробно рассмотрим в примере.
### Обновлённые браузер и WebView
* В новом релизе стал доступен браузер, использующий движок Firefox 78-й версии, что расширяет возможности использования браузера в информационных системах.
* Совместно с компанией КриптоПро реализована [возможность использования электронной подписи в браузере](https://auroraos.ru/blog/tpost/5fsy0yroy1-v-os-avrora-poyavilas-mobilnaya-elektron) с помощью КриптоПро CSP, что является уникальным решением в мире мобильных технологий.
* Разработчикам доступен новый WebView, использующий унифицированный с браузером стек технологий в отличие от WebView на основе устаревшего WebKit, который использовался в ОС Аврора третьего поколения и позволял отображать только базовый HTML-контент.
### Другие изменения в API
В дополнение к описанным выше изменениям в ОС Аврора 4.0 добавились новые API:
* QML-модуль [Share](https://community.omprussia.ru/documentation/software_development/reference/share.html) для отправки данных приложениям, позволяющий пользователю делиться контентом. В ОС Аврора 3 использовался Nemo Transfer Engine, который не был достаточно безопасным для применения в сторонних приложениях, поэтому не был доступен для сертифицированной версии. Новый модуль Share доступен для всех вариантов ОС Аврора 4.
* D-Bus интерфейс [BlueZ](http://www.bluez.org/) для работы с Bluetooth-устройствами. В отличие от третьего поколения,Qt Bluettoth в ОС Аврора 4 не допускается для использования в прикладном ПО.
* D-Bus интерфейс [sstore](https://community.omprussia.ru/documentation/software_development/reference/sstore.html) для работы с криптоконтейнерами, позволяющий хранить ключи, пароли и другую конфиденциальную информацию. Свой криптоконтейнер создаётся независимо для каждого приложения и шифруется с помощью пароля, заданного пользователем.
* D-Bus интерфейс [Device Info API](https://gitlab.com/omprussia/examples/SystemInfo), предоставляющий сервисную информацию о параметрах устройства. В третьей версии ОС Аврора подобная информация была доступна через различные API, теперь для удобства она собрана в одном месте.
* D-Bus-интерфейс [NFCD](https://community.omprussia.ru/documentation/software_development/reference/nfcd.html) для работы с NFC-устройствами, позволяющий управлять NFC-адаптером на устройстве, получать и передавать данные по протоколу NFC.
* Служба [Integrityd](https://community.omprussia.ru/documentation/software_development/reference/integrityd.html) для проверки целостности системы и устанавливаемых компонентов. В ОС Аврора 3 для проверки целостности использовалась AIDE, и в стороннее приложение было невозможно добавить собственный компонент для подобной проверки.
* QML-модуль [QrFilter](https://community.omprussia.ru/documentation/software_development/reference/qr_filter.html) для распознавания и генерации QR и бар-кодов, работающий как видеофильтр со стандартными Qt API.
* Сервис [sdjd](https://community.omprussia.ru/documentation/4.0/software_development/reference/sdjd.html) для сбора и отслеживания событий безопасности, позволяющий получать и фильтровать события безопасности, которые отправляются различными компонентами ОС Аврора: вход в систему, запуск службы проверки integrityd и аналогичные события.
* D-Bus-служба Reports API для генерации зашифрованных отчётов с информацией от различных сервисов и компонентов. По запросу приложения она генерирует отчёт в виде архива.
* [Antivirus API](https://community.omprussia.ru/documentation/software_development/reference/antivirus.html) для работы с защитным ПО с минимально необходимыми для этого правами и изоляцией от внешнего воздействия. Модуль разработан специально таким образом, что антивирус не становится частью ОС, а является заменяемым модулем, использующим структурированный API.
* D-Bus-интерфейс [IUDID](https://community.omprussia.ru/documentation/software_development/reference/iudid.html) для получения постоянного уникального идентификатора устройства. По сравнению с предыдущим API для получения UUID он более безопасен, поскольку не позволяет приложению отслеживать конкретное устройство (ID уникален для связки устройство-пользователь-приложение), но в то же время остаётся постоянным, что полезно, например, для авторизации.
* Библиотека [MDM](https://community.omprussia.ru/documentation/software_development/reference/mdm.html) для управления мобильными устройствами. Разработанные с его помощью MDM-приложения позволяют применять ограничительные политики, а также в ручном режиме включать, отключать или вызывать конкретные функциональные возможности устройства.
Разберём нововведения в Аврора 4.0.2 на примере
-----------------------------------------------
Чтобы наглядно продемонстрировать ряд важных обновлений, разберём пример приложения [«Push Receiver»](https://gitlab.com/omprussia/examples/PushReceiver/-/tree/example), которое позволяет получать и обрабатывать push-сообщения. Оно регистрируется как обработчик Push и получает идентификатор для внешнего сервиса, генерирующего уведомления. После этого приложение может получать и обрабатывать push-сообщения, в том числе, когда оно не запущено.
Подробнее остановимся на основных изменениях, релевантных для разработки любых приложений (изоляции приложений, валидации и подписании пакетов), а также рассмотрим обновлённую регистрацию D-Bus служб и работу с уведомлениями. Собирать и проверять работу приложения будем в [Аврора SDK версии 4.0.2.175](https://community.omprussia.ru/documentation/software_development/sdk/downloads.html#4-0-2-175) (руководство по установке и базовой настройке доступно на [портале разработчиков](https://community.omprussia.ru/documentation/software_development/sdk/setup.html)).
Для начала работы проект нужно склонировать с помощью git
`git clone git@gitlab.com:omprussia/examples/PushReceiver.git`
или [скачать](https://gitlab.com/omprussia/examples/PushReceiver/-/archive/example/PushReceiver-example.zip) и распаковать в директорию, доступную SDK (домашняя директория пользователя или альтернативная, указанная при установке SDK). Впрочем, можно ознакомиться с кодом и на GitLab по ссылкам, которые мы приведём.
### Название RPM-пакета
Начнём с того, что проявляется ещё до погружения в код проекта. В четвёртом поколении ОС Аврора сформулированы [требования к наименованию установочных пакетов](https://community.omprussia.ru/documentation/software_development/guidelines/rpm_requirements.html#package_name), которые позволяют идентифицировать поставщика и разграничить пространства имён:
`{название_пакета}-{номер_версии}-{номер_релиза}.{архитектура}.rpm`
При этом **{название\_пакета}** должно иметь вид **{доменное\_имя}.{название\_приложения}**. При создании нового проекта в Аврора IDE название пакета будет сформировано именно таким образом. В случае «Push Receiver» название пакета такое: **ru.auroraos.PushReceiver**. Оно, как и в предыдущих версиях ОС Аврора, соответствует [TARGET](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/ru.auroraos.PushReceiver.pro#L39), а также используется в названиях некоторых файлов: pro-файл, spec-файл, desktop-файл, файлы иконок и переводов.
### Библиотека AuroraApp
Начиная с ОС Аврора версии 4.0.2.175, рекомендуется использовать библиотеку libauroraapp вместо libsailfishapp. Такое изменение проявляется в нескольких местах проекта:
* [конфигурация](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/ru.auroraos.PushReceiver.pro#L44) файла проекта
`CONFIG += \
auroraapp \`
* [директива](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/ru.auroraos.PushReceiver.pro#L69) для указания разрешения иконок
`AURORAAPP_ICONS = 86x86 108x108 128x128 172x172`
* [зависимости](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example_auroraapp/rpm/ru.auroraos.PushReceiver.spec#L7) сборки
`BuildRequires: pkgconfig(auroraapp)`
* [подключение](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/main.cpp#L40) заголовочного файла
`#include`
* пространство имён Aurora::Application вместо SailfishApp для:
+ получения [объекта приложения](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example_auroraapp/src/main.cpp#L47)
`Aurora::Application::application(argc, argv)`
+ создания [объекта QquickView](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example_auroraapp/src/applicationcontroller.cpp#L137)
`Aurora::Application::createView()`
+ получения [путей к файлам, поставляемым приложением](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example_auroraapp/src/applicationcontroller.cpp#L139)
`Aurora::Application::pathTo(QStringLiteral("qml/PushReceiver.qml"))`
Кроме того, пространство имён Aurora::Application предоставляет [API](https://community.omprussia.ru/documentation/software_development/reference/user_data.html) для получения путей к данным пользователя, в том числе к [общим директориям приложений](https://community.omprussia.ru/documentation/software_development/guidelines/rpm_requirements.html#paths) ([валидатор](https://community.omprussia.ru/documentation/tools/rpm-validator.html) теперь проверяет хардкод путей в коде приложения, поэтому нужно использовать API для получения путей в файловой системе).
### Новая мета-информация в desktop-файле
Структура [desktop-файла](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/ru.auroraos.PushReceiver.desktop) приложения [расширена](https://community.omprussia.ru/documentation/software_development/guidelines/rpm_requirements.html#desktop):
`[Desktop Entry]
Type=Application
X-Nemo-Application-Type=silica-qt5
X-Nemo-Single-Instance=no
X-Aurora-Single-Cover=yes
Icon=ru.auroraos.PushReceiver
Exec=/usr/bin/ru.auroraos.PushReceiver
Name=Push Receiver
Name[ru]=Получение пушей`
`[X-Application]
Permissions=PushNotifications;Internet
OrganizationName=ru.auroraos
ApplicationName=PushReceiver
ExecDBus=/usr/bin/ru.auroraos.PushReceiver %u`
Как видно из листинга, добавлен блок **X-Application**, позволяющий управлять настройками изолированной среды приложения с помощью новых ключей.
Ключ **Permissions** содержит список разрешений для приложения, которые описывают [используемые API](https://community.omprussia.ru/documentation/software_development/reference/public_api.html), [директории](https://community.omprussia.ru/documentation/software_development/reference/user_data.html) и D-Bus интерфейсы. Приложения должны определять все необходимые разрешения в desktop-файле, при этом все разрешения будут предоставлены в момент первого запуска, если их подтвердит пользователь. «Push Receiver» декларирует разрешения [PushNotifications](https://community.omprussia.ru/documentation/software_development/reference/public_api.html) для работы с системной службой push-сообщений и Internet для работы с сетью.
Ключи **OrganizationName** и **ApplicationName** содержат название организации и приложения аналогично тому, как это делается для [названия установочного пакета](https://community.omprussia.ru/documentation/software_development/guidelines/rpm_requirements.html#package_name). Такая информация из desktop-файла используется для определения собственных директорий приложения и директорий компании-поставщика при формировании изолированного окружения. При этом в ОС Аврора 4.0.1 для корректной работы [QStandardPath](https://doc.qt.io/qt-5.6/qstandardpaths.html) нужно произвести [дополнительную настройку](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/main.cpp#L48) в функции main():
`application->setOrganizationName(QStringLiteral("ru.auroraos"));
application->setApplicationName(QStringLiteral("PushReceiver"));`
Доменное имя (**ru.auroraos**) и название приложения (**PushReceiver**) должны соответствовать именам, которые указаны в desktop-файле. Начиная с ОС Аврора 4.0.2, такая настройка выполняется автоматически.
Ключ **ExecDBus** описывает команду для запуска приложения через D-Bus. Если он указан, то при установке пакета приложения будет сгенерирован unit-файл для systemd, регистрирующий на сессионной шине D-Bus службу **{доменное\_имя}.{название\_приложения}**. Это нужно для обработки обращений к приложению, когда оно не запущено. В случае Push Reveiver служба **ru.auroraos.PushReceiver** используется для [обработки приходящих push-сообщений](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L64) и реакции на действия пользователя с уведомлениями.
Напомним, что в третьем поколении ОС Аврора unit-файлы для регистрации D-Bus службы требовалось устанавливать самостоятельно. В корпоративном исполнении валидатор не проверял структуру пакета, поэтому unit-файл мог быть установлен непосредственно в каталог /run/user/100000/dbus-1/services/. В сертифицированной версии такая организация процесса была невозможна из-за требований безопасности: запись в системные каталоги запрещена. Поэтому unit-файлы создавались при первом запуске приложения в каталоге настроек sytemd домашней директории пользователя. Механизм регистрации службы D-Bus в ОА Аврора 4 сочетает в себе удобство разработки и безопасность передачи данных.
Также обратим внимание на связку ключей **X-Nemo-Single-Instance** и **X-Aurora-Single-Cover**:
`X-Nemo-Single-Instance=no
X-Aurora-Single-Cover=yes`
Такая связка позволяет запускать несколько экземпляров приложения так, что обложка отображается только для первого экземпляра. Это используется, например, чтобы [развернуть уже запущенный экземпляр приложения](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L131), когда пользователь [запускает новый экземпляр](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/main.cpp#L55) нажатием на иконку.
Кроме того, в ключе **Exec** теперь должен быть указан полный путь до исполняемого файла. В четвёртом поколении ОС Аврора допускается [несколько исполняемых файлов](https://community.omprussia.ru/documentation/software_development/guidelines/rpm_requirements.html#paths) в составе пакета.
### Обработка push-сообщений
В четвёртом поколении ОС Аврора стала доступна системная служба, принимающая push-сообщения на устройстве и передающая их приложениям с помощью [соответствующего API](https://community.omprussia.ru/documentation/software_development/reference/push-notifications.html). Чтобы она смогла правильно адресовать сообщение, приложение должно при первом запуске обработать сигнал [Aurora::PushNotifications::Client::registrationId](https://community.omprussia.ru/documentation/software_development/reference/push-notifications/client.html#registrationId) и [получить registration ID](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L77), который используется для идентификации экземпляра приложения на сервере и отправки push-сообщений конкретному устройству.
`connect(m_notificationsClient, &Client::registrationId,
this, &ApplicationController::_setRegistrationId);`
Для этого предварительно требуется [указать ID приложения](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L144), которое соответствует сервису в сети Интернет, и [зарегистрировать обработчик](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L145).
`m_notificationsClient->setApplicationId(applicationId);
m_notificationsClient->registrate();`
В приложении «Push Receiver» идентификатор приложения [считывается из файла](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L164). Для примера мы [генерируем](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/ru.auroraos.PushReceiver.pro#L81) файл со [значением testApp](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/ru.auroraos.PushReceiver.pro#L77) на этапе сборки:
`APP_ID = testApp # write down the application_id here
APP_ID_PATH = /usr/share/$${TARGET}
APP_ID_FILE = applicationid`
`applicationid_install.extra = echo $${APP_ID} > $${OUT_PWD}/$${APP_ID_FILE}
applicationid_install.files = $${OUT_PWD}/$${APP_ID_FILE}
applicationid_install.path = $${APP_ID_PATH}
applicationid_install.CONFIG = no_check_exist`
Когда push-сообщение приходит на устройство, системная служба вызывает через D-Bus метод соответствующее ему приложение. Если приложение не запущено, то выполняется команда запуска, указанная в desktop-файле, с флагом /no-gui, который позволяет [отличить такой вызов от запуска по иконке](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L67):
`if (arguments.indexOf(QStringLiteral("/no-gui")) == -1)
showGui();`
Для отслеживания входящих push-сообщений служит сигнал [Aurora::PushNotifications::Client::notifications](https://community.omprussia.ru/documentation/software_development/reference/push-notifications/client.html#notifications). В «Push Receiver» [заполняется список входящих сообщений](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L82):
`connect(m_notificationsClient, &Client::notifications,
[this](const PushList &pushList) {
for (const auto &push : pushList) {
m_notificationsModel->insertPush(push);`
…
Кроме того, для каждого push-сообщения [генерируется системное уведомление](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L98):
`Notification notification;
notification.setAppName(tr("Push Receiver"));
notification.setSummary(push.title);
notification.setBody(push.message);
notification.setIsTransient(false);
notification.setItemCount(1);
notification.setHintValue("x-nemo-feedback", "sms_exists");
notification.setRemoteAction(defaultAction);
notification.publish();`
Каждое такое уведомление помещается на Экран событий, а также может отображаться всплывашкой. Когда пользователь нажимает на любое из них, происходит [обращение к D-Bus службе](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L92). В четвёртом поколении ОС Аврора можно указывать текст для кнопок действий, и таких кнопок может быть несколько:
`QVariant defaultAction =
Notification::remoteAction(QStringLiteral("default"), tr("Open app"),
ApplicationService::notifyDBusService(),
ApplicationService::notifyDBusPath(),
ApplicationService::notifyDBusIface(),
ApplicationService::notifyDBusMethod());`
Если приложение было запущено, то [отобразится его графический интерфейс](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationservice.cpp#L111), а если не было запущено, то произойдёт запуск на основе ключа **ExecDBus** из desktop-файла.
Если приложение запущенно в фоне и в течение некоторого времени для него не приходило никаких уведомлений, то оно [завершает работу](https://gitlab.com/omprussia/examples/PushReceiver/-/blob/example/src/applicationcontroller.cpp#L70), обрабатывая сигнал, который испускает [Aurora::PushNotifications::Client](https://community.omprussia.ru/documentation/software_development/reference/push-notifications/client.html).
`connect(m_notificationsClient, &Client::clientInactive, [this]() {
if (m_view == nullptr)
qApp->quit();
});`
### Подписание установочных пакетов
Напомним, что в четвёртом поколении ОС Аврора [подписание RPM-пакетов](https://community.omprussia.ru/documentation/software_development/guides/package_signing.html) обязательно для всех исполнений ОС: и сертифицированного, и корпоративного. Для примера мы будем использовать [публичную ключевую пару профиля regular](https://community.omprussia.ru/documentation/software_development/guides/package_signing.html#public_certificates). Её же стоит использовать на всех этапах разработки приложений, однако для подписания релиза следует [выпустить собственный сертификат](https://community.omprussia.ru/documentation/software_development/guides/package_signing.html#certificate_issuance).
Для подписания RPM-пакетов теперь используется [утилита rpmsign-external](https://community.omprussia.ru/documentation/tools/rpmsign-external.html):
rpmsign-external sign --key key.pem --cert cert.pem ru.auroraos.PushReceiver-0.1-1.armv7hl.rpm
Также можно это сделать в Аврора IDE с помощью [диалога подписи](https://community.omprussia.ru/documentation/software_development/sdk/sign_dialog.html): **Инструменты → Аврора ОС → Подпись пакетов**.
Однако для разработки вручную подписывать неудобно, поэтому настроим автоматическое подписание при деплое из IDE. Для этого в разделе **Проекты → Запуск**, раскроем вкладку **RPM Sign** и укажем пути к файлам ключа и сертификата. Также нужно активировать этот шаг, нажав на иконку Ø.
### Тихая установка
Непосредственно за этапом подписания идёт этап развёртывания. Обратим внимание на то, что в нём используется ключ **silent**, позволяющий запускать приложения в эмуляторе или на устройстве без необходимости подтверждать установку.
В эмуляторе такой подход заработает без дополнительных настроек, а на устройстве нужно в настройках средств разработчика разрешить тихую установку так, как описано в первой части статьи.
В остальном [порядок запуска](https://community.omprussia.ru/documentation/software_development/sdk/run_and_debug.html#launch) не отличается от предыдущих версий ОС Аврора. Важно иметь в виду, что при установке RPM-пакета на устройство будет вызван валидатор.
### Работа с push-сообщениями из эмулятора
При разработке для тестирования взаимодействия с push-сообщениями на устройствах удобно использовать [тестовый сервер](https://community.omprussia.ru/documentation/software_development/guides/push/test_server.html) и, например, [приложение «Push Sender»](https://gitlab.com/omprussia/examples/PushSender) для отправки сообщений. В актуальной версии Аврора SDK доступна эмуляция отправки push-сообщений. Однако, если запустить «Push Receiver» без дополнительной настройки эмулятора, приложение не сможет связаться с системной службой push-сообщений и получить registration ID.
Чтобы служба push-сообщений стала доступна, нужно [создать файл настроек push-сервера в IDE](https://community.omprussia.ru/documentation/software_development/sdk/push.html). Для этого генерируем сертификат и ключ:
`openssl req -x509 -newkey rsa:4096 -keyout push_key.pem -out push_cert.pem -days 365 -nodes -subj "/C=RU/emailAddress=edu@omp.ru"`
Затем запускаем эмулятор, переходим в диалог настроек (**Инструменты → Параметры → Push-уведомления → Push-сервер**), указываем ключевую пару и нажимаем **Создать**.
В результате будет создан файл настроек push-сервера, а идентификаторы устройств, доступных для отправки сообщений, отобразятся в списке.
Нажимаем **OK**, перезапускаем «Push Receiver» и проверяем, что получен registration ID. Для эмулятора он совпадает с ID приложения, но при работе с реальным push-сервером это не так.
Информация о получении registration ID приложением также доступна в основном окне Аврора IDE на вкладке **Push Notifications** (можно перейти с помощью **Alt+9**).
Из этой же вкладки можно отправить push-сообщения в приложение. Для этого нужно проверить, что указан идентификатор приложения и выбраны устройства, на которые будут отправляться сообщения.
Затем достаточно ввести текст сообщения и нажать на зелёную стрелку для отправки.
Сообщение об успешно отправленном сообщении будет добавлено в лог.
«Push Receiver», запущенный в эмуляторе, получит сообщение, добавит информацию из него в список и сгенерирует системное уведомление.
 Для отправляемых сообщений можно указать дополнительные свойства (**Инструменты → Параметры → Push-уведомления → Значения по умолчанию для уведомлений**), которые по умолчанию не заполнены.
Если указать значения, то соответствующая информация будет приходить с push-сообщениями.
Сообщения строковые, но можно, например, сериализовать JSON и передавать более сложные данные. Однако на практике push-сообщения используются, чтобы уведомить приложение о событии, подробности которого оно сможет получить уже подключившись к серверу.
Заключение
----------
Мы описали основные изменения, связанные с разработкой приложений для четвёртого поколения ОС Аврора. В качестве резюме приведём набор действий, которые потребуются для адаптации приложения с предыдущей версии ОС:
* указать в секции X-Application desktop-файла название приложения, домен организации и разрешения для доступа к API и каталогам;
* если приложение предоставляет службу D-Bus, заменить собственный service-файл на механизм ExecDBus;
* если используется ОС Аврора только версии 4.0.2.175 или новее, заменить библиотеку SailfishApp на AuroraApp;
* если используется ОС Аврора до версии 4.0.2.175, задать название приложения и домен организации при настройке экземпляра класса QGuiApplication;
* использовать API для получения путей к данным приложения и подключаемым библиотекам;
* если требуется обрабатывать уведомления сервера, то использовать push-сообщения;
* адаптировать код приложения с учётом изменений в API;
* обеспечить подписание и прохождение валидации установочного пакета.
Кроме того, мы рекомендуем перейти на новые API для решения функциональных задач приложения, и адаптировать внешний вид приложения, ориентируясь на UI Kit. | https://habr.com/ru/post/696574/ | null | ru | null |
# Формат JPEG XL будет полным по Тьюрингу без ограничения 1024*1024 пикселей

*В формате JPEG XL это изображение занимает [59 байт](https://twitter.com/jonsneyers/status/1375828696846721031)*
Оказывается, [полным по Тьюрингу](https://en.wikipedia.org/wiki/Turing_completeness) может быть не только язык программирования, но и **графический формат**. В частности, таким потенциально является формат [JPEG XL](https://en.wikipedia.org/wiki/JPEG_XL), если отменить в нём ограничение на максимальный размер группы обрабатываемых пикселей.
Новый свободный формат разработан для замены существующим форматам растровой графики (JPEG, PNG, WebP, HEIC, JPEG 2000 и проч.), может работать на сервере [прозрачно, вместе с JPEG](https://res.cloudinary.com/cloudinary-marketing/image/upload/w_700,c_fill,f_auto,q_auto,dpr_2.0/Web_Assets/blog/Encoder_diagram.png) (уменьшение размера JPEG на 20% без потери качества). Финальная версия стандарта зафиксирована 25 декабря 2020 года. Новый кодек основан на инновационных разработках [Google PIK](https://github.com/google/pik) и [Cloudinary FUIF](https://github.com/cloudinary/fuif), но превосходит их. Самое главное, что он лишён недостатков тех графических форматов, которые основаны на *видео*кодеках: это WebP (основан на VP8), HEIC (HEVC) и AVIF (AV1).

*Пример использования JPEG XL на сервере*
[Полнота по Тьюрингу](https://en.wikipedia.org/wiki/Turing_completeness) — фундаментальное понятие в информатике. В теории вычислимости означает возможность реализовать на данном вычислителе **любую вычислимую функцию**. То есть для каждой вычислимой функции существует вычисляющий её элемент, а все функции являются вычислимыми. Свойство названо по имени Алана Тьюринга, разработавшего первый абстрактный исполнитель — машину Тьюринга, способную имитировать всех исполнителей путём ряда достаточно элементарных шагов.
Дело в том, что в формат изображений JPEG XL включает в себя так называемые «предикторы» — небольшие программы, которые улучшают сжатие, выражая цвет пикселя в терминах цветов его соседей.

*В формате JPEG XL это изображение занимает [55 байт](https://twitter.com/jonsneyers/status/1374826703361544204), hex-дамп: `ff 0a fa 1f 01 91 08 06 01 00 ac 00 4b 38 42 36 61 47 a9 65 f3 43 ee 2f 2a 0e 7c f9 fd 73 90 70 e0 14 0f e9 82 32 f4 64 10 32 c9 90 02 59 91 0a 01 45 06 00 60 02 00`*
Украинский математик и программист Даниил Богдан, бывший ведущий инженер Института математики НАН Украины [первым показал](https://www.pouet.net/topic.php?which=12091&page=1#c568703), что в предикторах JPEG XL можно реализовать клеточный автомат под названием [«Правило 110».](https://en.wikipedia.org/wiki/Rule_110)
Ранее [было доказано](https://wpmedia.wolfram.com/uploads/sites/13/2018/02/15-1-1.pdf), что клеточный автомат с правилом 110 является Тьюринг-полным и с его помощью может быть реализована любая вычислительная процедура. Возможно, что это самая простая система, полная по Тьюрингу.

*Построение следующего поколения одномерного клеточного автомата с использованием правила 110, [cormullion](https://commons.wikimedia.org/wiki/File:One-d-cellular-automaton-rule-110.gif)*
Но есть один нюанс.
Хотя правило 110 является полным по Тьюрингу, но предикторы JPEG XL не являются полными по Тьюрингу сами по себе. Чтобы обеспечить параллельное кодирование и декодирование, кодек JPEG XL работает с «группами» пикселей размером до 1024х1024. Таким образом, сам JPEG XL не является полным по Тьюрингу, но его версия без ограничения 1024\*1024 пикселей была бы полной, пишет Богдан.
Даниил Богдан написал [код](https://dbohdan.com/wiki/jpeg-xl#code) в формате для предикторов JXL, который можно [загрузить и запустить](https://jxl-art.surma.technology/?code=aWYgeSA%2BIDAKICBpZiBOID4gMAogICAgaWYgTlctTiA%2BIC0yNTUKICAgICAgaWYgTi1ORSA%2BIDAKICAgICAgICAtIFNldCAyNTUKICAgICAgICAtIFNldCAwCiAgICAgIC0gU2V0IDI1NQogICAgaWYgTlctTiA%2BIDAKICAgICAgaWYgTi1ORSA%2BIC0yNTUKICAgICAgICAtIFNldCAwCiAgICAgICAgLSBTZXQgMjU1CiAgICAgIGlmIE4tTkUgPiAtMjU1CiAgICAgICAgLSBTZXQgMAogICAgICAgIC0gU2V0IDI1NQogIGlmIHggPiAxMDIyCiAgICAtIFNldCAyNTUKICAgIC0gU2V0IDAK) в песочнице JXL Art.
В ответ на [критику с Reddit](https://www.reddit.com/r/programming/comments/o4u8fp/jpeg_xl_would_be_turingcomplete_via_rule_110/h2kjr1x/) математик поясняет: «Мы можем генерировать любое начальное состояние с условиями на x для y = 0 (на одно условие меньше, чем существует непрерывных последовательностей нулей и единиц). Мы эмулируем бесконечно повторяющиеся серии [правил и тактовых импульсов](https://en.wikipedia.org/wiki/Rule_110#Constructing_the_cyclic_tag_system) с помощью серий, достаточно длинных для вычислений. Начинаем с фиксированных размеров, генерируем серию и запускаем вычисления. Если система тегов не останавливается, мы удваиваем размер изображения и повторяем попытку, пока она не остановится или у нас не закончится память. Это так же близко к Тьюринг-полноте, как и другие виртуальные машины на физическом компьютере (если я не прав, [исправления приветствуются](https://dbohdan.com/contact)!)».

*Архитектура кодека JPEG XL*
#### Основные функции JPEG XL
* Улучшенная функциональность и эффективность по сравнению с JPEG, GIF и PNG, см. [сравнение JPEG XL с другими кодеками](https://cloudinary.com/blog/how_jpeg_xl_compares_to_other_image_codecs);
* Перекодирование JPEG без потерь с уменьшением размера примерно на 20%;
* Размер изображения более миллиарда (230-1) пикселей с каждой стороны;
* До 4100 каналов, т.е. оттенков серого или RGB, опционально альфа-канал, и до 4096 «дополнительных» каналов;
* Транскодирование прогрессивных JPEG поддерживается форматом, но пока не реализовано в эталонном ПО;
* Кодирование без потерь и альфа-кодирование без потерь;
* Поддержка как фотографических, так и синтетических изображений;
плавное снижение качества в широком диапазоне битрейтов;
* Оптимизированный для восприятия эталонный кодер;
* Поддержка широкой цветовой гаммы и HDR;
* Поддержка анимаций;
* JPEG XL кодируется и декодируется так же быстро, как старый JPEG с использованием libjpeg-turbo, и на порядок быстрее HEIC с x265. Он также поддаётся распараллеливанию.
* Формат совершенно свободный с эталонной реализацией и открытым исходным кодом.

*По субъективной оценке качества, JPEG XL сжимает без визуальных потерь (синяя область) на тех же битрейтах, что HEVC-HM-Y444*
P.S. Есть мнение, что полнота по Тьюрингу [окружает нас повсюду](https://habr.com/ru/post/429602/). Вообще трудно написать полезную систему, которая немедленно не обратится в полную по Тьюрингу. Оказывается, что даже небольшой контроль над входными данными и преобразованием их в результат, как правило, позволяет создать тьюринг-полную систему: «В обычном смартфоне или настольном компьютере будет от пятнадцати до нескольких тысяч компьютеров в смысле тьюринг-полных устройств. Каждое из них можно запрограммировать, оно обладает достаточной мощностью для запуска многих программ и может быть использовано злоумышленником для наблюдения, эксфильтрации или атак на остальную часть системы», — [писал](http://kristerw.blogspot.com/2016/01/more-turing-completeness-in-surprising.html) в 2018 году американский исследователь Гверн Бранвен, приводя множество примеров:
> «Наверное, в наше время многие не знают, что TrueType и многие шрифты — это программы PostScript на стековых машинах, похожие на [метаданные ELF и отладочную информацию DWARF](http://kristerw.blogspot.com/2016/01/more-turing-completeness-in-surprising.html). Или что [некоторые музыкальные форматы](https://en.wikipedia.org/wiki/NES%20Sound%20Format) выходят за рамки [MIDI](https://en.wikipedia.org/wiki/MIDI), поддерживают скрипты и нуждаются в интерпретации. Если знать о тьюринг-полноте шрифтов, то уже не удивляет полнота по Тюрингу документов TeX, что естественно вызывает многие серьёзные и интересные уязвимости в безопасности шрифтов и медиа, такие как [BLEND](http://googleprojectzero.blogspot.com/2015/07/one-font-vulnerability-to-rule-them-all.html) или Linux-эксплоиты [SNES](https://scarybeastsecurity.blogspot.com/2016/12/redux-compromising-linux-using-snes.html) и [NES](https://scarybeastsecurity.blogspot.com/2016/11/0day-exploit-compromising-linux-desktop.html).
Несмотря на полноту по Тьюрингу, похоже, декодер JPEG XL [не представляет угрозы безопасности](https://news.ycombinator.com/item?id=27577447): говорят, что вычисления ограничены отдельными пикселями и не позволят декодеру уйти в бесконечный цикл или нечто подобное. | https://habr.com/ru/post/564370/ | null | ru | null |
# Увеличиваем производительность Zend Framework'а, собирая его классы в один файл
 Каждый раз когда вы запускаете ссылку, и на сервере ее обрабатывает ZendFramwork, происходят неприятные издержки производительности при сборке исполняющего кода PHP интерпретатором.
PHP конечно умеет кешировать опкод в памяти с помощью APC, Memcached и т.д. Но перед тем как взять опкод из памяти идет обращение на жесткий диск, для того чтобы убедиться обновилась ли дата последнего изменения. Когда файлов мало, это происходит незаметно. Когда их становиться много, начинает становиться заметным уменьшение производительности.
(В APC конечно можно настроить, чтобы PHP интерпритатор не проверял дату файлов, но при любом изменении файлов необходимо рестартовать Apache, что очень не удобно при developing'е).
В сети уже встречались сборщики классов, но они не всегда корректно собирали то что нужно.
**Да это тема уже поднималась неоднократно, но я так и не нашел ни одного скрипта который бы правильно подключил классы Zend\_Controller\_Router\_Route\_Abstract и Zend\_Controller\_Router\_Route\_Chain.**
Просто пробежаться по файлам и собрать их в один, не получиться. В зенде кругом используется наследование от классов и интерфейсов. И для корректного компилирования необходимо, чтобы класс который идет после implements или extends был объявлен в коде ранее.
Данная фича реализована в следующем классе и при сборке, я не думаю, что у вас возникнут проблемы.
Итак, компилятор можно прогнать в самом конце исполнения скрипта после **Zend\_Controller\_Front::getInstance()->dispatch();** (обычно эта строка в index.php в корневой папке вашего проекта) используя следующий код:
> `ZCompile::make('d:/www/project/lib/zendframework-1.7.1/Zend.compiled.phplib',
>
> array(),
>
> 'd:/www/project/lib/zendframework-1.7.1/'
>
> );
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
**Первый параметр** — указывает путь до файла, в который будут собраны все классы.
**Второй параметр** — содержит массив дополнительных файлов, которые необходимо подключить (о нем чуть позже).
**Третий параметр** — содержит путь до библиотеки фреймворка, в **конце обязателен прямой слеш** '/'! Эта директория называется Zend. Т.е. в моем примере файлы классов Zend'a находятся в директории d:/www/project/lib/zendframework-1.7.1/Zend/. Повторюсь, необходимо указать путь только до папки Zend.
После запуска скрипта, ZCompile автоматически возьмет список необходимых классов и запишет их в один файл, соблюдая иерархию наследования.
В коде я обычно использую следующую конструкцию, для выбора загрузки фреймворка из собранного файла или из стандартной библиотеки:
> `if(FRAMEWORK\_LOAD\_COMPILED\_ZEND==1) {
>
> require 'Zend.compiled.phplib';
>
> } else {
>
> require 'Zend/Loader.php';
>
> }
>
> Zend\_Loader::registerAutoload('Zend\_Loader');
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Очень удобно хранить «скомпилированный» файл и класс ZCompile на одном уровне вместе с папкой Zend (библиотекой фреймворка). Т.е. они у меня хранятся в директории d:/www/project/lib/zendframework-1.7.1/
Итак, помните я говорил вам про **второй параметр**, который представляет из себя массив. Так вот, он позволяет подключить те классы, которые в работе текущего скрипта не использовались, но в проекте они нужны.
Там просто указываем, основные классы или директории, которые необходимо подключить. Например:
> `array(
>
> 'Zend/Auth/', // подключить классы из директории, слеш обязателен на конце
>
> 'Zend/Acl/', // подключить классы из директории, слеш обязателен на конце
>
> 'Zend/View/Helper/HeadTitle.php', // подключить конкретный класс
>
> 'Zend/View/Helper/Url.php', // подключить конкретный класс
>
> )
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Когда подключается директория, то считываются все файлы только на текущем уровне, в поддиректории не заходим. Когда подключаем чисто класс, то считываем только его.
**НО** при подключении класса (через директорию или напрямую) ZCompile соберет все классы, необходимые для работы указанного файла. Т.е. если вы указали директорию 'Zend/Auth/', то она скорее всего соберет все что содержится в указанной папке включая поддиректории.
Можно просто в отдельном файле выполнить следующий код, который просто соберет вам Acl и Auth:
> `php<br/
>
>
> set\_include\_path(
>
> 'd:/www/ksystem/lib/zendframework-1.7.1/'
>
> . PATH\_SEPARATOR . get\_include\_path());
>
>
>
> ZCompile::make('d:/www/project/lib/zendframework-1.7.1/Zend.compiled.phplib',
>
> array('Zend/Auth/', 'Zend/Acl/'),
>
> 'd:/www/ksystem/lib/zendframework-1.7.1/'
>
> );
>
> ?>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Итак, сам класс ZCompile (к ошибкам в комментах не придираемся, это не главное!, некогда их было исправлять ;) ):
> `php<br/
> /\*\*
>
> \* Класс для сборки модулей ZendFramwork в один файл.
>
> \*
>
> \* @author Nod nodkz.at.mail.ru
>
> \*/
>
> class ZCompile
>
> {
>
> static private $path;
>
>
>
> /\*\*
>
> \* Сборка заинклюденных файлов с удалением комментов, require/include, и проч
>
> \*
>
> \* @param string $dest Абсолютное имя скомпиленного файла
>
> \* @param string $includes Массив файлов ZF для сборки
>
> \* @return array
>
> \*/
>
> public static function make($dest, array $add\_includes = array(), $path = '')
>
> {
>
> self::$path=$path;
>
> $includes=array\_merge($add\_includes, self::\_scanFolderFiles($add\_includes), self::\_getZendIncludes());
>
>
>
> //убираем слеш в начале
>
> foreach($includes as $key=>&$value) {
>
> if(substr($value,0,1)=='/') {
>
> $includes[$key] = substr($value,1);
>
> }
>
> }
>
>
>
> // получаем последовательную очередность загрузки файлов
>
> $ordered\_include=Array();
>
> foreach($includes as $class\_file) {
>
> self::\_getClassOrderIncludes($class\_file, $ordered\_include);
>
> }
>
>
>
> // Удалить теги 'php' '? ', комменты ,пустые перводы строк и require/include[\_once]
>
> // и записать в файл
>
> $pattern[] ='%(^\<\?php|\?\>$)%m';
>
> $replacement[] = '';
>
> $pattern[] ='%/\\*.\*?\\*/%sm';
>
> $replacement[] = '';
>
> //$pattern[] ='%//.\*$%m';
>
> //$replacement[] = '';
>
> $pattern[] ='%(require\_once|include\_once|require|include) [("\'](.\*?)[)"\'];%sm';
>
> $replacement[] = '';
>
> $pattern[] ='%(\n){2,}%';
>
> $replacement[] = "\n";
>
>
>
> $body = "php\n"</font;
>
> $worked\_classes = Array();
>
> foreach ($ordered\_include as &$fname) {
>
> if(!in\_array($fname, $worked\_classes)) {
>
> $worked\_classes[] = $fname;
>
>
>
> $fname = self::$path.$fname;
>
> if(@file\_exists($fname)&&is\_file($fname)) {
>
> $body.="/\*\*\* FILE: ".$fname." \*\*\*/ \r\n";
>
> $body .= preg\_replace($pattern, $replacement, file\_get\_contents($fname, true));
>
> }
>
> }
>
> }
>
>
>
> $size = file\_put\_contents($dest, $body);
>
>
>
> return array('includes' => $includes, 'compiledBody' => $body, 'compiledSize' => $size);
>
> }
>
>
>
> /\*\*
>
> \* Просконировать названия на соответствие названию директории (т.е. оканчивается на /).
>
> \* И затем взять только те php файлы, которые лежат в этой папке (без рекурсивного прохода).
>
> \*
>
> \* @param array $add\_includes
>
> \* @return array
>
> \*/
>
> private static function \_scanFolderFiles(&$add\_includes) {
>
> $add\_includes\_dirs=array();
>
> foreach($add\_includes as $key=>$elem) {
>
> if(substr($elem,-1)=='/') {
>
> if (is\_dir(self::$path.$elem)) {
>
> if ($dh = opendir(self::$path.$elem)) {
>
> while (($file = readdir($dh)) !== false) {
>
> if(strpos(strtolower($file), '.php')!==false) {
>
> $add\_includes\_dirs[]=$elem.$file;
>
> }
>
> }
>
> closedir($dh);
>
> }
>
> }
>
> $add\_includes[$key]='';
>
> }
>
> }
>
> return $add\_includes\_dirs;
>
> }
>
>
>
> /\*\*
>
> \* Получаем массив файлов которые необходимо подключить для работы, переданного файла.
>
> \*
>
> \* @param string $fname
>
> \* @param array &$already\_included
>
> \*/
>
> private static function \_getClassOrderIncludes($class\_filename, array &$already\_included=Array(), array &$stack=Array()) {
>
> // проверяем на зацикливание в рекурсии
>
> if(!in\_array($class\_filename, $stack)) {
>
> array\_push($stack, $class\_filename);
>
> } else {
>
> if(!in\_array($class\_filename, $already\_included)) {
>
> $already\_included[]=$class\_filename;
>
> }
>
> return;
>
> }
>
>
>
> // если файл существует и мы его еще не парсили
>
> if(is\_file(self::$path.$class\_filename) && !in\_array($class\_filename, $already\_included)) {
>
> $class\_file\_content = file\_get\_contents(self::$path.$class\_filename, true);
>
>
>
> // выделяем наследование классов для первоначального подключения
>
> // т.е. если класс расширяется через extends или implements,
>
> // то расширяемый клас приводим к имени файла и подключаем
>
> if(preg\_match\_all('/class\s+[\_\w]+\s+(extends|implements)\s+([\_\w]+)/i', $class\_file\_content, $arr)) {
>
> foreach($arr[2] as $new\_class\_name) {
>
> $new\_class\_path = str\_replace('\_','/',$new\_class\_name).'.php';
>
> if(!in\_array($new\_class\_path, $already\_included)) {
>
> self::\_getClassOrderIncludes($new\_class\_path, $already\_included, $stack);
>
> }
>
> }
>
> }
>
>
>
> // выдергиваем из него все строчки связанные с подключением других файлов
>
> if(preg\_match\_all('%(require\_once|include\_once|require|include) [("\'](.\*?)[)"\'];%sm', $class\_file\_content, $arr)) {
>
> // для каждого инклудинного файла
>
> foreach($arr[2] as $new\_class\_path) {
>
> // проверяем на то, что мы его еще не сканировали, это дешевле чем парсить файл
>
> if(!in\_array($new\_class\_path, $already\_included) && !in\_array($new\_class\_path, $stack)) {
>
> // проверяем чтобы имя было не переменной
>
> if(strpos($new\_class\_path, '$')===false) {
>
> // начинаем ранее подключать, то что инклудиться в текущем инклуде
>
> self::\_getClassOrderIncludes($new\_class\_path, $already\_included, $stack);
>
> }
>
> }
>
> }
>
> }
>
> if(!in\_array($class\_filename, $already\_included)) {
>
> $already\_included[]=$class\_filename;
>
> }
>
> }
>
>
>
> array\_pop($stack);
>
> }
>
>
>
> /\*\*
>
> \* Выбрать уникальные файлы ZF заинклюденные в проект
>
> \*
>
> \* @return array
>
> \*/
>
> private static function \_getZendIncludes()
>
> {
>
> $required = array();
>
> $included\_files = get\_included\_files();
>
> $included\_files;
>
> foreach ($included\_files as $fname) {
>
> $fname = str\_replace('/','\\',$fname);
>
>
>
> if (!(strpos($fname, '\\Zend\\') > 0) || (strstr($fname, \_\_CLASS\_\_ . '.php'))) {
>
> continue;
>
> }
>
>
>
> $required[] = str\_replace('\\', '/', substr($fname, strpos($fname, '\\Zend\\'), strlen($fname)));
>
> }
>
>
>
> return array\_unique($required);
>
> }
>
> }
>
> ?>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
[Скачать класс](http://zaley.in/file.get.581973415)
Юзайте, на здоровье. | https://habr.com/ru/post/46742/ | null | ru | null |
# Template + jQuery + MVC = jsMVC
Разрабатывая сайты мне всегда хотелось облегчить себе жизнь, так я познакомился с jQuery. Все было бы хорошо если бы проекты не погружались в зыбучую смесь UI и js кода. Следующим этапом стало то что мы выделили UI Шаблоны в отдельные файлы, код стал более чистым, но, черт побери, все равно приходилось писать кучу UI кода, например вставка и настройка дополнительных компонентов в шаблон, event bind, надписи и т.д. И только после всего этого на выходе получался нужный нам компонент. Возникало, конечно, много проблем, особенно когда дизайнер менял шаблон, но все это решаемо.
Мне всегда хотелось что бы дизайнеры рисовали мир, а програмисты оживляли его. И желательно что бы эти миры практически не пересекались и давали свободу и тем и другим. И так перейдем к сути.
jsMVC состоит из трех вещей:
* Компонент
* Шаблон 2.0
* Компиляция
#### Компонент
[](http://imageshost.ru/)
— слайд 3 —
Компонент состоит из Шаблона+CSS, js«класса» + декларативное описание.
js«class» определяется в пространстве имен jsMVC.Components. и имеет примерно такой вид:
``> jsMVC.Components.Button = {
>
> Init: function(){// Вызывается после добавления объкта в дом
>
> jsMVC.Components.Component.Init.call(this);//Базовый метод...
>
> //<Действия>
>
> },
>
> SetEnable: function(flag){...}, // Определяем геттер и сеттер для свойства Enable
>
> GetEnable:function() {...}
>
> //<Опеделедяем еще кучу методов...>
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Желательно методы начинать с большой буквы, ниже будет понятно почему.
Далее декларируем свойства и события:
[](http://imageshost.ru/)
— слайд 5 —
``> jsMVC.CreateCompileInfoByObject(
>
> {
>
> Name: 'Button',
>
> Properties: {
>
> Enable: {
>
> Type: 'Boolean',
>
> Access: 'GETSET'
>
> },
>
> Text: {}
>
> },
>
> Events: {
>
> onClick: {}
>
> }
>
> });
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Указание типа и доступа свойств является не обязательным.
Декларирование нужно для компиляции и редактора.
#### Шаблон
Шаблоны состоят из HTML тегов, других компонентов, казаний событий, установки свойств.
Для примера Expander
``> jsMVC.Templates.Expander =
>
> '<div>'+
>
> '<div name="content"/>'+
>
> '<div class="expander-control">'+
>
> '<component name="bToggle" type="Button" class="cExpander-cButton-bToggle">'+
>
> '<properties>'+
>
> '<key name="Text" value="\*">key>'+//Установка свойства Text
>
> 'properties>'+
>
> '<events>'+
>
> '<key name="onClick" value="Toggle"/>'+//Биндим событие
>
> 'events>'+
>
> 'component>'+
>
> 'div>'+
>
> 'div>';
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Можно сделать и такое
``> jsMVC.Templates.TestComponent = '<div>'+
>
> '<component type="Expander">'+
>
> '<content>'+ //по умолчанию into="content", Вы помните что в Expander есть тег с именем "content"?
>
> '<div> Test TEXT div>'+
>
> '<component type="Button">'+
>
> '<properties>'+
>
> '<key name="Text">Click Mekey>'+//Установка свойства Text
>
> 'properties>'+
>
> '<events>'+
>
> '<key name="onClick" value="Clear"/>'+//Биндим событие
>
> 'events>'+
>
> 'component>'+
>
> 'content>'+
>
> '<content into="bToggle">'+// Добавим чтонибудь в клавишу
>
> '<div> Test 2 div>'+
>
> 'content>'+
>
> 'component>'+
>
> 'div>';
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
#### Компиляция
При первом создании объекта происходит компиляция Шаблона и Js«класса» в js функцию которая создает объект. При этом с помощью декларации компонента проверяются названия свойств, события и т.д.
[](http://imageshost.ru/)
— слайд 7 —
Вызвав эту функцию, на выходе мы получаем jQuery объект, который содержит:
* все методы js«класса»
* объект Components в который будут помещены jQuery обьекты (теги, компоненты) отмеченые атрибутом «name»
* объект Events который будет содержать все забинденые события
Далее поместив объект в DOM страницы необходимо вызвать метод Init(), по умолчанию этот метод вызовет метод Init() у всех вложеных компонентов.
#### Производительность
Так что насчет производительности? Для тестов был взят простой объект:
``> <div class="menu“>
>
> <div class="menu-background"/>
>
> <span name="text" class="menu-text"/>
>
> div>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Суть теста в том что бы создать 1000 — у объектов, установить в span.menu-text текст «ТЕСТ».
Тест проводился на FF3.0.3, AMD 64x2 4800+, 2.51ГГц, 2Gb RAM, WinXP SP2
[](http://imageshost.ru/)
[](http://imageshost.ru/)
— слайд 9 —
jsMVC,SetText() — получил высокую производительность, так как метод SetText устанавливает текст через innerHTML.
DOM,innerHTML — создание всех элементов через createElement и т.д.,
jQuery + innerHtml — создание основного элемента и заполнение его через innerHTML, результат практически совпадает с полным созданием шаблона через jQuery
Полная статистика:
Time:**700 ms** Name: "**jQuery**", $(Template), $(TAG.class[@atr="..."]), $().text()
Time:**591 ms** Name: "**jQuery**", $(Template), $(.class), $().text()
Time:**441 ms** Name: "**jQuery**", $(Template), $(obj[0].childNodes[]), $().text()
Time:**463 ms** Name: "**jQuery**", $()[0].innerHtml, $(obj[0].childNodes[]), $().text()
Time:**680 ms** Name: "**jQuery**", $()[0].innerHtml, $(TAG.class[@atr="..."]), $().text()
Time:**565 ms** Name: "**jQuery**", $()[0].innerHtml, $(.class), $().text()
Time:**383 ms** Name: "**jQuery**", $()[0].innerHtml, $(.class), obj[0].innerHTML
Time:**471 ms** Name: "**jQuery**", $()[0].innerHtml, $(#id), obj[0].innerHTML
Time:**484 ms** Name: "**DOM**", createElement(), $(TAG.class[@atr="..."]), $().text()
Time:**391 ms** Name: "**DOM**", createElement(), $(.class), $().text()
Time:**297 ms** Name: "**DOM**", createElement()+innerHtml, $(obj.childNodes[]), $().text()
Time:**261 ms** Name: "**DOM**", createElement(), $(DOMElement), $().text()
Time:**357 ms** Name: "**DOM**", createElement(), $(DOMElement), $().html()
Time:**101 ms** Name: "**DOM**", createElement(), $(DOMElement), innerHTML
Time:**113 ms** Name: "**DOM**", createElement(), $(DOMElement), innerHTML, cache element
Time:**303 ms** Name: "**jsMVC**", $().text()
Time:**129 ms** Name: "**jsMVC**", SetText() — spec object method
#### Итог
* Каждый компонент может содержать множество дочерних компонентов.
* Сокращение времени разработки
* Производительность близка к ручному созданию дом (с оговорками)
* Дизайнеры создают мир, программисты оживляют его.
Проект распространяется под GPLv3
Буду рад критике, багам, идеям и предложениям.
Текущая версия 1.0alpha, есть еще недоделки и баги.
В конце недели будет выпущен [конструктор компонентов](http://jsMVC.net) WYSIWYG (готов на 80%), полностью написаный на jsMVC.
[Исходники](http://code.google.com/p/jsmodelviewcontroller/).
П.С.: я думаю есть куча похожих идей, хочу лишь предложить одну из реализаций.
П.С.2: С анг. языком у меня проблемы, был бы очень рад если бы кто нибудь помог мне перевести эту заметку, если она заинтересует людей.````` | https://habr.com/ru/post/43898/ | null | ru | null |
# Политики управления рабочими нагрузками в Kubernetes

[Control by Matthias-Haker](https://www.deviantart.com/matthias-haker/art/Control-548364683)
В Kubernetes с помощью политик можно предотвратить развертывание определенных рабочих нагрузок в кластере.
Команда разработки [Kubernetes aaS VK Cloud Solutions](https://mcs.mail.ru/containers/) перевела статью о том, как применять такие политики с помощью статических инструментов, например [conftest](https://github.com/open-policy-agent/conftest), и кластерных операторов, например [Gatekeeper](https://github.com/open-policy-agent/gatekeeper).
Когда нужны строгие политики
----------------------------
Чаще всего строгие политики применяют в кластере для соблюдения нормативных требований. Но есть несколько практик, которые не регулируются требованиями, но рекомендуются для администраторов кластеров:
* не запускать привилегированные поды;
* не запускать поды как root-пользователь;
* не указывать лимиты ресурсов;
* не использовать тег latest для образа контейнера;
* не включать дополнительные Linux capabilities по умолчанию.
Кроме того, вам могут понадобиться специальные общие политики, например:
* все рабочие нагрузки должны иметь метки project и app;
* все рабочие нагрузки должны использовать образы контейнеров из определенного реестра контейнеров, например my-company.com.
Существует и третья категория проверок, которые иногда нужно применить в качестве политики, чтобы избежать сбоев в работе сервисов. Например, когда два разных сервиса не должны использовать одно и то же имя хоста ingress.
Мы расскажем о применении политик для рабочих нагрузок Kubernetes с помощью внекластерных и внутрикластерных решений. Эти политики отклоняют рабочие нагрузки, которые не соответствуют заданным условиям.
За пределами кластера это достигают с помощью статических проверок YAML-манифестов перед их отправкой в кластер. Внутри кластера используют проверяющие контроллеры допуска, которые вызываются в составе API-запроса перед сохранением манифеста в базе данных.
По ходу статьи вам может пригодиться [этот Git-репозиторий](https://github.com/amitsaha/kubernetes-policy-enforcement-demo).
Ситуация: Deployment, не соответствующий требованиям
----------------------------------------------------
Рассмотрим следующий YAML-манифест:
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: http-echo
labels:
app: http-echo
spec:
replicas: 2
selector:
matchLabels:
app: http-echo
template:
metadata:
labels:
app: http-echo
spec:
containers:
- name: http-echo
image: hashicorp/http-echo
args: ["-text", "hello-world"]
- name: http-echo-1
image: hashicorp/http-echo:latest
args: ["-text", "hello-world"]
```
Из одного образа этот Deployment создает под, состоящий из двух контейнеров. В первом контейнере не указан никакой тег, во втором — тег `latest.` Фактически оба контейнера используют последнюю версию образа hashicorp/http-echo. Это не самый лучший вариант, и вам необходимо запретить в кластере такое развертывание. Лучше всего прикрепить к образу контейнера тег, например `hashicorp/http-echo:0.2.3.`
Давайте посмотрим, как можно **обнаружить нарушение политики с помощью статической проверки**. Поскольку нам нужно, чтобы ресурс не попал в кластер, эту проверку нужно проводить:
* в качестве Git pre-commit — до передачи ресурса в Git;
* в конвейере CI/CD — до мерджа ветки в основную;
* в конвейере CI/CD — до передачи ресурса в кластер.
Применение политик с помощью Conftest
-------------------------------------
[Conftest](https://conftest.dev/) — это бинарный инструмент и фреймворк для тестирования конфигурационных данных, который можно использовать для проверки манифестов в Kubernetes. Тесты описываются с помощью специализированного языка запросов [Rego](https://www.openpolicyagent.org/docs/latest/policy-language/).
Для установки Conftest следуйте инструкциям на сайте проекта. На момент написания статьи доступна версия Conftest 0.19.0.
Определим две политики:
```
package main
deny[msg] {
input.kind == "Deployment"
image := input.spec.template.spec.containers[_].image
not count(split(image, ":")) == 2
msg := sprintf("image '%v' doesn't specify a valid tag", [image])
}
deny[msg] {
input.kind == "Deployment"
image := input.spec.template.spec.containers[_].image
endswith(image, "latest")
msg := sprintf("image '%v' uses latest tag", [image])
}
```
Догадаетесь, что они проверяют? Оба правила применяются только к Deployment и предназначены для извлечения имени образа из раздела `spec.container`. Первое правило контролирует, есть ли в образе заданный тег.
```
package main
deny[msg] {
input.kind == "Deployment"
image := input.spec.template.spec.containers[_].image
not count(split(image, ":")) == 2
msg := sprintf("image '%v' doesn't specify a valid tag", [image])
}
deny[msg] {
input.kind == "Deployment"
image := input.spec.template.spec.containers[_].image
endswith(image, "latest")
msg := sprintf("image '%v' uses latest tag", [image])
}
```
Второе правило контролирует, что заданный тег — не `latest`.
```
package main
deny[msg] {
input.kind == "Deployment"
image := input.spec.template.spec.containers[_].image
not count(split(image, ":")) == 2
msg := sprintf("image '%v' doesn't specify a valid tag", [image])
}
deny[msg] {
input.kind == "Deployment"
image := input.spec.template.spec.containers[_].image
endswith(image, "latest")
msg := sprintf("image '%v' uses latest tag", [image])
}
```
Два блока `deny` подтверждают несоответствие, если их значение оказывается `true`.
Обратите внимание: если блоков `deny` несколько, Conftest проверяет их независимо друг от друга, и общий результат — нарушение хотя бы в одном из блоков.
Теперь сохраним файл как `check_image_tag.rego` и выполним `conftest` для манифеста `deployment.yaml:`
```
$ conftest test -p conftest-checks test-data/deployment.yaml
FAIL – test-data/deployment.yaml - image 'hashicorp/http-echo' doesn't specify a valid tag
FAIL – test-data/deployment.yaml - image 'hashicorp/http-echo:latest' uses latest tag
2 tests, 0 passed, 0 warnings, 2 failures
```
Отлично, он обнаружил оба нарушения.
Поскольку Conftest — статический бинарный инструмент, можно запустить проверку до отправки YAML-файла в кластер.
Если вы уже используете конвейер CI/CD для внесения изменений в кластер, то можно добавить еще одно действие, которое проверяет все ресурсы на соответствие политикам Conftest.
Но помешает ли это кому-нибудь отправить Deployment с тегом `latest`? Конечно, любой человек с необходимыми правами **может создать рабочую нагрузку в вашем кластере и пропустить действия конвейера CI/CD**.
Если вы можете успешно выполнить `kubectl apply -f deployment.yaml`, то можно игнорировать Conftest, и кластер будет запускать образы с тегом `latest`.
Как помешать кому-либо обойти ваши политики? К статической проверке можно добавить динамические, развернутые внутри кластера, чтобы отклонить ресурс после его отправки в кластер.
API Kubernetes
--------------
Давайте вспомним, что происходит, когда вы создаете такой под в кластере:
```
apiVersion: v1
kind: Pod
metadata:
name: my-pod
spec:
containers:
- name: sise
image: learnk8s/app:1.0.0
ports:
- containerPort: 8080
```
Далее вы разворачиваете его командой:
```
$kubectl apply -f pod.yaml
```
Потом происходит следующее:
1. Определение YAML отправляется на сервер API и сохраняется в etcd.
2. Планировщик закрепляет под за узлом.
3. kubelet извлекает спецификации пода и создает его.
По крайней мере, таково общее описание. Давайте подробнее рассмотрим, как работает первый пункт:
1. `kubectl apply -f deployment.yaml` используется для отправки запроса в Control Plane для развертывания трех реплик.
2. API получает запрос и данные JSON — `kubectl` преобразовал ресурс YAML в JSON.
3. Сервер API сохраняет определение объекта в базе данных.
4. Определение YAML теперь хранится в etcd.
Но действительно ли под капотом всё так просто? Что произойдет, если в YAML будет опечатка? Что мешает вам отправлять неработающие ресурсы в etcd?
Когда вы набираете `kubectl apply`, в дело вступает двоичный файл kubectl. Он:
1. проверяет ресурс со стороны клиента — нет ли очевидной ошибки;
2. преобразует данные YAML в JSON;
3. считывает конфигурационные данные из KUBECONFIG;
4. отправляет запрос с полезными данными на kube-apiserver.
Когда kube-apiserver получает запрос, он не сразу сохраняет его в etcd. Сначала ему нужно убедиться в легитимности инициатора запроса. Иными словами, [он должен проверить подлинность запроса.](https://kubernetes.io/docs/reference/access-authn-authz/authentication/)
У вас есть разрешение на создание ресурсов после аутентификации? **Ведь аутентификация и авторизация — это не одно и то же**. Доступ к кластеру не означает, что вы можете создавать или считывать все ресурсы.
Для авторизации часто применяется [управление доступом на основе ролей (RBAC)](https://kubernetes.io/docs/reference/access-authn-authz/rbac/). С его помощью можно назначать отдельные разрешения и ограничивать действия пользователя или приложения. На этом этапе аутентификацию и авторизацию выполняет kube-apiserver.
API-сервер часто рассматривают как единый блок. Но это не так, на самом деле он состоит из нескольких компонентов:

Рассмотрим, как взаимодействуют эти компоненты:
1. HTTP-обработчик принимает и обрабатывает HTTP-запросы.
2. Затем API верифицирует вызывающую сторону, спрашивая: «*Вы пользователь кластера?»*
Но даже если вы авторизовались, это не гарантирует доступ ко всем ресурсам. Возможно, вы можете создавать поды, но не секреты. На этом этапе ваша учетная запись пользователя проверяется на соответствие правилам RBAC.
А после этих проверок можно наконец сохранить определение пода в etcd? Не спешите. `kube-apiserver` работает как конвейер. Запрос проходит ряд компонентов и только потом сохраняется в базе данных.
Авторизация и аутентификация — это первые два компонента, но они не единственные. До попадания в базу данных объект перехватывают [контроллеры допуска](https://kubernetes.io/docs/reference/access-authn-authz/admission-controllers/):

На этом этапе можно выполнить дальнейшие проверки текущего ресурса. А в Kubernetes по умолчанию включено множество контроллеров допуска.
Все контроллеры, включенные в minikube, можно проверить с помощью команды `kubectl -n kube-system describe pod kube-apiserver-minikube`. Результат должен содержать флаг`--enable-admission-plugins` и список контроллеров.
Для примера давайте посмотрим на контроллер допуска `NamespaceLifecycle`.
Проверяющие контроллеры допуска
-------------------------------
Контроллер допуска `NamespaceLifecycle` не позволяет создавать поды в еще не существующих пространствах имен.
Под с пространством имен можно определить следующим образом:
```
apiVersion: v1
kind: Pod
metadata:
name: my-pod
namespace: does-not-exist
spec:
containers:
- name: sise
image: learnk8s/app:1.0.0
ports:
- containerPort: 8080
```
Определение YAML допустимо, поэтому после проверки kubectl запрос отправляется в кластер:
```
$ kubectl apply -f pod-namespaced.yaml
```
Предположим, вы прошли проверку подлинности и авторизованы. Тогда запрос попадает на проверку к контроллеру допуска `NamespaceLifecycle`. Пространство имен
```
does-not-exist
```
не существует и в конечном счете отклоняется.
Кроме того, контроллер допуска `NamespaceLifecycle` останавливает запросы, которые могут удалить пространства имен `default`, `kube-system` и `kube-public`.
Контроллеры, которые проверяют действия и ресурсы, относятся к категории **проверяющих (validating)**. Есть и другая категория контроллеров — **изменяющие (mutatuing)**.
Изменяющие контроллеры допуска
------------------------------
Изменяющие контроллеры могут проверять запрос и изменять его. Пример такого контроллера — `DefaultStorageClass`.
Предположим, вам нужно создать Persistent Volume Claim (PVC):
```
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: my-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 3Gi
```
В консоли это выглядит так:
```
$ kubectl apply -f pvc.yaml
```
Если проверить список Persistent Volume Claims с помощью `kubectl get pvc`, то можно заметить, что у тома есть свойство `Bound` и он относится к «стандартному» классу хранилища.
```
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS
my-pvc Bound pvc-059f2da2 3Gi RWO standard
AGE
3s
```
Но вы не задавали никакой «стандартный» StorageClass в файле YAML. Так ведь?
Определение YAML для Persistent Volume Claim можно просмотреть с помощью:
```
$ kubectl get pvc my-pvc -0 yaml
```
Если присмотреться к определению, то можно заметить, что оно содержит несколько дополнительных полей:
```
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: my-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 3Gi
storageClassName: standard
volumeMode: Filesystem
volumeName: pvc-059f2da2-a216-42b7-875e-e7da327605dd
```
Имя standard не закодировано в API. Напротив, имя StorageClass по умолчанию включается в `spec.storageClassName`. Имя StorageClass по умолчанию (default) можно извлечь из кластера следующим образом:
```
$ kubectl get storageclass
NAME PROVISIONER RECLAIMPOLICY
standard (default) k8s.io/minikube-hostpath Delete
VOLUMEBINDINGMODE AGE
Immediate 8m
```
Если имя StorageClass по умолчанию «aws-ebs», то контроллер допуска `DefaultStorageClass` включил бы его вместо имени «standard».
В Kubernetes есть несколько изменяющих и проверяющих контроллеров допуска. [Полный список можно найти в официальной документации](https://kubernetes.io/docs/reference/access-authn-authz/admission-controllers/).
Пройдя проверку контроллеров допуска, запрос сохраняется в etcd. То есть мы можем расширить структуру API-сервера еще несколькими компонентами:

1. Изменяющие контроллеры допуска вызываются первыми.
2. Измененный ресурс направляется на проверку соответствия схеме. Здесь API проверяет корректность ресурса. Под все еще выглядит как под? Все ли нужные поля на месте?
3. На последнем этапе в игру вступают проверяющие контроллеры допуска. После этого компонента ресурс сохраняется в etcd.
Но что если вам нужна специализированная проверка или ресурсы нужно изменять в соответствии с вашими правилами? **Контроллеры допуска поддерживают возможности расширения**.
Вы можете использовать стандартные контроллеры допуска Kubernetes или подключить свои собственные.
Контроллеры доступа MutationAdmissionWebhook и ValidationAdmissionWebhook являются программируемыми — они ничего не делают сами. Компонент можно зарегистрировать на вебхуке Mutation или Validation, и эти контроллеры будут вызывать его, когда запрос оказывается на этапе допуска.

Можно написать компонент, который проверяет, использует ли текущий под образ контейнера, взятый из частного реестра. Можно зарегистрировать его как часть ValidationAdmissionWebhook и принимать или отклонять запросы в зависимости от образа контейнера.
Именно это и делает **Gatekeeper**: он регистрируется в кластере как компонент и проверяет запросы.
Применение политик посредством Gatekeeper
-----------------------------------------
С помощью [Gatekeeper](https://github.com/open-policy-agent/gatekeeper) администратор Kubernetes может внедрять политики, обеспечивающие соблюдение заданных требований в кластере. Gatekeeper регистрируется в качестве контроллера с помощью вебхука проверки в API Kubernetes.

Любой ресурс, отправленный в кластер, перехватывается и проверяется на соответствие списку действующих политик.
Кроме того, Gatekeeper использует родные концепции Kubernetes вроде определения пользовательских ресурсов (CRD), поэтому политики управляются как ресурсы Kubernetes. Чтобы узнать больше по этой теме, ознакомьтесь с [документом Google Cloud](https://cloud.google.com/anthos-config-management/docs/concepts/policy-controller).
Внутри Gatekeeper использует Open Policy Agent (OPA) для реализации основного механизма политик, а сами политики написаны на языке Rego, которым пользуется Conftest.
Теперь опробуем Gatekeeper на практике. Вам понадобится доступ к кластеру Kubernetes с правами администратора, который можно настроить с помощью minikube. Если вы работаете на Windows, можно [воспользоваться нашим удобным руководством по установке minikube и Docker](https://learnk8s.io/installing-docker-kubernetes-windows).
После настройки коммуникации kubectl с кластером настройте Gatekeeper:
```
$ kubectl apply -f https://raw.githubusercontent.com/open-policy-agent/gatekeeper/master/deploy/gatekeeper.yaml
```
Проверьте корректность настройки:
```
$ kubectl -n gatekeeper-system describe svc gatekeeper-webhook-service
Name: gatekeeper-webhook-service
Namespace: gatekeeper-system
Labels: gatekeeper.sh/system=yes
Annotations: ...
Type: ClusterIP
IP: 10.102.199.165
Port: 443/TCP
TargetPort: 8443/TCP
Endpoints: 172.18.0.4:8443
# more output ...
```
Этот сервис вызывается API Kubernetes во время обработки запроса на этапе проверки допуска. Теперь все ваши поды, Deployments, сервисы и т. д. перехватываются и тщательно проверяются Gatekeeper.
Определение многократно используемых политик с помощью ConstraintTemplate
-------------------------------------------------------------------------
В Gatekeeper нужно сначала создать политику с использованием пользовательского ресурса `ConstraintTemplate.`
Рассмотрим пример. Это определение `ConstraintTemplate` отклоняет любое развертывание, использующее тег `latest`:
```
apiVersion: templates.gatekeeper.sh/v1beta1
kind: ConstraintTemplate
metadata:
name: k8simagetagvalid
spec:
crd:
spec:
names:
kind: K8sImageTagValid
targets:
- target: admission.k8s.gatekeeper.sh
rego: |
package k8simagetagvalid
violation[{"msg": msg, "details":{}}] {
image := input.review.object.spec.template.spec.containers[_].image
not count(split(image, ":")) == 2
msg := sprintf("image '%v' doesn't specify a valid tag", [image])
}
violation[{"msg": msg, "details":{}}] {
image := input.review.object.spec.template.spec.containers[_].image
endswith(image, "latest")
msg := sprintf("image '%v' uses latest tag", [image])
}
```
Эта политика похожа на предыдущую, которую мы использовали с Conftest.
Взгляните:
```
package main
deny[msg] {
input.kind == "Deployment"
image := input.spec.template.spec.containers[_].image
not count(split(image, ":")) == 2
msg := sprintf("image '%v' doesn't specify a valid tag", [image])
}
deny[msg] {
input.kind == "Deployment"
image := input.spec.template.spec.containers[_].image
endswith(image, "latest")
msg := sprintf("image '%v' uses latest tag", [image])
}
```
И все же тут есть несколько тонких важных различий. Объект ввода имеет вид `input.review.object`, а не `input`, и здесь нет необходимости заявлять его тип.
```
apiVersion: templates.gatekeeper.sh/v1beta1
kind: ConstraintTemplate
metadata:
name: k8simagetagvalid
spec:
crd:
spec:
names:
kind: K8sImageTagValid
targets:
- target: admission.k8s.gatekeeper.sh
rego: |
package k8simagetagvalid
violation[{"msg": msg, "details":{}}] {
image := input.review.object.spec.template.spec.containers[_].image
not count(split(image, ":")) == 2
msg := sprintf("image '%v' doesn't specify a valid tag", [image])
}
violation[{"msg": msg, "details":{}}] {
image := input.review.object.spec.template.spec.containers[_].image
endswith(image, "latest")
msg := sprintf("image '%v' uses latest tag", [image])
}
```
Правило `deny` переименовано в «нарушение» (`violation`).
В Conftest используется сигнатура правила `Deny[msg] {...}`, а в Gatekeeper — `violation[{"msg": msg}] {...}`.
```
apiVersion: templates.gatekeeper.sh/v1beta1
kind: ConstraintTemplate
metadata:
name: k8simagetagvalid
spec:
crd:
spec:
names:
kind: K8sImageTagValid
targets:
- target: admission.k8s.gatekeeper.sh
rego: |
package k8simagetagvalid
violation[{"msg": msg, "details":{}}] {
image := input.review.object.spec.template.spec.containers[_].image
not count(split(image, ":")) == 2
msg := sprintf("image '%v' doesn't specify a valid tag", [image])
}
violation[{"msg": msg, "details":{}}] {
image := input.review.object.spec.template.spec.containers[_].image
endswith(image, "latest")
msg := sprintf("image '%v' uses latest tag", [image])
}
```
Блок с правилом о нарушении имеет специфическую сигнатуру — объект с двумя свойствами.
Первое свойство, `msg` — строка, второе — объект `details`, который включает произвольные свойства и который можно дополнить любым значением. В нашем случае это пустой объект.
Оба используются как возвращаемые значения:
```
apiVersion: templates.gatekeeper.sh/v1beta1
kind: ConstraintTemplate
metadata:
name: k8simagetagvalid
spec:
crd:
spec:
names:
kind: K8sImageTagValid
targets:
- target: admission.k8s.gatekeeper.sh
rego: |
package k8simagetagvalid
violation[{"msg": msg, "details":{}}] {
image := input.review.object.spec.template.spec.containers[_].image
not count(split(image, ":")) == 2
msg := sprintf("image '%v' doesn't specify a valid tag", [image])
}
violation[{"msg": msg, "details":{}}] {
image :=
input.review.object.spec.template.spec.containers[_].image
endswith(image, "latest")
msg := sprintf("image '%v' uses latest tag", [image])
}
```
Теперь создаем `ConstraintTemplate`:
```
$kubectl apply -f templates/check_image_tag.yaml
constrainttemplate.templates.gatekeeper.sh/k8simagetagvalid created
```
Можно запустить `kubectl describe`, чтобы направить запрос к шаблону из кластера:
```
$ kubectl describe constrainttemplate.templates.gatekeeper.sh/k8simagetagvalid
Name: k8simagetagvalid
Namespace:
Labels:
Annotations: kubectl.kubernetes.io/last-applied-configuration: {"apiVersion":"templates.gatekeeper.sh/v1beta1","kind":"ConstraintTemplate","metadata": {"annotations":{},"name":"k8simagetagvalid"},"spec"...
API Version: templates.gatekeeper.sh/v1beta1
Kind: ConstraintTemplate
# more output ...
```
Однако `ConstraintTemplate` нельзя использовать для проверки развертываний. Это просто определение политики, которая может быть реализована только путем создания Constraint.
Создание ограничения
--------------------
Constraint — это способ показать: «Я хочу применить эту политику к кластеру». `ConstraintTemplates` можно сравнить с книгой рецептов. Рецептов печенья и выпечки может быть сотни, но ими сыт не будешь. Чтобы испечь торт, нужно выбрать рецепт и смешать ингредиенты. Ограничения — это частный случай `ConstraintTemplate`.
Рассмотрим пример. Следующее ограничение `Constraint` использует ранее определенный `ConstraintTemplate` (рецепт) K8sImageTagValid:
```
apiVersion: constraints.gatekeeper.sh/v1beta1
kind: K8sImageTagValid
metadata:
name: valid-image-tag
spec:
match:
kinds:
- apiGroups: ["apps"]
kinds: ["Deployment"]
```
Обратите внимание: `Constraint` ссылается на `ConstraintTemplate` и на то, к какому типу ресурсов его следует применить.
Объект `spec.match` определяет рабочие нагрузки, к которым применяется ограничение. Здесь у нас указано, что оно применяется к группе `API apps`, тип `Deployment`. Поскольку эти поля являются массивами, для них можно указать несколько значений и расширить проверки до StatefulSets, DaemonSets и т. д.
Сохраните вышеуказанное содержимое в новый файл и назовите его `check_image_tag_constraint.yaml`. Выполните `kubectl apply`, чтобы создать ограничение:
```
$ kubectl apply -f check_image_tag_constraint.yaml
k8simagetagvalid.constraints.gatekeeper.sh/valid-image-tag created
```
С помощью kubectl describe убедитесь, что ограничение было создано:
```
$ kubectl describe k8simagetagvalid.constraints.gatekeeper.sh/valid-image-tag
Name: valid-image-tag
Namespace:
Labels:
Annotations: kubectl.kubernetes.io/last-applied-configuration:
{"apiVersion":"constraints.gatekeeper.sh/v1beta1","kind":"K8sImageTagValid","metadata:
{"annotations":{},"name":"valid-image-tag"},"spec":...
API Version: constraints.gatekeeper.sh/v1beta1
Kind: K8sImageTagValid
Metadata:
Creation Timestamp: 2020-07-01T07:57:23Z
# more output...
```
Тестируем политику
------------------
Теперь давайте протестируем Deployment с двумя образами контейнеров:
```
$ kubectl apply -f deployment.yaml
Error from server ([denied by valid-image-tag] image 'hashicorp/http-echo' doesn't specify a valid tag
[denied by valid-image-tag] image 'hashicorp/http-echo:latest' uses latest tag): error when creating
"test-data/deployment.yaml": admission webhook "validation.gatekeeper.sh" denied the request:
[denied by valid-image-tag] image 'hashicorp/http-echo' doesn't specify a valid tag
[denied by valid-image-tag] image 'hashicorp/http-echo:latest' uses latest tag
```
Развертывание отклоняется политикой Gatekeeper. Обратите внимание, что проверка встроена в API Kubernetes. **Ее нельзя пропустить или обойти.**
Внедрение политик Gatekeeper в кластере с существующими рабочими нагрузками может быть сложным, так как сопряжено с угрозой срыва развертывания критически важных рабочих нагрузок из-за несоответствия требованиям.
Но Gatekeeper позволяет устанавливать ограничения в режиме пробного выполнения с указанием `enforcementAction: dryrun` в спецификации:
```
apiVersion: constraints.gatekeeper.sh/v1beta1
kind: K8sImageTagValid
metadata:
name: valid-image-tag
spec:
enforcementAction: dryrun
match:
kinds:
- apiGroups: ["apps"]
kinds: ["Deployment"]
```
В этом режиме политика не мешает развертыванию рабочих нагрузок, но регистрирует и фиксирует все нарушения в поле `Violations` команды `kubectl describe`:
```
$ kubectl describe k8simagetagvalid.constraints.gatekeeper.sh/valid-image-tag
Name: valid-image-tag
Namespace:
Labels:
Annotations: kubectl.kubernetes.io/last-applied-configuration:
....
Total Violations: 2
Violations:
Enforcement Action: dryrun
Kind: Deployment
Message: image 'hashicorp/http-echo' doesn't specify a valid tag
Name: http-echo
Namespace: default
Enforcement Action: dryrun
Kind: Deployment
Message: image 'hashicorp/http-echo:latest' uses latest tag
Name: http-echo
Namespace: default
Events:
```
Убедившись, что все манифесты соответствуют требованиям, можно убрать режим «пробного выполнения» и активно предотвращать нарушения.
А можно ли написать политику, согласно которой у Deployment должно быть две метки: `project` по текущему проекту и `app` для имени приложения?
Политика по обеспечению единообразных меток
-------------------------------------------
Сначала нужно применить политику как проверку `conftest`:
```
package main
deny[msg] {
input.kind == "Deployment"
required := {"app", "project"}
provided := {label | input.metadata.labels[label]}
missing := required - provided
count(missing) > 0
msg = sprintf("you must provide labels: %v", [missing])
}
```
Давайте рассмотрим политику подробнее. `required` — это набор с двумя компонентами: `app` и `project`. Эти метки должны быть представлены во всех развертываниях.
```
package main
deny[msg] {
input.kind == "Deployment"
required := {"app", "project"}
provided := {label | input.metadata.labels[label]}
missing := required - provided
count(missing) > 0
msg = sprintf("you must provide labels: %v", [missing])
}
```
`provided`извлекает набор меток, указанный во входных параметрах.
```
package main
deny[msg] {
input.kind == "Deployment"
required := {"app", "project"}
provided := {label | input.metadata.labels[label]}
missing := required - provided
count(missing) > 0
msg = sprintf("you must provide labels: %v", [missing])
}
```
Затем выполняется операция разности множеств и создается новое множество, содержащее метки, которые присутствуют в `required`, но отсутствуют в `provided`.
```
package main
deny[msg] {
input.kind == "Deployment"
required := {"app", "project"}
provided := {label | input.metadata.labels[label]}
missing := required - provided
count(missing) > 0
msg = sprintf("you must provide labels: %v", [missing])
}
```
Если количество элементов в этом множестве больше 0, то правило нарушено. Это достигается за счет использования функции `count()` для проверки количества элементов в множестве `missing`. Выполните Conftest, указав эту политику, и вы увидите ошибку:
```
$ conftest test -p conftest-checks/check_labels.rego test-data/deployment.yaml
FAIL - test-data/deployment.yaml - you must provide labels: {"project"}
1 test, 0 passed, 0 warnings, 1 failure
```
Проблему можно исправить, добавив метки `project` и `app`:
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: http-echo
labels:
app: http-echo
project: test
spec:
replicas: 2
selector:
matchLabels:
app: http-echo
template:
metadata:
labels:
app: http-echo
spec:
containers:
- name: http-echo
image: hashicorp/http-echo
args: ["-text", "hello-world"]
ports:
- containerPort: 5678
- name: http-echo-1
image: hashicorp/http-echo:latest
args: ["-text", "hello-world"]
ports:
- containerPort: 5678
```
Что происходит, если развернуть ресурс непосредственно в кластере? Политику можно будет обойти. Давайте добавим ту же политику в Gatekeeper.
Сначала создайте `ConstraintTemplate`:
```
apiVersion: templates.gatekeeper.sh/v1beta1
kind: ConstraintTemplate
metadata:
name: k8srequiredlabels
spec:
crd:
spec:
names:
kind: K8sRequiredLabels
validation:
# Schema for the `parameters` field
openAPIV3Schema:
properties:
labels:
type: array
items: string
targets:
- target: admission.k8s.gatekeeper.sh
rego: |
package k8srequiredlabels
violation[{"msg": msg, "details": {"missing_labels": missing}}] {
provided := {label | input.review.object.metadata.labels[label]}
required := {label | label := input.parameters.labels[_]}
missing := required - provided
count(missing) > 0
msg := sprintf("you must provide labels: %v", [missing])
}
```
Из приведенного выше манифеста видно, как указать входные параметры для шаблона `constraint`, чтобы настроить его поведение во время выполнения.
Возвращаясь к нашему сравнению `ConstraintTemplate` с рецептом, с помощью входных параметров можно выбирать определенные ингредиенты рецепта. Однако эти ингредиенты должны соответствовать некоторым правилам.
Например, можно разрешить только массив строк в качестве входных данных для функции `ConstraintTemplate`. Можно описать входные параметры по схеме OpenAPIV3 в объекте `validation` в `ConstraintTemplate`:
```
apiVersion: templates.gatekeeper.sh/v1beta1
kind: ConstraintTemplate
metadata:
name: k8srequiredlabels
spec:
crd:
spec:
names:
kind: K8sRequiredLabels
validation:
# Schema for the `parameters` field
openAPIV3Schema:
properties:
labels:
type: array
items: string
targets:
- target: admission.k8s.gatekeeper.sh
rego: |
package k8srequiredlabels
violation[{"msg": msg, "details": {"missing_labels": missing}}] {
provided := {label | input.review.object.metadata.labels[label]}
required := {label | label := input.parameters.labels[_]}
missing := required - provided
count(missing) > 0
msg := sprintf("you must provide labels: %v", [missing])
}
```
Эта схема определяет, что шаблон `constraint` должен иметь только один параметр, `labels`, который представляет собой массив строк. Все предоставленные входные параметры доступны ограничению через атрибут `input.parameters`.
Сохраните приведенный выше манифест в файл `check_labels.yaml`, а затем выполните `kubectl apply`, чтобы создать шаблон constraint:
```
$ kubectl apply -f check_labels.yaml
constrainttemplate.templates.gatekeeper.sh/k8srequiredlabels created
```
Чтобы использовать политику из `ConstraintTemplate`, нужен Constraint. Создайте новый файл `check_labels_constraints.yaml` со следующим содержимым:
```
apiVersion: constraints.gatekeeper.sh/v1beta1
kind: K8sRequiredLabels
metadata:
name: deployment-must-have-labels
spec:
match:
kinds:
- apiGroups: ["apps"]
kinds: ["Deployment"]
parameters:
labels: ["app", "project"]
```
Выполните `kubectl apply`, чтобы создать ограничение:
```
$ kubectl apply -f check_labels_constraints.yaml
k8srequiredlabels.constraints.gatekeeper.sh/deployment-must-have-labels created
```
На этом этапе в вашем кластере создано два ограничения:
1. **Первое ограничение** проверяет, использует ли развертывание образ с допустимым тегом.
2. **Второе ограничение** проверяет, использует ли развертывание две метки: `app` и `project`.
Теперь попробуйте создать развертывание, описанное в начале статьи:
```
$ kubectl apply -f deployment.yaml
Error from server ([denied by deployment-must-have-labels] you must provide labels: {"project"}
[denied by valid-image-tag] image 'hashicorp/http-echo' doesn't specify a valid tag
[denied by valid-image-tag] image 'hashicorp/http-echo:latest' uses latest tag): error when creating
"deployment.yaml": admission webhook "validation.gatekeeper.sh" denied the request:
[denied by deployment-must-have-labels] you must provide labels: {"project"}
[denied by valid-image-tag] image 'hashicorp/http-echo' doesn't specify a valid tag
[denied by valid-image-tag] image 'hashicorp/http-echo:latest' uses latest tag
```
Создать развертывание не удается, поскольку у него нет необходимой метки `project` и оно не использует допустимый тег образа. Готово!
Правильный манифест развертывания, которое будет успешно развернуто, имеет две метки (`app` и `project`), а также образы с тегами использования:
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: http-echo
labels:
app: http-echo
project: test
spec:
replicas: 2
selector:
matchLabels:
app: http-echo
template:
metadata:
labels:
app: http-echo
spec:
containers:
- name: http-echo
image: hashicorp/http-echo:0.2.3
args: ["-text", "hello-world"]
ports:
- containerPort: 5678
- name: http-echo-1
image: hashicorp/http-echo:0.2.1
args: ["-text", "hello-world"]
ports:
- containerPort: 5678
```
Вы проверили Deployment с помощью статической и динамической проверки. Статическая на ранних этапах может быстро выявить нарушение правил, и при этом никто не обойдет политику, отправляя ресурсы непосредственно в кластер.
Заключение
----------
И Conftest, и Gatekeeper используют язык Rego для определения политик, именно поэтому эти два инструмента становятся привлекательным решением для применения внекластерных и внутрикластерных проверок соответственно.
Но, как мы видели выше, чтобы **политика Conftest Rego работала с Gatekeeper, необходимо внести несколько изменений**. Проект [konstraint](https://github.com/plexsystems/konstraint) призван в этом помочь. В его основе лежит идея, что ваш источник истины — это написанная на Rego политика для Conftest, согласно которой генерируются ресурсы `ConstraintTemplate` и `Constraint` для Gatekeeper.
**Konstraint автоматизирует ручные действия, связанные с преобразованием политики, написанной для Conftest, в политику, которая работает в Gatekeeper**.
Кроме того, konstraint упрощает тестирование шаблонов constraint и создание ограничений в Gatekeeper.
Conftest и Gatekeeper — это не единственные решения для применения внекластерных и внутрикластерных политик. Привлекательность этих двух решений заключается в том, что для применения политик можно использовать Rego для обоих инструментов. Можно даже пойти дальше и реализовать подмножество соответствующих политик внутри кластера и за его пределами.
Такой же уровень применения политик достигается с помощью аналогичного решения [polaris](https://github.com/FairwindsOps/polaris), в котором реализованы функциональные возможности применения внекластерной и внутрикластерной политики.
> Мы развиваем наш [собственный Kubernetes aaS](https://mcs.mail.ru/containers/), о нем [рассказывали в этой статье](https://habr.com/ru/company/mailru/blog/519366/). И у нас тоже есть Gatekeeper, который позволяет реализовать управление рабочими нагрузками. Будем признательны, если вы его протестируете и дадите обратную связь. Для тестирования пользователям при регистрации начисляем 3000 бонусных рублей.
**Что еще почитать:**
1. [Рабочие узлы Kubernetes: много маленьких или несколько больших?](https://habr.com/ru/company/mailru/blog/484334/)
2. [Устранение неполадок в Kubernetes: в каком направлении двигаться, если что-то идет не так](https://mcs.mail.ru/blog/troubleshooting-kubernetes)
3. [Telegram-канал с новостями о Kubernetes](https://t.me/k8s_mail) | https://habr.com/ru/post/646463/ | null | ru | null |
# Большие изображения на сайте для пользователей с Retina Display — retina.js
Новый iPad уже появился в магазинах, не говоря уже про братьев iPhone 4S и iPhone 4, которыми многие давно и успешно пользуются, а вот сайтов, учитывающих возможности отображения дисплеями этих устройств картинок в высоком разрешении, пока не так много. Но есть простой вариант, как сделать свой сайт соответственно тренду «отзывчивым», или на их манер: *responsive*.
Как-то, примерно год назад, один знакомый фотограф жаловался, мол, приходится уменьшать фотографии, теряя детали, в которых кроется вся соль, мол разрешение экранов таково, что точки *слишком* заметны. iPhone 4 он отверг по причине «кропа» — несмотря на достойное физическое разрешение, на таком дисплейчике помещается лишь часть фотографии. Дальше он переключился на камеры с кропнутыми матрицами и тем, что получается даже при использовании хороших объективов, но меня зацепила та часть, которая касалась отображения картинок, а именно отсутствием возможности качественно показать изображение с экрана, не уменьшая размеров картинки до лилипутских.
И вот пришёл большой iPad!

Но шутки шутками, а новый iPad действительно позволил показывать цифровые фотографии ближе к тому, какими мы их привыкли видеть, и это здорово. Но оказалось, что в Интернете практически нет сайтов, где большие изображения нормально используются в контенте и оформлении.
Решение есть, и оно не потребует переделывать сайты полностью, потребуется лишь незначительная доработка.
Во-первых, наши зарубежные коллеги подошли к решению задачи донесения highres-изображений, опираясь на букву закона, а именно на [Drawing and Printing Guide for iOS](http://developer.apple.com/library/ios/#documentation/2DDrawing/Conceptual/DrawingPrintingiOS/SupportingHiResScreens/SupportingHiResScreens.html), где присутствует автоматическая поддержка отображения изображений в высоком разрешении (`@2x`). Требуется лишь предоставить эти большие картинки и сказать о том, что они есть. Конечно, большие изображения будут загружены только тогда, когда в них есть потребность, пользователи обычных и привычных устройств с разрешением около 72dpi не будут скачивать весомых картинок впустую.
Во-вторых, они решили такую задачу лаконично, да ещё и в двух вариантах.
#### Для Javascript
Предлагается загрузить **retina.js** (1,63 Кб) на сервер и вызвать его в футере, недалеко от закрывающего тега завершения тела документа. Вызов стандартный:
#### Для LESS
Придуман понятный без лишних объяснений синтаксис:
`.at2x(@path, [optional] @width: auto, [optional] @height: auto);`
Нужно подключить (включить в состав своей таблицы стилей LESS) кусочек кода, содержащегося в файле **retina.less** из архива с сайта <http://retinajs.com/> и после этого пользоваться всей мощью конструкций типа:
`#something
{ .at2x('/images/image.png', 200px, 100px); }`
Превращающихся чудесным образом в подробные инструкции по отображению имеющихся у вас вариантов изображений для разного типа дисплеев:
`#something
{ background-image: url('/images/image.png');
}
@media all and (-webkit-min-device-pixel-ratio: 1.5) {
#something {
background-image: url('/images/image@2x.png');
background-size: 200px 100px;
}
}`
#### Результат
Например, у вас на странице есть интересная картинка:
```
![]()
```
При выводе скрипт проверит, есть ли большая картинка `"/images/boobs@2x.png"`, и если есть (и вы с экраном, поддерживающем большое физическое разрешение), отобразит её. | https://habr.com/ru/post/144573/ | null | ru | null |
# Трюки в консоли. Крутые однострочники

Много говорилось об удовольствии, которое испытываешь при работе в консоли. Это не случайно: [так задумано отцами-основателями Unix](https://habr.com/ru/company/vdsina/blog/552536/). Возникает странное ощущение, что это самый правильный способ взаимодействия с компьютером.
Более того, такое же приятное ощущение возникает при использовании горячих клавиш в *любых* приложениях, даже с графическим интерфейсом.
В чём же дело?
Экзотический манипулятор
========================
Изначально трекболы использовались для особых профессиональных приложений: например, для систем управления радарами. Мышь как перевёрнутый трекбол, накрытый коробкой, придумали в 1980-е годы. В то время программисты не совсем понимали, зачем компьютеру мышь, если код пишется в виде машинных команд, а взаимодействие с мейнфреймом целиком происходит в консоли.
Необычные манипуляторы с колёсиком стоили в районе 400 долларов. Затем вышел революционный компьютер Apple Lisa — один из первых ПК с графическим интерфейсом. Компания Apple демпинговала — она снизила стоимость манипулятора до 25 долларов и сделала «сексуальный» дизайн с одной кнопкой. Мышь из профессионального аксессуара превратилась в массовый гаджет.

*Apple Lisa. Очень элегантный дизайн для своего времени*
С тех пор мышь и GUI стали прочно ассоциироваться с компьютерами Apple и модным оконным интерфейсом.
Вскоре появилась Windows. Затем первые игры с поддержкой мыши, например, для более точного движения персонажа… Возникает впечатление, что компьютерные игры постоянно стимулировали технический прогресс, в том числе производительность CPU, GPU, ёмкость накопителей, популярность мышей и других экзотических манипуляторов.
Геймеры вечно недовольны текущей производительностью персональных компьютеров и непрерывно требуют от индустрии наращивать мощность железа. Если посмотреть, кто собирает самые производительные конфигурации ПК и покупает самые мощные версии десктопных процессоров, то это будут сотни любителей рекордных FPS, парочка учёных с машинным обучением и один программист, который каждый день что-то билдит и компилирует. Да и то, трём последним персонажам компьютер нужен конкретно для работы, так что они не всегда вкладываются собственными деньгами, как геймеры.
Если бы не компьютерные игры, то производители процессоров могли сосредоточиться исключительно на серверных CPU. В самом деле, армия бухгалтеров, экономистов и прочих офисных клерков спокойно посидят на компьютерах 20-летней давности, [которые их полностью устраивают](https://habr.com/ru/company/vdsina/blog/557752/). Они вообще не в курсе, какое железо стоит внутри «процессора» (так они называют системный блок). Зато не отрывают руку от любимой мышки. Отними у офисного клерка мышь — и он будет несколько минут тупо пялиться в монитор и бессмысленно дёргать рукой, не в силах совершить ни одного полезного действия, словно под седативными веществами.
В наше время редко встретишь компьютер без мыши. А вот удовольствие от работы в консоли осталось.
На форумах и в блогах пользователи Linux [делятся любимыми однострочниками](https://muhammadraza.me/2021/Oneliners/) и [другими трюками](https://mhoffman.github.io/2015/05/21/how-to-navigate-directories-with-the-shell.html), которые повышают эффективность рабочего процесса. Есть даже отличный сайт с [голосованием за однострочники](https://www.commandlinefu.com/commands/browse/sort-by-votes).
Крутые однострочники
====================
Вот некоторые примеры интересного использования программ Linux.
```
ps aux | convert label:@- process.png
```
Команда конвертирует выдачу из консоли в изображение. Например, чтобы поделиться с коллегами в виде скриншота. Сама идея скриншотить текст некоторым кажется концептуально неправильной, но в некоторых случаях так просто быстрее и удобнее. В наше время с распространением смартфонов и планшетов скриншоты становятся чуть ли не стандартом для копирования текста с экрана, что немного печалит, если воспринимать это как намёк на [закат универсальных компьютеров](https://habr.com/ru/company/vdsina/blog/548556/)…
Примечание. Утилита `convert` входит в пакет [ImageMagick](https://imagemagick.org/index.php), так что нужно сначала его установить.
А вообще, текст из консоли можно быстро запостить через интернет-сервис вроде [termbin.com](http://termbin.com/) (это как pastebin, только для консоли):
```
ps aux | nc termbin.com 9999
```
Как обычно, с алиасом для частого использования:
```
alias tb='nc termbin.com 9999'
```
Следующая:
```
curl ipinfo.io
```
Это если хотите узнать свой внешний IP-адрес через сервис [ipinfo.io](https://ipinfo.io/).
```
git log --format='%aN' | sort -u
```
Очень удобная команда, если работаете над опенсорсным проектом и хотите посмотреть контрибуторов.
```
history | awk '{print $2}' | sort | uniq -c | sort -rn | head
```
Отсортированный список самых часто запускаемых команд (тоже полезно добавить в алиасы, чтобы запускать в пару нажатий).
```
ls -d */
```
Листинг только директорий. Полезная команда, которой тоже хорошо бы присвоить алиас для быстрого использования.
```
du -hs */ | sort -hr | head
```
Эта команда показывает только 10 крупнейших директорий в текущем каталоге.
```
ss -p
```
Просмотр, какие приложения потребляют трафик (утилиты `iftop` и `nethogs` дают более подробную информацию).
```
rm -f !(test.txt)
```
Команда удаляет из директории все файлы, кроме одного, указанного в скобках. Это работает после включения [расширенной глобуляции](https://www.linuxjournal.com/content/bash-extended-globbing) в баше (`shopt -s extglob`).
```
python3 -m http.server
```
Запускает http-сервер и начинает отдавать файлы. Удобно, если хотите пошарить какой-то html-файл по сети.
```
screen -S the-screen-name
```
Создание экран-сессии.
```
screen -x the-screen-name
```
Подключение к экран-сессии. Такую сессию можно принудительно создать у пользователя после его авторизации в системе — и наблюдать, что происходит на его экране. Полезно, если кто-то подключился к вашему серверу, а вы хотите посмотреть, чем он занимается.
Утилита `screen` поставляется по умолчанию со многими дистрибутивами Linux, хотя не со всеми.
```
alias copy='xclip -i -selection clipboard'
```
```
cat file.txt | copy
```
Копирование файла в буфер обмена, когда первый однострочник прописан как алиас `copy` в баше.
```
sudo !!
```
Запустить последнюю команду под рутом, если в предыдущей команде вы забыли набрать `sudo`. У этой команды первое место в [рейтинге однострочников](https://commandlinefu.com/).
Конечно, здесь просто примеры. Прелесть линуксовой консоли в том, что можно самому *придумать* такую последовательность команд, которую никто вообще никогда не использовал, но вам нужен именно этот конвейер в данной ситуации.
Горячие клавиши как наследие консоли
====================================
В графических программах под Windows тоже зачастую хочется сделать работу горячими клавишами, не трогая этот «эппловский» манипулятор. На самом деле использование «горячих клавиш» очень ускоряет рабочий процесс в любой программе.
Алиасы bash служат той же цели: выполнить команду с наименьшим количеством усилий, то есть с наименьшим количеством нажатий клавиш.
Взаимодействие с машиной у опытного специалиста происходит практически со световой скоростью. Скорость ограничивается только временем обработки команд на CPU и скоростью вывода текста в консоль, то есть скоростью графической подсистемы. А с сетевыми задержками **компьютер работает медленнее, чем человек**. Это идеал производительности человека.
Если подняться на более высокий уровень абстракций, то горячие клавиши в графических интерфейсах — это в каком-то смысле дальний потомок консоли, некое историческое «эхо». С горячими клавишами, однострочниками и алиасами в баше человек становится «быстрее компьютера» — приходится делать паузы, чтобы дождаться результата выполнения команд. CPU загружен практически на 100%.
Это фундаментальное преимущество клавиатуры как инструмента для ввода команд по сравнению с любыми манипуляторами. В этом же и сила консоли.
Конечно, не все команды вызываются хоткеями. Иногда требуется переместить графический объект на экране… Тогда нужен курсор. Но если хоткей *существует*, он без вариантов быстрее, чем аналогичное действие мышью в меню. Горячие клавиши — живое доказательство, что команды с клавиатуры запускаются быстрее.
В общем, из этого факта может родиться предположение, что отцы-основатели Unix всё-таки были правы, а **их наследие живёт во всех операционных системах**. Графическая оболочка — просто тонкий слой абстракции поверх мощного фундамента, который они построили. Ведь мы помним, что macOS тоже основана на Unix и относится к семейству \*nix-систем.
Ну а окошки и другие элементы графического интерфейса Windows, по мнению Apple, — это вторичный продукт, скопированный с интерфейса Lisa (см. [судебный процесс Apple против Microsoft c 1988 по 1994 гг](https://en.wikipedia.org/wiki/Apple_Computer,_Inc._v._Microsoft_Corp.)).
Суд отклонил иск Apple к Microsoft. Но некоторые вещи обращают на себя внимание. Например, команда `open .` в консоли macOS открывает Finder в текущей директории. В Windows то же самое делает команда `start .` (Finder здесь называется Explorer). Окна в macOS закрываются крестиком в левом верхнем углу, а в Windows — в правом углу. Возможно, на примере таких деталей Билл Гейтс доказал суду, что у него «оригинальный» графический интерфейс, который «сильно» отличается от macOS.
Скопирован графический интерфейс или нет, формально неизвестно. Но факт в том, что это просто тонкая оболочка над системой. Так же как и мышка — удобный, но совсем не обязательный аксессуар.
---
#### На правах рекламы
Наша компания предлагает аренду [VPS](https://vdsina.ru/cloud-servers?partner=habr395) для совершенно любых проектов. Создайте собственный тарифный план в пару кликов, максимальная конфигурация позволит разместить практически любой проект — 128 ядер CPU, 512 ГБ RAM, 4000 ГБ NVMe!
Присоединяйтесь к [нашему чату в Telegram](https://t.me/vdsina).
[](https://vdsina.ru/cloud-servers?partner=habr395) | https://habr.com/ru/post/559464/ | null | ru | null |
# Взлом reCAPTCHA v2
Назойливая игра - разметка данных для google. Если, занимаетесь сбором доступной информации с ресурсов, не принадлежащим вам, и не сумели реализовать решение для преодоления этой преграды, советы от начинающего разработчика вам помогут. Опишу один из способов, основанный на детекторе объектов, хорошо справляется с типом 4x4, хуже с 3x3. Использую архитектуру YOLO, "золотая середина" точности/производительности, подход одинаков для всех детекторов. В коммерческом продукте стоит использовать "ансамбль" нейронных сетей, к детектору добавить классификацию каждой ячейки, это повысит общую точность с приемлемой производительностью. Также эту задачу можно решить, использую обучение с подкреплением A2C/DQN или любую современную архитектуру, трансформеры, генеративно-состязательные сети.
#### Примерный алгоритм
1. Поиск позиции кнопки
2. Имитация движения мыши к координатам кнопки "Я не робот"
3. Имитация нажатия кнопки "Я не робот"
4. Получение картинки ( с сервера google, посылается целой )
5. Получение класса искомого объекта ( из html )
6. Получение координат ячеек ( из html )
7. Решение
8. Активация ячеек исходя из решения
9. Нажатие готово/далее/подтвердить
10. Обработать
Если reCaptcha продолжается, повторить с 4 по 10.
#### Полезные инструменты в Python
* pynput
* selenium
* numpy
* tensorflow
* opencv
* scipy
* beautiful soup, можно обойтись одним selenium
*Код найден в просторах моей нейронной сети, значит что то видел в интернет сети, живу не в вакууме*
```
from selenium import webdriver
from selenium.webdriver.firefox.options import Options
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.action_chains import ActionChains
from selenium.webdriver.common.by import By
from pynput.mouse import Button, Controller
import scipy.interpolate as si
import numpy as np
import cv2
import time
import random
import os
import io
import base64
# использование B-сплайна для имитации человеческих движений мыши
def human_like_mouse_move(action, start_element):
points = [[6, 2], [3, 2],[0, 0], [0, 2]];
points = np.array(points)
x = points[:,0]
y = points[:,1]
t = range(len(points))
ipl_t = np.linspace(0.0, len(points) - 1, 100)
x_tup = si.splrep(t, x, k=1)
y_tup = si.splrep(t, y, k=1)
x_list = list(x_tup)
xl = x.tolist()
x_list[1] = xl + [0.0, 0.0, 0.0, 0.0]
y_list = list(y_tup)
yl = y.tolist()
y_list[1] = yl + [0.0, 0.0, 0.0, 0.0]
x_i = si.splev(ipl_t, x_list)
y_i = si.splev(ipl_t, y_list)
startElement = start_element
action.move_to_element(startElement);
action.perform();
c = 5
i = 0
for mouse_x, mouse_y in zip(x_i, y_i):
action.move_by_offset(mouse_x,mouse_y);
action.perform();
print("Move mouse to, %s ,%s" % (mouse_x, mouse_y))
i += 1
if i == c:
break;
# "конфигурирование" selenium
def my_proxy(PROXY_HOST,PROXY_PORT):
fp = webdriver.FirefoxProfile()
fp.set_preference("network.proxy.type", 1)
fp.set_preference("network.proxy.socks",PROXY_HOST)
fp.set_preference("network.proxy.socks_port",int(PROXY_PORT))
fp.update_preferences()
options = Options()
options.headless = True # отключаем визуализацию происходящего
return webdriver.Firefox(executable_path="geckodriver/geckodriver", options=options, firefox_profile=fp)
# с tor прокси, reCaptcha будет вечной,
# хорошо для экспериментов
proxy = my_proxy("127.0.0.1", 9050)
proxy.get("https://www.google.com/search?q=apple")
```
После запроса, по понятным многим причинам, появляется reCaptcha.
```
# reCaptcha отображается в iframe's
# переключение iframe №1
proxy.switch_to.frame(proxy.find_elements_by_tag_name("iframe")[0])
# находим кнопку "Я не робот"
check_box = WebDriverWait(proxy, 10).until(EC.element_to_be_clickable((By.ID ,"recaptcha-anchor")))
time.sleep(2)
# имитируем нажатие кнопки "Я не робот
action = ActionChains(proxy);
human_like_mouse_move(action, check_box)
check_box.click()
time.sleep(2)
```
Получаем информацию для дальнейшей обработки: ссылка на изображение, класс поиска, тип reCaptcha.
```
# переключение iframe №2
proxy.switch_to.default_content()
iframes = proxy.find_elements_by_tag_name("iframe")
proxy.switch_to.frame(iframes[2])
html = proxy.page_source
# получаем ссылку изображения, тип reCaptcha
try:
img_rc = proxy.find_elements_by_xpath('//img[@class="rc-image-tile-33"]')[0]
t_type = 3
except IndexError:
img_rc = proxy.find_elements_by_xpath('//img[@class="rc-image-tile-44"]')[0]
t_type = 4
# получаем искомый класс
try:
required_class = proxy.find_elements_by_xpath('//div[@class="rc-imageselect-desc-no-canonical"]/strong')[0].text
except IndexError:
required_class = proxy.find_elements_by_xpath('//div[@class="rc-imageselect-desc"]/strong')[0].text
time.sleep(2)
```
Скачиваем изображение с сервера, не самым "элегантным способом". Встраиваем код javascript, что бы выполнить XMLHttpRequest, полученный ответ отобразить в canvas, для дальнейшей передачи в python строкой base64. После получения base64, преобразовываем в numpy array. Альтернативное получение изображения, описано в статье <https://habr.com/ru/post/449236/>
```
answ = proxy.execute_script('''
var img = new Image();
var cnv = document.createElement('canvas');
cnv.id = 'tutorial';
img.onload = function(){
cnv.height = img.height;
cnv.width = img.width;
console.log(cnv.width, cnv.height, img.width, img.height);
cnv.getContext('2d').drawImage(img, 0, 0);
}
var request = new XMLHttpRequest();
request.open('GET', arguments[0].src);
request.responseType = 'blob';
request.onload = function() {
var reader = new FileReader();
reader.readAsDataURL(request.response);
reader.onload = function(e){
img.src = e.target.result;
};
};
request.send();
var child = document.body.appendChild(cnv);
''', img_rc)
time.sleep(4)
answ = proxy.execute_script('''
cnv = document.getElementById('tutorial');
return cnv.toDataURL('image/jpeg').substring(22);
''')
nparr = np.asarray(bytearray(io.BytesIO(base64.b64decode(answ)).read()), dtype=np.uint8)
img_np = cv2.imdecode(nparr, cv2.IMREAD_COLOR)
```
Получены все нужные компоненты, для ответа на вопрос: "в каком квадрате находиться искомый объект". На этом ресурсе не целесообразно в очередной раз описывать архитектуру YOLO детектора, поэтому демонстрирую фрагменты кода нужные этой статье.
```
def draw_boxes(image, boxes, scores, labels, classes, detection_size, search_class):
"""
:param boxes, shape of [num, 4]
:param scores, shape of [num, ]
:param labels, shape of [num, ]
:param image,
:param classes, the return list from the function `read_coco_names`
"""
new = np.ones(shape=image.shape, dtype=np.float32)
ans = []
if boxes is None:
return ans, image, new
for i in range(len(labels)): # for each bounding box, do:
bbox, score, label = boxes[i], scores[i], classes[labels[i]]
bbox_text = "%s %.2f" %(label, score)
# convert_to_original_size
detection_size, original_size = np.array(detection_size), np.array(image.shape[1])
ratio = float(original_size) / float(detection_size)
bbox = list((bbox.reshape(2,2) * ratio).reshape(-1))
coord = [abs(int(x)) for x in bbox]
# встраиваем наш плохой код
o0 = coord[0]
o1 = coord[1]
o2 = coord[2]
o3 = coord[3]
# создаем маску искомых объектов
if search_class == label.split('\n')[0]:
new[o1:o3, o0:o2, :] = 2
ans.append(classes[labels[i]])
return ans, image, new
# основная функция для получения ответа
def imcr(i, col, activation_threshold = 1):
answ = []
im_w, im_h, im_c = i.shape
w, h = im_w//col, im_h//col
sZero = i[0:w, 0:h,:].size
num = 0
for wi in range(0, col):
for hi in range(0, col):
num += 1
P_R = (np.sum(i[wi*w:(wi+1)*w, hi*h:(hi+1)*h, :]) / sZero) * 100
P_R = P_R - 100
if activation_threshold < int(P_R):
answ.append(num)
else:
pass
return answ
def ocr(img_np, required_class, t_type):
# img_np -> YOLO -> B,C
# выполняем функцию не максимального подавления
boxes, scores, labels = cpu_nms(B, C, len(classes), max_boxes=1000, score_thresh=0.4, iou_thresh=0.5)
# встроил свой плохой код в чужой код визуализации данных
result, img, z_image = draw_boxes(img_np, boxes, scores, labels, classes, yolo_image_shape, required_class)
# наша основная функция
answ = imcr(np.array(z_image), t_type)
```
Наша основная функция, **imcr(**image\_array, type\_captcha, activation\_threshold**) -** получая маску искомого объект, функция проверяет процент заполнения в каждой ячейке по заданному условию
* **параметры:**image\_array - маска объекта
type\_captcha - тип картинки, пример 4 (4x4)
activation\_threshold - заданное условие активации, по умолчанию 1%
* **возвращает:**номера искомых ячеек в списке
Получаем ответ, имитируем нажатие нужной ячейки, подтверждаем.
```
answ_ocr = ocr(img_np, required_class, t_type)
ids = proxy.find_elements_by_xpath('//td[@class="rc-imageselect-tile"]')
for i in answ_ocr:
ids[i].click()
# поиск кнопки подтверждения
confirm_btn = WebDriverWait(proxy, 4).until(EC.element_to_be_clickable((By.XPATH ,'//button[@id="recaptcha-verify-button"]'))) #Нахожу кнопку
action = ActionChains(proxy);
human_like_mouse_move(action, confirm_btn) # двигать курсор к кнопке
confirm_btn.click() # нажать
```
Это не детальное руководство, а советы с фрагментами кода. Если применять предложенный подход, с другими алгоритмами, точность 93% и выше. Используя детектор, ваша главная задача повысить точность детектора (YOLO, RCNN, SSD). Также, одно из условий успешного обхода google captcha, использование "чистых proxy". У меня не особо получается преобразовывать свои мысли в текст, надеюсь попытка успешна, и моя статья появиться на этом ресурсе. | https://habr.com/ru/post/546464/ | null | ru | null |
# минилинукс
###### Лирическая часть
Кто из нас в детстве не разбирал игрушки, чтоб посмотреть, что же там такое внутри. Я не был исключением. Прошло всего несколько лет, и одной из игрушек стал линукс. Из абстрактного желания «сломать и посмотреть» оно формализовалось в несколько вполне конкретных задач, одной из которых стала найти некую отправную точку — минимальное нечто, которое бы грузилось и давало шелл. Пару раз я начинал собирать lfs, но до конца так и не дошел. Прочел несколько статей про разработку embedded, но там все было чересчур серьезно и по-взрослому: после предложений сооружать окружение для кросс-компиляции под различные архитектуры и удаленной отладки в панике отключал интернет. Пересмотрел несколько mini-livecd, но все они или мегадревние (ядро 2.4 и ниже) или обязательно с графикой и DE, что никак не вписывалось в мое представление об идеальном минидистре для опытов.
И вот не так давно я случайно узнал, что то, что я ищу, называется initramfs и лежит у меня под носом.
###### HOWTO-часть
Зададимся задачей получить маленький, уютненький и, желательно, чем-нибудь полезный дистрибутив, не прилагая особых усилий. По большому счету нам понадобится загрузчик, ядро и образ initramfs. Самый простой способ получить их — вытащить из уже готового дистрибутива. Для того, чтоб сделать его хоть сколь-нибудь полезным вставим туда busybox и настроим несколько сетевых сервисов. Покажу как это проделать с CentOS, но в принципе подойдет любой. Итак, приступим:
Распакуем куда-нибудь initrd:
`mkdir /root/myimage
cd /root/myimage
gzip -d < /boot/initrd-2.6.18-128.el5 | cpio --extract --verbose --make-directories --no-absolute-filenames`
Устанавливаем и копируем busybox в наш минилинукс (busybox ни с чем не линкуется, так что копируем смело)
`yum install busybox
cp -a /sbin/busybox /root/myimage/bin`
Оставляем в init только самый необходимый минимум: создаем procfs и sysfs, основные файлы устройств, загружаем нужные драйвера (для моей сетевой мне понадобилось скопировать их из /lib основного дистрибутива) и запускаем пару сервисов. Вот:
/init
`#!/bin/nash
mount -t proc /proc /proc
mount -t sysfs /sys /sys
mount -o mode=0755 -t tmpfs /dev /dev
mkdir /dev/pts
mount -t devpts -o gid=5,mode=620 /dev/pts /dev/pts
mkdir /dev/shm
mknod /dev/null c 1 3
mknod /dev/zero c 1 5
mknod /dev/systty c 4 0
mknod /dev/tty c 5 0
mknod /dev/console c 5 1
mknod /dev/ptmx c 5 2
mknod /dev/rtc c 10 135
mknod /dev/tty0 c 4 0
mkblkdevs
insmod /lib/libphy.ko
insmod /lib/tg3.ko
mkblkdevs
echo WELCOME!!!
/bin/busybox ln -s /bin/busybox /bin/ash
/bin/busybox ln -s /bin/busybox /bin/telnetd
/bin/busybox ifconfig eth0 192.168.1.1 netmask 255.255.255.0
/bin/busybox httpd
/bin/busybox inetd /etc/inetd.conf
/bin/ash`
/etc/passwd
`root:x:0:0:root:/:/bin/ash`
/etc/inetd.conf
`23 stream tcp nowait root /bin/telnetd telnetd -l /bin/ash`
Собираем initramfs и возвращаем на место:
`find . | cpio -H newc --create --verbose | gzip -9 > /boot/initrd-2.6.18-128.el5`
Вуаля. Наш минилинукс готов. Можно сносить все, кроме директории /boot и перегружаться. Но для пущей надежности перенесем его на флешку:
Допустим флешка определена ядром как /dev/sdb. На ней — всего один fat-раздел. При помощи fdisk сделаем ее загрузочной
`fdisk /dev/sdb`
Проверяем, стоит ли в колонке boot звездочка. Если нет, жмем a, и затем w.
Монтируем флешку куда-нибудь и копируем на нее /boot
`mount /dev/sdb1 /mnt
cp -a /boot /mnt
umount /dev/sdb1`
При помощи grub перезаписываем загрузочный сектор флешки
`grub
>find (hd1,0)/boot/grub/stage2
>root (hd1,0)
>setup (hd0)
>quit`
тут я сделал предположение, что grub «увидел» флешку, как диск 2. Если это не так, find выдаст ошибку (не найдет /boot). Посмотрите результат find (hd2,0)… find (hd3,0)… и т.д., пока не найдете флешку.
###### Итого
Ну вот и все. Перегружаемся, включаем в биосе загрузку со сменных носителей и получаем приглашение командной строки нашего минилинукса. Так же пробуем подсоединиться к 192.168.1.1 telnet-клиентом и открыть в браузере [192.168.1.1/init](http://192.168.1.1/init) Если кто проникся темой создания своего маленького дистрибутивчика, вот несколько направлений для дальнейших исследований:
— Посмотрите утилиты busybox. Там много полезных сетевых сервисов: http,dhcp,tftp,smtp,tod,inetd. Из tar+gzip+ftpput получается отличный «unattended backup». Так же есть масса утилиток для работы с ФС, что позволят Вам создать свой rescue cd.
— Определите больше устройств. Как вы, наверное, заметили, я выбросил из init-скрипта все драйверы дисковых устройств и фс. О!!! И, кстати, hotplug и USB-драйвера тоже отключены, так что если у вас usb-клавиатура, сперва-наперво верните их на место.
Надеюсь, эта статья будет кому-то полезна. | https://habr.com/ru/post/59988/ | null | ru | null |
# Дампим память и пишем maphack

В один из вечеров школьного лета, у меня появилась потребность в мапхаке для DayZ Mod (Arma 2 OA). Поискав информацию по теме, я понял, что связываться с античитом Battleye не стоит, ибо нет ни знаний, ни опыта для обхода защитного драйвера ядра, который вежливо расставил кучу хуков на доступ к процессу игры.
DayZ одна из немногих игр, где расположение важных для игрового процесса объектов, меняется не часто и сохраняется после перезахода(базы не двигаются, большинство техники тоже много времени стоит на месте). Этот факт открывает возможность атаки через дамп оперативной памяти.
Все ссылки в конце.
### Глава 1. Дампим
Получить снимок памяти в рантайме без обхода античита, врядли получится. Поэтому ищем другие тактики. Первое, что находим это [хабрастатья](https://habrahabr.ru/post/211749/), из которой становится понятно куда копать.
#### Попытка 1
Получить образ памяти через описанный в статье хотресет, загрузку с Ubuntu CyberPack (IRF) и получение образа через fmem, мне не удалось, по невыясненным причинам fmem зависал.
Немного погуглив находим альтернативную тулзу, с таким же функционалом LiME ~ Linux Memory Extractor. Теперь её нужно было собрать и запустить на livecd.
Выбор дистрибутива пал на TinyCore(TinyCorePure64, если сдампить нужно более 3 ГБ). Загрузившись с него качаем и устанавливаем пакеты.
```
tce-load -iw linux-kernel-sources-env.tcz
cliorx linux-kernel-sources-env.sh
```
Далее монтируем флешку с сорцами, куда также будем скидывать дамп, собираем через make и получаем образ
```
insmod ./lime.ko "path=/path/mem-image.lime format=lime"
```
Теперь этот файл нужно кому-то скормить, чтобы на выходе получить память нужного нам процесса. Для этого нам должен был подойти Volatility Framework с плагином memdump.
```
vol.py -f F:\mem-image.lime format=lime pslist
vol.py -f F:\mem-image.lime format=lime memdump –dump-dir ./output –p 868
```
Или Rekall Framework, который является его форком и активно развивается, в отличии от самого volatility
```
rekal -f F:\mem-image.lime pslist
rekal -f F:\mem-image.lime memdump dump_dir="./output", pids=868
```
Однако что я бы не делал, заводиться он не захотел и я продолжил копать.
При работе с Rekall на windows 10, при первом поиске чего-либо по дампу может появиться сообщение вида:
```
WARNING:rekall.1:Profile nt/GUID/F6F4895554894B24B4DF942361F0730D1 fetched and built. Please consider reporting this profile to the Rekall team so we may add it to the public profile repository.
```
А в следующий раз, он может упасть с такой ошибкой:
```
CRITICAL:rekall.1:A DTB value was found but failed to verify. See logging messages for more information.
```
Если это произошло, при запуске вам нужно указать параметр --profile со значением профиля, который вам вывело в первый раз.
#### Попытка 2
Для получения наиболее полного снимка памяти можно воспользоваться файлом hiberfil.sys, в который сохраняется вся память при переходе винды в гибернацию.
Здесь всё ещё проще, переходим в режим гибернации, загружаемся с любого livecd (в моём случае, всё тот-же TinyCore), монтируем системный диск(Read-Only) и флешку, копируем нужный файл.
Для TinyCore не забываем установить пакет для поддержки ntfs.
```
tce-load -iw ntfs-3g
```
Через fdisk -l, находим нужные нам логические разделы и монтируем их
```
sudo ntfs-3g -o ro /dev/sda2 /tmp/a1 //Системный диск с Read-Only
sudo ntfs-3g /dev/sdc1 /tmp/a2
```
Копируем
```
cp /tmp/a1/hiberfil.sys /tmp/a2
```
Дальше этот файл можно было скормить volatility (поддерживает файл гибернации с win7 или ранее).
```
vol.py imagecopy -f hiberfil.sys -O win7.img
```
Поскольку у меня win10, мне этот вариант не подошёл.
Я попробовал отдать файл программе Hibr2bin, которая раньше была тем самым Sandman Framework.
```
HIBR2BIN /PLATFORM X64 /MAJOR 10 /MINOR 0 /INPUT hiberfil.sys /OUTPUT uncompressed.bin
```
Но та выдала непонятный output, с которым отказались работать фреймворки для анализа.
На помощь пришёл Hibernation Recon с Free версией, который без проблем дал читаемый для фреймвоков выхлоп.
На выходе с memdump мы получаем файл с самой памятью процесса и файл с соотношением виртуальных адресов к адресам в файле.
```
File Address Length Virtual Addr
-------------- -------------- --------------
0x000000000000 0x000000001000 0x000000010000
0x000000001000 0x000000001000 0x000000020000
0x000000002000 0x000000001000 0x000000021000
0x000000003000 0x000000001000 0x00000002f000
0x000000004000 0x000000001000 0x000000040000
0x000000005000 0x000000001000 0x000000050000
0x000000006000 0x000000001000 0x000000051000
```
### Глава 2. Пишем мапхак.
Для GUI я выбрал Qt.
Для начала пишем удобную обёртку для обращения к виртуальной памяти в файле через таблицу.
```
class MemoryAPI
{
public:
MemoryAPI(){}
MemoryAPI(QString pathDump, QString pathIDX);
//Функции чтения данных по виртуальным адресам
quint32 readPtr (const quint32 offset);
qint32 readInt (const quint32 offset);
float readFloat (const quint32 offset);
QString readStringAscii(const quint32 offset, const quint32 size);
QString readArmaString(quint32 offset);
//Инициализая обёртки
void loadIDX (QString path);
void loadDump (QString path);
private:
//Массив с соотношениями виртуальных и физических адресов
QVector memoryRelations;
quint32 convertVirtToPhys(const quint32 virt) const;
QByteArray readVirtMem(const quint32 baseAddr, const quint32 size);
QFile dumpFile;
};
```
Каждую строчку idx-файла мы представляем в виде простой структуры.
```
class MemoryRange
{
private:
quint32 baseVirtualAddress;
quint32 basePhysicalAddress;
quint32 size;
};
```
Все функции чтения данных по виртуальным адресам сводятся к вызову этой функции с нужными параметрами.
```
QByteArray MemoryAPI::readVirtMem(const quint32 baseAddr, const quint32 size)
{
QByteArray result;
//Конвертируем адрес
quint32 addr = convertVirtToPhys(baseAddr);
dumpFile.seek(addr);
result = dumpFile.read(size);
return result;
}
```
Конвертация адреса проходит простым поиском нужного смещения в массиве (можно было бы применить бинарный поиск, но нет).
```
quint32 MemoryAPI::convertVirtToPhys(const quint32 virt) const
{
for(auto it = memoryRelations.begin(); it != memoryRelations.end(); ++it)
{
if((*it).inRange(virt))
{
const quint32& phBase = (*it).getPhysicalAddress(), vrBase = (*it).getVirtualAddress();
//Защита от переполнения
if(phBase>vrBase)
return virt + (phBase - vrBase);
else
return virt - (vrBase - phBase);
}
}
//Если не находим нужного адреса кидаем исключение
throw 1;
}
```
Теперь сделаем структуру, в которой будем хранить данные каждого объекта в игре.
```
class EntityData
{
public:
friend class WorldState;
//Перечисление всех нужных нам типов объектов
enum class type {airplane, car, motorcycle, ship, helicopter, parachute, tank,
tent, stash, fence, ammoBox, campFire, crashSite, animals,
players, zombies, stuff, hedgehog, invalid};
type entityType;
EntityData();
EntityData(QString n, QPointF c, type t = type::stuff);
QString shortDescription()const;
QString fullDescription()const;
QPointF getCoords() const {return coords;}
private:
//Название объекта
QString name;
//Координаты объекта
QPointF coords;
//Дополнительная информация об объекте (для расширяемости)
QMap additionalFields;
};
```
Далее пишем класс, в котором будем хранить состояние мира (все объекты).
```
class WorldState
{
public:
//Можно загрузиться из непосредственно дампа, и файла с адресами
WorldState(const QString& dumpFile, const QString& idxFile);
//или из xml-файла с состоянием мира
WorldState(const QString& stateFile);
//Этот xml-файл, можно сохранить и передать друзьям
void saveState(const QString& stateFile);
//Ассоциативный массив, в котором будем хранить итераторы на объекты каждого типа (полезная оптимизация)
QMap entityRanges;
QString worldName;
private:
//Массив со всеми объектами
QVector entityArray;
//Смещения для получения нужных данных
QVector masterOffsets;
QVector tableOffsets;
quint32 objTableAddress;
void handleEntity (quint32 entityAddress, MemoryAPI& mem);
//Инициализации
void initRanges();
void initOffsets();
QDomElement makeElement(QDomDocument& domDoc, const QString& name, const QString& strData = QString());
};
```
Здесь происходит вся работа с дампом памяти и загрузка информации о всех объектах.
```
WorldState::WorldState(const QString& dumpFile, const QString& idxFile)
{
//Инициализируем смещения
initOffsets();
//Создаём простое диалоговое модальное окно прогресса
QProgressDialog progress;
progress.setCancelButton(nullptr);
progress.setLabelText("Loading dump...");
progress.setModal(true);
progress.setMinimum(0);
progress.setMaximum(masterOffsets.length()+2);
progress.show();
MemoryAPI mem(dumpFile,idxFile);
progress.setValue(1);
for(auto mO = masterOffsets.begin(); mO != masterOffsets.end(); ++mO)
{
quint32 entityTableBasePtr = mem.readPtr(objTableAddress) + (*mO);
for(auto tO = tableOffsets.begin(); tO != tableOffsets.end(); ++tO)
{
qint32 size = mem.readInt(entityTableBasePtr + 0x4 +(*tO));
for(qint32 i = 0; i!=size; ++i)
{
quint32 fPtr = mem.readPtr(entityTableBasePtr + (*tO));
quint32 entityAddress = mem.readPtr(fPtr + 4 * i);
//Обрабатываем сущность
handleEntity(entityAddress, mem);
//Не забываем обрабатывать события, чтобы не было зависаний графического интерфейса
QCoreApplication::processEvents();
}
}
progress.setValue(progress.value()+1);
}
initRanges();
worldName = "chernarus";
progress.setValue(progress.value()+1);
}
```
Инициализируем смещения
```
void WorldState::initOffsets()
{
masterOffsets.append(0x880);
masterOffsets.append(0xb24);
masterOffsets.append(0xdc8);
tableOffsets.append(0x8);
tableOffsets.append(0xb0);
tableOffsets.append(0x158);
tableOffsets.append(0x200);
objTableAddress = 0xDAD8C0;
}
```
Здесь остановимся поподробнее. Вся информация о мире игры хранится в примерно такой структуре (Основано на дампе, найденном на форуме).
**Структура мира**
```
class World
{
public:
char _0x0000[8];
InGameUI* inGameUI; //0x0008
char _0x000C[1520];
EntityTablePointer* entityTablePointer; //0x05FC
VariableTableInfo* variableTableInfo; //0x0600
char _0x0604[428];
__int32 gameMode; //0x07B0
char _0x07B4[4];
float speedMultiplier; //0x07B8
char _0x07BC[196];
EntitiesDistributed table1; //0x0880
char _0x0B00[36];
EntitiesDistributed table2; //0x0B24
char _0x0DA4[36];
EntitiesDistributed table3; //0x0DC8
char _0x1048[849];
BYTE artilleryEnabled; //0x1399
BYTE enableItemsDropping; //0x139A
char _0x139B[13];
UnitInfo* cameraOn; //0x13A8
char _0x13AC[4];
UnitInfo* cplayerOn; //0x13B0
UnitInfo* realPlayer; //0x13B4
char _0x13B8[48];
float actualOvercast; //0x13E8
float wantedOvercast; //0x13EC
__int32 nextWeatherChange; //0x13F0
float currentFogLevel; //0x13F4
float fogTarget; //0x13F8
char _0x13FC[32];
__int32 weatherTime; //0x141C
char _0x1420[8];
BYTE playerManual; //0x1428
BYTE playerSuspended; //0x1429
char _0x142A[30];
__int32 N0D09AD19; //0x1448
char _0x144C[92];
ArmaString* currentCampaign; //0x14A8
char _0x14AC[4];
__int32 N0D09B79F; //0x14B0
char _0x14B4[52];
float viewDistanceHard; //0x14E8
float viewDistanceMin; //0x14EC
float grass; //0x14F0
char _0x14F4[36];
__int32 initTableCount; //0x1518
__int32 initTableMaxCount; //0x151C
char _0x1520[4];
};//Size=0x1524
```
Получить доступ к этой структуре можно по указателю, который лежит по статическому для каждой версии игры смещению (смещение можно загуглить или самому найти через реверс, но это уже совсем другая история). Это смещение мы храним в переменной objTableAddress. В masterOffsets мы храним смещения на 3 таблицы, относительно этой структуры.
**Таблица с таблицами**
```
class EntitiesDistributed
{
public:
char _0x0000[8];
Entity* table1; //0x0008
__int32 table1Size; //0x000C
char _0x0010[160];
Entity* table2; //0x00B0
__int32 table2Size; //0x00B4
char _0x00B8[160];
Entity* table3; //0x0158
__int32 table3Size; //0x015C
char _0x0160[160];
Entity* table4; //0x0200
__int32 table4Size; //0x0204
char _0x0208[120];
};//Size=0x0280
```
В свою очередь каждая таблица хранит в себе ещё по 4 таблицы с длиной (смещения на эти таблицы мы храним в tableOffsets).
Теперь мы можем итерироваться по всем объектам в игре. Разберём функцию, которая обрабатывает каждую сущность.
```
void WorldState::handleEntity(quint32 entityAddress, MemoryAPI &mem)
{
QString objType;
QString objName;
float coordX;
float coordY;
try{
quint32 obj1 = entityAddress;
quint32 pCfgVehicle = mem.readPtr(obj1 + 0x3C);
quint32 obj3 = mem.readPtr(pCfgVehicle + 0x30);
quint32 pObjType = mem.readPtr(pCfgVehicle + 0x6C);
objType = mem.readArmaString(pObjType);
objName = mem.readStringAscii(obj3 + 0x8, 25);
quint32 pEntityVisualState = mem.readPtr(obj1 + 0x18);
coordX = mem.readFloat(pEntityVisualState + 0x28);
coordY = mem.readFloat(pEntityVisualState + 0x30);
}catch(int a)
{
qDebug() << "Ошибка доступа к виртуальной памяти.";
return;
}
//Создаём новую сущность
EntityData ed(objName, QPointF(coordX, coordY));
//Классифицируем сущность по категориям
if(objType == "car")
ed.entityType = EntityData::type::car;
else if(objType == "motorcycle")
ed.entityType = EntityData::type::motorcycle;
else if(objType == "airplane")
ed.entityType = EntityData::type::airplane;
else if(objType == "helicopter")
ed.entityType = EntityData::type::helicopter;
else if(objType == "ship")
ed.entityType = EntityData::type::ship;
else if(objType == "tank")
ed.entityType = EntityData::type::tank;
else if(objType == "parachute")
ed.entityType = EntityData::type::parachute;
else if(objName.indexOf("TentStorage")!=-1)
ed.entityType = EntityData::type::tent;
else if(objName.indexOf("Stash")!=-1)
ed.entityType = EntityData::type::stash;
else if(objName.indexOf("WoodenGate")!=-1 || objName.indexOf("WoodenFence")!=-1)
ed.entityType = EntityData::type::fence;
else if(objName.indexOf("DZ_MedBox")!=-1 || objName.indexOf("DZ_AmmoBox")!=-1)
ed.entityType = EntityData::type::ammoBox;
else if(objName.indexOf("Hedgehog_DZ")!=-1)
ed.entityType = EntityData::type::hedgehog;
else if(objName.indexOf("Land_Camp_Fire_DZ")!= -1)
ed.entityType = EntityData::type::campFire;
else if(objName.indexOf("CrashSite")!= -1)
ed.entityType = EntityData::type::crashSite;
else if(objName.indexOf("WildBoar")== 0 || objName.indexOf("Rabbit")== 0 ||
objName.indexOf("Cow")== 0 || objName.indexOf("Sheep")== 0 ||
objName.indexOf("Goat")== 0 || objName.indexOf("Hen")== 0)
ed.entityType = EntityData::type::animals;
else if(objName.indexOf("Survivor2_DZ")!= -1 || objName.indexOf("Sniper1_DZ")!=-1 ||
objName.indexOf("Camo1_DZ")!=-1 || objName.indexOf("Survivor3_DZ")!=-1 ||
objName.indexOf("Bandit1_DZ")!= -1 || objName.indexOf("Soldier1_DZ")!= -1)
ed.entityType = EntityData::type::players;
else
ed.entityType = EntityData::type::stuff;
entityArray.append(ed);
}
```
Каждая сущность представляет собой примерно такую структуру
**Структура сущности**
```
class Entity
{
public:
char _0x0000[24];
EntityVisualState* entityVisualState; //0x0018
char _0x001C[32];
CfgVehicle* cfgVehicle; //0x003C
char _0x0040[476];
EntityInventory* entityInventory; //0x021C
};//Size=0x0220
```
Здесь нам интересны все три указателя.
* EntityVisualState — информация о местоположении.
* CfgVehicle — характеристики (название, тип, максимальная скорость и т.д.).
* EntityInventory — инвентарь (чтение инвентаря не реализовано, т.к. для моих целей это излишне).
Из CfgVehicle мы читаем имя и тип.
```
ArmaString* entityName; //0x0030
ArmaString* objectType; //0x006C
```
**EntityVisualState**
```
class EntityVisualState
{
public:
char _0x0000[4];
D3DXVECTOR3 dimension; //0x0004
D3DXVECTOR3 rotation1; //0x0010
D3DXVECTOR3 direction; //0x001C
D3DXVECTOR3 coordinates; //0x0028
char _0x0034[20];
D3DXVECTOR3 velocity; //0x0048
float angularVelocity; //0x0054
float zVelocity2; //0x0058
float Speed; //0x005C
D3DXVECTOR3 acceleration; //0x0060
char _0x006C[16];
D3DXVECTOR3 direction2; //0x007C
D3DXVECTOR3 rotation2; //0x0088
D3DXVECTOR3 direction3; //0x0094
char _0x00A0[12];
float fuelLevel; //0x00AC
char _0x00B0[92];
D3DXVECTOR3 headCoordinates; //0x010C
D3DXVECTOR3 torsoCoordinates; //0x0118
char _0x0124[244];
float N047F1D6C; //0x0218
char _0x021C[200];
};//Size=0x02E4
```
Из EntityVisualState мы читаем вектор координат, который представляет собой структуру из трёх переменных.
```
D3DXVECTOR3 coordinates;
```
```
struct D3DXVECTOR3 {
FLOAT x;
FLOAT y;
FLOAT z;
};
```
Здесь нам нужны только x и y(на самом деле z), поэтому читаем их так:
```
coordX = mem.readFloat(pEntityVisualState + 0x28);
coordY = mem.readFloat(pEntityVisualState + 0x30);
```
Кстати, в карту additionalFields, которая в EntityData, на этом этапе можно записать любую дополнительную информацию. Например, содержимое инвентаря или скорость перемещения.
Сейчас мы получили и классифицировали информацию о всех сущностях в игровом мире, теперь её нужно как-то отобразить, для этого я использовал QPainter.
Создаём класс виджета для рисования.
```
class InteractiveMap : public QWidget
{
Q_OBJECT
public:
InteractiveMap(QWidget* pwgt = nullptr);
virtual ~InteractiveMap();
protected:
virtual void paintEvent(QPaintEvent* pe);
private:
//Константы масштабирования(на колёсико мыши)
const float minScale = 1.0f;
const float maxScale = 8.0f;
const float scaleStep= 2.0f;
void updateScale(const qreal value, const QPointF& dpos);
void updateTranslate(const QPointF& value);
bool getFilterValue(EntityData::type t);
bool getFilterValue(QString t);
void mousePressEvent (QMouseEvent* pe);
void mouseMoveEvent (QMouseEvent* pe);
void wheelEvent (QWheelEvent *pe);
void findCloseObjects(QPointF coords);
QVector\* input;
QPainter\* painter;
QPixmap\* image;
WorldState\* worldState;
qreal scale;
QPointF translate;
QPoint startMove;
//Кэшированная картинка
QPixmap cache;
QMutex renderMutex;
//Асинхронный поиск объектов, близких к курсору
QFutureWatcher closeObjWatcher;
QFuture closeObjFuture;
public slots:
//Загрузка состояния
void loadState(QString stateFile);
void loadDump(QString dumpFile, QString idxFile);
void closeState();
void saveState(QString stateFile);
void updateCache();
void sendCloseObjects();
signals:
void showCloseObjects(QString str);
void saveStateChanged(bool state);
};
```
Метки с техникой я рисую поверх картинки с картой. Метки на карте для текущего масштаба я кэширую в QPixmap (дорого рисовать заново несколько сотен или тысяч объектов при каждом сдвиге камеры).
```
void InteractiveMap::paintEvent(QPaintEvent *pe)
{
renderMutex.lock();
painter->begin(this);
//////////////////////////////////////////////////
QTransform mat;
painter->setTransform(mat);
painter->scale(scale, scale);
painter->translate(translate);
painter->drawPixmap(0,0, *image);
if(cache.isNull())
{
//Важно увеличить DPR, иначе метки будут смазаны при сильном увеличении
cache = QPixmap(image->size()*4);
cache.setDevicePixelRatio(4);
cache.fill(Qt::transparent);
QPainter cachePaint(&cache);
//Бежим по всем типам объектов
for(QMap::const\_iterator it = worldState->entityRanges.cbegin(); it!=worldState->entityRanges.cend();++it)
{
//Проверяем нужно ли отображать этот тип
if(getFilterValue(it.key()))
{
for(QVector::const\_iterator i = it.value().start; i!= it.value().end; ++i)
{
float x = i->getCoords().x();
float y = i->getCoords().y();
//Преобразуем координаты по магической формуле
x = (((x) / (15360.0f / 975.0f)));
y = (((15360.0f - y) / (15360.0f / 970.0f)) - 4.0f);
//Рисуем точку
QFont font("Arial");
QPen pen;
pen.setWidthF(4.0f/scale);
pen.setStyle(Qt::SolidLine);
font.setPointSizeF(qMax(float(8.0f\*1.0f/scale),2.0f));
cachePaint.setFont(font);
cachePaint.setPen(pen);
cachePaint.drawPoint(x,y);
//Рисуем название объекта, если нужно
if(getFilterValue(QString("name")))
cachePaint.drawText(x,y,i->shortDescription());
}
}
}
}
painter->drawPixmap(0,0,cache);
//////////////////////////////////////////////////
painter->end();
renderMutex.unlock();
}
```
Для выбора типов сущностей, которые нужно отображать и других настроек, я использую QCheckBox-ы на боковой панели (их реализацию можно будет глянуть на гитхабе). Для связи отрисовки с настройками, я сначала использовал голый QSettings, но оказалось, что он не кэширует настройки в памяти, а напрямую работает с реестром, поэтому мне пришлось написать обёрточный синглтон с кэшем, который также при обновлении параметров посылает сигнал на перерисовку.
```
class SettingsManager : public QObject
{
Q_OBJECT
public:
SettingsManager();
~SettingsManager();
static SettingsManager& instance();
QVariant value(const QString &key, const QVariant &defaultValue = QVariant());
void setValue(const QString &key, const QVariant &value);
SettingsManager(SettingsManager const&) = delete;
SettingsManager& operator= (SettingsManager const&) = delete;
private:
QMap data;
QSettings settings;
signals:
void updateMap();
};
```
Для удобного просмотра карты я реализовал масштабирование на курсор (на колёсико мыши) и сдвиг (с зажатым лкм-ом). Ещё одна важная фича — просмотр полных характеристик и игровых координат сущностей (при нажатии скм в район нужных объектов).
```
//Устанавливаем новый масштаб
void InteractiveMap::updateScale(qreal value, const QPointF& dpos)
{
qreal newScale = scale * value;
if(newScale >= minScale && newScale <= maxScale)
{
scale = newScale;
//Добавляем смещение для масштабирования в точку курсора
translate += dpos/scale;
updateCache();
}
}
//Устанавливаем новое смещение
void InteractiveMap::updateTranslate(const QPointF& value)
{
QPointF newV = translate + (value * 1/scale);
translate = newV;
update();
}
//Обработка нажатия кнопок мыши
void InteractiveMap::mousePressEvent(QMouseEvent *pe)
{
//Сдвиг при зажатии лкм
if(pe->buttons() & Qt::LeftButton)
startMove = pe->pos();
//Поиск близких к курсору объектов на скм
else if(pe->buttons() & Qt::MidButton)
{
if(worldState)
{
//Определяем координаты на карте, с учётом масштаба
QPointF pos = pe->pos()/scale - translate;
if(pos.x() >= 0.0f && pos.x() <= image->width() && pos.y() >= 0.0f && pos.y() <= image->height())
{
//Переводим координаты во внутренние игровые
pos.rx() = pos.x() * (15360.0f / 975.0f);
pos.ry() = -((15360.0f/970.0f)*(pos.y()+4.0f)-15360.0f);
//Вызываем асинхронный поиск
findCloseObjects(pos);
}
}
}
}
void InteractiveMap::mouseMoveEvent(QMouseEvent *pe)
{
//Сдвиг при зажатии лкм
if(pe->buttons() & Qt::LeftButton)
{
updateTranslate(pe->pos() - startMove);
startMove = pe->pos();
}
}
void InteractiveMap::wheelEvent(QWheelEvent *pe)
{
//Обработка масштабирования
float dScale = (pe->angleDelta().y() < 0) ? 1/scaleStep : scaleStep;
QPointF nPos = pe->pos() * (dScale);
QPointF dPos = pe->pos() - nPos;
updateScale(dScale,dPos);
}
```
Просмотр характеристик реализован с помощью фреймворка QtConcurrent, посредством модели MapReduce.
```
//Reduce функция
void addToAnswer(QString& result, const QString& interm)
{
if(!interm.isEmpty())
result += interm;
}
void InteractiveMap::findCloseObjects(QPointF coords)
{
if(!closeObjWatcher.isRunning())
{
//Собираем входные данные
input = new QVector;
for(QMap::iterator it = worldState->entityRanges.begin(); it!=worldState->entityRanges.end();++it)
{
if(getFilterValue(it.key()))
{
//Создаём входной объект
CloseObjects obj(&it.value(), coords);
input->append(obj);
}
}
closeObjFuture = QtConcurrent::mappedReduced(\*input, &CloseObjects::findCloseObjects, addToAnswer);
//После завершения вычислений посылаем сигнал
connect(&closeObjWatcher, &QFutureWatcher::finished, this, &InteractiveMap::sendCloseObjects);
//Запускаем вычисления
closeObjWatcher.setFuture(closeObjFuture);
}
}
void InteractiveMap::sendCloseObjects()
{
//Отправляем результаты для отображения
emit showCloseObjects(closeObjWatcher.result());
//Не забываем очистить входной массив
delete input;
input = nullptr;
}
```
Входной класс состоит из указателя на категорию сущностей и точки для поиска.
```
class CloseObjects
{
public:
CloseObjects() {}
CloseObjects(EntityRange *r, QPointF p): range(r), coords(p) {}
QString findCloseObjects() const;
private:
EntityRange* range;
QPointF coords;
};
```
В Map функции, мы проходим по всем объектам в категории, если сущность находится в константном радиусе от позиции курсора, то возвращаем полное описание объекта (название + дополнительные поля) и игровые координаты.
```
QString CloseObjects::findCloseObjects() const
{
QString result;
QTextStream stream(&result);
//Устанавливаем точность в выводе до 2 цифр после запятой
stream.setRealNumberNotation(QTextStream::FixedNotation);
stream.setRealNumberPrecision(2);
for(QVector::const\_iterator it = range->start; it != range->end; ++it)
{
float len = qSqrt(qPow((it->getCoords().x() - coords.x()),2) + qPow((it->getCoords().y() - coords.y()),2));
if(len <= 350)
{
stream << it->fullDescription() << "\n" << QVariant(it->getCoords().x()/100).toFloat() << " " << QVariant((15360 - it->getCoords().y())/100).toFloat() << "\n";
}
}
return result;
}
```
На этом я заканчиваю свой рассказ. Кому не трудно, гляньте код, укажите на возможные косяки.
Заинтересованные могут добавить чтение дополнительных характеристик объектов и кинуть pull-request.
Ссылки:
* [Hibernation Recon](https://arsenalrecon.com/weapons/hibernation-recon/)
* [LiME ~ Linux Memory Extractor](https://github.com/504ensicsLabs/LiME)
* [Volatility Framework](https://github.com/volatilityfoundation/volatility)
* [Rekall Framework](https://github.com/google/rekall)
* [Hibr2bin](https://github.com/comaeio/Hibr2Bin)
* [Дамп оффсетов структур](https://www.unknowncheats.me/forum/arma-2/111239-arma2-oa-offset-reclass-dump.html)
* [GitHub сабжа](https://github.com/3vilWind/DayzModDumpHack) | https://habr.com/ru/post/338734/ | null | ru | null |
# Простой кэш в памяти
#### Добрый день!
Понадобилось тут сделать совсем примитивный кэш, чтобы лишний раз в базу не лазить. При этом данные в базе статичные, и вопрос не столько в обновлении данных, сколько в том, когда их выбросить, чтобы просто не занимать память, ну и простота использования конечно важна. Сначала хотел использовать MemoryCache, но мне показалось он слишком замороченный, да ещё и без строгой типизации.
За примером реализации прошу под кат.
##### Реализация
Общая идея такая: кэш должен быть удобным и прозрачным в использовании. Я вдохновился интерфейсом класса ThreadLocal. Поэтому в конструкторе требуется фабричный метод для получения исходных значений, а потом они уже кэшируются. Опять же, в моём случае, я посчитал вполне логичным держать данные на слабых ссылках (WeakReference), таким образом, пока данные нужны, кто-то их использует, они будут доступны. Дальше, по мере выделения новой памяти, данные из кэша будут вытесняться.
Есть всего два метода: индексатор, который вернёт данные либо из источника, либо из кэша.
А также метод CleanCache, чтобы очищать словарь от мёртвых ссылок и таким образом устранить утечку памяти. В реальных условиях далеко не всегда это необходимо. Например, в моих условиях новые записи в кэше будут появляться всего несколько раз в день, так что даже за годы работы ссылки не сожрут сколько-то значительный объём памяти.
##### Цель публикации
В основном, мне интересно услышать мнение о моей реализации, как бы вы сделали, есть ли ошибки. Ну и если кому-то это поможет — берите, используйте :)
##### Исходник
```
public class WeakCache where TValue : class
{
const int cacheCleanInterval = 60;
private readonly Func getter;
private readonly Dictionary data = new Dictionary();
private readonly ReaderWriterLockSlim rwLock = new ReaderWriterLockSlim();
private DateTime lastCacheClean = DateTime.MinValue;
public WeakCache(Func getter)
{
this.getter = getter;
}
public TValue this[TKey key]
{
get
{
CleanCache();
try
{
rwLock.EnterUpgradeableReadLock();
WeakReference wr;
TValue val;
if (data.TryGetValue(key, out wr))
{
val = (TValue)wr.Target;
if (val != null)
return val;
}
try
{
rwLock.EnterWriteLock();
if (data.TryGetValue(key, out wr))
{
val = (TValue)wr.Target;
if (val != null)
return val;
}
data[key] = new WeakReference(val = getter(key));
return val;
}
finally
{
rwLock.ExitWriteLock();
}
}
finally
{
rwLock.ExitUpgradeableReadLock();
}
}
}
void CleanCache()
{
if ((DateTime.Now - lastCacheClean).TotalSeconds > cacheCleanInterval)
{
try
{
rwLock.EnterWriteLock();
if ((DateTime.Now - lastCacheClean).TotalSeconds > cacheCleanInterval)
{
lastCacheClean = DateTime.Now;
var refs = data.ToArray();
foreach (var weakReference in refs)
{
if (!weakReference.Value.IsAlive)
data.Remove(weakReference.Key);
}
}
}
finally
{
rwLock.ExitWriteLock();
}
}
}
}
``` | https://habr.com/ru/post/185616/ | null | ru | null |
# «Не отображается сайт»
Статья в помощь людям, у которых совсем не отображается их сайт.
Именно с такой проблемой я столкнулся, работая с сайтами клиентов. После того, как поступило еще несколько звонков в техническую поддержку, стало понятно, что «у меня не открывается сайт» — это результат не плохого интернета, и не кривых рук, а чего-то более глобального.
Симптомы проблемы выглядели следующим образом. Компьютер в интернет ходит, Хабрахабр и Google открываются нормально. Сайт клиента — нет. Сервер не «пингуется». Что странно — с других компьютеров в этой же сети сайт открывается, никаких проблем…
Клиенты, сообщающие об ошибке «Невозможно отобразить страницу» сильно помочь не могли. Пришлось искать неисправные компьютеры и пытаться выяснить, в чем же с ними дело.
При этом:
* На компьютере установлен регулярно обновляемый антивирус
* Переустановка операционной системы решает проблему (ну еще бы!)
Два часа экспериментов показали следующие результаты:
* Запросы ping не видны даже на ближайшем сетевом маршрутизаторе
* Запросы до других серверов идут вполне успешно
Собственно, дальше — дело техники. Выяснилось, что `**route print**` показывает огромную таблицу, в которой присутствует огромное правил маршрутизации через шлюз `**192.168.0.0**` (несуществующий шлюз).
Решение проблемы достаточно простое: достаточно волшебной команды:
`**route -f**`
Или аналогичной:
`**route delete \***`
Команда очищает таблицу маршрутизации. После этого остается лишь «починить» интернет, добавив маршрутизацию через шлюз по умолчанию:
`**route add 0.0.0.0 mask 0.0.0.0 192.168.0.1**`
Естественно, адрес шлюза может быть другим. Или можно просто перезагрузиться — если не жалко обычного времени, но жалко мозгового времени.
Дальнейшие исследования показали, что, по всей вероятности, компьютер клиента был заражен вирусом (или червяком?) группы Backdoor.Win32.Shiz.\*, про которую сильно много информации раздобыть не удалось.
Но проблема была обнаружена, решение найдено, чего ж еще. Вот только остался открытым вопрос: кому же все-таки нужны подобные вирусы? Кто-то решил продвинуть свой сайт, заблокировав доступ к сайтам конкурентов? Или это борьба за «чистоту Интернета»? Я не знаю… | https://habr.com/ru/post/101691/ | null | ru | null |
# Say hello to the new Visual Studio terminal
Building on the momentum from the recently announced [Developer PowerShell](https://devblogs.microsoft.com/visualstudio/the-powershell-you-know-and-love-now-with-a-side-of-visual-studio/), we are excited to share the first preview of the new Visual Studio terminal. This new preview experience is part of Visual Studio version 16.3 Preview 3.
[](https://devblogs.microsoft.com/visualstudio/wp-content/uploads/sites/4/2019/09/terminal-img-1.png)
Rather than build everything from scratch, the Visual Studio terminal shares most of its core with the [Windows Terminal](https://devblogs.microsoft.com/commandline/introducing-windows-terminal/). For you, that translates into a more robust terminal experience, and faster adoption of new functionality.
This article [in our blog](https://devblogs.microsoft.com/visualstudio/say-hello-to-the-new-visual-studio-terminal/).
Enabling the new Visual Studio terminal
---------------------------------------
To try the terminal preview, you’ll first need to enable it by visiting the *Preview Features* page. Go to Tools > Options > Preview Features, enable the *Experimental VS Terminal* option and restart Visual Studio.
[](https://devblogs.microsoft.com/visualstudio/wp-content/uploads/sites/4/2019/09/word-image-5.png)
Once enabled, you can invoke it via the View > Terminal Window menu entry or via the search.
[](https://devblogs.microsoft.com/visualstudio/wp-content/uploads/sites/4/2019/09/word-image-7.png)
Creating Terminal profiles
--------------------------
Launching the terminal automatically opens an integrated PowerShell instance. However, you can customize the startup experience by using shell profiles.
With shell profiles, you can target different types of shells, invoke them using unique arguments, or even set a default shell that better fits your needs.
In future updates, we plan to optimize the experience by pre-populating the terminal with a few basic profiles. In the meantime, you can manually add additional profiles on the terminal’s Options page.
[](https://devblogs.microsoft.com/visualstudio/wp-content/uploads/sites/4/2019/09/word-image-8.png)
As an example, here’s how you can set profiles for some popular options:
#### Developer Command Prompt
Shell location:
```
C:\Windows\System32\cmd.exe
```
Arguments:
```
/k "C:\Program Files (x86)\Microsoft Visual Studio\2019\IntPreview\Common7\Tools\VsDevCmd.bat"
```
#### Developer PowerShell
Shell location:
```
C:\WINDOWS\system32\WindowsPowerShell\v1.0\powershell.exe
```
Arguments:
```
-NoExit -Command "& { Import-Module 'C:\Program Files (x86)\Microsoft Visual Studio\2019\Preview_master\Common7\Tools\vsdevshell\Microsoft.VisualStudio.DevShell.dll'; Enter-VsDevShell -InstanceId f86c8b33}"
```
Note: You’ll need to update the above argument to match your specific configuration. You can extract the argument information by looking into the *Target* string for the Developer PowerShell shortcut.
[](https://devblogs.microsoft.com/visualstudio/wp-content/uploads/sites/4/2019/09/word-image-9.png)
#### WSL
Shell location:
```
C:\WINDOWS\sysnative\wsl.exe
```
Try it out and let us know what you think!
------------------------------------------
While we are excited to share this preview, we want to ensure a solid experience before we enable this experience in the release version of Visual Studio. As a result, the terminal will initially only be available in the preview versions of Visual Studio 2019.
As next steps, we’ll look to deliver improvements around rendering (the terminal currently needs to be resized to render correctly), accessibility and theming. We’ll also add new productivity boosters such as multiple terminal instances and deeper integration with Visual Studio.
We’d love to know how it fits your workflow and how we could further improve your terminal experience. Send us your feedback via the [Developer Community](https://developercommunity.visualstudio.com/idea/516314/integrated-terminal-in-visual-studio-2019-similar.html) portal, or via the Help > Send Feedback feature inside Visual Studio. | https://habr.com/ru/post/468263/ | null | en | null |
# Ненормальное программирование. Разработка IF игр
Разработка игр
==============

Кто не мечтал попробывать разработать собственную игру. Мы будем создавать игру в стиле [**interactive fiction**](http://ru.wikipedia.org/wiki/Interactive_fiction) Сюжет я взял на сайте одной из систем программирования [RTADS](http://rtads.org/man/TADSBEG.HTM). Система локализована на русский язык и содержит полный набор средств и руководств для программирования. Но… Программировать мы будем в другой системе [Inform7](http://inform7.com) Она мне больше нравится, т.к. я люблю английский. Итак сюжет.
Сюжет
=====
… В качестве примера мы разработаем игру, действие которой будет происходить в небольшом аэропорту. Наш аэропорт будет иметь терминал, центральный зал, а также выходы к самолетам.
Кроме того, у одного из выходов будет стоять самолет. В помещении терминала будет билетная стойка и металлодетектор, через который можно будет пройти в центральный зал. В центральном зале будет буфет и запертая дверь, ведущая в служебную зону. В зале с выходами к самолетам будут расположены несколько таких выходов, а также запертая щитовая. Вот предварительная карта нашей игры.

На этой карте имеется парочка закрытых зон, что очень удобно при создании загадок. Кроме того, нам пригодится и металлодетектор, поскольку он не позволит игроку проносить через него некоторые предметы. Самолет также может использоваться для пазла, поскольку обычно для того, чтобы попасть в самолет, нужен билет. Плюс к этому, доступ в кабину экипажа разрешен только летному персоналу.
Пусть конечной целью отрезка игры, разворачивающегося в аэропорту, будет покинуть аэропорт. Игрок начнет игру в здании главного терминала, но он не сможет выйти из аэропорта — мы придумаем какую-нибудь причину, типа толпы людей, сгрудившихся у входа в аэропорт, через которую не пробиться. (Конечно, если бы это была законченная игра, часть игрового мира располагалась бы, вероятно, вне аэропорта, и мы бы не стали использовать такую надуманную причину для ограничения перемещений игрока. Но для этого примера мы ее будем использовать, чтобы, что называется, «не расползаться» без нужды). Единственный другой возможный способ покинуть аэропорт — это улететь на самолете; так пусть это и будет целью нашей игры.
Чтобы поднять самолет в воздух, игроку необходимо будет проникнуть в кабину пилотов. (Наш пример окончится на том, что игрок туда проник; в полноразмерной игре мы бы, вероятно, позволили игроку улететь куда-нибудь). Однако в кабину пилотов разрешено входить только летному персоналу — стюардесса не пускает в кабину пассажиров. Таким образом, нам нужно найти способ пробраться мимо стюардессы. Один такой способ — отвлечь ее на достаточно долгое время, чтобы проскользнуть мимо нее в кабину; в нашей игре, однако, от игрока потребуется найти форму пилота.
В каком месте логично поместить форму пилота? Например, в комнате отдыха летного персонала; что ж, поместим в эту комнату чемодан, в котором будет лежать форма. К счастью, комната отдыха скрыта за запертой дверью, что автоматически создает еще одну, вспомогательную загадку. Чтобы попасть в закрытую служебную зону и взять оттуда форму, игроку потребуется магнитная карта-ключ, чтобы отпереть соответствующую дверь (вставив карту в щель ридера, расположенного рядом с дверью).
Магнитную карту мы поместим в легкодоступном месте — на билетной стойке в терминале. Однако мы не позволим игроку пронести ее через металлодетектор — при этом сработает сигнал тревоги, и офицер службы безопасности отберет карту (и положит ее обратно на стойку, чтобы игрок мог попробовать пронести ее еще раз). Чтобы пронести карту через металлодетектор, потребуется отключить его.
Выключатель мы поместим в уборочном помещении, запертом на ключ. Ключ от этого помещения мы поместим в туалете самолета вместе с некоторыми другими предметами уборочного инвентаря — ведром, тряпкой и мешком для мусора, чтобы игрок по ассоциации мог догадаться, что ключ, лежащий там же, скорее всего от уборочной комнаты.
Чтобы попасть в туалет на самолете, потребуется билет на этот самолет. Мы сделаем так, чтобы билет можно было обнаружить сравнительно легко: мы спрячем его в газете, забытой кем-то в буфете. Как только игрок поднимет газету, из нее выпадет билет.
Вот, собственно, и вся игра: вы идете в буфет, берете газету и находите билет. Взяв билет, вы садитесь на самолет, заходите в туалет и берете там ключ от уборочного помещения. Идете с этим ключом к уборочному помещению, отпираете его, заходите туда и отключаете металлодетектор. Затем возвращаетесь к билетной стойке, берете магнитную карточку, идете к служебной зоне и отпираете ведущую туда дверь при помощи карточки. Заходите в комнату отдыха летного персонала, достаете форму пилота из чемодана и одеваете ее. После чего снова идете в самолет и проходите в кабину мимо стюардессы.
Теперь мы можем нарисовать новую карту, нанеся на нее пометки с информацией о важнейших предметах и действиях, из которых, собственно, и будет состоять игра.

Реализация карты
================
В соответсвии с правилами языка Inform (а это практически естественный английский язык) смотрим на карту и пишем:
`**Section 1 Map**
The Terminal is a room. "It is a large hall with many people.".
The Ticket Counters is east of the Terminal. "Some people choice the direction here and buy the ticket.".
The Security Gate is north of the Terminal.
The metal detector is a door. It is open. It is north of the Security Gate and south of the Concourse.
The Snack Bar is east of the Concourse.
The wood door is a door. It is lockable and locked. It is east of Security Area and west of the Concourse.
The Pilot Lounge is south of the Security Area.
The Security Centre is west of the Security Area.
The Gate Area is north of the Concourse.
The metal door is a door. It is lockable and locked.It is east of the Gate Area and west of the Maintance Room.
The Gate 1 is northwest of the Gate Area.
The Gate 2 is north of the Gate Area.
The Gate 3 is northeast of the Gate Area.
The Jetway is east of the Gate 3.
The Front of Plane is east of the Jetway. Stewardess is a woman in the Front of Plane.
The thin door is a door. It is south of the Cockpit and north of the Front of Plane.
The Rear of plane is south of the Front of Plane.
The Bathroom is south of the Rear of plane.`
Не удивляйтесь это настоящий язык программирования. Платформа основана на принципах [Литературного программирования](http://ru.wikipedia.org/wiki/%D0%9B%D0%B8%D1%82%D0%B5%D1%80%D0%B0%D1%82%D1%83%D1%80%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5). Компилируем, выбираем закладку Index-->World, получаем:

Очень близко к тексту. Можно пройтись по карте (закладка Game):
`airport
An Interactive Fiction by AlexChin
Release 1 / Serial number 091013 / Inform 7 build 5Z71 (I6/v6.31 lib 6/12N) SD
Terminal
It is a large hall with many peoples.
>n
Security Gate
You can see a metal detector here.`
Реализация предметов
====================
Дописываем код:
`**Section 2 Items**
The Ticket Counters contains counter. On the Counter is a ID card.
The electric switch is a switched on device in the Maintance Room. The electric switch is switched on.
The brass key unlocks the metal door. It is in the bathroom. The pail, sponge, garbage bag are in the bathroom.
The News Paper is in the Snack Bar. "You can see a News Paper here." It is closed, not transparent container. The description of it is
"You read a few articles, and promptly become depressed.
The federal deficit just went up by another twenty billion dollars, but it's
all off budget, so it doesn't really count. The economy had yet another downturn, but the
President says he's confident that the recovery is just around the
corner and picking up steam.".
The Boarding pass is in the News paper. The description of it is "Boarding pass. Luht franza board 0923. Place A. Row 25. Class B".
The slot is a container. The description of it is "Ordinary slot at wall".It is in the Concourse.
The suitcase is the openable closed container. It is in the Pilot Lounge. The Pilot uniform is in the suitcase. IT is wearable.`
Реализация специальных реакций
==============================
`**Section 3 Special Behavior**
Before opening the thin door:
if player wear the uniform:
say "Second pilot! Welcome on board!";
continue the action;
otherwise:
say "For staff only!";
stop the action.
After going to Cockpit:
end the game in victory;
After going through the metal detector:
if player carry id and electric switch is switched on:
end the game in death;
otherwise:
continue the action.
After taking the news paper:
Now the boarding pass is in the location;
say "The piece of paper fall down at the floor";
continue the action.
Carry out inserting something into the slot:
if noun is id:
say "Click!";
now the wood door is unlocked;
otherwise:
remove the noun from play.
Report inserting something into the slot: say "[if noun is not id][The noun] falls out of sight, and you know you will never see it again."
Instead of giving pass to Stewardess:
now Stewardess carries pass;
say "All Right, Please find your place rear of plane".
Instead of going from Front of Plane to Rear of plane:
if Stewardess carries the Boarding pass:
continue the action;
otherwise:
say "Stop. Give me pass";
stop the action;`
Заключение
==========
Мы написали скелет игры. Играть в нее можно, но конечно не хватает литературной описательной составляющей. Хотя экспериментов в ней достаточно. Можно поиграться со слотом или пройти с картой ID через металлодетектор.
Ссылки:
-------
[Ненормальное программирование. Может так писал Бог?](http://alexchin.habrahabr.ru/blog/70430/)
[Конкурс Игр Interactive fiction Competition 2009](http://alexchin.habrahabr.ru/blog/71536/) | https://habr.com/ru/post/72310/ | null | ru | null |
# Webix 2.3. Весеннее обновление
Не так давно в [блоге](http://webix.com/blog/) разработчиков этой JavaScript библиотеки появился пост о релизе новой версии за номером 2.3. Обновления это хорошо, спору нет. Но, глядя в окно на позднемартовскую улицу, становится не вполне понятно, что же выбрать: разбираться с новыми доступными возможностями или же вместо этого неторопливо прогуливаться под неокрепшим еще весенним солнцем, отмечая подспудно скорое уже пришествие долгожданного лета и вдыхая жадно всем нутром своим разлитый повсюду запах весны и оживления? Вопрос непростой. Нужно разбираться.

### Material Design
Во-первых, приятная новость для любителей [леденцов](https://ru.wikipedia.org/wiki/Android_Lollipop), количество которых (любителей, не леденцов), вероятно, увеличится еще больше сразу после релиза Android 5.1.1, в котором, [судя по всему](http://www.phonearena.com/news/Google-acknowledges-leaky-memory-fix-coming-to-Android-5.1.1_id67236), наконец-то будет исправлена нашумевшая проблема утечки памяти. Разработчики Webix решили погреться в лучах славы нового [Material design](https://ru.wikipedia.org/wiki/Material_design) от Google и выкатили свой Material skin:

Обещают приятный интерфейс, яркие цвета и отзывчивый дизайн. Те, кто не привык верить обещаниям, могут сами убедиться, насколько это соответствует истине на [демо-странице](http://webix.com/demos/material/admin-app/#!/app/forms). Плохая новость для ленивцев: чудо-скин не будет включен в библиотеку, за ним придется отправиться на [github](https://github.com/webix-hub/material-design-skin).
### Новые значки уведомлений для кнопок и элементов меню
Но даже Material skin меркнет перед лицом следующей киллер-фичи! Теперь можно добавлять кругленькие оранжевенькие значки (OH, WOW!!!) к элементам меню и кнопкам на странице. Их можно использовать для обозначения количества новых уведомлений, неотвеченных имейлов от вашей бывшей или чего угодно ещё, что может прийти вам в голову:

[Демо-страница](http://docs.webix.com/samples/02_toolbar/21_toolbar_badges.html) также в наличии.
### Organogram widget
Звучит устрашающе, но на самом деле это виджет для построения иерархических диаграмм:

Если вы уже использовали ранее [Webix Tree](http://webix.com/ru/vidzhet/tree/), освоить эту штуковину будет несложно. Также можно менять внешний вид по своему вкусу: размер, выравнивание, все, что душа пожелает. Для эстетов доступна возможность изменения стиля с помощью CSS. Потыкать можно [здесь](http://docs.webix.com/samples/60_pro/07_organogram/index.html).
### BarCode widget
Времена нынче непростые. Приходится вертеться, как можешь. Тем из вас, кто решил основать собственный свечной заводик, может пригодиться генератор штрих-кодов. Можно генерить штрих-коды, соответствующие наиболее популярным стандартам: EAN8, EAN13 и UPC-A.
Использовать можно, например, так:
```
webix.ready(function(){
webix.ui({
view: "barcode",
id: "barcode",
type: "ean13",
value: "123456789012"
});
});
```
И, собственно, результат:

### TypeScript

И, наконец, новость для тех, кто использует [TypeScript](https://ru.wikipedia.org/wiki/TypeScript). Начиная с версии 2.3, Webix позволяет использовать готовый файл определения типов. Можно скачать файл [напрямую](http://webix.com/files/blog/webix.d.ts), можно использовать NuGet или другой менеджер пакетов.
### Итого
Релиз интересный. Есть новшества, которые будут любопытны многим, например Material skin. Пятая версия мобильной ОС от Google набирает обороты и было бы не лишним подумать о том, чтобы придать своим веб-приложениям вид, знакомый пользователям по их мобильной ОСи. Некоторые же фишки большинству из вас могут показаться малополезными. Когда, например, вы в последний раз использовали органограммы в своих проектах?
Помочь внести окончательную ясность может полный [список изменений](http://docs.webix.com/desktop__whats_new_2_3.html). Тем, кто постоянно пользуется библиотекой, придется по нраву работа над ошибками: список фиксов довольно немаленький. Скачать библиотеку можно [здесь](http://webix.com/ru/zagruzka/).
На этом, пожалуй, всё…
Ах, да! Отвечая на вопрос, поставленный в самом начале статьи: просто возьмите ваш лэптоп с собой на прогулку. | https://habr.com/ru/post/254103/ | null | ru | null |
# Интеграционные тесты на Flutter — это просто
Думаю, многие уже знакомы с Flutter и хотя бы ради интереса запускали простые приложения на нем. Настало время убедиться, что в них все работает как нужно, и в этом нам помогут интеграционные тесты.

Интеграционные тесты на Flutter пишутся при помощи Flutter Driver, для которого есть [простой и понятный tutorial на официальном сайте](https://flutter.dev/docs/cookbook/testing/integration/introduction). По своей структуре такие тесты похожи на [Espresso](https://developer.android.com/training/testing/espresso) из мира Android. Сначала надо найти UI-элементы на экране:
```
final SerializableFinder button = find.byValueKey("button");
```
потом выполнить с ними какие-то действия:
```
driver = await FlutterDriver.connect();
...
await driver.tap(button);
```
и проверить, что требуемые UI-элементы перешли в нужное состояние:
```
final SerializableFinder text = find.byValueKey("text");
expect(await driver.getText(text), "some text");
```
На простом примере, конечно, все выглядит элементарно. Но с ростом тестируемого приложения и увеличением количества тестов не хочется дублировать поиск UI-элементов перед каждым тестом. Кроме того, потребуется структурировать эти UI-элементы, так как экранов может быть очень много. Для этого надо сделать написание тестов удобнее.
Screen Objects
--------------
В Android ([Kakao](https://github.com/agoda-com/Kakao)) эта проблема решается с помощью группировки UI-элементов с каждого экрана в Screen (Page-Object). Подобный подход можно применить и здесь, только с тем исключением, что в Flutter для выполнения действий с UI-элементами нужен не только `Finder` (для поиска UI-элемента), но и `FlutterDriver` (для выполнения действия), поэтому нужно хранить ссылку на `FlutterDriver` в `Screen`.
Для определения каждого UI-элемента добавим класс [`DWidget`](https://github.com/qwert2603/flutter_driver_helper/blob/master/lib/src/base_screen.dart#L31) (D – от слова Dart в этом случае). Для создания `DWidget` потребуются `FlutterDriver`, с помощью которого будут выполняться действия над этим UI-элементом, а также `ValueKey`, который совпадает с `ValueKey` Flutter виджета из приложения, с которым мы хотим взаимодействовать:
```
class DWidget {
final FlutterDriver _driver;
final SerializableFinder _finder;
DWidget(this._driver, dynamic valueKey) : _finder = find.byValueKey(valueKey);
...
```
Вызывать `find.byValueKey(…)` при ручном создании каждого `DWidget` неудобно, поэтому в конструктор лучше передавать значение `ValueKey`, а `DWidget` сам получит нужный `SerializableFinder`. Также не очень удобно вручную передавать `FlutterDriver` при создании каждого `DWidget`, поэтому можно хранить `FlutterDriver` в [`BaseScreen`](https://github.com/qwert2603/flutter_driver_helper/blob/master/lib/src/base_screen.dart#L14), и передавать его в `DWidget`, а для создания `DWidget` добавить новый метод у `BaseScreen`:
```
abstract class BaseScreen {
final FlutterDriver _driver;
BaseScreen(this._driver);
DWidget dWidget(dynamic key) => DWidget(_driver, key);
...
```
Таким образом, создавать классы-Screens и получать UI-элементы в них будет куда проще:
```
class MainScreen extends BaseScreen {
MainScreen(FlutterDriver driver) : super(driver);
DWidget get button => dWidget('button');
DWidget get textField => dWidget('text_field');
...
}
```
Избавляемся от `await`
----------------------
Еще одна не очень удобная вещь при написании тестов с `FlutterDriver` – это необходимость добавлять `await` перед каждым действием:
```
await driver.tap(button);
await driver.scrollUntilVisible(list, checkBox);
await driver.tap(checkBox);
await driver.tap(text);
await driver.enterText("some text");
```
Забыть про `await` – легко, а без него тесты будут работать некорректно, потому что методы `driver` возвращают `Future` и при их вызове без `await` выполняются до первого `await` внутри метода, а остальная часть метода «откладывается на потом».
Исправить это можно с помощью создания [`TestAction`](https://github.com/qwert2603/flutter_driver_helper/blob/master/lib/src/test_action.dart), который будет «оборачивать» `Future`, чтобы мы могли дождаться завершения одного действия, прежде чем переходить к следующему:
```
typedef TestAction = Future Function();
```
(по сути, `TestAction` – это любая функция (или лямбда), которая возвращает `Future`)
Теперь можно легко запускать последовательность `TestAction` без лишних await:
```
Future runTestActions(Iterable actions) async {
for (final action in actions) {
await action();
}
}
```
Используем `TestAction` в `DWidget`
-----------------------------------
`DWidget` используется для взаимодействия с UI-элементами, и будет очень удобно, если эти действия будут представлять собой `TestAction`, чтобы их можно было использовать в методе `runTestAction`. Для этого в классе `DWidget` будут методы-действия:
```
class DWidget {
final FlutterDriver _driver;
final SerializableFinder _finder;
...
TestAction tap({Duration timeout}) =>
() => _driver.tap(_finder, timeout: timeout);
TestAction setText(String text, {Duration timeout}) => () async {
await _driver.tap(_finder, timeout: timeout);
await _driver.enterText(text ?? "", timeout: timeout);
};
...
}
```
Теперь писать тесты можно следующим образом:
```
class MainScreen extends BaseScreen {
MainScreen(FlutterDriver driver) : super(driver);
DWidget get field_1 => dWidget('field_1');
DWidget get field_2 => dWidget('field_2');
DWidget field2Variant(int i) => dWidget('variant_$i');
DWidget get result => dWidget('result');
}
…
final mainScreen = MainScreen(driver);
await runTestActions([
mainScreen.result.hasText("summa = 0"),
mainScreen.field_1.setText("3"),
mainScreen.field_2.tap(),
mainScreen.field2Variant(2).tap(),
mainScreen.result.hasText("summa = 5"),
]);
```
Если потребуется выполнить в `runTestActions` какое-то действие, не относящееся к `DWidget`, то нужно просто создать лямбду, которая вернет `Future`:
```
await runTestActions([
mainScreen.result.hasText("summa = 0"),
() => driver.requestData("some_message"),
() async => print("some_text"),
mainScreen.field_1.setText("3"),
]);
```
FlutterDriverHelper
-------------------
У `FlutterDriver` есть несколько методов для взаимодействия с UI-элементами (нажатие, получение и ввод текста, скроллинг и т. д.) и для этих методов у `DWidget` имеются соответствующие методы, возвращающие `TestAction`.
Для удобства весь код, описанный в этой статье, опубликован как библиотека [`FlutterDriverHelper` на pub.dev](https://pub.dev/packages/flutter_driver_helper).
Для скролла списков, в которых элементы создаются динамически (например, `ListView.builder`) у `FlutterDriver` есть метод `scrollUntilVisible`:
```
Future scrollUntilVisible(
SerializableFinder scrollable,
SerializableFinder item, {
double alignment = 0.0,
double dxScroll = 0.0,
double dyScroll = 0.0,
Duration timeout,
}) async { ... }
```
Этот метод скроллит виджет `scrollable` в указанном направлении до тех пор, пока виджет `item` не появится на экране (или пока не наступит `timeout`). Чтобы не передавать `scrollable` при каждом скролле, был добавлен класс [`DScrollItem`](https://github.com/qwert2603/flutter_driver_helper/blob/master/lib/src/base_screen.dart#L73), который наследует `DWidget` и представляет собой элемент списка. Он содержит ссылку на `scrollable`, поэтому при скролле остается только указать `dyScroll` или `dxScroll`:
```
class SecondScreen extends BaseScreen {
SecondScreen(FlutterDriver driver) : super(driver);
DWidget get list => dWidget("list");
DScrollItem item(int index) => dScrollItem('item_$index', list);
}
...
final secondScreen = SecondScreen(driver);
await runTestActions([
secondScreen.item(42).scrollUntilVisible(dyScroll: -300),
...
]);
```
Во время тестов можно делать скриншоты приложения, и в `FlutterDriverHelper` есть [`Screenshoter`](https://github.com/qwert2603/flutter_driver_helper/blob/master/lib/src/screenshoter.dart), который сохраняет скриншоты в нужную папку с указанием текущего времени и умеет работать с `TestAction`.
Другие проблемы и их решения
----------------------------
* мне не удалось найти стандартный способ нажимать на кнопки в диалогах выбора времени/даты — приходится использовать [`TestHooks`](https://github.com/qwert2603/flutter_driver_helper/blob/master/example/lib/test_hooks.dart). Также `TestHooks` могут пригодиться для изменения текущего времени/даты во время выполнения теста.
* в выпадающем списке у `DropdownButtonFormField` надо указывать `key` не у `DropdownMenuItem`, а у `child` этого `DropdownMenuItem`, иначе `Flutter Driver` не сможет его найти. Кроме того, скроллинг в выпадающем списке пока что не работает ([Issue на github.com](https://github.com/flutter/flutter/issues/37903)).
* метод `FlutterDriver.getCenter` возвращает `Future`, но `DriverOffset` не входит в публичный API ([Issue на github.com](https://github.com/flutter/flutter/issues/44367))
* есть еще несколько проблемных и не очевидных вещей, решение которых уже существует. О них можно прочитать в [замечательной статье](https://medium.com/flutter-community/blazingly-fast-flutter-driver-tests-5e375c833aa). Особенно полезными оказались возможность запускать тесты на десктопе и сбрасывать состояние приложения перед началом каждого теста.
* запускать тесты можно с помощью с Github Actions. Подробнее [тут](https://medium.com/flutter-community/run-flutter-driver-tests-on-github-actions-13c639c7e4ab).
TODO
----
В качестве TODO на будущее для `FlutterDriverHelper` можно назвать:
* автоматический скролл до нужного элемента списка, если в момент обращения к нему он не виден на экране (как это сделано в библиотеке [Kaspresso](https://github.com/KasperskyLab/Kaspresso) для Android). Если получится, то даже в обоих направлениях.
* interceptors для действий, выполняемых с `Dwidget` или `DscrollItem`.
*Комментарии и конструктивная обратная связь приветствуются.*
**Update (15.01.2020)**: в версии [1.1.0](https://pub.dev/packages/flutter_driver_helper) `TestAction` стал классом, с полем `String name`. И благодаря этому добавилось логирование всех выполняемых действий в методе `runTestActions`. | https://habr.com/ru/post/483468/ | null | ru | null |
# Тренды в тестировании в 2020

*Автор статьи: [Дмитрий Шадрин](https://otus.pw/aZOm/)*
---
### Вступление
Хочется поделиться моим топом инструментов для тестирования, которые еженедельно помогают мне в эффективной работе и улучшении своих показателей.
Я занимаюсь тестированием на аутсорсе и приходится работать с различными видами продуктов: мобильные приложения и игры, web, серьезные криптовалютные проекты для Desktop и т.д. В этой статье я хотел бы подобрать наиболее удобные и значимые инструменты, которые помогают мне оптимизировать свою работу при тестировании мобильных приложений.
### Мобильные приложения
Самое главное, на что необходимо сделать упор в тестировании мобильного приложения — это **функциональное тестирование**. Когда вы определились для кого сделан ваш продукт, кто конечный потребитель, то только тогда вы сможете составить грамотные end-to-end тесты для своего приложения.
Начинаем тестирование мы всегда с соответствия требованиям и дизайну приложения. Хороший QA должен знать требования к тестируемому продукту, а отличный — дружить с дизайном. И это значит не просто уметь заглянуть в Figma, Invision или Zeplin, но и понимать как устроен UI/UX его приложения.
Для более точного закрепления всех перемещений пользователя по экранам приложения обычно составляется майндкарта (mindmap). Из наиболее удобных для меня могу выделить xMind, Mindomo и MindMeister.
С появлением и актуализацией майндкарты становится легче тестировать приложения, а что особенно удобно — актуализировать и пополнять тестовую документацию (чек-лист, например).
Хороший чек-лист опирается на требования к проекту, документацию к фичам и задачи, поставленные перед командой в текущей реализации. Майнд-карта же позволяет не забыть и учесть все нюансы, тем самым делая отличную почву для end-to-end тестирования. Сервис, который поможет вам как найти готовые чек-листы, так и актуализировать свой: <https://checkvist.com/checklists/476089>
* В каждом чек-листе должны присутствовать и общие для всех мобильных приложений кейсы, вроде:
* тестировщики обращают внимание на правильную функциональность всех полей ввода (обязательных и необязательных), правильно ли они отображаются на экране и появляются ли соответствующие алерты при неправильном их заполнении
* приложение не должно сильно влиять на общую производительность мобильного устройства и правильно реагировать на прерывания. В этих кейсах тестировщики проверяют все возможные прерывания. Имитируются сценарии входящих звонков, смс, предупреждения о низком заряде батареи, отсутствия доступа к сети Интернет, потеря GPS или внезапное отключение устройства. Влияние на производительность можно замерить скоростью разрядки батареи, нагрузкой на процессор и оперативную память устройства. Обычно, при разработке приложения, учитываются минимальные требования к устройству и как раз с таких устройств стоит начать проверку производительности.
* если в приложении присутствуют платежные транзакции, то QA инженеры должны перед каждым релизом убедиться, что приложение поддерживает любую из указанных в приложении платежных систем (Visa, Mastercard, Paypal)
* новую функциональность в приложении всегда стоит проверять на соответствие гайдлайнам выбранной мобильной операционной системы:
**iOS >** [developer.apple.com/design/human-interface-guidelines](https://developer.apple.com/design/human-interface-guidelines/)
**Android >** [material.io/design/guidelines-overview](https://material.io/design/guidelines-overview)
* не стоит забывать и о кейсах для accessibility testing. Этому виду тестирования в последнее время уделяется много внимания и за мою карьеру случалось несколько случаев, когда наш билд “заворачивали”, пока мы не добавим все необходимые возможности. Подробнее об этом виде тестирования можно прочитать в этой статье: [habr.com/ru/post/470091](https://habr.com/ru/post/470091/)
* в мобильном приложении рано или поздно появляются пуш-уведомления. Стоит проверить что по нажатию на них пользователь попадает на заданный экран, что пуши нормально компонуются в очередь и доходят до адресата.
Инструменты, которые понадобятся для проверки вышеуказанных кейсов:
Снифферы Charles или Fiddler, как самые популярные до сих пор инструменты для анализа сетевого трафика. Они позволяют проверить кейсы на обрыв сети и слабый интернет, посмотреть на исходящие запросы и полученные ответы. Так же позволяют имитировать некоторые ситуации, которые сложно воспроизвести на реальных кейсах.
Данные из снифферов пригодятся при дальнейшем тестировании API. Но для работы с API советую использовать специализированные инструменты: Swagger UI, Postman. Оба инструмента решают две задачи: документирование запросов и их интерактивную проверку.
Стоит задуматься и об автоматизации процесса тестирования. Одним из самых распространенных решений для автоматизации UI тестирования мобильных приложений является *Appium*. Сравнительно легкий порог вхождения и обилие документации, а также огромная база QA специалистов, которые всегда помогут ответить на возникающие вопросы.
*Appium — это бесплатный кроссплатформенный инструмент с открытым исходным кодом, который помогает автоматизировать приложения как для Android, так и для iOS. Является одним из самых широко используемых инструментов для создания автоматических тестов для смартфонов и планшетов.*
Несомненными преимуществами Appium является простота в использовании, а также поддержка многих языков программирования: Java, Ruby, Python, C#, PHP.
Прежде чем начинать работать с Appium, необходимо настроить окружение из следующих компонентов:

После того как программное обеспечение будет установлено, можно позаботиться и о приложении. Вам понадобится `.apk-файл` для Android-приложения либо .ipa-файл для iOS для того, чтобы при запуске тестов данное приложение было установлено на выбранное устройство. Если приложение не было установлено на устройстве, то код тестов его установит, а затем запустит сами тесты.
В процессе автоматизации тестирования рано или поздно встает вопрос: тестирования на реальных устройствах или использовать эмуляторы. Как показывает практика и безжалостная статистика, эмуляторы — не панацея. Очень часты ситуации, когда на эмуляторах все отрабатывает идеально и все тесты пройдены. Но на реальном устройстве работа приложения блокируется системой безопасности, работой другого приложения или кастомной прошивкой (привет Android!).
**Моя рекомендация — комбинировать и использовать фермы устройств.** Такие сервисы как BrowserStack, AWS Device Farm, Xamarin Test Cloud. Вы подключаетесь к реальным устройствам, можете интегрировать в эти сервисы свои автотесты и смотреть на получаемые результаты. Но всегда стоит иметь в парке девайсов целевые устройства, а так же устройства из верхней и нижней планки (минимально допустимые и флагманские).
*Неплохая альтернатива Appium — [codecept.io](https://codecept.io/)*
Если вам предпочтителен JS в качестве языка для разработки автотестов — warmly welcome to CodeceptJS. Подробнейшая документация, тесты не занимают много экранного места (вы поймете о чем я) и активная поддержка всех современных операционных мобильных систем заставят задуматься в пользу этого инструмента.
После того как ваш проект оброс значительным количество автотестов было бы неплохо автоматизировать их запуск при каждой сборке нового билда. Кастомизировать и настроить это вам помогут современные системы CI\CD. Лично я предпочитаю Jenkins или Teamcity, но здесь уж дело вкуса.
Еще одним инструментом, позволяющим сократить и оптимизировать регрессионное тестирование является матрица зависимостей (она же матрица трассировки). Если коротко — это таблица, в которой проставляются зависимости элементов системы друг от друга. Для составления такой матрицы требуется разбираться в коде приложения, а также очень поможет проконсультироваться с архитектором проекта. Но в итоге такой инструмент позволит существенно (на моей памяти — до 40%) сократить время регрессионного тестирования. Более подробно о матрице можно прочитать [здесь](https://habr.com/ru/company/simbirsoft/blog/412677/).
### Hint’ы
Вот мой набор полезных хинтов для того, позволяющих найти максимальное количество ошибок, учитывая специфику мобильных приложений.
* Всегда проверяйте кейсы на сворот/разворот, выход из спящего режима и включение/выключение. Для Android есть настройка — Do not keep activities ([DNKA](https://habrahabr.ru/post/221679/)). При тестировании с этой настройкой обязательно указывайте в багах эту аббревиатуру, чтобы разработчику было проще это воспроизвести.
* Нотификации/уведомления — бывают локальные, так и серверные (т.е. завязанные на подключении к сети). Всегда стоит помнить о них и проверять их правильную работу. Они всегда должны вести на целевой экран. Либо стоит отказаться от них, пока разработчики не нашли правильный способ навигации.
* Используйте Charles и аналоги для воспроизведения всех возможных кейсов с сетью. Пользователи всегда в движении и поэтому в вашем приложении на каждом экране должна быть обработка ситуаций с потерей сигнала.
* Приложения используют многие сервисы мобильного устройства, такие как камера, галерея. микрофон и прочее. Всегда проверяйте кейсы на доступ к этим сервисам и особенно кейсы, когда доступ к ним запрещен.
* Помните об особенностях операционных систем и платформ. Например требования к iOS: все ipa-файлы должны быть подписаны разработчиками. В Android же, например, очень часто можно найти баги при быстром переключении между экранами. Данные не успевают прогрузиться и приложение крашится.
* Во время тестирования у приложений стоит тестовый сертификат, чтобы QA мог беспрепятственно смотреть трафик с использованием сниффера. В фазе предпродакшена всегда стоит проверять на боевых сертификатах свое приложение.
* Держите руку на пульсе проекта. Для этого общайтесь с разработчиком фичи, которую тестируете. Он может знать больше нюансов, чем указано в документации. Общайтесь с проектным менеджером чтобы лучше понимать приоритетность задач и сроков. Обшайтесь с дизайнерами и не поленитесь после прохождения регрессионного тестирования показать им итогвый вид новой функциональности. Такая практика называется “авторский контроль” и она не раз помогала найти совершенно неочевидные расхождения с идеей и реализацией.
* Всегда закладывайте правильное время на тестирование. Помните о форс мажорных ситуациях, которые всегда могут возникнуть. Закладывайте примерно 20% времени от тестирования на такие случаи. Лучше закончить тестирование раньше отмеченного срока, чем непредсказуемо выйти за пределы дедлайнов. Ведь, как мы помним, в багах на проде всегда “виноваты QA”.
* Проверьте что в вашем приложении есть форма обратной связи и она удобна для пользователя. Большое количество багов девайсозависимы и именно пользователь со своим уникальным устройством и его конфигурацией может помочь вам в расследовании бага.
### Заключение
В этой записке я хотел пробежаться по основным инструментам и хинтам, что использую в своей повседневной работе. Более подробно о всех современных инструментах вы можете познакомиться на [нашем курсе по мобильному тестированию](https://otus.pw/jYbA/) на обучающей платформе OTUS. Также приглашаю вас на бесплатный урок, в рамках которого мы подробнее обсудим современные практики тестирования мобильных Android/iOS-приложений, поговорим про необходимый набор тестировщика в 2020-м году и рассмотрим тему автоматизации своей работы и тестов. | https://habr.com/ru/post/501564/ | null | ru | null |
# Выводим состояние серверов из Zabbix на рабочий стол
Система мониторинга [Zabbix](http://www.zabbix.org) предоставляет замечательные возможности по мониторингу серверов под управлением ОС AIX, Linux, \*BSD, Windows, Mac OS X, сетевого оборудования, Web-приложений, а также любый железяк поддерживающих SNMP или хотя бы отвечающих на пинг. Zabbix бесплатен и распространяется по лицензии GPL. Серверная часть системы устанавливается только под \*nix.
Можно настроить отсылку уведомлений на email, jabber, sms при наступлении нежелательных событий, как то падение сервера, чрезмерная загрузка процессора, отсутствие места на диске и т.п. Также существует веб-интерфейс с красивыми графиками и картой сети.
Но сисадмин, как известно, существо ленивое. Поэтому чтобы не лазить постоянно в веб-интерфейс целесообразно вывести некоторые графики и карту сети прямо на его рабочий стол.

В данной статье мы рассматриваем Windows XP/7 в качестве клиентской машины, но путем небольшого допиливания скрипт можно использовать и в Linux.
**Принцип работы:**
В Zabbix создаются необходимые графики и карта сети, которую мы хотим выводить на экран. PHP-скрипт раз в минуту обращается к Zabbix, получает от него эти изображения и генерирует из них один рисунок для рабочего стола. Рисунок помещается на веб-сервере. Другой скрипт на клиентской машине периодически скачивает этот рисунок и устанавливает его в качестве обоев.
**Шаг 0. Устанавливаем и настраиваем Zabbix.**
Этот вопрос уже разжёван в [документации](http://www.zabbix.com/documentation/), на нем останавливаться не будем.
В статье используется версия 1.8.2. В более ранних версиях используются другие адреса картинок, поэтому если у вас Zabbix 1.4 или 1.6, вам необходимо будет внести коррективы в скрипт.
**Шаг 1. Создаем в Zabbix необходимые графики и карты сети.**
Этот шаг тоже не должен вызвать затруднений.
Графики можно создать на странице *Configuration — Hosts*, карту сети — в *Maps*.
**Шаг 2. Пишем скрипт, генерирующий фоновую картинку рабочего стола.**
Используем PHP, расширение сURL для получения картинок, библиотеки gd и ImageMagick для работы с изображениями.
Предварительно необходимо создать в Zabbix пользователя, под которым скрипт будет заходить в систему.
Скрипт также будет получать график загрузки WAN интерфейса роутера из [cacti](http://www.cacti.net/) и изображение с веб-камеры в серверной. График в cacti кажется более наглядным, чем график Zabbix.
Результатом работы скрипта будет BMP-файл.
Скрипт не претендует на универсальность, но его легко переделать под свои нужды. Обязательно нужно изменить значения констант в начале файла на настройки для вашей системы.
`> php</font
>
>
>
>
>
> //Основные настройки, не забудьте указать свои значения!
>
>
>
>
>
> //1. Папка для хранения изображений
>
>
> define('TMP\_PATH', '/usr/local/share/zabbix/php/tmp/');
>
>
> //2. URL веб-интерфейса Zabbix
>
>
> define('ZABBIX\_URL', 'http://monitoring.local/');
>
>
> //3. Пользователь в Zabbix
>
>
> define('ZABBIX\_USER', 'mon');
>
>
> //4. Пароль для Zabbix
>
>
> define('ZABBIX\_PW', 'qwerty');
>
>
> //5. Пользователь в Cacti
>
>
> define('CACTI\_URL', 'http://monitoring.local/cacti/');
>
>
> //6. Пользователь в Cacti
>
>
> define('CACTI\_USER', 'admin');
>
>
> //7. Пароль для Cacti
>
>
> define('CACTI\_PW', 'qwerty');
>
>
> //8. Ширина рабочего стола в пикселях
>
>
> define('WALLPAPER\_WIDTH', 1280);
>
>
> //9. Высота рабочего стола в пикселях
>
>
> define('WALLPAPER\_HEIGHT', 1024);
>
>
> //10. Ресурсы, выводимые на рабочий стол и их координаты.
>
>
> // Координаты придется считать вручную.
>
>
> $resources = array();
>
>
> //Карта сети
>
>
> $resources[] = array('url' => 'http://monitoring.local/map.php?noedit=1&sysmapid=2', 'x' => 280, 'y' => 0);
>
>
> //График температуры
>
>
> $resources[] = array('url' => 'http://monitoring.local/chart2.php?graphid=494&width=1138.=86400', 'x' => 26, 'y' => 400);
>
>
> //Веб-камера
>
>
> $resources[] = array('url' => 'http://192.168.4.18/axis-cgi/jpg/image.cgi?resolution=320x240', 'x' => 960, 'y' => 690);
>
>
> //График из cacti
>
>
> $resources[] = array('url' => 'http://monitoring.local/cacti/graph\_image.php?local\_graph\_id=5&rra\_id=0&view\_type=tree&graph\_start=' . (time() - 86400) . '&graph\_end=' . time(), 'x' => 357, 'y' => 690);
>
>
>
>
>
> //Конец настроек
>
>
> //Ниже менять ничего не надо, если вы не уверены, что вы делаете.
>
>
>
>
>
> $error = false;
>
>
>
>
>
> //"Логинимся" скриптом в Zabbix
>
>
> $ch = curl\_init();
>
>
> curl\_setopt($ch, CURLOPT\_URL, ZABBIX\_URL . '/index.php');
>
>
> curl\_setopt($ch, CURLOPT\_POST, 1);
>
>
> curl\_setopt($ch, CURLOPT\_POSTFIELDS, array('form'=>'1', 'form\_refresh'=>'1','name'=>ZABBIX\_USER, 'password'=>ZABBIX\_PW,'enter'=>'Enter'));
>
>
> curl\_setopt($ch, CURLOPT\_RETURNTRANSFER, 1);
>
>
> curl\_setopt($ch, CURLOPT\_FOLLOWLOCATION, 1);
>
>
> curl\_setopt($ch, CURLOPT\_COOKIEJAR, "./cookie.txt"); //Сохраняем куки в файл
>
>
> curl\_setopt($ch, CURLOPT\_COOKIEFILE, "./cookie.txt");
>
>
>
>
>
> $t = curl\_exec($ch);
>
>
> curl\_close($ch);
>
>
>
>
>
>
>
>
> //"Логинимся" скриптом в cacti. Удалите эти строчки, если вы не используете cacti
>
>
> $ch = curl\_init();
>
>
> curl\_setopt($ch, CURLOPT\_URL, CACTI\_URL . '/graph\_image.php');
>
>
> curl\_setopt($ch, CURLOPT\_POST, 1);
>
>
> curl\_setopt($ch, CURLOPT\_POSTFIELDS, array('action'=>'login', 'login\_username'=>CACTI\_USER,'login\_password'=>CACTI\_PW));
>
>
> curl\_setopt($ch, CURLOPT\_RETURNTRANSFER, 1);
>
>
> curl\_setopt($ch, CURLOPT\_FOLLOWLOCATION, 1);
>
>
> curl\_setopt($ch, CURLOPT\_COOKIEJAR, "./cookie.txt");
>
>
> curl\_setopt($ch, CURLOPT\_COOKIEFILE, "./cookie.txt");
>
>
>
>
>
> $t = curl\_exec($ch);
>
>
> curl\_close($ch);
>
>
>
>
>
> //Получаем изображения
>
>
> foreach($resources as $k => $res)
>
>
> {
>
>
> $ch = curl\_init();
>
>
> curl\_setopt($ch, CURLOPT\_URL, $res['url']);
>
>
> curl\_setopt($ch, CURLOPT\_RETURNTRANSFER, 1);
>
>
> curl\_setopt($ch, CURLOPT\_COOKIEJAR, "./cookie.txt");
>
>
> curl\_setopt($ch, CURLOPT\_COOKIEFILE, "./cookie.txt");
>
>
>
>
>
> $file = curl\_exec($ch);
>
>
> if($file) file\_put\_contents(TMP\_PATH . 'temp\_img' . $k . '.tmp', $file);
>
>
> else $error = true;
>
>
> curl\_close($ch);
>
>
> }
>
>
>
>
>
> //Создаем "обои" на рабочий стол
>
>
> $wp = imagecreatetruecolor(WALLPAPER\_WIDTH, WALLPAPER\_HEIGHT);
>
>
>
>
>
> if(!$error)
>
>
> {
>
>
> //Все в порядке
>
>
>
>
>
> //Заливаем синим фоном
>
>
> $bg = imagecolorallocate($wp, 58, 110, 165);
>
>
> imagefill($wp, 0, 0, $bg);
>
>
>
>
>
> //Добавляем картинки
>
>
> $images = array();
>
>
> foreach($resources as $k => $res)
>
>
> {
>
>
> $im = imagecreatefromfile(TMP\_PATH . 'temp\_img' . $k . '.tmp');
>
>
> if(!$im)
>
>
> {
>
>
> $error = true;
>
>
> break;
>
>
> }
>
>
> imagecopy($wp, $im, $res['x'], $res['y'], 0, 0, imagesx($im), imagesy($im));
>
>
> imagedestroy($im);
>
>
> }
>
>
> imagepng($wp, TMP\_PATH . 'temp\_fin.png');
>
>
> }
>
>
>
>
>
> if($error)
>
>
> {
>
>
> //Если произошла ошибка, заливаем рабочий стол серым цветом
>
>
> $bg = imagecolorallocate($wp, 192, 192, 192);
>
>
> imagefill($wp, 0, 0, $bg);
>
>
> }
>
>
>
>
>
> //Конфертируем полученный PNG файл в BMP с помощью ImageMagick
>
>
> $imgk = new Imagick(TMP\_PATH . 'temp\_fin.png');
>
>
> $imgk->pingImage(TMP\_PATH . 'temp\_fin.png');
>
>
> $imgk->readImage(TMP\_PATH . 'temp\_fin.png');
>
>
> $imgk->setImageCompression(imagick::COMPRESSION\_NO);
>
>
> $imgk->setImageFormat("bmp");
>
>
> $imgk->writeImage(TMP\_PATH . 'wp.bmp');
>
>
>
>
>
>
>
>
> //Функция открытия изображения в зависимости от его типа с сайта php.net
>
>
> function imagecreatefromfile($path)
>
>
> {
>
>
> $info = @getimagesize($path);
>
>
> if(!$info) return false;
>
>
>
>
>
> $functions = array(
>
>
> IMAGETYPE\_GIF => 'imagecreatefromgif',
>
>
> IMAGETYPE\_JPEG => 'imagecreatefromjpeg',
>
>
> IMAGETYPE\_PNG => 'imagecreatefrompng',
>
>
> IMAGETYPE\_WBMP => 'imagecreatefromwbmp',
>
>
> IMAGETYPE\_XBM => 'imagecreatefromwxbm',
>
>
> );
>
>
>
>
>
> if(!$functions[$info[2]]) return false;
>
>
>
>
>
> if(!function\_exists($functions[$info[2]])) return false;
>
>
>
>
>
> return $functions[$info[2]]($path);
>
>
> }
>
>
> ?>`
**Шаг 3. Добавляем скрипт в крон**
Желательно хранить скрипт в каталоге, который не опубликован на сайте. Иначе скрипт можно будет запускать из браузера, да и файл с куки можно будет утащить.
Добавляем скрипт в крон:
`# echo "*/1 * * * * root /usr/local/bin/php /usr/local/share/zabbix/get_image.php > /dev/null 2>&1" >> /etc/crontab`
Zabbix по умолчанию обновляет данные раз в 30 секунд, так что обновление картинки можно сделать раз в минуту.
**Шаг 4. Устанавливаем на клиентской машине скрипт автоматической смены обоев.**
Создадим VBS-скрипт:
***Для Windows XP***
`> Dim res
>
>
> Set oXMLHTTP = CreateObject("MSXML2.XMLHTTP")
>
>
> oXMLHTTP.Open "GET", "http://monitoring.local/tmp/wp.bmp", 0'адрес сайта
>
>
> oXMLHTTP.Send
>
>
> On Error Goto 0
>
>
>
>
>
> Set oADOStream = CreateObject("ADODB.Stream")
>
>
> oADOStream.Mode = 3
>
>
> oADOStream.Type = 1
>
>
> oADOStream.Open
>
>
> oADOStream.Write oXMLHTTP.responseBody
>
>
> oADOStream.SaveToFile "C:\\wp.bmp", 2'куда файл сохранять
>
>
> Set oXMLHTTP = Nothing
>
>
> Set oADOStream = Nothing
>
>
>
>
>
>
>
>
> Dim WshShell
>
>
> Set WshShell = WScript.CreateObject("Wscript.Shell")
>
>
> WshShell.RegWrite "HKCU\Control Panel\Desktop\Wallpaper", """C:\\wp.bmp"""
>
>
> WshShell.Run "%windir%\System32\RUNDLL32.EXE user32.dll,UpdatePerUserSystemParameters", 1, True
>
>
>
>
>
> Set WshShell = Nothing`
***Windows Vista/Windows 7***
Здесь ситуация сложнее. Для смены обоев необходимо вызвать WinAPI функцию. VBScript этого сделать не может, поэтому нам придется написать небольшую программку на C++.
Идея взята [отсюда](http://shovellingwater.wordpress.com/2010/04/07/windows-7-time-dependant-desktop-background/).
В конце статьи есть ссылка на скомпилированный exe-шник, но на всякий случай привожу исходный код:
`> #include
>
>
> #include
>
>
> #include
>
>
> int main(int argc, char \*\*argv)
>
>
> {
>
>
> if(argc == 0) return 1;
>
>
> SystemParametersInfo( SPI\_SETDESKWALLPAPER, 0, (PVOID)argv[1], SPIF\_UPDATEINIFILE | SPIF\_SENDCHANGE );
>
>
> return 0;
>
>
> }
>
>
>`
Теперь необходимо в VBS скрипте для Windows XP заменить строку
`WshShell.Run "%windir%\System32\RUNDLL32.EXE user32.dll,UpdatePerUserSystemParameters", 1, True`
на
`WshShell.Run "C:\wallpaper.exe C:\wp.bmp", 1, True`
**Шаг 5. Добавляем VBS скрипт в планировщик задач**
Необходимо запускать скрипт раз в минуту.
**Готово!**
Файлы проекта — [zabbix\_wallpaper.zip](http://ross.vc/misc/zabbix_wallpaper.zip). | https://habr.com/ru/post/104460/ | null | ru | null |
# DataGrip 2020.1: Конфигурации запуска, экспорт в Excel, результаты в редакторе и другое
Привет! Это наш первый релиз из дома. [**DataGrip**](https://www.jetbrains.com/datagrip/whatsnew/) и другие наши IDE с поддержкой баз данных теперь умеют больше.

Конфигурации запуска
--------------------
Если вы используете наши IDE, вероятно, эта концепция знакома. Когда вы хотите что-то запустить, создайте для этого конфигурацию. В DataGrip можно запустить файлы, скрипты и тесты.
**Конфигурация для файлов**
Раньше файлы запускались только по одному. Теперь в конфигурацию можно включить сколько угодно файлов, выставить нужный порядок, добавить к конфигурации запуск внешнего инструмента или другой конфигурации.

Новые конфигурации сохраняются автоматически. Если для запуска файлов вы хотите каждый раз видеть диалоговое окно конфигурации, например чтобы поменять базу, в которой запускаются файлы, отметьте галочкой *Show this page.* Это удобно, если вы привыкли каждый раз выбирать направление запуска, как раньше.

**Конфигурация для запуска кода**
Конфигурация может запускать не только файлы, но и запросы. Для этого выберите *Script text*.

**Управление конфигурациями**
Сохраненные конфигурации ищите на панели инструментов или в меню `Run|Edit configurations…`

Там вы увидите список конфигураций.

Поддержка тестовых фреймворков
------------------------------
Поддержали два фреймворка: [utPLSQL](http://utplsql.org/) для PL/SQL кода в Oracle и [tSQLt](https://tsqlt.org/)для Transact SQL в SQL Server.
Тесты и пакеты тестов можно запускать из редактора: на панели слева есть кнопка.

Для каждого запуска создается временная конфигурация: они циклически удаляются. Но в секции для каждого фреймворка можно создавать и постоянные конфигурации. Также тесты можно запускать по тэгам.

Еще один способ запуска тестов — при помощи комбинации клавиш *Ctrl/Cmd+Shift+F10.*

В окне инструментов *Run* будут результаты.

Редактор данных
---------------
**Результаты в редакторе**
Сделали новый режим: результаты запроса в редакторе. Этот режим можно включить и только для текущего файла кнопкой на панели инструментов, и для всей IDE: настройка *Settings/Preferences | Database | General | Show output results in the editor*.

**Просмотрщик геоданных**
Для этого мы включили браузер [JCEF](https://github.com/chromiumembedded/java-cef). Есть небольшая вероятность, что он ломает плагины, которые используют JavaFX. В DataGrip такие плагины почти не используют, поэтому мы решили попробовать. Если будут проблемы, пишите.
Когда вы находитесь в поле с гео-данными, нажмите на иконку с шестеренкой и выберите *Show Geo Data.*

Экспорт данных
--------------
**Экспорт в Excel**
Наконец-то!

**Удобства**
Подчистили меню с экстракторами: добавили группы, в именах оставили только формат. Экстрактора в Excel тут нет, потому что он не умеет копировать данные в буфер обмена.

Добавили диалоговое окно экспорта: появляется, когда вы экспортируете в файл. Тут уже можно выбрать формат `*.xlsx`.

**Текстовый просмотр**
Теперь данные в любом формате можно смотреть в редакторе данных: от того, какой экстрактор вы выберете, зависит то, как они отображаются.

Соединение
----------
Поддержали *pg\_pass* в PostgreSQL.

Добавили интерфейс для доменной аутентификации в SQL Server. Раньше надо было ходить во вкладку *Advanced* и вписывать значения в параметры.

Сделали общую конфигурацию SSH: теперь ее создать можно один раз, а использовать в нескольких источниках данных.

Консоль запросов
----------------
**Превью апдейтов**
Прежде чем запустить `UPDATE`, посмотрите, что получится. Для этого нажмите *Alt+Enter* и среди предложенных действий выберите *Preview Update*.

В полученном результате столбцы с новыми значениями будут рядом со столбцами до обновления.

**Навигация к настройкам запуска**
Есть два типа людей: те, кто любят этот выпадающий список, и те, кто его ненавидят.

Те, кто ненавидят, могут его отключить, но они не всегда знают, как это сделать. Мы добавили ссылочку *Customize* к настройкам запуска: можно убрать выбор, настроить несколько разных запусков, назначить сочетание клавиш для запуска всего файла.

**Подсветка дат**
Теперь мы понимаем, что даты — это даты, и подсвечиваем их соответственно. Предупредим, если что-то не так, например если дата нереалистична.

**Помощь при написании кода в MongoDB**
Продолжаем развивать поддержку MongoDB: добавили простое автодополнение.

Поиск и навигация
-----------------
**Контекстный источник данных**
Теперь можно искать объекты в текущем источнике данных. Например, если вы, находясь в консоли, хотите найти таблицу, область поиска можно сузить до источника данных этой консоли. Для этого выберите *Context Data Source* в области поиска.
Можно искать сразу в нескольких источниках данных: для этого выберите их в дереве.

Структурный поиск
-----------------
Еще одна концепция, которую мы взяли из наших других программ. Пока мы сделали базовый вариант: можно искать выражения, типы и предложения *WHERE*. О том, как это работает, читайте у нас в [документации](https://www.jetbrains.com/help/datagrip/structural-search-and-replace.html) на английском.

Работа с файлами
----------------
**CSV тип**
Мы зарегистрировали тип файлов CSV. Это означает, что теперь вы не будете видеть нотификацию о том, что есть сторонние плагины, поддерживающие удобное редактирование CSV-файлов. Такая функциональность есть внутри DataGrip: открыв файл, вы увидите кнопку *Edit as Table*.

Если вы нажмете на нее, вам предложат выбрать формат файла, а затем внизу появится вкладка *Data*, в которой данные можно будет смотреть и редактировать в удобном табличном виде.

**Прикрепление папки**
В проводнике внутри DataGrip можно открыть папку, с которой вы работаете. У нас это действие называется *Attach*, но иногда люди делают это, используя меню *File | Open*. Раньше это действие открывало папку как проект. Теперь, если это не проект, папка прикрепляется к текущему проекту. И становится видна в панели инструментов *Files*.

**Файл в режиме «только текст»**
Из контекстного меню можно пометить файл как текстовый. Это означает, что в нем не будет работать подсветка и редактировать его можно будет быстрее. Полезно, если файл большой и его анализ требует много ресурсов.

Проводник базы данных
---------------------
Добавили интерфейсы для создания баз данных, схем, ролей и пользователей.

А еще, если вы заметили, наш новый шрифт [JetBrains Mono](https://www.jetbrains.com/lp/mono/) включен по умолчанию во всех IDE.

И напоследок: мы решили открыть для DataGrip [канал в Телеграме](https://t.me/datagrip). Будем там отвечать на вопросы, делать маленькие посты. Будет круто, если в этом канале вы будете помогать друг другу. О багах туда можно писать, но лучше заводить сразу в [трекере](https://youtrack.jetbrains.com/issues/DBE): там они не потеряются.
На этом всё!
Команда DataGrip | https://habr.com/ru/post/495474/ | null | ru | null |
# Apache Ignite.NET 2.4: Тонкий и кроссплатформенный
Недавно вышла новая версия распределённой SQL базы данных [Apache Ignite](https://ignite.apache.org/), предлагаю взглянуть на новые фичи с позиции .NET.

Thin .NET Client
================
До версии 2.4 как в Java, так и в [.NET](https://apacheignite-net.readme.io/docs/), было два варианта подключения к кластеру: Server и Client. В целом, клиентский режим отличается от серверного только тем, что клиентские узлы не хранят данные и не выполняют вычисления (compute, map-reduce). В остальном переиспользуются существующие компоненты discovery & communitaction. Присоединение клиентского узла к кластеру — относительно тяжёлый процесс, который может занять несколько секунд.
Ситуация с .NET осложняется тем, что внутри процесса стартует JVM, потребляя немало ресурсов и внося дополнительные требования к окружению.
Все эти проблемы решает наш новый [«тонкий» клиент](https://apacheignite-net.readme.io/v2.4/docs/thin-client):
* Подключается к одному из серверных узлов через сокет, мгновенный процесс.
* Не требует наличия Java на машине, не запускает JVM.
* Практически не потребляет памяти.
* Подключается к любым типам узлов Ignite: Java-only, .NET, C++.
Из функциональности есть пока только Cache + LINQ, в будущем планируется добавить всё остальное.
При этом API выглядит идентично:
```
var cfg = new IgniteClientConfiguration { Host = "127.0.0.1" };
using (var client = Ignition.StartClient(cfg))
{
var cache = client.GetCache("persons");
cache[1] = new Person(1, "Vasya");
cache[2] = new Person(2, "Petya");
// SQL
cache.Query(new SqlFieldsQuery("select name from person where id > 1"));
// LINQ
cache.AsCacheQueryable().Where(x => x.Value.Id > 1) ...;
}
```
Надо заметить, что появление тонкого клиента вовсе не означает, что существующий "толстый" API будет в будущем отправлен на свалку:
* Скорость работы тонкого клиента всегда будет чуть ниже, так как он работает через посредника.
* Многие фичи, такие как [Compute](https://apacheignite-net.readme.io/docs/compute-grid) и [Services](https://apacheignite-net.readme.io/docs/service-grid), работают на серверных нодах через "толстый" API (даже если вызваны со стороны клиента).
**Пример в LINQPad**
В процессе работы с Ignite может возникнуть желание быстро подключиться к кластеру, посмотреть на данные в кэшах, запустить какой-то запрос. Для этого существуют такие инструменты, как [Visor Command Line](https://apacheignite-tools.readme.io/docs/command-line-interface) и [Web Console](https://apacheignite-tools.readme.io/docs/ignite-web-console).
С появлением тонкого клиента всё это можно быстро и удобно делать через [LINQPad](https://www.linqpad.net/). Достаточно добавить NuGet пакет `Apache.Ignite` через "Add NuGet...", и готовый пример кода будет загружен автоматически.
**Скриншот**
.NET Core, Mono, Linux, macOS
=============================

Заголовок говорит сам за себя, теперь Ignite.NET можно использовать на следующих платформах и ОС:
* Windows (.NET 4.0+, .NET Core 2.0+, Mono)
* Linux (любой дистрибутив, где работает .NET Core 2.0+ или Mono)
* macOS (опять же под .NET Core 2.0+ или Mono)
**Как попробовать?**
Под .NET Core [инструкция](https://apacheignite-net.readme.io/v2.4/docs/cross-platform-support) одинаковая для всех платформ:
* `dotnet new console`
* `dotnet add package Apache.Ignite`
* В Program.cs добавляем `Apache.Ignite.Core.Ignition.Start();`
* `dotnet run`
**warning NU1701: This package may not be fully compatible with your project.**Сборка проекта выдаст предупреждение `warning NU1701: Package 'Apache.Ignite 2.4.0' was restored using '.NETFramework,Version=v4.6.1' instead of the project target framework '.NETCoreApp,Version=v2.0'. This package may not be fully compatible with your project.`
Причина в том, что внутри NuGet пакета лежит единственная dll-ка, собранная под .NET 4.0, что сделано для упрощения процесса. Это нисколько не мешает ей работать под .NET Core. Подавить предупреждение можно при помощи строчки `NU1701`в файле `csproj`.
**Mono**
Mono работает с обычными 'Classic .NET' солюшнами, создать их на Linux можно в [MonoDevelop](http://www.monodevelop.com/).
Один из юз кейсов для Mono — это 32-битные процессоры, ведь .NET Core требует x64. Я столкнулся с этим, тестируя запуск Ignite.NET на всём, что попадало под руку, а под руку попался старенький EEE PC 901 с установленной [Lubuntu](https://lubuntu.net/), где под Mono всё благополучно запустилось.
**Разработка на Linux и macOS**
Помимо использования, Ignite.NET теперь также можно и разрабатывать на Linux и macOS. Под Mono основной солюшн компилируется как есть. Под .NET Core для этого добавлены отдельные файлы солюшна и проектов под .NET Core:
[Apache.Ignite.DotNetCore.sln](https://github.com/apache/ignite/blob/master/modules/platforms/dotnet/Apache.Ignite.DotNetCore.sln).
Заключение
==========
Ignite.NET теперь охватывает все основные платформы и операционные системы. Один из востребованных use cases, ставший возможным, это кластер из .NET узлов, запущенный на Linux, и клиентские приложения, работающие через «тонкий» протокол на рабочих станциях под Windows.
Планируется дальнейшее развитие направления .NET Core: интеграция с ASP.NET Core (кэширование) и Entity Framework Core (кэширование, провайдер данных). Такие [интеграции](https://apacheignite-net.readme.io/v2.4/docs/aspnet-output-caching) [уже](https://apacheignite-net.readme.io/v2.4/docs/aspnet-session-state-caching) [существуют](https://apacheignite-net.readme.io/v2.4/docs/entity-framework-second-level-cache) для классических ASP.NET и EF. | https://habr.com/ru/post/347374/ | null | ru | null |
# Tableless justification или inline-blocks revisited
Все давно знают про кроссбраузерную реализацию инлайн-блоков, но не все знают, что данная реализация не такая уж и кроссбраузерная и полная, как кажется. Что, как и почему рассмотрим на простом примере: сделаем меню, пункты которого равномерно распределены по всей ширине экрана.
Обычно в разметке меню выглядит так:
```
* [Новости](/news)
* [Старости](/swen)
* [Всякая информация](/profit)
```
А css для этого примерно таков:
```
.menu-item {
display: inline-block;
}
* html .menu-item {
display: inline;
zoom: 1;
}
*+html .menu-item {
display: inline;
zoom: 1;
}
```
В итоге получается, что каждый пункт меню — это слово в строке (независимо от того, сколько слов внутри пункта, т.к. инлайн-блок — неделимая единица со своим контекстом форматирования) и чтобы слова растягивались на всю ширину строки нужно сделать следующее:
```
.menu {
text-align: justify;
}
.menu-item {
display: inline-block;
text-align: left;
}
* html .menu-item {
display: inline;
zoom: 1;
}
*+html .menu-item {
display: inline;
zoom: 1;
}
```
Но желаемого результата это не даст, т.к. в css нет значения full-justify для свойства text-align, а обычный justify растягивает расстояния между слов в строках, кроме последней, так что нам нужно вписать какое-нибудь достаточно длинной слово, которое бы переносилось на новую строку (в css3 есть text-align-last для манипуляции выравниванием последней строки, но это прокатит лишь в светлом будущем). Писать слово, конечно, не очень хороший вариант, достаточно просто сделать ещё один пункт меню и растянуть его на 100% ширины родителя (можно и меньше 100, тогда можно добиться довольно интересного эффекта):
```
* [Новости](/news)
* [Старости](/swen)
* [Всякая информация](/profit)
*
```
```
.menu {
text-align: justify;
}
.menu-item {
display: inline-block;
text-align: left;
}
* html .menu-item {
display: inline;
zoom: 1;
}
*+html .menu-item {
display: inline;
zoom: 1;
}
.menu-item_sizer {
width: 100%;
}
```
Данный код будет одинаково хорошо работать во всех браузерах… кроме Internet Explorer 6 и 7 (кто бы сомневался). А проблема кроется в том, что такие «инлайн-блоки» в данных версиях эксплорера «слишком блочные» — они не учитывают пробельные символы вокруг себя. Наглядный пример:
```
Test word
```
В нормальных браузерах это будет выглядеть так:
```
Test word
```
В старых версиях эксплорера так:
```
Testword
```
К счастью есть решение этой проблемы и лежит оно на поверхности — надо сделать этот «инлайн-блок» более инлайновым, для это его нужно обернуть в инлайн элемент. Что получается:
```
* [Новости](/news)
* [Старости](/swen)
* [Всякая информация](/profit)
*
```
```
.menu {
text-align: justify;
}
.menu-item_wrap {
display: inline;
}
.menu-item {
display: inline-block;
text-align: left;
}
* html .menu-item {
display: inline;
zoom: 1;
}
*+html .menu-item {
display: inline;
zoom: 1;
}
.menu-item_sizer {
width: 100%;
}
```
Но и это не даст нужного результата, хотя всё вроде бы как надо. Проблема заключается в том, что эксплорер не считает каждый пункт единым целым и поэтому всё распадается — дело в пробельных символах закрывающей последовательности тегов. Фиксится просто:
```
* [Новости](/news)
* [Старости](/swen)
* [Всякая информация](/profit)
*
```
Если вы пользуетесь шаблонизатором, то пусть эту работу сделает он (например тег spaceless в django templates или jinja).
Теперь всё выглядит хорошо и так как нужно во всех браузерах… пока мы не хотим сделать что-нибудь интересное внутри каждого пункта, пусть это будет иконка прижатая к правому краю каждого пункта:
```
* [Новости](/news)
* [Старости](/swen)
* [Всякая информация](/profit)
*
```
```
.menu {
text-align: justify;
}
.menu-item_wrap {
display: inline;
}
.menu-item {
background-color: Green;
display: inline-block;
padding: 5px 15px;
position: relative;
text-align: left;
}
* html .menu-item {
display: inline;
zoom: 1;
}
*+html .menu-item {
display: inline;
zoom: 1;
}
.menu-item_sizer {
width: 100%;
}
.menu-item-icon {
background-color: Red;
height: 5px;
position: absolute;
right: 0;
}
```
Во всех браузерах включая старые эксплореры всё ок… кроме всех версий Оперы (кто бы сомневался). В Опере можно увидеть, что иконка не прижата к правому краю пункта, а находится левее — это банальный баг, который будет мешать жить разработчикам ещё лет 10, не меньше. Заключается он в том, что если в inline-block элементе находится не блочный элемент или не текст, происходит нарушение границ позиционирования. Фиксится это добавлением ещё одной, внутренней, блочной обёртки.
```
* [Новости](/news)
* [Старости](/swen)
* [Всякая информация](/profit)
*
```
```
.menu {
text-align: justify;
}
.menu-item_outerWrap {
display: inline;
}
.menu-item {
background-color: Green;
display: inline-block;
padding: 5px 15px;
position: relative;
text-align: left;
}
* html .menu-item {
display: inline;
zoom: 1;
}
*+html .menu-item {
display: inline;
zoom: 1;
}
.menu-item_innerWrap {
display: block;
}
.menu-item_sizer {
width: 100%;
}
.menu-item-icon {
background-color: Red;
height: 5px;
position: absolute;
right: 0;
}
```
Теперь главное не включить какому-нибудь блочному элементу внутри .menu-item hasLayout в IE6, т.к. это спровоцирует «распирание» нашего инлайн-блока на всю ширину. Решить это можно задав фиксированную ширину блочному элементу (если нужна ширина по содержимому нужно задать нулевую ширину, но только для IE6).
С одной стороны получилось непросто и не совсем красиво, а с другой стороны мы получили решение, которое ведёт себя как надо и может использоваться без опаски (почти) и в других местах, например для создания своих собственных элементов управления, которые бы вели себя в контенте подобно стандартным браузерным элементам управления (чтобы изменять поведение такого элемента управления нужно всё применять к инлайн-блочной его части, например если вы захотите сделать элемент блочным или плавающим).
Ну и для закрепляющего эффекта, «формула» настоящего инлайн-блока в zen-css-подобном псевдокоде:
```
inline>inline-block>block
```
Может кто-то всё-таки донесёт до администрации, что нам тут нужна подсветка CSS? А то моя просьба как-то была проигнорирована. | https://habr.com/ru/post/81611/ | null | ru | null |
# Прокачиваем скрипты симуляции HDL с помощью Python и PyTest
Все делают это. Ну ладно, не все, но большинство. Пишут скрипты, чтобы симулировать свои проекты на Verilog, SystemVerilog и VHDL. Однако, написание и поддержка таких скриптов часто бывает довольно непроста для типично используемых Bash/Makefile/Tcl. Особенно, если необходимо не только открывать GUI для одного тестбенча и смотреть в диаграммы, но и запускать пачки параметризированных тестов для различных блоков, контролировать результат, параллелизировать их выполнение и т.д. Оказалось, что всё это можно закрыть довольно прозрачным и легко поддерживаемым кодом на Python, что мне даже обидно становится от того, как я страдал ранее и сколько странного bash-кода родил.
Конечно, я не первый кто задумывается о подобном. Уже даже существует целый фреймворк [VUnit](https://vunit.github.io/). Однако, как показывает практика и опросы в профильных чатах, такие фреймворки используются нечасто. Вероятно потому, что они предъявляют требования к внутренней структуре самих тестбенчей, с чем наверное можно мириться только на новых проектах, без обширной кодовой базы. Ну и вообще, куда ж без таких вещей как "у нас так не принято" и "not invented here".
Собственно, речь пойдет не о написании очередного фреймворка, а просто о замене одних скриптов симуляции на другие, более дружелюбные к расширению и поддержке. Без каких-либо требований к коду, тестбенчам и архитектуре их построения.
### Задачи
Попробую перечислить большинство задач, которые так или иначе возникают в процессе разработки и эволюции HDL проекта. От более простых к более сложным:
* Одиночный запуск. Запустить симуляцию выбранного тестбенча, посмотреть временные диаграммы, внести коррективы, повторить.
* Одиночный запуск без GUI. То же самое, но без временных диаграмм, оценить результат по выводу в консоль.
* Параметризированный запуск. Запуск симуляции с GUI или без, но с параметрами (дефайнами), передаваемыми в скрипт из консоли.
* Запуск с пре-/постпроцессингом. Например, для теста должны быть подготовлены данные. Или сам тест порождает данные, которые должны быть проверены вне HDL.
* Массовый запуск. Прогнать симуляцию всех существующих тестбенчей.
* Массовый параметризированный запуск. Прогнать симуляцию всех или группы тестбенчей, при этом отдельные тестбенчи могут запускаться несколько раз с разным значением ключевого параметра (размерность шины, интерфейс и т.д).
* Параллельные запуски. Тесты могут легко идти минуты/часы и последовательное исполнение может занимать слишком много времени. Скрипты должны позволять параллельное исполнение нескольких тестбенчей.
* Поддержка нескольких симуляторов. Сделать так, чтобы всё вышеперечисленное работало в разных симуляторах.
* Поддержка CI. Массовый запуск должен сочетаться в том числе с выбранной стратегией CI (прогон всех тестов после каждого пуша, "ночные сборки" и т.д.).
Ну и дополнительная задача, которая возникает всегда, когда запускается более одного теста за раз - нужен инструмент, который укажет какой тест прошел, какой нет и по какой причине.
### Идея
Все симуляторы запускаются примерно одинаково в большинстве случаев:
* собираем список всех исходников (опционально делим на несколько списков по языку);
* собираем список всех директорий для поиска исходников (нужно для include);
* собираем список всех дефайнов;
* сообщаем имя библиотеки, куда всё будем компилировать (или нескольких);
* сообщаем имя верхнего модуля (обычно это имя тестбенча);
* передаём это всё симулятору в виде ключей, файлов со списками и т.д.
А что если написать модуль на Python, в котором обернуть нужные симуляторы в один класс `Simulator`, вынести общие вещи в атрибуты и реализовать метод `run()`, который запустит симуляцию с помощью выбранного симулятора? В целом, именно это я и сделал для Icarus Verilog, Modelsim и Vivado Simulator, используя модуль `subprocess`под капотом. Также я добавил класс `CliArgs`, основанный на модуле `argparse`, чтобы иметь возможность управлять запуском из консоли. Ну и написал некоторое количество вспомогательных функций, которые пригодятся в процессе. Получился файл [sim.py](https://github.com/esynr3z/pyhdlsim/blob/master/sim/sim.py).
Фактически, я постарался свести всё к тому, что в новом проекте нужно всего-лишь закинуть этот файл, создать рядом еще один скрипт на Python, импортировать необходимое из `sim.py` и начать работу.
### Тестовый проект
Для демонстрации я вытянул модуль пошагового вычисления квадратного корня из одного старого проекта, чтобы тестовый дизайн был хоть чуточку сложнее счётчика или сумматора. Код основан на публикации [An FPGA Implementation of a Fixed-Point Square Root Operation](https://www.researchgate.net/publication/2532597_An_FPGA_Implementation_of_a_Fixed-Point_Square_Root_Operation).
Репозиторий проекта [pyhdlsim на GitHub](https://github.com/esynr3z/pyhdlsim).
Иерархия проекта проста:
```
$ tree -a -I .git
.
├── .github
│ └── workflows # Github Actions
│ ├── icarus-test.yml # запуск всех тестов в Icarus Verilog после каждого пуша на github
│ └── modelsim-test.yml # запуск всех тестов в Modelsim после каждого пуша на github
├── .gitignore
├── LICENSE.txt
├── README.md
├── sim # скрипты для запуска симуляции
│ ├── conftest.py
│ ├── sim.py
│ └── test_sqrt.py
└── src # исходники
├── beh # поведенчесие описания и модели
│ └── sqrt.py
├── rtl # синтезируемый HDL код
│ └── sqrt.v
└── tb # HDL код тестбенчей
└── tb_sqrt.sv
```
Сам тестбенч `tb_sqrt.sv` тоже довольно примитивен: подготавливается массив входных значений, вычисляются "идеальные" значения с помощью `$sqrt()`, входные значения проталкиваются в модуль корня, выходные значения сохраняются в массив, происходит сравнение ожидаемых значений и фактических.
В принципе, краткое описание есть в самом репозитории и на этом можно закругляться, однако, думаю что будет гораздо нагляднее, если показать весь путь написания тестового окружения (будем считать что весь HDL и файл `sim.py` уже написаны). Всё действо будет происходить внутри папки `sim`. Осторожно, букв много впереди ожидает.
### Одиночный запуск
Создадим файл `test_sqrt.py` для запуска тестбенча.
```
#!/usr/bin/env python3
from sim import Simulator
sim = Simulator(name='icarus', gui=True, cwd='work')
sim.incdirs += ["../src/tb", "../src/rtl", sim.cwd]
sim.sources += ["../src/rtl/sqrt.v", "../src/tb/tb_sqrt.sv"]
sim.top = "tb_sqrt"
sim.setup()
sim.run()
```
Тест будем прогонять в Icarus с открытием GTKWave для просмотра диаграмм. Пути до исходников задаются относительно самого скрипта. Задавать директории поиска инклудов для данного проекта не обязательно, и сделано лишь для демонстрации. Чтобы не загрязнять директорию со скриптами - с помощью `sim.setup()` будет создана рабочая папка `work` (а если она существовала, то она будет удалена и создана заново) внутри которой симулятор и будет запущен (`sim.run()`).
Делаем скрипт исполняемым и запускаем:
```
chmod +x test_sqrt.py
./test_sqrt.py
```
Симуляция должна пройти успешно и должно появиться окно GTKWave.
### Одиночный запуск без GUI
Можно конечно без конца править сам скрипт, но более верным решением будет добавить управление деталями запуска из консоли. Добавляем парсер аргументов `CliArgs`. Тест вынес в отдельную функцию и добавил стандартную проверку, чтобы парсер запускался только когда мы непосредственно исполняем сам файл.
```
#!/usr/bin/env python3
from sim import Simulator, CliArgs
def test(tmpdir, defines, simtool, gui):
sim = Simulator(name=simtool, gui=gui, cwd=tmpdir)
sim.incdirs += ["../src/tb", "../src/rtl", sim.cwd]
sim.sources += ["../src/rtl/sqrt.v", "../src/tb/tb_sqrt.sv"]
sim.defines += defines
sim.top = "tb_sqrt"
sim.setup()
sim.run()
if __name__ == '__main__':
# run script with key -h to see help
args = CliArgs(default_test="test").parse()
test(tmpdir='work', simtool=args.simtool, gui=args.gui, defines=args.defines)
```
Посмотрим что нам доступно:
```
$ ./test_sqrt.py -h
usage: test_sqrt.py [-h] [-t ] [-s ] [-b] [-d [ ...]]
optional arguments:
-h, --help show this help message and exit
-t test ; default is 'test'
-s simulation tool ; default is 'icarus'
-b enable batch mode (no GUI)
-d [ ...] define ; option can be used multiple times
```
Теперь мы можем запустить тест в консольном режиме:
```
$ ./test_sqrt.py -b
Run Icarus (cwd=/space/projects/pyhdlsim/simtmp/work)
TOP_NAME=tb_sqrt SIM
iverilog -I /space/projects/pyhdlsim/src/tb -I /space/projects/pyhdlsim/src/rtl -I /space/projects/pyhdlsim/simtmp/work -D TOP_NAME=tb_sqrt -D SIM -g2005-sv -s tb_sqrt -o worklib.vvp /space/projects/pyhdlsim/src/rtl/sqrt.v /space/projects/pyhdlsim/src/tb/tb_sqrt.sv
vvp worklib.vvp -lxt2
LXT2 info: dumpfile dump.vcd opened for output.
Test started. Will push 8 words to DUT.
!@# TEST PASSED #@!
```
Или запустить в другом симуляторе:
```
# как в консоли
./test_sqrt.py -s modelsim -b
# так и с GUI
./test_sqrt.py -s modelsim
```
### Параметризированный запуск
Также теперь можно контролировать дефайны из консоли, и, например, увеличить количество подаваемых данных:
```
$ ./test_sqrt.py -b -d ITER_N=42
Run Icarus (cwd=/space/projects/pyhdlsim/simtmp/work)
TOP_NAME=tb_sqrt SIM
iverilog -I /space/projects/pyhdlsim/src/tb -I /space/projects/pyhdlsim/src/rtl -I /space/projects/pyhdlsim/simtmp/work -D TOP_NAME=tb_sqrt -D SIM -g2005-sv -s tb_sqrt -o worklib.vvp /space/projects/pyhdlsim/src/rtl/sqrt.v /space/projects/pyhdlsim/src/tb/tb_sqrt.sv
vvp worklib.vvp -lxt2
LXT2 info: dumpfile dump.vcd opened for output.
Test started. Will push 42 words to DUT.
!@# TEST PASSED #@!
```
### Запуск с пре-/постпроцессингом
Часто бывает так, что сгенерировать данные для теста невозможно внутри тестбенча и должны быть применены внешние генераторы. Сделаем еще один тест, где будем сверять работу модуля на Verilog с идеальной моделью, написанной на Python. Алгоритм работы уже был представлен выше - просто перепишем его на Python, не забывая проверить что он на самом деле работает. Результатом будет файл `src/beh/sqrt.py`. Оттуда нам нужна будет лишь одна функция `nrsqrt()`.
Переименуем старый тест, который ориентируется на данные, полученные внутри тестбенча, в `test_sv`. И создадим новый `test_py`, который будет готовить данные с помощью функции `nrsqrt()`.
```
#!/usr/bin/env python3
from sim import Simulator, CliArgs, path_join, write_memfile
import random
import sys
sys.path.append('../src/beh')
from sqrt import nrsqrt
def create_sim(cwd, simtool, gui, defines):
sim = Simulator(name=simtool, gui=gui, cwd=cwd)
sim.incdirs += ["../src/tb", "../src/rtl", cwd]
sim.sources += ["../src/rtl/sqrt.v", "../src/tb/tb_sqrt.sv"]
sim.defines += defines
sim.top = "tb_sqrt"
return sim
def test_sv(tmpdir, defines, simtool, gui):
sim = create_sim(tmpdir, simtool, gui, defines)
sim.setup()
sim.run()
def test_py(tmpdir, defines, simtool, gui=False, pytest_run=True):
# prepare simulator
sim = create_sim(tmpdir, simtool, gui, defines)
sim.setup()
# prepare model data
try:
din_width = int(sim.get_define('DIN_W'))
except TypeError:
din_width = 32
iterations = 100
stimuli = [random.randrange(2 ** din_width) for _ in range(iterations)]
golden = [nrsqrt(d, din_width) for d in stimuli]
write_memfile(path_join(tmpdir, 'stimuli.mem'), stimuli)
write_memfile(path_join(tmpdir, 'golden.mem'), golden)
sim.defines += ['ITER_N=%d' % iterations]
sim.defines += ['PYMODEL', 'PYMODEL_STIMULI="stimuli.mem"', 'PYMODEL_GOLDEN="golden.mem"']
# run simulation
sim.run()
if __name__ == '__main__':
args = CliArgs(default_test="test_sv").parse()
try:
globals()[args.test](tmpdir='work', simtool=args.simtool, gui=args.gui, defines=args.defines)
except KeyError:
print("There is no test with name '%s'!" % args.test)
```
Теперь, когда тестов несколько, можно воспользоваться ключом выбора теста:
```
# аргумент должен совпадать с именем функции
./test_sqrt.py -t test_py
```
Аналогичным образом можно организовать и постпроцессинг внутри запускающего скрипта при желании.
### Массовый запуск
Сейчас у нас уже есть 2 теста, а ведь завтра может быть и 202, а значит уже можно переживать о том, что нужен способ как их все прогнать за раз. И вот тут на сцене появляется pytest.
Нано-ликбез по pytest.
* Начиная с директории запуска, pytest рекурсивно ищёт всё начинающееся на test\* и исполняет: модули, функции, классы, методы.
* Тест считается выполненным, если не возникло исключений (типичным является использование `assert` для контроля).
* Для формирования тестового окружения используются фикстуры (fixtures). Например, что подставлять в тест `test_a(a)` в качестве аргумента при выполнении как раз определяется фикстурой.
* Можно создать дополнительный файл `conftest.py`, в котором разместить код для более тонкого контроля выполнения тестов и их окружения.
Типичные сценарии запуска:
* `pytest` - рекурсивный поиск и исполнение всех тестов, начиная с текущей директории;
* `pytest -v` - выполнить тесты и показать болеe подробную информацию о ходе выполнении тестов;
* `pytest -rP` - выполнить тесты и показать вывод в stdout тех тестов, что завершились успешно;
* `pytest test_sqrt.py::test_sv` - выполнить указанный тест.
Для того чтобы адаптировать текущий скрипт под pytest нужно совсем немного. Импортируем сам pytest. Добавим пару фикстур для таких аргументов теста как `simtool` и `defines`. Значение, возвращаемое фикстурами будет использовано в качестве аргумента во всех тестах. Два других аргумента `gui` и `pytest_run` снабжаем значениями по умолчанию. Фактически их тоже можно было сделать фикстурами, но т.к. для запуска pytest они не должны принимать никакое другое значение, то сделал так.
Да, кстати, появился аргумент `pytest_run` который сообщает о том, выполняется ли сейчас pytest, или просто тест запущен отдельно из консоли.
С аргументом `tmpdir` я схитрил - это имя стандартной фикстуры, которая возвращает путь к временной папке, уникальной для каждого теста. Т.е. сами тесты будут прогонятся где-то во временных директориях и не засорять содержимое `sim`.
Имена тестов тоже изменять не нужно - они будут найдены pytest, т.к. имеют префикс test\_.
Решение о том, прошел тест или нет принимается по состоянию аттрибута `is_passed` симулятора. Он возвращает истину, если увидел ключевую фразу `!@# TEST PASSED #@!` в stdout. Очевидно, если компиляция была неудачной, или тест завершился с ошибкой, то этой фразы выведено не будет. Это самый простой способ оценить результат, но возможности для его кастомизации здесь ограничены лишь фантазией. Можно получить stdout через `sim.stdout` и искать там что угодно.
```
#!/usr/bin/env python3
import pytest
from sim import Simulator, CliArgs, path_join, write_memfile
import random
import sys
sys.path.append('../src/beh')
from sqrt import nrsqrt
@pytest.fixture()
def defines():
return []
@pytest.fixture
def simtool():
return 'icarus'
def create_sim(cwd, simtool, gui, defines):
sim = Simulator(name=simtool, gui=gui, cwd=cwd, passed_marker='!@# TEST PASSED #@!')
sim.incdirs += ["../src/tb", "../src/rtl", cwd]
sim.sources += ["../src/rtl/sqrt.v", "../src/tb/tb_sqrt.sv"]
sim.defines += defines
sim.top = "tb_sqrt"
return sim
def test_sv(tmpdir, defines, simtool, gui=False, pytest_run=True):
sim = create_sim(tmpdir, simtool, gui, defines)
sim.setup()
sim.run()
if pytest_run:
assert sim.is_passed
def test_py(tmpdir, defines, simtool, gui=False, pytest_run=True):
# prepare simulator
sim = create_sim(tmpdir, simtool, gui, defines)
sim.setup()
# prepare model data
try:
din_width = int(sim.get_define('DIN_W'))
except TypeError:
din_width = 32
iterations = 100
stimuli = [random.randrange(2 ** din_width) for _ in range(iterations)]
golden = [nrsqrt(d, din_width) for d in stimuli]
write_memfile(path_join(tmpdir, 'stimuli.mem'), stimuli)
write_memfile(path_join(tmpdir, 'golden.mem'), golden)
sim.defines += ['ITER_N=%d' % iterations]
sim.defines += ['PYMODEL', 'PYMODEL_STIMULI="stimuli.mem"', 'PYMODEL_GOLDEN="golden.mem"']
# run simulation
sim.run()
if pytest_run:
assert sim.is_passed
if __name__ == '__main__':
args = CliArgs(default_test="test_sv").parse()
try:
globals()[args.test](tmpdir='work', simtool=args.simtool, gui=args.gui, defines=args.defines, pytest_run=False)
except KeyError:
print("There is no test with name '%s'!" % args.test)
```
Прогоним все тесты несколько раз:
```
$ pytest
========== test session starts ===========
platform linux -- Python 3.8.5, pytest-6.2.1, py-1.10.0, pluggy-0.13.1
rootdir: /space/projects/misc/habr-publications/pyhdlsim/pyhdlsim/simtmp
plugins: xdist-2.2.0, forked-1.3.0
collected 2 items
test_sqrt.py .. [100%]
=========== 2 passed in 0.08s ============
$ pytest -v
========== test session starts ===========
platform linux -- Python 3.8.5, pytest-6.2.1, py-1.10.0, pluggy-0.13.1 -- /usr/bin/python3
cachedir: .pytest_cache
rootdir: /space/projects/misc/habr-publications/pyhdlsim/pyhdlsim/simtmp
plugins: xdist-2.2.0, forked-1.3.0
collected 2 items
test_sqrt.py::test_sv PASSED [ 50%]
test_sqrt.py::test_py PASSED [100%]
=========== 2 passed in 0.08s ============
```
### Массовый параметризированный запуск
Неплохо было бы прогнать тесты для разной величины ширины данных. Очевидно, что руками запускать тесты N раз, каждый раз анализируя глазами логи в поисках фразы об успешном завершении, довольно утомительно. Нужно использовать pytest.
Модификация будет минимальной, нужно лишь обновить фикстуру `defines`:
```
# заменим это
@pytest.fixture()
def defines():
return []
# на это
@pytest.fixture(params=[[], ['DIN_W=16'], ['DIN_W=18'], ['DIN_W=25'], ['DIN_W=32']])
def defines(request):
return request.param
```
Теперь фикстура может принимать одно из 5 значений. Запустим тесты:
```
$ pytest -v
================== test session starts ==================
platform linux -- Python 3.8.5, pytest-6.2.1, py-1.10.0, pluggy-0.13.1 -- /usr/bin/python3
cachedir: .pytest_cache
rootdir: /space/projects/misc/habr-publications/pyhdlsim/pyhdlsim/simtmp
plugins: xdist-2.2.0, forked-1.3.0
collected 10 items
test_sqrt.py::test_sv[defines0] PASSED [ 10%]
test_sqrt.py::test_sv[defines1] PASSED [ 20%]
test_sqrt.py::test_sv[defines2] PASSED [ 30%]
test_sqrt.py::test_sv[defines3] PASSED [ 40%]
test_sqrt.py::test_sv[defines4] PASSED [ 50%]
test_sqrt.py::test_py[defines0] PASSED [ 60%]
test_sqrt.py::test_py[defines1] PASSED [ 70%]
test_sqrt.py::test_py[defines2] PASSED [ 80%]
test_sqrt.py::test_py[defines3] PASSED [ 90%]
test_sqrt.py::test_py[defines4] PASSED [100%]
================== 10 passed in 0.28s ===================
```
Как видим, теперь каждый тест запустился по 5 раз с разным дефайном.
### Параллельные запуски
Тут тоже всё довольно просто и работает почти из коробки. Ставим один плагин:
```
python3 -m pip install pytest-xdist
```
И теперь можем запускать тесты в несколько параллельных потоков, например, в 4:
```
# можно также использовать значение auto, pytest задействует все доступные ядра
pytest -n 4
```
Для того, чтобы проверить работу этого механизма добавим еще один длительный тест:
```
def test_slow(tmpdir, defines, simtool, gui=False, pytest_run=True):
sim = create_sim(tmpdir, simtool, gui, defines)
sim.defines += ['ITER_N=500000']
sim.setup()
sim.run()
if pytest_run:
assert sim.is_passed
```
Запустим последовательное и параллельное исполнение (тестов теперь стало 3\*5=15):
```
$ pytest
=================== test session starts ====================
platform linux -- Python 3.8.5, pytest-6.2.1, py-1.10.0, pluggy-0.13.1
rootdir: /space/projects/misc/habr-publications/pyhdlsim/pyhdlsim/simtmp
plugins: xdist-2.2.0, forked-1.3.0
collected 15 items
test_sqrt.py ............... [100%]
============== 15 passed in 242.74s (0:04:02) ==============
$ pytest -n auto
=================== test session starts ====================
platform linux -- Python 3.8.5, pytest-6.2.1, py-1.10.0, pluggy-0.13.1
rootdir: /space/projects/misc/habr-publications/pyhdlsim/pyhdlsim/simtmp
plugins: xdist-2.2.0, forked-1.3.0
gw0 [15] / gw1 [15] / gw2 [15] / gw3 [15]
............... [100%]
============== 15 passed in 145.66s (0:02:25) ==============
```
Результат, как говорится, видно невооруженным взглядом.
### Поддержка нескольких симуляторов
Ранее уже было показано, что при выполнении теста без pytest можно было выбрать симулятор с помощью ключа `-s`. Теперь же добавим выбор симулятора для pytest. Очевидно, нужно что-то сделать с фикстурой `simtool`.
Тут нам пригодится знание о существовании файла `conftest.py`, необходимого для кастомизации запусков pytest. Создадим такой файл рядом с `sim.py` и добавим туда следующий код:
```
def pytest_addoption(parser):
parser.addoption("--sim", action="store", default="icarus")
```
В файле теста `test_sqrt.py` обновим фикстуру `simtool`:
```
@pytest.fixture
def simtool(pytestconfig):
return pytestconfig.getoption("sim")
```
Теперь можно прогнать все тесты в другом симуляторе:
```
pytest --sim modelsim -n auto
```
### Поддержка CI. Github Actions + (Modelsim | Icarus)
Ну и бонусом будет часть о непрерывной интеграции (CI). В репозиторий добавлены два файла `.github/workflows/icarus-test.yml` и `.github/workflows/modelsim-test.yml`. Это так называемые Github Actions - по определенному событию будет выполнено их содержимое внутри виртуального окружения, предоставляемого Github. В данном случае, после каждого пуша будут прогнаны все тесты в двух симуляторах.
В Icarus Verilog:
```
- name: Install dependencies
run: |
python -m pip install --upgrade pip
pip install pytest pytest-xdist
sudo apt-get install iverilog
- name: Test code
working-directory: ./sim
run: |
pytest -n auto
```
И в Modelsim Intel Starter Pack:
```
- name: Install dependencies
run: |
python -m pip install --upgrade pip
pip install pytest pytest-xdist
sudo dpkg --add-architecture i386
sudo apt update
sudo apt install -y libc6:i386 libxtst6:i386 libncurses5:i386 libxft2:i386 libstdc++6:i386 libc6-dev-i386 lib32z1 libqt5xml5 liblzma-dev
wget https://download.altera.com/akdlm/software/acdsinst/20.1std/711/ib_installers/ModelSimSetup-20.1.0.711-linux.run
chmod +x ModelSimSetup-20.1.0.711-linux.run
./ModelSimSetup-20.1.0.711-linux.run --mode unattended --accept_eula 1 --installdir $HOME/ModelSim-20.1.0 --unattendedmodeui none
echo "$HOME/ModelSim-20.1.0/modelsim_ase/bin" >> $GITHUB_PATH
- name: Test code
working-directory: ./sim
run: |
pytest -n auto --sim modelsim
```
Тут кстати очень порадовала последняя версия Modelsim. Они наконец-то починили её! Каждый кто хоть раз устанавливал его на Ubuntu/Fedora поймёт о чём я (вот, например, инструкция для [Quartus+Modelsim 19.1 и Fedora 29](https://gist.github.com/esynr3z/e25c12cd3fdf82e98da281e1f5831d87)).
Ну и сравнение времени выполнения после очередного пуша в репозиторий:
Даже не смотря на то, что скачивание 1.3GB установочника Modelsim и его распаковка занимают некоторое время (которое тем не менее, очень мало!), он оказывается в итоге ещё и быстрее моментально развертываемого Icarus.
Тут конечно можно пойти дальше и подготовить Docker-образ с Modelsim, чтобы не качать его каждый раз сайта, но я, пожалуй, здесь остановлюсь.
В целом, мне прям очень зашёл способ организации симуляции и тестирования с помощью Python, это как глоток свежего воздуха после Bash, который я чаще всего применял до этого. И надеюсь, что кому-нибудь описанное пригодится тоже.
Все финальные версии скриптов лежат в репозитории [pyhdlsim на GitHub](https://github.com/esynr3z/pyhdlsim). | https://habr.com/ru/post/537704/ | null | ru | null |
# Использование методов А/Б тестирования. Решение практического кейса в Python
Привет, Хабр! В данной статье будет рассмотрено применение логистической регрессии, причинного случайного леса (Causal Random Forest), метода CUPED для оценки изменения целевой переменной в Python при проведении А/Б тестов. Основное внимание будет уделено практике, теоретические аспекты методов будут упомянуты вскользь.
Условие: есть датасет компании, которая продает на своем сайте билеты на транспорт и которая зарабатывает на наценке. Аналитик проводит АБ-тест: А и Б - разные варианты новой ценовой политики - наценка 4% или 9%.
Вопрос: какую из двух вариантов наценки нужно устанавливать и почему.
Датасет можно скачать [здесь](https://github.com/oluscha/methods-of-A-B-test/blob/main/data_ab_test.xlsx). Подробное описание данных лежит [здесь](https://github.com/oluscha/methods-of-A-B-test/blob/main/README.md).
Для понимания достаточно знать, что есть две целевые переменные “buy” (факт совершения покупки), “total profit” (прибыль) и основные ковариаты:
1. T - тритмент переменная (0 или 1), показывающая вариант ценообразования А или В;
2. bus\_offers\_count - количество предложений в выдаче;
3. price\_mean, price\_min, price\_max, price\_std - характеристики цены в выдаче;
4. final\_rating\_mean, final\_rating\_min, final\_rating\_max, final\_rating\_std - характеристики рейтинга в выдаче;
5. dist - расстояние, на котором осуществляется перевозка (км)
Рассмотрим влияние введения наценки на факт совершения покупки (“buy”) и на прибыль (“total\_profit”).
Загружаем данные.
```
import pandas as pd
df = pd.read_excel('data.xlsx')
df.head(5)
```
Для оценки влияния на факт совершения покупки (“buy”) построим логистическую регрессию. Перед построением логистической регрессии проверим, соблюдается ли баланс ковариат, а также есть ли мультиколлинеарность.
Если баланс ковариат соблюдается, то мы можем сделать вывод, что группы похожи по ковариатам и эксперимент проведен “честно”.
```
def balance_covariate(df):
number_of_treated=len(df.query('T==1'))
number_of_control=len(df.query('T==0'))
covariate_table_mean=pd.DataFrame(df.groupby(["T"], as_index=True).mean()).drop(columns=["buy", "total_profit"]).T.rename(columns={0: 'mean_control', 1: 'mean_treat'}).T
covariate_table_var=pd.DataFrame(df.groupby(["T"], as_index=True).var()).drop(columns=["buy", "total_profit"]).T.rename(columns={0: 'var_control', 1: 'var_treat'}).T
frames=[covariate_table_mean, covariate_table_var]
result = pd.concat(frames).T
t_stat=[]
for i in range(0, len(result)):
numerator=result['mean_control'][i]-result['mean_treat'][i]
denominator=((result['var_control'][i]/number_of_control) + (result['var_treat'][i]/number_of_treated))(1/2)
t_stat.append(numerator/denominator)
result['t_статистика']=t_stat
p_value=[]
for i in range(0, len(result)):
if abs(result['t_статистика'][i]) <= 1.645 :
p_value.append('')
elif abs(result['t_статистика'][i]) <= 1.96:
p_value.append('')
elif abs(result['t_статистика'][i]) <= 2.58:
p_value.append('')
else:
p_value.append(' ')
result['значимость']=p_value
return(result.round(3))
balance_covariate(df)
```
*Для всех ковариат не отвергаем гипотезу о равенстве средних на 1%-ном уровне значимости, кроме нескольких переменных, которые значимы на 5% и 10%-ном уровне значимости. Полностью таблицу можно посмотреть в* [*ноутбуке*](https://github.com/oluscha/methods-of-A-B-test/blob/main/methods_of_a:b_testing.ipynb)*.*
*Строим корреляционную матрицу. Для удобства анализа выведем все коэффициенты корреляции, которые по модулю больше 0,5.*
```
import matplotlib.pyplot as plt
import seaborn as sns
dfCorr = df.drop(['ID'], axis=1).corr()
filteredDf = dfCorr[((dfCorr >= .5) | (dfCorr <= -.5)) & (dfCorr !=1.000)]
for column in filteredDf.columns:
if filteredDf[column].isna().sum() == len(filteredDf):
filteredDf=filteredDf.drop(column, axis=1)
filteredDf=filteredDf.drop(column)
plt.figure(figsize=(15,5))
sns.heatmap(filteredDf, annot=True, vmin=-1, vmax=1, center= 0, cmap= 'coolwarm')
plt.show()
```
Рисунок 1: Корреляционная матрица между ковариатами, у которых коэффициент корреляции между переменными, больше 0.5.*В данных присутствуют ковариаты, коэффициент корреляции между которыми больше 0,9, что подтверждает наличие высокой мультиколлениарности между переменными (Картаев, 2019).*
*Рассчитаем VIF. Для удобства интерпретации результатов выведем VIF, которые больше 10, который говорит о наличии мультиколлениарности между переменными (Картаев, 2019).*
```
from statsmodels.stats.outliers_influence import variance_inflation_factor
def vif(data):
vif_data = pd.DataFrame()
vif_data["feature"] = data.columns
vif_data["VIF"] = [variance_inflation_factor(data.values, i)
for i in range(len(data.columns))]
return(vif_data)
vif_df=vif(df)
vif_df[vif_df["VIF"]>=10]
```
Таблица 1: Список переменных, у которых VIF > 10.*Результаты расчета матрицы корреляции и VIF совпадают: существует высокая мультиколлинеарность между переменными price\_mean, price\_min, price\_max; final\_rating\_mean, final\_rating\_min, final\_rating\_max, final\_rating\_std; dist. Неудивительно, так как эти переменные - разные характеристики одной и той же величины. Чтобы избежать мультиколлинеарности, из переменных, перечисленных выше, оставим только price\_mean, final\_rating\_mean, final\_rating\_std, dist.*
```
df=df.drop(columns=['price_min', 'price_max', 'final_rating_min', 'final_rating_max'])
vif_df=vif(df)
vif_df[vif_df["VIF"]>=10]
```
Таблица 2: Список переменных, у которых VIF > 10 после исключения ковариат.*После этого в наших данных все равно сохраняется мультиколлинеарность. Но какую-то из этих переменных я не буду выбрасывать, так как существует вероятность выкинуть значимую переменную, что приведет к смещению оценок и получению некорректных результатов.*
*Перейдем от предобработки данных к построению логистической регрессии. Но проблема большого количества ковариат осталась (у нас их 34). Поэтому мы будем строить не простую логистическую регрессию, а логистическую регрессию с регуляризацией L1, L2 и elastic net и сравним результаты.*
*Сутейно: регуляризация - метод, который добавляет дополнительный штраф за сложность модели к минимизируемой функции потерь, то есть менее важным характеристикам регуляризация придает меньший вес. Регуляризация L1 (Lasso) может как обнулить значения некоторых коэффициентов, так и придать им меньший вес.*
Рисунок 2: функция потерь в модели с регуляризацией L1*В то время как регуляризация L2 (Ridge/регуляризация Тихонова) не может обнулить значения коэффициентов, но может придать им меньший вес.*
Рисунок 3: функция потерь в модели с регуляризацией L2*Elastic net - объединение подходов L1 и L2 - те коэффициенты, которые были занулены при регуляризации L1, в elastic net будут иметь меньшие веса, чем при регуляризации L2.*
*Для удобства интерпретации выведем таблицу со значением значимых коэффициентов.*
```
import numpy as np
from sklearn.metrics import accuracy_score
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from scipy.stats import norm
def building_logistic_regression(df):
def logreg_coef(logreg):
coef=[]
coef_list=logreg.coef_.tolist()[0]
coef.append(logreg.intercept_)
for i in range(0, len(coef_list)):
coef.append(coef_list[i])
return(coef)
def logit_p1value(model, x):
p1 = model.predict_proba(x)
n1 = len(p1)
m1 = len(model.coef_[0]) + 1
coefs = np.concatenate([model.intercept_, model.coef_[0]])
x_full = np.matrix(np.insert(np.array(x), 0, 1, axis = 1))
answ = np.zeros((m1, m1))
for i in range(n1):
answ = answ + np.dot(np.transpose(x_full[i, :].astype(float)), x_full[i, :].astype(float)) * float(p1[i,1]) * float(p1[i, 0])
vcov = np.linalg.inv(np.matrix(answ))
se = np.sqrt(np.diag(vcov))
t1 = coefs/se
p1 = (1 - norm.cdf(abs(t1))) * 2
return p1
def confidence(x):
return ('' if x <= 0.01 else ('**' if x <= 0.05 else ('*' if x<= 0.1 else ' ')))
covariates=(df.columns.drop(['total_profit', 'buy']).to_list())
X=df[covariates]
y=np.ravel(df['buy'])
result_logistic_dict={'covariates': ['intercept'] + covariates}
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=21)
methods=['l1', 'l2', 'elasticnet']
conf=np.vectorize(confidence)
for method in methods:
if method== 'elasticnet':
logreg = LogisticRegression(penalty=method, solver='saga', n_jobs=-1, multi_class='ovr', max_iter=10000, l1_ratio=0.5)
else:
logreg = LogisticRegression(penalty=method, solver='saga', n_jobs=-1, multi_class='ovr', max_iter=10000)
logreg.fit(X_train, y_train)
result_logistic_dict[method]=logreg_coef(logreg)
result_logistic_dict[method + str('_confidence')]=conf(logit_p1value(logreg_l1, X))
res=pd.DataFrame(result_logistic_dict)
return(res)
results = building_logistic_regression(df)
results[results["l1_confidence"] != ' ']
```
Таблица 3: Коэффициенты, значимые на 1%-ном уровне, при построении логистической регрессии с регуляризацией l1, l2 и elastic net.Коэффициент при переменной treatment незначимый, следовательно, согласно логистической регрессии мы не можем утверждать, что введение 9%-ной наценки влияет на факт совершения покупки билета.
Логистическая регрессия не учитывает следующий нюанс: при проведении эксперимента на целевой признак может влиять не только наличие какого-либо treatment, но и ковариаты – характеристики наблюдения (см. Рисунок 2).
")Рисунок 2: Влияние эффекта воздействия и ковариат на исход. Источник: (Jacob et al., 2021)Из этого следует, что внутри каждой группы эффект воздействия будет разный. Одним из методов определения наиболее важных ковариат в части «вложения» в эффект воздействия является причинный случайный лес (causal random forest). Причинный случайный лес похож на случайный лес. В то время как случайный лес делает сплит, основываясь на следующих критериях: ошибке классификации, энтропии или индексу Джини, причинный случайный лес делает сплит таким образом, чтобы максимизировать разницу эффекта воздействия между ветками дерева(Athey and Imbens (2016)).
Построим причинный случайный лес для нашего примера и выведем коэффициент при Т. Важно учесть, что алгоритм причинного случайного леса позволяет выделить наиболее важные характеристики, то есть характеристики, которые больше всего влияют на целевую метрику при попадании в тритмент, поэтому мы можем добавить все характеристики в модель, не переживая о мультиколлинеарности - алгоритм решит все за нас.
```
from econml.dml import CausalForestDML
from sklearn.linear_model import LogisticRegressionCV
import numpy as np
def CATE(df, y, X, model_t, model_y):
X=df[X]
Y=np.ravel(df[y])
T = df['T']
W=None
causal_forest_buy = CausalForestDML(model_t= model_t, model_y= model_y,
criterion='het', n_estimators=100,
min_samples_leaf=30, max_depth=5,
max_samples=0.5, discrete_treatment=True,
cv=12, min_samples_split=50,
random_state=23)
causal_forest_buy.fit(Y, T, X=X, W=W)
return(causal_forest_buy)
CATE_buy=CATE(df, 'buy' ,df.columns.drop(['total_profit', 'buy', 'T']).to_list(),
model_t= LogisticRegressionCV(solver='sag', max_iter=1000,
tol=0.01, multi_class='ovr', random_state=23),
model_y= LogisticRegressionCV(solver='sag', max_iter=1000,
tol=0.01, multi_class='ovr', random_state=23))
CATE_buy.const_marginal_ate_inference(df[df.columns.drop(['total_profit', 'buy', 'T']).to_list()])
```
Таблица 3: Результаты построения причинного случайного леса для модели с зависимой переменной - “buy”.Мы не можем интерпретировать результаты, так как p-value очень большой и эффект статистически не значим даже на 15%-ном уровне значимости. Но построение причинного случайного леса и библиотека SHAP в Python позволяет визуализировать, какие характеристики при разделении деревьев оказались наиболее важными и как изменение характеристики влияет на результат при попадании в тритмент группу. В библиотеке SHAP для оценки важности характеристик рассчитывают значения Шепли. Понятийно происходит оценка предсказаний модели с и без данной характеристики. Формально (см. Рисунок 3):
)")Рисунок 3: Формула для расчета значения Шепли для i-той характеристики (Lundeberg, et al. (2021))P (S U {i})— это предсказание модели с i-той характеристикой,
p(S) — это предсказание модели без i-той характеристики,
n — количество характеристик,
S — произвольный набор фичей без i-той характеристики.
Визуализируем важность характеристик с помощью библиотеки SHAP.
```
shap_values = causal_forest_buy.shap_values(X)
shap.summary_plot(shap_values['Y0']['T'])
```
 с помощью библиотеки SHAP.")Рисунок 4: Визуализация важности характеристик при построении причинного случайного леса (зависимая переменная - “buy”) с помощью библиотеки SHAP.В зависимости от характеристик, влияние введения бОльшей наценки на факт совершения покупки может быть как положительным, так и отрицательным. Из рисунка 4 мы можем сделать следующие выводы (более структурировано - в таблице 4). В тритмент группе (в группе с наибольшей наценкой):
1. чем больше глубина поиска, тем вероятность покупки билета меньше (у человека есть время поискать билеты без наценки);
2. количество предложений в выдаче снижает вероятность покупки билета (скорее всего люди, видя большое количество предложений в выдаче, не боятся остаться без билета в нужный момент, поэтому, видя дороговизну билетов, уходят с сайта);
3. если пользователь пришел в сервис через поисковик (а не, например, с приложения), то вероятность, что он купит билет, меньше (постоянные клиенты имеют привычку покупать в одном и том же сервисе, несмотря на подорожание);
4. чем выше количество посещений страницы с билетами на автобус/поезд, тем выше вероятность покупки билета с наценкой (вероятно, человек боится еще бОльшего подорожания в будущем и решает не откладывать покупку).
| | | |
| --- | --- | --- |
| Название переменной | Смысл переменной | Связь |
| depth | глубина поиска (через сколько дней планируется поездка) | Обратная |
| bus\_offers\_count | количество предложений в выдаче | Обратная |
| global\_source\_direct | бинарная переменная, равна 1, если пользователь пришел в интернет магазин через поисковик, 0 - иначе | Обратная |
| bus\_pages | количество посещений страницы с билетами на автобус за предшествующий промежуток времени | Прямая |
| train | количество посещений страницы с билетами на поезд за предшествующий промежуток времени | Прямая |
*Таблица 4: Влияние более высокой наценки на вероятность покупки в зависимости от показателя характеристики в разрезе групп от наиболее важной к наименее важной*
А теперь посмотрим как введение наценки влияет на “total\_profit” (прибыль компании). Из нашего датасета оставим только тех людей, которые совершили покупку, то есть “total\_profit” которых > 0.
```
df_not_null_profit=df[df['total_profit'] > 0]
```
Баланс ковариат соблюдается. Полную таблицу с выводом можно посмотреть [здесь](https://github.com/oluscha/methods-of-A-B-test/blob/main/methods_of_a:b_testing.ipynb).
```
balance_covariate(df_not_null_profit)
```
Посмотрим усредненную оценку влияния введения оценки на прибыль с помощью метода CUPED. В рамках метода CUPED необходимо брать только те переменные, которые не изменились во времени (X const), то есть были одинаковыми для наблюдения до эксперимента и после него (Xie, Aurisset, 2016). Это позволяет снизить дисперсию оценки. Эффект рассчитывается следующим способом:
1. Строим регрессию Y ~ X const => e(Y)
2. Для каждого наблюдения рассчитываем: Y\_tilde = e(Y) + Y
3. Y ~ T => находим коэффициент при Т
```
import statsmodels.formula.api as smf
import numpy as np
X_pred='avia_pages + train + etrain + bus_pages + tours + avia_orders + bus_orders + zhd'
df_not_null_profit['total_profit_tilde']=smf.ols('total_profit ~' + str(X_pred), data=df_not_null_profit).fit(cov_type="HC3").resid + np.mean(df['total_profit'])
smf.ols('total_profit_tilde ~ T', data=df_not_null_profit).fit(cov_type="HC3").summary().tables[1]
```
Таблица 5: CUPED-оценка для модели с зависимой переменной “total\_profit”Введение бОльшей наценки увеличивает прибыль на 5,7 условных единиц с покупки на 5%-ном уровне значимости при прочих равных условиях. Минус метода CUPED - невозможность посмотреть гетерогенный эффект в разрезе разных характеристик. Построим причинный случайный лес и продемонстрируем гетерогенный эффект в разрезе разных характеристик.
```
CATE_total_profit=CATE(df_not_null_profit, 'total_profit',
df_not_null_profit.columns.drop(['total_profit', 'buy', 'T', 'total_profit_tilde']).to_list(),
model_t=LogisticRegressionCV(solver='saga',
max_iter=2000, tol=0.001, multi_class='ovr',
random_state=22), model_y='auto')
CATE_total_profit.const_marginal_ate_inference(df_not_null_profit[df_not_null_profit.columns.drop(['total_profit', 'buy', 'T', 'total_profit_tilde']).to_list()])
```
Таблица 6: Результаты построения причинного случайного леса для модели с зависимой переменной - “total\_profit”Причинный случайный лес показал следующий результат: введение бОльшей наценки увеличивает прибыль на 6,7 условных единиц с покупки на 15%-ном уровне значимости при прочих равных условиях.
```
shap_values = CATE_total_profit.shap_values(df_not_null_profit[df_not_null_profit.columns.drop(['total_profit', 'buy', 'T', 'total_profit_tilde']).to_list()])
shap.plots.beeswarm(shap_values['Y0']['T_1'])
```
 с помощью библиотеки SHAP.")Рисунок 5: Визуализация важности характеристик при построении причинного случайного леса (зависимая переменная - “total\_profit”) с помощью библиотеки SHAP.Из рисунка 5 мы можем сделать следующие очевидные выводы: при более высоком рейтинге, цене, количеству пассажиров прибыль во время продажи билетов с 9%-ной наценкой (а не 5%-ной) увеличивается.
Возвращаясь к стратегии компании, то решение о проценте наценки необходимо принимать в зависимости от целей. Если цель компании - получить наибольшую прибыль, то необходимо вводить наценку: всегда будут находиться богатые люди, для которых время слишком ценное, чтобы искать другие варианты или которые настолько богатые, что не будут замечать наценку на поездку.
Но если целевая метрика компании - увеличение количества клиентов, то наценку нужно оставлять низкой.
Компании также может попробовать миксовать стратегии: с одной стороны, оставить меньшую оценку, с другой, ввести бОльшую наценку на самые дорогие направления (например, на верхний 10%-ный перцентиль) и на поездки на сегодняшний/завтрашний дни.
Список литературы:
[1] Филипп Картаев “Введение в эконометрику”: учебник. – М.: Экономический фа- культет МГУ имени М.В. Ломоносова, 2019. – 472 с. ISBN 978-5-906932-22-8
[2] Jacob, Daniel, CATE meets ML - Conditional Average Treatment Effect and Machine Learning (March 30, 2021). Available at SSRN: <https://ssrn.com/abstract=3816558> or [http://dx.doi.org/10.2139/ssrn.3816558](https://dx.doi.org/10.2139/ssrn.3816558)
[3] Scott M. Lundberg, Gabriel G. Erion, and Su-In Lee - Consistent Individualized Feature Attribution for Tree Ensembles (March 7, 2019) Available: <https://arxiv.org/pdf/1802.03888.pdf>
[4] Xie, Huizhi and Juliette Aurisset. “Improving the Sensitivity of Online Controlled Experiments: Case Studies at Netflix.” *Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining* (2016): n. pag. | https://habr.com/ru/post/708872/ | null | ru | null |
# Microsoft хакатон «IoT — интернет вещей» в Нижнем Новгороде
Повод, чтобы начать
===================
Я хочу рассказать про хакатон, который проводила компания Microsoft и Intel в Нижнем Новгороде в рамках Технологической экспедиции Microsoft Developer Tour. Так сказать из первых уст. Как участник. Думаю, так будет наиболее интересно.
Тема хакатона, который должен был проходить в Нижнем Новгороде, IoT — Internet of Things (интернет вещей). Честно говоря, для меня этот термин был в новинку и пришлось погуглить, чтобы понять основные принципы. Оказалось всё достаточно просто, есть устройство, которое собирает информацию с некоторых датчиков и отправляет ее в интернет для доступа и обработки.
О том, что в рамках тура будет проходить хакатон, я узнал незадолго от мероприятия. Было написано, что на хакатоне надо будет создать что-нибудь с использованием платы Intel Galileo.
И как хорошо совпало, что около месяца назад я посетил конференцию Intel, посвященный Intel Galileo и Intel Edison. Где я получил плату Intel Galileo Gen 2. Спасибо! Но руки до неё совершенно не доходили, и она просто лежала на столе. Я, конечно, заказал на всем известном китайском сайте сенсоры и шилды для неё, но они всё еще не дошли.
Пара слов об Intel Galileo и Intel Edison. Это платы, которые совместимы по контактам с Arduino Uno R3. В них можно вставлять стандартные сенсоры и шилды. Есть средства разработки, чтобы запускать скетчи от ардуино. И тут может возникнуть вопрос, зачем нужны эти платы, если они и дороже и потребляют больше. Я, признаться, тоже так думал изначально. Но поразмышляв, пришел к выводу, что назначение этих плат совершенно разное. Сравните Arduino с 16 МГц и Intel Galileo Gen 2 с 400 МГц. Память ОЗУ 2 КБ против 256 MГб DDR3. Еще на платах от Intel есть встроенный сетевой интерфейс на 100 Мбит и работающий Linux. Их не надо сравнивать, они для разных задач.
Подробнее тут: [habrahabr.ru/company/intel/blog/248279](http://habrahabr.ru/company/intel/blog/248279/)
В общем, у меня была плата Intel Galileo Gen 2, которая просто так лежала в коробке. Опыта работы с этой платой как и с Arduino у меня не было. И тут как раз хакатон.
За несколько дней до хакатона я решил поставить на свою плату Linux по этой инструкции: [habrahabr.ru/company/intel/blog/248893](http://habrahabr.ru/company/intel/blog/248893/)
Подключался к плате по SSH, через локальную сеть. Там обычный Linux, приятно. Всё отлично, всё работает. Написал простой пример на C++ из интернета, который мигает встроенным светодиодом. Заработало не сразу (забыл указать -lmraa в параметрах компиляции). Ура! Всё работает, можно идти спать.
Раз плата работает, можно попытаться что-нибудь подключить. Пошел на радиорынок, чтобы посмотреть можно ли что-нибудь купить для arduino. Купил макетную плату, провода. Что-то по мелочам, какие-то датчики. Но ничего не потестил, опять руки не дошли.
Идея
====
В последние несколько дней у меня был мозговой штурм, что же можно реализовать на этой плате. Не хотелось чего-то простого, типа мигания светодиодом, измерения температуры в комнате. Всё это уже было раньше, да и Intel Galileo слишком мощный для таких задач. Хотелось чего-то с большими вычислениями, обработкой данных, пересылкой их на сервер для последующей обработки или анализа.
И вот постепенно пришла в голову следующая идея. Как-то много лет назад в журнале Компьютерра была новость про экспериментальную технологию для определения положения источника громкого звука, например, выстрела. На улице расположены микрофоны. Они воспринимают звук, и из-за того, что звук достигает всех микрофонов не одновременно, а с задержкой, можно найти положение источника звука. Вот такую систему я и решил создать.
Идея есть, можно идти на радиорынок покупать сенсоры. Погуглив, я нашел, что есть два типа звуковых сенсоров. Первый с цифровым выходом, реагирует на превышение порога и имеет, соответственно, три контакта (земля, +5, сигнал-порог). Второй сенсор дополнительно имеет аналоговый выход и, соответственно, четыре контакта (земля, +5, сигнал-порог, аналоговый сигнал). Я хотел второй, который выдает аналоговый сигнал. Получив сигнал с нескольких датчиков можно будет наложить их и найти совпадение для точного определения задержки. Ну, либо динамически искать порог срабатывания. Еще к датчикам были нужны провода. Метров по 10 на каждый. Так, на всякий случай. На рынке я нашел звуковые датчики, но только с тремя выводами. Других не было. Продавец заверил, что выход у них аналоговый. Ладно, поверим, хотя зачем тут подстроечный резистор? Я взял 5 датчиков. Теперь провода. 50 метров красно-черного звукового провода 0.25 мм и 30 метров светлого (0.25 мм, двойной). Я рассчитывал на каждый датчик пустить красно-черный для питания и один из пары светлых для сигнала.
Окей, всё есть. Это всё было в четверг, а в субботу уже конференция.
Дома попробовал подключить датчики. Первый раз страшновато что-то втыкать в плату, вдруг сгорит. Но ничего, воткнул, дыма нет, консоль работает. Пробую получать аналоговые значения с датчика. И тут сюрприз, датчик оказывается бинарным, т.е. только реагирует на превышение уровня сигнала. И это уровень задается настроечным резистором на плате. А-а-а! Бежать на следующий день, в пятницу, на рынок уже смысла нет. Неизвестно будут ли там правильные датчики. Да и некогда, дела всякие, еще и Visual Studio на ноут ставить и сетку настраивать. Рынок ещё полдня займет. А в субботу конференция с 9 утра, ещё бы поспать успеть.
Вечером в пятницу, придя домой часов в 10, я начал всё настраивать.
Для хакатона я решил на всякий случай запастись всем необходимым. Удлинитель, так как участников будет много, и розеток может не хватить. Роутер, т.к. плату надо подключать по сетевому проводу. Роутер также нужен для подключения к интернету через USB модем. В общем, полная автономность. Думал уложиться за пару часов. Поставил на установку Visual Studio 2013 Community. От установки VC 2015 отказался. Итак, подготовка и сбор всех железок, которые надо взять на хакатон, вместо планируемых пары часов, растянулось до 4 утра. И да, в 8 вставать.
В итоге с собой взял: удлинитель, скотч, синюю изоленту (да, та самая), длинные провода, соединительные провода для макетной платы и сенсоров, ножницы, роутер, 5 звуковых сенсоров, USB модем, вибродатчик, рулетку. Всё, пора спать, там будем разбираться.
Magical Mystery Tour
====================

На конференции было много докладов. Разнообразные, интересные.
Был доклад про WebGL и библиотеку Babylon JS, с помощью которой можно легко рисовать в браузере в 3D. Идея хорошая, можно позднее на хакатоне попробовать прикрутить к своему проекту.
Конaеренция заканчивалась в 19:00, хакатон начинался в 20:00 в здании Политеха. Дойти можно пешком. По дороге купил пиццу, чтобы немного перекусить.
Хакатон
=======
Итак 20:00, я на месте. Зал большой. Еще с университета привык сидеть на первом ряду, поэтому занимаю первый стол по центру. Для моих железок как раз целый стол и понадобится.


Фото со страницы хакатона [events.techdays.ru/msdevtour/news#fe58625b-bcd9-498a-94e8-161ccc286f11](http://events.techdays.ru/msdevtour/news#fe58625b-bcd9-498a-94e8-161ccc286f11)
С 20:00 до 00:00 лекции про IoT и Azure от Microsoft и Intel.

Одна лекция была от Intel про Galileo и Edison. Одна про использование Azure. Что он умеет и как им пользоваться. Это было самое главное, так как до этого момента я с Azure ни разу не работал.
Дмитрий Сошников рассказал, как Microsoft видят IoT. Это небольшое устройство, которое собирает какие-то данные с датчиков, передает их в облако и позволяет их получать и анализировать. Мой проект как раз удовлетворял всем этим требованиям, оставалось его реализовать.
Пока шли лекции, чтобы не тратить время зря, решил вывести формулы, которые понадобятся для определения положения источника сигнала.
Наша задача найти точку в пространстве, которая наиболее хорошо подходит к полученным временам задержек с датчиков. Т. е. оптимизационная задача, в которой возможно переменных будет больше, чем неизвестных. Может что-то вроде метода наименьших квадратов.
Написал зависимости, стал выводить. Две страницы исписал, и понял, что решать уравнения 4-степени мне лень и я на это могут потратить всё своё время, а там еще и ошибки могут быть. И стало как-то грустно.

В итоге решил действовать универсальным методом, методом полного перебора. Прикинул размеры аудитории, где-то 10 на 10 метров, пусть это куб 10х10х10, пусть точность 10 см. Получаем 1 миллион точек. Много, но может процессор справится. В случае чего, точность можно будет уменьшить.
Итак, лекции закончились, все должны придумать проекты и собрать команды. В зале было человек 60.
Началось представление команд. Я вышел третьим. Вкратце объяснил о чем мой проект и сказал, что плата у меня уже есть, и проект я планирую делать один. Название Audio sprut, потому что звуковые датчики как щупальца.
Все рассказали про свои проекты. Народ начал ходить и присоединяться к проектам.
Ну что ж, начнем. Первым делом надо было точно определять время. Первый вариант, это считать сколько шагов цикла выполнено. Но тут надо определить сколько времени занимает каждый шаг цикла, а это не очень точно. Надо было найти высокоточный таймер. Я вспомнил, что есть что-то в С++11. Поиски по интернету дали решение .
Итак алгоритм работы с датчиками следующий. Опрашиваем все датчики, пока на одном из них не появится сигнала. Его время принимаем за ноль. Дальше опрашиваем оставшиеся датчики и как только на каком-то появляется сигнал, записываем для него текущее время. Выполняем этот опрос до тех пор, пока все датчики не выдадут сигнал. По полученным временам для каждого датчика находим его дельту расстояния, умножив скорость звука на время.
Измерения показали, что цифровые датчики опрашиваются со скоростью 83 кГц. Это дает для пяти датчиков точность около 2 см. Очень неплохо. Ради интереса померил скорость аналогового считывания. Около 4 кГц.
Похоже, что датчики, которые я купил, пусть и не те, что хотелось, но они упрощают мне задачу. Во первых не придется искать соответствие между аналоговыми сигналами, а во-вторых точность выше.
Но надо еще учитывать, что Linux это не операционная система реального времени. Поэтому не гарантируется, что система будет занята только нашим кодом, а не переключится на что-то другое. Тут бы конечно и помог Intel Edison с двумя ядрами. Но, что есть, то есть.
Для тестов я брал два датчика расположенных на небольшом расстоянии, примерно сантиметров 15. И щелкал мальцами то со стороны одного датчика, то со стороны другого. При этом было четко видно, что сигнал запаздывал и вычисленная дельта расстояния согласовывалась с реальностью.
Так как у меня была своя плата и настроенный роутер, от работы WiFi я не зависел. Но была и большая проблема, мой интернет иногда был ужасен. Временами скорость падала до 100 кБит/сек.
Должно быть облачно сегодня
===========================
Итак, программа положение источника звука определяет, осталось передать эту информацию в облако.
Нам рассказали, что наиболее простой вариант отсылать данные через события. Пытаюсь разобраться в Python скрипте, чтобы послать что-нибудь на сервер (питоном раньше не занимался). Сначала скрипт выдает ошибки в ответе от сервера. Соседняя команда тоже пытается сделать отправку данных и тоже безрезультатно. Долго ковыряюсь, и о чудо, ответ 201, значит нет ошибки и данные переданы. Захожу на Azure, а там никаких данных не видно. Есть обращения, а данных я не вижу. Долго пытаюсь разобраться, спрашиваю организаторов и оказывается, что события мне не подходят. Они одноразовые, если его считать оно удаляется. Сюрприз! И что же использовать? Таблицы.
Отлично, всё с начала. С таблицами не всё так просто. Интерфейс в Azure не слишком интуитивно понятный. Подробностей уже не помню, но сервер создал, таблицу создал. Теперь бы записать туда данные. А это уже как оказалось не такая тривиальная задача. Код, аналогичный сообщениям не работает. После общения с Татьяной Сметаниной, которая удивительным образом успевала бегать между командами и всем помогать, становится понятно, что база данных стандартная и с ней можно работать как с какой-нибудь MySQL. Осталось подключиться к базе и сделать INSERT. Осталось немного. Как же подключиться? Из C++ у меня желания нет. Python я плохо знаю. Но на Gagileo есть perl. Отлично! Пробую написать небольшой тестовый скрипт. Но DBI модуль не установлен. Запускаю cpan. Интернет у меня тормозит, но что-то качается, уже приятно. Но в конце установки минут через 20, оказывается, что не хватает какой-то библиотеки или модули. Пробую поставить эту библиотеку, аналогично. Пробую поставить что-то еще. Время уходит, ничего не работает. Обидно. Как я понимаю, у соседей аналогично. Всё как-то сложно, а на презентации было просто, всего несколько строчек. И тут оказывается, что к базе данных можно обратиться через REST протокол, для этого надо создать в Azure мобильный клиент. Хорошо пробую. Опять куча поисков по интернету. Найден пример на питоне. И о чудо, он пишет в базу! На сайте Azure видно данные, которые присылает Galileo. Отлично, добавляю вызов из С++ функции system, которая запускает python скрипт с параметрами. Всё. Можно про эту часть забыть. Теперь надо научиться считывать данные из базы через JavaScript.
База, отдай данные!
===================
Если в браузере вписать в строку адрес таблицы, то браузер показывает JSON с данными. Все отлично. Осталось разобрать данные. Пишу небольшую локальную html-ку с JavaScript, который должен загрузить табличку и показать ее на странице. Не работает. Данных нет. Что-то приходит, но непонятно что. Начинаю разбираться. Отладчик в браузере пишет что-то про какие-то права. При чем тут права? По обычному адресу всё показывается. Ковыряюсь, ищу, ковыряюсь, ищу. Ничего не понятно почему не работает. После уж не знаю какой попытки, решаю по шагам сделать то, что написано на странице Azure по работе с мобильным интрефейсом. Там предлагается запустить локальный web сервер. Делов на пару строк, но как-то не нравится мне сервер локально. Ладно, если ничего не помогает прочтите инструкцию. Делаю всё как написано, и всё работает. Локальная страница со скриптом получает данные и отображает их на экране. Ура! Хотелось конечно веб сервера, который на Azure в интернете, но уже хорошо.
Вавилон, но не 5, а JS
======================
Данные есть, надо прикрутить 3D визуализацию на основе Babylon JS.
Меряю размер стола, за которым сижу, чтобы сделать правильную 3D модель комнаты. 106 сантиметров в длину одна секция. Т. е. весь стол 2 метра. Отлично. Три блока со столами плюс проход, получается 10 метров. Нормально. Добавляю на сцену переднюю стену, столы первого ряда, столы организаторов. кафедры. В браузере всё выглядит нормально. Думаю куда поставить датчики. Пока делаю прикидки оказывается, что что-то не сходится. Столы, оказывается состоят не из двух секций по 1 метру, а из четырех. И три блока из столов не умещаются в 10 метров. Иду с рулеткой в коридор, измерять размер аудитории снаружи. 16 метров. Надо все перерисовывать.
Обед. Нет, спасибо, я могу потерпеть и без обеда. Хоть полчаса, но и это может помочь.
Всё работает. Данные с положением точек зачитываются, можно еще помучиться с получением данных с сайта, а не с локальной страницы. Ищу, ищу, долго ищу. Потом где-то замечаю в настройках безопасности, что доступ к сайту разрешен только с localhost. Ну да, точно, вспоминаю, что нечно подобное есть и у MySQL. Добавляю в разрешенные хосты адрес сайта и всё сразу заработало. Ура. Всё успел. У меня еще есть больше часа.
(Надо заметить, что пока я экспериментировал с добавлением и получением данных, доступ был настроен полный для всех. Поэтому в скрипте добавления данных не указаны никакие ключи доступа. Сейчас я это выключил.)
Последние приготовления, время навалом
======================================
Всё работает, датчики получают данные, плата вычисляет положение, отсылает в облако, сайт делает визуализацию. Оставалось только прикрепить длинные провода к датчикам, чтобы разместить их далеко друг от друга в аудитории и задать их абсолютное положение в пространстве в файле настроек. Я рассчитывал разместить два датчика на краях своего стола, два датчика на кафедрах для доклада и один по центру за главным столом. Оставался целый час для этого. Времени навалом, подумал я, и стал разрывать двойные провода вдоль. Провода до первых двух датчиков должны были быть трёхметровые.

Провод разорвал. Надо сложить парный провод с одиночным, чтобы их стало три. Начинаю скручивать их вместе, через каждые полметра фиксируя скотчем. На всё это ушло 10 минут. Понятно, что такими темпами я не успею. Провод готов, но теперь надо удлинить провод от датчика, включив новые провода в разрыв. Зачищаю, скручиваю, заматываю скотчем. Подключаю к плате, датчик работает. Отлично, переходим к следующему. Так как время точно на всё не хватит, то решаю оставить только 3 датчика. С проводами 3 метра, 3 метра и 8 метров. Последний восьмиметровый уже и не фиксирую скотчем, просто немного скручиваю. Тороплюсь, а это очень плохо. Зачищаю провод, он естественно рвется. Поправил. Сделал. Подключаю датчик. А на нем светится светодиод, хотя не должен. Смотрю провода, а я +5 подал на выход сенсора, сразу на светодиод. Отлично, думаю, возможно сжег. Меняю провода правильно, датчик всё равно светится красным. Точно сжег! Беру еще один. хорошо есть запасные. Подключаю. Он тоже светится красным. Настроечный резистор не помогает. В чем дело? Разбираюсь. Оказывается неправильно подключил к плате. Ну вот, может и на плате порты сжег. Это конец, демо не будет. Еще раз всё проверяю, подключаю все правильно. И о чудо, всё работает. И как раз 16:00, начало докладов. Мой второй.
Доклады
=======
Хорошо, что мне удалось запустить проект на Azure сайте, не надо ноут подключать для презентации. Тем более он подключен к плате через роутер и было бы сложно его отключить. Рассказываю о проекте. Показываю 3D модель аудитории с шариками, предыдущих отладочных положений источников сигнала. Хлопаю в ладоши. В логах с консоли видно, что данные пошли, перезагружаю браузер. Должна была появится новая точка, но я, честно говоря, уже не помню какие были, а какие нет. Всё.
Очень приятно выступать одним из первых, потом можно сидеть и спокойно слушать другие доклады. Доклады были разные.

Вот собственно и всё. Ах да, я стал одним из победителей хакатона и получил приз.
Общие впечатления
=================
Понравилось. Такое большое скопление людей, которым интересно. Я пообщался с некоторыми из них.
Спасибо хакатону, а то неизвестно когда бы я занялся Intel Galileo. А уж добраться до Azure, это вообще что-то невозможное. Много всего изучено.
В общем, спасибо Microsoft и Intel.
И в завершение привожу без изменений код, который был у меня на хакатоне.
Файлы:
**dist1.cpp**
```
#include "mraa.h"
#include
#include
#include
#include
#include
#include
#include "funcs.h"
int main()
{
init();
int waitId = 0;
const int numMics = NUM;
// std::cout<<"Num sensors="< times[numMics];
for( int k = 0; k < numMics; k++ )
{
gpio[k] = mraa\_gpio\_init(k);
mraa\_gpio\_dir(gpio[k],MRAA\_GPIO\_IN);
}
do
{
std::cout<<"Wait..."<
>(now-startTime);
numOn++;
}
}
}
currStep++;
} while (numOn < numMics && (currStep < 8000 || numOn < 1) );
if( currStep >= 8000 ) continue;
for( int k = 0; k < numMics; k++ )
{
printf("%d ",dist[k]);
}
printf(" === time(s): ");
for( int k = 0; k < numMics; k++ )
{
printf("%f ",times[k].count());
}
printf(" === dist(m): ");
std::vector L;
for( int k = 0; k < numMics; k++ )
{
float d = 300\*times[k].count();
L.push\_back(d);
printf("%f ",d);
}
Point3 event = getPosition(L);
std::cout<<"Event=("<
```
**funcs.h**
```
#include
struct Point3
{
float x,y,z;
};
struct DistPos
{
Point3 p;
float dist;
};
struct Box
{
Point3 p1,p2;
float step;
};
void init();
Point3 getPosition(std::vector &dists);
extern int NUM;
```
**funcs.cpp**
```
#include
#include
#include
#include "funcs.h"
#include
std::vector sensorPos;
int NUM = 0;
void readSensorPos()
{
if( sensorPos.size() > 0 )
{
return;
}
std::ifstream file("positions.txt");
if( ! file )
{
return;
}
int num = 0;
file>>num;
std::cout<<"Num="<>x>>y>>z;
Point3 point;
point.x = x;
point.y = y;
point.z = z;
sensorPos.push\_back( point );
std::cout<<"x="<**positions.txt**
```
3
2 1 3
-2 1 3
0 1 5
```
```
**test\_rest\_add.py**
```
#!/usr/bin/python
import urllib
import urllib2
import sys
x = sys.argv[1]
y = sys.argv[2]
z = sys.argv[3]
#print x," ",y," ",z,"\n"
url = 'https://audiosprut.azure-mobile.net/tables/pos'
params = urllib.urlencode({
"x": x,
"y": y,
"z": z,
"present" : "true"
})
response = urllib2.urlopen(url, params).read()
```
Ссылка: [audiosprut.azurewebsites.net](http://audiosprut.azurewebsites.net) | https://habr.com/ru/post/255447/ | null | ru | null |
# Создаем удобный вьювер для vk.com при помощи Fluid.app с нотификацией о новых сообщениях в доке Mac OS X
Здравствуйте, хабражители!
Однажды после прочтения одной [статьи](http://habrahabr.ru/post/28706/), я загорелся желанием сделать подобную обертку для вконтактика с преферансом и куртизанками, тем более что с адекватными приложениями под Мак от команды Дурова дела обстоят весьма туго, а при таком подходе можно получить почти полноценное десктоп-приложение.

А что из этого получилось — под катом.
Первым делом, скачав с [официального сайта](http://fluidapp.com) бесплатную версию, захотелось разобраться в том, что именно предлагается, и каким образом оно может работать с нотификациями, тем более что на сайте в [разделе для разработчиков](http://fluidapp.com/developer/), мелькала заветная аббревиатура API. Однако сразу после установки и первом знакомстве с программой, ждало легкое разочарование — бесплатная версия никак не хочет работать с нотификациями, и этот функционал доступен только в полной версии за $4,99 наряду с парой других весьма интересных возможностей, как то: подключение собственных js и css, а также возможность закрепить наше приложение в статус-баре. Подробно пользование программой описывать не буду, ибо на сайте для этого сделан более чем доступный видеоролик.
Интерес все же взял свое, а пять зелененьких американских президентов для опытов оказалось нисколько не жалко. И как раз после покупки(активация производится xml-подобным файликом .fluidlicense, который автоматически высылается аттачем к письму от support@fluidapp.com) начинается самое интересное.
Дело в том что в комплекте заранее настроены нотификаторы только для facebook, gmail и Google Reader(хи-хи), и представляют собой они ни что иное, как обычный javascript-код, спрятанный в настройках Userscripts программы:

С одной стороны это разочарование, но с другой — открывшийся простор для творчества.
Как видно из окна настройки, можно задать не только сам скрипт на выполнение, но и маску адреса, на который он будет распространяться. Так например, строка `*facebook.com*` будет охватывать все субдомены и страницы, в которых встречается `facebook.com`.
Из приведенного примера кода для фейсбука, видно что ни о какой работе с API напрямую речи и не идет, скрипт просто парсит страницу, и нужную ее часть выхватывает, выдавая за значение для бейджа приложения в доке с помощью `window.fluid.dockBadge`.
Благодаря существующим примерам для фейсбука, все что остается нам сделать — это использовать данную модель для вконтактика.
Так, добавляем новый юзерскрипт, под названием например VK, и маску `*vk.com*`(можно сделать и для других адресов, включая vkontakte.ru, но лично я захожу только по короткому имени, и так что в этом нет смысла).
Немного подредактировав скрипт, я решил добавить также звук для каждого нового непрочитанного сообщения используя метод `window.fluid.playSound("Glass")` из Fluid API.
Вот полный код получившегося скрипта с комментариями:
```
window.fluid.dockBadge = ''; // инициируем переменную, в которую будем передавать количество непрочитанных сообщений для вывода в док
setTimeout(updateDockBadge, 500); // устанавливаем таймаут для обновления в миллисекундах
setInterval(updateDockBadge, 1000); // устанавливаем интервал обновления
function updateDockBadge() {
var msgCounter = document.querySelector( "#l_msg>a>span>span>span" ); // находим в дереве DOM-объектов нужную нам область для вычленения количества непрочитанных сообщений
var val = +msgCounter.innerHTML; // берем содержимое HTML и приводим его к числу, записывая в переменную val
if(isNaN(val)) {
} else {
newBadge = val;
}
// смотрим число ли у нас получилось, и если не число -- ничего не делаем, а если число -- присваиваем его значение переменной val
if(val > window.fluid.dockBadge) {window.fluid.playSound("Glass");} // если значение больше текущего, висящего в доке, проигрываем звук
var newBadge; // создаем переменную для вывода числа сообщений
window.fluid.dockBadge = newBadge; // выводим из функции в API программы то что получили
}
```
Единственная маленькая «пичалька» состоит в том, что количество сообщений показывается только если программа находится в режиме иконки в доке, а при сворачивании ее в статус-бар, возможности отображать количественные показатели там штатными средствами уже нет.
По сути, главную задачу мы выполнили, однако остался маленький, все еще немного раздражающий пунктик в виде рекламы, от которого мы также просто можем избавиться при помощи Userstyles, создав новый стиль с прежней маской для URL и вставив крохотный код CSS:
```
#left_ads {display:none}
```
Все. Благодаря этим нехитрым манипулциям, мы получили вполне себе удобное приложение для пользования контактиком из под Mac OS X не засоряя вкладки Safari и получая звуковую нотификацию с отображением количества непрочитанных сообщений.
Надеюсь статья окажется кому-то полезной, и несмотря на то что в ней рассмотрен пример только для vk.com, подобный подход можно применять для огромного числа любых других удобных вам сайтов. Что самое ценное, мы вообще не использовали так нелюбимый многими Vkontakte API и обошлись всего лишь несколькими строками кода. | https://habr.com/ru/post/174197/ | null | ru | null |
# Срочно обновляйте exim до 4.92 — идёт активное заражение
Коллеги, кто использует на своих почтовых серверах Exim версий 4.87...4.91 — срочно обновляйтесь до версии 4.92, предварительно остановив сам Exim во избежание взлома через CVE-2019-10149.
Потенциально уязвимы несколько миллионов серверов по всему миру, уязвимость оценивается как критическая (CVSS 3.0 base score = 9.8/10). Злоумышленники могут запускать на Вашем сервере произвольные команды, во многих случаях от рута.
Пожалуйста, убедитесь что Вы используете исправленную версию (4.92) либо уже пропатченную.
Либо пропатчите существующую, см. ветку [комментария immaculate](https://habr.com/ru/post/455598/#comment_20266864).
Обновление для **centos 6**: см. [комментарий Theodor](https://habr.com/ru/post/455598/#comment_20267002) — для centos 7 оно тоже работает, если из epel напрямую еще не прилетело.
UPD: Убунту затронуты **18.04 и 18.10**, обновление для них выпущено. Версии 16.04 и 19.04 не затронуты, если только кастомные варианты на них не ставили. Подробнее [на их официальном сайте](https://people.canonical.com/~ubuntu-security/cve/2019/CVE-2019-10149.html).
[Информация о проблеме на Opennet](http://www.opennet.ru/opennews/art.shtml?num=50819)
[Информация на сайте Exim](https://www.exim.org/static/doc/security/CVE-2019-10149.txt)
Сейчас описанная там проблема активно эксплуатируется (ботом, надо полагать), заметил у себя на некоторых серверах (бегавших на 4.91) заражение.
Далее читать актуально только для тех, кто уже «попал» — надо или перевозить всё на чистую VPS со свежим софтом, или искать решение. Попробуем? Пишите, если кто-то сможет побороть малварь эту.
Если Вы, являясь пользователем Exim и читая это, всё ещё не обновились (не убедились в наличии 4.92 или пропатченной версии), пожалуйста остановитесь и бегите обновляться.
Для уже попавших — продолжим…
UPD: [supersmile2009 нашел у себя другую разновидность зловреда](https://habr.com/ru/post/455598/#comment_20271042) и даёт правильный совет:
> Зловредов может быть великое множество. Запустив лекарство не от того и почистив очередь пользователь и не вылечится и возможно не узнает от чего ему лечиться нужно.
Заражение заметно так: [kthrotlds] грузит процессор; на слабой VDS на 100%, на серваках слабее но заметно.
После заражения зловред удаляет записи в крон, прописывая там только себя в запуском каждые 4 минуты, при этом файл кронтаба делает immutable. *Crontab -e* не может сохранить изменения, выдаёт ошибку.
Immutable можно снять например так, после чего удалить строку команды (1.5кб):
```
chattr -i /var/spool/cron/root
crontab -e
```
Далее там в редакторе crontab (vim) удаляем строку и сохраняем:`dd
:wq`
Однако какой-то из активных процессов перезаписывает снова, разбираюсь.
При этом висит куча активных wget'ов (либо curl'ов) на адреса из скрипта инсталлятора (см. ниже), я их пока сбиваю так, но они снова запускаются:
```
ps aux | grep wge[t]
ps aux | grep cur[l]
echo "Stopping..."
kill -9 `ps aux | grep wge[t] | awk '{print $2}'`
kill -9 `ps aux | grep cur[l] | awk '{print $2}'`
```
Скрипт инсталлятора трояна нашел тут (centos): /usr/local/bin/nptd… не выкладываю во избежание, но если кто заражен и разбирается в shell скриптах, пожалуйста изучите внимательнее.
Дополню по мере обновления информации.
UPD 1: Снос файлов (с предварительным chattr -i) /etc/cron.d/root, /etc/crontab, rm -Rf /var/spool/cron/root не помог, равно как и остановка службы — пришлось кронтаб пока полностью выдрать (bin-файл переименовать).
UPD 2: Инсталлятор трояна иногда валялся также в других местах, помог поиск по размеру:
find / -size 19825c
UPD 3: **Внимание!** Помимо отключения selinux троян также добавляет свой **SSH-ключ** в ${sshdir}/authorized\_keys! И активирует следующие поля в /etc/ssh/sshd\_config, если они ещё не были прописаны как YES:
PermitRootLogin yes
RSAAuthentication yes
PubkeyAuthentication yes
echo UsePAM yes
PasswordAuthentication yes
UPD 4: Резюмируя на данный момент: отключаем exim, cron (с корнями), срочно убираем троянов ключ из ssh и правим конфиг sshd, перезапускаем sshd! И то пока не точно что это поможет, но без этого вообще беда.
Важную информацию из комментариев про патчи/апдейты вынес в начало заметки, чтобы читающие с неё начинали.
UPD 5: [AnotherDenni пишет](https://habr.com/ru/post/455598/#comment_20267428) что малварь поменяла пароли в WordPress.
UPD 6: [Paulmann подготовил временное лекарство](https://habr.com/ru/post/455598/#comment_20267444), тестируем! После перезагрузки или отключения лекарства вроде как слетает, но пока хоть так.
Кто сделает (или найдёт) стабильное решение, пожалуйста пишите, многим поможете.
UPD 7: [Пользователь clsv](https://habr.com/ru/users/clsv/) пишет:
> Если еще не сказали то вирус воскрешается благодаря неотправленному письму в exim, при повторной попытке отправить письмо он восстанавливается, гляньте в /var/spool/exim4
Очистить всю очередь exim можно так:
exipick -i | xargs exim -Mrm
Проверка количества записей в очереди:
exim -bpc
UPD 8: Снова [спасибо за информацию AnotherDenni](https://habr.com/ru/post/455598/#comment_20267748): FirstVDS предложили свою версию скрипта для лечения, давайте тестировать!
UPD 9: Похоже что **работает**, спасибо [Кириллу](https://habr.com/ru/users/bananaseverywhere/) за скрипт!
Главное не забудьте что сервер уже был скомпрометирован и злоумышленники могли успеть ещё каких-то нетиповых гадостей (не прописанных в дроппере) подсадить.
Поэтому лучше переехать на начисто установленный сервер (vds), или хотя бы продолжить отслеживать тему — если что-то будет новое, пишите в комменты здесь, т.к. явно не все будут переезжать на свежую установку…
UPD 10: Ещё раз спасибо [clsv](https://habr.com/ru/users/clsv/): он напоминает что заражаются не только серверы, но например и **Raspberry Pi**, и виртуалки всякие… Так что после спасения серверов не забудьте спасти свои видеоприставки, роботов и тд.
UPD 11: От [автора целебного скрипта](https://habr.com/ru/company/first/blog/455636/#comment_20268432) важное примечание для «лечащих вручную»:
(после применения того или иного метода борьбы с этим зловредом)
> перезагружаться обязательно надо — малварь сидит где-то в открытых процессах и, соответственно, в памяти, и записывает себя по новой в крон каждые секунд 30
UPD 12: [supersmile2009 нашел](https://habr.com/ru/post/455598/#comment_20271042) у себя в очереди exim другой(?) зловред и советует сначала изучить конкретно свою проблему, до начала лечения.
UPD 13: [lorc советует](https://habr.com/ru/post/455598/#comment_20271110) скорее переезжать на чистую систему, и файлы переносить крайне осторожно, т.к. малварь уже в публичном доступе и её использовать могут другими, менее очевидными и более опасными способами.
UPD 14: успокаивающих себя тем что как люди умные от рута не запускают — ещё одно [срочное сообщение от clsv](https://habr.com/ru/post/455598/#comment_20276050):
> Даже если работает не из под рута происходит взлом… У меня на OrangePi стоит debian ~~jessie~~ UPD: stretch, exim запущен от Debian-exim и все равно случился взлом, потерло крон и прочее.
UPD 15: при переезде на чистый сервер со скомпрометированного не забывайте про гигиену, [полезное напоминание от w0den](https://habr.com/ru/post/455598/#comment_20274960http://):
> При переносе данных обратите внимание не только на исполняемые или конфигурационные файлы, но и всё что может содержать вредоносные команды (например, в MySQL это может быть CREATE TRIGGER или CREATE EVENT). Также, не забывайте о .html, .js, .php, .py и других публичных файлах (в идеале эти файлы, как и другие данные, должны быть восстановлены из локального или другого доверенного хранилища).
UPD 16: [daykkin](https://habr.com/ru/users/daykkin/) и [savage\_me](https://habr.com/ru/users/savage_me/) [столкнулись с другой проблемой](https://habr.com/ru/post/455598/#comment_20282408): в системе в портах стояла одна версия exim, а на деле выполнялась другая.
Так что всем **после обновления стоит убедиться** что используете именно новую версию!
```
exim --version
```
Конкретно с их ситуацией мы сообща разобрались.
На сервере использовался DirectAdmin и стоял его старый пакет da\_exim (старой версии, без уязвимости).
При этом с помощью DirectAdmin'овского менеджера пакетов custombuild по факту потом была установлена более новая версия exim, уже уязвимая.
Конкретно в этой ситуации помогло также обновление через custombuild.
Не забывайте делать бэкапы до таких экспериментов, а также убедитесь что до/после обновления все процессы exim старой версии [были остановлены](https://habr.com/ru/post/455598/#comment_20283152) и не «застряли» в памяти. | https://habr.com/ru/post/455598/ | null | ru | null |
# Apollo Link. Настраиваем клиент GraphQL «под себя»
Сетевой уровень в Apollo Client и его отдельное использование
-------------------------------------------------------------
Возможно, вы встречали библиотеку, которая отвечает вашим потребностям, но не решает пару специфичных задач. И хотя эти задачи не относятся к основным функциям, но являются важной частью приложения. Нечто похожее бывает в современных клиентах GraphQL на сетевом уровне. В ответ на подобные вызовы мы создали библиотеку Apollo Link. Она дает каркас для управления ходом запросов GraphQL и для обработки результатов.
Чтобы ускорить разработку, стандартные модули Apollo Link реализуют основные функции сетевых стеков GraphQL от обычных HTTP-запросов до подписки на изменения через веб-сокеты и управления ходом запросов, включая повторную и пакетную отправку, фильтрацию дублирующихся запросов, синхронный периодический опрос ресурсов.
*Примечание переводчика – В оригинальной статье сетевые модули называется словом Link. Это отражает сущность Apollo Link как компоновщика, соединяющего модули в цепочку. Однако дословный перевод Link искажает смысл, поэтому далее в статье модули называются коннекторами.*
Чтобы создать клиент GraphQL с заданными свойствами, коннекторы Apollo Link соединяют с пользовательскими коннекторами в нужной последовательности. Добавленный в цепочку коннектор влияет на ход выполнения запроса, например обеспечивает повторную отправку. Результирующий коннектор может возвращать `ExecutionResult` (данные + ошибки). Это могут быть, например, подменные данные для тестирования, локальное состояние приложения или, чаще всего, результат запроса к серверу GraphQL.

*Рис. HTTP-коннектор.*
Чтобы поддержать различные требования приложений, каждый ответ GraphQL представлен объектом `Observable`. Обсерверы можно подписывать на события `next`, `error`, `complete` и запускать обработчики событий с помощью одноименных методов. Метод `next` можно вызвать любое количество раз прежде чем сработает келбек `error` или `complete`. Такая структура келбеков прекрасно подходит для работы с текущими и планируемыми результатами GraphQL, включая запросы, мутации, подписки и даже «живые» запросы.
Ваш первый Apollo Link
----------------------
В этой статье мы шаг за шагом создадим клиент GraphQL с Apollo Link. Результаты будут показываться в Graph*i*QL.
Основная задача всех GraphQL-клиентов – получать GraphQL-результаты. Поэтому начнем с создания коннектора, который делает HTTP-запросы. Он станет полезным примером для других коннекторов транспортного уровня, например для использования конечных точек Firebase, XHR, REST и других конечных точек GraphQL. Все коннекторы наследуют от базового класса, который содержит методы для соединения коннекторов и нужен для реализации метода `request`.
Посмотрите реализацию [в песочнице на CodeSandbox](https://codesandbox.io/embed/59xJVGNWA?module=%2Flink.js)
Компоновка коннекторов Apollo Link
----------------------------------
Следующая задача после создания транспортного коннектора – объединить коннекторы в поток обработки запроса. Для этого создадим еще коннектор, который перехватывает ошибки и представляет их в виде результирующих данные GraphQL, и другой коннектор – для логирования операций и результатов. Первым будет применяться логирующий коннектор, затем перехватывающий ошибки и наконец HTTP-коннектор будет выполнять запрос.

*Рис. Последовательность применения коннекторов.*
Чтобы цепочка заработала, логирующий и перехватывающий коннекторы должны иметь доступ к следующему за ними коннектору. Для этого у метода `request` есть аргумент `forward`. Это функция, которая при вызове передает объект-операцию следующему коннектору и возвращает его обсервер. В конце примера коннекторы собираются в цепочку с помощью статического метода `from` из Apollo Link.
Посмотрите пример этой цепочки [в песочнице на CodeSandbox](https://codesandbox.io/embed/wm5qq6VDM?module=%2Flink.js)
Изменение отдельных запросов GraphQL
------------------------------------
Здорово! Теперь созданный GraphQL-клиент управляет ходом запросов и ответов. А что если для запросов и мутаций нужно разное поведение? В следующем примере используются другие конечные точки для мутаций, также ошибки перехватываются только при запросе данных и логируется вся сетевая активность.
Дополнительно к этому можно выборочно изменять операцию не меняя транспорт, например добавлять переменные запроса, если операция имеет определенное имя. С помощью метода `split` Apollo Link позволяет выполнять те или иные части цепочки в зависимости от параметров операции.
Посмотрите пример [в песочнице на CodeSandbox](https://codesandbox.io/embed/25zww2AM?module=%2Flink.js)
Создайте свой клиент GraphQL
----------------------------
Отлично! Теперь можно создать полностью настраиваемый клиент GraphQL, у которого логика выполнения и получение данных зависят от конкретного запроса. Apollo Link предлагает множество готовых коннекторов, которые можно комбинировать и расширять вашими собственными коннекторами для достижения нужного поведения. Готовые коннекторы можно найти в [репозитории Apollo Link](https://github.com/apollographql/apollo-link/).
Экосистема Apollo Link постоянно развивается благодаря сообществу разработчиков. Если вы хотите поучаствовать в разработке или обсудить механизм настройки клиента GraphQL, пожалуйста создайте соответствующий запрос – issue или pull request. Если у вас есть предложения для сотрудничества, подключитесь к [Apollo Slack](https://www.apollodata.com/#slack) и отправьте мне (evans) личное сообщение!
В скором времени ждите статьи о взаимодействии между коннекторами с помощью поля `context` в операции GraphQL, о имеющих и не имеющих состояние коннекторах, о распространении конфигурации коннектора, о безопасном добавлении типа и другие!
Благодарю Sashko Stubailo, James Baxley III и Jonas Helfer за исчерпывающие поясненияо процессе разработки Apollo Link и за непрекращающуюся поддержку автора.
Перевод статьи [Apollo Link: Creating your custom GraphQL client](https://dev-blog.apollodata.com/apollo-link-creating-your-custom-graphql-client-c865be0ce059).
Автор оригинала [Evans Hauser](https://dev-blog.apollodata.com/@evanshauser) | https://habr.com/ru/post/335466/ | null | ru | null |
# USB Host, «Blue Pill», метод деления отрезка пополам и цена на водку в СССР
Написал недавно программный [USB-HOST на esp32](https://habr.com/ru/post/545364/) для работы с клавиатурой/мышкой/джойстиком. Процессор быстрый, но нежный, 5 вольт на ножках не выдерживает. Поэтому решил переписать на stm32f103c8t6, широко известную в варианте отладочной платы ["Blue Pill"](https://www.aliexpress.com/wholesale?catId=0&SearchText=blue+pill+stm32).
К сожалению , это весьма неторопливый по сегодняшним меркам процессор(72 MHz vs 240 у esp32 ), поэтому были сомнения , смогу ли я обеспечить необходимую точность временного интервала между битами при передаче ([1.5 Mbps +/- 1.5%](https://en.wikipedia.org/wiki/USB_(Communications))),что соответствует +/- 0.01uS то есть примерно один такт работы процессора. То есть процедура задежки типа :
```
static inline void cpuDelay(uint32_t ticks)
{
uint32_t stop =_getCycleCount32() + ticks;
while((_getCycleCount32() - stop)&0x80000000u); // соntinue while overflow
}
```
необходимую точность обеспечивать перестала, поэтому решил перейти к процедуре вида:
```
void cpuDelay()
{
__asm__ __volatile__("nop");
__asm__ __volatile__("nop");
__asm__ __volatile__("nop");
__asm__ __volatile__("nop");
}
```
с необходимым числом "nop" - ов. Когда надоело настраивать задержку вручную и перекомпилировать код, решил написать процедуру подбирающую необходимую задержку, работающую в широком интервале частот процессора. Идея в следующем: вместо входа в процедуру с адресом cpuDelay войти в процедуру в середине, по указателю:
```
#define TNOP1 { __asm__ __volatile__(" nop"); }
#define TNOP2 {TNOP1 TNOP1}
#define TNOP4 {TNOP2 TNOP2}
#define TNOP8 {TNOP4 TNOP4}
#define TNOP16 {TNOP8 TNOP8}
#define TNOP32 {TNOP16 TNOP16}
#define TNOP64 {TNOP32 TNOP32}
__volatile__ void cpuDelayBase()
{
TNOP64;
TNOP64;
TNOP64;
TNOP64;
END_BASE:;
}
void (*delay_pntA)() = &cpuDelayBase
#define cpuDelay(x) {(*delay_pntA)();}
#define SIZEOF_NOP 2
void setDelay(uint8_t ticks)
{
delay_pntA = (&cpuDelayBase)+((256-ticks)*SIZEOF_NOP);
}
```
Ну а теперь каждом запуске программы генерируется тестовая последовательность бит на 200,посылается, измеряется затраченное время и методом деления отрезка пополам процедура задержки приводится к требуемой и сохраняется в указателе delay\_pntA.
Время передачи 6 бит должно составлять точно 4.0uS. 6 бит было удобно замерять на временной диаграмме передачи. В стартовой последовательности присутствует комбинация 6 фронтов , которые хорошо видно на диаграмме:
ДиаграммаПри калибровке выяснилось, что есть небольшой оверхед на измерениях, и его нормированная величина 0.12uS отсюда целевое время **4.12** uS.
**А причем здесь ВОДКА!!!???**
Дело в том , что давным давно, в CCCP водка была универсальной валютой, ею расплачивались за все, включая то , что нельзя было купить за деньги. Например, наш мастер участка по ремонту электроники не мог купить на заводе нужные нам детали официально, однако легко мог поменять ящик водки на ящик нужных нам микросхем , на том же заводе, подойдя к правильному человеку.
**Цену на водку люди знали лучше числа Пи**. В частности, на пивзаводе где я подрабатывал электриком во время учебы, телефон фельдшера был 2-87, а электриков-механиков 3-62, а дирекции 4-12. И никто не забывал эти номера телефонов. Цену в 2.87 я не застал по причине слишком молодого возраста а 3.62 (Русская ) и 4.12 (Столичная) - уже вполне. Цена складывалась из цены собственно водки и залоговой цены бутылки в 12 копеек, поэтому такая и не круглая.
Водка русская ,этикетка:Водка столичная , этикетка:[Это картинки отсюда](https://www.stepandstep.ru/alkogolnyye-napitki/skolko-stoila-butylka-vodki-v-sssr/)
**Итак 4.0 - содержание и 0.12-емкость итого 4.12 ---- Это цена водки Столичная в 1981 году.**
результат прогона:
```
pins 8 9 1 1 is OK!
cpu freq = 72.000000 MHz
TIME_MULT = 43
120 bits in 57.333332 uSec 2.093023 MHz 6 ticks in 2.866667 uS
120 bits in 269.000000 uSec 0.446097 MHz 6 ticks in 13.450000 uS
120 bits in 162.333328 uSec 0.739220 MHz 6 ticks in 8.116667 uS
120 bits in 109.000000 uSec 1.100917 MHz 6 ticks in 5.450000 uS
120 bits in 82.916664 uSec 1.447236 MHz 6 ticks in 4.145833 uS
120 bits in 69.000000 uSec 1.739130 MHz 6 ticks in 3.450000 uS
120 bits in 75.666664 uSec 1.585903 MHz 6 ticks in 3.783333 uS
120 bits in 75.666664 uSec 1.585903 MHz 6 ticks in 3.783333 uS
120 bits in 77.333336 uSec 1.551724 MHz 6 ticks in 3.866667 uS
120 bits in 77.333336 uSec 1.551724 MHz 6 ticks in 3.866667 uS
TRANSMIT_TIME_DELAY = 15 time = 4.145833 error = 0.627029%
USB1: Ack = 0 Nack = 0 20 pcurrent->cb_Cmd = 2 state = 2 epCount = 0
USB2: Ack = 0 Nack = 0 00 pcurrent->cb_Cmd = 0 state = 0 epCount = 0
desc.bDeviceClass = 00
desc.bNumConfigurations = 01
cfg.bLength = 09
cfg.wLength = 59
cfg.bNumIntf = 02
cfg.bCV = 01
cfg.bIndex = 00
cfg.bAttr = a0
cfg.bMaxPower = 50
pcurrent->epCount = 1
pcurrent->epCount = 2
desc.bDeviceClass = 00
desc.bNumConfigurations = 01
cfg.bLength = 09
cfg.wLength = 34
cfg.bNumIntf = 01
cfg.bCV = 01
cfg.bIndex = 00
cfg.bAttr = a0
cfg.bMaxPower = 50
pcurrent->epCount = 1
USB0: Ack = 6 Nack = 0 80 pcurrent->cb_Cmd = 14 state = 100 epCount = 2
USB1: Ack = 6 Nack = 0 20 pcurrent->cb_Cmd = 14 state = 104 epCount = 1
```
P.S. Водка водкой, у нас в Израиле разрешили коноплю, [забыл выложить исходники, вот](https://github.com/sdima1357/stm32f103C8T6_USB_HOST).
P.P.S. не придирайтесь к коду. Это только proof of concept. Будет чиститься. | https://habr.com/ru/post/548020/ | null | ru | null |
# Юзерскрипт для браузера — расширение возможностей файлообмена, а так же способ выживания пиратских сайтов при антипиратских законах
Сразу оговорюсь, ниже будут ссылки как на готовые скрипты, так и просто пока не реализованные в коде мысли. В статье рассмотрим возможности интеграции DC++ с торрент-сайтами, особенности использования магнет-ссылок в DC++ и торрентах, а так же некоторые интересные идеи для провайдеров.
Возможно, многие из заинтересовавшихся прочитавших смогут сделать простой скрипт под себя ~~и поделиться им с другими~~.
#### Торрент-трекеры — теперь и «трекеры» для клиентов DC++ FlylinkDC
Начиная с версии 502 Flylink умеет работать с магнет-ссылкой содержащей только название файла, по параметру **kt** будет осуществлён обычный поиск по названию на имеющихся у юзера хабах, пример такой магнет-ссылки:
`magnet:?kt=Eaglewalk`
Пример раздачи на одном портале, где используется такой тип ссылок [kinomax.by/112508-orlinaya-tropa.html](http://kinomax.by/112508-orlinaya-tropa.html)
Если в такую магнет-ссылку добавить параметр **xl**, Flylink также произведёт поиск по названию, но покажет только файлы совпадающие по размеру со значением **xl** в магнет ссылке. Пример ссылки:
`magnet:?kt=Eaglewalk.avi&xl=1698765`
Эффективность поиска по такой ссылке можно увеличить, если вместо названия файла **Eaglewalk.avi** будут четыре последние символа, то есть расширения файла **.avi** Ссылка будет:
`magnet:?kt=.avi&xl=1698765`
Такие ссылки можно легко получить для каждого файла из списка файлов в раздаче на торрент-трекере.

Этот скрипт для рутрекера от *D0Gmatist* (пользователь рутрекера): [yadi.sk/d/8P9uoG4PVtTJL](https://yadi.sk/d/8P9uoG4PVtTJL)
Можно добавить значки магнитов, для нескольких параметров поиска kt+xl (поиск по имени файла и по его расширению):

Готовый скрипт для сайтов rutracker.org и rutor.org от *panfilov22* [dl.dropboxusercontent.com/u/44094937/js/dchub.user.js](https://dl.dropboxusercontent.com/u/44094937/js/dchub.user.js)
и файл манифеста к нему [dl.dropboxusercontent.com/u/44094937/js/dchub/manifest.json](https://dl.dropboxusercontent.com/u/44094937/js/dchub/manifest.json)
Параметр **dchub:** перед **magnet** необходим, что бы браузер отправлял эти ссылки только в DC++клиент. Хотя его и не обязательно добавлять.
#### Магнет-ссылки для торрента там где их нет
Если вы любите качать торренты по магнет-ссылкам, но движки некоторых сайтов (как например рутрекера) вам этого делать не позволяют. Можно так же обойтись скриптом в браузере.

Скрипт для рутрекера [dl.dropboxusercontent.com/u/44094937/js/hash2magnet.user.js](https://dl.dropboxusercontent.com/u/44094937/js/hash2magnet.user.js), так же сделан пользователем рутрекера *panfilov22*.
#### Об интеграции с внутренними ресурсами провайдера
Не секрет, что провайдеры очень заинтересованы в локализации трафика «тяжёлого» контента внутри своей сети. Что бы основной трафик не убегал от пользователя за пределы пиринга, многие провайдеры запускают в своей локальной сети различные файлообменные сервисы: DC++ хаб, торрент-трекер, ftp помойка, локальные ретрекеры [retracker.local/announce](http://retracker.local/announce) и isp.bep22 и пр. Однако пользователь в большинстве случаев игнорирует внутренние ресурсы провайдера, которые по скорости наполнения, выбора контента и пр. во всём проигрывают известным крупным ресурсам в интернете.
Возможным решением может стать юзерскрипт сделанный провайдером для своих пользователей. Скрипт связавшись с локальным сервером провайдера, может получить данные есть ли файлы раздачи в локальной сети провайдера, добавить некоторые параметры в магнет-ссылку и уведомить пользователя о том, что данный файл есть в локальной сети который он может скачать очень быстро.

На скриншоте:
Под значком  скрывается обычная магнет ссылка с рутрекера.
В начале загрузки страницы скрипт спросит с локального сервера, есть ли на имеющийся хеш торрента соответствующий хеш для DC++. Если есть, значок магнита  поменяется на более яркий и крупный 
Магнет-ссылка приобретёт вид:
`dchub:magnet:?xt=urn:tree:tiger:N4TUTYVJY2OZQLPYE275YVN7GNAV2TQWXL7JDCA&xl=31&dn=start_%D0%B2_%D0%BE%D0%BA%D0%BD%D0%B5.bat&xs=dchub://dchub.by/
&xt=urn:btih:5A42FC270489D228E0C88676A83E1E5BD01D8849&tr=http%3a%2f%2fretracker.local%2fannounce`
Если скрипт так же спросит у сервера «есть ли dcls файл», и тот ответит что есть, можно вывести рядом с магнитом значок  на http ссылку где размещается dcls файл.
Аналогично и по веб-сиду, если к примеру файла нет в DC, но он есть на локальном http сервере. Тогда в магнет-ссылку добавится `......&ws=http://media_file.local/название_файла.avi`
Может быть кому-нибудь получится в скрипт добавить и статистику локального ретрекера:

#### Не удаляемая правообладателями раздача
Если пофантазировать, и представить что админы рутрекера или рутора решили сделать такой скриптик с привязкой к базе раздач [rutracker.org/forum/viewtopic.php?t=4204390](http://rutracker.org/forum/viewtopic.php?t=4204390) для своих пользователей. Загружаемая страница раздачи без скрипта сможет иметь такой вид:

И копираст не доклюётся до буквы закона.
А если похулиганить, то можно сделать скрипт магнет-ссылок для кинопоиска, ну или для сайтов, которые слишком усердно пытаются бороться с пиратством…
P.S.
Если кого-нибудь заинтересовала эта тема и есть желающие помочь в написании таких юзерскриптов, прошу сюда:
[rutracker.org/forum/viewtopic.php?t=3793301&start=30](http://rutracker.org/forum/viewtopic.php?t=3793301&start=30) | https://habr.com/ru/post/230345/ | null | ru | null |
# Организация своего хоста виртуализации на Hetzner

*Proxmox Virtual Environment (Proxmox VE) — система виртуализации с открытым исходным кодом, основанная на Debian GNU/Linux. Разрабатывается австрийской фирмой Proxmox Server Solutions GmbH, спонсируемой Internet Foundation Austria.*
… и, надо сказать, очень приятная в обслуживании и эксплуатации система.
Я работаю со своими клиентами (в большинстве случаев студии веб-дизайна, или standalone-клиенты) уже около 5 лет. Все мои клиенты используют услуги немецкого хостера Hetzner. Можно долго рассуждать о качестве предоставляемых ими услуг, качестве железа в их серверах — но факт остается фактом: предложения Hetzner в сегменте root-серверов вне конкуренции по соотношению цена/качество.
*Справка: по состоянию на время написания статьи стоимость ежемесячной аренды сервера линейки [EX60](http://www.hetzner.de/hosting/produkte_rootserver/ex60) (Intel Core i7-920, 48 GB DDR3 RAM,2 x 2 TB SATA 3 Gb/s 7200 rpm HDD ) составляет всего 59€ в месяц. Согласитесь, совсем недорого.*
В этой статье я хотел бы описать небольшой howto по установке на root-сервер системы виртуализации proxmox, чтобы просто показать, насколько это легко и доступно. Не буду описывать варианты кластеризации системы из 2-х и более серверов (возможно, сделаю это в следующей статье, если сообществу будет интересно), а распишу самый простой вариант.
Итак, прежде всего нам необходим собственно сам сервер. Я рекомендую [EX60](http://www.hetzner.de/hosting/produkte_rootserver/ex60), поскольку он недорог, производителен и не имеет такой неприятной особенности как one-time setup fee (будьте бдительны при заказе других моделей!)
Мы заказали сервер. Отлично, ждем пока нам его установят, а как на почту придет заветное письмо, приступаем непосредственно к процессу. Стоит сказать, что для целей виртуализации нам потребуются дополнительные IP адреса. Можно приобрести их до 3 штук по отдельности, либо купить сразу подсеть (требует дополнительного пакета услуг FlexiPack, 15 евро в месяц + стоимость аренды подсети). Для этого заходим в панель управления сервером [robot.your-server.de](http://robot.your-server.de/) и, собственно, на вкладке IPs производим заказ. Обязательно укажите Purpose of use!

В случае заказа нескольких IP адресов, повторяем по вкусу.
Теперь нам нужно загрузить сервер в recovery mode. Для этого переходим на вкладку Rescue, выбираем Operating system Linux, Architecture 64 bit и смело жмем на Activate rescue system.

Записываем пароль, что предложит нам система

И перезагружаем сервер:

Логинимся на сервер с записанным ранее паролем, и выполняем следующие команды:
```
root@rescue ~ # passwd
root@rescue ~ # installimage
```
То есть меняем пароль на более нам удобный, и запускаем процесс установки.
В открывшемся мастере выбираем **Virtualization -> Proxmox-Virtualization-on-Debian-Wheezy**
Откроется редактор конфигурационного файла установки. Приведу его полностью, уже со всеми необходимыми правками, убрав лишние комментарии:
**Конфиг установки**## ===================================================
## Hetzner Online AG — installimage — standardconfig.
## ===================================================
## ====================
## HARD DISK DRIVE(S):
## ====================
DRIVE1 /dev/sda
DRIVE2 /dev/sdb
## ===============
## SOFTWARE RAID:
## ===============
SWRAID 1
SWRAIDLEVEL 1
## ============
## BOOTLOADER:
## ============
BOOTLOADER grub
## ==========
## HOSTNAME:
## ==========
HOSTNAME your\_hostname\_here
## ==========================
## PARTITIONS / FILESYSTEMS:
## ==========================
PART /boot ext3 512M
PART lvm vg0 all
LV vg0 root / ext4 20G
LV vg0 swap swap swap 8G
## ========================
## OPERATING SYSTEM IMAGE:
## ========================
IMAGE /root/.oldroot/nfs/install/../images/Debian-76-wheezy-64-minimal.tar.gz
Жмем F10, сохраняя внесенные изменения и соглашаемся со страшным предупреждением, что данные на дисках будут потеряны

И идем пить кофе.
Когда чашка кофе выпита, и по вашему телу пробегает приятная теплая волна, скорее всего установка нашего сервера уже завершена. Все что нам осталось — это перезагрузиться, введя в консоли
```
root@rescue ~ # reboot
```
Загружаем наш свежеустановленный сервер, и переходим по адресу:
```
https://your_ip_address:8006
```
Логинимся под учетной записью root и паролем, который вы поменяли перед установкой. Поменяли ведь? Если нет — то используем тот, что нам выдал hetzner =)

Продолжаем настройку.
Добавляем storage.
Datacenter -> Storage -> Add -> LVM


Отлично, мы подключили наш Volume Group. Немного терпения, осталось чуть-чуть =)
Настраиваем сеть.
Datacenter -> Node1 -> Network
Приводим к виду, изображенному на скриншоте. Обратите внимание, что настроить сеть необходимо как bridge! Смело оперируйте с настройками, до перезагрузки они все равно не применятся…

И собственно перезагружаем сервер кнопкой **Restart** в верхнем правом углу.
Доедаем оставшуюся после кофе печеньку, сервер загрузился и готов к работе.
Снова логинимся в панель управления Proxmox, и справа сверху нажимаем на **Create VM**.
Запускается интуитивно понятный мастер, про который стоит сказать лишь 3 вещи.
* 1. Не перепутайте во вкладке Hard Disk
* 2. На вкладке Network в поле MAC Address укажите MAC адрес для заказанного ранее IP
* 3. На вкладке CD/DVD нужно выбрать образ. Образы iso можно положить самому на гипервизор в директорию **/var/lib/vz/template/iso**
Собственно, как генерировать MAC для заказанного IP.
Заходим в панель управления сервером [robot.your-server.de](https://robot.your-server.de), переходим на вкладку IPs и нажимаем на Request separate MAC address. Получаем MAC, вбиваем в настройки виртуальной машины, и получаем на ней IP по DHCP.
Что еще стоит добавить.
* К консоли виртуальной машины можно получить доступ через веб-интерфейс, нажав на кнопку Console.
* При установке WIndows на виртуальную машину на вкладке Hard Disk следует выбирать SATA контроллер.
Вроде как все. Можно налить себе еще одну чашку кофе и заслуженно передохнуть.
Спасибо за внимание, надеюсь, этот материал будет полезен.
P.S. Добавил голосование, интересно ли уважаемому сообществу о кластеризации серверов Proxmox. | https://habr.com/ru/post/242031/ | null | ru | null |
# Factory Method Pattern
Привет, друзья. С вами [Alex Versus](https://www.udemy.com/user/sergei-1146/).
Ранее мы говорили про шаблоны проектирования [Одиночка](https://habr.com/ru/post/553298/) и [Стратегия](https://habr.com/ru/post/552278/), про тонкости реализации на языке **Golang**.
Сегодня расскажу про Фабричный метод.
В чем суть?
-----------
Фабричный метод (Factory method) также известный как Виртуальный конструктор (Virtual Constructor) - пораждающий шаблон проектирования, определяющий общий интерфейс создания объектов в родительском классе и позволяющий изменять создаваемые объекты в дочерних классах.
Шаблон позволяет классу делегировать создание объектов подклассам. Используется, когда:
1. Классу заранее неизвестно, объекты каких подклассов ему нужно создать.
2. Обязанности делегируются подклассу, а знания о том, какой подкласс принимает эти обязанности, локализованы.
3. Создаваемые объекты родительского класса специализируются подклассами.
Какую задачу решает?
--------------------
Представьте, что вы создали программу управления доставкой еды. В программе в качестве единственного средства доставки используется электро-самокат. Ваши курьеры на электро-самокатах развозят еду из пункта А в пункт Б. Все просто.
Программа набирает популярность и ваш бизнес растет. Парк самокатов ограничен и вы решаете подключить к вашей системе доставки велосипеды, такси, квадрокоптеры и роботов-курьеров. Вам важно знать когда будет доставлена еда и сколько единиц продуктов может забрать курьер. У новых транспортных средств разная скорость и вместимость.
Вы обнаруживаете, что большая часть ваших сущностей в программе сильно связаны с объектом Самокат и чтобы заставить вашу программу работать с другими способами доставки, вам придется добавить связи в 80% вашей кодовой базы и так повторить для каждого нового транспорта. Знакомая ситуация?
В итоге вы получите ужасающий код, наполненный условными операторами, которые выполняют то или иное действие, в зависимости от транспорта.
И какое решение?
----------------
[Фабричный метод](https://www.udemy.com/course/design-patterns-cj/?referralCode=2F11FCD4981B4F368F2F) предлагает создавать объекты транспорта через вызов специального метода. Подклассы класса, который содержит фабричный метод могут изменять создаваемые объекты конкретных создаваемых транспортов. На первый взгляд, это может показаться бессмысленным: мы просто переместили вызов конструктора из одного конца программы в другой. Но теперь вы сможете переопределять фабричный метод в подклассе, чтобы изменить тип создаваемого транспорта.
Чтобы такая система заработала, все возвращаемые объекты имеют общий интерфейс, а подклассы могут производить объекты различных классов, имеющих общий интерфейс.
Для клиента фабричного метода нет разницы между создаваемыми объектами, так как он трактует их как некий абстрактный Транспорт. Для него важно, чтобы данный объект мог доставить еду из пункта А в пункта В, а как конкретно он это будет делать, неважно.
Посмотрим на диаграмму классов такого подхода.
Диаграмма классов Factory MethodРеализация на Golang
--------------------
[Пример реализации на PHP](https://www.udemy.com/course/design-patterns-cj/?referralCode=2F11FCD4981B4F368F2F), можно изучить [тут](https://www.udemy.com/course/design-patterns-cj/?referralCode=2F11FCD4981B4F368F2F). Так как в Golang отсутствуют возможности ООП, такие как классы и наследование, то реализовать в классическом виде этот шаблон невозможно. Несмотря на это, мы можем реализовать базовую версию шаблона - **Простая фабрика**.
В нашем примере есть файл *iTransport.go*, который определяет методы создаваемых транспортных средств для доставки еды. Сущность транспорта будем хранить в *структуре (struct)*, которая применяет интерфейс *iTransport*.
Также реализуем файл *Factory.go*, который представляет фабрику создания нужных объектов. Клиентский код реализован в файле *main.go*. Вместо прямого создания конкретных объектов транспорта клиентский код будет использовать для этого метод фабрики `getTransport(t string)`, передавая нужный тип объекта в виде аргумента функции.
Когда применять?
----------------
1. Когда хотим дать возможность расширять нашу библиотеку. Используя подход, пользователи вашей библиотеки могут создавать новые конкретные реализации классов, а создание объектов данных классов будет отведено фабричному методу вашей библиотеки.
2. Фабричный метод отделяет код создания объектов от остального кода. Код создания объектов можно расширять, не трогая основной код программы. Для создания нового объекта вашего продукта достаточно создать новый подкласс и определить в нем фабричный метод, возвращающий нужный продукт в нужной конфигурации.
Какие преимущества?
-------------------
1. Избавляет слой создания объектов от конкретных классов продуктов. Выделяет код производства продуктов в одно место, упрощая поддержку кода.
2. Упрощает добавление новых продуктов в программу.
3. Реализует [принцип открытости/закрытости](https://en.wikipedia.org/wiki/Open%E2%80%93closed_principle) (англ. open–closed principle, OCP) — принцип ООП, устанавливающий следующее положение: «программные сущности (классы, модули, функции и т. п.) должны быть открыты для расширения, но закрыты для изменения»
Какие недостатки?
-----------------
Может привести к созданию больших параллельных иерархий классов, так как для каждого класса продукта надо создать свой подкласс создателя.
Итог
----
Используйте шаблон Фабричный метод в случае, когда вы хотите без проблем внедрять в вашу программу новые объекты с новыми конфигурациям для взаимодействия с основной бизнес-логикой.
Рад был поделиться материалом, [Alex Versus](https://www.udemy.com/user/sergei-1146/). Публикация [на английском](https://triumph-job.medium.com/factory-method-pattern-635982154d83).
Всем удачи! | https://habr.com/ru/post/556512/ | null | ru | null |
# Боремся со Status 7. Как работает механизм OTA-обновлений и почему он дает сбои

Довольно часто юзеры, привыкшие рутовать прошивки, устанавливать разного рода системный софт, менять ядра и по-другому издеваться над прошивкой, обнаруживают, что установить OTA-обновление невозможно. Оно просто не встает, ругаясь на измененные системные файлы, неправильные цифровые ключи и всякое прочее. В этой статье я расскажу о самой механике обновления, причинах возникновения проблем и о том, как их решить.
#### **Как это работает**
Первыми новые версии Android традиционно получают последние из устройств Nexus. Когда новая версия прошивки готова для широкой публики, полный образ размещается по адресу developers.google.com/android/nexus/images. Вскоре после этого начинается распространение прошивки по воздуху. Как [рассказывает](http://www.reddit.com/r/Android/comments/1r1dz4/44_kitkat_has_started_rolling_out_on_the_n4/cdiwt6f) один из разработчиков Google Дэн Моррилл (Dan Morrill), сначала ОТА рассылается на 1% устройств. Это происходит рандомно, независимо от региона или места покупки телефона/планшета. В это время отлавливаются баги, что позволяет приостановить обновление при наличии критических ошибок у большого числа пользователей.
Далее в течение пары недель обновление распространяется для 25, 50, 100% пользователей. То есть на первом этапе шанс на получение обновления имеет одно устройство из ста. Если обновление не получено, то устройство выпадает из списка и повторное неоднократное нажатие на кнопку «Проверить наличие обновлений» автоматически переносит устройство в конец списка. Когда запускается новый этап рассылки, нажатие на кнопку дает следующий шанс получить обновление уже 25%. Так как устройство само проверяет наличие обновления раз в сутки (или при перезагрузке), то нажатие на кнопку может «выстрелить» раньше, чем это случилось бы само по себе. Но опять-таки проверка будет только один раз. Дальнейшие нажатия не помогут. Это не та ситуация, когда «кто первый нажал, тот первый получил». В любом случае обновление по воздуху придет всем в течение пары недель. Самые нетерпеливые могут прошить обновление руками (об этом ниже).

Уведомление о наличии обновления
#### **Форсируем обновление**
Ускорить получение обновления можно двумя способами. Первый — очистка данных Google Services Framework с последующей перезагрузкой устройства. Крайне не рекомендуемый способ, который [осуждают даже инженеры Гугла](http://www.reddit.com/r/Android/comments/1r1n5z/psa_do_not_clear_data_for_google_service_framework/cdiymrp). Этот способ вызывает множество негативных эффектов, главный из которых — смена идентификатора для GCM (Google Cloud Messenger). Этот идентификатор нужен во всех программах Гугла и множестве других приложений, использующих функции push-уведомлений. И если в некоторых программах побороть эффекты относительно легко, то для многих других последствия могут быть более печальны. Все приложения просто перестанут принимать push-уведомления, основанные на GCM, пока не получат новый идентификатор. Некоторые приложения делают проверку часто, некоторые редко. Для части поможет очистка данных приложения. А те приложения, которые используют GCM ID в качестве идентификатора на своих серверах, могут иметь более глубокие проблемы.

Стоковый recovery
Второй — установка обновления руками через консоль восстановления. Вскоре после запуска ОТА в профильных темах устройств на ресурсах 4PDA и XDA появляются файлы вида хеш.signed-hammerhead-LRX21O-from-KTU84P.c1a33561.zip, в названии которых содержится хеш файла, марка устройства, а также версии прошивок для обновления (на какую, с какой). На компе необходимо иметь папку с утилитами ADB и fastboot. Я использую последние версии из Android SDK. В ту же папку нужно положить скачанный архив с ОТА-обновлением. Также необходимо иметь правильно установленные драйверы для устройства, которые могут конфликтовать с ранее установленными драйверами для других устройств.
Само устройство следует перевести в режим восстановления (recovery). Для этого на выключенном устройстве зажимаем одновременно кнопки и попадаем в загрузчик, кнопкой громкости выбираем Recovery mode, входим в него кнопкой Power. Появится лежачий Android с восклицательным знаком. Это не ошибка, пугаться не стоит. Необходимо на этом экране коротко нажать , после чего и загрузится стоковый рекавери. В нем необходимо выбрать кнопками громкости пункт apply update from ADB и подтвердить кнопкой включения. Далее необходимо подключить телефон/планшет к компу. Запускаем консоль, переходим в папку с ADB и архивом обновления и вводим следующую команду (для файла, приведенного выше):
```
$ adb sideload хеш.signed-hammerhead-LRX21O-from-KTU84P.c1a33561.zip
```
После этого на телефон установится ОТА и он перезагрузится.
> #### Блок-врезка: Как скачать обновление через сотовую сеть
>
>
>
> Уведомление о доступности ОТА может прийти, когда устройство не подключено к Wi-Fi. При этом появится пометка, что файл доступен для скачивания по Wi-Fi до определенной даты (около недели), а сама кнопка «Скачать» будет неактивна. Это сделано для экономии денег юзера. Если подключение к Wi-Fi в ближайшее время не предвидится, то можно обмануть телефон и скачать обновление через 3G/4G, просто переведя дату в телефоне вперед, позже даты, указанной в уведомлении, и перегрузив устройство.
> #### INFO
>
>
>
> Под стоковой (stock — из магазина) прошивкой понимается наличие заводского ядра, recovery, отсутствие модификаций, полученных в том числе с помощью root.
#### **Модифицированная прошивка**
Если у тебя разблокирован загрузчик, стоит кастомный recovery, получен root, который активно используют различные программы, и применены различные модификации, то с вероятностью 99% обновление не установится. Даже при возврате стокового recovery при прошивке через ADB будет выдавать ошибку Status 7. Кастомный recovery также будет писать ошибку, ругаясь на измененные файлы. Побороть эту проблему можно, вернув смартфон к заводской прошивке, но это не наш метод. Мы разберемся с ней, расковыряв файл обновления, выясним, на каком месте спотыкается установка, и устраним проблему. И все это на примере самого крупного обновления Nexus 5 — с версии 4.4.4 (KTU84P) на 5.0 (LRX21O).
#### Механика работы ОТА
Итак, обновление с 4.4.4 на 5.0 стало самым крупным за последнее время с весом архива в 491 Мб. В связи со сменой Dalvik на ART практически весь код был модифицирован. Так что же содержит архив? Как видно на скриншоте «Файлы из архива с обновлением до 5.0», внутри архива находятся образы бутлоадера (различные разделы), каталоги META-INF, patch и system.

Файлы из архива с обновлением до 5.0
Для минимизации количества трафика и уменьшения нагрузки на серверы, а также для снижения затрат конечного пользователя структура обновления построена так, что файлы с большим количеством изменений или написанные с нуля находятся в каталоге system и меняются целиком. А файлы с небольшими по меркам Гугла изменениями не заменяются, а патчатся, то есть изменяются куски кода внутри файла. Эти файлы находятся внутри каталога patch и имеют расширение.р. Это хорошо видно, если сравнить файлы в /system/bin и /patch/system/bin. При этом для создания патча используется хорошо знакомый юниксоидам bsdiff, позволяющий из двух бинарников получить дельту (файл с разницей между файлами).
Само же волшебство происходит по воле updater-script, который находится в /META-INF/com/google/android. Именно его мы и рассмотрим подробнее. Сам файл весит 463 Кб и содержит строки кода, отвечающие за процесс применения ОТА-обновления (на самом деле это скриптовый язык Edify, интерпретатор которого находится в том же каталоге и носит имя update-binary. — Прим. ред.). Вот что он содержит в нашем случае. Сначала монтируется раздел /system (достаточно стандартная для Linux строка монтирования, схожая с теми, что находятся в /etc/fstab):
```
mount("ext4", "EMMC", "/dev/block/platform/msm_sdcc.1/by-name/system", "/system", "max_batch_time=0,commit=1,data=ordered,barrier=1,errors=panic,nodelalloc");
```
Далее скрипт проверяет модель устройства и версию прошивки с помощью чтения системной переменной ro.build.fingerprint (обрати внимание, что он не берет ее из файла /system/build.prop, а запрашивает у самого recovery, поэтому обновления нельзя поставить с помощью кастомной консоли восстановления, хотя до 5.0 это было возможно). Здесь и далее троеточие это сокращенные строки:
```
getprop("ro.build.fingerprint") == "google/hammerhead/hammerhead:4.4.4/KTU84P/1227136:user/release-keys" ||
getprop("ro.build.fingerprint") == "google/hammerhead/hammerhead:5.0/LRX21O/1570415:user/release-keys" ||
abort("Package expects build fingerprint of google/hammerhead/hammerhead:4.4.4 ...");
getprop("ro.product.device") == "hammerhead" || abort("This package is for \"hammerhead\" devices ...");
```
Как видно выше, на «неродное» устройство обновление не встанет, зато его можно повторно накатить на версию 5.0. Также скрипт проверяет, подписана ли прошивка официальными ключами Google (release-keys). Из-за этого у многих пользователей возникают проблемы. Далее начинается проверка наличия и целостности отдельных файлов с помощью сверки хешей SHA-1. Для этого используются две функции: sha1\_check(), принимающая в качестве аргументов имя файла и хеш, и apply\_patch\_check(), принимающая три аргумента: имя файла, и два хеша. Первая используется просто для проверки целостности файла, вторая проверяет, не был ли файл уже пропатчен. Для простоты длинные хеши в коде ниже заменены на многоточие:
```
sha1_check(read_file ("system/app/Drive/Drive.apk"), ...) ||
apply_patch_check("/system/app/Drive.apk", ...) || abort("\"/system/app/Drive.apk\" has unexpected contents.");
sha1_check(read_file("system/app/Drive/lib/arm/libdocsimageutils.so"), ...) ||
apply_patch_check("/system/lib/libdocsimageutils.so", ...) || abort ("\"/system/lib/libdocsimageutils.so\" has unexpected contents.");
```
Для примера показаны только две проверки. По факту проверяются все файлы, которые подлежат замене или изменению патчем. В коде видно, что обновление выдаст ошибку, если, например, был изменен или удален файл /system/app/Drive.apk. В конце блока проверки скрипт проверяет ядро, доступное место в /system и радио:
```
apply_patch_check("EMMC:/dev/block/platform/msm_sdcc.1/by-name/boot:8908800:...") || abort("...");
apply_patch_space(23999236) || abort("Not enough free space on /system to apply patches.");
apply_patch_check("EMMC:/dev/block/platform/msm_sdcc.1/by-name/modem:46499328:...") || abort("...");
```
То есть данное обновление не встанет, если стоит кастомное ядро или модификация радио. Следующим шагом идет удаление старых файлов с устройства перед их заменой на новые и удаление файлов, которые не нужны на новой прошивке:
```
delete("/system/app/BasicDreams/", "/system/app/BasicDreams/arm/", ...);
```
Далее патчатся все необходимые файлы с предварительной проверкой хеша SHA-1. Патчинг выполняется с помощью функции apply\_patch(), которая принимает имена файлов для патчинга и несколько хешей: хеш оригинала, хеш патча и хеш результата. Последним аргументом идет имя файла с патчем. Как и раньше, все хеши в коде ниже сокращены до многоточия:
```
sha1_check(read_file("system/app/Drive/Drive.apk"), ...) ||
apply_patch("/system/app/Drive.apk", "-", ..., package_extract_file("patch/system/app/Drive.apk.p"));
```
Последним патчится ядро и RAM-диск:
```
apply_patch("EMMC:/dev/block/platform/msm_sdcc.1/by-name/boot:..., package_extract_file("patch/boot.img.p"));
```
Следующий блок переносит на устройство файлы, которые не попадают под патч и должны быть заменены целиком. Часть из них затем перемещается:
```
package_extract_dir("system", "/system");
rename("system/app/KoreanIME.apk", "system/app/KoreanIME/KoreanIME.apk");
rename("system/framework/wm.odex", "system/framework/arm/wm.odex");
...
```
Удаляются ненужные файлы, расставляются симлинки, права доступа и флаги (здесь на многоточие заменены именно права доступа и флаги):
```
delete("/system/etc/firmware/wcd9320/wcd9320_mbhc.bin", ...);
symlink("/data/misc/audio/mbhc.bin", "/system/etc/firmware/wcd9320/wcd9320_mbhc.bin");
symlink("/data/misc/audio/wcd9320_anc.bin", "/system/etc/firmware/wcd9320/wcd9320_anc.bin");
...
set_metadata_recursive("/system/bin", ...);
set_metadata("/system/bin/app_process32", ...);
```
Прошиваются бутлоадер и сопутствующие разделы:
```
package_extract_file("bootloader-flag.txt", "/dev/block/platform/msm_sdcc.1/by-name/misc");
package_extract_file("bootloader.aboot.img", "/dev/block/platform/msm_sdcc.1/by-name/aboot");
package_extract_file("bootloader.rpm.img", "/dev/block/platform/msm_sdcc.1/by-name/rpm");
...
```
Патчится радио/модем:
```
apply_patch("EMMC:/dev/block/platform/msm_sdcc.1/by-name/modem:..., package_extract_file("radio.img.p"));
```
Последним меняется build.prop, в который записывается в том числе новая версия прошивки. Сделано это для того, чтобы при возникновении ошибки на самом последнем этапе, когда почти все файлы уже перенесены, прервать обновление и сохранить номер текущей версии прошивки в файле на устройстве. Тогда при нажатии кнопки «Проверить обновление» можно запустить его снова.
```
apply_patch("/system/build.prop", "-", ..., package_extract_file("patch/system/build.prop.p"));
set_metadata("/system/build.prop", ...);
```
В конце скрипта раздел /system перемонтируется, и начинается проверка правильности применения обновления, сверяется SHA-1 хеш новых файлов и /system размонтируется:
```
unmount("/system");
mount("ext4", "EMMC", "/dev/block/platform/msm_sdcc.1/by-name/system", "/system", "");
assert(sha1_check(read_file("/system/app/CalendarGooglePrebuilt/CalendarGooglePrebuilt.apk"), ...));
assert(sha1_check(read_file("/system/app/CaptivePortalLogin/CaptivePortalLogin.apk"), ...));
...
unmount("/system");
```
После чего устройство перегружается в новую систему.

Updater-script как он есть
> #### Кастомный recovery
>
>
>
> До недавнего времени прошить архив ОТА-обновления в большинстве случаев (если не было проверки recovery для его замены) можно было из кастомного recovery, просто закинув файл на устройство и выбрав install zip. Но начиная со скрипта для обновления 5.0 скрипт поменялся. Предыдущие версии проверяли файл /system/build.prop:
>
>
>
>
> ```
> file_getprop("/system/build.prop", "ro.build.fingerprint")
>
> ```
>
>
> Текущие скрипты проверяют не файл, а значение системной переменной напрямую, запрашивая его у recovery:
>
>
>
>
> ```
> getprop("ro.build.fingerprint")
>
> ```
>
>
> А если разобрать кастомный recovery (для примера TWRP версии 2.8.0.0), то можно увидеть следующие строки:
>
>
>
>
> ```
> ro.build.description=omni_hammerhead-eng 4.4.4 KTU84P eng.dees_troy.20140910.125240 test-keys
> ro.build.fingerprint=Android/omni_hammerhead/hammerhead:4.4.4/KTU84P/eng.dees_troy.20140910.125240:eng/test-keys
>
> ```
>
>
> Версия TWRP 2.8.6.1 имеет в коде следующие строки (обрати внимание на слово omni во второй строке, разработчик TWRP с ником Dees Troy — еще и один из активных разработчиков OmniROM):
>
>
>
>
> ```
> ro.build.id=LRX22G
> ro.build.display.id=omni_hammerhead-eng 5.0.2 LRX22G eng.dees_troy.20150403.145211 test-keys
> ro.build.version.incremental=eng.dees_troy.20150403.145211
>
> ```
>
>
> А последние версии CWM Touch и Philz подписаны так:
>
>
>
>
> ```
> ro.build.description=hammerhead-user 4.4 KRT16M 893803 release-keys
> ro.build.fingerprint=google/hammerhead/hammerhead:4.4/KRT16M/893803:user/release-keys
>
> ```
>
>
> Именно эти значения и возвращает при проверке скрипт, прерывая обновление в самом начале и выдавая ошибку о несоответствии версии Android на устройстве.
>
>
>
> 
>
> Вот какой ответ ты получишь при попытке установить обновление 5.0.2 на Nexus 7 из кастомного recovery
#### Обновление 4.4.3–4.4.4
Для сравнения можно привести предыдущее обновление с версии KTU84M на KTU84P. Обновление мелкое и весит всего 2,5 Мб. В основном касается улучшений безопасности. Если открыть архив, то можно увидеть, что патчится только небольшое количество системных файлов и радио, соответственно, скрипт и проверяет только их. Это обновление нормально устанавливалось с рутом, кастомным ядром и работающим Xposed Framework, так как на наличие изменений все это не проверяется.
#### Обновление для Nexus 6 и Nexus 9
У последних устройств от Google структура скрипта в корне другая. Для этих и (судя по всему) последующих устройств Nexus Google добавила в сборочный скрипт, формирующий ОТА-обновление, функцию генерации поблочного обновления. Такое обновление сверяет и обновляет не отдельные файлы, а блоки в файловой системе /system. Далее в примере «66,...,524256» — это длинные списки адресов блоков:
```
if range_sha1("/dev/block/platform/msm_sdcc.1/by-name/system", "66,...,524256") == "..." then
block_image_update("/dev/block/platform/msm_sdcc.1/by-name/system", package_extract_file("system.transfer.list"), "system.new.dat", "system.patch.dat");
```
Это позволило инженерам Google существенно упростить и ускорить применение ОТА-обновления для конечных устройств, а сам updater-script теперь занимает всего 5 Кб. Но это обернулось головной болью для продвинутых пользователей. Ведь теперь любые изменения в системном разделе вызовут сбой. Включая наличие лишних файлов. Даже факт монтирования системы как R/W приведет к изменению хеша суперблока ФС.
#### **Заключение**
Подводя итоги статьи, можно сделать следующие выводы:
1. Права суперпользователя сами по себе не влияют на успешное применение обновления. Влияют те изменения, которые пользователь и программы вносят в систему, имея эти права. Часто эти изменения невозможно отследить и вернуть.
2. Повлияют ли root и внесенные в систему изменения на успешное обновление, зависит каждый раз от того, что именно меняется в системе при обновлении и какие файлы проверяет скрипт. Если система менялась, замораживались/отключались ненужные системные приложения через Titanium Backup, менялись ядра, ставился кастомный recovery, Xposed Framework, Lucky Patcher, freedom, franco.Kernel updater, моды на звонилку и всяческие улучшалки для звука, другая бутанимация, системные шрифты и так далее. Все это может повлиять на обновление.
3. При модификации системы всегда оставляй оригинальные файлы для бэкапа, если хочешь обновляться через ОТА. Копируй в облако, переименовывай как угодно. Можно сделать Nandroid-бэкап раздела /system (о Nandroid читай в предыдущем номере).
4. Если помнишь, что менял в системе, можно откатиться назад почти всегда. Recovery всегда пишет ошибку, на что ругается обновление. Погуглив название файла в ошибке, иногда можно найти, какая прога его меняет. Например, /system/bin/thermal-engine-hh и /system/lib/power.msm8974.so заменяет franco.Kernel updater и не возвращает его даже при прошивке стокового ядра и сносе самого приложения.
5. Для успешного применения ОТА необходимо вернуть в систему оригинальные файлы. Самый верный способ — это прошить system.img, стоковое ядро и recovery перед тем, как устанавливать обновление (данные и приложения не потеряются).
6. Ну и главный вывод. Если есть рут и много модификаций — не мучайся, а сразу шей полный образ новой прошивки, удалив ключ -w в flash-all.bat для сохранения данных. Начиная с обновления до версии 5.0, остается очень маленькая вероятность обмануть скрипт. Да и следующее обновление может иметь «блочную» структуру, которая подразумевает наличие только полного стока для применения.
> #### Пара слов от редактора
>
>
>
> До недавнего времени OTA-обновления в каcтомных прошивках (CyanogenMod, Paranoid) всегда приходили в виде zip’а с полной версией прошивки и было абсолютно неважно, какие изменения вносились в систему до этого. Прошивка всегда устанавливалась заново (с сохранением данных юзера и gapps, естественно), однако в CyanogenMod 11 появилась функция инкрементальных обновлений, но гораздо более простая в сравнении с той, что используется Google. Обновление просто проверяет целостность прошивки и заменяет те файлы, которые изменились с прошлой версии (обычно ночной сборки), без всяких патчей. Причем, если ты пропустишь одно из обновлений, следующее по старинке придет в виде полного обновления. Просто и удобно.
>
>
>
> Более интересный метод используется в OmniROM. Для обновления она использует бинарные патчи, но совсем не так, как это делает Google. Первое OTA-обновление всегда скачивается полностью, после чего сохраняется на карте памяти, прошивается, но не удаляется с карты. Следующее OTA-обновление уже приходит в виде единого бинарного патча, после чего патч накладывается на сохраненное в прошлый раз на карте памяти обновление и уже оно прошивается. Изюминка этого метода в том, что патч накладывается не на систему, а на файл с прошлым обновлением и смартфон каждый раз прошивается как бы с нуля (но с сохранением данных и настроек). Почти идеальный метод — трафик экономится, а беспокоиться о конфликтах с измененной системой не надо.
>
>
>
> 
>
> Экран установки обновлений в CyanogenMod 12

*Впервые опубликовано в журнале Хакер #196.
Автор: Дмитрий «BRADA» Подкопаев*
Подпишись на «Хакер»
* [Материалы сайта](https://xakep.ru/wp-admin/profile.php?page=paywall_subscribes)
* [Бумажный вариант](http://bit.ly/habr_subscribe_paper)
* [«Хакер» на iOS/iPad](http://bit.ly/xakep_on_ipad)
* [«Хакер» на Android](http://bit.ly/habr_android) | https://habr.com/ru/post/260379/ | null | ru | null |
# Опасайтесь прозрачных пикселей

Если вы используете в своей игре спрайты с прозрачностью (а обычно так и бывает, как минимум для UI), то вам, вероятно, стоит уделить внимание к полностью прозрачным пикселям текстур (или «текселам»).
Даже если значение альфа-канала равно 0, с пикселем всё равно связано значение цвета. Этот цвет ни на что не влияет, так ведь? В конце концов, пиксель полностью прозрачен, кому есть дело до его цвета…
Так вот, на самом деле этот цвет важен, если этого не понимать, то можно получить артефакты, которые заметны во многих играх. Чаще всего искажения очень малы и их не заметно, но иногда они действительно бросаются в глаза.
Пример искажений
================
Пора привести пример из реальной жизни! Вот [*XMB*](https://ru.wikipedia.org/wiki/XrossMediaBar) моей PS3 (главное меню), с демо-версиями нескольких игр.
Сначала выбрана [*Limbo*](https://ru.wikipedia.org/wiki/Limbo_(%D0%B8%D0%B3%D1%80%D0%B0)), потом я просто нажимаю «вверх», чтобы переместиться к [*The Unfinished Sawn*](https://en.wikipedia.org/wiki/The_Unfinished_Swan)
(кстати, обе игры отличные).

Начало.

Нажимаю «вниз». *Limbo* спускается вниз.

Фон становится белым.

Артефакты.
Видите, что произошло с областью логотипа *Limbo*?
Фон сменился на белый фон *The Unfinished Swan* и в результате «абсолютно белый» логотип *Limbo* отрисован поверх фона, который тоже полностью белый. Эта область должна быть полностью белой, тогда откуда взялись эти странные серые пиксели?
Вероятнее всего, искажение возникло из-за того, что текстура *Limbo* использует для полностью прозрачных пикселей неправильные цвета RGB.
Фильтрация текстур
==================
Артефакты на самом деле возникают из-за того, как видеопроцессор фильтрует текстуру при рендеринге спрайта на экране. Давайте рассмотрим его работу на простом примере.
Вот небольшая пиксельная текстура с красным крестом размером 12x12: 

А вот его увеличенное изображение, шахматная клетка просто показывает, что это полностью прозрачная область со значением альфа-канала 0.
Можно использовать этот спрайт как значок для отображения в UI здоровья или как текстуру для игровой модели аптечки. ([Хотя нет! На самом деле этого делать не стоит!](http://kotaku.com/video-games-arent-allowed-to-use-the-red-cross-symbol-1791265328))
Давайте создадим три версии этого спрайта, просто изменив значение цвета пикселей с нулевой альфа-прозрачностью.

*Прозрачная область: зелёная. Как выглядит изображение:* 

*Прозрачная область: синяя. Как выглядит изображение:* 

*Прозрачная область: красная. Как выглядит изображение:* 
(Вы можете скачать файлы и проверить значения RGB прозрачных пикселей)
Эти три спрайта выглядят на экране совершенно одинаково, правда? Это логично: мы всего лишь изменили значение цвета прозрачных пикселей, которые всё равно будут невидимыми.
Но давайте посмотрим, что происходит, когда эти спрайты находятся в движении. Вот увеличенное изображение, чтобы лучше видеть экранные пиксели:

Мы видим тут искажения! Коричневый оттенок у первого спрайта и фиолетовый у второго. У третьего всё правильно, именно так он должен выглядеть.
Давайте рассмотрим синюю версию:

Как мы видим, проблема возникает, когда положение текстуры не соответствует попиксельно экранным пикселям. Это можно объяснить [билинейной фильтрацией](https://ru.wikipedia.org/wiki/%D0%91%D0%B8%D0%BB%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D0%B0%D1%8F_%D1%84%D0%B8%D0%BB%D1%8C%D1%82%D1%80%D0%B0%D1%86%D0%B8%D1%8F), которую видеопроцессор выполняет при рендеринге спрайта на экране: при сэмплировании текстуры видеопроцессор усредняет значения цвета ближайших соседних пикселей с запрошенными координатами в вертикальном и горизонтальном направлениях.
Рассмотрим случай, когда положение спрайта не совпадает ровно на половину пикселя:

Каждый экранный пиксель сэмплирует спрайтовую текстуру ровно между двумя текселами. Именно это происходит с пикселем, который видно на изображении: он выбирает спрайтовую текстуру посередине между сплошным красным текселом и прозрачным синим текселом. Средний цвет получится таким: 
А это частично прозрачный фиолетовый, примерно такой: █
Этот цвет, возвращённый сэмплером текстур, теперь будет примешан к альфа-каналу результата рендеринга (сплошному белому цвету).
Уравнение смешивания имеет вид: 

Поэтому конечный цвет пикселя на экране будет примерно таким: █
Это нас не устраивает. Правильный результат (который мы получили, когда прозрачные пиксели были красными) будет таким:

— это билинейно интерполированное значение, которое затем смешивается и получается 
Пиксель на экране выглядит так: █
Как же нам избежать этих неприятных артефактов?
Как избежать этой проблемы
==========================
### Если вы художник: пусть всё просочится!
Если вы отвечаете за создание графических ресурсов, то обезопасьте свою работу и не доверяйте программистам и движку.
Велика вероятность, что на каком-то этапе конвейера цвета прозрачных пикселей «просочатся» на окружающую их графику. Мы уже видели, как это бывает при билинейной фильтрации текстур, но так может произойти и при генерировании MIP-текстур…
Можно бороться с таким просачиванием цветов… **дополнительным просачиванием**!

*Исходный спрайт*

*Только RGB*
Под этим я подразумеваю то, что перед экспортом графики на диск нужно сначала сделать так, чтобы все непрозрачные пиксели «просочились» в значения RGB соседних прозрачных пикселей (это также называется *заливкой (flood-filling)* или *контурной заливкой (edge-padding)*). В этом случае когда прозрачные пиксели в процессе выполнения игры просочатся к своим непрозрачным соседям, то они хотя бы протекут с правильным цветом.
На изображениях выше показан пример из реального мира: атлас спрайтов растительности, извлечённый из [*GTA V*](https://ru.wikipedia.org/wiki/Grand_Theft_Auto_V), с альфа-каналом и без него.
Заметьте границу вокруг пикселей с ненулевой прозрачностью: прозрачные пиксели заимствуют цвета своих ближайших видимых соседей. Rockstar не случайно проделала всю эту работу.
В этом процессе нам могут помочь инструменты: у Photoshop есть [плагин *Solidify*](http://www.flamingpear.com/freebies.html),
для Gimp тоже существует [плагин](http://gimpchat.com/viewtopic.php?t=3153)…
Также будьте внимательны при экспорте значений RGB прозрачных пикселей, например, при сохранении PNG: многие программы по умолчанию отбрасывают данные RGB прозрачных пикселей и заменяют их при экспорте сплошным цветом (белым или чёрным), чтобы улучшить сжатие.
### Если вы программист: используйте Premultiplied Alpha!
Если вы программист, то уже знаете, что не стоит слепо доверять графическим ресурсам, созданным художниками. К счастью, у программистов есть больше возможностей для борьбы с этой проблемой.
Можно использовать инструмент для автоматизации просачивания цвета, о котором мы говорили ранее. Его следует использовать при импорте ресурсов. Но у нас есть гораздо лучшее и более надёжное решение: premultiplied alpha.
Я не буду подробно рассказывать о нём, потому что другие люди написали хорошие описания, например [здесь](https://blogs.msdn.microsoft.com/shawnhar/2009/11/06/premultiplied-alpha/) и [здесь](https://blogs.msdn.microsoft.com/shawnhar/2009/11/07/premultiplied-alpha-and-image-composition/).
Также крайне рекомендую посты Тома Форсайта (Tom Forsyth): [1](https://tomforsyth1000.github.io/blog.wiki.html#%5B%5BPremultiplied%20alpha%5D%5D) и [2](https://tomforsyth1000.github.io/blog.wiki.html#%5B%5BPremultiplied%20alpha%20part%202%5D%5D) на эту тему.
Идея очень проста: вместо хранения текстуры как 
нужно хранить её как 
Компоненты RGB просто умножаются на значение альфа-прозрачности пикселя. Исходный цвет по-прежнему можно легко получить, разделив значение на альфа-прозрачность.
Так можно превратить спрайт:

*Оригинал*

*Premultiplied Alpha*
Также необходимо изменить уравнение смешивания, потому что наша текстура теперь содержит результат первого умножения, и её не нужно снова умножать на значение альфа-прозрачности: 
В OpenGL это выражается во внесении следующих изменений в функцию смешивания:
`glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA)` ⇒ `glBlendFunc(GL_ONE, GL_ONE_MINUS_SRC_ALPHA)`
Вернёмся к нашему спрайту с красным крестом, смещённому на полпикселя. В случае режима Premultiplied Alpha билинейный интерполятор будет искать среднее между 
Это правильно и довольно неплохо решает все наши проблемы! Конечный результат получился в точности таким же, какой мы ожидаем при «традиционном смешивании», за исключением того, что мы избавились от всех артефактов. Вы заметите, что при работе с premultiplied alpha полностью прозрачный пиксель всегда имеет значение RGB чёрного цвета, поэтому нам не нужно волноваться о том, что же содержится на самом деле в прозрачных областях спрайта. Premultiplied alpha также позволяет избежать головной боли при генерировании цепочек MIP-текстур и наслоении нескольких просвечивающих спрайтов одного над другим.
Подводим итог
=============
Итак, вернёмся к первоначальной теме: была ли проблема с логотипом *Limbo* действительно вызвана «мусором» в RGB прозрачных пикселей?
Есть только один способ узнать это, поэтому я извлёк файл PNG из пакета демо `/PS3_GAME/ICON0.PNG`.
На первый взгляд, изображение выглядит отлично, но давайте удалим альфа-канал, чтобы визуализировать полные значения RGB:

*Оригинал*

*Только RGB*
Так и есть: вместо сплошного белого цвета в буквах «B» и «O» присутствуют неправильные значения RGB, которые «просачиваются» и вызывают виденный нами раньше графический баг.
Проблема с этими артефактами в том, что их сложно обнаружить. Я не замечал ничего странного с логотипом *Limbo*, пока он не рендерился на белом фоне. Не все знают об этой проблеме, поэтому ознакомление с темой будет полезно.
Если вы художник, то вы — первая линия защиты, уделяйте внимание цветам, которые находятся внутри прозрачных пикселей. Если вы программист, то задумайтесь об использовании premultiplied alpha. | https://habr.com/ru/post/328386/ | null | ru | null |
# Linux. Настройка клавиатуры
Для чего вообще специально настраивать клавиатуру?
Можно пользоваться и стандартными настройками, но иногда внесенные изменения дают возможность набирать быстрее (это, конечно, не слепая печать, но все же), совершать меньше ошибок, меньше переключать раскладку...
### Почему я захотел изменить свою клавиатуру?
Во-первых, когда я начал использовать `vim` как основной редактор, я понял, что не хочу каждый раз тянуться к `ESC`. Кроме того, я писал в основном на питоне, поэтому `;` нажимал сильно реже, чем `:`, а в `vim` разница стала более явной.
Во-вторых, через некоторое время я стал пользоваться вимовскими комбинациями для навигации в браузере, дальше — тайловый оконный менеджер `i3`, где они тоже использовались, и хотелось перейти на них везде (вместо обычных стрелок, например, в файловом менеджере).
В-третьих, когда начал писать конспекты на `TeX` в `vim`, я понял, что могу реально упростить и ускорить этот процесс; если английская и русская раскладки будут больше похожи друг на друга, то я смогу вводить одинаковые символы (например, точку, запятую, кавычки, доллар) одинаково. Плюс приходится часто менять язык, поэтому надо это делать быстро, надежно и удобно.
Настройка переключения раскладки
--------------------------------
Что же, начнем. Сначала разберемся, как можно настроить смену раскладки клавиатуры.
* Первый способ. Можно воспользоваться какой-нибудь программой, например, `gnome-tweaks`:
здесь мы можем *выбрать* один из вариантов, предлагаемых нам разработчиками.

Главное — мы не можем создать свой вариант. Давайте научимся делать и это.
* Второй способ.
Посмотрим, как то же самое можно сделать руками, и чего еще можно добиться.
Давайте поставим переключение на правый `Alt` (он же `AltGr`):
```
$ setxkbmap -layout us,ru -option grp:toggle
```
Но где можно узнать, какие еще есть варианты, и как создать свои? Все файлы лежат `/usr/share/X11/xkb/symbols/`. И наши переключения находятся в `/usr/share/X11/xkb/symbols/group`. Вот так выглядит выбранный вариант:
```
partial modifier_keys
xkb_symbols "toggle" {
virtual_modifiers AltGr;
key {
symbols[Group1] = [ ISO\_Next\_Group ],
virtualMods = AltGr
};
};
```
Там же можно найти множество других вариантов, в том числе ациклические, которые позволяют быть уверенным, какой язык будет после переключения, вместо того, чтобы каждый раз проверять раскладку или смотреть на индикатор.
### Ациклическое переключение раскладок
Изменим циклическое переключение по `AltGr` на ациклическое: `AltGr` переключает на латинскую раскладку, `Shift+AltGr` — на русскую.
Перед тем как что-то менять, посмотрим на текущие настройки:
```
$ setxkbmap -layout us,ru -print
```
Должны получить что-такое (`pc105` может отличаться в зависимости от количества клавиш на вашей клавиатуре):
```
xkb_keymap {
xkb_keycodes { include "evdev+aliases(qwerty)" };
xkb_types { include "complete" };
xkb_compat { include "complete" };
xkb_symbols { include "pc+us+ru:2+inet(evdev)" };
xkb_geometry { include "pc(pc105)" };
};
```
Теперь запишем это в конфигурационный файл `~/.config/xkb/config`.
В файле `/usr/share/X11/xkb/symbols/group` можно найти аналогичный вариант с `CapsLock`, откуда можно понять, что на `us` будет переключать `ISO_First_Group`, а на `ru` — `ISO_Second_Group`.
Вот такая строчка
```
key { [ ISO\_First\_Group, ISO\_Last\_Group ] };
```
говорит, что клавиша при обычном нажатии вызывает `ISO_First_Group`, а вместе с `Shift` — `ISO_Last_Group`.
Изменим в только что созданном файле `xkb_symbols`:
```
xkb_keymap {
xkb_keycodes { include "evdev+aliases(qwerty)" };
xkb_types { include "complete" };
xkb_compat { include "complete" };
xkb_geometry { include "pc(pc105)" };
xkb_symbols "my" {
include "pc+us+ru:2+inet(evdev)"
key { [ ISO\_First\_Group, ISO\_Last\_Group ] };
};
};
```
Проверим, что у нас получилось. Загружаем конфиг:
```
$ xkbcomp $HOME/.config/xkb/config $DISPLAY
```
Теперь язык должен переключаться по заданным комбинациям.
#### Замечание
Это очень удобно, когда набираешь текст, используя сразу две раскладки (например, `TeX`), потому что, переключение происходит часто и гораздо проще каждый раз когда начинаешь писать русский текст нажимать нужные клавиши, чем проверять, какой язык стоит сейчас, и переключать, если нужно. Просто меньше тратишь умственных сил, меньше совершаешь ошибок.
Еще один плюс ациклического переключения — можно больше не использовать никаких индикаторов.
Изменение клавиш
----------------
#### Двоеточие и точка с запятой
Поменяем местами двоеточие и точку с запятой. Как задать значение мы уже знаем, осталось понять как называются символы. Это можно посмотреть в тех же файлах `/usr/share/X11/xkb/symbols/`. Выберем файл `us` и найдем нужную клавишу:
```
key { [ semicolon, colon ] };
```
Осталось записать в наш конфигурационный файл в обратном порядке.
#### `ESC` и `CapsLock`
Поменяем `ESC` и `CapsLock`. В той же директории в файле `capslock` можно найти:
```
hidden partial modifier_keys
xkb_symbols "swapescape" {
key { [ Escape ] };
key { [ Caps\_Lock ] };
};
hidden partial modifier\_keys
xkb\_symbols "escape" {
key { [ Escape ] };
};
```
`partical` — специальные куски, которые мы можем включать в другие раскладки.
Теперь либо пишем `include "swapescape"`, либо просто копируем код.
#### `Alt` и `Win`
Еще аналогично можно поменять, например, левый `Alt` и `Win`, что особенно удобно в `i3wm`, если поставить главный модификатор на `Win`, то он будет ближе к остальной клавиатуре, и плюс мы не ограничим себя в использовании `Alt` в комбинациях различный программ (браузер, файловый менеджер...).
Модификаторы
------------
Для чего вообще они нужны? Можно задать комбинации, которые будут позволять нам быстрее и удобнее набирать какие-то символы или вызывать какое-то действие, помещая поверх других, то есть эти комбинации не будут пересекаться с уже созданными или с комбинациями заданными системой.
Существует два дополнительных уровня: `level3`, `level5`. И еще комбинации с `Shift`.
Сделаем так, чтобы клавиша `CapsLock` в комбинации с h, j, k, l давала эффект стрелки. Тогда не нужно будет каждый раз тянуться ним.
Назначим модификатор (мы уже решили поставить туда `ESC`, но можно сделать и то и другое: об этом далее):
```
key { [ ISO\_Level3\_Shift ] };
```
Если мы хотим назначить для разных раскладок разное значение, то сначала нужно их определить:
```
name[group1] = "English (US)";
name[group2] = "Russian";
```
далее
```
key {
symbols[group1] = [ ISO\_Level3\_Shift ],
symbols[group2] = [ Caps\_Lock ]
}
```
Теперь нужно настроить клавиши h, j, k, l. Сначала узнаем их имя — тоже можно посмотреть файл раскладки, это несложно. Их зовут ,… . Какие команды вызывают стрелки можно узнать совершенно аналогично. Дальше пропишем поведение в комбинации с модификатором:
```
key { [ h, H, KP\_Left ] };
key { [ j, J, KP\_Down ] };
key { [ k, K, KP\_Up ] };
key { [ l, L, KP\_Right ] };
```
При нормальном нажатии будет обычная буква, при нажатии с шифтом — заглавная, с модификатором третьего уровня — стрелки.
### Назначение модификатора как второе значение клавиши
Кроме стрелок можно назначить на третий слой символы или другие операции.
Давайте сделаем, чтобы кроме функции модификатора клавиша `CapsLock` выполняла и предназначенную ей миссию ранее — была `ESC`.
Для этого нам понадобится `xcape`, которая позволяет назначить на на клавишу значение, которое она будет иметь, если нажать ее не в комбинации. Еще есть полезная функция: можно настроить время, после истечения которого ее эффект отменяется.
Как я уже обещал, мы сделаем так, чтобы при однократном нажатии клавиши `CapsLock` вызывался `ESC`, а в комбинациях выступала в роли модификатора третьего уровня.
Для этого нужно выполнить
```
$ xcape -t <время в миллисекундах> -e "первое значение=втрое значение"
```
Я использую интервал 500 миллисекунд. Для нашей цели:
```
$ xcape -t 500 -e "ISO_Level3_Shift=Escape"
```
### Дальнейшие изменения
Когда я пишу в `TeX`, я использую достаточно много одинаковых символов, но в разных раскладках. Поэтому появилась идея сделать их максимально похожими. В раскладках по умолчанию сильно отличаются положения точки, запятой, кавычек, квадратных и фигурных скобок, вопросительных знаков, различных слэшей...
Здесь было две идеи:
1. Поставим редко используемые русские буквы на крайних правых клавишах на третий слой других букв.
Схема была такая:
| Клавиша | Третий слой |
| --- | --- |
| у | ю |
| в | б |
| ь | ъ |
| з | ж |
| щ | х |
Для достижения такого эффекта добавляем в конфиг (здесь для у/ю, для остальных аналогично, названия букв русского алфавита можно посмотреть, где и все остальное):
```
key {
type = "ALPHABETIC",
type[group2] = "FOUR\_LEVEL",
symbols[group2] = [Cyrillic\_u, Cyrillic\_U, Cyrillic\_yu, Cyrillic\_YU]
};
```
А на освобожденные клавиши просто назначаем такие же символы, как во второй раскладке.
Этот вариант оказался для меня неудобным и скорее снизил скорость, так как приходилось вспоминать и искать нужные буквы (хоть я выбирал специально созвучные), кроме этого я понял, что не так уж и редко они используются. А заглавные вообще тяжело набирать было.
2. Этот вариант я использую и сейчас: давайте оставим русские буквы на своих местах, а на третий слой на них назначим те символы, которые стоят на них на английской раскладке.
Тогда мы сможем нажимать одинаковые клавиши, но с модификатором (причем, если мы не назначим что-то другое поверх символов а английской раскладке, то ничего не случиться, если мы будем нажимать модификатор и в ней тоже).
Получаем такую схему:
```
key {
type[group2]="FOUR\_LEVEL",
symbols[group2]=[Cyrillic\_ha, Cyrillic\_HA, bracketleft, braceleft]
};
key {
type[group2]="FOUR\_LEVEL",
symbols[group2]=[Cyrillic\_hardsign, Cyrillic\_HARDSIGN, bracketright, braceright]
};
key {
type[group2]="FOUR\_LEVEL",
symbols[group2]=[Cyrillic\_zhe, Cyrillic\_ZHE, colon, semicolon]
};
key {
type[group2]="FOUR\_LEVEL",
symbols[group2]=[Cyrillic\_e, Cyrillic\_E, apostrophe, quotedbl]
};
key {
type[group2]="FOUR\_LEVEL",
symbols[group2]=[Cyrillic\_be, Cyrillic\_BE, comma, less]
};
key {
type[group2]="FOUR\_LEVEL",
symbols[group2]=[Cyrillic\_yu, Cyrillic\_YU, period, greater]
};
```
Еще можем поставить в русской раскладке слэш и вопросительный знак туда, где они стоят в английской.
```
key {
symbols[group2]=[slash, question]
};
```
Плюс к этому добавляется возможность сделать одинаковыми и символы на цифрах, так как и кавычки, и двоеточие, и точка с запятой будет на других клавишах.
```
key { [ 3, numbersign, number, apostrophe ] };
key { [ 4, dollar ] };
key { [ 6, asciicircum ] };
key { [ 7, ampersand ] };
```
И главное, что это реально упростило процесс набора текста.
#### Замечание
Аналогично можно добавлять пятый слой, хотя пока лично я не испытываю никакой нужды — вполне хватает третьего.
### Интересный вариант BackSpace напоследок
А может хватит тянуться далеко-далеко в дальний угол клавиатуры?
Поставим-ка `BackSpace` на `$mod3+Space` (`$mod3` наш модификатор третьего уровня)!
```
key { [ space, space, BackSpace, BackSpace ] };
```
P.S.
----
Все настройки в принципе применимы для любых Linux дистрибутивов, использующих X.
Полные конфиги можно найти на [GitHub](https://github.com/tamarinvs19/settings_linux).
[Этот пост](http://habr.com/ru/post/222285) стал для меня отправной точкой к пониманию того, как можно и нужно настроить клавиатуру. | https://habr.com/ru/post/486872/ | null | ru | null |
# Как выглядела разработка… ну скажем, в 80-х годах прошлого века
Уже много раз в исторических постах на Хабре я видел вопросы такого плана: «А как вообще выглядела разработка тогда, когда машины были большими»? Как был построен процесс, как устроена сборка, существовал ли отладчик (заменить на любой другой инструмент), как происходило взаимодействие в команде, и т.п.
Попробую рассказать об этом на своем примере.
Итак, 80-е годы прошлого века.

На фото — заставка с терминала IBM 3270, система VM/370.
Как выглядела разработка тогда, ну скажем, скажем в 1989 году. Для определенности, опишу ту среду, в которой работал сам, это была VM/SP (известная также как СВМ/ПДО), версии с 3 по 6.
У этой ОС долгая история, она носила другие названия, например CP-40, CP-67, VM/370, и начиналось все еще с моделей S/360, для которых эта ОС была изначально разработана, как первая система не для пакетной работы, а с разделением времени. Официально считается, что VM существует с 1972 года, то есть уже 48 лет. Последний релиз был кажется в 2018 под названием [z/VM](https://en.wikipedia.org/wiki/Z/VM).
Первой же реально работавшей ОС с виртуализацией всего железа пожалуй была [CP-40](https://en.wikipedia.org/wiki/IBM_CP-40), это 1964-1967 годы.
Теперь немного про саму ОС. Собственно VM/SP — это система, основа которой виртуальные машины. Т.е., для ОС пользовательские задачи выглядят как виртуальные машины S/370, где могут выполняться любые ОС, предназначенные для этой системы. В том числе — и сама VM/SP. А для пользовательских задач VM/SP выглядит как предоставленная им реальная машина, на которой можно работать так, как будто это просто S/370, с ограниченными ресурсами.
То есть, ОС предоставляет пользователю ресурсы в форме виртуальной аппаратуры — процессора, памяти, дисков, и других устройств. А дальше это оборудование загружает с одного из устройств гостевую операционную систему, любую из тех, что могут работать на реальной машине, и уже с ней работает пользователь. Например, можно было загрузить другие ОС от IBM, такие как MVT. Для гостевой же ОС виртуальная машина идентична реальной, выполняет те же команды, точно так же осуществляется и ввод-вывод — путем запуска канальных команд.
Иными словами, роль API для взаимодействия между ОС и программой тут играет набор команд S/370. И никакого другого API, похожего скажем на POSIX, не существует. Ну или, если быть точным, то была такая команда DIAG, которая на реальной машине выполняла функции диагностики оборудования, а на виртуальной — позволяла выполнять команды ОС, например. Но у нее было всего-то 6 функций, т.е. на API уровня POSIX, или Win32 это никак не тянет все равно.
ОС состоит из так называемой управляющей программы, или CP, загрузчика, драйверов устройств. Конфигурация устройств описывается при генерации системы в виде макрокоманд ассемблера. Это типично для большинства ОС на этой архитектуре, поскольку с точки зрения процессора все периферийные устройства одинаковы, и отличаются только запускаемыми канальными программами. То есть, мы (системный программист) должны сообщить ОС, какие устройства ей доступны, и под какими адресами они подключены.
CP выполняет загрузку и запускает виртуальные машины, какие-то автоматически, например машину оператора, какие-то — когда пользователь осуществляет вход в систему. Прикладное же ПО выполняется уже в виртуальных машинах, в той или иной гостевой ОС.
Работа в VM/SP
--------------
Как уже сказано, это была ОС с разделением времени. Т.е. для работы с терминала в интерактивном режиме. После загрузки самой ОС оператор мог ввести команду ENABLE, и сделать подключенные терминалы доступными для входа в систему. После этого на них появлялась та самая заставка, какую вы видели выше. Заставку, кстати, можно было и поменять.
С экрана заставки вы вводите логин (название виртуальной машины) и пароль — и ваш реальный терминал становится одновременно консолью виртуальной машины. Вы можете, вводя с него команды, изменять ее конфигурацию, подключать или отключать устройства. А заодно делать все вещи, которые делают с консоли машины реальной — отлаживаться, т.е. ставить точки останова, смотреть и менять память, регистры и т.п.
Вы можете также выполнить ее начальную загрузку с любого подключенного устройства, либо загрузка описанной для машины ОС произойдет автоматически при входе.
Далее вы можете отключить терминал от машины командой DISConnect, и она продолжит свою работу в фоне, подключиться снова, или завершить работу.
Виртуальные машины
------------------
Откуда берутся виртуальные машины? Они описываются в так называемом оглавлении системы, это часть ее загрузочного диска. Исходный вариант оглавления — текстовый файл, где собственно описаны виртуальные машины. Имя виртуальной машины — это и есть логин, или пользователь.
Для машины естественно выделяется некоторый объем памяти. Значение по умолчанию задается в оглавлении, как минимум и максимум. С определенного момента стало можно указывать архитектуру, которую должна поддерживать машина (от этого, в частности, зависит максимально адресуемый объем памяти). S/370 имела 32 битовые адреса, из которых только 24 бита использовались, далее появилась архитектура XA с поддержкой 31 битовых адресов, а затем и ESA с 32-битовыми.
У машины могут быть собственные диски. Обычно это так называемые минидиски, которые представляют из себя несколько цилиндров реального тома (и не более тома целиком). Но можно также прикрепить к машине реальное устройство с установленным на нем томом, которое будет использоваться монопольно.
Минидиски можно подключить от одной виртуальной машины к другой. Естественно, совместное использование обеспечивается только на чтение. На запись диск доступен только одной виртуальной машине. На уровне железа нет средств синхронизации, которые позволяли бы разделять диски на запись, а ОС эмулирует именно реальное железо.
С лентами и многими другими устройствами все еще проще — их можно только выделить в монопольное использование виртуальной машине. Сюда же относятся и дисплеи.
Печатающие устройства и карточный ввод как правило обслуживаются самой ОС. Считанные карты помещаются в очередь ввода, а далее могут быть перенаправлены на карточное устройство ввода виртуальной машины. Виртуальное, само собой. Аналогично с печатью, только очередь на этот раз на вывод.
Отображение виртуальных ресурсов на реальные происходит по-разному, в зависимости от типа ресурса. Процессор выделяется реальный, в виде квантов. Память выделяется виртуальная, можно при этом зарезервировать некоторый объем реальной. Устройства — в зависимости от типа. Выполняемые канальные программы модифицируются, чтобы например преобразовать номера цилиндров минидиска в цилиндры диска реального, а для устройств печати и перфокарт — полностью эмулируются.
Имеются также команды управления виртуальной машиной, которые позволяют изменить объем выделенной памяти, подключить реальное устройство или минидиск, связать устройства с очередями ввода-вывода для принтеров и считывателей карт. Ну и выполнить начальную загрузку ОС с одного из подключенных устройств. Некоторые команды может выполнять сам пользователь, некоторые же доступны только оператору системы. Оператор — отдельная виртуальная машина.
По умолчанию гостевая ОС описывается в виде устройства, с которого происходит загрузка виртуальной машины. Как правило это диск (минидиск). Кроме того, ОС позволяет создавать снимки памяти уже загруженной системы, с которых потом можно загружаться существенно быстрее. Это именуется хранимыми сегментами (saved segments), и они являются именованными и глобальными. То есть, если у нас имеется сегмент CMS, то загрузка ОС CMS (не следует их путать) может быть выполнена как в виде IPL 190, с минидиска, так и IPL CMS, из хранимого сегмента.
```
USER GUEST 12345678 16M 64M G
IPL CMS PARM AUTOCR
MACHINE ESA
CONSOLE 009 3270
SPOOL C 2540 READER A
SPOOL D 2540 PUNCH A
SPOOL E 1403 A
MDISK 191 3390 USRPK1 510 10 MR ALL ALL ALL
LINK DIRMAINT 190 190 RR
LINK DIRMAINT 19E 19E RR
```
CMS
---
Специально для целей разработки была создана однопользовательская и однозадачная ОС, которая могла работать только на виртуальной машине. Эта ОС называлась CMS (Conversational Monitor System/Cambridge Monitor System), в разных вариантах, по назначению и по месту разработки. Это не британский Кембридж, если что, а тот что в Бостоне.
Эта ОС предназначена для того, чтобы один пользователь мог работать в ней, пользуясь дисплеем и клавиатурой, разрабатывать программы, или допустим набирать и форматировать тексты. Дисплей с клавиатурой представляет из себя консоль управления виртуальной машиной, с которой можно вводить как команды VM/SP (относящиеся к т.н. Control Program, CP), так и команды самой CMS. У вас есть командная строка, есть строка состояния, где отображается текущий статус, и строки вывода результатов. В этом режиме дисплей моделирует поведение пишущей машинки. Вы можете также запустить программы, использующие все возможности дисплея, например, для редактирования текста или для просмотра файлов.
Если вы видели MS DOS, то многое вам будет привычно. Причем речь идет про MS DOS до версии 2.
Рассмотрим некоторые типовые (не все, разумеется) задачи, которые пользователю нужно выполнять при разработке:
* Навигация по файловой системе, поиск файлов в проекте, просмотр их атрибутов
* Просмотр и редактирование содержимого файлов
* Копирование, переименование, перемещение и удаление файлов
* Архивирование (на ленту), восстановление из архива
* Компиляция файлов на каком-либо языке программирования
* Подготовка документации
### Файлы
В качестве места для хранения файлов у ОС есть диски, они именуются буквами от A до Z. Буква не обозначает физический том с определенным набором файлов, и может быть изменена. Обычно диски S и Y были системными, где располагались файлы CMS, а диск A был свой, с доступом на запись, и там хранились файлы пользователя.
То есть, с дисками мы можем делать примерно следующее:
* Присоединить к виртуальной машине физический диск (или минидиск другой виртуальной машины), командой LINK
* Открыть диск на доступ, назначив ему букву алфавита командой ACCESS
* Закрыть доступ к файлам диска и отсоединить диск
* Отформатировать диск
Файлы именуются тремя компонентами: имя, тип, и буква диска. Скажем, ABC ASSEMBLE A — файл ABC с типом ASSEMBLE на диске A. Букву назначает команда ACCESS.
Соответственно, структура файловой системы плоская (это не совсем так, но главное что она не древовидная, как мы привыкли сегодня). Папок с файлами не предусмотрено. Имеются файлы типа «библиотека», содержащие например макросы ассемблера — но на этом сложные структуры пожалуй заканчиваются (хотя в какой-то степени поддерживались файлы от OS/360, типа MVT).
Просмотр дисков осуществляется в порядке алфавита. То есть, если мы ищем ABC ASSEMBLE \*, и файл с таким именем и типом найден на диске A, то поиск на этом прекращается. Как вы уже догадались, были так называемые wildcards, но достаточно ограниченные.
Чтобы работать с файлами, имеется широкий набор команд. Они могут быть реализованы как бинарные скомпилированные программы (тип MODULE), так и на нескольких скриптовых языках, например EXEC2 или REXX. И те, и другие запускаются из командной строки путем ввода имени файла (т.е. происходит автоматический поиск файлов с этими типами).
Разумеется, можно посмотреть список файлов — командой LIST, можно просмотреть содержимое — командой BROWSE, можно вызвать текстовый редактор — XEDIT. Чтобы напечатать файл, существует команда PRINT. Скриптовые языки позволяют наборы команд автоматизировать и оформить как одну команду. Для обмена данными между командами имеется такая структура, как стек — так что вызвав скажем команду LIST \* \* \* (STACK, вы получите в этом самом стеке список файлов, который скрипт может прочитать, и обработать.
### Хочу Нортон коммандер!
Чтобы работать со списком файлов интерактивно, имеется также команда FLIST. Это и было ближайшим аналогом Norton Commander, только панель тут была одна.
```
LVL 0 - A 191 18000 BLKS 3390 R/W 69% FILE 1 OF 12
DTRYLST TXTAQ0 A1 F 80 44 1 12/20/01 10:41
DTRYLST AUXAQO A1 F 80 1 1 12/26/01 1:45
DTRYLST LISTING A1 F 121 1301 1 12/26/01 1:45
DTRYLST SJ871AQ0 A1 F 80 2 1 12/26/01 1:44
DTRYLST TXTAQ0 A1 F 80 445 1 12/26/01 1:45
DTRYSAD AUXAQ0 A1 F 80 1 1 12/10/01 4:08
DTRYSAD SJ966QQ0 A1 F 80 1 1 12/18/01 23:42
DTRYSAD TXTAQ0 A1 F 80 51 1 12/18/01 23:43
FLIST MAPAQ0 A5 F 100 2 1 12/26/01 1:46
FLIST MODULE A2 F 1312 3 1 12/26/01 1:46
FLIST1 $PROFILE A2 V 78 31 1 12/26/01 2:06
GOPAL NETLOG A0 V 108 37 1 12/26/01 17:02
1 2 3 4 5 6 7 8 9 10
PF: 1 HLP 2 BRW 3 END 4 XED 5 SPL 6 /SB 7 SCB 8 SCF 9 /SD 10 /ST 11 >I 12 CAN
```
Первая строка — данные о диске, включая заполненность, в данном случае мы видим диск с буквой A, он же — устройство 191.
Мы видим тут колонку имени, типа и буквы диска. Далее идут формат файла — фиксированной длины строки или переменной (F/V), длина строки, размер в блоках, дата изменения.
После буквы диска имеется поле ввода возле каждого файла. В него можно вводить команды, которые будут исполнены после нажатия Enter или функциональной клавиши.
У команд разрешаются параметры, обозначающие текущий файл или компоненты его названия: /, /N, /T, /M, т.е. полный ID файла, имя, тип, mode (так именуется буква диска).
Например, команда PRINT / в третьей строке выполнится с подстановкой полного ID, т.е. PRINT DTRYLST LISTING A. Если у файла тип скажем PRINT, то ввод просто /T / приведет к выполнению команды PRINT «имя» «тип» «буква диска», т.е. к печати текущего файла. То есть, тип файла тут используется как имя команды.
А в последней строке вы видите подсказку по функциональным клавишам (PF), которых было ровно 12: HLP — справка, BRW — BROWSE, END — выход, XED — XEDIT, SPL — разделить экран по строке курсора, /SB — сортировать по размеру, SCB — лдистать назад, SCF — листать вперед, /SD — сортировать по дате, /ST — сортировать по типу, >I — увеличить строку команды, CAN — убрать разделение.
А вот скриншот с экрана ПДО. Все в общем тоже самое, только некоторые надписи переведены:

И на этот раз перед вами содержимое системного диска S, с файлами самой CMS.
### Обмен файлами
Если нужно передать файлы между виртуальными машинами, первым очевидным способом является предоставление доступа к диску другому пользователю. Он может присоединить диск к своей виртуальной машине командой LINK, и открыть доступ к файлам командой ACCESS, а далее работать с ними как со своими (с учетом ограничения доступа только чтением, или чтением и записью).
Но надо помнить, что у виртуальной машины обычно есть еще такие устройства, как виртуальный перфоратор (для перфокарт, да), устройство чтения перфокарт, и виртуальный принтер. И все они эмулируются, т.е. на самом деле данные сохраняются на дисках, в очередях. И содержимое очереди мы можем перенаправить во входную очередь другого пользователя.
Очевидно, тот факт, что это как бы перфокарты, не ограничивает возможности передачи файлов любого формата — все мы знаем это по сегодняшней электронной почте, BASE64 и другие методы кодирования никто не отменял, и они существовали.
Фактически, виртуальные карточные устройства и принтеры были немного примитивной реализацией электронной почты, просто доставка там была по умолчанию только в рамках одной физической машины, и в режиме точка-точка, то есть от пользователя к пользователю (почта между физическими машинами была вполне возможна, а при помощи посредника можно было организовать например и рассылки). То есть, очереди — это механизм физической доставки, на базе которого можно было сделать что-то более умное.
XEDIT
-----
Пожалуй, текстовый редактор заслуживает отдельного поста. Но поскольку XEDIT был популярен сам по себе, и в разных вариациях выпускался позже для разных других ОС, включая MS DOS, то как раз он в какой-то степени может быть многим знаком.
Поэтому про него — коротко.
Во-первых, файл должен был полностью помещаться в память. Это позволяло работать быстро. Ограничение — примерно объем памяти виртуальной машины. Напомню, что адресация у S/370 была лишь 24-битовая, расширена до 31 и далее 32 она была позже в VM/XA и ESA.
Можно было открыть несколько файлов одновременно, с тем же общим ограничением, разбив экран на зоны, или показывая только один файл и переключаясь между ними.
### Функциональные клавиши
Почему важны функциональные клавиши? Дело в том, что терминал IBM 3270 (ЕС-7927) имел собственный экранный буфер размером 24 строки на 80 символов. Нажатие обычных клавиш алфавита, пунктуации и т.п. приводили к изменению содержимого буфера. А вот в программу буфер передавался только по нажатию клавиш Enter, PF1-PF12, т.е. специальных. Только они вызывали прерывания ввода-вывода. То есть, с одной стороны, терминал брал на себя многие функции редактирования (вставки, удаления, замены), а с другой — гибкость взаимодействия обеспечивали только функциональные клавиши, только они могли программироваться. Не было и такого, чтобы вы могли запрограммировать сочетания клавиш, такие как ctrl-буква, например.
Максимум что было доступно — это терминалы с 24 функциональными клавишами.
Плюсами такой архитектуры была низкая нагрузка на процессор. Фактически, за счет этого машина типа ЕС-1046, например, всего с 4 мегабайтами памяти, могла обслуживать несколько десятков терминалов (в нашей практике — до 60), при условии, что пользователи занимаются набором и редактированием текста.
### Принципы редактирования
Буфер терминала IBM 3270 мог быть программно разбит на поля, каждое из которых имело определенные атрибуты, например доступность для редактирования. Или яркость, например (а в более новых моделях и цвет).
XEDIT обычно показывал одну строку текста в одной строке экрана. Еще экран содержал командную строку, плюс возможно префиксную область в каждой строке, и строку с описанием назначения клавиш, и линейку. В префиксной области можно было вводить команды, которые относились к строке, или парные команды, относящиеся к группе строк, ограниченной парой.
Все это настраивалось, например, можно было убрать командную строку, или строку с описанием. На функциональные клавиши можно было повесить обработчики в виде макросов на скриптовом языке (обычно REXX), которые могли манипулировать открытым файлом, или менять настройки редактора.
Набор команд? Ну, если вы знакомы с чем-то типа vi, или скажем sed знаете, то в вы вполне сможете сориентироваться в XEDIT довольно быстро. Я бы сказал, что в XEDIT все даже проще в некотором роде, например потому, что нет такой вещи, как состояния. Текст сам по себе, командная строка — сама по себе, чтобы ввести команду — нужно перейти в строку команд, в строке текста вы вводите или редактируете текст (режим вставки или замены реализован аппаратно). Удобнее ли это в целом — не знаю, но в среднем это проще.
Перейти на строку, или найти строку, выполнить замену подстроки, удалить или вставить строки, скопировать или переместить — в общем, вполне обычный набор. Префиксные команды немного интереснее. Скажем, пара команд CC в разных строках файла, и третья команда (Before/aFter), указывающая куда скопировать — практически это было максимально близко к тому, что есть и на сегодня, с учетом отсутствия GUI.

Компиляция, сборка, версионирование
-----------------------------------
Собственно, в этом месте ничего необычного не было. Командная строка (или FLIST), команда компиляции в зависимости от языка, дальше файл (или файлы), и после круглой скобки — параметры (так было принято в CMS). В итоге получается объектный файл с типом TEXT, который потом линкуется с другими такими же файлами и библиотеками командой LOAD, и строится файл MODULE при помощи GENMOD. Или можно загруженный код просто запустить, например. Библиотеки макросов или модулей для линкера описываются командой GLOBAL.
Самих компиляторов было множество. Интерпретаторов тоже. В CMS были реализации для множества языков, как широко распространенных, так и довольно экзотических. Наиболее распространенными в моем окружении были FORTRAN (сначала IV, а позже 77), PL/1, ассемблер, REXX, LISP (в форме REDUCE), PASCAL/VS от IBM. Позже появился C, но широкого распространения тогда не получил, по ряду причин (в первую очередь наверное различия в парадигмах между UNIX и ОС от IBM, что в итоге приводило к некоторым неудобствам). Были и такие экзотические штуки, как [PL/S](https://en.wikipedia.org/wiki/IBM_PL/S), эдакий «ассемблер высокого уровня», то есть по сути — C, но для для S/370.
Инструменты полноценного версионирования файлов тогда еще не появились в CMS. Даже в виде полного аналога diff/patch (в UNIX это уже было, diff появился в середине 70-х). Версионирование существовало, но сводилось к одному файлу. И работало это примерно так: когда вы открывали файл в XEDIT, вы могли вместо сохранения нового содержимого сохранить файл UPDATE (что-то типа .patch). Впоследствии его можно было применить к исходному файлу, и получить обновленное содержимое. Ну и для полноты картины были списки таких UPDATE файлов, указывающие последовательность их применения.
То есть, фактически это и был инструмент для создания патчей. Он применялся для версионирования самой системы, которая в значительной степени поставлялась в исходниках. Так что в целом инструмент был работоспособный, использовался IBM внутри своих команд, но по сегодняшним временам все конечно довольно примитивно.
Никакой инструмент типа make мне лично не был известен, но интуитивно понятно, что реализовать какой-то механизм для автоматизации сборки можно было, например на REXX (и такие попытки предпринимались). Насколько я знаю, на сегодня make в CMS есть совершенно обычный.
Документация
------------
Для подготовки документации было минимум два похожих инструмента. Один — это продукт SCRIPT UW, разработка университета Ватерлоо, Канада (собственно, UW — это он и есть). Второй, очень похожий инструмент — это разработка IBM под названием Script/VS.
Из того, что мы знаем сегодня, оба продукта больше всего похожи пожалуй на TeX. Т.е. вы пишете текст, и расставляете внутри него разметку, например :p. для обозначения параграфа. Потом текст обрабатыватся программой SCRIPTVS, и мы получаем файл, который можно напечатать на принтере. Поддержка принтеров — ограниченная. Поскольку обычный принтер для S/360 не умел делать ничего специфического, в частности, не имел загружаемых или сменных шрифтов, то максимум, что нам было доступно — это повторная печать строки поверх предыдущей, и получение шрифта bold. И весьма ограниченное позиционирование текста на странице. Заголовки, сбор оглавления, колонтитулы, фрагменты предформатированного текста… это все было. В общем, было довольно много чего, что вы можете представить сегодня также и по HTML, например.
Теоретически (и практически) оба продукта расширялись, например, разметка была реализована как пользовательские макросы, можно было в какой-то степени реализовать поддержку других принтеров. Но я бы сказал, что уже Word for DOS версии примерно 5 умел делать все тоже самое сильно лучше. Ну и массовые лазерные принтеры, конечно, произвели окончательную революцию в этом вопросе.
Главное — и трава была зеленее...
---------------------------------
Вот как-то так в целом выглядела тогда разработка. Обычный и на сегодня цикл — создание кода в текстовом редакторе, сохранение, компиляция, линковка, запуск, отладка. Далее — редактирование, и все снова. Разумеется, XEDIT — это не IDE. Да и FLIST это даже не FAR. Все несколько попроще, и масштабируется немного похуже.
Ну так и железки были слегка другие — не забудьте, что в нашем распоряжении только текстовый экран 24\*80, такой же чисто текстовый принтер, порядка 16 мегабайт памяти у виртуальной машины, и столько же, если не меньше — у машины реальной. Ну и для полноты картины — самые большие диски, что я застал, были 317 мегабайт, и это были несменные устройства, и у нас их было порядка 8 штук максимум. То есть, вся дисковая память типовой EC-1046 была по порядку примерно пару гигабайт + сколько-то сменных пакетов, которые можно было установить при необходимости. Диски для персоналок по-моему доросли до этого объема примерно к 2000, когда появились модели емкостью порядка гигабайта.
Поэтому в реальности, при том что машина могла как-то обслуживать десятки людей, тяжелые расчетные задачи требовали всех ресурсов, и превращали ЕС-1061 в машину для одного человека.
Но тогда, уже давненько, многое из этого все равно казалось чудом… | https://habr.com/ru/post/476588/ | null | ru | null |
# Тестирование в Java. TestNG

Наверняка все знакомы с таким понятием как [test-driven development(TDD)](http://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D1%87%D0%B5%D1%80%D0%B5%D0%B7_%D1%82%D0%B5%D1%81%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5). Наряду с ним также существует такое понятие, как [data-driven testing(DDT, не в обиду Шевчуку)](http://en.wikipedia.org/wiki/Data-driven_testing) — техника написания тестов, при которой данные для тестов хранятся отдельно от самих тестов. Они могут храниться в базе данных, файле, генерироваться во время исполнения теста. Это очень удобно, так как один и тот же функционал тестируется на различных наборах данных, при этом добавление, удаление или изменение этих данных максимально упрощено.
В [предыдущей статье](http://habrahabr.ru/blogs/java/120101/) я рассмотрел возможности [JUnit-а](http://junit.org/). Там примерами такого рода подхода могут служить запускалки *Parameterized* и *Theories*, в обоих случаях один тест-класс может содержать только один такой параметризированный тест(в случае *Parameterized* несколько, но все они будут использовать одни и те же данные).
В этой статье я заострю внимание на тестовом фреймворке [TestNG](http://testng.org/doc/index.html). Многие уже слышали это название, и перейдя на него, вряд ли желают вернуться к JUnit-у(хотя это только предположение).
Основные возможности
====================
Итак, что же здесь есть? Как и в JUnit 4 тесты описываются с помощью аннотаций, также поддерживаются тесты, написанные на JUnit 3. Есть возможность вместо аннотаций использовать доклет.
Для начала рассмотрим иерархию тестов. Все тесты принадлежат к какой-либо последовательности тестов(сюите), включают в себя некоторое количество классов, каждый из которых может состоять из нескольких тестовых методов. При этом классы и тестовые методы могут принадлежать к определенной группе. Наглядно это выглядит так:
```
+- suite/
+- test0/
| +- class0/
| | +- method0(integration group)/
| | +- method1(functional group)/
| | +- method2/
| +- class1
| +- method3(optional group)/
+- test1/
+- class3(optional group, integration group)/
+- method4/
```
У каждого участника этой иерархии могут иметься *before* и *after* конфигураторы. Запускается это все в таком порядке:
```
+- before suite/
+- before group/
+- before test/
+- before class/
+- before method/
+- test/
+- after method/
...
+- after class/
...
+- after test/
...
+- after group/
...
+- after suite/
```
Теперь поподробнее о самих тестах. Рассмотрим пример. Утилита для работы с локалями, умеет парсить из строки, а также искать кандидаты(*en\_US -> en\_US, en, root*):
```
public abstract class LocaleUtils {
/**
* Root locale fix for java 1.5
*/
public static final Locale ROOT_LOCALE = new Locale("");
private static final String LOCALE_SEPARATOR = "_";
public static Locale parseLocale(final String value) {
if (value != null) {
final StringTokenizer tokens = new StringTokenizer(value, LOCALE_SEPARATOR);
final String language = tokens.hasMoreTokens() ? tokens.nextToken() : "";
final String country = tokens.hasMoreTokens() ? tokens.nextToken() : "";
String variant = "";
String sep = "";
while (tokens.hasMoreTokens()) {
variant += sep + tokens.nextToken();
sep = LOCALE_SEPARATOR;
}
return new Locale(language, country, variant);
}
return null;
}
public static List getCandidateLocales(final Locale locale) {
final List locales = new ArrayList();
if (locale != null) {
final String language = locale.getLanguage();
final String country = locale.getCountry();
final String variant = locale.getVariant();
if (variant.length() > 0) {
locales.add(locale);
}
if (country.length() > 0) {
locales.add((locales.size() == 0) ? locale : new Locale(language, country));
}
if (language.length() > 0) {
locales.add((locales.size() == 0) ? locale : new Locale(language));
}
}
locales.add(ROOT\_LOCALE);
return locales;
}
}
```
Напишем к ней тест в стиле JUnit-a(не стоит рассматривать данный пример как руководство к написанию тестов на TestNG):
```
public class LocaleUtilsOldStyleTest extends Assert {
private final Map parseLocaleData = new HashMap();
@BeforeClass
private void setUp() {
parseLocaleData.put(null, null);
parseLocaleData.put("", LocaleUtils.ROOT\_LOCALE);
parseLocaleData.put("en", Locale.ENGLISH);
parseLocaleData.put("en\_US", Locale.US);
parseLocaleData.put("en\_GB", Locale.UK);
parseLocaleData.put("ru", new Locale("ru"));
parseLocaleData.put("ru\_RU\_xxx", new Locale("ru", "RU", "xxx"));
}
@AfterTest
void tearDown() {
parseLocaleData.clear();
}
@Test
public void testParseLocale() {
for (Map.Entry entry : parseLocaleData.entrySet()) {
final Locale actual = LocaleUtils.parseLocale(entry.getKey());
final Locale expected = entry.getValue();
assertEquals(actual, expected);
}
}
}
```
Что здесь есть?
* Как уже было сказано в предыдущей статье я предпочитаю наследовать тест-класс от *Assert*, это можно заменить статическим импортом, либо использованием класса напрямую(*Assert.assertEquals(...)*). В реальной системе удобнее всего наследовать тест от какого-либо базового класса, который в свою очередь наследовать от *Assert*, это дает возможность переопределять либо добавлять необходимые методы. Внимание: в отличие от такого же класса в JUnit здесь во все методы актуальное значение передается первым, ожидаемое вторым(в JUnit наоборот).
* Аннотации *@BeforeSuite*, *@AfterSuite* обозначают методы, которые исполняются единожды до/после исполнения всех тестов. Здесь удобно располагать какие-либо тяжелые настройки общие для всех тестов, например, здесь можно создать пул соединений с базой данных.
* Аннотации *@BeforeTest*, *@AfterTest* обозначают методы, которые исполняются единожды до/после исполнения теста(тот, который включает в себя тестовые классы, не путать с тестовыми методами). Здесь можно хранить настройки какой-либо группы взаимосвязанных сервисов, либо одного сервиса, если он тестируется несколькими тест-классами.
* Аннотации *@BeforeClass*, *@AfterClass* обозначают методы, которые исполняются единожды до/после исполнения всех тестов в классе, идентичны предыдущим, но применимы к тест-классам. Наиболее применим для тестирования какого-то определенного сервиса, который не меняет свое состояние в результате теста.
* Аннотации *@BeforeMethod*, *@AfterMethod* обозначают методы, которые исполняются каждый раз до/после исполнения тестового метода. Здесь удобно хранить настройки для определенного бина или сервиса, если он не меняет свое состояние в результате теста.
* Аннотации *@BeforeGroups*, *@AfterGroups* обозначает методы, которые исполняются до/после первого/последнего теста принадлежащего к заданным группам.
* Аннотация *@Test* обозначает сами тесты. Здесь размещаются проверки. Также применима к классам
У всех этих аннотаций есть следующие параметры:* enabled — можно временно отключить, установив значение в false
* groups — обозначает, для каких групп будет исполнен
* inheritGroups — если true(а по умолчанию именно так), метод будет наследовать группы от тест-класса
* timeOut — время, после которого метод «свалится» и потянет за собой все зависимые от него тесты
* description — название, используемое в отчете
* dependsOnMethods — методы, от которых зависит, сначала будут выполнены они, а затем данный метод
* dependsOnGroups — группы, от которых зависит
* alwaysRun — если установить в true, будет вызываться всегда независимо от того, к каким группам принадлежит, не применим к *@BeforeGroups*, *@AfterGroups*
Как видно из примера тест практически ничем не отличается от такого же теста на JUnit. Если нет разницы, то зачем использовать TestNG?
Параметризированные тесты
=========================
Напишем этот же тест другим способом:
```
public class LocaleUtilsTest extends Assert {
@DataProvider
public Object[][] parseLocaleData() {
return new Object[][]{
{null, null},
{"", LocaleUtils.ROOT_LOCALE},
{"en", Locale.ENGLISH},
{"en_US", Locale.US},
{"en_GB", Locale.UK},
{"ru", new Locale("ru")},
{"ru_RU_some_variant", new Locale("ru", "RU", "some_variant")},
};
}
@Test(dataProvider = "parseLocaleData")
public void testParseLocale(String locale, Locale expected) {
final Locale actual = LocaleUtils.parseLocale(locale);
assertEquals(actual, expected);
}
}
```
Проще? Конечно, данные хранятся отдельно от самого теста. Удобно? Конечно, можно добавлять тесты, добавляя всего лишь строчку в метод parseLocaleData.
Итак, как это работает?* Объявляем тестовый метод со всеми нужными ему параметрами, например входные и ожидаемые данные. В нашем случае это строка, которую нужно распарсить в локаль и ожидаемая в результате локаль.
* Объявляем дата провайдер, хранилище данных для теста. Обычно это метод, возвращающий *Object[][]* либо *Iterator*, содержащий список параметров для определенного теста, например *{«en\_US», Locale.US}*. Этот метод должен быть зааннотирован с помощью *@DataProvider*, в самом тесте он объявляется с помощью параметра *dataProvider* в аннотации *@Test*. Также можно указать имя(параметр *name*), если не указывать в качестве имени будет использоваться название метода.
Еще один пример, теперь разнесем данные и логику теста в разные классы:
```
public class LocaleUtilsTestData {
@DataProvider(name = "getCandidateLocalesData")
public static Object[][] getCandidateLocalesData() {
return new Object[][]{
{null, Arrays.asList(LocaleUtils.ROOT_LOCALE)},
{LocaleUtils.ROOT_LOCALE, Arrays.asList(LocaleUtils.ROOT_LOCALE)},
{Locale.ENGLISH, Arrays.asList(Locale.ENGLISH, LocaleUtils.ROOT_LOCALE)},
{Locale.US, Arrays.asList(Locale.US, Locale.ENGLISH, LocaleUtils.ROOT_LOCALE)},
{new Locale("en", "US", "xxx"), Arrays.asList(
new Locale("en", "US", "xxx"), Locale.US, Locale.ENGLISH, LocaleUtils.ROOT_LOCALE)
},
};
}
}
public class LocaleUtilsTest extends Assert {
// other tests
@Test(dataProvider = "getCandidateLocalesData", dataProviderClass = LocaleUtilsTestData.class)
public void testGetCandidateLocales(Locale locale, List expected) {
final List actual = LocaleUtils.getCandidateLocales(locale);
assertEquals(actual, expected);
}
}
```
В этом случае задаются параметры *dataProviderClass* и *dataProvider*. Метод, возвращающий тестовые данные должен быть *static*.
Кроме описанного выше есть еще один способ параметризировать тесты. Нужный метод аннотируется с помощью *@Parameters*, где указываются имена всех необходимых параметров. Некоторые из параметров можно зааннотировать с помощью *@Optional* с указанием значения по умолчанию(если не указать, то будут использоваться значения по умолчанию для примитивов, либо null для всех остальных типов). Значения параметров хранятся в конфигурации TestNG(которая будет рассмотрена позже). Пример:
```
public class ParameterizedTest extends Assert {
private DataSource dataSource;
@Parameters({"driver", "url", "username", "password"})
@BeforeClass
public void setUpDataSource(String driver, String url, @Optional("sa") String username, @Optional String password) {
// create datasource
dataSource = ...
}
@Test
public void testOptionalData() throws SQLException {
dataSource.getConnection();
// do some staff
}
}
```
В данном случае метод *setUpDataSource* будет принимать в качестве параметров настройки соединения с БД, причем параметры *username* и *password* опциональны, с заданными значениями по умолчанию. Очень удобно использовать с данными, общими для всех тестов(ну или почти всех), например, как в примере настройки соединения с БД.
Ну и в завершение следует сказать пару слов о фабриках, которые позволяют создавать тесты динамически. Также, как и сами тесты, могут быть параметризированы с помощью *@DataProvider* либо *@Parameters*:
```
public class FactoryTest {
@DataProvider
public Object[][] tablesData() {
return new Object[][] {
{"FIRST_TABLE"},
{"SECOND_TABLE"},
{"THIRD_TABLE"},
};
}
@Factory(dataProvider = "tablesData")
public Object[] createTest(String table) {
return new Object[] { new GenericTableTest(table) };
}
}
public class GenericTableTest extends Assert {
private final String table;
public GenericTableTest(final String table) {
this.table = table;
}
@Test
public void testTable() {
System.out.println(table);
// do some testing staff here
}
}
```
Вариант с *@Parameters*:
```
public class FactoryTest {
@Parameters("table")
@Factory
public Object[] createParameterizedTest(@Optional("SOME_TABLE") String table) {
return new Object[] { new GenericTableTest(table) };
}
}
```
Многопоточность
===============
Нужно проверить, как поведет себя приложение во многопоточном окружении? Можно сделать так, чтобы тесты исполнялись одновременно из нескольких потоков:
```
public class ConcurrencyTest extends Assert {
private Map data;
@BeforeClass
void setUp() throws Exception {
data = new HashMap();
}
@AfterClass
void tearDown() throws Exception {
data = null;
}
@Test(threadPoolSize = 30, invocationCount = 100, invocationTimeOut = 10000)
public void testMapOperations() throws Exception {
data.put("1", "111");
data.put("2", "111");
data.put("3", "111");
data.put("4", "111");
data.put("5", "111");
data.put("6", "111");
data.put("7", "111");
for (Map.Entry entry : data.entrySet()) {
System.out.println(entry);
}
data.clear();
}
@Test(singleThreaded = true, invocationCount = 100, invocationTimeOut = 10000)
public void testMapOperationsSafe() throws Exception {
data.put("1", "111");
data.put("2", "111");
data.put("3", "111");
data.put("4", "111");
data.put("5", "111");
data.put("6", "111");
data.put("7", "111");
for (Map.Entry entry : data.entrySet()) {
System.out.println(entry);
}
data.clear();
}
}
```
* threadPoolSize определяет максимальное количество потоков используемое для тестов.
* singleThreaded если установлен в true все тесты будут запущены в одном потоке.
* invocationCount определяет количество запусков теста.
* invocationTimeOut определяет общее время всех запусков теста, после которого тест считается провалившемся.
Первый тест будет время от времени проваливаться с *ConcurrentModificationException*, так как будет запускаться из разных потоков, второй — нет, так как все тесты будут запущены последовательно из одного потока.
Еще можно установить параметр *parallel* у дата провайдера в true, тогда тесты для каждого набора данных будут запущены паралельно, в отдельном потоке:
```
public class ConcurrencyTest extends Assert {
// some staff here
@DataProvider(parallel = true)
public Object[][] concurrencyData() {
return new Object[][] {
{"1", "2"},
{"3", "4"},
{"5", "6"},
{"7", "8"},
{"9", "10"},
{"11", "12"},
{"13", "14"},
{"15", "16"},
{"17", "18"},
{"19", "20"},
};
}
@Test(dataProvider = "concurrencyData")
public void testParallelData(String first, String second) {
final Thread thread = Thread.currentThread();
System.out.printf("#%d %s: %s : %s", thread.getId(), thread.getName(), first, second);
System.out.println();
}
}
```
Данный тест будет выводить нечто вроде:
```
#16 pool-1-thread-3: 5 : 6
#19 pool-1-thread-6: 11 : 12
#14 pool-1-thread-1: 1 : 2
#22 pool-1-thread-9: 17 : 18
#20 pool-1-thread-7: 13 : 14
#18 pool-1-thread-5: 9 : 10
#15 pool-1-thread-2: 3 : 4
#17 pool-1-thread-4: 7 : 8
#21 pool-1-thread-8: 15 : 16
#23 pool-1-thread-10: 19 : 20
```
Без этого параметра будет что-то вроде:
```
#1 main: 1 : 2
#1 main: 3 : 4
#1 main: 5 : 6
#1 main: 7 : 8
#1 main: 9 : 10
#1 main: 11 : 12
#1 main: 13 : 14
#1 main: 15 : 16
#1 main: 17 : 18
#1 main: 19 : 20
```
Дополнительные возможности
==========================
Кроме всего описанного есть и другие возможности, например для проверки выброса исключений(очень удобно использовать для тестов на неправильных данных):
```
public class ExceptionTest {
@DataProvider
public Object[][] wrongData() {
return new Object[][] {
{"Hello, World!!!"},
{"0x245"},
{"1798237199878129387197238"},
};
}
@Test(dataProvider = "wrongData", expectedExceptions = NumberFormatException.class,
expectedExceptionsMessageRegExp = "^For input string: \"(.*)\"$")
public void testParse(String data) {
Integer.parseInt(data);
}
}
```
* expectedExceptions задает варианты ожидаемых исключений, если они не выбрасываются, тест считается провалившемся.
* expectedExceptionsMessageRegExp то же что и предыдущий параметр, но задает regexp для сообщения об ошибке.
Еще один пример:
```
public class PrioritiesTest extends Assert {
private boolean firstTestExecuted;
@BeforeClass
public void setUp() throws Exception {
firstTestExecuted = false;
}
@Test(priority = 0)
public void first() {
assertFalse(firstTestExecuted);
firstTestExecuted = true;
}
@Test(priority = 1)
public void second() {
assertTrue(firstTestExecuted);
}
}
```
* priority определяет приоритет теста внутри класса, чем меньше, тем раньше будет выполнен.
Данный пример пройдет успешно, так как сначала выполнится метод *first*, затем *second*. Если поменять приоритет у *first* на 2, тест провалится.
Похожее поведение будет наблюдаться также если указать зависимости у теста, например, добавим в наш тест:
```
public class PrioritiesTest extends Assert {
// some staff
@Test(dependsOnMethods = {"first"})
public void third() {
assertTrue(firstTestExecuted);
}
// some staff
}
```
Обычно это удобно, когда один тест зависит от другого, например, *Утилита1* использует *Утилиту0*, если *Утилита0* работает неправильно, то нет смысла тестировать *Утилиту1*. С другой стороны зависимости также удобно использовать в *@Before*, *@After* методах, особенно для связи базового теста с наследующимся, причем иногда бывает необходимо сделать так, чтобы даже если метод *A* свалился, а метод *B* зависит от него, метод *B* все равно вызывался. В этом случае устанавливаем параметр *alwaysRun* в true.
Внедрение зависимостей
======================
Хочу порадовать любителей фреймворка от «корпорации добра» [Guice](http://code.google.com/p/google-guice/). В TestNG есть встроенная поддержка последнего. Выглядит это так:
```
public class GuiceModule extends AbstractModule {
@Override
protected void configure() {
bind(String.class).annotatedWith(Names.named("guice-string-0")).toInstance("Hello, ");
}
@Named("guice-string-1")
@Inject
@Singleton
@Provides
public String provideGuiceString() {
return "World!!!";
}
}
@Guice(modules = {GuiceModule.class})
public class GuiceTest extends Assert {
@Inject
@Named("guice-string-0")
private String word0;
@Inject
@Named("guice-string-1")
private String word1;
@Test
public void testService() {
final String actual = word0 + word1;
assertEquals(actual, "Hello, World!!!");
}
}
```
Все, что надо — зааннотировать нужный класс с помощью *@Guice* и указать в параметре modules все необходимые guice-модули. Далее в тест классе можно уже использовать внедрение зависимостей, используя *@Inject*.
Добавлю еще, что любителям других подобных фреймворков не стоит расстраиваться, так как у них обычно есть своя поддержка TestNG, например, у Spring-а.
Расширение функционала
======================
Расширение функционала может быть реализовано с помощью механизма слушателей. Поддерживаются следующие типы слушателей:
* [IAnnotationTransformer, IAnnotationTransformer2](http://testng.org/doc/documentation-main.html#annotationtransformers) — позволяют переопределять настройки теста, например, количество потоков для запуска теста, таймаут, ожидаемое исключение:
```
public class ExpectTransformer implements IAnnotationTransformer {
public void transform(ITestAnnotation annotation, Class testClass, Constructor testConstructor, Method testMethod) {
if (testMethod.getName().startsWith("expect")) {
annotation.setExpectedExceptions(new Class[] {Exception.class});
}
}
}
```
Данный пример будет ожидать выброс исключения от тест-методов, начинающихся с expect.
* [IHookable](http://testng.org/doc/documentation-main.html#ihookable) — позволяет переопределить тест-метод или по возможности пропустить, в туториале к TestNG приводится пример с JAAS.
* IInvokedMethodListener, IInvokedMethodListener2 — похож на предыдущий слушатель, но исполняет код до и после исполнения тест-метода
* [IMethodInterceptor](http://testng.org/doc/documentation-main.html#methodinterceptors) — позволяет изменять порядок запуска тестов(применим только к тестам, которые независимы от других тестов). В туториале есть хороший пример
* [IReporter](http://testng.org/doc/documentation-main.html#logging-reporters) — позволяет расширить функционал, выполняемый после выполнения всех тестов, обычно этот функционал связан с генерацией отчетов об ошибках и т.д. Таким образом можно реализовать свой механизм отчетов
* ITestListener — слушатель, который может обрабатывать большинство событий от тест-метода, например, start, finish, success, failure
* ISuiteListener — похож на предыдущий, но для сюит, получает только события start и finish
Об одном из примеров интересного использования механизма слушателей можно почитать [здесь](http://seleniumexamples.com/blog/guide/using-soft-assertions-in-testng/).
Конфигурация
============
Теперь перейдем к конфигурации тестов. Простейший способ запустить тесты выглядит примерно так:
```
final TestNG testNG = new TestNG(true);
testNG.setTestClasses(new Class[] {SuperMegaTest.class});
testNG.setExcludedGroups("optional");
testNG.run();
```
Но чаще всего для запуска тестов используется XML либо YAML конфигурация. XML конфигурация выглядит примерно так:
```
```
Аналогичная YAML конфигурация:
```
name: YAML Test suite
parallel: classes
threadCount: 10
tests:
- name: Default tests
parameters:
driver: com.mysql.jdbc.Driver
url: jdbc:mysql://localhost:3306/db
excludedGroups: [ integration ]
packages:
- com.example.*
- name: Integration tests
parameters:
driver: com.mysql.jdbc.Driver
url: jdbc:mysql://localhost:3306/db
includedGroups: [ integration ]
packages:
- com.example.*
```
Тогда для запуска тестов нужно будет сделать следующее:
```
final TestNG testNG = new TestNG(true);
//final Parser parser = new Parser("testing/testing-testng/src/test/resources/testng.xml");
final Parser parser = new Parser("testing/testing-testng/src/test/resources/testng.yaml");
final List suites = parser.parseToList();
testNG.setXmlSuites(suites);
testNG.run();
```
Хотя, наверное, программный запуск тестов это излишне, т.к. для этого можно использовать возможности IDE.
Вернемся к самой конфигурации. На самом верхнем уровне настраивается последовательность тестов(сюита). Может принимать следующие параметры:
* name — название используемое в отчете
* thread-count — количество потоков используемое для запуска тестов
* data-provider-thread-count — количество потоков используемое для передачи данных из дата-провайдеров в сами тесты для параллельных дата провайдеров(*@DataProvider(parallel = true)*)
* parallel — может принимать следующие значения:
* methods — тестовые методы будут запущены в разных потоках, нужно быть осторожным если есть зависимости между методами
* classes — все методы одного класса в одном потоке, но разные классы в разных потоках
* tests — все методы одного теста в одном потоке, разные тесты в разных потоках
* time-out — время, после которого тест будет считаться провалившимся, то же что и в аннотации, но распостраняется на все тестовые методы
* junit — JUnit 3 тесты
* annotations — если javadoc, то будет использован доклет для конфигурации
Также могут быть настроены:
* parameter — параметры, те, что используются в *@Parameters*
* packages — пакеты, где искать тест-классы
* listeners — слушатели, с их помощью можно расширить функционал TestNG, о них уже сказал пару слов
* method-selectors — селекторы для тестов, должны реализовывать интерфейс *IMethodSelector*
* suite-files — можно включать другие файлы конфигурации
Сюиты в свою очередь могут включать в себя тесты с практически такими же настройками, что и для сюит (аттрибуты *name, thread-count, parallel, time-out, junit, annotations*, тэги *parameter, packages, method-selectors*). Также у тестов имеются и своеобразные настройки, например, запускаемые группы:
```
```
В данном примере тест будет включать в себя только тесты не относящиеся к группе integration.
Еще тесты могут включать в себя тест-классы, которые в свою очередь могут включать/исключать в себя тест-методы.
```
```
Вывод
=====
Это не все, что можно сказать по этому замечательному фреймворку, все охватить в одной статье очень трудно. Но я постарался раскрыть основные моменты его использования. Тут, конечно, можно было рассказать немного больше про механизм слушателей, про интеграции с другими фреймворками, про конфигурацию тестов, но тогда статья превратилась бы в книгу, да и не знаю я всего. Но, надеюсь, эта статья была кому-то полезна и то, что было сказано, сподвигнет некоторых читателей на использование TestNG, или хотя бы на DDT технику написания тестов.
Примеры можно найти [здесь](https://github.com/sody/samples/tree/master/testing/testing-testng), различные статьи [здесь](http://testng.org/doc/misc.html).
Литература
==========
* [Data Driven Testing (Тесты, управляемые данными)](http://tctutorial.ru/datadriven/)
* [TestNG](http://testng.org/doc/index.html)
* [TestNG Basic Concepts and Annotations](http://www.asjava.com/testng/testng-basic-concepts-and-annotations/)
* [Using soft assertions in TestNG](http://seleniumexamples.com/blog/guide/using-soft-assertions-in-testng/) | https://habr.com/ru/post/121234/ | null | ru | null |
# Сравнение производительности версий PHP

В этой статье мы рассмотрим результаты нескольких бенчмарков, начиная с PHP 5 и вплоть до экспериментальной JIT-ветки (сейчас в разработке). На момент написания не было известно, появится ли до PHP 8 ещё какая-то основная версия, например PHP 7.2. Но логично предположить, что возможности экспериментальной ветки как минимум будут включены в PHP 8.
C момента своего появления в 1994-м язык PHP радикально изменился. Первые релизы представляли собой просто внешние CGI-программы, которые создавались во многом как личный проект Расмуса Лердорфа. С третьей версии PHP был серьёзно переработан, возникла группа разработчиков языка.
Благодаря расширяемости PHP 3 функциональность языка стремительно разрасталась. Появлялись базовые и дополнительные расширения, которые привносили новые функции в разные сферы: работу с сетью, парсинг, кеширование и поддержку баз данных.
Развивался и сам язык, в него внесли много улучшений. Появилась поддержка объектно ориентированных конструкций, таких как классы, интерфейсы, трейты, замыкания и т. д.
Но многим разработчикам этого было мало. С ростом популярности языка росли и требования к нему со стороны сообщества, в основном связанные с производительностью, масштабируемостью и более экономным потреблением памяти.
Почти 20 лет создатели языка прилагали огромные усилия, чтобы удовлетворять всевозможные требования. Хотя с появлением PHP 3 производительность существенно возросла, сколько-то серьёзные результаты язык смог продемонстрировать только с PHP 4, когда появился движок Zend.
В 2000-м были внедрены новые in-memory компилятор и модель исполнения (executor model). Это позволило вновь сильно поднять производительность PHP, нередко в 5—10 раз. В результате его начали всерьёз рассматривать как инструмент для создания веб-приложений и сайтов. И сегодня PHP достиг высот, которых никто не ожидал от этого языка, когда он появился.
Но взрывной рост популярности PHP лишь привёл к росту требований о повышении производительности. К счастью, у движка Zend прекрасный потенциал для модернизации.
Хотя PHP 5 не стал заметным шагом вперёд и в некоторых случаях был даже медленнее PHP 4, группа разработчиков Zend постоянно оптимизировала движок от релиза к релизу, в результате PHP 5.6 оказался быстрее в 1,5—3 раза.
Но главный рывок произошёл с выходом PHP 7 в декабре 2015-го. Через год была анонсирована версия 7.1, тоже получившая ряд улучшений.
Компилятор PHP JIT и ожидания по улучшению производительности PHP 8
-------------------------------------------------------------------
В настоящее время разрабатывается очень многообещающая версия Zend. Она будет основана на версии из релиза 7.1, а когда именно выйдет, пока не объявлено. Так что сейчас это экспериментальная JIT-ветка.
Одна из главных интриг связана с Just-In-Time (JIT) компиляцией. Это методика преобразования кода в другой формат (нативный машинный код) прямо перед выполнением. Цель JIT — повысить скорость работы программ. Посмотрим, смогут ли разработчики сдержать обещание.
Бенчмарк обработки PHP-скриптов
-------------------------------
Для этой статьи использовались бенчмарки, измерявшие производительность обработки скриптов на чисто процессорных задачах, т. е. без операций ввода-вывода: обращений к файлам, подключений к сети или базе данных.
Применялись следующие бенчмарки:
* [bench.php](https://github.com/php/php-src/blob/master/Zend/bench.php) — находится в папке php-src/Zend исходного дистрибутива PHP.
* [micro\_bench.php](https://github.com/php/php-src/blob/master/Zend/micro_bench.php) — там же.
* [mandelbrot.php](https://gist.githubusercontent.com/dstogov/12323ad13d3240aee8f1/raw/37fed3beb7e666b70e199bcf361af541b3c30d2d/b.php)
Бенчмарки прогонялись на последних второстепенных релизах основных версий PHP:
* 5.0.5
* 5.1.6
* 5.2.17
* 5.3.29
* 5.4.45
* 5.5.38
* 5.6.28
* 7.0.13
* 7.1.0
* [Экспериментальная JIT-ветка](https://github.com/zendtech/php-src)
Те же бенчмарки прогонялись и на всех промежуточных релизах, например между 5.3.0 и 5.3.29. Результаты красноречивы: релизы не демонстрировали заметных улучшений производительности. Улучшения отмечались только при переходах между основными версиями, например с PHP 5.4 на PHP 5.5 или с PHP 5.6 на PHP 7.
Это означает, что те же скрипты будут выполняться примерно с одной скоростью и на PHP 5.4.0, и на PHP 5.4.45.
Подробности о настройке хостовой системы, о выполнении конкретных бенчмарков и об интерпретировании результатов можно почитать [тут](https://www.phpclasses.org/blog/post/493-php-performance-evolution.html#benchmarking-process).
Сравнение результатов процессорных бенчмарков
---------------------------------------------
По каждому бенчмарку приведены три значения:
* *Время, с*: время выполнения (в секундах).
* *Относительное изменение, %*: изменение времени выполнения по сравнению с предыдущей версией. Если бенчмарк выполнялся быстрее — значение положительное, если медленнее — отрицательное.
* *Абсолютное изменение, крат*: насколько быстрее выполнялся скрипт по сравнению с PHP 5.0.
Результаты прогона бенчмарков вы можете увидеть в таблице ниже.

*(1) Бенчмарк не может выполняться на версиях до 5.3, потому что он использует свойства, которые ещё не были реализованы.*
*(2) Результаты в этой колонке немного смещены, потому что бенчмарку для работы нужен как минимум PHP 5.3. Их можно взять просто для справки, раз нельзя сравнить с PHP 5.0.*
*(3) Это модифицированная версия скрипта mandelbrot.php, который выполнялся слишком быстро в версии 7.1.0 в экспериментальной ветке, так что не получалось точно измерить скорость. Поэтому мы внутри скрипта выполняли сто вычислений, а не одно.*
Конечно, чисто процессорные бенчмарки не позволяют оценить все аспекты производительности PHP. Данные могут быть нерепрезентативны. Тем не менее на основе этих данных можно сделать выводы:
* PHP 5.1 более чем вдвое быстрее PHP 5.0.
* Версии 5.2 и 5.3 обладают новым набором улучшений, но не таких впечатляющих, как у 5.1.
* Следующий скачок производительности был у версии 5.4.
* Расширение opcache поставлялось с 5.5 и 5.6. Это позволяло повысить производительность за счёт ускорения загрузки кода, когда один и тот же скрипт выполнялся последовательно. Однако opcache не слишком полезно для скриптов, исполняемых в режиме CLI.
* PHP 7.0 — главный прорыв с точки зрения производительности. Движок Zend был полностью переработан, и мы наблюдаем результат этих масштабных изменений.
* В PHP 7.1 в расширении opcache были оптимизированы опкоды, что объясняет скачок производительности по сравнению с 7.0.
* Экспериментальная JIT-ветка демонстрирует очередной скачок производительности. Но в некоторых случаях никакого улучшения нет. Иногда ветка оказывается даже медленнее, потому что компилирование не ускоряет работу кода. Но не будем забывать, что эта фича пока в разработке.
Сопоставление производительности разных версий PHP
--------------------------------------------------
PHP 5 гораздо производительнее, чем PHP 4. Движок Zend, лежащий в основе интерпретатора, был полностью переработан (Zend Engine 2), что открыло дорогу дальнейшим улучшениям. Здесь мы не будем освещать все различия между PHP 4 и PHP 5, вкратце пройдёмся лишь по вещам, внедрённым после PHP 5.0.
Ниже перечислены только те изменения, которые затронули ядро PHP. Более подробный список нововведений и изменений: [PHP 5](http://php.net/ChangeLog-5.php) и [PHP 7](http://php.net/ChangeLog-7.php).
### PHP 5.1
* Скомпилированные переменные
* Специализированный исполнитель (Specialized executor)
* Кеш real-path
* Ускоренная обработка выражения `switch()`
* Ускоренные функции массивов
* Ускоренное извлечение переменных
* Ускоренный вызов «волшебных» методов
### PHP 5.2
* Новый диспетчер памяти
* Оптимизированное копирование массивов/хеш-таблиц
* Оптимизированные выражения `require_once()` и `include_once()`
* Небольшие оптимизации специфических внутренних функций
* Улучшенное компилирование HEREDOC и компилирование интерполированных строк
### PHP 5.3
* Сегментированный стек VM
* Бесстековая VM
* Замена констант в ходе компилирования
* Ленивая инициализация таблицы символов
* Улучшение real-path кеша
* Улучшение скорости runtime и потребления памяти
* Ускоренный парсинг языка
* Улучшение размера двоичных PHP-файлов и запуска кода (code startup)
### PHP 5.4
* Отложенное размещение хеш-таблицы
* Константные таблицы (Constant tables)
* Рантаймовые кеши привязки (binding caches)
* Интернированные строки (Interned Strings)
* Улучшенный уровень вывода (output layer)
* Улучшена производительность тернарных операторов при использовании массивов
### PHP 5.5
* Улучшено соглашение о вызове (calling convention) виртуальной машины
* Интеграция OPcache
* Другие оптимизации движка Zend
### PHP 5.6
* Оптимизирована обработка пустых строк, минимизирована необходимость в размещении новых пустых значений
### PHP 7 vs. PHP 5.6
Большинство из этих улучшений относятся к движку Zend:
* Рефакторинг основных структур данных
* Улучшена конвенция вызова виртуальной машины
* Новый API парсинга параметров
* Новый диспетчер памяти
* Многочисленные улучшения исполнителя виртуальной машины
* Существенно уменьшено использование памяти
* Улучшены функции `__call()` и `__callStatic()`
* Улучшена конкатенация строк
* Улучшен поиск символов в строках
### PHP 7.1, улучшения производительности
* Новый оптимизационный фреймворк на базе SSA (встроен в opcache)
* Глобальная оптимизация байткода PHP на основе выведения типов (type inference)
* Высокоспециализированные обработчики опкодов виртуальной машины
### Свойства PHP 8 или PHP 7.2, экспериментальная JIT-ветка
* Компилирование Just-In-Time
Как измерялась производительность
---------------------------------
Прогон бенчмарков был чуть более сложным процессом, чем запуск Unix-команды `time`, и проходил в несколько этапов:
### Настройка системы
С сделал выделенную систему с такими характеристиками:
* VPS с одним виртуальным ядром, 2,4 ГГц, 2 Гб памяти и два SSD drives — один для ОС, второй для хранения исходных файлов PHP, бинарных файлов и записи отчётов.
* ОС Debian Wheezy 3.2.82-1
* Компилятор Gnu C 4.9.2-10 (дистрибутив Debian Jessie).
Хотя система поставлялась с компилятором Gnu C 4.7.2, пришлось поставить более свежую версию: экспериментальная JIT-ветка должна компилироваться с помощью Gnu C 4.8 и выше.
### Компилирование исходного кода
Перед сборкой полных дистрибутивов был запущен скрипт *configure* со следующими параметрами:
```
--prefix=/usr/local/php
--disable-debug
--disable-phpdbg
--enable-mysqlnd
--enable-bcmath
--with-bz2=/usr
--enable-calendar
--with-curl
--enable-exif
--enable-fpm
--with-freetype-dir
--enable-ftp
--with-gd
--enable-gd-jis-conv
--enable-gd-native-ttf
--with-gettext=/usr
--with-gmp
--with-iconv
--enable-intl
--with-jpeg-dir
--enable-mbstring
--with-mcrypt
--with-openssl
--enable-pcntl
--with-pdo-mysql=mysqlnd
--with-png-dir
--with-recode=/usr
--enable-shmop
--enable-soap
--enable-sockets
--enable-sysvmsg
--enable-sysvsem
--enable-sysvshm
--enable-wddx
--with-xmlrpc
--with-xsl
--with-zlib=/usr
--enable-zip
--with-mysqli=mysqlnd
```
Конечно, я компилировал более старые версии, некоторые параметры требовалось отключить или заменить другими. Также не все расширения были доступны или могли быть скомпилированы.
### Запуск бенчмарков
Каждый бенчмарк запускался с помощью PHP CLI (Command-Line Interface) через специальный скрипт, который делал следующее:
1) С помощью функции `microtime()` на лету модифицировал скрипт, чтобы изнутри измерять время его выполнения. После модифицирования скрипт выглядел так:
```
php
$__start__ = microtime( true );
/***
Здесь исходный код бенчмарка
***/
fprintf( STDERR, microtime( true ) - $__start__);
?
```
Это делалось для того, чтобы обеспечить стабильность измерений скрипта изнутри, без изменения его поведения.
2) Далее шли два сухих прогона, чтобы исполняемые PHP-файлы и содержимое скрипта бенчмарка оказались в кеше ОС.
3) Скрипт выполнялся пять раз, сохранялись минимальное, максимальное и среднее время выполнения. В этой статье представлены только средние значения — «время выполнения скрипта».
Использовались такие настройки в php.ini:
```
engine = On
short_open_tag = Off
realpath_cache_size = 2M
max_execution_time = 86400
memory_limit = 1024M
error_reporting = 0
display_errors = 0
display_startup_errors = 0
log_errors = 0
default_charset = "UTF-8"
[opcache]
zend_extension=opcache.so
opcache.enable=1
opcache.enable_cli=1
opcache.optimization_level=-1
opcache.fast_shutdown=1
opcache.validate_timestamps=1
opcache.revalidate_freq=60
opcache.use_cwd=1
opcache.max_accelerated_files=100000
opcache.max_wasted_percentage=5
opcache.memory_consumption=128
opcache.consistency_checks=0
opcache.huge_code_pages=1
// PHP 8/Next only
opcache.jit=35
opcache.jit_buffer_size=32M
```
### Интерпретирование результатов
Длительность выполнения измерялась с помощью Unix-команды `time`. Пример выходных данных:
```
$ time php bench.php
real: 0m1.96s
user: 0m1.912s
sys: 0m0.044s
```
Значение `real` — это время от вызова команды до её прерывания (пока не происходит возврата к командной строке).
Значение `user` — время, потраченное на выполнение пользовательского кода (в данном случае — исполняемого PHP-файла).
Значение `sys` — время, потраченное на выполнение кода ОС (kernel). Это значение должно быть минимальным, но может оказаться сильно больше представленного, если ваш код обращается, например, к медленным устройствам. Также на величину значения способна повлиять высокая загруженность ОС.
На системах в состоянии ожидания суммарное значение `user + sys` должно быть очень близко к `real`. В приведённом выше примере: `user + sys = 1,956 с, real = 1,960 с`. Разница в 0,004 с связана не с нашим процессом, а с разными задачами ОС, например с диспетчеризацией.
Тот же скрипт был выполнен на высоконагруженной ОС при параллельном компилировании тремя разными PHP-версиями:
```
$ time php bench.php
real: 0m7.812s
user: 0m2.02s
sys: 0m0.101s
```
Как видите, уровень нагрузки сильно влияет на время выполнения (возможно, и на системное время). Поэтому я добавил в бенчмарк ещё одно значение — `overhead` операционной системы. Это разница между полным временем выполнения (`elapsed time`) и суммой пользовательского и системного времени.
Я удостоверился, чтобы во время прогона бенчмарков это значение в течение 99 % времени было меньше 100 миллисекунд, даже когда выполнение скриптов занимало десятки секунд.
Спасибо Дмитрию Стогову и всей команде разработки PHP
-----------------------------------------------------
Эта статья писалась при активной помощи Дмитрия Стогова. Он прояснил ряд моментов и рецензировал представленную здесь информацию.

Дмитрий был разработчиком расширения Turck MMCache, которое со времён PHP 4 может использоваться для кеширования PHP-опкодов в совместно используемой памяти. После этого Дмитрий начал работать над Zend, чем и занимается по сей день.
Также он когда-то инициировал создание PHPNG — того, что позднее превратилось в PHP 7. В работе над этой и последующими версиями с Дмитрием сотрудничали Никита Попов и Синьчэнь Хуэй (Xinchen Hui).
В создание PHP 5 внесли большой вклад Энди Гутманс, Зеев Сураски и Стас Малышев. Многих других разработчиков я не стану здесь перечислять, чтобы не загромождать статью.
Специальное благодарственное видео для всех, кто помогал развивать PHP
----------------------------------------------------------------------
В 2016-м исполнился 21 год со дня появления PHP — 8 июня 1995 г.

Чтобы отдать должное всем, кто так или иначе внёс свой вклад в развитие PHP, Питер Кокот с помощью [Gource](http://gource.io/) создал анимационное видео. В нём рассказывается о развитии ключевых модулей PHP в течение всей жизни языка.
[Питер Кокот](https://www.facebook.com/peterkokot) хорошо известен в PHP-сообществе. Он основал [в Facebook](https://www.facebook.com/groups/2204685680/) [PHP Group](https://www.facebook.com/groups/2204685680/), крупнейшую группу, посвящённую отдельному языку программирования. В ней состоят более 140 тыс. участников и 22 модератора. Создатель PHP Расмус Лердорф сказал: «В мире PHP ничего не происходит без движения сообщества». Надеюсь, эти слова будут вдохновлять вас.
Если вы не можете помочь развитию PHP с помощью написания кода на С, то можете выкладывать свои PHP-разработки на GitHub, PHP Classes, Packagist — куда угодно. Чем больше мест, где мы будем делиться друг с другом наработками, тем лучше.
Заключение
----------
Цель статьи — дать представление о производительности разных версий PHP, начиная с 5.0 и заканчивая свежайшей экспериментальной версией. Тестирование выполнялось с помощью известных бенчмарков. Также в статье приведён список улучшений, повысивших производительность различных версий PHP. | https://habr.com/ru/post/326696/ | null | ru | null |
# DeepCode: взгляд со стороны

Не так давно DeepCode, статический анализатор, основанный на машинном обучении, стал поддерживать проверку C и C++ проектов. И теперь мы можем на практике взглянуть, чем отличаются результаты классического статического анализа и статического анализа, основанного на машинном обучении.
Мы уже упоминали DeepCode в своей статье "[Использование машинного обучения в статическом анализе исходного кода программ](https://www.viva64.com/ru/b/0706/)". И в скором времени ими была опубликована статья "[DeepCode adds AI-based static code analysis support for C and C++](https://medium.com/deepcode-ai/deepcode-adds-ai-based-static-code-analysis-support-for-c-and-c-83128ecee90f)" с объявлением поддержки анализа проектов, написанных на C и C++.
Чтобы посмотреть на результаты анализа DeepCode, я решила проверить проект PhysX. У меня нет цели представить здесь разбор ошибок, найденных PVS-Studio или DeepCode в этом проекте, а просто хотелось взять какой-то сторонний проект и посмотреть на его примере, как будут работать анализаторы.
Запуск анализа DeepCode крайне прост. Анализ проектов, выложенных на GitHub, запускается автоматически. Хотя тут есть проблема, так как был проверен весь репозиторий подряд, хотя в нем содержались различные проекты, и предупреждения к ним в итоге оказались перемешаны. Также скорость анализа указывает на то, что код не компилируется и многие ошибки могут оказаться скрытыми от анализатора.
Общий результат работы DeepCode выглядит следующим образом:

Это не совсем отражает число срабатываний, так как они группируются в одно предупреждение, как я покажу дальше. Конечно, очевидно, что статический анализ С/С++ в DeepCode является нововведением, и работа над ним только началась, но, думаю, уже возможно сделать некоторые выводы.
Начав рассматривать срабатывания DeepCode, я встретила следующее предупреждение для ошибки, встретившейся анализатору ни много ни мало 31 раз:

Это срабатывание зацепило мой глаз, так как у PVS-Studio аналогичная [диагностика](https://www.viva64.com/ru/w/v624/) и, к тому же, я рассматривала такое срабатывание в другой своей статье. Когда я встретила его в первый раз, мне казалось, что очень мало кто будет писать математическую константу «от руки».
И PVS-Studio тоже нашел такие неосторожные использования констант, но срабатываний такого рода было уже не 31, а 52. Практически сразу нашелся момент, где машинное обучение уступает классическому подходу. Если ошибочный код хоть как-то отходит от совсем типичной ошибки такого рода, найти её становится куда сложнее. Для классического же статического анализа нет необходимости, чтобы ошибка встречалась много-много раз — достаточно, чтобы разработчик диагностики придумал общий принцип появления ошибки.
Более того, диагностика PVS-Studio срабатывает не только на число Пи или другие часто используемые константы, но и на специфические (например, на константу Ландау — Рамануджана), ошибочное использование которых может быть сложно отловить на основании даже большой базы обучения ввиду их редкого использования.
Так как DeepCode срабатывал строго на константу вида 3.1415, я из интереса добавила в одном месте в коде к константе 4 знака после запятой (3.14159263), и срабатывание пропало.

PVS-Studio же срабатывает на различные варианты округления констант.

В том числе присутствует и срабатывание на изменённый участок:
[V624](https://www.viva64.com/ru/w/v624/) There is probably a misprint in '3.14159263' constant. Consider using the M\_PI constant from . Crab.cpp 219
И дело здесь не в том, что это какая-то ужасная ошибка/грубое округление/возможность допустить опечатку, а в том, что это подтверждает, что обучение на коде будет ограничено этим самым кодом и, если что-то будет выбиваться из общего паттерна или проявляться лишь в редких случаях, ошибка или недочет смогут проскочить незамеченными.
Рассмотрим еще одно срабатывание. DeepCode выдал одно предупреждение на следующий код:
```
bool Shader::loadShaderCode(const char* fragmentShaderCode, ....)
{
....
if (mFragmentShaderSource != NULL)
free(mFragmentShaderSource);
....
if (mFragmentShaderSource != NULL)
free(mFragmentShaderSource);
....
}
```

У PVS-Studio к этому коду было больше претензий:
1. V809 Verifying that a pointer value is not NULL is not required. The 'if (mFragmentShaderSource != 0)' check can be removed. Shader.cpp 178
2. V809 Verifying that a pointer value is not NULL is not required. The 'if (mFragmentShaderSource != 0)' check can be removed. Shader.cpp 194
3. V774 The 'mFragmentShaderSource' pointer was used after the memory was released. Shader.cpp 194
4. V586 The 'free' function is called twice for deallocation of the same memory space. Inspect the first argument. Check lines: 179, 195. Shader.cpp 195
Можно подумать, что срабатывание DeepCode просто оказалось лаконичным, а PVS-Studio выдал много излишних срабатываний, однако это не так, и каждое срабатывание здесь имеет свой смысл.
Первые два срабатывания относятся к излишней проверке указателя, так как для использования функции *free()* такая проверка не нужна. Третье срабатывание сигнализирует о том, что небезопасно использовать указатель после того, как он был освобожден. Даже если сам указатель не разыменовывается, а только проверяется, это всё равно подозрительно и часто свидетельствует об опечатке. Ну и последнее срабатывание как раз и указывает на ту же проблему, которую обнаружил DeepCode.

В статье DeepCode [о начале поддержки С/C++](https://medium.com/deepcode-ai/deepcode-adds-ai-based-static-code-analysis-support-for-c-and-c-83128ecee90f) был скриншот, который, как нам показалось, содержит ложное срабатывание. Предупреждение говорит о возможном переполнении буфера, однако память для буфера выделяется с учетом длины *home* и длины строки, которая добавляется далее еще и + 1. Таким образом места в буфере хватит точно.
Проблема здесь может быть в отсутствии проверки, что память была успешно выделена. Возможно предупреждение DeepCode в этом случае говорит о чем-то ином: первое предложение предупреждения особо не помогает в понимании в чем ошибка и на что собственно ругается анализатор.
В этом случае, возможно, срабатывает еще один фактор, о котором мы писали, — сложность создания осмысленных предупреждений. Либо предупреждения после классификации срабатываний обученного анализатора пишутся людьми, либо формируются из комментариев к коммитам/документации. Но сформировать хорошее предупреждение может быть сложно, в случае, когда паттерн ошибки был выведен через машинное обучение, а не самим разработчиком.
Мне стало интересно, что нужно изменить в этом коде, чтобы предупреждение пропало. Но, как ни странно, на полностью аналогичном участке кода в новом файле, такого предупреждения не произошло, и появилось уже другое.

Возможно, дело в том, что пропало окружение, на которое анализатор ориентировался, или я сделала что-то не так. Но нестабильность предупреждений, то, что их появление оказывается непредсказуемым, может приводить, на мой взгляд, к неудобствам не только для пользователей, но и для разработчиков самого анализатора и усложнять процесс разработки.
В целом, хотя большинство срабатываний DeepCode пока что не являются ложными, их число столь мало, что результат его работы на данный момент является скорее скудным, чем точным. Малому числу ложных срабатываний сопутствует малое число срабатываний в принципе.
Приведу несколько интересных ошибок, найденных PVS-Studio.
**Фрагмент N1**
[V773](https://www.viva64.com/ru/w/v773/) The function was exited without releasing the 'line' pointer. A memory leak is possible. PxTkBmpLoader.cpp 166
```
bool BmpLoader::loadBmp(PxFileHandle f)
{
....
int lineLen = ....;
unsigned char* line = static_cast(malloc(lineLen));
for(int i = info.Height-1; i >= 0; i--)
{
num = fread(line, 1, static\_cast(lineLen), f);
if (num != static\_cast(lineLen)) { fclose(f); return false; }
....
}
free(line);
return true;
}
```
Тут, в случае, если чтение из файла прервалось, возникает утечка памяти, так как перед возвращением из функции память не освобождается.
**Фрагмент N2**
[V595](https://www.viva64.com/ru/w/v595/) The 'gSphereActor' pointer was utilized before it was verified against nullptr. Check lines: 228, 230. SnippetContactReportCCD.cpp 228
```
void initScene()
{
....
gSphereActor = gPhysics->createRigidDynamic(spherePose);
gSphereActor->setRigidBodyFlag(PxRigidBodyFlag::eENABLE_CCD, true);
if (!gSphereActor)
return;
....
}
```
Указатель *gSphereActor* разыменовывается, но сразу после этого проверяется на nullptr, и идет выход из функции. То есть нулевой указатель здесь возможен, но разыменовывание все равно происходит. Ошибок такого рода нашлось 24 штуки в проекте PhysX.
DeepCode выдал лишь срабатывания для специфического типа случаев (насколько я поняла), где указатель изначально инициализировался нулем, и в поле видимости не было иных присвоений. PVS-Studio на такой код не срабатывал, так как чаще всего такое срабатывание будет ложным, поскольку указатель может получить значение в другом юните трансляции (большинство срабатываний было на глобальные переменные). Этот пример показывает, что меньшее число ложных срабатываний при обученном статическом анализе совсем не обязательно является правдой.


Тут DeepCode, скорее всего, по какой-то причине указывает не на ту инициализацию. Вместо инициализации *gCooking* подсвечивается инициализация *gFoundation*, хотя этот указатель далее не подсвечивается.
**Фрагмент N3**
[V517](https://www.viva64.com/ru/w/v517/) The use of 'if (A) {...} else if (A) {...}' pattern was detected. There is a probability of logical error presence. Check lines: 266, 268. AABox.cpp 266
```
bool AABox::initRT(int depthSamples, int coverageSamples)
{
....
int query;
....
if (....)
{
....
if ( query < coverageSamples)
ret = false;
else if ( query > coverageSamples)
coverageSamples = query;
....
if ( query < depthSamples)
ret = false;
else if ( query > depthSamples)
depthSamples = query;
}
else {
....
if ( query < depthSamples)
ret = false;
else if ( query < depthSamples) // <=
depthSamples = query;
....
}
....
}
```
Тут похоже закралась ошибка копипасты. Анализатор обнаружил одинаковое условие у *if* и у *else*. Из предыдущих *if-else* можно увидеть, что обычно проводится проверка ">" в *if* и "<" в *else*. Хотя паттерн выглядит крайне простым, среди предупреждений DeepCode я не нашла такого срабатывания, хотя, казалось бы, это очень простой для обнаружения паттерн.
**Заключение**
Конечно, DeepCode только объявили о поддержке C/C++ и это часть их продукта, которая только начала развиваться. Вы можете попробовать его и на своих проектах, в их сервисе реализовано удобное окошко обратной связи, в случае, если вам было выдано ложное предупреждение.
Однако мы и сейчас можем увидеть недостатки, сопутствующие машинному обучению при статическом анализе. Поэтому мы и относимся скептически к идее добавления машинного обучения в статические анализаторы, поскольку выигрыш оказывается сомнительным: необходима точно такая же поддержка анализатора, написание или редактирование документации, работа над самими диагностиками. Кроме того, проблемы, возникающие при разработке, требуют более сложных решений и специфических навыков от разработчиков, что сужает число потенциальных кандидатов при расширении команды. Ведь разработчик в таком случае должен быть не только специалистом по анализируемому языку, но и обладать знаниями в области машинного обучения.
[](https://habr.com/en/company/pvs-studio/blog/496534/)
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Victoria Khanieva. [DeepCode: Outside Perspective](https://habr.com/en/company/pvs-studio/blog/496534/). | https://habr.com/ru/post/496536/ | null | ru | null |
# GSA: Препарируем Google Search Appliance в виртуальной машине

Последние годы, с интересом почитывая о персональных поисковых системах в веселых желтых коробках имени Google, я периодически гуглил по словам GSA, Google Search Appliance, reverse engineering и, чего греха таить, hack, DIY, disk dump и т.п. Но ничего, кроме официальных пресс-релизов и переписки счастливых (?) обладателей с группой поддержки, я не встречал.
Иногда звучали на форумах робкие вопросы вроде «а как бы рута мне получить» или «попасть в GSA по ssh», но на все подобные вопросы ответ был один — только группа поддержки Google знает пароли. И никому не скажет. Удивительно, но я не встречал в интернете никаких попыток собрать «хакинтош» на движке Гугла, или по живому коду разобраться в алгоритме ранжирования страниц.
Ситуация слегка изменилась в 2008 году, когда на волне эйфории от виртуализации, Google выкатил VGSA – бесплатную виртуальную машину для Vmware с ограниченной до 50 тысяч документов лицензией. Впрочем, особого энтузиазма это в интернете не вызвало, в 2009 году проект был свернут и большинство ссылок в Гугле на VGSA стали возвращать 404 (заметьте – самим же Гуглом). Ссылку на релиз от 2008 года можно найти довольно легко. Ссылка на версию 2009 сохранилась лишь на паре китайских сайтов.
О том, как я поставил vgsa\_20090210 на ESX 5.1 и увидел много чего интересного, можно прочитать ниже.
##### Пара слов о Google Search Appliance
GSA – это ~~карманная~~ поисковая система, способная индексировать сайты, любые документы и базы данных. Позиционируется как локальный Google для крупных компаний, которые хотят иметь свой локальный специфический поиск, но никому его не показывать (или показывать). Сама коробка – это молотилка, которая индексирует не только указанные в настройках URL-ы (http://, smb://), но и любые данные (Oracle, MySQL, etc), которыми ее можно накормить через API. Набивание GSA данными, помимо собственного http/smb паука, производится через так называемые коннекторы с открытым кодом, написанные под различные базы данных и файловые системы. Они свободно доступны через [Google Code](http://code.google.com/p/googlesearchapplianceconnectors/) и управляются посредством [Connector manager](http://code.google.com/p/google-enterprise-connector-manager/).
##### Установка
VGSA виртуальная машина собрана на базе **CentOS 5 Final**. После распаковки архива мы получаем стандартный набор vmx/vmdk файлов для Vmware Player. Так как версия уже устарела, поставить ее на ESXi 5.1, через Vmware Converter, не получилось. Была создана новая VM с базовыми настройками для Redhat 5 32b, 2 Gb памяти и мелким диском, который был тут же удален и подменен vmdk из VGSA (подключен как SCSI parallel BusLogic). Update: в комментариях пишут, что прекрасно запускается в VmWare Workstation 8.
После стандартного LILO пошла загрузка и появилась первая настораживающая надпись про шифрование:

Далее VGSA получила адреса по DHCP и появился ее стандартный экран:

По предложенному URL обнаружился нормально работающий гугловский движок, готовый к настройкам (с лицензией на 50 тыс. документов):

Для проверки проиндексировал первые 100 страниц хабра, со стандартной гугловской тактикой — 4 процесса на один домен/сайт. Краулер обходит все внутренние ссылки, а механизм индексации параллельно сортирует мусор и дубликаты. Одновременно это все ранжируется, считаются ссылки на страницу и из нее, каждой странице присваивается свой PR относительно корня (корень сайта всегда PR10) и тп.


Создав коллекцию интересных для меня сайтов (влкючить индексирование картинок пока не решился), быстро понимаю, что лимит в 50 тыс. страниц — это очень мало. Пора заглянуть под капот…
##### Под капотом
Пойманный на shift LILO, при любой попытке задать параметр просит пароль:

Еще раз беру дистрибутивный образ диска и смотрю его структуру. Fdisk ругается на незнакомый GPT, пробую parted:
```
[root@server /]# parted /home/vgsa/vgsa-flat.vmdk
GNU Parted 1.8.1
Using /home/storage/azureus/vgsa-flat.vmdk
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) unit b
(parted) p
Model: (file)
Disk /home/storage/azureus/vgsa-flat.vmdk: 36507222015B
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 17408B 2147484159B 2147466752B ext3 /
2 2147484160B 4294967807B 2147483648B linux-swap swap
3 4294967808B 36507205119B 32212237312B ext3 /export/hda3
(parted)
```
Первый раздел стартует с 17408. Монтируем его:
```
# mount -t ext3 -o loop,rw,offset=17408 /home/vgsa/vgsa-flat.vmdk /mnt/vgsa
```
и получаем корень VGSA — пока без главного раздела /dev/hda3.
Смотрим lilo.conf на предмет пароля:
```
# grep pass /mnt/vgsa/etc/lilo.conf
password=cmBalx7
```
Теперь грузимся с init= /bin/bash, перемонтируем корень в rw (mount -o rw,remount /) и меняем пароль.
Заодно можно поправить iptables. В главном конфиге системы /export/hda3/5.2.0/local/conf/google\_config есть параметр ENT\_LICENSE\_MAX\_PAGES\_OVERALL, который отвечает за максимальное количество проиндексированных страниц. Пробовал первое, что пришло в голову: telinit 1, поменять ENT\_LICENSE\_MAX\_PAGES\_OVERALL на 50 миллионов, затем sync и reboot. Удивительно, но система взлетела и показала новый лимит…
Вкратце об интересных местах, на которые пока не хватает времени:
/export/hda3/5.2.0/local/google3/quality/, а именно rankboost/indexing/rankboost\_cdoc\_attachment\_pb.py:
Там есть очень интересный момент:
```
self.link_count_ = 0
self.offdom_link_count_ = 0
self.paid_link_count_ = 0
self.ppc_link_count_ = 0
self.page_blog_score_ = 0
self.page_wiki_score_ = 0
self.page_forum_score_ = 0
self.page_ppc_spam_score_ = 0
self.has_link_count_ = 0
self.has_offdom_link_count_ = 0
self.has_paid_link_count_ = 0
self.has_ppc_link_count_ = 0
self.has_page_blog_score_ = 0
self.has_page_wiki_score_ = 0
self.has_page_forum_score_ = 0
self.has_page_ppc_spam_score_ = 0
```
— много известных факторов ранжирования, но кое-что новенькое все же есть. Я подозревал, что рекламная PPC кампания может принести как пользу, так и вред в органической выдаче. В приведенном фрагменте видно, что Гугл учитывает поведение PPC кампаний. Пока остается только гадать, что такое PPC spam.
Много интересного в /export/hda3/5.2.0/spelling/. С форматом пока не разобрался, но навскидку – там базы Гугла по синонимам и спряжениям на разных языках. Там же коллекция стоп-слов и масса весьма забавных фильтров, иногда отдающих маразмом:
```
en.spelling.filter.dnc.utf8:# Prevent correcting 'aryan' to 'jewish' or 'arabic'.
```
##### Вместо эпилога
Общее впечатление от внутренностей — не однозначное. Сделано на питоне, судя по всему часть обычный скрипт, часть скомпилированный код. Система все же больше похожа на набор ~~костылей~~ скриптов, чем на законченный солидный продукт. Тем не менее, это все довольно шустро работает и, наблюдая за загрузкой процессора во время активной индексации большого сайта — достаточно эффективно.
Теперь, когда система из черного ящика превратилась в по-настоящему желтый — несколько мыслей о возможном ее применении:
1. Понятен интерес с точки зрения SEO.
2. Локальный поиск для сайта, когда система индексирует только один сайт и является мощной системой внутреннего поиска (например через iframe).
3. Было бы интересно расширить функционал — например ввести в админе фильтр по ключевым словам. Чтобы спайдер собирал только страницы, в которых присутствуют определенные слова или фразы.
4. Уверен, что это можно запустить и на железе, возможно с небольшим напильником в руке.
5. … или в OpenVZ контейнере.
6. … придумайте сами.
С удовольствием выслушаю ваши мысли по этому поводу. | https://habr.com/ru/post/170801/ | null | ru | null |
# Смотрим часть чужого избранного ВКонтакте

*Кадры из фильма «50 оттенков серого»*
На этот раз с помощью незамысловатого куска кода на javascript заглянем в таинственные глубины человеческих предпочтений. А именно получим часть списка закладок («лайков» записей сообществ) аккаунта ВКонтакте.
По данным [wordstat.yandex.ru](http://wordstat.yandex.ru), до 2000 раз в месяц у поискового робота спрашивают «как посмотреть кто что лайкает». Ответом в поисковой выдаче является вирусная программка LikeCheсker, которая на поставленный вопрос на самом деле не отвечает. А мы ответим.
Зачем это нужно? Если верить интернету (а ему лучше не верить) по, например, почерку человека можно определить его характер. Например
> Саркастичных людей можно распознать по написанию буквы «ё». Чем необычнее изображение точек, помещенных над этой буквой, тем острее его чувство юмора и ярче его способность к подражанию.
Есть у меня предположение, что по картинкам и постам, которые человек «лайкает» можно построить более точный портрет личности, чем по его почерку. Однако для получения этой информации нужно немного потрудиться.
Описание ситуации
-----------------
### ВКонтакте
Раньше информация о том какие записи пользователь отмечает сердечком была полностью конфиденциальна и видна только самому пользователю. После очередного редизайна конфиденциальность пропала. Если пользователь А является другом пользователя Б и они подписаны на одно и то же сообщество, то он может узнать под конкретной записью этого сообщество «лайкнул» ли её пользователь Б.
В случае десктопной версии VK.com информация о том, что пользователь Б её «лайкнул» отображается в виде его аватара, если навести мышку на сердечко:

### Постановка задачи
Нашей целью будет получить список записей, которые пользователь отметил сердечком. Не знаю можно ли с помощью VK API добраться до этой информации (беглым взглядом по документации такой возможности не обнаружил) мы пойдём простым путём — через браузер.
Итак, для того, чтобы получить список чужого избранного нам нужно:
* Быть с жертвой друзьями в ВК
* Подписаться на те же сообщества что и он
* Пробрутфорсить все записи сообществ
С первым пунктом всё понятно, второй и третий будем автоматизировать.
### К делу
Чтобы не трогать реально существующих друзей зарегистрируем два аккаунта и подружим их.
Тратим 30 рублей, покупаем две виртуальные симки (без телефона VK не регистрирует) и регистрируем героев фильма «50 оттенков серого»:

Аккаунтом Грея пользуемся как обычно — подписываемся вручную на разные сообщества и отмечаем «лайками» различные записи в ленте.
Из аккаунта Анастейши начинаем охоту на «Лайки». Помогать нам сегодня будет Javascript. Можно использовать букмарклеты, можно сделать Google Extension. Мы пойдём по-простому, через Developer Console (F12).
**1.** Получаем список сообществ на странице жертвы:
```
var x = document.getElementsByClassName("module_body clear_fix");
for (var i = 0; i < x[1].children.length; i++) {
console.log(x[1].children[i].children[0].children[0].href + " " + x[1].children[i].innerText)
}
```
**2.** Подписаться на них можно вот так:
```
document.location="https://vk.com/sci";
document.getElementById("public_subscribe").click()
```
**3.** Открываем новостную ленту и прокручиваем n раз:
```
document.getElementById("show_more_link").click();
```
**4.** Брутфорс записей в ленте:
```
var z = document.getElementsByClassName("post_like _like_wrap")
for (var k= 0; k< z.length; k++){
z[k].onmouseover();
z[k].focus();
}
var y = document.getElementsByClassName("like_tt_owners me_hidden _content")
for (var j= 0; j< y.length; j++){
for (var i = 0; i < y[j].children.length; i++) {
if (y[j].children[i].title == "Кристиан Грей"){
console.log( "https://vk.com/feed?w=wall" + z[j].onmouseover.toString().split("'")[1]);
}
}
}
```
Результат:

Успех!
### Заключение
*«It's not a bug — it's a feature»* скажите вы и возможно я с вами соглашусь, но мне бы хотелось видеть в настройках приватности галочку выключения такой «feature».
Конечно, эта информация не прям такая личная и её трудно использовать против человека. Тем не менее я уверен, что бывают случаи, когда такой анализ, в дополнение к чему либо или самостоятельно поможет понять мысли человека, его характер, политические, религиозные взгляды и прочее. Повторюсь — не для всех и не всегда. | https://habr.com/ru/post/316562/ | null | ru | null |
# Структуры данных: бинарные деревья. Часть 1
Интро
-----
Этой статьей я начинаю цикл статей об известных и не очень структурах данных а так же их применении на практике.
В своих статьях я буду приводить примеры кода сразу на двух языках: на Java и на Haskell. Благодаря этому можно будет сравнить императивный и функциональный стили программирования и увидить плюсы и минусы того и другого.
Начать я решил с бинарных деревьев поиска, так как это достаточно базовая, но в то же время интересная штука, у которой к тому же существует большое количество модификаций и вариаций, а так же применений на практике.
Зачем это нужно?
----------------
Бинарные деревья поиска обычно применяются для реализации множеств и ассоциативных массивов (например, set и map в с++ или TreeSet и TreeMap в java). Более сложные применения включают в себя ropes (про них я расскажу в одной из следующих статей), различные алгоритмы вычислительной геометрии, в основном в алгоритмах на основе «сканирующей прямой».
В этой статье деревья будут рассмотрены на примере реализации ассоциативного массива. Ассоциативный массив — обобщенный массив, в котором индексы (их обычно называют ключами) могут быть произвольными.
Ну-с, приступим
---------------
Двоичное дерево состоит из вершин и связей между ними. Конкретнее, у дерева есть выделенная вершина-корень и у каждой вершины может быть левый и правый сыновья. На словах звучит несколько сложно, но если взглянуть на картинку все становится понятным:

У этого дерева корнем будет вершина A. Видно, что у вершины D отсутствует левый сын, у вершины B — правый, а у вершин G, H, F и I — оба. Вершины без сыновей принято называть листьями.
Каждой вершине X можно сопоставить свое дерево, состоящее из вершины, ее сыновей, сыновей ее сыновей, и т.д. Такое дерево называют поддеревом с корнем X. Левым и правым поддеревьями X называют поддеревья с корнями соответственно в левом и правом сыновьях X. Заметим, что такие поддеревья могут оказаться пустыми, если у X нет соответствующего сына.
Данные в дереве хранятся в его вершинах. В программах вершины дерева обычно представляют структурой, хранящей данные и две ссылки на левого и правого сына. Отсутствующие вершины обозначают null или специальным конструктором Leaf:
```
data Ord key => BSTree key value = Leaf | Branch key value (BSTree key value) (BSTree key value)
deriving (Show)
```
```
static class Node {
T1 key;
T2 value;
Node left, right;
Node(T1 key, T2 value) {
this.key = key;
this.value = value;
}
}
```
Как видно из примеров, мы требуем от ключей, чтобы их можно было сравнивать между собой (`Ord a` в haskell и `T1 implements Comparable` в java). Все это не спроста — для того, чтобы дерево было полезным данные должны храниться в нем по каким-то правилам.
Какие же это правила? Все просто: если в вершине X хранится ключ x, то в левом (правом) поддереве должны храниться только ключи меньшие (соответственно большие) чем x. Проиллюстрируем:

Что же нам дает такое упорядочевание? То, что мы легко можем отыскать требуемый ключ x в дереве! Просто сравним x со значением в корне. Если они равны, то мы нашли требуемое. Если же x меньше (больше), то он может оказаться только в левом (соответственно правом) поддереве. Пусть например мы ищем в дереве число 17:

Функция, получающая значение по ключу:
```
get :: Ord key => BSTree key value -> key -> Maybe value
get Leaf _ = Nothing
get (Branch key value left right) k
| k < key = get left k
| k > key = get right k
| k == key = Just value
```
```
public T2 get(T1 k) {
Node x = root;
while (x != null) {
int cmp = k.compareTo(x.key);
if (cmp == 0) {
return x.value;
}
if (cmp < 0) {
x = x.left;
} else {
x = x.right;
}
}
return null;
}
```
Добавление в дерево
-------------------
Теперь попробуем сделать операцию добавления новой пары ключ/значение (a,b). Для этого будем спускаться по дереву как в функции get, пока не найдем вершину с таким же ключем, либо не дойдем до отсутсвующего сына. Если мы нашли вершину с таким же ключем, то просто меняем соответствующее значение. В противно случае легко понять что именно в это место следует вставить новую вершину, чтобы не нарушить порядок. Рассмотрим вставку ключа 42 в дерево на прошлом рисунке:

Код:
```
add :: Ord key => BSTree key value -> key -> value -> BSTree key value
add Leaf k v = Branch k v Leaf Leaf
add (Branch key value left right) k v
| k < key = Branch key value (add left k v) right
| k > key = Branch key value left (add right k v)
| k == key = Branch key value left right
```
```
public void add(T1 k, T2 v) {
Node x = root, y = null;
while (x != null) {
int cmp = k.compareTo(x.key);
if (cmp == 0) {
x.value = v;
return;
} else {
y = x;
if (cmp < 0) {
x = x.left;
} else {
x = x.right;
}
}
}
Node newNode = new Node(k, v);
if (y == null) {
root = newNode;
} else {
if (k.compareTo(y.key) < 0) {
y.left = newNode;
} else {
y.right = newNode;
}
}
}
```
Лирическое отступление о плюсах и минусах функционального подхода
=================================================================
Если внимательно рассмотреть примеры на обоих языках, можно увидеть некоторое различие в поведении функциональной и императивной реализаций: если на java мы просто модифицируем данные и ссылки в имеющихся вершинах, то версия на haskell создает новые вершины вдоль всего пути, пройденного рекурсией. Это связано с тем, что в чисто функциональных языках нельзя делать разрушающие присваивания. Ясно, что это ухудшает производительность и увеличивает потребляемую память. С другой стороны, у такого подхода есть и положительные стороны: отсутствие побочных эффектов сильно облегчает понимание того, как функционирует программа. Более подробно об этом можно прочитать в практически любом учебнике или вводной статье про функциональное программирование.
В этой же статье я хочу обратить внимание на другое следствие функционального подхода: даже после добавления в дерево нового элемента старая версия останется доступной! За счет этого эффекта работают ropes, в том числе и в реализации на императивных языках, позволяя реализовывать строки с асимптотически более быстрыми операциями, чем при традиционном подходе. Про ropes я расскажу в одной из следующих статей.
Вернемся к нашим баранам
------------------------
Теперь мы подобрались к самой сложной операции в этой статье — удалению ключа x из дерева. Для начала мы, как и раньше, найдем нашу вершину в дереве. Теперь возникает два случая. Случай 1 (удаляем число 5):

Видно, что у удаляемой вершины нет правого сына. Тогда мы можем убрать ее и вместо нее вставить левое поддерево, не нарушая упорядоченность:

Если же правый сын есть, налицо случай 2 (удаляем снова вершину 5, но из немного другого дерева):

Тут так просто не получится — у левого сына может уже быть правый сын. Поступим по-другому: найдем в правом поддереве минимум. Ясно, что его можно найти если начать в правом сыне и идти до упора влево. Т.к у найденного минимума нет левого сына, можно вырезать его по аналогии со случаем 1 и вставить его вместо удалеемой вершины. Из-за того что он был минимальным в правом поддереве, свойство упорядоченности не нарушится:

Реализация удаления:
```
remove :: Ord key => BSTree key value -> key -> BSTree key value
remove Leaf _ = Leaf
remove (Branch key value left right) k
| k < key = Branch key value (remove left k) right
| k > key = Branch key value left (remove right k)
| k == key = if isLeaf right
then left
else Branch leftmostA leftmostB left right'
where
isLeaf Leaf = True
isLeaf _ = False
((leftmostA, leftmostB), right') = deleteLeftmost right
deleteLeftmost (Branch key value Leaf right) = ((key, value), right)
deleteLeftmost (Branch key value left right) = (pair, Branch key value left' right)
where (pair, left') = deleteLeftmost left
```
```
public void remove(T1 k) {
Node x = root, y = null;
while (x != null) {
int cmp = k.compareTo(x.key);
if (cmp == 0) {
break;
} else {
y = x;
if (cmp < 0) {
x = x.left;
} else {
x = x.right;
}
}
}
if (x == null) {
return;
}
if (x.right == null) {
if (y == null) {
root = x.left;
} else {
if (x == y.left) {
y.left = x.left;
} else {
y.right = x.left;
}
}
} else {
Node leftMost = x.right;
y = null;
while (leftMost.left != null) {
y = leftMost;
leftMost = leftMost.left;
}
if (y != null) {
y.left = leftMost.right;
} else {
x.right = leftMost.right;
}
x.key = leftMost.key;
x.value = leftMost.value;
}
}
```
На десерт, пара функций, которые я использовал для тестирования:
```
fromList :: Ord key => [(key, value)] -> BSTree key value
fromList = foldr (\(key, value) tree -> add tree key value) Leaf
toList :: Ord key => BSTree key value -> [(key, value)]
toList tree = toList' tree []
where
toList' Leaf list = list
toList' (Branch key value left right) list = toList' left ((key, value):(toList' left list))
```
Чем же все это полезно?
-----------------------
У читателя возможно возникает вопрос, зачем нужны такие сложности, если можно просто хранить список пар [(ключ, значение)]. Ответ прост — операции с деревом работают быстрее. При реализации списком все функции требуют O(n) действий, где n — размер структуры. (Запись O(f(n)) грубо говоря означает «пропорционально f(n)», более корректное описание и подробности можно почитать [тут](http://ru.wikipedia.org/wiki/%D0%90%D1%81%D0%B8%D0%BC%D0%BF%D1%82%D0%BE%D1%82%D0%B8%D0%BA%D0%B0)). Операции с деревом же работают за O(h), где h — максимальная глубина дерева (глубина — расстояние от корня до вершины). В оптимальном случае, когда глубина всех листьев одинакова, в дереве будет n=2^h вершин. Значит, сложность операций в деревьях, близких к оптимуму будет O(log(n)). К сожалению, в худшем случае дерево может выродится и сложность операций будет как у списка, например в таком дереве (получится, если вставлять числа 1..n по порядку):

К счастью, существуют способы реализовать дерево так, чтобы оптимальная глубина дерева сохранялась при любой последовательности операций. Такие деревья называют сбалансированными. К ним например относятся красно-черные деревья, AVL-деревья, splay-деревья, и т.д.
Анонс следующих серий
---------------------
В следующей статье я сделаю небольшой обзор различных сбалансированных деревьев, их плюсы и минусы. В следующих статьях я расскажу о каком-нибудь (возможно нескольких) более подробно и с реализацией. После этого я расскажу о реализации ropes и других возможных расширениях и применениях сбалансированных деревьев.
Оставайтесь на связи!
Полезные ссылки
---------------
Исходники примеров целиком:
[на haskell](http://winger.pastebin.com/f78fca1a5)
[на java](http://winger.pastebin.com/f50a4a9d7)
[Статья на википедии](http://ru.wikipedia.org/wiki/%D0%91%D0%B8%D0%BD%D0%B0%D1%80%D0%BD%D0%BE%D0%B5_%D0%B4%D0%B5%D1%80%D0%B5%D0%B2%D0%BE_%D0%BF%D0%BE%D0%B8%D1%81%D0%BA%D0%B0)
[Интерактивный визуализатор операций с BST](http://rain.ifmo.ru/cat/view.php/vis/trees/binary-search-2002)
Также очень советую почитать книгу Кормен Т., Лейзерсон Ч., Ривест Р.: «Алгоритмы: построение и анализ», которая является прекрасным учебником по алгоритмам и структурам данных
UPD: картинки восстановлены, спасибо [Xfrid](https://habrahabr.ru/users/xfrid/)!
-------------------------------------------------------------------------------- | https://habr.com/ru/post/65617/ | null | ru | null |
# Weka проект для задачи распознавания тональности (сентимента)
Это перевод моей [публикации на английском языке](http://dmitrykan.blogspot.fi/2014/04/weka-template-project-for-sentiment.html).
Интернет полон статьями, заметками, блогами и успешными историями применения машинного обучения (machine learning, ML) для решения практических задач. Кто-то использует его для пользы и просто поднять настроение, как эта картинка:

Правда, человеку, не являющемуся экспертом в этих областях, подчас не так просто подобраться к существующему инструментарию. Есть, безусловно, хорошие и относительно быстрые пути к практическому машинному обучению, например, Python-библиотека [scikit](http://scikit-learn.org/stable/). Кстати, [этот проект](https://github.com/DmitryKey/kaggle_stackexchange_prediction) содержит код, написанный в команде SkyNet (автору довелось быть её лидирующим участником) и иллюстрирующий простоту взаимодействия с библиотекой. Если вы Java разработчик, есть пара хороших инструментов: [Weka](http://www.cs.waikato.ac.nz/ml/weka/) и [Apache Mahout](https://mahout.apache.org/). Обе библиотеки универсальны с точки зрения применимости к конкретной задаче: от рекомендательных систем до классификации текстов. Существует инструментарий и более заточенный под текстовое машинное обучение: [Mallet](http://mallet.cs.umass.edu/) и набор библиотек [Stanford](http://www-nlp.stanford.edu/software/index.shtml). Есть и менее известные библиотеки, как [Java-ML](http://java-ml.sourceforge.net/).
В этом посте мы сфокусируемся на библиотеке Weka и сделаем проект-заготовку или проект-шаблон для текстового машинного обучения на конкретном примере: задача распознавания тональности или сентимента (sentiment analysis, sentiment detection). Несмотря на всё это, проект полностью рабочий и даже под commercial-friendly лицензией (сама Weka под GPL 3.0), т.е. при большом желании вы можете даже применить код в своих проектах.
Из всего набора в целом подходящих для выбранной задачи алгоритмов Weka мы воспользуемся алгоритмом [Multinomial Naive Bayes](http://en.wikipedia.org/wiki/Naive_Bayes_classifier#Multinomial_naive_Bayes). В этом посте я почти всегда привожу те же ссылки, что и в английской версии. Но так как перевод задача творческая, позволю себе привести ссылку по теме на [отечественный ресурс по машинному обучению](http://www.machinelearning.ru/wiki/index.php?title=%D0%9D%D0%B0%D0%B8%D0%B2%D0%BD%D1%8B%D0%B9_%D0%B1%D0%B0%D0%B9%D0%B5%D1%81%D0%BE%D0%B2%D1%81%D0%BA%D0%B8%D0%B9_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D1%80).
По моему мнению и опыту взаимодействия с инструментарием машинного обучения, обычно программист находится в поисках решения трёх задач при использовании той или иной ML-библиотеки: настройка алгоритма, тренировка алгоритма и I/O, т.е. сохранение на диск и загрузка с диска натренированной модели в память. Помимо перечисленных сугубо практических аспектов из теоретических, пожалуй, наиболее важным является оценка качества модели. Мы коснёмся этого тоже.
Итак, по порядку.
#### Настройка алгоритма классификации
Начнём с задачи распознавания тональности на три класса.
```
public class ThreeWayMNBTrainer {
private NaiveBayesMultinomialText classifier;
private String modelFile;
private Instances dataRaw;
public ThreeWayMNBTrainer(String outputModel) {
// create the classifier
classifier = new NaiveBayesMultinomialText();
// filename for outputting the trained model
modelFile = outputModel;
// listing class labels
ArrayList atts = new ArrayList(2);
ArrayList classVal = new ArrayList();
classVal.add(SentimentClass.ThreeWayClazz.NEGATIVE.name());
classVal.add(SentimentClass.ThreeWayClazz.POSITIVE.name());
atts.add(new Attribute("content",(ArrayList)null));
atts.add(new Attribute("@@class@@",classVal));
// create the instances data structure
dataRaw = new Instances("TrainingInstances",atts,10);
}
}
```
В приведённом коде происходит следующее:
* Создаётся объект класса алгоритма классификации (мы любим каламбуры)
* Приводится список меток целевых классов: NEGATIVE и POSITIVE
* Создаётся структура данных для хранения пар (объект, метка класса)
Похожим образом, но с бо́льшим количеством выходных меток, создаётся классификатор на 5 классов:
```
public class FiveWayMNBTrainer {
private NaiveBayesMultinomialText classifier;
private String modelFile;
private Instances dataRaw;
public FiveWayMNBTrainer(String outputModel) {
classifier = new NaiveBayesMultinomialText();
classifier.setLowercaseTokens(true);
classifier.setUseWordFrequencies(true);
modelFile = outputModel;
ArrayList atts = new ArrayList(2);
ArrayList classVal = new ArrayList();
classVal.add(SentimentClass.FiveWayClazz.NEGATIVE.name());
classVal.add(SentimentClass.FiveWayClazz.SOMEWHAT\_NEGATIVE.name());
classVal.add(SentimentClass.FiveWayClazz.NEUTRAL.name());
classVal.add(SentimentClass.FiveWayClazz.SOMEWHAT\_POSITIVE.name());
classVal.add(SentimentClass.FiveWayClazz.POSITIVE.name());
atts.add(new Attribute("content",(ArrayList)null));
atts.add(new Attribute("@@class@@",classVal));
dataRaw = new Instances("TrainingInstances",atts,10);
}
}
```
#### Тренировка классификатора
Тренировка алгоритма классификации или классификатора заключается в сообщении алгоритму примеров (объект, метка), помещённых в пару (x,y). Объект описывается некоторыми признаками, по набору (или вектору) которых можно качественно отличать объект одного класса от объекта другого класса. Скажем, в задаче классификации объектов-фруктов, к примеру на два класса: апельсины и яблоки, такими признаками могли бы быть: размер, цвет, наличие пупырышек, наличие хвостика. В контексте задачи распознавания тональности вектор признаков может состоять из слов (unigrams) либо пар слов (bigrams). А метками будут названия (либо порядковые номера) классов тональности: NEGATIVE, NEUTRAL или POSITIVE. На основе примеров мы ожидаем, что алгоритм сможет обучиться и обобщиться до уровня предсказания неизвестной метки y' по вектору признаков x'.
Реализуем метод добавления пары (x,y) для классификации тональности на три класса. Будем полагать, что вектором признаков является список слов.
```
public void addTrainingInstance(SentimentClass.ThreeWayClazz threeWayClazz, String[] words) {
double[] instanceValue = new double[dataRaw.numAttributes()];
instanceValue[0] = dataRaw.attribute(0).addStringValue(Join.join(" ", words));
instanceValue[1] = threeWayClazz.ordinal();
dataRaw.add(new DenseInstance(1.0, instanceValue));
dataRaw.setClassIndex(1);
}
```
На самом деле в качестве второго параметра мы могли передать в метод и строку вместо массива строк. Но мы намеренно работаем с массивом элементов, чтобы выше в коде была возможность наложить те фильтры, которые мы хотим. Для анализа тональности вполне релевантным фильтром является склеивание слов отрицаний (частиц и тд) с последующим словом: **не** *нравится* => **не**\_*нравится*. Таким образом, признаки *нравится* и **не**\_*нравится* образуют разнополярные сущности. Без склейки мы получили бы, что слово *нравится* может встретиться как в позитивном, так и в негативном контекстах, а значит не несёт нужного сигнала (в отличие от реальности). На следующем шаге, при построении классификатора строка из элементов-строк будет токенизирована и превращена в вектор.
Собственно, тренировка классификатора реализуется в одну строку:
```
public void trainModel() throws Exception {
classifier.buildClassifier(dataRaw);
}
```
Просто!
#### I/O (сохранение и загрузка модели)
Вполне распространённым сценарием в области машинного обучения является тренировка модели классификатора в памяти и последующее распознавание / классификация новых объектов. Однако для работы в составе некоторого продукта модель должна поставляться на диске и загружаться в память. Сохранение на диск и загрузка с диска в память натренированной модели в Weka достигается очень просто благодаря тому, что классы алгоритмов классификации реализуют среди множества прочих интерфейс Serializable.
Сохранение натренированной модели:
```
public void saveModel() throws Exception {
weka.core.SerializationHelper.write(modelFile, classifier);
}
```
Загрузка натренированной модели:
```
public void loadModel(String _modelFile) throws Exception {
NaiveBayesMultinomialText classifier = (NaiveBayesMultinomialText) weka.core.SerializationHelper.read(_modelFile);
this.classifier = classifier;
}
```
После загрузки модели с диска займёмся классификацией текстов. Для трёх-классового предсказания реализуем такой метод:
```
public SentimentClass.ThreeWayClazz classify(String sentence) throws Exception {
double[] instanceValue = new double[dataRaw.numAttributes()];
instanceValue[0] = dataRaw.attribute(0).addStringValue(sentence);
Instance toClassify = new DenseInstance(1.0, instanceValue);
dataRaw.setClassIndex(1);
toClassify.setDataset(dataRaw);
double prediction = this.classifier.classifyInstance(toClassify);
double distribution[] = this.classifier.distributionForInstance(toClassify);
if (distribution[0] != distribution[1])
return SentimentClass.ThreeWayClazz.values()[(int)prediction];
else
return SentimentClass.ThreeWayClazz.NEUTRAL;
}
```
Обратите внимание на строку *if (distribution[0] != distribution[1])*. Как вы помните, мы определили список меток классов для данного случая как: {NEGATIVE, POSITIVE}. Поэтому в принципе наш классификатор должен быть как минимум бинарным. Но! В случае если распределение вероятностей двух данных меток одинаково (по 50%), можно совершенно уверенно полагать, что мы имеем дело с нейтральным классом. Таким образом, мы получаем классификатор на три класса.
Если классификатор построен верно, то следующий юнит-тест должен отработать верно:
```
@org.junit.Test
public void testArbitraryTextPositive() throws Exception {
threeWayMnbTrainer.loadModel(modelFile);
Assert.assertEquals(SentimentClass.ThreeWayClazz.POSITIVE, threeWayMnbTrainer.classify("I like this weather"));
}
```
Для полноты реализуем класс-оболочку, который строит и тренирует классификатор, сохраняет модель на диск и тестирует модель на качество:
```
public class ThreeWayMNBTrainerRunner {
public static void main(String[] args) throws Exception {
KaggleCSVReader kaggleCSVReader = new KaggleCSVReader();
kaggleCSVReader.readKaggleCSV("kaggle/train.tsv");
KaggleCSVReader.CSVInstanceThreeWay csvInstanceThreeWay;
String outputModel = "models/three-way-sentiment-mnb.model";
ThreeWayMNBTrainer threeWayMNBTrainer = new ThreeWayMNBTrainer(outputModel);
System.out.println("Adding training instances");
int addedNum = 0;
while ((csvInstanceThreeWay = kaggleCSVReader.next()) != null) {
if (csvInstanceThreeWay.isValidInstance) {
threeWayMNBTrainer.addTrainingInstance(csvInstanceThreeWay.sentiment, csvInstanceThreeWay.phrase.split("\\s+"));
addedNum++;
}
}
kaggleCSVReader.close();
System.out.println("Added " + addedNum + " instances");
System.out.println("Training and saving Model");
threeWayMNBTrainer.trainModel();
threeWayMNBTrainer.saveModel();
System.out.println("Testing model");
threeWayMNBTrainer.testModel();
}
}
```
#### Качество модели
Как вы уже догадались, тестирование качества модели тоже довольно просто реализуется с Weka. Вычисление качественных характеристик модели необходимо, например, для того, чтобы проверить, переобучилась ли или недоучилась наша модель. С недоученностью модели интуитивно понятно: мы не нашли оптимального количества признаков классифицируемых объектов, и модель получилась слишком простой. Переобучение означает, что модель слишком подстроилась под примеры, т.е. она не обобщается на реальный мир, являясь излишне сложной.
Существуют разные способы тестирования модели. Один из таких способов заключается в выделении тестовой выборки из тренировочного набора (скажем, одну треть) и прогоне через кросс-валидацию. Т.е. на каждой новой итерации мы берём новую треть тренировочного набора в качестве тестовой выборки и вычисляем уместные для решаемой задачи параметры качества, например, точность / полноту / аккуратность и т.д. В конце такого прогона вычисляем среднее по всем итерациям. Это будет амортизированным качеством модели. Т.е., на практике оно может быть ниже, чем по полному тренировочному набору данных, но ближе к качеству в реальной жизни.
Однако для беглого взгляда на точность модели достаточно посчитать аккуратность, т.е. количество верных ответов к неверным:
```
public void testModel() throws Exception {
Evaluation eTest = new Evaluation(dataRaw);
eTest.evaluateModel(classifier, dataRaw);
String strSummary = eTest.toSummaryString();
System.out.println(strSummary);
}
```
Данный метод выводит следующие стастистики:
```
Correctly Classified Instances 28625 83.3455 %
Incorrectly Classified Instances 5720 16.6545 %
Kappa statistic 0.4643
Mean absolute error 0.2354
Root mean squared error 0.3555
Relative absolute error 71.991 %
Root relative squared error 87.9228 %
Coverage of cases (0.95 level) 97.7697 %
Mean rel. region size (0.95 level) 83.3426 %
Total Number of Instances 34345
```
Таким образом, аккуратность модели по всему тренировочному набору 83,35%. Полный проект с кодом можно найти на моём [github](https://github.com/DmitryKey/weka-mnb-sentiment-analysis-template-project). Код использует данные с [kaggle](http://www.kaggle.com/c/sentiment-analysis-on-movie-reviews/). Поэтому если вы решите использовать код (либо даже посоревноваться на конкурсе) вам понадобится принять условия участия и скачать данные. Задача реализации полного кода для классификации тональности на 5 классов остаётся читателю. Успехов! | https://habr.com/ru/post/229779/ | null | ru | null |
# Применение Oracle Database для Технического анализа рынков
Эта статья про Oracle Database, PL/SQL, SQL, MATCH\_RECOGNIZE, MODEL clause, aggregate и pipelined functions.
В качестве функциональной области использован Технический анализ (ТА) рынков. Сначала небольшая поверхностная вводная о торговле на рынках, потом — расчёты.
Технический анализ — совокупность инструментов прогнозирования вероятного изменения цен на основе закономерностей изменений цен в прошлом. Теоретически, Технический анализ применим на любом рынке. Но наибольшее распространение Технический анализ получил на высоколиквидных свободных рынках, например, на биржах.

Разработано много SQL-операторов, процедур и графиков. Часть — ниже, полностью код — на GitHub по ссылке внизу статьи.
Технические индикаторы рынка (ТИР) — дополнительные графики, к графикам цен, *формируемые на основе пересчёта значений, содержащихся в базовом графике цены*. Обычно это различные виды усреднений (очередная точка графика рассчитывается как усреднённое значение некоторого количества предыдущих значений цены, например, скользящая средняя), отношений (очередная точка является результатом сопоставления некоторого числа предыдущих цен — их разность, производная от изменения за период), или лагов (задержек). Индикаторы наглядно показывают некоторую неочевидную информацию, содержащуюся в статистике изменения цены, и могут формировать рекомендации о торговых приказах — BUY/SELL. Индикаторы имеют минимум один изменяемый параметр, от значения которого будет изменяться результат. *Для открытия реальных сделок обычно используется несколько индикаторов в комплексе, плюс дополнительная информация, на усмотрение трейдера.*
Один из постулатов Технического анализа — «история повторяется»: Участники рынка в схожих обстоятельствах ведут себя примерно одинаково, формируя похожую динамику изменения цен. И естественно предположить, что поведение рынка в будущем, в основном, повторит наметившиеся в прошлом модели. Следуя этому утверждению, инвестор может выбрать из возможных параметров ТИР те, что наилучшим образом зарекомендовали себя в прошлые периоды.
В этой статье строятся график результативности торговли при использовании каждого индикатора от значения параметра ТИР, это в двумерном представлении. Но фактически я буду строить в трёхмерном представлении, чтобы оценить также и влияние запаздывания исполнения приказа на результат, поэтому параметр будет ось X (абсцисса), задержка — ось Y (ордината), результат — ось Z (аппликата). Это некоторая попытка оценить влияние «проскальзываний» (“slippage”), которые, к сожалению, всегда случаются. Вместо реального «проскальзывания» по оси Y я откладываю исполнение приказа BUY/SELL на срок от 1 до 5 периодов.
Если на этом графике выделится глобальный максимум и сам график будет похож на шляпу (вообще, это называется «нормальное распределение», но оно предполагает строгую симметрию относительно вертикальной оси), конус, пирамида, тоже подходят — значит для этого ТИР можно подобрать определённое значение параметра, который покажет самый высокий результат, и с этим индикатором можно попробовать торговать. Если же график результативности в зависимости от параметра будет напоминать «частокол» — подобрать оптимальное значение параметра невозможно и нет смысла использовать этот ТИР в торговле.
*Можно сказать, что в этой статье я рассчитываю лишь «процент попадания» индикаторов. Задача, оценить, сколько можно «заработать», мною не решалась.*
**Успешное прохождение описанной проверки является одним из необходимых, но не достаточных факторов для результативной торговли.**
Для информации… В противоположность Техническому анализу, Фундаментальный анализ (ФА) — термин для обозначения методов прогнозирования рыночной (биржевой) стоимости инструментов, основанных на анализе финансовых и производственных показателей деятельности.
«Внутренняя стоимость» по ФА в большинстве случаев не совпадает с ценой акций компании, которая определяется соотношением спроса и предложения на фондовом рынке. Инвесторов, использующих в своей деятельности ФА, интересуют в первую очередь ситуации, когда «внутренняя стоимость» акций компании превышает цену акций на бирже. Такие акции считаются недооцененными, значит их цена будет расти, и они являются потенциальными объектами инвестиций.
Один из наиболее известных инвесторов, использующих Фундаментальный анализ — Уоррен Баффетт.
Посмотрите отрывок из фильма: <https://www.youtube.com/watch?v=SqE8fnvmV1Y>
Таким образом мы имеем два диаметрально противоположных подхода — ТА и ФА.
ФА обычно интересует долгосрочных инвесторов, ТА — кратко- и среднесрочных и используется для сделок спекулятивного характера, когда сам предмет торговли трейдера не интересует.
И целей этой статьи две…
Кроме описанных выше рассуждений о ТА и ФА я *хотел исследовать и показать возможности Oracle Database по выполнению расчётов Технических индикаторов рынка*.
Эти возможности я и представляю на суд читателей.
Если вы решите повторить мои расчёты — скачайте код с GitHub по ссылке внизу статьи. Код проверен на версии 12.2.0.1.
Сначала создайте общие объекты. Первыми идут таблицы и view. В это же файле далее — пакет моделирования сделок.
Вторым шагом — создание функций, выполняющих расчёт ТИР.
Третий шаг — расчёты.
Все функции расчёта всех ТИР будут возвращать курсор со следующими полями: STOCK\_NAME, ADATE, ACLOSE (цена закрытия дня), AACTION (приказ продавать/покупать)
Пакет содержит три табличные функции моделирования, которые принимают на вход курсор из описанных выше функций расчёта ТИР, смещение (задержку исполнения приказа, лаг), и начальный капитал, по умолчанию равен 1000 USD. Функции пакета вызываются так:
```
select * from HABR_TRADEMODELLING_P.TRADE_LOG (cursor (select STOCK_NAME, ADATE, ACLOSE, AACTION from table (HABR_MARKETINDEXES_XXXXXXXX_F_CALC (10))), p_lag => 1) order by 1, 2;
select * from HABR_TRADEMODELLING_P.CALC_ACTIONS (cursor (select STOCK_NAME, ADATE, ACLOSE, AACTION from table (HABR_MARKETINDEXES_XXXXXXXX_F_CALC (10))), p_lag => 1);
select * from HABR_TRADEMODELLING_P.CALC_ACTIONS_TOTALS (cursor (select STOCK_NAME, ADATE, ACLOSE, AACTION from table (HABR_MARKETINDEXES_XXXXXXXX_F_CALC (10))), p_lag => 1);
```
где XXXXXXXX — название ТИР.
**Все функции рассчитывают результат торговли при условии полного реинвестирования прибыли, без учета расходов на транзакции и налоги, и без учёта инфляции и дисконтирования.**
Первая функция `TRADE_LOG` формирует упрощённый журнал сделок трейдера. Функция позволяет проследить всю цепочку сделок. Если на конец периода инвестор «в бумагах», для расчёта баланса в валюте (финансового результата) функция имитирует продажу всех бумаг по последней цене закрытия и формирует соответствующую пометку в поле IN\_STOCK.
Вторая функция `CALC_ACTIONS` возвращает те-же колонки, что и вызванный курсор расчёта ТИР, плюс добавляет следующие колонки: `AACTION_LAG` (приказ со смещением), `BALANCE_CURRENCY` (баланс счёта трейдера в наличной валюте), `BALANCE_STOCK` (количество инструментов в открытых позициях). В зависимости от значения поля `AACTION_LAG` имитируется покупка или продажа по цене закрытия, и соответственно изменяются баланс в валюте и сумма открытых позиций.
В последней строке каждого инструмента можно увидеть итог торговли по каждому инструменту, также, как и в предыдущей функции, если инвестор «в бумагах», имитируется продажа для расчёта баланса в валюте
Третья функция `CALC_ACTIONS_TOTALS` делает то же самое, что и вторая, но возвращает только последнюю строку — итог торговли по каждому инструменту. Она и будет использована в моделировании.
### Загрузите данные
Расчёты приведены для таких рынков и индексов: S&P500, NYSE, Brent, BTCUSD, EURUSD.
Первые 4 загружены с сайта Yahoo Finance, последний — из другого источника. Результаты расчётов для курсов из иных источников могут отличаться.
Обратите внимание, что периоды курсов каждого инструмента различаются, а именно:
* S&P500 — 03 /01/1950…29/01/2019, 69 лет;
* NYSE — 31/12/1965…22/03/2019, 54 года;
* Brent — 17/05/1991…06/02/2019, 28 лет;
* BTCUSD — 16/07/2010…29/01/2019, 9 лет;
* EURUSD — 16/02/2001…27/05/2019, 18 лет.
Поэтому нельзя сравнивать достигнутую прибыльность инструментов между собой, но можно сравнивать прибыльность каждого из инструментов при использовании разных индикаторов.
Файл для загрузки (SQL\*Loader) можно тоже взять с GitHub по ссылке внизу статьи.
### Скользящие средние
Есть по крайней мере три основных вида скользящих средних:
* линейная (Simple Мoving Average, SMA),
* экспоненциальная (Exponential Moving Average, EMA) и
* линейно-взвешенная (Weighted Moving Average, WMA).
Они отличаются весами входящих в них составляющих. Для линейной скользящей средней веса равны, для экспоненциальной и линейно-взвешенной веса убывают по мере отдаления составляющей от правого края окна — по экспоненциальному закону или линейно.
Линейную скользящую среднюю вычислить проще всего. В Oracle это функция `avg (VALUE) over (partition by STOCK_NAME order by ADATE rows between 9 preceding and current row)` — скользящая средняя с величиной окна усреднения равным 10 значениям.
У линейной скользящей средней есть недостатки. Во-первых, такие средние медленно реагируют на моменты разворотов рынка. Поскольку усредняется много значений, каждому из которых придается равный вес, реакция средней часто происходит через несколько таймфреймов после разворота цен актива.
Также линейная скользящая средняя не очень эффективна, потому что она реагирует на сигнал дважды: когда показатель вошёл в скользящее окно и покинул его. Остальные же реагируют лишь на вход показателя и плавно выводят его из расчёта по мере продвижения от правого края окна к левому.
В расчётах ТИР используются все три вида скользящих средних. Для экспоненциальной и линейно взвешенной в этой статье разработаны агрегатные функции `EMA` и `WMA`, которые используются в аналитической форме. Кроме того, эти скользящие средние можно вычислить рекурсией или моделькой (фраза `MODEL`).
Расчёт EMA и WMA, без рекурсии или модельки, одной лишь аналитикой, в Oracle Database, судя по всему, невозможен.
Но ещё оговорки касательно скользящих средних:
* чем короче период усреднения и чем более чутко метод реагирует на развороты, тем больше он даёт ложных сигналов;
* чем короче период усреднения, тем больше сигналов генерируется, тем больше накладные расходы на транзакции, которые могут стать весьма значительными.
Технические индикаторы рынка
----------------------------
Для почти каждого индикатора будут приведены несколько методов расчёта: CALC — расчёт с помощью PL/SQL кода, SIMP — расчёт одним оператором или RECU — расчёт рекурсией, AGRF — расчёт с использованием агрегатной функции, MODE — расчёт моделькой.
Для разработки нескольких методов есть свои причины. Во-первых, рассчитав ТИР несколькими методами и сравнив показатели, если показатели совпадают, можно быть уверенным, что расчёты проведены верно (учитывая разные методы округления и обработки значений NULL и «0»). В этой статье я буду сравнивать хэши выборок различных методов, поэтому гарантируется совпадение до бита и одинаковая обработка всеми алгоритмами.
Полагаю, в Oracle начинать разработку ТИР нужно с метода SIMP — расчёт одним оператором. Когда это сделано, у «ораклоида» складывается в голове план и алгоритм расчёта, и его можно легко переложить на PL/SQL или на другой процедурный язык.
Замечу, что метод расчёта CALC на PL/SQL здесь оказывается быстрее метода SIMP (одним оператором) в том случае, если весь расчёт можно выполнить за один проход по курсору. А вот если для расчёта придётся формировать временные таблицы или коллекции, или более, чем 1 проход по курсору — полагаю, метод «одним оператором» окажется и быстрее, и менее ресурсоёмким.
Для всех методов, включая метод SIMP («одним оператором») я буду помещать операторы в функции, для того, чтобы расчёт можно было вызвать с параметром для подбора оптимального значения.
Расчёты приведены для семи ТИР: Пересечение скользящей средней (EMASIMPLE), «Золотой» и «Смертельный кресты (CROSSES), Балансовый объём (OBV), Канал Кельтнера (KELTNER), Тренд цены и объёма (PVT), Индикатор лёгкости движения Армса (EMV), Индекс товарного канала (CCI).
Для семи индикаторов этих двух статей будет один параметр «величина окна усреднения», и второй параметр — сдвиг (lag). Сдвиг говорит, на сколько баров нужно отложить исполнение приказа BUY/SELL — на сколько баров сдвинуть цену закрытия (все приказы совершаются по цене закрытия бара). Это подобно «проскальзыванию» (“slippage”), но это не совсем «проскальзывание». Проскальзывание обычно оказывается не в пользу клиента, а наш лаг, может оказаться как не в пользу клиента, так и в пользу. Тем не менее, использование моделирования с лагом от 1 до 5 баров для некоторых индикаторов показывает, что проскальзывание оказывает значительный эффект на результат. А для некоторых индикаторов лаг и проскальзывание не так важны.
В методах SIMP («одним оператором») и RECU («рекурсия») активно используется фраза `MATCH_RECOGNIZE`, для формирования торгового сигнала BUY/SELL на основании вхождения/покидания рассчитанного ТИР в заданный диапазон или его поведения относительно своего скользящего среднего.
*Подробные описания всех ТИР можно посмотреть в Википедии или в книге Роберта Колби «Энциклопедия технических индикаторов рынка».*
### Пересечение экспоненциальной скользящей средней
Метод пересечения экспоненциальных скользящих средних является простейшим ТИР.
Метод предполагает: покупку (открытие длинной позиции), если значение цены пересекает снизу-вверх свою экспоненциальную скользящую среднюю (ЭСС); продажу (закрытие длинной позиции), если цена пересекает свою ЭСС сверху вниз.
Короткие позиции, как и маржинальная торговля в целом, в этой статье не рассматриваются.
В дальнейшем, именно этот индикатор можно использовать как эталон для сравнения с другими. Сравнение с этим ТИР лучше, чем сравнение со стратегией «Купи и держи», потому что эта стратегия не выгодна на падающих рынках.
Единственный параметр ТИР — длина скользящей средней.
Расчёт с помощью PL/SQL
```
create or replace function HABR_MARKETINDEXES_EMASIMPLE_F_CALC (p_averaging_window_width integer)
return HABR_MARKETINDEXES_RESULT_LIST_T pipelined is
l_result HABR_MARKETINDEXES_RESULT_LIST_T;
EMA number;
prev_EMA number;
prev_TYPICAL_PRICE number;
retval HABR_MARKETINDEXES_RESULT_T := HABR_MARKETINDEXES_RESULT_T (null, null, null, null, null, null, null, null, null);
prev_STOCK_NAME varchar2(256);
l_alpha number;
begin
l_alpha := 2 / (p_averaging_window_width + 1);
for c1 in (select STOCK_NAME, ADATE, TYPICAL_PRICE, ACLOSE from LOAD_YAHOO_V order by 1, 2)
loop
retval.ADATE := c1.ADATE;
retval.ACLOSE := c1.ACLOSE;
if prev_STOCK_NAME is null or prev_STOCK_NAME <> c1.STOCK_NAME
then
retval.STOCK_NAME := c1.STOCK_NAME;
EMA := c1.TYPICAL_PRICE;
prev_EMA := null;
else
EMA := round (c1.TYPICAL_PRICE * l_alpha + EMA * (1 - l_alpha), 20);
end if;
if prev_TYPICAL_PRICE < prev_EMA and c1.TYPICAL_PRICE > EMA then retval.AACTION := 'BUY';
elsif prev_TYPICAL_PRICE > prev_EMA and c1.TYPICAL_PRICE < EMA then retval.AACTION := 'SELL';
else retval.AACTION := null;
end if;
retval.IND_VALUE := EMA;
pipe row (retval);
prev_STOCK_NAME := c1.STOCK_NAME;
prev_EMA := EMA;
prev_TYPICAL_PRICE := c1.TYPICAL_PRICE;
end loop;
end;
```
Расчёт одним рекурсивным оператором
```
create or replace function HABR_MARKETINDEXES_EMASIMPLE_F_RECU (p_averaging_window_width integer)
return HABR_MARKETINDEXES_RESULT_LIST_T is
l_result HABR_MARKETINDEXES_RESULT_LIST_T;
begin
with
T1 (STOCK_NAME, ADATE, TYPICAL_PRICE, EMA, ACLOSE, RN) as
(select STOCK_NAME, ADATE, TYPICAL_PRICE, round (TYPICAL_PRICE, 20), ACLOSE, RN from LOAD_YAHOO_V where RN = 1
union all
select b.STOCK_NAME
, b.ADATE
, b.TYPICAL_PRICE
, round (b.TYPICAL_PRICE * 2 / (p_averaging_window_width + 1) + a.EMA * (1 - 2 / (p_averaging_window_width + 1)), 20)
, b.ACLOSE
, b.RN
from T1 a, LOAD_YAHOO_V b
where b.RN = a.RN + 1 and b.STOCK_NAME = a.STOCK_NAME)
select HABR_MARKETINDEXES_RESULT_T (STOCK_NAME, ADATE, ACLOSE, EMA, null, null, null, null, AACTION)
bulk collect into l_result
from T1 match_recognize (partition by STOCK_NAME order by ADATE
measures classifier() as AACTION
all rows per match with unmatched rows
pattern (BUY+ | SELL+)
define BUY as (prev (TYPICAL_PRICE) < prev (EMA) and TYPICAL_PRICE > EMA)
, SELL as (prev (TYPICAL_PRICE) > prev (EMA) and TYPICAL_PRICE < EMA)
) MR;
return l_result;
end;
```
Расчёт с помощью фразы MODEL
**Текст функции HABR\_MARKETINDEXES\_EMASIMPLE\_F\_MODE**
```
create or replace function HABR_MARKETINDEXES_EMASIMPLE_F_MODE (p_averaging_window_width integer)
return HABR_MARKETINDEXES_RESULT_LIST_T is
l_result HABR_MARKETINDEXES_RESULT_LIST_T;
begin
with
T1 as (select * from LOAD_YAHOO_V
model dimension by (STOCK_NAME, RN) measures (ADATE, TYPICAL_PRICE, ACLOSE, to_number(null) as EMA)
rules (EMA[any, any] = round (TYPICAL_PRICE [cv(), cv()] * 2 / (p_averaging_window_width + 1) + nvl(EMA [cv(), cv() - 1], TYPICAL_PRICE [cv(), cv()]) * (1 - 2 / (p_averaging_window_width + 1)), 20)))
, T2 as (select STOCK_NAME, ADATE, ACLOSE
, TYPICAL_PRICE, LAG (TYPICAL_PRICE) over (partition by STOCK_NAME order by ADATE) as PREV_TYPICAL_PRICE
, EMA, lag (EMA) over (partition by STOCK_NAME order by ADATE) as PREV_EMA
from T1)
select HABR_MARKETINDEXES_RESULT_T (STOCK_NAME, ADATE, ACLOSE, EMA, null, null, null, null
, case when prev_TYPICAL_PRICE < prev_EMA and TYPICAL_PRICE > EMA then 'BUY'
when prev_TYPICAL_PRICE > prev_EMA and TYPICAL_PRICE < EMA then 'SELL' end)
bulk collect into l_result
from T2 order by STOCK_NAME, ADATE;
return l_result;
end;
```
Расчёт с помощью агрегатной функции
**Текст агрегатной функции EMA и функции HABR\_MARKETINDEXES\_EMASIMPLE\_F\_AGRF**
```
create or replace type EMA_DATA_T as object (AVALUE number, AVERAGING_WINDOW integer);
create or replace type EMA_IMPL_T as object
(
l_window_width integer,
l_ema number,
static function ODCIAggregateInitialize (sctx in out EMA_IMPL_T) return number,
member function ODCIAggregateIterate (self in out EMA_IMPL_T, value in EMA_DATA_T) return number,
member function ODCIAggregateMerge (self in out EMA_IMPL_T, ctx2 in EMA_IMPL_T) return number,
member function ODCIAggregateTerminate (self in EMA_IMPL_T, returnValue out number, flags in number) return number
);
create or replace type body EMA_IMPL_T is
static function ODCIAggregateInitialize (sctx in out EMA_IMPL_T) return number is
begin
sctx := EMA_IMPL_T (null, null);
return ODCIConst.Success;
end;
member function ODCIAggregateIterate (self in out EMA_IMPL_T, value in EMA_DATA_T) return number is
begin
if value.AVALUE is not null
then
if l_window_width is null
then
l_window_width := value.AVERAGING_WINDOW;
self.l_ema := value.AVALUE;
else
self.l_ema := round (value.AVALUE * 2 / (l_window_width + 1) + self.l_ema * (1 - 2 / (l_window_width + 1)), 20);
end if;
end if;
return ODCIConst.Success;
end;
member function ODCIAggregateMerge(self in out EMA_IMPL_T, ctx2 in EMA_IMPL_T) return number is
begin
return ODCIConst.Error;
end;
member function ODCIAggregateTerminate(self in EMA_IMPL_T, returnValue out number, flags in number) return number is
begin
returnValue := self.l_ema;
return ODCIConst.Success;
end;
end;
create or replace function EMA (input EMA_DATA_T) return number aggregate using EMA_IMPL_T;
create or replace function HABR_MARKETINDEXES_EMASIMPLE_F_AGRF (p_averaging_window_width integer)
return HABR_MARKETINDEXES_RESULT_LIST_T is
l_result HABR_MARKETINDEXES_RESULT_LIST_T;
begin
with
T1 as (select STOCK_NAME, ADATE, TYPICAL_PRICE, ACLOSE
, round (EMA (EMA_DATA_T (TYPICAL_PRICE, p_averaging_window_width)) over (partition by STOCK_NAME order by ADATE), 20) as EMA
from LOAD_YAHOO_V)
select HABR_MARKETINDEXES_RESULT_T (STOCK_NAME, ADATE, ACLOSE, EMA, null, null, null, null, AACTION)
bulk collect into l_result
from T1 match_recognize (partition by STOCK_NAME order by ADATE
measures classifier() as AACTION
all rows per match with unmatched rows
pattern (BUY+ | SELL+)
define BUY as (prev (TYPICAL_PRICE) < prev (EMA) and TYPICAL_PRICE > EMA)
, SELL as (prev (TYPICAL_PRICE) > prev (EMA) and TYPICAL_PRICE < EMA)
) MR;
return l_result;
end;
```
Сравним результаты расчёта с одним параметром:
```
select COLUMN_VALUE as ALG, dbms_sqlhash.gethash (COLUMN_VALUE, 2) as RECORDSET_HASH
from table (sys.odcivarchar2list ('select * from table (HABR_MARKETINDEXES_EMASIMPLE_F_CALC (15)) order by 1, 2'
, 'select * from table (HABR_MARKETINDEXES_EMASIMPLE_F_RECU (15)) order by 1, 2'
, 'select * from table (HABR_MARKETINDEXES_EMASIMPLE_F_MODE (15)) order by 1, 2'
, 'select * from table (HABR_MARKETINDEXES_EMASIMPLE_F_AGRF (15)) order by 1, 2'));
```
Все хэши должны совпадать для всех четырёх методов.
Если хэши не сошлись, разобраться, где именно образовалось расхождение, можно таким оператором (подставьте имена функций, которые надо сравнить):
```
select coalesce (a.STOCK_NAME, b.STOCK_NAME) as STOCK_NAME, coalesce (a.ADATE, b.ADATE) as ADATE
, a.ACLOSE as CALC_ACLOSE, b.ACLOSE as AGRF_CLOSE
, a.IND_VALUE as CALC_EMA, b.IND_VALUE as AGRF_EMA
, a.AACTION as CALC_AACTION, b.AACTION as AGRF_AACTION
from table (HABR_MARKETINDEXES_EMASIMPLE_F_CALC (15)) a
full outer join table (HABR_MARKETINDEXES_EMASIMPLE_F_AGRF (15)) b on a.STOCK_NAME = b.STOCK_NAME and a.ADATE = b.ADATE
--where sys_op_map_nonnull (a.ACLOSE) <> sys_op_map_nonnull (b.ACLOSE)
-- or sys_op_map_nonnull (a.IND_VALUE) <> sys_op_map_nonnull (b.IND_VALUE)
-- or sys_op_map_nonnull (a.AACTION) <> sys_op_map_nonnull (b.AACTION)
order by 1, 2;
;
```
**Подбор параметров**
Сам ТИР использует один параметр, для этого и для всех других ТИР я изменяю его в диапазоне от 1 до 200, но для расчёта трёхмерной картинки для зависимости и от лага тоже, мы введём второй параметр, который будет изменяться от 1 до 5.
Оператор открывает 200 \* 5 = 1000 курсоров, поэтому может потребоваться изменение параметра Oracle [OPEN\_CURSORS](https://docs.oracle.com/en/database/oracle/oracle-database/12.2/refrn/OPEN_CURSORS.html)
Запрос ниже выполняет декартово произведение таблицы с числами от 1 до 200, с таблицей с числами от 1 до 5, и декартово умножает всё это на вызов табличной функции `HABR_TRADEMODELLING_P.CALC_ACTIONS_TOTALS`.
Путём некоторых дальнейших манипуляций в MATLAB далее получим матрицу 200\*5, где в ячейках матрицы будет итоговая величина капитала при каждом значении каждого из двух параметров. Далее в MATLAB строим трёхмерную картинку.
```
rollback;
delete HABR_MARKETINDEXES_PARMSEL_RESULTS where INDICATOR_NAME = 'HABR_MARKETINDEXES_EMASIMPLE_F_CALC';
commit;
insert into HABR_MARKETINDEXES_PARMSEL_RESULTS (INDICATOR_NAME, PARM1, PARM2, STOCK_NAME, ADATE_MIN, ADATE_MAX, DEALS_COUNT, BALANCE_RESULT, DEALS_PROFIT_AMOUNT, DEALS_LOSS_AMOUNT, DEALS_PROFIT_COUNT, DEALS_LOSS_COUNT, IN_STOCK)
with
TP1 as (select rownum as PARM1 from dual connect by level <= &&AVERAGING_INTERVAL)
, TP2 as (select rownum as PARM2 from dual connect by level <= &&LAG_MODELLING_DEPTH)
select --+ parallel(8)
'HABR_MARKETINDEXES_EMASIMPLE_F_CALC', PARM1, PARM2, STOCK_NAME, ADATE_MIN, ADATE_MAX, DEALS_COUNT, BALANCE_RESULT, DEALS_PROFIT_AMOUNT, DEALS_LOSS_AMOUNT, DEALS_PROFIT_COUNT, DEALS_LOSS_COUNT, IN_STOCK
from TP1
cross join TP2
cross join table (HABR_TRADEMODELLING_P.CALC_ACTIONS_TOTALS (cursor (select STOCK_NAME, ADATE, ACLOSE, AACTION from table (HABR_MARKETINDEXES_EMASIMPLE_F_CALC (PARM1))), PARM2))
;
commit;
```
Все расчёты в этой статье выполняются медленно, до 20 минут, это связано с открытием большого числа курсоров.
Я разработал и более быстрый метод моделирования с одним курсором, без открытия 1000 курсоров, но он настолько объёмный, что занял бы половину статьи. Поэтому я его здесь приводить не буду.
Итог моделирования пересечения скользящей средней (все графики кликабельны):
[](https://habrastorage.org/webt/zm/vf/ko/zmvfkokqn7i48idlredxf3pefze.png)
Вторая строка графиков — это то-же, что и первая строка, но графики немного повёрнуты, графики с различным лагом располагаются один за другим. Это позволяет оценить влияние лага на результат
В целом, индикатор не очень чувствителен к лагам. Для рынков S&P500 и NYSE параметр ТИР нужно выбирать чем больше, тем лучше. Для рынка Brent — в районе 25. На остальных двух рынках зависимости между прибыльностью и параметром нет.
### Смертельный и Золотой кресты
В реализации на Oracle этот индикатор очень похож на предшествующий, только здесь используются две скользящие средние, а не одна. Поэтому я приведу только один вариант расчёта.
В Вики описан «Индикатор Ишимоку». Это сложный индикатор. «Кресты» являются одной из составных частей. Но индикатор описан на Вики плохо, в частности, обратите внимание, что линии Tenkan и Kijun описаны совершенно разными словами, хотя по сути это одно и то-же, но с разными периодами.
В книге Роберта Колби этот индикатор тоже не описан.
Японские аналитики называют пересечение средних, когда краткосрочная средняя пересекает долгосрочную снизу вверх, Золотой крест (Golden Cross), а обратную ситуацию, когда краткосрочная скользящая средняя пересекает долгосрочную сверху вниз — Мёртвый крест (Dead Cross).
Автор обратил вниманием, что этот индикатор описан в статье [«Фьючерсы на американскую нефть сформировали «смертельный крест»»](https://www.rbc.ru/economics/23/11/2018/5bf80c8b9a7947c90d40d639) и стал гуглить его описание и использование.
Этот индикатор считается серьёзным на фондовом рынке, отчасти потому, что он подаёт сигналы редко.
Наиболее часто используются 50-ти и 200-периодные скользящие средние.
При моделировании результативности ниже мы примем период длинной скользящей средней равным учетверённому периоду короткой скользящей средней, и смоделируем длину короткой от 1 до 200 дней (получится от 4 до 800 дней для длинной).
Код для расчёта на GitHub.
[](https://habrastorage.org/webt/t-/d7/l8/t-d7l8sjjafl4wgnhci_9allyvc.png)
Индикатор не очень чувствителен к лагам. Для рынка S&P500 есть максимумы на 48 (192 для длинной СС) и 98 дней (392 для длинной СС). Заметьте, первый максимум очень близко к числам 50х200. Можно предположить, что если этот параметр выбрать на 1 и 2 меньше, чем другие участники рынка, можно попробовать их обыграть на одном этом индикаторе.
На NYSE 4 максимума. На рынках Brent и BTCUSD индикатор не работает.
Для рынка EURUSD тоже параметр надо выбирать чуть меньше, чем 50 для короткой СС. Но вот прибыли на этом рынке индикатор не даёт. Его можно использовать только как дополнительный индикатор.
### Балансовый объём, Равновесный объём, On-Balance Volume (OBV)
Индикатор OBV представляет собой кумулятивную скользящую среднюю объёма торгов, взятого со знаком плюс в случае растущего рынка и со знаком минус в случае падающего.
Здесь будет использован такой способ толкования значения индикаторов: купить, когда OBV пересечёт свою скользящую среднюю снизу-вверх, продать, когда OBV пересечёт свою скользящую среднюю сверху-вниз.
Подробнее на [Вики](https://ru.wikipedia.org/wiki/%D0%91%D0%B0%D0%BB%D0%B0%D0%BD%D1%81%D0%BE%D0%B2%D1%8B%D0%B9_%D0%BE%D0%B1%D1%8A%D1%91%D0%BC) или у Колби
[](https://habrastorage.org/webt/p3/ky/-x/p3ky-xuobqddwztm9xq5nheprto.png)
На рынке S&P500 индикатор очень чувствителен к задержкам (лагам), но можно попробовать выбирать параметр по принципу «чем больше, тем лучше», некоторая прибыльность достигается. На рынке NYSE прибыльности достигнуть не удастся. На рынке Brent можно выбирать значение параметра от 20 до 100. На рынке BTCUSD чёткой линейной зависимости нет, но выбирать значение параметра меньше 40 нецелесообразно. Для рынка EURUSD значение параметра нужно выбирать «чем больше, тем лучше», но прибыльности достигнуть не удастся.
### Канал Кельтнера, Keltner Channel
ТИР состоит из двух полос над и под скользящей средней цены, ширина которых определяется как доля от среднего изменения цены за период. В качестве цены берётся типичная цена.
Средняя линии индикатора является простой скользящей средней от типичной цены.
Верхняя и нижняя линии индикатора отстоят от средней линии на величину, равную простому скользящему среднему дневного торгового диапазона.
В наших расчётах сигнал ТИР будет формироваться так: Покупай, если цена пересекает верхнюю линию, Продавай, если цена пересекает нижнюю.
[](https://habrastorage.org/webt/sb/m6/gr/sbm6grgqyi5vjhfisdsmujpa_gy.png)
Для рынков S&P500 и NYSE есть максимумы. На рынке Brent зависимости результата от параметра нет, и вся торговля идёт в убыток. На рынке BTCUSD максимумы есть, но узкие, и в них трудно попасть. На рынке EURUSD зависимость результата от параметра есть.
### Тренд цены и объёма, Тенденция цены и объёма, Price–Volume Trend, PVT
Значение индикатора PVT представляет собой кумулятивную сумму произведения текущего объёма торгов на приведённый рост цены относительно предыдущего периода.
Формировать торговые сигналы здесь мы будем следующим образом: Покупай, когда PVT пересечёт свою скользящую среднюю снизу-вверх, Продавай, когда PVT пересечёт свою скользящую среднюю сверху-вниз.
Подробнее на [Вики](https://ru.wikipedia.org/wiki/%D0%A2%D1%80%D0%B5%D0%BD%D0%B4_%D1%86%D0%B5%D0%BD%D1%8B_%D0%B8_%D0%BE%D0%B1%D1%8A%D1%91%D0%BC%D0%B0). У Колби не нашёл.
[](https://habrastorage.org/webt/k5/ul/pt/k5ulptruy_1crambre7pidvjo9m.png)
Для рынка S&P500 значение параметра «чем больше, тем лучше», на NYSE почти нет зависимости, для Brent есть максимум в районе 50, на BTCUSD индикатор эффективен только при минимальных лагах, 1-2, и с минимальными значениями параметра, до 50-ти, для EURUSD зависимость возрастающая.
### Лёгкость движения, Индикатор лёгкости движения Армса, Arms’ Ease of Movement Value, EMV
ТИР EMV — это численное выражение того, насколько легко изменяется цена на рынке. Чем сильнее изменение цены и чем ниже при этом оборот, тем легче растет или падает рынок.
Торговые приказы здесь будем формировать так: Покупай, когда скользящая средняя EMV поднимается выше нуля, Продавай, когда скользящая средняя EMV опускается ниже нуля.
Подробнее на [Вики](https://ru.wikipedia.org/wiki/%D0%9B%D1%91%D0%B3%D0%BA%D0%BE%D1%81%D1%82%D1%8C_%D0%B4%D0%B2%D0%B8%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F) или у Колби.
[](https://habrastorage.org/webt/ua/gi/k-/uagik-0mkiy1ogi1omnafmw9nxw.png)
На рынках S&P, NYSE есть максимумы, на рынке Brent индикатор эффективен в широком диапазоне значений параметров. На рынках BTCUSD и EURUSD индикатор неэффективен.
### Индекс товарного канала, Сommodity channel index, CCI
ТИР CCI — индикатор, основанный на анализе текущего изменения отклонения цены от её среднего значения за определённый период и среднестатистического абсолютного значения этого параметра. ТИР применим к любым финансовым рынкам.
Торговые приказы будем формировать так: Покупай, когда CCI поднимается выше 100, Продавай, когда CCI опускается ниже 100.
Подробнее на [Вики](https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D0%B4%D0%B5%D0%BA%D1%81_%D1%82%D0%BE%D0%B2%D0%B0%D1%80%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BA%D0%B0%D0%BD%D0%B0%D0%BB%D0%B0) или у Колби.
[](https://habrastorage.org/webt/8z/vx/p0/8zvxp0kf9wlsi-n2dccyoyab6a8.png)
На рынках S&P500, NYSE, Brent нет зависимости результата торговли от значения параметра. На рынке BTCUSD зависимость есть (два чётких максимума), и в реальной торговле её можно попробовать поймать. На рынке EURUSD индикатор результата не принесёт.
**Исходники доступны на [GitHub](https://github.com/yaroslavbat/habr_article2/)**
Создайте общие объекты, загрузите данные, либо мои (как я говорил раньше, все рынки кроме последнего взяты с Yahoo Finance), либо свои, создайте функции для расчёта, рассчитайте данные результативности торгов (как я говорил раньше, расчёт каждого индикатора до 20 минут).
**Общий вывод относительно ТИР:** использование одного только индикатора для извлечения прибыли невозможно. Разные индикаторы по разному эффективны на разных рынках. Возможность получения прибыли при использовании нескольких хорошо настроенных индикаторов плюс дополнительной внешней информации не исключена.
Дополнительно:
Были проанализированы ещё три индикатора, которые не включены в статью. Но по ним не удалось получить никакого результата. Возможно, их изучение будет продолжено.
*Выполнять расчёты и сложное моделирование ТИР и финансовой деятельности вообще на Oracle Database весьма удобно.* | https://habr.com/ru/post/455050/ | null | ru | null |
# Прокачиваем PPTP-сервер или чем заменить Poptop

#### Введение
На сервере доступа в качестве pptp-сервера стоял проверенный Poptop последней стабильной версии (1.3.4). И все бы ничего, да вот только после повышения скоростей на тарифах производительность cервера начала проседать под увеличившейся нагрузкой. Причем очень значительно, так как этот pptp-сервер работает в режиме пользователя, а не ядра. Постоянные копирования пакетов и непосредственно с этим связанные операции переключения контекста, на выполнение которой также расходуются вычислительные ресурсы, вызвали серьезную деградацию производительности сервера при увеличившемся объеме передаваемого трафика. Необходимо было действовать.
#### Установка
Я уже слышал про accel-pptp и читал положительные отзывы о нем, а вот теперь настала пора попробовать его в деле.
Все действия будем производить в OC CentOS 5.7 x86\_64.
Распространяется accel-pptp в исходных кодах. Сам проект хостится на SourceForge, поэтому заходим на [сайт проекта](http://sourceforge.net/projects/accel-pptp/files/accel-pptp/) и качаем свежую версию (на момент написания этих строк — 0.8.5). В ОС, где мы будем разворачивать pptp-сервер, уже должны стоять ppp, а также все необходимое для сборки из исходников, включая исходные коды и заголовочные файлы ядра:
```
yum install kernel-headers kernel-devel
```
Не забываем проверить соответствие версий установленного ядра и устанавливаемых пакетов. Они должны соответствовать, иначе — обновлять ядро или искать и ставить версии пакетов для установленного ядра. Такое происходит, когда ОС давно не обновлялась, и в репозиториях лежат пакеты более новых версий.
После этого переходим в каталог с архивом исходников и распаковываем его:
```
tar xjf accel-pptp-0.8.5.tar.bz
```
Затем переходим в распакованный каталог:
```
cd accel-pptp-0.8.5
```
Файл README содержит, в принципе, достаточно информации по требованиям к системе, а также по установке. Можно заглянуть в сам Makefile и посмотреть, что именно будет собираться и устанавливаться. Для компиляции pptp-сервера выполняем команду:
```
make server
```
Для установки сервера выполняем:
```
make server_install
```
Исполняемый файл ставится по умолчанию в каталог **/usr/local/sbin**
Проверяем, как собрался и установился:
```
/usr/local/sbin/pptpd -v
```
Должна появиться строчка вроде этой:
```
accel-pptpd v0.8.5 compiled for pppd-2.4.4, linux-2.6.18-308.4.1.el5
```
Здесь должны быть указаны ваша версия pppd и ядра. Но и это еще не все. В 64-битных версиях ОС разделяемые библиотеки pppd находятся в **/usr/lib64/pppd/2.4.4**, а при установке pptp-сервера библиотека для pppd копируется в **/usr/lib/pppd/2.4.4**. Копируем содержимое **/usr/lib/pppd** в **/usr/lib64/pppd** и создаем символьную ссылку на **/usr/lib64/pppd** (иначе соединения не будет устанавливаться и в логах будет ругань на отсутсвие библиотеки ***pptp.so***):
```
ln -s /usr/lib64/pppd /usr/lib/pppd
```
#### Настройка
После этого можно корректировать конфиги.
*/etc/pptpd.conf*:
```
option /etc/ppp/options
debug
connections 498
localip 172.16.190.1
remoteip 172.16.190.2-250,172.16.191.2-250
```
*/etc/ppp/options*:
```
auth
refuse-pap
refuse-chap
require-mschap
require-mschap-v2
ms-dns 82.179.90.1
mtu 1400
mru 1400
nobsdcomp
novj
novjccomp
logfile /var/log/ppp/ppp.log
#plugin radius.so
#plugin radattr.so
```
Добавляем юзера в */etc/ppp/chap-secrets* для проверки работы сервера:
```
test * password *
```
(Смысл различных опций и параметров смотрим в man`ах — там все достаточно подробно и ясно описано)
Так как этот pptp-сервер выполняет почти всю работу в режиме ядра, основной функционал заключен в модуле, который необходимо подгрузить:
```
depmod; modprobe pptp
```
Чтобы каждый раз при перезагрузке модуль подключался самостоятельно, создадим исполняемый файл */etc/sysconfig/modules/pptp.modules* и впишем туда
```
modprobe pptp
```
Остается включить проброс пакетов между сетевыми интерфейсами на сервере, настроить фаервол на прием соединений на 1723 порт, а также правим маршрутизацию и nat.
#### Результаты (вместо итогов)
В Production`е pptp-сервер связан с RADIUS-сервером биллинговой системы для авторизации пользователей. Для наглядности приведу график загрузки CPU:

На этом графике отчетливо видно как с начала апреля выросли показатели загрузки процессора в связи с увеличением скоростей на тарифах в два раза. Количество пользователей при этом почти не изменилось:

Снижение количества операций переключения контекста в секунду — с 15000-25000 до 1000-2000
#### P.S.
Жду ваших замечаний и дополнений | https://habr.com/ru/post/142992/ | null | ru | null |
# Отслеживание исходящих ссылок с помощью Google Analytics
Google Analytics предоставляет широкие возможности по сбору и анализу статистики сайта, но, способ отслеживания исходящих ссылок, предлагаемый в справочном центре…
…мягко говоря, не очень удобен.
Поскольку сама возможность очень интересная, я решил все-таки использовать ее и при этом обойтись без прикрепления onclick к каждой внешней ссылке.
План
----
Можно, конечно, пройти по всем ссылкам на странице с помощью JavaScript и прикрепить к каждой соответствующий обработчик `onclick`, но это некрасиво, не оптимально и не работает, если посетитель кликнет не на саму ссылку на вложенную в нее картинку. К этому случаю очень подходит техника [делегации событий](http://designformasters.info/posts/seven-javascript-techniques/#event-delegation), достаточно будет одного обработчика `onclick` прикрепленного к элементу document.
Скрипт
------
Для упрощения скрипта использовалась библиотека JQuery, но поклонники других фреймворков смогут без труда его адаптировать.
```
//функция определяющая является ли ссылка внешней
function isLinkExternal(link)
{
var r = new RegExp('^https?://(?:www.)?'
+ location.host.replace(/^www./, ''));
return !r.test(link);
}
$(document).ready(function () {
$(document).bind('click', function(e) {
//получаем элемент с которым произошло событие
var target = (window.event) ? e.srcElement : e.target;
//клик мог быть и на вложенном в ссылку элементе
//нужно подняться до самой ссылки
while (target)
{
if (target.href) break;
target = target.parentNode;
}
if (!target || !isLinkExternal(target.href))
return true;
//отслеживаем ссылки в виде /outgoing/http/habrahabr.ru
var link = target.href;
link = '/outgoing/' + link.replace(/:\/\//, '/');
urchinTracker(link);
});
//в качестве бонуса отслеживаем клики на ссылках RSS
//хотя полной статистики по подписавшимся нам это не даст
$('#feed-link').bind('click',
function() { urchinTracker('/feed/'); });
$('#fullfeed-link').bind('click',
function() { urchinTracker('/fullfeed/'); });
$('#commentsfeed-link').bind('click',
function() { urchinTracker('/commentsfeed/'); });
});
```
Скрипт разработан [совместными усилиями на форуме htmlbook.ru](http://forum.htmlbook.ru/viewtopic.php?id=5140)
Другие приемы использования Google Analytics, можно найти на сайте [Design For Masters](http://designformasters.info/) в статье [Продвинутое использование Google Analytics](http://designformasters.info/posts/google-analytics-advanced-use/) | https://habr.com/ru/post/13849/ | null | ru | null |
# Делаем процесс разработки тяжеловесного программного обеспечения под микроконтроллеры более удобным (нет)
Сейчас уже никого не удивить микроконтроллерами с энергонезависимой (чаще всего Flash) памятью объемом 512 килобайт и более. Их стоимость постепенно снижается, а доступность напротив, растет. Наличие такого объема энергонезависимой памяти дает возможность писать «тяжелые» по объему занимаемой памяти приложения, облегчая при этом последующее сопровождение кода за счет использования готовых решений из различных стандартных библиотек. Однако это ведет к росту объема файла прошивки целевого устройства, который требуется каждый раз целиком заново загружать в энергонезависимую память микроконтроллера при малейшем изменении в коде.
Цель статьи — рассказать о методе построения проекта на C и/или C++, при котором, в случае изменения участка кода, отладка которого производится чаще всего, большая часть проекта не нуждалась в повторной перезаписи. А так же показать, почему данный метод не всегда является эффективным решением.
Требования к читателю
---------------------
По ходу повествования я буду предполагать, что читатель:
* владеет на среднем уровне языками C и C++;
* имеет опыт работы с микроконтроллерами на базе ядер Cortex-M3/Cortex-M4 (например серией stm32f4);
* знает, как происходит процесс сборки конечного файла пришивки (elf/bin) из исходников проекта;
* представляет себе, для чего нужны linker script файлы;
* имеет представление о секциях text, bss, data и прочих;
* работал с каким-либо из дистрибутивов linux;
* минимально владеет bash;
* имеет опыт работы с gcc под архитектуру процессоров Cortex-M3/Cortex-M4 (toolchain arm-none-eabi);
* имеет начальные навыки работы с cmake.
Суть метода
-----------
В «классическом» проекте под микроконтроллеры все неизменяемые данные (секции text, rodata, начальные значения data и прочие) обычно располагаются «подряд», начиная с адреса начала энергонезависимой памяти (в случае микроконтроллера на основе ядра Cortex-M3/Cortex-M4 — c адреса 0x08000000). В упрощенном виде карта использования энергонезависимой памяти программой микроконтроллера на базе ядра Cortex-M3/Cortex-M4, написанной с использованием C++, выглядит примерно так:

mem.ld файл для такого проекта, чаще всего, выглядит примерно следующим образом:
```
MEMORY
{
FLASH (rx) : ORIGIN = 0x08000000, LENGTH = 768K
RAM (xrw) : ORIGIN = 0x20000000, LENGTH = 112K
}
```
Здесь вся энергонезависимая память является одним единственным разделом с именем «FLASH», а вся оперативная память — раздел с именем «RAM». В таком виде, при изменении какого-то из участков кода, все остальные начинают «смещаться». Дабы этого избежать, можно «разбить» файл прошивки на какие-то логические блоки. Например, следующим образом:
* таблица векторов прерываний;
* собственные библиотеки;
* сторонние библиотеки (в которые не планируется вносить изменения);
* часто изменяемый код.
В этом случае при изменении какого-то участка кода, в конечном bin файле будет изменен только раздел, код в котором притерпел изменения и раздел, который был с ним как-то связан (например, таблица векторов прерываний если изменилось положение обработчика в каком-то из разделов).
По сути говоря, в проект добавляются **статические библиотеки**.
После получения bin файла проекта, его можно разбить на разделы и прошить каждый раздел независимо. Таким образом прошиваться будут лишь измененные участки. Это несет в себе еще и отсутствие необходимости в прошивке перед отладкой, поскольку предполагается, что в микроконтроллере сразу после сборки будет находиться актуальная прошивка и можно сразу запускать отладку.
Далее я подробно распишу, как реализовать это на реальном проекте. В конце статьи будут приведены плюсы и минусы такого решения.
Поле для эксперимента
---------------------
Прежде чем предложить какое-то новшество на работе, я пробую это на своем [домашнем проекте](https://github.com/Vadimatorik/ChiptunePlayer-2.22-Firmware). Так как его размеры приближены к размерам рутинных проектов на работе, то удается понять, жизнеспособно новшество или нет и какие нюансы несет в себе.
Характеристика проекта
----------------------
Проект содержит:
* код основного проекта на C++14 с использованием виртуальных таблиц, new/delete (работающие через кучу FreeRTOS), shared\_ptr (и прочие умные указатели) и другие прелести стандартных библиотек C++14;
* [FreeRTOS](https://www.freertos.org/) с использованием примерно 6 задач на поддержание инфраструктуры аппаратной периферии и порядка 10 на бизнес-логику (библиотека работы с графикой [MakiseGUI](https://habr.com/ru/post/325692/), обработка нажатий, работа с fat ([FatFS](http://elm-chan.org/fsw/ff/00index_e.html)) и прочее);
* 16 репозиториев с собственными библиотеками взаимодействия с аппаратной периферией на плате, заглушки системных вызовов и прочее;
При параметрах сборки -O0 -g3 код в полноценной реализации с поддержкой unicode, кириллиц и прочего занимает порядка 700 КБ. Однако на текущем этапе, когда аппаратная периферия работает стабильно, а в отладке нуждается лишь бизнес логика, то количество изменяемого кода примерно 20 КБ. Именно по этой причине, на первый взгляд, кажется, что текущий подход является идеальным решением проблемы (вариант с симуляцией на компьютере по некоторым причинам не рассматривается).
Перечень действий
-----------------
Для реализации описанного метода потребуется:
* собрать все субмодули как статические библиотеки (описание этого пункта не входит в перечень разбираемых пунктов данной статьи);
* переписать mem.ld;
* переписать section.ld;
* добавить в основной проект утилиту для извлечения разделов из конечного bin файла;
* добавить в проект вызов скрипта обновления энергонезависимой памяти микроконтроллера при обновлении файла прошивки.
Переписываем mem.ld
-------------------
Первым шагом является доработка «стандартного» mem.ld под текущую концепцию. При доработке следует учитывать, что очистка энергонезависимой памяти происходит по секторам. Подробнее о том, как структурированы сектора в конкретном микроконтроллере следует читать в документации (в случае микроконтроллеров stm32 — в reference manual). Каждый раздел может занимать не менее одного сектора (больше можно), иначе один раздел перепишет другой.
Так же следует учесть, что если библиотека использует глобальные переменные, то под эту библиотеку нужно зарезервировать место в оперативной памяти на этапе компоновки. Иначе можно столкнуться с неприятными багами, которые будет крайне трудно отловить. Например код библиотеки FatFS будет находиться в разделе ROM\_EXTERNAL\_LIBRARIES, но он требует 4 байта в RAM на этапе компоновки. А значит нужно позаботиться о том, чтобы в оперативной памяти был раздел под поля, которые будет использовать код из ROM\_EXTERNAL\_LIBRARIES. В данном примере это RAM\_EXTERNAL\_LIBRARIES.
Отдельного внимания заслуживает последний раздел в энергонезависимой памяти. В него пойдет все то, что не было разложено по соответсвующим разделам ранее, согласно section.ld (о нем далее).
**В контексте текущего проекта mem.ld будет выглядить так.**
```
/* Карта памяти микроконтроллера stm32f405rgt6
под проект ChiptunePlayer-2.22-MainBoard-v2-Firmware. */
MEMORY
{
/*-----------------------------FLASH-------------------------------*/
/* Сектора 0-1 отводятся загрузчику. */
ROM_BOOTLOADER (RX) : ORIGIN = 0x08000000, LENGTH = 32K
/* Сектора 2 используется для хранения настроек пользователя. */
ROM_SYSCFG_PAGE_1 (R) : ORIGIN = 0x08008000, LENGTH = 16K
/* Сектор 3 используется для хранения копии настроек пользователя. */
ROM_SYSCFG_PAGE_2 (R) : ORIGIN = 0x0800C000, LENGTH = 16K
/* Сектор 4 зарезервирован. */
ROM_RESERVE (R) : ORIGIN = 0x08010000, LENGTH = 16K
/* Сектора 5, 6, 7 предназначены для хранения
сторонник библиотек (FATFS, FREERTOS...). */
ROM_EXTERNAL_LIBRARIES (RX) : ORIGIN = 0x08020000, LENGTH = 384K
/* Сектора 8, 9 предназначены для хранения собственных библиотек
(драйвера дисплеев, графические объекты...). */
ROM_USER_LIBRARIES (RX) : ORIGIN = 0x08080000, LENGTH = 384K
/* Сектора 5, 6 предназначены для хранения
основного кода приложения. */
ROM_MAIN_PROGRAMM (RX) : ORIGIN = 0x080E0000, LENGTH = 128K
/*-----------------------------RAM---------------------------------*/
/* В режиме выполнения загрузчика карта RAM
перекрывает карту целевого устройства. */
RAM_PAGE_1 (RW) : ORIGIN = 0x20000000, LENGTH = 112K
RAM_PAGE_2 (RW) : ORIGIN = 0x2001C000, LENGTH = 16K
/* С этой областью памяти будут работать сторонние
библиотеки на манер FATFS или FreeRTOS. */
RAM_EXTERNAL_LIBRARIES (RW) : ORIGIN = 0x20000000, LENGTH = 10K
/* С этой областью памяти будут работать библиотеки пользователя. */
RAM_USER_LIBRARIES (RW) : ORIGIN = 0x20002800, LENGTH = 90K
/* С этой областью RAM будет работать код пользователя. */
RAM_MAIN_PROGRAMM (RW) : ORIGIN = 0x20019000, LENGTH = 27K
/* Немного памяти RAM выделяется под начальный стек.
До запуска планировщика FreeRTOS. */
RAM_MAIN_PROGRAMM_STACK (RW) : ORIGIN = 0x2001FC00, LENGTH = 1K
}
```
Переписываем section.ld
-----------------------
После того, как имеющаяся карта памяти была поделена на разделы, следует описать, что в какой раздел будет помещено. Для каждой библиотеки (при наличии соответствующей секции в библиотеке) следует указать где располагаются секции .text, .rodata, .data, .bss и прочие. Перечень имеющихся в библиотеке секций можно посмотреть с помощью objdump. Например для библиотеки libstdc++\_nano.a требуется указать где расположить секции text, ARM.attributes, rodata, data, bss, COMMON.
**В контексте текущего проекта section.ld будет выглядить так.**
```
/* Под начальный стек до запуска планировщика у нас есть своя секция в RAM. */
__estack = ORIGIN(RAM_MAIN_PROGRAMM_STACK) + LENGTH(RAM_MAIN_PROGRAMM_STACK);
/* Размер начального стека. */
__stack_size = LENGTH(RAM_MAIN_PROGRAMM_STACK);
/* Программа начинается с метода Reset_Handler. */
ENTRY(Reset_Handler)
/* Описание секций. */
SECTIONS
{
/*---------------------ROM область загрузчика------------------------*/
.section_bootloader : ALIGN(4)
{
/* На данный момент загрузчик отсутствует.
Поэтому на месте кода загрузчика будет находиться
только таблица векторов прерываний основного проекта.
Таблица векторов прерываний должна быть передана
компоновщику как отдельный .o файл, а не как часть
библиотеки.*/
. = ALIGN(4);
KEEP(*(.user_code_isr_vector .user_code_isr_vector*))
. = ALIGN(4);
} >ROM_BOOTLOADER
/*----------------ROM область под внешние библиотеки-----------------*/
/* Код. */
.section_external_libraries_text : ALIGN(4)
{
/* Библиотеки компилятора. */
. = ALIGN(4);
*libstdc++_nano.a:*(.text .text*);
. = ALIGN(4);
*libgcc.a:*(.text .text*);
. = ALIGN(4);
*libg_nano.a:*(.text .text*);
/* Библиотеки пользователя */
. = ALIGN(4);
*libSTM32F4_LOW_LEVEL_BY_ST.a:*(.text .text*);
. = ALIGN(4);
*libFATFS.a:*(.text .text*);
. = ALIGN(4);
*libFREERTOS.a:*(.text .text*);
. = ALIGN(4);
*libMAKISE_GUI.a:*(.text .text*);
. = ALIGN(4);
} >ROM_EXTERNAL_LIBRARIES
/* Секции, созданные компилятором */
.section_external_libraries_required_by_the_compiler : ALIGN(4)
{
/* Библиотеки компилятора. */
. = ALIGN(4);
*libgcc.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libstdc++_nano.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libg_nano.a:*(.ARM.attributes .ARM.attributes*);
/* Библиотеки пользователя */
. = ALIGN(4);
*libSTM32F4_LOW_LEVEL_BY_ST.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libFATFS.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libFREERTOS.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libMAKISE_GUI.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
} >ROM_EXTERNAL_LIBRARIES
/* Сущности с неизменяемыми значениями. */
.section_external_libraries_rodata : ALIGN(4)
{
/* Библиотеки компилятора. */
. = ALIGN(4);
*libgcc.a:*(.rodata .rodata*);
. = ALIGN(4);
*libstdc++_nano.a:*(.rodata .rodata*);
. = ALIGN(4);
*libg_nano.a:*(.rodata .rodata*);
/* Библиотеки пользователя */
. = ALIGN(4);
*libSTM32F4_LOW_LEVEL_BY_ST.a:*(.rodata .rodata*);
. = ALIGN(4);
*libFATFS.a:*(.rodata .rodata*);
. = ALIGN(4);
*libFREERTOS.a:*(.rodata .rodata*);
. = ALIGN(4);
*libMAKISE_GUI.a:*(.rodata .rodata*);
. = ALIGN(4);
} >ROM_EXTERNAL_LIBRARIES
/*-----------------------Библиотеки пользователя---------------------*/
/* Код. */
.section_user_libraries_text : ALIGN(4)
{
. = ALIGN(4);
*libUSER_FREERTOS_LEVEL.a:*(.text .text*);
. = ALIGN(4);
*libUSER_BSP_LEVEL.a:*(.text .text*);
. = ALIGN(4);
*libMC_INTERRUPT.a:*(.text .text*);
. = ALIGN(4);
*libMC_HARDWARE.a:*(.text .text*);
. = ALIGN(4);
*libPCB_HARDWARE.a:*(.text .text*);
. = ALIGN(4);
*libUSER_STARTUP.a:*(.text .text*);
. = ALIGN(4);
*libBUTTONS.a:*(.text .text*);
. = ALIGN(4);
*libCHIPTUNE.a:*(.text .text*);
. = ALIGN(4);
*libDIGITAL_POTENTIOMETER.a:*(.text .text*);
. = ALIGN(4);
*libLCD_DRIVER.a:*(.text .text*);
. = ALIGN(4);
*libMAKISE_GUI_ELEMENTS_BY_VADIMATORIK_ELEMENTS_BY_VADIMATORIK.a:*(.text .text*);
. = ALIGN(4);
*libMC_HARDWARE_INTERFACES_IMPLEMENTATION_FOR_STM32.a:*(.text .text*);
. = ALIGN(4);
*libMICROSD_LOW_LEVEL_DRIVER.a:*(.text .text*);
. = ALIGN(4);
*libSHIFT_REGISTER.a:*(.text .text*);
. = ALIGN(4);
*libWAVE_GENERATORS.a:*(.text .text*);
. = ALIGN(4);
*libRUN_TIME_LOGGER.a:*(.text .text*);
. = ALIGN(4);
} >ROM_USER_LIBRARIES
/* Секции, созданные компилятором */
.section_user_libraries_required_by_the_compiler : ALIGN(4)
{
. = ALIGN(4);
*libUSER_FREERTOS_LEVEL.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libUSER_BSP_LEVEL.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libMC_INTERRUPT.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libMC_HARDWARE.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libPCB_HARDWARE.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libUSER_STARTUP.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libUSER_CODE.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libBUTTONS.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libCHIPTUNE.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libDIGITAL_POTENTIOMETER.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libLCD_DRIVER.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libMAKISE_GUI_ELEMENTS_BY_VADIMATORIK_ELEMENTS_BY_VADIMATORIK.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libMC_HARDWARE_INTERFACES_IMPLEMENTATION_FOR_STM32.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libMICROSD_LOW_LEVEL_DRIVER.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libSHIFT_REGISTER.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libWAVE_GENERATORS.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
*libRUN_TIME_LOGGER.a:*(.ARM.attributes .ARM.attributes*);
. = ALIGN(4);
} >ROM_EXTERNAL_LIBRARIES
/* Сущности с неизменяемыми значениями. */
.section_user_libraries_rodata : ALIGN(4)
{
. = ALIGN(4);
*libUSER_FREERTOS_LEVEL.a:*(.rodata .rodata*);
. = ALIGN(4);
*libUSER_BSP_LEVEL.a:*(.rodata .rodata*);
. = ALIGN(4);
*libMC_INTERRUPT.a:*(.rodata .rodata*);
. = ALIGN(4);
*libMC_HARDWARE.a:*(.rodata .rodata*);
. = ALIGN(4);
*libPCB_HARDWARE.a:*(.rodata .rodata*);
. = ALIGN(4);
*libUSER_STARTUP.a:*(.rodata .rodata*);
. = ALIGN(4);
*libBUTTONS.a:*(.rodata .rodata*);
. = ALIGN(4);
*libCHIPTUNE.a:*(.rodata .rodata*);
. = ALIGN(4);
*libDIGITAL_POTENTIOMETER.a:*(.rodata .rodata*);
. = ALIGN(4);
*libLCD_DRIVER.a:*(.rodata .rodata*);
. = ALIGN(4);
*libMAKISE_GUI_ELEMENTS_BY_VADIMATORIK_ELEMENTS_BY_VADIMATORIK.a:*(.rodata .rodata*);
. = ALIGN(4);
*libMC_HARDWARE_INTERFACES_IMPLEMENTATION_FOR_STM32.a:*(.rodata .rodata*);
. = ALIGN(4);
*libMICROSD_LOW_LEVEL_DRIVER.a:*(.rodata .rodata*);
. = ALIGN(4);
*libSHIFT_REGISTER.a:*(.rodata .rodata*);
. = ALIGN(4);
*libWAVE_GENERATORS.a:*(.rodata .rodata*);
. = ALIGN(4);
*libRUN_TIME_LOGGER.a:*(.rodata .rodata*);
. = ALIGN(4);
} >ROM_USER_LIBRARIES
/*-------------------------Основная программа------------------------*/
/* Код. */
.section_user_code_text : ALIGN(4)
{
. = ALIGN(4);
*(.text .text.*)
. = ALIGN(4);
} >ROM_MAIN_PROGRAMM
/* Секции, созданные компилятором */
.sections_user_code_required_by_the_compiler : ALIGN(4)
{
. = ALIGN(4);
*(.glue_7 .glue_7*) /* Собственные методы-прослойки для ARMv7 */
. = ALIGN(4);
*(.glue_7t .glue_7t*)
. = ALIGN(4);
*(.vfp11_veneer .vfp11_veneer*) /* Прочие секции поддержки. */
. = ALIGN(4);
*(.v4_bx .v4_bx*)
. = ALIGN(4);
*(.iplt .iplt*)
. = ALIGN(4);
*(.rel.dyn .rel.dyn*)
. = ALIGN(4);
KEEP(*(.eh_frame .eh_frame*)) /* Для использования исключений в CPP. */
. = ALIGN(4);
*(.eh_framehdr .eh_framehdr*)
. = ALIGN(4);
*(.ARM.attributes .ARM.attributes.*) /* Песь оставшийся дополнительный код,
созданный компилятором. */
. = ALIGN(4); *(vtable) /* C++ virtual tables */
PROVIDE_HIDDEN (__preinit_array_start = .); /* Список методов, вызываемых перед конструкторами. */
. = ALIGN(4);
KEEP(*(.preinit_array_sysinit .preinit_array_sysinit*))
. = ALIGN(4);
KEEP(*(.preinit_array_platform .preinit_array_platform.*))
. = ALIGN(4);
KEEP(*(.preinit_array .preinit_array.*))
PROVIDE_HIDDEN (__preinit_array_end = .);
PROVIDE_HIDDEN (__init_array_start = .); /* Вызов конструкторов глобальных объектов. */
. = ALIGN(4);
KEEP(*(SORT(.init_array.*)))
. = ALIGN(4);
KEEP(*(.init_array))
. = ALIGN(4);
PROVIDE_HIDDEN (__init_array_end = .);
PROVIDE_HIDDEN (__fini_array_start = .); /* Вызов деструкторов глобальных объектов. */
. = ALIGN(4);
KEEP(*(SORT(.fini_array.*)))
. = ALIGN(4);
KEEP(*(.fini_array))
. = ALIGN(4);
PROVIDE_HIDDEN (__fini_array_end = .);
. = ALIGN(4);
KEEP(*(.cfmconfig))
. = ALIGN(4);
*(.after_vectors .after_vectors.*)
. = ALIGN(4);
} >ROM_MAIN_PROGRAMM
/* Сущности с неизменяемыми значениями. */
.section_user_code_rodata : ALIGN(4)
{
. = ALIGN(4); *(.rodata .rodata.*)
. = ALIGN(4);
} >ROM_MAIN_PROGRAMM
/* Для stack trace. */
.ARM.exidx :
{
. = ALIGN(4);
*(.ARM.extab* .gnu.linkonce.armextab.*)
. = ALIGN(4);
*(.ARM.exidx* .gnu.linkonce.armexidx.*)
. = ALIGN(4);
} > ROM_MAIN_PROGRAMM
/*-------------------------------RAM-----------------------------*/
/* Начальные значения изменяемых сущностей. */
.section_external_libraries_data : ALIGN(4)
{
. = ALIGN(4); __external_lib_data_start = . ;
/* Библиотеки компилятора. */
. = ALIGN(4);
*libgcc.a:*(.data .data*);
. = ALIGN(4);
*libstdc++_nano.a:*(.data .data*);
. = ALIGN(4);
*libg_nano.a:*(.data .data*);
/* Библиотеки пользователя */
. = ALIGN(4);
*libSTM32F4_LOW_LEVEL_BY_ST.a:*(.data .data*);
. = ALIGN(4);
*libFATFS.a:*(.data .data*);
. = ALIGN(4);
*libFREERTOS.a:*(.data .data*);
. = ALIGN(4);
*libMAKISE_GUI.a:*(.data .data*);
. = ALIGN(4);
__external_lib_data_end = . ;
} >RAM_EXTERNAL_LIBRARIES AT> ROM_EXTERNAL_LIBRARIES
/* Область с нулевыми начальными значениями в RAM */
.section_external_libraries_bss : ALIGN(4)
{
. = ALIGN(4);
__external_lib_bss_start = .;
/* Библиотеки компилятора. */
. = ALIGN(4);
*libgcc.a:*(.bss .bss*);
. = ALIGN(4);
*libstdc++_nano.a:*(.bss .bss*);
. = ALIGN(4);
*libg_nano.a:*(*COMMON);
. = ALIGN(4);
*libgcc.a:*(*COMMON);
. = ALIGN(4);
*libstdc++_nano.a:*(*COMMON);
. = ALIGN(4);
*libg_nano.a:*(*COMMON);
/* Библиотеки пользователя */
. = ALIGN(4);
*libSTM32F4_LOW_LEVEL_BY_ST.a:*(.bss .bss*);
. = ALIGN(4);
*libFATFS.a:*(.bss .bss*);
. = ALIGN(4);
*libFREERTOS.a:*(.bss .bss*);
. = ALIGN(4);
*libMAKISE_GUI.a:*(.bss .bss*);
. = ALIGN(4);
*libSTM32F4_LOW_LEVEL_BY_ST.a:*(*COMMON);
. = ALIGN(4);
*libFATFS.a:*(*COMMON);
. = ALIGN(4);
*libFREERTOS.a:*(*COMMON);
. = ALIGN(4);
*libMAKISE_GUI.a:*(*COMMON);
. = ALIGN(4); __external_lib_bss_end = .;
} >RAM_EXTERNAL_LIBRARIES
/* Начальные значения изменяемых сущностей. */
.section_user_libraries_data : ALIGN(4)
{
. = ALIGN(4); __user_lib_data_start = . ;
. = ALIGN(4);
*libUSER_FREERTOS_LEVEL.a:*(.data .data*);
. = ALIGN(4);
*libUSER_BSP_LEVEL.a:*(.data .data*);
. = ALIGN(4);
*libMC_INTERRUPT.a:*(.data .data*);
. = ALIGN(4);
*libMC_HARDWARE.a:*(.data .data*);
. = ALIGN(4);
*libPCB_HARDWARE.a:*(.data .data*);
. = ALIGN(4);
*libUSER_STARTUP.a:*(.data .data*);
. = ALIGN(4);
*libBUTTONS.a:*(.data .data*);
. = ALIGN(4);
*libCHIPTUNE.a:*(.data .data*);
. = ALIGN(4);
*libDIGITAL_POTENTIOMETER.a:*(.data .data*);
. = ALIGN(4);
*libLCD_DRIVER.a:*(.data .data*);
. = ALIGN(4);
*libMAKISE_GUI_ELEMENTS_BY_VADIMATORIK_ELEMENTS_BY_VADIMATORIK.a:*(.data .data*);
. = ALIGN(4);
*libMC_HARDWARE_INTERFACES_IMPLEMENTATION_FOR_STM32.a:*(.data .data*);
. = ALIGN(4);
*libMICROSD_LOW_LEVEL_DRIVER.a:*(.data .data*);
. = ALIGN(4);
*libSHIFT_REGISTER.a:*(.data .data*);
. = ALIGN(4);
*libWAVE_GENERATORS.a:*(.data .data*);
. = ALIGN(4);
*libRUN_TIME_LOGGER.a:*(.data .data*);
. = ALIGN(4); __user_lib_data_end = . ;
} >RAM_USER_LIBRARIES AT> ROM_USER_LIBRARIES
.section_user_libraries_bss : ALIGN(4)
{
. = ALIGN(4); __user_lib_bss_start = .;
. = ALIGN(4);
*libUSER_FREERTOS_LEVEL.a:*(.bss .bss*);
. = ALIGN(4);
*libUSER_BSP_LEVEL.a:*(.bss .bss*);
. = ALIGN(4);
*libMC_INTERRUPT.a:*(.bss .bss*);
. = ALIGN(4);
*libMC_HARDWARE.a:*(.bss .bss*);
. = ALIGN(4);
*libPCB_HARDWARE.a:*(.bss .bss*);
. = ALIGN(4);
*libUSER_CODE.a:*(.bss .bss*);
. = ALIGN(4);
*libBUTTONS.a:*(.bss .bss*);
. = ALIGN(4);
*libCHIPTUNE.a:*(.bss .bss*);
. = ALIGN(4);
*libDIGITAL_POTENTIOMETER.a:*(.bss .bss*);
. = ALIGN(4);
*libLCD_DRIVER.a:*(.bss .bss*);
. = ALIGN(4);
*libMAKISE_GUI_ELEMENTS_BY_VADIMATORIK_ELEMENTS_BY_VADIMATORIK.a:*(.bss .bss*);
. = ALIGN(4);
*libMC_HARDWARE_INTERFACES_IMPLEMENTATION_FOR_STM32.a:*(.bss .bss*);
. = ALIGN(4);
*libMICROSD_LOW_LEVEL_DRIVER.a:*(.bss .bss*);
. = ALIGN(4);
*libSHIFT_REGISTER.a:*(.bss .bss*);
. = ALIGN(4);
*libWAVE_GENERATORS.a:*(.bss .bss*);
. = ALIGN(4);
*libUSER_FREERTOS_LEVEL.a:*(.bss .bss*);
. = ALIGN(4);
*libRUN_TIME_LOGGER.a:*(.bss .bss*);
. = ALIGN(4);
*libUSER_BSP_LEVEL.a:*(*COMMON);
. = ALIGN(4);
*libMC_INTERRUPT.a:*(*COMMON);
. = ALIGN(4);
*libMC_HARDWARE.a:*(*COMMON);
. = ALIGN(4);
*libPCB_HARDWARE.a:*(*COMMON);
. = ALIGN(4);
*libUSER_CODE.a:*(*COMMON);
. = ALIGN(4);
*libBUTTONS.a:*(*COMMON);
. = ALIGN(4);
*libCHIPTUNE.a:*(*COMMON);
. = ALIGN(4);
*libDIGITAL_POTENTIOMETER.a:*(*COMMON);
. = ALIGN(4);
*libLCD_DRIVER.a:*(*COMMON);
. = ALIGN(4);
*libMAKISE_GUI_ELEMENTS_BY_VADIMATORIK_ELEMENTS_BY_VADIMATORIK.a:*(*COMMON);
. = ALIGN(4);
*libMC_HARDWARE_INTERFACES_IMPLEMENTATION_FOR_STM32.a:*(*COMMON);
. = ALIGN(4);
*libMICROSD_LOW_LEVEL_DRIVER.a:*(*COMMON);
. = ALIGN(4);
*libSHIFT_REGISTER.a:*(*COMMON);
. = ALIGN(4);
*libWAVE_GENERATORS.a:*(*COMMON);
. = ALIGN(4);
*libRUN_TIME_LOGGER.a:*(.COMMON*);
. = ALIGN(4); __user_lib_bss_end = .;
} >RAM_USER_LIBRARIES
/* Начальные значения изменяемых сущностей. */
.section_user_code_data : ALIGN(4)
{
. = ALIGN(4); __user_code_data_start = . ;
. = ALIGN(4); *(.data .data.*)
. = ALIGN(4); __user_code_data_end = . ;
} >RAM_MAIN_PROGRAMM AT> ROM_MAIN_PROGRAMM
.section_user_code_bss : ALIGN(4)
{
. = ALIGN(4); __bss_start__ = .; __user_code_bss_start = .;
*(.bss .bss.*)
*(COMMON)
. = ALIGN(4); __bss_end__ = .; __user_code_bss_end = .;
} >RAM_MAIN_PROGRAMM
__external_lib_data_in_rom_start = LOADADDR(.section_external_libraries_data);
__user_lib_data_in_rom_start = LOADADDR(.section_user_libraries_data);
__user_code_data_in_rom_start = LOADADDR(.section_user_code_data);
/*-------------------------Отладочная информация-----------------*/
/* Stabs debugging sections. */
.stab 0 : { *(.stab) }
.stabstr 0 : { *(.stabstr) }
.stab.excl 0 : { *(.stab.excl) }
.stab.exclstr 0 : { *(.stab.exclstr) }
.stab.index 0 : { *(.stab.index) }
.stab.indexstr 0 : { *(.stab.indexstr) }
.comment 0 : { *(.comment) }
/*
* DWARF debug sections.
* Symbols in the DWARF debugging sections are relative to the beginning
* of the section so we begin them at 0.
*/
/* DWARF 1 */
.debug 0 : { *(.debug) }
.line 0 : { *(.line) }
/* GNU DWARF 1 extensions */
.debug_srcinfo 0 : { *(.debug_srcinfo) }
.debug_sfnames 0 : { *(.debug_sfnames) }
/* DWARF 1.1 and DWARF 2 */
.debug_aranges 0 : { *(.debug_aranges) }
.debug_pubnames 0 : { *(.debug_pubnames) }
/* DWARF 2 */
.debug_info 0 : { *(.debug_info .gnu.linkonce.wi.*) }
.debug_abbrev 0 : { *(.debug_abbrev) }
.debug_line 0 : { *(.debug_line) }
.debug_frame 0 : { *(.debug_frame) }
.debug_str 0 : { *(.debug_str) }
.debug_loc 0 : { *(.debug_loc) }
.debug_macinfo 0 : { *(.debug_macinfo) }
/* SGI/MIPS DWARF 2 extensions */
.debug_weaknames 0 : { *(.debug_weaknames) }
.debug_funcnames 0 : { *(.debug_funcnames) }
.debug_typenames 0 : { *(.debug_typenames) }
.debug_varnames 0 : { *(.debug_varnames) }
.debug_macro 0 : { *(.debug_macro) }
.debug_ranges 0 : { *(.debug_ranges) }
}
```
Добавляем в основной проект утилиту для извлечения разделов из конечного bin файла
----------------------------------------------------------------------------------
К сожалению, не удалось найти ни в objcopy ни в objdump флагов для извлечения кода между определнными адресами из elf файла. Существует флаг **--only-section**, однако он не учитывает того факта, что после всех перечисленных в section.ld сущностей раздела в энергонезависимой памяти еще помещается отладочная информация. Без нее конечная прошивка, собранная из кусочков, работать не будет (по понятным причинам). Поэтому пришлось написать простенькую [утилиту](https://github.com/Vadimatorik/bin_extractor), которая принимает общий bin файл и по указанному промежутку адресов извлекает в отдельный файл требуемый участок. Однако тут возникает следующий нюанс. По умолчанию objcopy заполняет пространство между секциями 0-ми. Однако пустое пространство в flash памяти — это 0xFF. Для решения этой проблемы требуется компоновать выходной bin файл с флагом **--gap-fill=0xff**.
Добавить в проект вызов скрипта обновления энергонезависимой памяти микроконтроллера при обновлении файла прошивки
------------------------------------------------------------------------------------------------------------------
Для отслеживания изменений в проекте следует после каждой пересборки elf файла вызывать скрипт проверки, который извлечет из elf файла итоговый bin файл, из него нужный раздел, сравнвает с ранее извлеченным, если такой был, и в случае возникновения различий, обновляет раздел в памяти микроконтроллера.
**Код скрипта сравнения**
```
#!/bin/bash
#
# $1 - старый файл. Он может отсутствовать, если происходит первая компиляция.
# $2 - только что извлеченный из elf файл.
# $3 - строка для прошивки требуемого сектора STM32.
#
echo "Old file name: $1"
echo "New file name: $2"
# Предполагаем, что ничего перепрошивать не придется.
flag_rewrite=0
# Если это первая компиляция, то старого файла не существует и можно просто
# переименовать новый, чтобы он назывался как старый (потому что прошивка
# происходит по имени старого файла).
# Если это новая компиляция, то нужно узнать, различаются ли чем-то файлы или нет
# если да, то надо заменить старый новым. Если нет, то удалить новый.
if [ -e $1 ]
then # Если это уже не первая компиляция и файл существовал.
echo "Both files exist."
# Получаем md5 сумму входных файлов, анализируя файл в бинарном формате.
buf=$(md5sum $1 --binary)
md5_old=${buf:0:32} # Из вывода нам нужна только md5 без имени флага.
# Это первые 32 символа.
buf=$(md5sum $2 --binary)
md5_new=${buf:0:32}
echo "Started file comparison."
if [ $md5_old == $md5_new ]
then # Если файл не был обновлен, удаляем новый.
echo "The file has not been updated."
echo "The new file will be deleted."
rm $2
echo "Removed."
else # Если они разные, тогда заменяем старый новым.
echo "The file has been modified."
echo "Old will be replaced by new."
mv $2 $1
echo "Replaced."
flag_rewrite=1 # Придется перепрошивать этот сектор.
fi
else # Если это первая компиляция.
echo "Old file does not exist."
echo "New will be renamed to old."
mv $2 $1 # Переименовываем файл под старый.
flag_rewrite=1 # Придется перепрошивать этот сектор.
echo "Renamed."
fi
# Если файл был обновлен или только появился, то им надо прошить контроллер.
if [ $flag_rewrite -eq 1 ]
then
echo "Started flashing."
echo "CMD params: $3"
$3
fi
```
В самом проекте можно вызвать cmake функцию, которая сделает все необходимое:
**Cmake функция обновления**
```
function(write_sector SECTOR ADDR_BASE ADDR_START ADDR_END)
add_custom_command(TARGET ${PROJECT_NAME}.elf POST_BUILD
COMMAND ${ARM_OBJCOPY} --output-target=binary --gap-fill=0xff ${PROJECT_BINARY_DIR}/${PROJECT_NAME}.elf ${PROJECT_BINARY_DIR}/${PROJECT_NAME}_all.bin
COMMENT "Creating a binary file of the <<${SECTOR}>> sector"
COMMAND ${BIN_EXTRACTOR} -p ${PROJECT_BINARY_DIR}/${PROJECT_NAME}_all.bin -o ${PROJECT_BINARY_DIR}/${PROJECT_NAME}_section_${SECTOR}_new.bin -b ${ADDR_BASE} -s ${ADDR_START} -e ${ADDR_END}
COMMAND cd ${CMAKE_SOURCE_DIR} && ./cmp.sh ${PROJECT_BINARY_DIR}/${PROJECT_NAME}_section_${SECTOR}.bin ${PROJECT_BINARY_DIR}/${PROJECT_NAME}_section_${SECTOR}_new.bin "${STM32PROG} -c port=${STM32PROG_PORT} freq=${STM32PROG_FREQ} -w ${PROJECT_BINARY_DIR}/${PROJECT_NAME}_section_${SECTOR}.bin ${ADDR_START}")
endfunction(write_sector)
```
Для записи функция использует stm32programmer.
**Пример использования функции из кода проекта**
```
if (STM32PROG_USE STREQUAL "ON")
write_sector("bootloader" ${SECTION_BOOTLOADER_ADDRESS} ${SECTION_BOOTLOADER_ADDRESS} ${SECTION_SYSCFG_PAGE_1_ADDRESS})
write_sector("external_libraries" ${SECTION_BOOTLOADER_ADDRESS} ${SECTION_EXTERNAL_LIB_ADDRESS} ${SECTION_USER_LIBRARIES_ADDRESS})
write_sector("user_libraries" ${SECTION_BOOTLOADER_ADDRESS} ${SECTION_USER_LIBRARIES_ADDRESS} ${SECTION_USER_CODE_ADDRESS})
write_sector("main_programm" ${SECTION_BOOTLOADER_ADDRESS} ${SECTION_USER_CODE_ADDRESS} ${ADDR_END_FLASH})
endif ()
```
Выводы
------
Плюсы данного подхода:
1. в 95% случаев обновляется действительно то, что нужно;
Минусы данного подхода:
1. нет никакого выигрыша в скорости, поскольку перед каждой прошивкой требуется загружать в микроконтроллер загрузчик для прошивки энергонезависимой памяти (это делается автоматически stm32programmer-ом). Как раз напротив, когда проект пересобирается полностью, то зачастую приходиться шить заново все разделы;
2. размер section.ld отбивает всякое желание добавить или изменить в нем что-то. Если и потребуется применить данную методологию в реальном проекте, то придется писать удобный GUI для редактирования этого файла;
3. в случае, если устройство управляет собственным питанием, то можно не заметить, что один из разделов не был зашит верно (при просадке напряжения, например) и долго отлаживать разделы из разных сборок :).
Посмотреть на рабочую версию текущего метода можно посмотреть в [этом коммите](https://github.com/Vadimatorik/ChiptunePlayer-2.22-Firmware/tree/5c6c67fd3ee138cbac5309568f81fba5b98c1511). Проект можно собрать в CLion-е, предварительно собрав утилиту для извлечения раздела из bin файла. | https://habr.com/ru/post/437848/ | null | ru | null |
# Maven, где мои артефакты? Еще одна статья про управление зависимостями
Легко жить с maven, когда есть доступ к центральному репозиторию, или у компании есть один корпоративный репозиторий. Все меняется, если работаешь в закрытом контуре, а количество репозиториев ближе к сотне. Под катом история о том, где искать потерявшийся артефакт и как для этого приготовить maven.
**Что будет?**
В статье будут примеры настройки settings, pom, описание поиска в репозиториях. Не будет настройки nexus\artifactory, проблем связанных с ними.
#### Начнем с простого
Добавим зависимость на spring в своем pom.
```
org.springframework
spring-webmvc
5.0.0.RELEASE
```
**pom.xml**
```
4.0.0
test
dependency-testing
1.0.0
Dependency test
org.springframework
spring-webmvc
5.0.0.RELEASE
```
Предположим, что мы только установили maven и не меняли никаких настроек. После инициализации поиска зависимостей через сборку maven, или через ide, maven сначала проверит наличие артефакта в локальном репозитории в директории `${user.home}/.m2/repository/`.
Если в локальном репозитории артефакта нет, то запрос пойдет в репозиторий *central*.

Мы не указывали этот репозиторий, но он всегда добавляется мавеном при сборке.
Сконфигурируем settings.xml
**settings.xml**
```
xml version="1.0" encoding="UTF-8"?
nexus-corp
nexus-corp-repo
http://nexus.mycompany.com:8081/nexus/central/
nexus
nexus
```
**Зачем мне settings.xml?**В нем можно настроить репозитории, зеркала, прокси, переменные среды и т.д. Прописать один раз и использовать во всех проектах (в идеальном мире)
[Подробнее про settings.xml](https://maven.apache.org/settings.html)
С такой конфигурацией порядок поиска будет аналогичен варианту с конфигурацией по умолчанию, но появится дополнительный шаг. Перед тем как пойти в *central*, мавен попытается скачать артефакт из репозитория *nexus-corp*.

#### Зеркало
Добавим зеркало для репозитория nexus-corp.
```
nexus-corp-mirror
nexus-corp-mirror
http://nexus.mirror.mycompany.com:8081/nexus/central/
nexus-corp
```
**Когда нужно зеркало?*** недоступен внешний репозиторий
* для экономии внешнего трафика
* чтобы переопределить репозиторий из settings\pom
[Подробнее про зеркала](https://maven.apache.org/guides/mini/guide-mirror-settings.html)
Когда maven дойдет до шага поиска в репозитории nexus-corp, то вместо него попытается найти артефакт в репозитории *nexus-corp-mirror*.
При этом если он не найдет его в *nexus-corp-mirror*, то запроса в *nexus-corp* не будет.

А если добавить зеркало с wildcard, то все запросы будут направлены на него, если не указаны другие зеркала.
```
all
nexus-corp-mirror
http://nexus.mirror.mycompany.com:8081/nexus/central/
\*
```
#### Порядок поиска
В общем случае схема поиска будет такой:
1. Поиск в локальном репо
2. Поиск в репозиториях в порядке объявления с учетом приоритета (либо в их зеркалах)
В конце добавляется *central*. Он всегда последний, если не был перезаписан.

#### Merge конфигураций
Перед выполнением сборки maven «склеивает» конфиги:
* глобальный — `${maven.home}/conf/settings.xml`
* пользовательский — `${user.home}/.m2/settings.xml`
* проектный — `pom.xml`
С приоритетом конфигурацией у меня случился небольшой конфуз. [В документации](https://maven.apache.org/settings.html) написано:
> The former settings.xml are also called global settings, the latter settings.xml are referred to as user settings. If both files exists, their contents gets merged, with the user-specific settings.xml being dominant.
По факту, если при склеивании не возникло конфликтов, то приоритет репозиториев следующий, в порядке уменьшения:
* глобальный
* пользовательский
* pom.xml
Из примеров ниже порядок будет следующий:
* repo-global-setting1
* repo-user-setting1
* repo-user-setting2
* repo-pom1
* central
**global-settings.xml**
```
xml version="1.0" encoding="UTF-8"?
repo-global-setting1
http://nexus.mycompany.com:8081/nexus/repo-global-setting1-url/
g-nexus
g-nexus
```
**user-settings.xml**
```
xml version="1.0" encoding="UTF-8"?
repo-user-setting1
http://nexus.mycompany.com:8081/nexus/repo-user-setting1-url/
repo-user-setting2
http://nexus.mycompany.com:8081/nexus/repo-user-setting2-url/
nexus
nexus
```
**pom.xml**
```
4.0.0
test
dependency-testing
1.0.0
Dependency test
repo-pom1
http://nexus.mycompany.com:8081/nexus/repo-pom1-url/
org.slf4j
slf4j-api
1.7.25
```
С разрешением конфликтов появилось еще большее непонимание. Если объявить репозиторий с одним id в разных профилях, то приоритет имеет глобальный конфиг, но если объявить профили с одинаковым id, то приоритет имеет пользовательский. Дальше экспериментировать уже не стал.
#### Поиск пропавших
Так что делать с ошибкой `Could not resolve dependencies for project myproject:jar:1.0.0: Failed to collect dependencies at com.someproject:artifact-name:jar:1.0.0`?
1. Проверить правильность имени и версии артефакта.
2. Посмотреть какие репозитории\зеркала указаны в ваших settings\pom.
3. Проверить наличие артефакта в этих репозиторииях
Обычно проблема решается на втором шаге, но кроме этих пунктов встречаются проблемы из-за прокси, также бывает, что скаченный jar поврежден(хотя сам я сталкивался с таким всего один раз).
Для snapshot версий полезна команда *-U* — принудительное обновление snapshot зависимостей. По умолчанию maven обновляет их только после истечения таймаута раз в день(параметр updatePolicy)
#### В ролях
`maven 3.5.0
jdk 1.8
debug логи maven` | https://habr.com/ru/post/339902/ | null | ru | null |
# Кастомные социальные кнопки
Недавно участвовал в разработке одного проекта — фото конкурса. По задумке, рейтинг фото альбомов должен формироваться из суммы всех публикаций в социальных сетях: Facebook, Вконтакте, Twitter. Т.е. общий рейтинг фотоальбома расчитывается:
> Рейтинг фотоальбома = кол-во «Share» в Facebook + кол-во «Сохранить» в Вконтакте + кол-во «Retweet» в Twitter
На макетах, вид кнопок несколько отличался от предоставляемых социальными сетями плагинов, формируемых функциями api. В частности вид счетчиков:

Помимо несоответствий с дизайном, каждый плагин формирует излишний хтмл код, а хотелось бы лаконичный.
Детальнее ознакомившись с api каждой сети, окончательно убедились в отсутствии расширенных возможностей для кастомизации кнопок и этот факт понять можно, все стремятся к единоборазности своих кнопок. Решили отказаться от использования готовых плагинов и сделать свои кнопки.
Итак:
* количество лайков будем получать от REST сервисов каждой социалки
* кнопки рисуем свои и обрабатываем событие click
#### Кнопки
У каждой сети существует скрипт обработки запросов на добавление страниц с помощью Share, Сохранить, Tweet. При этом скрипту передаются определенные параметры. GET запросы выглядит так:
Facebook:
\_http://www.facebook.com/sharer.php?u=<-*url публикуемой страницы*->&t=<-*заголовок*->&src=sp
Вконтакте:
\_http://vkontakte.ru/share.php?url=<-*url публикуемой страницы*->
Twitter
\_http://twitter.com/share?url=<-*url публикуемой страницы*->&text=<-*заголовок*->
Для имитации стандартного функционала, кнопки оформляем в виде ссылок с бэкграундами:

CSS приводить не буду, думаю с этим не должно возникнуть трудностей. У каждой кнопки-ссылки атрибут href должен содержать url в соответствии с описанными выше шаблонами.
Перед выводом, url-ы приводим в безопасный вид с помощью urlencode(). У нас код получился таким:
`> 1. <div id="social\_block">
> 2. <div id="vk\_sharer">
> 3. <span>53</span>
> 4. <a id="vk\_btn" href="\_http://vkontakte.ru/share.php?url=http%3A%2F%2Fsite.ru%2Fklasnaya-stranitsa%2F" target="\_blank" title="Сохранить Вконтакте">Сохранить</a>
> 5. </div>
> 6. <div id="fb\_sharer">
> 7. <span>116</span>
> 8. <a id="fb\_btn" href="\_http://www.facebook.com/sharer.php?u=http%3A%2F%2Fsite.ru%2Fklasnaya-stranitsa%2F&t=%D0%9A%D0%BB%D0%B0%D1%81%D1%81%D0%BD%D0%B0%D1%8F+%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0&src=sp" target="\_blank" title="Мне нравится">Нравится</a>
> 9. </div>
> 10. <div id="tw\_sharer" style="">
> 11. <span>31</span>
> 12. <a id="tw\_btn" href="\_http://twitter.com/share?url=http%3A%2F%2Fsite.ru%2Fklasnaya-stranitsa%2F&text=%D0%9A%D0%BB%D0%B0%D1%81%D1%81%D0%BD%D0%B0%D1%8F+%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0" target="\_blank" title="Retweet">Retweet</a>
> 13. </div>
> 14. <hr/>
> 15. <div id="total\_count">200</div>
> 16. </div>
>`
Также можно позаботиться о том как будет выглядеть «пост» в социальной сети, для этого разместим в секции <head> страницы соответсвующие мета теги.
У Facebook для этих целей есть Open Graph теги:
`> <meta property="og:title" content="Заголовок"/>
>
>
> <meta property="og:description" content="Описание"/>
>
>
> <meta property="og:image" content="url к картинке"/>`
Вконтакте будет искать:
`> <meta name="title" content="Заголовок статьи" />
>
>
> <meta name="description" content="Описание статьи. Это очень интересная статья." />
>
>
> <link rel="image\_src" href="\_http://mysite.com/mypic.jpg" />`
Далее обрабатываем событие click каждой кнопки, при возникновении которого, открываем новое окно браузера с url указанным в атрибуте href, при этом окно с заданными шириной и высотой, а то оно откроется как новая вкладка.
Код для кнопки Facebook (jQuery):
`> 1. var click = false;
> 2. $('#fb\_btn').click(function(){
> 3. // проверяем был ли уже клик по кнопке
> 4. if(!click){
> 5. var social\_box = $(this).parent('div');
> 6. // увеличиваем значение счетчика социалки на 1
> 7. var count = parseInt($('span', social\_box).text());
> 8. if(!isNaN(count)){
> 9. count = count + 1;
> 10. $('span', social\_box).text(count);
> 11. }
> 12. // увеличиваем общий рейтинг на 1
> 13. var total\_cnt = parseInt($('#total\_count').text());
> 14. if(!isNaN(total\_cnt)){
> 15. total\_cnt = total\_cnt + 1;
> 16. $('#total\_count').text(total\_cnt);
> 17. }
> 18. click = true;
> 19. }
> 20. // открываем окно
> 21. window.open($(this).attr("href"),'displayWindow', 'width=700,height=400,left=200,top=100,location=no, directories=no,status=no,toolbar=no,menubar=no');
> 22. return false;
> 23. });
> 24.
> 25.
>`
Аналогично для остальных. С «расшариванием» как видите все предельно просто.
#### Счетчики
Количество Share-ов для кажой страницы будем получать от REST сервисов социалок, после формирования страницы (событие ready). Так как в проекте повсеместно использовали jQuery, то и здесь она нам пригодится, в частности метод $.getJSON, c возможностью выполнять кроссдоменные запросы (хотя в версии jQuery 1.5 такая возможность добавлена и в $.ajax).
Код для Facebook:
`> 1. var pageuri = '<-- url публикуемой страницы -->';
> 2. $.getJSON('http://api.facebook.com/restserver.php?method=links.getStats&callback=?&urls=' + pageuri + '&format=json', function(data) {
> 3. // вставляем в DOM
> 4. $('#fb\_sharer span').text(data[0].share\_count);
> 5. });
>`
Для Вконтакте необходимо объявить два объекта: VK и VK.Share, а также callback метод VK.Share.count(index, count):
`> 1. var pageuri = '<-- url публикуемой страницы -->';
> 2. VK = {};
> 3. VK.Share = {};
> 4. // объявляем callback метод
> 5. VK.Share.count = function(index, count){
> 6. // вставляем в DOM
> 7. $('#vk\_sharer span').text(count);
> 8. };
> 9. $.getJSON('http://vkontakte.ru/share.php?act=count&index=1&url=' + pageuri + '&format=json&callback=?');
>`
Для Twitter:
`> 1. var pageuri = '<-- url публикуемой страницы -->';
> 2. $.getJSON('http://urls.api.twitter.com/1/urls/count.json?url=' + pageuri + '&callback=?', function(data) {
> 3. // вставляем в DOM
> 4. $('#tw\_sharer span').text(data.count);
> 5. });
>`
После получения данных добавляем их в DOM и отображаем весь блок с кнопками например:
> $('#social\_block').fadeIn('fast);.
Эврика!
#### Обновление рейтинга
В нашем случае в базе конкурса для каждого фотоальбома хранятся значения счетчиков по каждой сети и суммарный рейтинг. Поэтому после получения данных от социальных сетей, они сравниваются с данными хранимыми в базе сайта и при различии хотя бы одного значения отправляются ajax-ом для обновления. Здесь у каждого может быть свой подход, поэтому заострять внимание не буду.
Полный код получившегося jQuery плагина думаю тоже нет смысла постить, кому понадобится, оформит на свой вкус. Конечно тоже самое можно реализовать серверными скриптами и с помощью CURL например, получать эти же данные, но переложить это на клиентскую сторону нам показалось более привлекательно.
И еще один момент: Facebook перенес функционал Share в Like, но Share пока работает и надеюсь продолжит. Для получения количества «лайков» используйте в callback функции data[0].like\_count.
**Upd:**
[Архив с примером](http://code.google.com/p/custom-social-buttons/downloads/detail?name=social.zip&can=2&q=) | https://habr.com/ru/post/116584/ | null | ru | null |
# Давайте обрабатывать звук на Go
> Дисклеймер: Я не рассматриваю какие-либо алгоритмы и API для работы со звуком и распознаванием речи. Эта статья о проблемах при работе с аудио и об их решении с помощью Go.

`phono` — прикладной фреймворк для работы со звуком. Его основная функция — создать конвейер из разных технологий, который обработает звук ~~за вас~~ нужным вам образом.
При чём тут конвейер, к тому же из разных технологий и зачем ещё один фреймворк? Сейчас разберёмся.
Откуда звук?
------------
К 2018 году звук стал стандартным способом взаимодействия человека с технологиями. Большинство IT-гигантов [создали](https://www.predictiveanalyticstoday.com/top-intelligent-personal-assistants-automated-personal-assistants/) своего голосового помощника или делают это прямо сейчас. Голосовое управление уже есть в большинстве операционных систем, а голосовые сообщения — типичная функция любого мессенджера. В мире [около тысячи](https://angel.co/natural-language-processing) стартапов работают над обработкой естественного языка и [около двух сотен](https://angel.co/speech-recognition) над распознаванием речи.
С музыкой похожая история. Она играет из любого устройства, а звукозапись доступна каждому, у кого есть компьютер. Музыкальный софт разрабатывают [сотни компаний](https://www.pluginboutique.com/manufacturers) и [тысячи энтузиастов](https://www.kvraudio.com/marketplace/brands) по всему миру.
Общие задачи
-------------
Если вам приходилось работать со звуком, то следующие условия должны звучать знакомо:
* Аудио надо **получить** из файла, устройства, сети и т.д.
* Аудио надо **обработать**: добавить эффекты, перекодировать, проанализировать и т.п.
* Аудио надо **передать** в файл, устройство, сеть и т.д.
* Данные передаются небольшими буферами
Получается обычный конвейер — есть поток данных, который проходит несколько стадий обработки.
Решения
-------
Для наглядности, возьмём задачу из реальной жизни. Например, нужно преобразовать голос в текст:
* Записываем аудио с устройства
* Удаляем шумы
* Эквализируем
* Передаём сигнал в API для распознавания речи
Как и любая другая задача, эта имеет несколько решений.
### В лоб
Только для хардкорных ~~велосипедистов~~ программистов. Записываем звук непосредственно через драйвер звуковой карты, пишем умный шумодав и многополосный эквалайзер. Это очень интересно, но можно на несколько месяцев забыть о своей изначальной задаче.
Долго и очень сложно.
### По-нормальному
Альтернатива — использовать существующие API. Записать аудио можно с помощью ASIO, CoreAudio, PortAudio, ALSA и прочих. Для обработки тоже есть несколько видов плагинов: AAX, VST2, VST3, AU.
Богатый выбор не означает, что можно использовать всё сразу. Обычно действуют следующие ограничения:
1. Операционная система. Не все API доступны на всех операционных системах. Например, AU — нативная технология OS X и доступна только там.
2. Язык программирования. Большинство аудио библиотек написаны на С или С++. В 1996 году компания Steinberg выпустила первую версию VST SDK, до сих пор самый популярный стандарт плагинов. Спустя 20 лет уже не обязательно писать на С/С++: для VST есть обёртки на Java, Python, C#, Rust и кто знает на чём еще. Хоть язык и остаётся ограничением, но теперь звук обрабатывают даже на JavaScript.
3. Функционал. Если задача простая и понятная, не обязательно писать новое приложение. Тот же FFmpeg умеет очень многое.
В этой ситуации сложность зависит от вашего выбора. В худшем случае придётся иметь дело с несколькими библиотеками. И если совсем не повезёт, со сложными абстракциями и абсолютно разными интерфейсами.
### Что в итоге?
Нужно выбирать между **очень сложным** и **сложным**:
* либо иметь дело с несколькими низкоуровневыми API, чтобы писать свои велосипеды
* либо иметь дело с несколькими API и пытаться их подружить
Неважно какой способ выбран, задача всегда сводится к конвейеру. Используемые технологии могут отличаться, но суть неизменна. Проблема в том, что опять вместо решения реальной задачи, приходиться писать ~~велосипед~~ конвейер.
Но есть выход.
phono
-----

`phono` создан, чтобы решить общие задачи — "**получить, обработать и передать**" звук. Для этого он использует конвейер, как самую естественную абстракцию. В [официальном блоге](https://blog.golang.org/) Go есть [статья](https://blog.golang.org/pipelines), которая описывает паттерн pipeline (англ. конвейер). Главная идея pipeline в том, что есть несколько стадий обработки данных, которые работают независимо друг от друга и обмениваются данными через каналы. То, что надо.
А почему Go?
Во-первых, большинство аудио программ и библиотек написаны на C, а Go часто упоминается в качестве его преемника. К тому же, есть [cgo](https://golang.org/cmd/cgo/) и [довольно много биндингов](https://github.com/avelino/awesome-go#audio-and-music) для существующих аудио библиотек. Можно брать и пользоваться.
Во-вторых, по моему личному мнению, Go — хороший язык. Не буду углубляться, но отмечу его [многопоточность](https://www.golang-book.com/books/intro/10). Каналы и горутины сильно упрощают реализацию конвейера.
### Абстракции
Сердцем `phono` является тип `pipe.Pipe` (англ. труба). Именно он реализует pipeline. Как и в [образце из блога](https://blog.golang.org/pipelines), предусмотрено три вида стадий:
1. `pipe.Pump` (англ. насос) — **получение** звука, только выходные каналы
2. `pipe.Processor` (англ. обработчик) — **обработка** звука, входные и выходные каналы
3. `pipe.Sink` (англ. раковина) — **передача** звука, только входные каналы
Внутри `pipe.Pipe` данные передаются буферами. Правила, по которым можно строить pipeline:

1. Один `pipe.Pump`
2. Несколько `pipe.Processor`, размещённых последовательно друг за другом
3. Один или несколько `pipe.Sink`, размещённых параллельно
4. Все компоненты `pipe.Pipe` должны иметь одинаковые:
* Размер буфера (сообщения)
* Частоту дискретизации
* Число каналов
Минимальная конфигурация — Pump и один Sink, остальное опционально.
Разберём несколько примеров.
### Простой
**Задача:** воспроизвести wav файл.
Приведём её к виду "**получить, обработать, передать**":
1. **Получаем** аудио из wav файла
2. **Передаём** аудио в portaudio устройство

Аудио считывается и сразу воспроизводится.
**Код**
```
package example
import (
"github.com/dudk/phono"
"github.com/dudk/phono/pipe"
"github.com/dudk/phono/portaudio"
"github.com/dudk/phono/wav"
)
// Example:
// Read .wav file
// Play it with portaudio
func easy() {
wavPath := "_testdata/sample1.wav"
bufferSize := phono.BufferSize(512)
// wav pump
wavPump, err := wav.NewPump(
wavPath,
bufferSize,
)
check(err)
// portaudio sink
paSink := portaudio.NewSink(
bufferSize,
wavPump.WavSampleRate(),
wavPump.WavNumChannels(),
)
// build pipe
p := pipe.New(
pipe.WithPump(wavPump),
pipe.WithSinks(paSink),
)
defer p.Close()
// run pipe
err = p.Do(pipe.Run)
check(err)
}
```
Сначала мы создаём элементы будущего конвейера: `wav.Pump` и `portaudio.Sink` и передаём их в конструктор `pipe.New`. Функция `p.Do(pipe.actionFn) error` запускает конвейер и ждёт окончания работы.
### Сложнее
**Задача:** разбить wav файл на семплы, составить из них трек, результат сохранить и одновременно воспроизвести.
Трек — это последовательность семплов, а семпл — небольшой отрезок аудио. Чтобы аудио можно было резать, нужно сначала загрузить его в память. Для этого используем тип `asset.Asset` из пакета `phono/asset`. Разбиваем задачу на стандартные шаги:
1. **Получаем** аудио из wav файла
2. **Передаём** аудио в память
Теперь руками делаем семплы, добавляем их в трек и добиваем задачу:
1. **Получаем** аудио из трека
2. **Передаём** аудио в
* wav файл
* portaudio устройство

Снова, без стадии обработки, зато целых два pipeline!
**Код**
```
package example
import (
"github.com/dudk/phono"
"github.com/dudk/phono/asset"
"github.com/dudk/phono/pipe"
"github.com/dudk/phono/portaudio"
"github.com/dudk/phono/track"
"github.com/dudk/phono/wav"
)
// Example:
// Read .wav file
// Split it to samples
// Put samples to track
// Save track into .wav and play it with portaudio
func normal() {
bufferSize := phono.BufferSize(512)
inPath := "_testdata/sample1.wav"
outPath := "_testdata/example4_out.wav"
// wav pump
wavPump, err := wav.NewPump(inPath, bufferSize)
check(err)
// asset sink
asset := &asset.Asset{
SampleRate: wavPump.WavSampleRate(),
}
// import pipe
importAsset := pipe.New(
pipe.WithPump(wavPump),
pipe.WithSinks(asset),
)
defer importAsset.Close()
err = importAsset.Do(pipe.Run)
check(err)
// track pump
track := track.New(bufferSize, asset.NumChannels())
// add samples to track
track.AddFrame(198450, asset.Frame(0, 44100))
track.AddFrame(66150, asset.Frame(44100, 44100))
track.AddFrame(132300, asset.Frame(0, 44100))
// wav sink
wavSink, err := wav.NewSink(
outPath,
wavPump.WavSampleRate(),
wavPump.WavNumChannels(),
wavPump.WavBitDepth(),
wavPump.WavAudioFormat(),
)
// portaudio sink
paSink := portaudio.NewSink(
bufferSize,
wavPump.WavSampleRate(),
wavPump.WavNumChannels(),
)
// final pipe
p := pipe.New(
pipe.WithPump(track),
pipe.WithSinks(wavSink, paSink),
)
err = p.Do(pipe.Run)
}
```
По сравнению с прошлым примером, есть два `pipe.Pipe`. Первый передаёт данные в память, чтобы можно было нарезать семплы. Второй имеет сразу два получателя в конце: `wav.Sink` и `portaudio.Sink`. При такой схеме звук одновременно записывается в wav файл и воспроизводится.
### Еще сложнее
**Задача:** прочитать два wav файла, смешать, обработать vst2 плагином и сохранить в новый wav файл.
В пакете `phono/mixer` есть простой миксер `mixer.Mixer`. В него можно **передать** сигналы из нескольких источников и **получить** один смиксованный. Для этого он одновременно реализует `pipe.Pump` и `pipe.Sink`.
Опять задача состоит из двух подзадач. Первая выглядит так:
1. **Получаем** аудио wav файла
2. **Передаём** аудио в миксер
Вторая:
1. **Получаем** аудио из миксера
2. **Обрабатываем** аудио плагином
3. **Передаём** аудио в wav файл

**Код**
```
package example
import (
"github.com/dudk/phono"
"github.com/dudk/phono/mixer"
"github.com/dudk/phono/pipe"
"github.com/dudk/phono/vst2"
"github.com/dudk/phono/wav"
vst2sdk "github.com/dudk/vst2"
)
// Example:
// Read two .wav files
// Mix them
// Process with vst2
// Save result into new .wav file
//
// NOTE: For example both wav files have same characteristics i.e: sample rate, bit depth and number of channels.
// In real life implicit conversion will be needed.
func hard() {
bs := phono.BufferSize(512)
inPath1 := "../_testdata/sample1.wav"
inPath2 := "../_testdata/sample2.wav"
outPath := "../_testdata/out/example5.wav"
// wav pump 1
wavPump1, err := wav.NewPump(inPath1, bs)
check(err)
// wav pump 2
wavPump2, err := wav.NewPump(inPath2, bs)
check(err)
// mixer
mixer := mixer.New(bs, wavPump1.WavNumChannels())
// track 1
track1 := pipe.New(
pipe.WithPump(wavPump1),
pipe.WithSinks(mixer),
)
defer track1.Close()
// track 2
track2 := pipe.New(
pipe.WithPump(wavPump2),
pipe.WithSinks(mixer),
)
defer track2.Close()
// vst2 processor
vst2path := "../_testdata/Krush.vst"
vst2lib, err := vst2sdk.Open(vst2path)
check(err)
defer vst2lib.Close()
vst2plugin, err := vst2lib.Open()
check(err)
defer vst2plugin.Close()
vst2processor := vst2.NewProcessor(
vst2plugin,
bs,
wavPump1.WavSampleRate(),
wavPump1.WavNumChannels(),
)
// wav sink
wavSink, err := wav.NewSink(
outPath,
wavPump1.WavSampleRate(),
wavPump1.WavNumChannels(),
wavPump1.WavBitDepth(),
wavPump1.WavAudioFormat(),
)
check(err)
// out pipe
out := pipe.New(
pipe.WithPump(mixer),
pipe.WithProcessors(vst2processor),
pipe.WithSinks(wavSink),
)
defer out.Close()
// run all
track1Done, err := track1.Begin(pipe.Run)
check(err)
track2Done, err := track2.Begin(pipe.Run)
check(err)
outDone, err := out.Begin(pipe.Run)
check(err)
// wait results
err = track1.Wait(track1Done)
check(err)
err = track2.Wait(track2Done)
check(err)
err = out.Wait(outDone)
check(err)
}
```
Здесь уже три `pipe.Pipe`, все связанные между собой через миксер. Для запуска используется функция `p.Begin(pipe.actionFn) (pipe.State, error)`. В отличии от `p.Do(pipe.actionFn) error`, она не блокирует вызов, а просто возвращает состояние, которое потом можно дождаться с помощью `p.Wait(pipe.State) error`.
Что дальше?
-----------
Я хочу, чтобы `phono` стал максимально удобным прикладным фреймворком. Если есть задача со звуком, не нужно разбираться в сложных API и тратить время на изучение стандартов. Всё, что надо — построить конвейер из подходящих элементов и запустить его.
За пол года запилены следующие пакеты:
* `phono/wav` — читать/писать wav файлы
* `phono/vst2` — неполные биндинги VST2 SDK, пока можно только открывать плагин и вызывать его методы, но нет всех структур
* `phono/mixer` — миксер, складывает N сигналов, без баланса и громкости
* `phono/asset` — семплирование буферов
* `phono/track` — последовательное считывание семплов (разрулены наслоения)
* `phono/portaudio` — воспроизведение сигнала, пока эксперименты
Кроме этого списка, есть постоянно толстеющий бэклог из новых идей и задумок, среди которых:
* Отсчёт времени
* Изменяемый на лету pipeline
* HTTP pump/sink
* Автоматизация параметров
* Ресемплинг-процессор
* Баланс и громкость в миксере
* Real-time pump
* Синхронизированный pump для нескольких треков
* Полноценный vst2
В следующих статьях я разберу:
* жизненный цикл `pipe.Pipe` — из-за сложной структуры его состояние управляется конечным атоматом
* как писать свои стадии конвейера
Это мой первый open-source проект, так что я буду благодарен любой помощи и рекомендациям. Добро пожаловать.
Ссылки
------
* [phono](https://github.com/dudk/phono)
* [Go concurrency patterns: Pipelines and Cancellation](https://blog.golang.org/pipelines) | https://habr.com/ru/post/424623/ | null | ru | null |
# Имя не гарантирует безопасность. Haskell и типобезопасность
Разработчики на Haskell много говорят о типобезопасности (type safety). Сообщество Haskell-разработчиков отстаивает идеи «описания инвариант на уровне системы типов» и «исключения недопустимых состояний». Звучит как вдохновляющая цель! Однако не совсем понятно, как ее достичь. Почти год назад я опубликовала статью [«Parse, don’t validate»](https://lexi-lambda.github.io/blog/2019/11/05/parse-don-t-validate/) — первый шаг к восполнению этого пробела.
За статьей последовали продуктивные обсуждения, но нам так и не удалось прийти к консенсусу относительно правильного использования конструкции newtype в Haskell. Идея достаточно проста: ключевое слово newtype объявляет wrapper type (тип-обертка), который отличается по имени, но репрезентативно эквивалентен типу, который он обертывает. На первый взгляд, это понятный путь к достижению типобезопасности. Например, рассмотрим, как использовать объявление newtype для определения типа адреса электронной почты:
```
newtype EmailAddress = EmailAddress Text
```
Этот прием предоставляет нам определенное значение, а в сочетании с умным конструктором и границей инкапсуляции даже может обеспечить безопасность. Но это совсем другой вид типобезопасности. Он намного слабее и отличается от того, который я выделила год назад. Сам по себе newtype — это просто псевдоним.
Names are not type safety ©
### Внутренняя и внешняя безопасность
Чтобы показать разницу между конструктивным data-моделированием (подробнее о нем в [предыдущей статье](https://lexi-lambda.github.io/blog/2020/08/13/types-as-axioms-or-playing-god-with-static-types/)) и обертками newtype, рассмотрим пример. Предположим, нам нужен тип «целое число от 1 до 5 включительно». Естественный подход к конструктивному моделированию — перечисление с пятью случаями:
```
data OneToFive
= One
| Two
| Three
| Four
| Five
```
Затем мы бы написали несколько функций для конвертации между Int и типом OneToFive:
```
toOneToFive :: Int -> Maybe OneToFive
toOneToFive 1 = Just One
toOneToFive 2 = Just Two
toOneToFive 3 = Just Three
toOneToFive 4 = Just Four
toOneToFive 5 = Just Five
toOneToFive _ = Nothing
fromOneToFive :: OneToFive -> Int
fromOneToFive One = 1
fromOneToFive Two = 2
fromOneToFive Three = 3
fromOneToFive Four = 4
fromOneToFive Five = 5
```
Этого было бы вполне достаточно для достижения заявленной цели, но в реальности с такой технологией работать неудобно. Поскольку мы изобрели совершенно новый тип, мы не можем повторно использовать обычные числовые функции, предоставляемые Haskell. Следовательно, многие разработчики предпочли бы вместо этого использовать обертку newtype (newtype wrapper):
```
newtype OneToFive = OneToFive Int
```
Как и в первом случае, мы можем объявить функции toOneToFive и fromOneToFive с идентичными типами:
```
toOneToFive :: Int -> Maybe OneToFive
toOneToFive n
| n >= 1 && n <= 5 = Just $ OneToFive n
| otherwise = Nothing
fromOneToFive :: OneToFive -> Int
fromOneToFive (OneToFive n) = n
```
Если мы поместим эти объявления в отдельный модуль и решим не экспортировать конструктор OneToFive, API будут полностью взаимозаменяемы. Кажется, что вариант с newtype более простой и типобезопасный. Однако это не совсем так.
Давайте представим, что мы пишем функцию, которая использует значение OneToFive в качестве аргумента. При конструктивном моделировании, такой функции требуется cопоставление с образцом с каждым из пяти конструкторов. GHC примет определение как достаточное:
```
ordinal :: OneToFive -> Text
ordinal One = "first"
ordinal Two = "second"
ordinal Three = "third"
ordinal Four = "fourth"
ordinal Five = "fifth"
```
С отображением newtype все по-другому. Newtype непрозрачен, поэтому единственный способ наблюдать за ним — это конвертировать обратно в Int. Разумеется, Int может содержать много других значений помимо 1–5, поэтому мы вынуждены добавить образец для остальных возможных значений.
```
ordinal :: OneToFive -> Text
ordinal n = case fromOneToFive n of
1 -> "first"
2 -> "second"
3 -> "third"
4 -> "fourth"
5 -> "fifth"
_ -> error "impossible: bad OneToFive value"
```
В этом выдуманном примере можно не увидеть проблемы. Но тем не менее он демонстрирует ключевое различие в гарантиях, которые предоставляют два описанных подхода:
* Конструктивный тип данных фиксирует свои инварианты таким образом, чтобы они были доступны при дальнейшем взаимодействии. Это освобождает функцию ordinal от обработки недопустимых значений, так как они становятся невыразимы.
* Обертка newtype предоставляет умный конструктор, который валидирует значение, но логический результат этой проверки используется только для потока управления; он не сохраняется в результате функции. Соответственно мы не можем далее воспользоваться результатом этой проверки и введенными ограничениями, при последующем исполнении мы взаимодействуем с типом Int.
Проверка полноты может казаться ненужным шагом, но это не так: использование ошибок указало на уязвимости в нашей системе типов. Если бы мы добавили еще один конструктор к типу данных OneToFive, версия порядкового номера, потребляющая конструктивный тип данных, сразу бы оказалась неисчерпывающей во время компиляции. В то же время другая версия, которая использует обертку newtype, продолжала компилироваться, но ломалась бы во время выполнения и переходила к невозможному сценарию.
Все это является следствием того факта, что конструктивное моделирование по своей сути является типобезопасным; то есть свойства безопасности обеспечиваются объявлением типа. Недопустимые значения действительно невозможно представить: нельзя отобразить 6, используя любой из 5 конструкторов.
Это не относится к объявлению newtype, так как у него нет внутренних семантических отличий от Int; его значение указывается внешне через умный конструктор toOneToFive. Любое семантическое различие, предполагаемое newtype, невидимо для системы типов. Разработчик просто держит это в уме.
### Повторное посещение непустых списков
Тип данных OneToFive выдуман, но подобные рассуждения применимы и к другим, более реальным сценариям. Рассмотрим NonEmpty, о котором я писал ранее:
```
data NonEmpty a = a :| [a]
```
Для наглядности представим версию NonEmpty, объявленную через кnewtype по сравнению с обычными списками. Мы можем использовать обычную стратегию умного конструктора для обеспечения желаемого свойства непустоты значения (non-emptiness):
```
newtype NonEmpty a = NonEmpty [a]
nonEmpty :: [a] -> Maybe (NonEmpty a)
nonEmpty [] = Nothing
nonEmpty xs = Just $ NonEmpty xs
instance Foldable NonEmpty where
toList (NonEmpty xs) = xs
```
Как и в случае с OneToFive, мы быстро обнаружим последствия невозможности сохранить эту информацию в системе типов. Мы хотели использовать NonEmpty для написания безопасной версии head, но для newtype-версии требуется другое утверждение:
```
head :: NonEmpty a -> a
head xs = case toList xs of
x:_ -> x
[] -> error "impossible: empty NonEmpty value"
```
Это кажется неважным: так мала вероятность, что подобная ситуация может произойти. Но такой довод полностью зависит от веры в правильность модуля, который определяет NonEmpty, в то время как конструктивное определение требует только доверия проверке типов GHC. Поскольку мы по умолчанию считаем, что проверка типов работает правильно, последнее является более убедительным доказательством.
### Newtypes как токены
Если вы любите newtypes, эта тема может быть неприятной. Я не имею в виду, что newtypes лучше комментариев, хотя последние эффективны для проверки типов. К счастью, ситуация не так уж плоха: newtypes могут обеспечить безопасность, только более слабую.
Границы абстракции дают newtypes огромное преимущество в обеспечении безопасности. Если конструктор newtype не экспортируется, он становится непрозрачным для других модулей. Модуль, определяющий newtype (то есть «домашний модуль»), может воспользоваться этим, чтобы создать границу доверия (trust boundary), где внутренние инварианты применяются путем ограничения клиентов безопасным API.
Мы можем использовать приведенный выше пример NonEmpty для иллюстрации этой технологии. Пока воздержимся от экспорта конструктора NonEmpty и предоставим операции head и tail. Мы полагаем, что они работают исправно:
```
module Data.List.NonEmpty.Newtype
( NonEmpty
, cons
, nonEmpty
, head
, tail
) where
newtype NonEmpty a = NonEmpty [a]
cons :: a -> [a] -> NonEmpty a
cons x xs = NonEmpty (x:xs)
nonEmpty :: [a] -> Maybe (NonEmpty a)
nonEmpty [] = Nothing
nonEmpty xs = Just $ NonEmpty xs
head :: NonEmpty a -> a
head (NonEmpty (x:_)) = x
head (NonEmpty []) = error "impossible: empty NonEmpty value"
tail :: NonEmpty a -> [a]
tail (NonEmpty (_:xs)) = xs
tail (NonEmpty []) = error "impossible: empty NonEmpty value"
```
Поскольку единственный способ создать или использовать в качестве аргументов значения NonEmpty — это использовать функции в экспортируемом API Data.List.NonEmpty, вышеуказанная реализация не дает клиентам нарушить гарантию непустоты (non-emptiness invariant). Значения непрозрачных newtypes похожи на токены: реализующий модуль выдает токены через свои функции конструктора, и эти токены не имеют внутреннего значения. Единственный способ сделать с ними что-нибудь полезное — это сделать их доступными для функций в использующем их модуле и для получения содержащихся в них значений. В данном случае эти функции: head и tail.
Этот подход менее эффективный, чем использование конструктивного типа данных, так как здесь можно ошибиться и случайно предоставить средство для создания недопустимого значения NonEmpty []. По этой причине newtype-подход к типобезопасности сам по себе не является доказательством того, что желаемый инвариант выполняется.
Однако такой подход ограничивает область, где может произойти нарушение инварианта для определяющего модуля. Чтобы быть уверенным, что инвариант действительно выполняется, необходимо тестирование API модуля с использованием методов фаззинга или тестирование на основе свойств.
Этот компромисс может быть крайне полезен. Достаточно сложно гарантировать инварианты с помощью конструктивного моделирования данных, поэтому это не всегда практично. Однако нам нужно быть осторожными, чтобы случайно не предоставить механизм, позволяющий нарушить инвариант. Например, разработчик может воспользоваться удобным классом типов GHC, производным от класса типов Generic для NonEmpty:
```
{-# LANGUAGE DeriveGeneric #-}
import GHC.Generics (Generic)
newtype NonEmpty a = NonEmpty [a]
deriving (Generic)
```
Всего лишь одна строка обеспечивает простой механизм для обхода границы абстракции:
```
ghci> GHC.Generics.to @(NonEmpty ()) (M1 $ M1 $ M1 $ K1 [])
NonEmpty []
```
Этот пример невозможен на практике, поскольку производные экземпляры Generic принципиально нарушают абстракцию. При этом такая проблема может возникнуть и в других, менее очевидных, условиях. Например, с производным экземпляром Read:
```
ghci> read @(NonEmpty ()) "NonEmpty []"
NonEmpty []
```
Некоторым читателям эти ловушки могут показаться банальными, но подобные уязвимости встречаются очень часто. Особенно у типов данных с более сложными инвариантами, так как иногда трудно определить, поддерживаются ли они реализацией модуля. Правильное использование этого метода требует внимательности и осторожности:
* Все инварианты должны быть понятны мейнтейнерам доверенного модуля. Для простых типов, таких как NonEmpty, инвариант очевиден, но для более сложных типов нужны комментарии.
* Каждое изменение доверенного модуля необходимо проверять, так как оно может ослабить желаемые инварианты.
* Необходимо воздержаться от добавления небезопасных лазеек, которые могут скомпрометировать инварианты при неправильном использовании.
* Может потребоваться периодический рефакторинг, чтобы доверенная область оставалась небольшой. Иначе со временем резко увеличится вероятность взаимодействия, которое вызывает нарушение инварианта.
В то же время, типы данных, корректные по своей конструкции, не имеют ни одной из перечисленных проблем. Инвариант не может быть нарушен без изменения определения типа данных, это оказывает влияние на остальную часть программы. Усилия со стороны разработчика не требуется, поскольку проверка типов автоматически применяет инварианты. Для таких типов данных не существует «доверенного кода» (trusted code), поскольку все части программы в равной степени подчиняются ограничениям, установленным типом данных.
В библиотеках целесообразно использовать новую концепцию безопасности (благодаря newtype) через инкапсуляцию, поскольку библиотеки часто предоставляют строительные блоки, используемые для создания более сложных структур данных. Такие библиотеки обычно подвергаются большему изучению и вниманию, чем код приложения, особенно с учетом того, что они меняются гораздо реже.
В коде приложения эти методы по-прежнему полезны, но изменения производственной кодовой базы со временем ослабляют границы инкапсуляции, поэтому, когда это возможно, следует отдавать предпочтение правильности конструкции.
### Другие способы использования newtype, злоупотребления и неправильное использование
В предыдущем разделе описаны основные способы использования newtype. Однако на практике newtypes обычно используются по-другому, не так, как мы описали выше. Некоторые из таких применений обоснованы, например:
* В Haskell идея согласованности классов типов (typeclass) ограничивает каждый тип одним экземпляром любого класса. Для типов, которые допускают более одного полезного экземпляра (instance), newtypes являются традиционным решением и могут успешно использоваться. Например, newtypes Sum и Product из Data.Monoid предоставляют полезные экземпляры Monoid для числовых типов.
* Аналогичным образом newtypes могут применяться для введения или изменения параметров типа. Newtype Flip из Data.Bifunctor.Flip — простой пример, меняющий аргументы Bifunctor местами, чтобы экземпляр Functor мог работать с обратным порядком аргументов:
```
newtype Flip p a b = Flip { runFlip :: p b a }
```
Newtypes необходимы для такого рода манипуляций, поскольку Haskell пока не поддерживает лямбда-выражения на уровне типов.
* Прозрачные newtypes могут использоваться для предотвращения злоупотребления, когда значение необходимо передать между удаленными частями программы, а у промежуточного кода нет никаких причин проверять значение. Например, строка ByteString, содержащая секретный ключ, может быть обернута в newtype (с исключенным экземпляром Show), чтобы предотвратить код от случайного логирования или иного раскрытия.
Все эти практики хороши, но они никак не связаны с безопасностью типов. Последний пункт часто принимают за обеспечение безопасности, и он действительно использует систему типов, чтобы помочь избежать логических ошибок. Однако было бы неверно утверждать, что такое использование предотвращает злоупотребления; любая часть программы может проверить значение когда угодно.
Слишком часто такая иллюзия безопасности приводит к откровенному злоупотреблению newtype. Например, вот определение из кодовой базы, с которой я лично работаю:
```
newtype ArgumentName = ArgumentName { unArgumentName :: GraphQL.Name }
deriving ( Show, Eq, FromJSON, ToJSON, FromJSONKey, ToJSONKey
, Hashable, ToTxt, Lift, Generic, NFData, Cacheable )
```
В этом случае newtype — бессмысленный шаг. Функционально он полностью взаимозаменяем с типом Name, настолько, что производит с десяток классов типов! В каждом месте, где используется newtype, он немедленно разворачивается, как только извлекается из закрывающей записи. Так что никакой пользы для типобезопасности в этом случае нет. Более того, непонятно, зачем обозначать newtype как ArgumentName, если имя поля и так проясняет его роль.
Мне кажется, подобное применение newtypes возникает из-за желания использовать систему типов в качестве способа таксономии (классификации) мира. «Argument name» — это более конкретное понятие, чем общее «name», поэтому, конечно, оно должно иметь свой собственный тип. Это утверждение имеет смысл, но, скорее, оно ошибочно: таксономия полезна для документирования интересующей области, но не обязательно полезна для ее моделирования. При программировании мы используем типы для разных целей:
* В первую очередь, типы выделяют функциональные различия между значениями. Значение типа NonEmpty a функционально отличается от значения типа [a], поскольку оно фундаментально отличается по структуре и допускает дополнительные операции. В этом смысле типы структурны; они описывают, какие значения находятся внутри языка программирования.
* Во-вторых, иногда мы используем типы, чтобы избежать логических ошибок. Можно использовать отдельные типы Distance и Duration, чтобы случайно не сделать что-то бессмысленное, например сложить их вместе, даже если они оба представлены действительными числами.
Обратите внимание, что обе эти цели прагматичны; они понимают систему типов как инструмент. Это довольно естественное отношение, поскольку система статических типов является инструментом в прямом смысле. Тем не менее такая точка зрения кажется нам необычной, даже несмотря на то, что использование типов для классификации мира обычно создает бесполезный шум вроде ArgumentName.
Вероятно, не очень целесообразно, когда newtype полностью прозрачен, и в него обертывают и развертывают обратно по желанию. В этом конкретном случае я бы полностью исключила различие и использовала Name, но в ситуациях, когда различные метки вносят ясность, всегда можно использовать тип alias:
```
type ArgumentName = GraphQL.Name
```
Такие newtypes — настоящий панцирь. Пропуск нескольких этапов не является типобезопасным. Поверьте мне, разработчики с радостью перепрыгнут, не задумываясь.
### Заключение и рекомендованная литература
Я давно хотела написать статью на эту тему. Наверное, получился очень необычный отзыв о newtypes в Haskell. Я решила рассказывать именно в таком ключе, потому что сама зарабатываю себе на жизнь с помощью Haskell и постоянно сталкиваюсь с подобными проблемами на практике. На самом деле, главная идея намного глубже.
Newtypes — это один из механизмов определения типов-оберток (wrapper types). Такая концепция существует практически в любом языке, даже в тех, которые используют динамическую типизацию. Если вы не пишете Haskell, многое в этой статье, вероятно, актуально и для выбранного вами языка. Можно сказать, что это продолжение одной идеи, которую я пыталась передать по-разному в течение последнего года: системы типов — это инструменты. Нам следует более сознательно и целенаправленно относиться к тому, что на самом деле дают типы и как их эффективно использовать.
Поводом для написания этой статьи послужила недавно опубликованная статья [Tagged is not a Newtype](https://tech.freckle.com/2020/10/26/tagged-is-not-a-newtype/). Это отличный пост, и я полностью разделяю его основную идею. Но я подумала, автор упустил возможность озвучить более серьезную мысль. На самом деле, Tagged — это newtype по определению, поэтому заголовок статьи ведет нас по ложному следу. Настоящая проблема лежит немного глубже.
Newtypes приносят пользу при внимательном применении, но безопасность не является свойством, присущим им по умолчанию. Мы же не считаем, что пластик, из которого сделан дорожный конус, обеспечивает безопасность на дороге сам по себе. Важно поместить конус в правильный контекст! Без того же условия newtypes — это просто средство маркировки, способ дать имя.
А имя не гарантирует типобезопасность! | https://habr.com/ru/post/542724/ | null | ru | null |
# Определение технического лидера
Наша отрасль хорошо известна сложными терминами. Роли в процессе разработке программного обеспечения хороший тому пример. Такие должности как архитектор, технический лидер, тимлид и инженер-менеджер только добавляют путаницы. В этой статье мы познакомимся с определением технического лидера.
### Определение
*Короткое*: Технический лидер – это инженер-программист, который отвечает за управление командой и поддержку технического направления.
*Длинное*: Технический лидер (или техлид) — это инженер-программист, который отвечает за управление командой и поддержку технического направления. Поддержка технического направления включает в себя наличие технического видения, решение технических противоречий и управление качеством результата работы команды. Эффективный технический лидер гарантирует, что команда использует соответствующие инженерные методы (такие как CD и автоматизированное тестирование), инвестирует в постоянное совершенствование инструментов или сокращение технического долга, а также гарантирует, что система развивается в соответствии с меняющимися потребностями и окружающей средой.
Иногда позиция тимлидера может быть поделена между несколькими людьми, но очень редко делится позиция техлида. Технический лидер может руководить командой совместно с такими специалистами как Product-менеджер, инженер-менеджер или тимлид. Где инженер-менеджер или тимлид фокусируются на развитии людей и росте команды, технический лидер фокусируется на техническом росте членов команды и системы. Фокус техлида лежит на руководстве техническим направлением и качеством работы команды. Также у них могут быть дополнительные обязанности в зависимости от конкретной команды.
 Команда с Product-менеджером, инженером-менеджером и техлидомВ примере выше у команды может быть Product-менеджер, инженер-менеджер и техлид. Лидерство разделено на три роли, но каждая из них обеспечивает свое направление. В данной ситуации технический лидер больше фокусируется на технических аспектах. Остальные руководители будут активнее участвовать в обсуждении и принятии решений. Они будут наблюдать и управлять качеством кодовой базы по мере ее развития и технического роста команды.
 Команда с Product-менеджером и техлидом В примере выше в команде есть только Product-менеджер и техлид. В такой ситуации техлид наследует обязанности инженера-менеджера. Руководители команды также фокусируются на развитии людей (например, обрабатывают обратную связь или говорят о продвижении по карьерной лестнице) и создании высокоэффективной команды. Эта модель хорошо работает с небольшими командами или менее сложными системами. По мере роста команды или усложнения системы, у техлида остается меньше времени для сосредоточения на обеих областях. Технический лидер в этом контексте неявно отдает приоритет одной из двух областей деятельности. По личному опыту, обычно приоритет отдается технической стороне вопроса в ущерб развитию членов команды.
Что остается в любой команде несмотря на ее состав – это техническое превосходство техлида. Эффективный техлид работает над техническим видением команды. И вместе с командой они обновляют, развивают его и претворяют в жизнь. Техлид постоянно работает с кодом, чтобы принимать обоснованные решения, выявлять технические риски и выстраивать доверительные отношения с разработчиками. В своей презентации [«The Geek’s Guide to Leading Teams» я](https://www.patkua.com/offerings/talks/#GeeksGuidetoLeadingTeams) предлагаю проводить над кодом минимум 30% времени.
### Не просто тимлид
На заре своей карьеры я работал в команде, где были техлид и тимлид. У тимлида не было хороших познаний в архитектуре. И они могли бы вместе писать код, но выбрали способ добавлять команде ценность другим путем. Они очень много времени уделяли развитию людей. Тимлид очень часто общался один на один с людьми, которые работали над обратной связью и развивали свою карьеру. Руководители активно организовывали мероприятия по укреплению психологической безопасности и доверия в команде. Тимлид встречался со стейкхолдерами не из команды, но поддерживал хороший информационный поток и устранял блоки.
Там, где тимлид сосредоточился на проблемах команды, техлид сосредоточился на технических аспектах, затрагивающих больше, чем одного разработчика. Техлид выступал посредником при технических дебатах. И вместе они участвовали в разработке решений для оптимизации производительности. Они говорили о решениях, которые могут ограничить или расширить будущий архитектурный выбор. Они также встречались со стейкхолдерами, но все равно сосредотачивались на технической стороне вопроса. Они поддерживали отношения с другими техлидами, чтобы понимать, что наша система вписывается в более обширную архитектуру компании. Они встречали с продуктологами, чтобы понимать, что наша архитектура отвечает курсу развития продукта.
### Больше практики, чем у инженера-менеджера
> *«Вы управляете вещами и руководите людьми.»*
>
> - Грейс Хоппер
>
>
Как и у техлида, у инженера-менеджера тоже нет четкого определения. В какой-то момент вы поймете, что эта роль варьируется в разных компания, а иногда даже внутри одной компании. Некоторые инженеры-менеджеры похожи на техлидов, но есть и те, которые сильно отличаются. Например, многие не пишут код на каждодневной основе. Вместо этого они занимаются следующим:
* Поддерживают продуктивную рабочую среду для команд разработчиков;
* Выбивают бюджет на развитие и поддержку бизнес-целей;
* Представляют технологические перспективы на уровне руководства или совета директоров;
* Создают или координируют рабочие программы (реализуемые в рамках разработки);
* Занимаются рекрутингом и удержанием персонала для удовлетворения потребностей команды или ИТ-персонала.
Инженер-менеджер может быть как одним на команду, так и одним на несколько команд. У многих из них может даже не быть опыта разработки. Вместо этого они могут быть Product-менеджерами, QA или другими специалистами, вовлеченными в разработку ПО.
### Техлид – хороший архитектор
Архитектор гарантирует, что общая архитектура приложения будет в текущей момент времени и в будущем соответствовать бизнес-контексту. В некоторых организациях архитекторы работают с командами, чтобы создать и проверить видение архитектуры. Архитекторы также ищут правильный баланс стандартизации. Рациональное количество стандартов поддерживает производительность на должном уровне, слишком сильная стандартизация убивает инновационность.
В некоторых организациях есть архитекторы «башен из слоновый кости», которые постоянно с кем-то консультируются, все стандартизируют и документируют. Они перетекают из команды в команду, начинают новые проекты и редко следят за тем, как их первоначальное архитектурное видение смогло воплотиться в жизнь. Не надо так. Техлид не должен быть таким.
Эффективный архитектор – это хороший техлид. Он понимает, какова цель команды, и создает соответствующее архитектурное видение. Он работает с командой, корректирует курс по мере того, как команда узнает больше о задаче и технологии, выбранной для ее решения.
### Какими ключевыми навыками должен обладать технический лидер?
Несмотря на то, что сферы технического руководства могут варьироваться, необходимые навыки – нет. Технический лидер должен сформировать сбалансированный набор навыков в следующих областях:
 Ключевые навыки техлида* *Разработка* – техлид должен иметь опыт работы в качестве разработчика. Он должен знать, как писать код и как выглядит хороший код. Он должен быть в состоянии помочь своей команде с любыми техническими проблемами, даже если он не эксперт в этой сфере.
* *Архитектура* – только один этап построения работающей системы. Технические лидеры должны иметь более широкое понимание того, как программное обеспечение вписывается в общую систему. Они должны понимать как ПО будет разворачиваться, управляться и эксплуатироваться на продакшене.
* *Лидерство* – эффективный техлид должен обладать сильными лидерскими качествами, даже если не он формально стоит во главе команды. Такие лидерские качества, как коучинг, влияние и делегирование полномочий, являются ключом к успеху.
> *«Технический лидер – это инженер-программист, ответственный за руководство командой и поддержку технического направления.»*
>
> *- Определения техлида (от* `@patkua`*)*
>
>
Технический лидер – это инженер-программист, ответственный за руководство командой и поддержку технического направления. Технический лидер может руководить командой совместно с такими специалистами как Product-менеджер, инженер-менеджер или тимлид. Но только техлид фокусируется на технических аспектах, на том «как сделать». Эффективный техлид сочетает в себе сильные лидерские навыки, навыки архитектора и разработчика. Он создает в команде общее техническое видение и несет ответственность за качество технических результатов команды.
---
*Почему уход сотрудника из компании часто становится катастрофой? Как готовиться к выходу из коллектива компании и сотруднику? Почему увольнение должно быть готово в первый день работы?*
***Ответы на эти и многие другие вопросы даст эксперт OTUS - Александр Пряхин, в рамках*** [***бесплатного демо урока курса "Team Lead 2.0"***](https://otus.pw/62pv/)***. Записывайтесь на урок*** [***по ссылке.***](https://otus.pw/62pv/)
--- | https://habr.com/ru/post/537930/ | null | ru | null |
# Ruby и C. Часть 3.
В прошлых частях([часть 1](http://habrahabr.ru/blogs/ruby/48928/),[часть 2](http://habrahabr.ru/blogs/ruby/49202/)) мы рассмотрели использование С для ускорения или расширения Ruby. Сейчас же мы узнаем как использовать Ruby интерпретатор в программах, написанных на С/С++.
В некоторых приложениях возникает необходимость во встроенном языке, для более тонкой настройки или для написания расширений без перекомпиляции. Ruby очень хорошо подходит для этой цели, т.к. имеет простое и удобное API для втраивания в C/C++ приложения. Например Google SketchUp использует Ruby в качестве скриптового языка.
Давайте рассмотрим как встроить Ruby в наши С/С++ приложения.
Начнем с рассмотрения функции `rb_eval_string`, которая выполняет строку с Ruby кодом.
Давайте рассмотрим простой пример — програма для вычисления выражений. Для простоты у нас в выражениях будет только две переменные.
Пример работы приложения, входные данные:
```
($a+$b)*$a-$b
2
3
```
Результат:
```
($a+$b)*$a-$b = 7
```
Посмотрим код:
```
#include
#include
int main() {
ruby\_init(); //инициализация интерпретатора
int a = 0;
int b = 0;
char expr[256];
//читаем выражение и две переменные
scanf("%s", &expr);
scanf("%d", &a);
scanf("%d", &b);
//создаем Ruby переменные
VALUE r\_a = INT2NUM(a);
VALUE r\_b = INT2NUM(b);
//и делаем их доступными в интерпретаторе
rb\_define\_variable("$a", &r\_a);
rb\_define\_variable("$b", &r\_b);
//выполняем выражение и выводим результат
VALUE res = rb\_eval\_string(expr);
printf("%s = %d\n", expr, NUM2INT(res));
return 0;
}
```
***Примечание:** про тип данных VALUE, макросы INT2NUM и т.п., и более подробно про работу с Ruby C API смотрите в [части 2](http://habrahabr.ru/blogs/ruby/49202/)*
В данном примере мы считали с клавиатуры две переменные и выражение с ними. Затем, на основе этих переменных, создали глобальные Ruby переменные и, с помощью метода `rb_define_variable`, сделали их доступными в интерпретаторе.
В итоге, с помощью метода `rb_eval_string`, мы выполнили выражение и вывели его результат на экран.
Теперь перейдем к загрузке и выполнению скриптов на Ruby.
Рассмотрим такой пример: нам нужно получать хэш строки по пользовательскому алгоритму. Сценарий работы такой, пользователь создает файл alg.rb и реализует в нем алгоритм хэширования. В нашей програме мы загружаем пользовательский скрипт, передаем ему строку для хэширования, выполняем скрипт и печатаем результат.
Посмотрим код:
```
#include
#include
int main() {
ruby\_init(); //инициализация интерпретатора
ruby\_init\_loadpath(); //возможность подключать стандартные библиотеки, например require 'MD5'
VALUE res = rb\_str\_new2("some test string"); //наша тестовая строка
rb\_define\_variable("$res", &res); //делаем ее доступной скрипту
rb\_load\_file("alg.rb"); //загружаем файл с алгоритмом
//выполняем скрипт и выводим результат
ruby\_exec();
printf("%s\n", StringValuePtr(res));
return 0;
}
```
Теперь в файле alg.rb мы можем реализовывать какие угодно алгоритмы хэширования.
Например, к количество пробелов в строке(не очень удачный хэш:)):
```
hash = 0
$res.split(//).each {|c| hash += 1 if c == " "}
$res = hash.to_s
```
или сумма всех символов в шестнадцатеричном виде:
```
hash = 0
$res.split(//).each {|c| hash += c[0]}
$res = hash.to_s(16)
```
или же md5, с помощью стандартной библиотеки:
```
require "md5"
$res = MD5.hexdigest($res)
```
Теперь о компиляции приложений со встроенным Ruby, на пример gcc:
`gcc test.c -o test -I<папка с ruby.h> -lruby`
либо:
`gcc test.c -o test -I<папка с ruby.h> -lruby1.8`
Для компиляции в \*nix системах нужно поставить пакет ruby-dev, например так:
`sudo apt-get install ruby1.8-dev` | https://habr.com/ru/post/50039/ | null | ru | null |
# Собственный провайдер пользователей для Keycloak
Интегрируя Keycloak в уже существующую систему, высока вероятность столкнуться с необходимостью во время аутентификации загружать пользователей из древней базы данных, где информация о них может храниться в довольно причудливом виде. Такая задача решается созданием собственного провайдера пользователей (User Federation Provider в терминологии Keycloak). Ниже будет представлено краткое руководство по написанию такого провайдера.
---
Если вдруг вы не знакомы с Keycloak, то вот вам цитата из Wikipedia:
> **Keycloak** продукт с открытым кодом для реализации single sign-on с возможностью управления доступом, нацелен на современные применения и сервисы.
>
>
В современном микросервисном мире Keycloak интересен прежде всего как провайдер OAuth 2.0, с помощью которого можно выдавать клиентам токены для доступа к тем или иным сервисам.
В техническом плане Keycloak - это web-приложение внутри сервера WildFly, что у кого-то может вызвать мурашки по телу от воспоминаний о кровавом энтерпрайзе. Впрочем, довольно теории, пора засучить рукава!
Наш плагин для Keycloak будет представлять собой небольшое приложение, упакованное в WAR. Для его сборки будет достаточно Java 8. В качестве инструмента сборки возьмём Gradle, а в зависимостях укажем следующие модули:
```
compileOnly "org.keycloak:keycloak-core:12.0.3"
compileOnly "org.keycloak:keycloak-server-spi:12.0.3"
compileOnly "org.jboss.logging:jboss-logging:3.4.1.Final"
implementation "org.springframework:spring-core:5.3.3"
implementation "org.springframework:spring-jdbc:5.3.3"
implementation "org.springframework.security:spring-security-core:5.4.4"
testImplementation platform('org.junit:junit-bom:5.7.1')
testImplementation 'org.junit.jupiter:junit-jupiter'
testImplementation 'org.mockito:mockito-core:3.7.7'
testRuntimeOnly 'javax.ws.rs:javax.ws.rs-api:2.1.1'
testRuntimeOnly 'com.h2database:h2:1.4.200'
```
Модули Spring Framework могут показаться лишними, тем более, что наш плагин не будет работать в контексте Spring. Использовал я их исключительно для облегчения работы с базой данных, а также для валидации паролей.
Самые важные зависимости - это зависимости от модулей Keycloak. В вопросе номеров версий этих зависимостей очевидно стоит отталкиваться от того, какая конкретно версия Keycloak у вас используется.
Для логирования действий нашего провайдера был выбран JBoss Logging, как "родное" решение в случае сервера WildFly. Допускаю, что можно писать в лог, пользуясь чем-то более привычным, вроде SLF4J.
Также мы воспользуемся плагином `io.freefair.lombok`.
Провайдеры пользователей в Keycloak представлены интерфейсом `org.keycloak.storage.UserStorageProvider`, который тем не менее, не содержит особенно интересных методов. Те методы, которые мы будем реализовывать, содержатся в таких интерфейсах, как `org.keycloak.storage.user.UserLookupProvider` и `org.keycloak.credential.CredentialInputValidator`. Первый интерфейс предоставляет методы поиска пользователей по имени, идентификатору или адресу электронной почты. Второй интерфейс - метод валидации пароля. Начнём с методов поиска.
Для начала создадим реализацию интерфейса `org.keycloak.models.UserModel` (именно её нужно будет возвращать из методов поиска пользователей). Для этого удобно будет наследоваться от `org.keycloak.storage.adapter.AbstractUserAdapter`, который предоставляет реализации по умолчанию для многих методов интерфейса `org.keycloak.models.UserModel`:
```
public class LegacyDatabaseUserModel extends AbstractUserAdapter {
public static final String ATTRIBUTE_PASSWORD = "password";
private final MultivaluedHashMap attributes = new MultivaluedHashMap<>();
private final Set roles;
private LegacyDatabaseUserModel(Builder builder) {
super(builder.session, builder.realm, builder.storageProviderModel);
this.attributes.putSingle(UserModel.USERNAME, builder.username);
this.attributes.putSingle(UserModel.FIRST\_NAME, builder.firstName);
this.attributes.putSingle(UserModel.LAST\_NAME, builder.lastName);
this.attributes.putSingle(ATTRIBUTE\_PASSWORD, builder.password);
this.roles = Collections.unmodifiableSet(builder.roles);
}
public static Builder builder() {
return new Builder();
}
@Override
public String getUsername() {
return getFirstAttribute(UserModel.USERNAME);
}
@Override
public String getFirstName() {
return getFirstAttribute(UserModel.FIRST\_NAME);
}
@Override
public String getLastName() {
return getFirstAttribute(UserModel.LAST\_NAME);
}
@Override
public Map> getAttributes() {
return new MultivaluedHashMap<>(attributes);
}
@Override
public String getFirstAttribute(String name) {
return attributes.getFirst(name);
}
@Override
public List getAttribute(String name) {
return attributes.get(name);
}
@Override
protected Set getRoleMappingsInternal() {
return roles;
}
public static class Builder {
...
}
}
```
Набор атрибутов пользователя не велик, а сами атрибуты неизменяемы, что также поддерживается родительским классом, в котором методы-мутаторы по умолчанию бросают исключения. Почему атрибуты собраны в `Map`, а не представлены отдельными полями класса, станет понятно чуть позже - в момент валидации пароля.
Далее нам понадобится реализация интерфейса `org.keycloak.models.RoleModel` для представления ролей пользователя. Для неё я не обнаружил удобного адаптера, поэтому придётся предоставить реализации всех необходимых методов самостоятельно:
```
@AllArgsConstructor
public class LegacyDatabaseRoleModel implements RoleModel {
@Getter
private final RoleContainerModel container;
@Getter
private final String name;
@Override
public String getId() {
return getName();
}
@Override
public void setName(String name) {
throw new ReadOnlyException("Role is read only for this update");
}
@Override
public String getDescription() {
return null;
}
@Override
public void setDescription(String description) {
throw new ReadOnlyException("Role is read only for this update");
}
@Override
public boolean isComposite() {
return false;
}
@Override
public void addCompositeRole(RoleModel role) {
throw new ReadOnlyException("Role is read only for this update");
}
@Override
public void removeCompositeRole(RoleModel role) {
throw new ReadOnlyException("Role is read only for this update");
}
@Override
public Stream getCompositesStream() {
return Stream.empty();
}
@Override
public boolean isClientRole() {
return false;
}
@Override
public String getContainerId() {
return container.getId();
}
@Override
public boolean hasRole(RoleModel role) {
return false;
}
@Override
public Map> getAttributes() {
return Collections.emptyMap();
}
@Override
public void setSingleAttribute(String name, String value) {
throw new ReadOnlyException("Role is read only for this update");
}
@Override
public void setAttribute(String name, List values) {
throw new ReadOnlyException("Role is read only for this update");
}
@Override
public void removeAttribute(String name) {
throw new ReadOnlyException("Role is read only for this update");
}
@Override
public Stream getAttributeStream(String name) {
return Stream.empty();
}
}
```
Модель роли фактически состоит лишь из названия роли, которое также выбрано в качестве её идентификатора. По аналогии с адаптером модели пользователя, методы-мутаторы бросают исключения.
Теперь переходим непосредственно к провайдеру пользователей. Загружать информацию о пользователях будем только по имени пользователя или по его идентификатору. Адрес электронной почты проигнорируем. Метод загрузки по имени выглядит следующим образом:
```
private final ConcurrentMap loadedUsers = new ConcurrentHashMap<>();
@Override
public LegacyDatabaseUserModel getUserByUsername(String username, RealmModel realm) {
UserModelKey userKey = new UserModelKey(username, realm.getId());
return loadedUsers.computeIfAbsent(userKey, k -> {
LegacyDatabaseUserModel user = findUserByName(username, realm);
if (user != null) {
log.debugv("User is loaded by name \"{0}\"", username);
}
return user;
});
}
```
Полезно кэшировать ранее загруженных пользователей, поскольку Keycloak в процессе аутентификации может не один раз запросить модель пользователя у нашего провайдера. Здесь применён примитивный подход с `java.util.concurrent.ConcurrentMap`. Метод `findUserByName` обращается к базе данных, используя `org.springframework.jdbc.core.JdbcTemplate` и собственный `org.springframework.jdbc.core.ResultSetExtractor`, который раскладывает все атрибуты пользователя по полочкам, попутно формируя набор его ролей.
```
private LegacyDatabaseUserModel findUserByName(String username, RealmModel realm) {
return jdbcTemplate.query(SQL_FIND_USER_BY_NAME, new Object[]{username}, new int[]{Types.VARCHAR},
new LegacyDatabaseUserModelResultSetExtractor(realm));
}
```
```
@RequiredArgsConstructor
private class LegacyDatabaseUserModelResultSetExtractor implements ResultSetExtractor {
final RealmModel realm;
@Override
public LegacyDatabaseUserModel extractData(ResultSet rs) throws SQLException, DataAccessException {
if (!rs.next()) {
return null;
}
LegacyDatabaseUserModel.Builder userModelBuilder = LegacyDatabaseUserModel.builder()
.session(session)
.realm(realm)
.storageProviderModel(storageProviderModel)
.username(rs.getString(1))
.password(rs.getString(2))
.firstName(rs.getString(3))
.lastName(rs.getString(4))
.withRole(new LegacyDatabaseRoleModel(realm, rs.getString(5)));
while (rs.next()) {
userModelBuilder.withRole(new LegacyDatabaseRoleModel(realm, rs.getString(5)));
}
return userModelBuilder.build();
}
}
```
Загрузка информации о пользователе по его идентификатору не намного сложнее. Потребуется лишь извлечь имя пользователя из этого идентификатора:
```
@Override
public LegacyDatabaseUserModel getUserById(String id, RealmModel realm) {
StorageId storageId = new StorageId(id);
String username = storageId.getExternalId();
return getUserByUsername(username, realm);
}
```
По умолчанию идентификатор имеет следующий вид: `f::`. Для извлечения имени пользователя удобно воспользоваться классом `org.keycloak.storage.StorageId`.
Наконец, метод валидации пароля:
```
@Override
public boolean isValid(RealmModel realm, UserModel userModel, CredentialInput credentialInput) {
if (!supportsCredentialType(credentialInput.getType())) {
log.debugv("Credential type \"{0}\" is not supported", credentialInput.getType());
return false;
}
String password = user.getFirstAttribute(LegacyDatabaseUserModel.ATTRIBUTE_PASSWORD);
return passwordEncoder.matches(credentialInput.getChallengeResponse(), password);
}
```
В нём мы сначала проверяем, что текущий способ аутентификации нам подходит, а готовы откликнуться мы только на аутентификацию по паролю (среди альтернативных вариантов может быть аутентификация по одноразовому коду). Затем извлекаем пароль из атрибутов пользователя. Вот тут-то нам и пригодилось хранение атрибутов пользователя в `Map`. Интерфейс `org.keycloak.models.UserModel` не содержит метода получения пароля пользователя, кроме того, не стоит надеяться на возможность "скастить" аргумент метода `isValid` к нашему классу `com.habr.keycloak.model.LegacyDatabaseUserModel` - за интерфейсом может скрываться совершенно иная реализация. Сам процесс валидации пароля делегирован реализации интерфейса `org.springframework.security.crypto.password.PasswordEncoder`.
Провайдеры в Keycloak не создаются сами собой. Им требуются фабрики. В нашем случае это должна быть реализация интерфейса `org.keycloak.storage.UserStorageProviderFactory`. Во время инициализации нашей фабрики мы сделаем следующее:
1. создадим источник данных для соединения с базой данных;
2. создадим подходящий кодировщик паролей.
```
@Override
public void init(Config.Scope config) {
initDataSource();
initPasswordEncoder();
}
```
Параметры для инициализации фабрики по умолчанию будем добывать из системных свойств:
```
private PropertySource> getPropertySource() {
if (propertySource == null) {
propertySource = getDefaultPropertySource();
}
return propertySource;
}
private PropertySource> getDefaultPropertySource() {
return new PropertiesPropertySource("default", System.getProperties());
}
```
Вообще, можно пойти по Keycloak-way и загрузить параметры из файла `*.properties`, путь к которому задан в `standalone.xml`:
```
@Override
public void init(Config.Scope config) {
String propertyFilePath = config.get("property-file-path");
...
```
Но это на мой взгляд уже вкусовщина.
Источник данных у нас будет крайне простой, без пула соединений:
```
private void initDataSource() {
String driverClassName = getDataSourceDriverClassName();
String url = getDataSourceUrl();
SimpleDriverDataSource dataSource = new SimpleDriverDataSource();
try {
dataSource.setDriverClass((Class extends Driver) Class.forName(driverClassName));
dataSource.setUrl(url);
dataSource.setUsername(getDataSourceUsername());
dataSource.setPassword(getDataSourcePassword());
this.dataSource = dataSource;
log.debugv("Data source to connect with database \"{0}\" is created", url);
} catch (ClassNotFoundException e) {
throw new IllegalStateException("JDBC driver class \"" + driverClassName + "\" is not found", e);
}
}
```
Здесь стоит сделать важное замечание: драйвер базы данных должен присутствовать либо в WAR-файле нашего плагина, либо в модулях Keycloak. Здесь я пошёл по второму пути, а значит плагин должен явно декларировать зависимость от определённого модуля драйвера, что будет продемонстрировано чуть позже. Если нужный модуль драйвера отсутствует, его легко добавить. Процесс добавления нового модуля описан в официальной документации Keycloak.
В качестве кодировщика паролей я взял `org.springframework.security.crypto.bcrypt.BCryptPasswordEncoder`.
Финальный шаг - регистрация фабрики по стандартам Factory Finder'а, что подразумевает создание в каталоге `META-INF/services` файла `org.keycloak.storage.UserStorageProviderFactory`, содержащего имя класса нашей фабрики провайдеров.
Как было указано ранее, плагин загружает драйвер базы данных из определённого модуля Keycloak. Для того, чтобы сказать Keycloak, что мы зависим от этого модуля, потребуется дополнительно создать файл `jboss-deployment-structure.xml` в каталоге `META-INF`:
```
xml version="1.0" encoding="UTF-8"?
```
Чтобы Keycloak подхватил наш плагин, его (плагин) следует положить в каталог `$KEYCLOAK_HOME/standalone/deployments`. В случае успеха с развёртыванием плагина в админке Keycloak в разделе *User Federation* появится возможность добавить провайдер с идентификатором `habr.legacy-database`, после чего можно приступать к выдаче токенов.
[Исходный код плагина доступен на GitHub](https://github.com/rchigvintsev/keycloak-user-storage-provider-demo).
На этом всё. Спасибо за внимание! | https://habr.com/ru/post/550704/ | null | ru | null |
# Планируете писать приложение на AngularJS? Пост вам в помощь
 Самые непристойные и отвратительные наши поступки, выходящие за всякие нормы морали и принципов, обычно начианаются со слов «А почему бы и нет?».
В данном посте я затрону вопросы проектирования приложения на AngularJS, философии, его архитектуры, сборки, пройдусь по разным полезным библиотекам и готовым архитектурным шаблонам. В довершение устрою небольшую Angular+Require.js+Grunt+Yeoman оргию, которую я назвал [Angular-Super-Seed](https://github.com/galkinrost/generator-ass) или чуть более скромно [ASS-генератор](https://github.com/galkinrost/generator-ass).
Так что, если вы планируете писать приложение на Angular, то почему бы и нет?
Мотивация
---------
* «Поступай с людьми так, как хотел бы, чтобы поступили с тобой». Вдруг кому-то пригодится
* Узнать что-нибудь новенькое как о себе, так и о разработке в комментариях.
* Попиарить свой генератор приложения [ASS](https://github.com/galkinrost/generator-ass).
Из чего состоит Angular приложение?
-----------------------------------
При условии, что приложение на Angular не состоит из сервисов, контроллеров, директив и шаблонов?
Правильно, приложение на Angular состоит из модулей и только из модулей.
### Ок, умник, из чего состоят модули?
А вот модули в свою очередь уже могут состоять из сервисов, контроллеров, директив, сервисов, провайдеров и шаблонов.
### Сервисы
Сервисы это, пожалуй, самый простой компонент с точки зрения его примения. Для чего он нужен? В большинстве случаев, сервис используется в качестве Модели в теории MVC, то есть для работы с данными. К примеру, вы можете создать сервис пользователя $user для хранения данных в куках или локальном хранилище. Или сервис $api — обертку для библиотечного $http, который будет осуществлять взаимодействие с вашим серверным API. Но сервисом могут быть и процессы, которые выполняются фоном, и просто библиотеки объектов, функций, которые вы планируете использовать в разных местах кода.
```
...
.factory("$user",function($rootScope, $someLocalStorageService){
var user={
id:null,
name:null,
isAuthorized:false
}
if($someLocalStorageService.load("user"))angular.extend(user,$someLocalStorageService.load("user"));
$rootScope.$watchCollection(function(){
return user;
},function(user){
$someLocalStorageService.save("user",user);
});
return user;
});
```
В данном примере сервис представляет собой как модель, так и фоновый процесс, который следит за изменением объекта и тут же сохраняет в локальном хранилище.
Теперь пару слов о том, где с этими сервисами можно работать.
### Контроллеры
В контроллерах. Абстрагируемся от способов вызова контроллеров и обратимся к сути. А суть их проста связывать работу сервисов. И только в этом, хотя чаще всего кажется, что контроллер служит для того, чтобы связывать отображение (/верстку/DOM/HTML) с данными. И в принципе изначально так и было. Раньше вы могли в контроллере, используя this обратиться к данным, которые используются в шаблоне.
```
...
.controller("SomeCtrl",function(){
this.var="холли вар";
});
...
Святой {{var}}
```
Но лавочку быстро прикрыли, и теперь, чтобы обратиться к этим данным вам нужен специальный сервис $scope. Поэтому запишем: *«контроллеры — это структурный компонент, который используется для осуществления взаимодействия между сервисами»*.
Будь я преподавателем, принимающим экзамен у студента, лучше бы не сказал. Но, если смотреть правде в глаза, то в 99,99% случаев контроллеры будут вами использоваться именно для того, чтобы связать ui с логикой обработки данных.
### Директивы
А вот за то, как связывать, эти самые данные с версткой отвечают директивы. Про то, что работа с DOM в Angular должна производиться только в директивах сказано много слов, поэтому, если к вам обратятся с вопросом "-А можно ли вызвать jQuery в контроллере", отвечайте "-Да, конечно", а когда тот развернется и довольный начнет уходить, хладнокровно стреляйте в затылок.
В чем смак директив? В том, что вы можете очень просто привязывать логику и данные к элементам ui. В принципе, если вы поставите перед собой такую цель, то вы можете напрочь забыть о таком термине как селектор.
Что есть директива? Нечто привязанное к элементу DOM. Как привязано? Как тэг, как аттрибут тэга, как класс тэга.
И в этом, на мой взгляд, и состоит вся суть ангулы. Роутинг, дата-байндинг, каркас — все это уже было до ангулы в разных фреймворках. А вот такой компактности и простоты проектирования ui, я лично нигде не встречал.
### Вопрос сборки
Зачем она нужна? Чтобы при загрузке страницы на продакшене у вас было не сотни подключений для загрузки файлов проекта, а, в идеале, один. Чтобы при разработке не было необходимости ручками прописывать добавленные файлы.
Долгое время в крупных проектах и командах он решался с помощью самописных инструментов, сейчас для этого есть плагины Grunt/Gulp. И тут есть несколько аспектов. Суть этих плагинов в том, что все ваши скрипты/стили сшиваются в один. Значит нужно где-то прописать правила/зависимости и т.д., как эти файлы сшить. В коде самих файлов делать это будет неудобно, значит, нужно создавать дополнительные *package-файлы*. Но это еще не все. Очевидно, что это сшивание должно происходить после редактирования проекта, когда вы хотите протестировать результат. И здесь два варианта либо обновлять ручками, вызывая соответствующую команду, либо сделать, так называемый, *watcher* — скрипт, который мониторит все ваши файлы и производит сборку. В принципе, вариант неплохой, но при работе над большим проектом, можно получить ожидаемые проблемы с производительностью.
Поэтому я лично являюсь сторонником [Require.js](http://requirejs.org/). Почему? Ну во-первых зависимости прописываются в коде, во-вторых, при разработке браузер сам подгрузит все необходимые файлы и сшивка не нужна, ну и в-третьих, когда дело дойдет до продакшена, все ваши файлы будут сжаты в один и, если захотитет, минифицированы.
Поэтому вопрос сборки — вопрос, который каждый решает для себя сам, нужна она или нет, и какими инструментами пользоваться. Главное, что играет роль при решении данного вопроса — архитектура.
### Про архитекутуру
Здесь я опять вспомню, что приложение состоит из модулей. Поэтому когда вы планируете архитектуру своего приложения, вам стоит прикинуть из скольких модулей оно будет состоять. Оно может состоять только из одного модуля или наоборот иметь для каждой страницы сайта отдельный модуль. От чего это зависит? Во-первых, от вашего желания дробить даже небольшое приложение на модули. Во-вторых, от размера приложения. Чтобы было понятнее, вот условие.
```
(boolean) Буду ли я разбивать проект на модули = (boolean) Я разбиваю любые проекты на модули || (boolean) Проект большой
```
Ну и не маловажным будет то, как вы собираетесь тестировать свое приложение. Если вы хотите гонять тесты отдельно для контроллеров, сервисов, директив, то понятно, что вам нужно будет вынести их в отдельные модули «App.controllers», «App.services», «App.directives» и т.д.
Но что касается архитектуры, всегда приятно смотреть на то, как делают другие.
#### NGBP
[ЛГБТ](https://github.com/ngbp/ngbp), как раз, предполагает, что ваш проект будет состоять из множества модулей. В приложении есть [главный модуль](https://github.com/ngbp/ngbp/blob/v0.3.1-release/src/app/app.js), в котором описывается роутинг и прочие начальные установки, а остальная логика распределяется [по компонентам](https://github.com/ngbp/ngbp/tree/v0.3.1-release/src/app).
Что бросается в глаза? То, что все ваши контроллеры, сервисы, директивы и прочее должны описываться в одном файле модуля. И хоть я лично являюсь приверженцем простоты, но даже на мой взгляд это уже будет перебором. И это на мой взгляд главный минус данного шаблона.
#### Angular-seed
На мой взгляд, отлично подходит для небольших и средних приложений. [Проект состоит](https://github.com/angular/angular-seed/tree/master/app/js) хоть и формально из нескольких модулей, но это как раз тот случай, когда контроллеры, сервисы и директивы, собираются вместе, поэтому с архитектурной точки зрения можно считать, что модуль только один.
Плюсы очевидны — все просто, понятно и компактно. Минусы, тоже — если вы будете делать большой проект, в большой команде, вам будет тесно, вдобавок ко всему сборка и минификация приложения не предусмотрена.
#### Angular-require-seed
Если вам понравился angular-seed, но хочется использовать require, то, пожалуйста, [используйте](https://github.com/tnajdek/angular-requirejs-seed). Плюсы, минусы те же, что и у Angular-seed. Разве, что за счет использования require.js вам будет проще компилировать свой проект, но это, если вы используется [require-оптимизатор](http://requirejs.org/docs/optimization.html)
#### Angular-super-seed
Я же, размышляя на тему архитектуры приложения, на тему того, чего не хватает и что бы еще предложить сообществу, пришел к [такому результату](https://github.com/galkinrost/angular-boilerplate/tree/master/app).
В чем особенность? Вы можете дробить свой проект на модули, а можете ограничиться только основным. В плане хранения контроллеров, сервисов и директив я пошел я еще дальше. Все они хранятся в отдельных файлах. Более того, для каждой директивы создается [отдельный шаблон](https://github.com/galkinrost/angular-boilerplate/tree/master/app/templates/directives) и [отдельный файл стилей](https://github.com/galkinrost/angular-boilerplate/tree/master/app/styles/directives).
Модули компонент задаются и описываются так же [в отдельном файле](https://github.com/galkinrost/angular-boilerplate/blob/master/app/controllers/_module.js).
Очевидным минусом такого подхода является то, что при создании каждого нового контроллера/сервиса/директивы необходимо выполнять кучу рутиных операций для их объявления. То есть, вы хотите создать новую директиву: создайте файл директивы, файл шаблона, файл стилей. Не смертельно, но поднадоесть может. И вот здесь пришло время сказать **YO ASS !**
#### Yeoman
Когда я в первый раз зашел на сайт [Yeoman](http://yeoman.io/) фишки сервиса я не оценил. Ну можешь ты создавать отдельные файлы по определенным шаблонам. Ну так это я и в редакторе могу настроить.
Но вот когда я задумался о том, что хорошо бы не просто отдельные файлы создавать, но и при этом выполнять и еще каки-нибудь операции, вот тогда я-то и присмотрелся к товарищу старшине.
В резульате чего получился [такой вот генератор](https://github.com/galkinrost/generator-ass).
Ставим Yeoman
```
npm install -g yo
```
Ставим генератор
```
npm install -g generator-ass
```
В чем кайф? В том что вы можете сделать у себя в консоли вот так:
```
yo ass
```
И у вас в папке появится новое приложение. Ну а дальше — больше.
```
yo ass:page main
```
Автоматически создаст новый шаблон для страницы, файл стилей, контроллер и [подключит](https://github.com/galkinrost/angular-boilerplate/blob/master/app/main.js#L40) это все в роутер
Создадим модуль
```
yo ass:module first
```
Модуль [готов](https://github.com/galkinrost/angular-boilerplate/tree/master/app/modules/first) и уже [сдан под ключ](https://github.com/galkinrost/angular-boilerplate/blob/master/app/main.js#L37).
И теперь создадим в нем директиву
```
yo ass:module firstDirective
```
отвечаем на вопрос, в каком модуле и все ок.
Сразу скажу, что не хватает пока тестирования и моков. Все будет.
На этом все, надеюсь, кому-нибудь пригодится. Почему бы и нет? | https://habr.com/ru/post/215297/ | null | ru | null |
# CSS-Expressions on DOMReady (CSS+JS в одном файле)
Вероятно, многие из вас используя css-expressions сталкивались с проблемой периодического появления сообщения abort. В народе поговаривают, что связано это с изменением DOM-дерева до его готовности.
Я тоже сталкивался и, не долго думая, решил написать небольшую «обертку» для expression’ов, которые я часто использую, учитывающую готовность DOM, упакованную в файл стилей.
Оную вашему вниманию и представляю.
##### Использование
«Библиотека» представляет собой всего один файл CSS, но с включенным в него кодом JavaScript, который мы и вызываем в expression’ах:
> `1. */\*@cc\_on /\*@if (1) @else @\*/*
> 2. Стилевые правила.
> 3. */\*@end @\*/*
> 4.`
##### Использование
> `1. селектор {
> 2. **width**:expression(expressions('эмулируемое действие', this, {
> 3. property: 'св-во для отмены (обычно идентично тому, в котором вызывается expression). Если указано, св-во обнуляется и expression в нем повторно не выполняется.',
> 4. options: 'опции, в зависимости от действия'
> 5. }));
> 6. }`
«Действия» вызываются по готовности DOM-дерева. Если expression запущен после готовности — сразу.
##### Включенные функции (действия)
###### before
Добавляет элемент *span* с классом x-expression-pseudo-before первым дочерним элементом.
Параметр options — строка, задает содержимое «псевдоэлемента».
###### after
Добавляет элемент *span* с классом x-expression-pseudo-after последним дочерним элементом.
Параметр options — строка, задает содержимое «псевдоэлемента».
###### firstСhild
Добавляет класс x-expression-first-child к элементу, если он является первым дочерним своего родителя. Псевоэлементы *before* и *after*, сгенерированные библиотекой, пропускаются.
###### borderSpacing
Эмулирует св-во *border-spacing* через атрибут *cellSpacing*.
Параметр options — число, устанавливаемое в атрибут.
###### attribute
> `1. {
> 2. name: 'имя атрибута',
> 3. value: 'значение атрибута'
> 4. }`
Проверяется наличие у элемента атрибута с именем **name**, и, если задан параметр **value**, его значение.
Если проверка пройдена, устанавливаются классы x-expression-attribute, x-expression-attribute-**name** и x-expression-attribute-**name**-**value**.
###### width
Управляет минимальной и максимальной шириной элемента. Данные берутся из св-в *min-width* и *max-width*. Для расчета используется родительский элемент.
###### any
Запускает произвольную функцию в контексте элемента.
Параметр options — запускаемая функция.
##### Несколько примеров
> `1. body {
> 2. **width**:expression(expressions('before', this, {property: 'width', options: 'aaa'}));
> 3. **height**:expression(expressions('before', this, {property: 'height', options: 'bbb'})); // Не сработает
> 4. **top**:expression(expressions('after', this, {property: 'top', options: 'ccc'}));
> 5. }
> 6.
> 7. .a1, .a2 {
> 8. **width**:expression(expressions('firstChild', this, {property: 'width'}));
> 9. }
> 10.
> 11. table {
> 12. **width**:expression(expressions('borderSpacing', this, {property: 'width', options:'10'}));
> 13. }
> 14.
> 15. input {
> 16. **height**:expression(expressions('any', this, {property: 'height', options:function(){this.runtimeStyle.backgroundColor = 'red';}}));
> 17. **width**:expression(expressions('attribute', this, {property: 'width', options: {name: 'type', value: 'text'}}));
> 18. }
> 19.
> 20. .min-max {
> 21. **min-width**:400px;
> 22. **max-width**:700px;
> 23. **border**:10px solid red;
> 24. **top**:expression(expressions('width', this));
> 25. **padding**:10px;
> 26. **margin**:10px;
> 27. }`
##### P.S.
Если кому пригодится, скачать можно [тут](http://code.google.com/p/mad-investigations/ "тут") | https://habr.com/ru/post/87935/ | null | ru | null |
# Как сделать Змейку на чекбоксах и не только
В допандемическом 2020 Брайан Браун отправился на неделю в Recurse Center и разработал [Checkboxland](https://www.bryanbraun.com/checkboxland/). Эта библиотека JavaScript отображает текст и анимацию на сетке флажков.
К забавному маленькому проекту автор сделал несколько демонстраций, написал об этом, а в итоге положил проект на полку и не прикасался к нему около года. В конце концов, отчаянно захотелось развлечься с программированием, и автор снова взялся за Checkboxland. Хотелось сделать более качественную и сложную анимацию, поэтому всё началось с эффекта пульсации — и зацепило. Да, на КДПВ вы видите кадр из видео на чекбоксах.
Пока у нас начинается [курс по Frontend-разработке](https://skillfactory.ru/frontend-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fr_111021&utm_term=lead), делимся сразу двумя материалами о чекбоксах.
---
Математические анимации
-----------------------
Анимация пульсации. Более подробную информацию см. в моей статье о пульсациях https://www.bryanbraun.com/2021/04/15/ripple-animation-in-javascript/Создание пульсации заставило меня углубиться в математику анимации. Вскоре я понял, что могу использовать подобные приёмы для создания других анимаций, в том числе этих:
Когда я показывал кому-то анимацию, подобную этой, люди часто пытались нажать на флажки, чтобы посмотреть, что произойдёт. Нажатие ничего не давало — анимация просто отменяла их клики, что весьма разочаровывало, поэтому я захотел сделать анимацию с реакцией на нажатия.
Интерактивные анимации
----------------------
«Лазер»-анимация. Попробуйте здесь https://www.bryanbraun.com/checkboxland/docs/demos/lasers/Анимация «пульс». Попробуйте здесь: https://www.bryanbraun.com/checkboxland/docs/demos/pulse/Чем больше интерактивных демонстраций я делал, тем больше идей у меня возникало. Я могу создавать игры! [Змейку](https://www.bryanbraun.com/checkboxland/docs/demos/snake/), пинг-понг, тетрис! Но, прежде чем я слишком далеко продвинулся по этому пути, меня посетила новая мысль.
Если бы я мог отобразить любое изображение, то мне не пришлось бы проходить через трудоёмкий процесс определения каждого флажка вручную или придумывать алгоритм для нужной мне сцены.
Изображения
-----------
Преобразование изображений казалось сложной задачей, поэтому я долго откладывал её, пока не наткнулся на [эту](https://www.jonathan-petitcolas.com/2017/12/28/converting-image-to-ascii-art.html) замечательную статью о преобразовании изображений в ASCII-текст. Через какое-то время я конвертировал изображения:
Вскоре я понял, что конвертирование изображений — это 90% пути к конвертированию видео. И вот результат.
Видео
-----
 служит основой для анимации флажка (справа). Попробуйте другие видео или загрузите своё https://www.bryanbraun.com/checkboxland/docs/demos/video-test/")Видео в формате mp4 (слева) служит основой для анимации флажка (справа). Попробуйте другие видео или загрузите своё https://www.bryanbraun.com/checkboxland/docs/demos/video-test/Вскоре я расширил API Checkboxland, чтобы можно было загружать любое видео (например, из giphy или gifer) и мгновенно генерировать версию с флажками. Анимация флажками стала тривиальной.
Это означает, что я могу отображать данные с веб-камеры, что привлекло много внимания в Twitter:
Наконец, мой коллега Рид рассказал мне о задаче, где люди пытаются воспроизвести анимационный ролик «Bad Apple» на разных непонятных вычислительных средах (см. [кучу](https://www.youtube.com/playlist?list=PLajlU5EKJVdonUGTEc7B-0YqElDlz9Sf9) примеров здесь). Это прозвучало забавно, поэтому я пошёл и записал видео на Youtube.
Весь этот процесс был интересным, но мне действительно пора остановиться.
Я был ранен проектом прямо в голову, бросил из-за него всё. Конечно, это безобидное развлечение, но я начинаю чувствовать вину за то, что трачу месяцы на возню с этими вещами, когда у меня есть инструменты и навыки, чтобы выпустить нечто действительно полезное.
Я [ощущаю](https://www.bryanbraun.com/2018/02/18/the-cure-for-boredom-is-superpowers/) себя Суперменом, использующим сверхспособности, чтобы поджарить яйцо. Если я продолжу в том же духе, то стану известен как «парень с галочкой». Это не слишком продаваемо, но, думаю, бывает ещё хуже.
К счастью, кажется, я начинаю исчерпывать все интересные идеи, которые мог бы сделать в этом формате. Иногда это выглядит как «чувак, мы поняли, ты можешь сделать что угодно с флажками».
У меня есть ешё несколько затянувшихся в реализации идей, хотя… быть может, это как управляемый лесной пожар, и я должен просто позволить себе продолжать делать это всё, пока идеи не перегорят сами собой.
Пока автор решает, что делать с идеями, вы можете [начать изучение фронтенда](https://skillfactory.ru/frontend-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fr_111021&utm_term=main) или просто прочитать следующий материал.
---
Пять приёмов стилизации чекбоксов
---------------------------------
[*Оригинал*](https://css-tricks.com/fun-times-styling-checkbox-states/)*. Автор:* [*Preethi*](https://css-tricks.com/author/preethisamathanam/)
Мы могли бы оставить без стилизации поле ввода текста или ссылку, даже кнопку. Но чекбоксы... нет, мы не оставим их в покое. И, хотя дизайн чекбоксов не так сложен, мы не должны ограничиваться сменой цвета фона или добавлением/удалением рамок, чтобы обозначать изменения состояния. И нам не нужны какие-то особые навыки дизайна (которыми мы не обладаем), чтобы всё это работало.
Начинаем
--------
В следующих демо почти у всех чекбоксов трёхуровневая компоновка: внизу чекбокс, а сверху — два элемента или псевдоэлемента. От того, какой из них виден, зависит состояние чекбокса, то есть отмечен он или нет.
Посмотрите на CSS-код в pen: все макеты там (в том числе для чекбоксов) — это гриды. Попробуйте другие варианты, подходящие для вашего случая, и узнайте больше в [гайде](https://css-tricks.com/snippets/css/complete-guide-grid/) по CSS Grid. Дополнительные замечания по коду и альтернативам дизайна — в конце исходного кода внутри pen.
В любых элементах, находящихся поверх чекбокса, есть свойство [pointer-events: none](https://developer.mozilla.org/en-US/docs/Web/CSS/pointer-events), поэтому они не затрудняют нажатие на чекбокс.
И вот первый метод стилизации.
### 1. Смешанные фоны как состояние чекбокса
Смешивание — универсальный метод CSS. Манипулирование цветами двух и более элементов или фонов удобно в неожиданных контекстах, в том числе для чекбоксов:
```
un
```
```
input[type=checkbox]::before,
input[type=checkbox]::after {
mix-blend-mode: hard-light;
pointer-events: none;
/* more style */
}
input[type=checkbox]::before {
background: green;
content: '✓';
color: white;
/* more style */
}
input[type=checkbox]::after {
background: blue;
content: '⨯';
/* more style */
}
input[type=checkbox]:checked::after {
mix-blend-mode: unset;
color: transparent;
}
```
Здесь расположенные один под другим псевдоэлементы стилизованы зелёным и синим, каждому присвоено значение [mix-blend-mode](https://css-tricks.com/almanac/properties/m/mix-blend-mode/). Это значит, что фон каждого элемента сливается с фоном за ним.
Задействовано значение hard-light, которое имитирует multiply или screen в зависимости от того, темнее или светлее верхний цвет. Подробнее о различных [режимах](https://developer.mozilla.org/en-US/docs/Web/CSS/blend-mode) смешивания можно прочитать на MDN. Когда чекбокс отмечен галочкой, значение mix-blend-mode псевдоэлемента ::after не задано и визуальное отображение несколько иное.
### 2. 3D-анимация
Анимировать цветные блоки — отличная идея. Сделаем их, как в 3D: так будет ещё эффектнее. В CSS есть средства визуализации элементов в эмулируемом 3D-пространстве. Используя их, создаём 3D-чекбокс и поворачиваем его, чтобы обозначить изменение состояния:
```
un
```
```
.c-checkbox > div {
transition: transform .6s cubic-bezier(.8, .5, .2, 1.4);
transform-style: preserve-3d;
pointer-events: none;
/* more style */
}
/* front face */
.c-checkbox > div > i:first-child {
background: #ddd;
transform: translateZ( -10px );
}
/* back face */
.c-checkbox > div > i:last-child {
background: blue;
transform: translateZ( 10px );
}
/* side faces */
.c-checkbox > div > i:nth-of-type(2),
.c-checkbox > div > i:nth-of-type(3) {
transform: rotateX(90deg)rotateY(90deg);
position: relative;
height: 20px;
top: 10px;
}
.c-checkbox > div > i:nth-of-type(2) {
background: navy;
right: 20px;
}
.c-checkbox > div > i:nth-of-type(3) {
background: darkslategray;
left: 20px;
}
```
становится контейнером 3D-пространства — его дочерние элементы располагаются вдоль осей x, y и z — после того, как задаётся [transform-style: preserve-3d](https://css-tricks.com/almanac/properties/t/transform-style/).
Используя свойство transform, размещаем два элемента *(серого и синего цвета) на оси z на некотором расстоянии друг от друга. А ещё два — между ними, покрывая левую и правую стороны. Это как картонная коробка, у которой сверху и снизу нет граней.*
Когда чекбокс отмечен галочкой, серо-синяя коробка вращается. Вращение анимируется добавлением transition к :
```
input:checked + div {
transform: rotateY( 180deg );
}
```
### 3. Изменение радиуса границы
Поменяем не только радиус границы чекбокса, отмеченного галочкой, но и радиусы границ соседних чекбоксов:
```
un
```
```
input {
background: #ddd;
border-radius: 20px;
/* more style */
}
input:not(:first-of-type)::before {
content: '';
transform: translateY(-60px); /* move up a row */
pointer-events: none;
}
input:checked + * + input::before,
input:last-of-type:checked {
border-radius: 20px;
background: blue;
}
input:checked + * + input:checked + * + input::before {
border-top-left-radius: unset !important;
border-top-right-radius: unset !important;
}
input:checked::before {
border-bottom-left-radius: unset !important;
border-bottom-right-radius: unset !important;
}
/* between the second-last and last boxes */
input:nth-of-type(4):checked + * + input:checked {
border-top-left-radius: unset;
border-top-right-radius: unset;
}
```
При нажатии на чекбокс меняются не только его собственные границы, но и границы чекбоксов до *и* после него.
Здесь нет селекторов, выбирающих предыдущие элементы, — только последующие. Для управления внешним видом предыдущего чекбокса используется его псевдоэлемент. Все чекбоксы, кроме первого, получают псевдоэлементы, которые перемещаются в верхнюю часть предыдущего чекбокса. Теперь предположим, что чекбоксы A, B и C расположены один за другим:
* Нажав на B, можно изменить внешний вид A, стилизуя псевдоэлемент B.
* Так же, стилизуя псевдоэлемент C, можно изменить внешний вид B,
* внешний вид C можно изменить, стилизуя псевдоэлемент D.
* Из элемента B доступны псевдоэлементы B, C и D, пока между ними в компоновке используется селектор следующего элемента.
Четыре угла каждого чекбокса изначально закруглены, когда чекбокс не отмечен. Но когда чекбокс отмечен, верхние углы следующего чекбокса и нижние предыдущего выпрямляются (посредством переопределения и удаления их граничных радиусов).
### 4. CSS-маска
Тумблеры и переключатели тоже можно выполнить как чекбоксы, которые стилизуются с помощью CSS-маски. Это техника, где для фильтрации части фона используется изображение:
```
```
```
.one.skin {
background: no-repeat center -40px url('photo-1584107662774-8d575e8f3550?w=350&q=100');
}
.two.skin {
background: no-repeat center -110px url('photo-1531430550463-9658d67c492d?w=350&q=100');
--mask: radial-gradient(circle at 45px 45px , rgba(0,0,0,0) 40px, rgba(0,0,0,1) 40px);
mask-image: var(--mask); -webkit-mask-image: var(--mask);
}
```
Оба элемента класса skin, которые отображают пейзажные фотографии, расположены поверх чекбокса. Самый верхний получает mask-image в виде обычного тумблера — это прозрачный круг слева, а оставшаяся часть имеет полностью прозрачный цвет. Сквозь прозрачный круг видно фото, оставшееся изображение маски показывает фото наверху.
При нажатии на чекбокс прозрачный круг перемещается вправо и изображение вверху видно через круг; оставшаяся часть показывает фото внизу:
```
input:checked ~ .two.skin {
--mask: radial-gradient(circle at 305px 45px, rgba(0,0,0,1) 40px, rgba(0,0,0,0) 40px);
mask-image: var(--mask); -webkit-mask-image: var(--mask);
}
```
### 5. Приём с box-shadow
В заключение — нечто самое простое, но и, на мой взгляд, самое эффектное — анимированная вставка box-shadow:
```
un
```
```
input {
transition: box-shadow .3s;
background: lightgrey;
/* more style */
}
input:checked {
box-shadow: inset 0 0 0 20px blue;
}
```
Одно из свойств CSS, которое можно анимировать по умолчанию — box-shadow. Оно хорошо сочетается с минимализмом.
Вот и всё на сегодня. Прокачать навыки или начать освоение фронтенда с чистого листа вы можете на наших курсах:
* [Профессия Frontend-разработчик (7 месяцев)](https://skillfactory.ru/frontend-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fr_111021&utm_term=cat)
* [Профессия Fullstack-разработчик на Python (15 месяцев)](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_111021&utm_term=conc)
Также вы можете перейти на страницы курсов [из каталога](https://skillfactory.ru/catalogue?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=sf_allcourses_111021&utm_term=conc), чтобы увидеть, как мы готовим специалистов в других направлениях.
Профессии и курсы**Data Science и Machine Learning**
* [Профессия Data Scientist](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_111021&utm_term=cat)
* [Профессия Data Analyst](https://skillfactory.ru/data-analyst-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=analytics_dapr_111021&utm_term=cat)
* [Курс «Математика для Data Science»](https://skillfactory.ru/matematika-dlya-data-science#syllabus?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mat_111021&utm_term=cat)
* [Курс «Математика и Machine Learning для Data Science»](https://skillfactory.ru/matematika-i-machine-learning-dlya-data-science?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_matml_111021&utm_term=cat)
* [Курс по Data Engineering](https://skillfactory.ru/data-engineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dea_111021&utm_term=cat)
* [Курс «Machine Learning и Deep Learning»](https://skillfactory.ru/machine-learning-i-deep-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mldl_111021&utm_term=cat)
* [Курс по Machine Learning](https://skillfactory.ru/machine-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_ml_111021&utm_term=cat)
**Python, веб-разработка**
* [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_111021&utm_term=cat)
* [Курс «Python для веб-разработки»](https://skillfactory.ru/python-for-web-developers?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_pws_111021&utm_term=cat)
* [Профессия Frontend-разработчик](https://skillfactory.ru/frontend-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fr_111021&utm_term=cat)
* [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_webdev_111021&utm_term=cat)
**Мобильная разработка**
* [Профессия iOS-разработчик](https://skillfactory.ru/ios-razrabotchik-s-nulya?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_ios_111021&utm_term=cat)
* [Профессия Android-разработчик](https://skillfactory.ru/android-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_andr_111021&utm_term=cat)
**Java и C#**
* [Профессия Java-разработчик](https://skillfactory.ru/java-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_java_111021&utm_term=cat)
* [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer-testirovshik-po?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_qaja_111021&utm_term=cat)
* [Профессия C#-разработчик](https://skillfactory.ru/c-sharp-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cdev_111021&utm_term=cat)
* [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-razrabotchik-na-unity-i-c-sharp?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_gamedev_111021&utm_term=cat)
**От основ — в глубину**
* [Курс «Алгоритмы и структуры данных»](https://skillfactory.ru/algoritmy-i-struktury-dannyh?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_algo_111021&utm_term=cat)
* [Профессия C++ разработчик](https://skillfactory.ru/c-plus-plus-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cplus_111021&utm_term=cat)
* [Профессия Этичный хакер](https://skillfactory.ru/cyber-security-etichnij-haker?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_hacker_111021&utm_term=cat)
**А также:**
* [Курс по DevOps](https://skillfactory.ru/devops-ingineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_devops_111021&utm_term=cat) | https://habr.com/ru/post/581924/ | null | ru | null |
# Как я писал свой «велосипед» для ротирования таблиц в Oracle и Postgre
Приветствую, Хабр!
В этой статье я расскажу о том, как мы боролись с проблемой быстрого роста размера таблиц в базе данных в высоконагруженной EMS системе. Свою изюминку добавляет то, что проблема решалась для двух баз данных: Oracle и Postgre. Заинтересовавшихся прошу под кат.
#### Начальные условия
Итак, есть некая EMS-система, которая получает и обрабатывает сообщения от сетевых элементов. Запись о каждом сообщении заносится в таблицы базы данных. По требованиям заказчика количество приходящих сообщений (и, соответственно, количество записей в таблицы) составляет в среднем 100 в секунду, при этом пиковая нагрузка может возрастать до 1500.
Нетрудно посчитать, что за день в среднем набирается более 8 миллионов записей в таблицу. Проблема появилась, когда выяснилось, что при объемах данных более 20 млн. строк некоторые запросы системы начинают тормозить и выходить за пределы времени работы, запрашиваемого заказчиком.
#### Задача
Таким образом, нужно было придумать, что делать c данными, чтобы и информация никакая не терялась и запросы работали быстро. При этом изначально система работала на Postgre, но в ближайшее время планировался переход на Oracle и хотелось, чтобы при переходе было минимум проблем с переносом функционала.
Вариант использования partitioning отпал сразу, т.к. было известно, что Oracle Partitioning точно не будет входить в лицензию, да и переделывать с одного партишнинга на другой не очень хотелось, поэтому стали думать над реализацией какого-то своего велосипеда.
Существенно облегчило задачу то, что логи старше пары дней не нужны для отображения в системе, т.к. для расследования подавляющего большинства проблем должно было хватить сообщений двухдневной давности. Но хранить их «на всякий пожарный» все же нужно. Тут-то и родилась идея реализовать процедуры для периодического «ротирования» данных в таблицах, т.е. переноса их из таблиц для отображения в некие исторические таблицы.
#### Решение и реализация
Было решено держать 2 таблицы с наиболее актуальными данными для отображения (назовем их table — основная и table\_secondary — дополнительная). На эти две таблицы навешено представление table\_view из которого брались данные для отображения: оно нужно, чтобы после момента переноса данных в UI резко не пропадали все записи. Более старые записи переносятся в исторические таблицы с именами типа H$table\_NUM, где NUM — номер исторической таблицы (чем данные в ней старше тем номер выше). Исторические таблицы, дабы не засорять основной tablespace, также периодически перетаскиваются в «холодный» tablespace, таблицы которого можно хранить на медленных дисках. Операция это, вообще говоря, тяжелая, поэтому делается реже отдельной процедурой. Кроме того эта же процедура удаляет из «холодного» tablespace слишком старые таблицы.
Касательно того, как именно производится перенос данных: из-за большого количества индексов на таблицах перенос непосредственно записей с помощью insert`а работал медленно, поэтому был выбран подход с переименовыванием таблиц и пересозданием индексов и триггеров.
Схематически работа процедур представлена на рисунке:

Итак, алгоритм работы получился примерно такой (алгоритм и примеры кода процедур привожу для oracle, для postgre сможете посмотреть на github):
*Процедура rotate\_table(primary\_table\_name). Выполняется, скажем, каждый час.*
1. Проверяем, что количество строк в основной таблице превысило некоторый лимит;
2. Проверяем, что существует «холодный» tablespace:
```
SELECT COUNT(*) INTO if_cold_ts_exists FROM USER_TABLESPACES WHERE tablespace_name = 'EMS_HISTORICAL_DATA';
```
3. Создаем вспомогательную пустую таблицу new\_table на основе текущей основной таблице. Для этого в postgre есть удобный функционал CREATE TABLE… (LIKE… INCLUDING ALL), для Oracle же пришлось писать свой аналог — процедуру create\_tbl\_like\_including\_all(primary\_table\_name, new\_table\_name, new\_idx\_trg\_postfix, new\_idx\_trg\_prefix), которая создает аналогичную пустую таблицу:
```
SELECT
replace(dbms_metadata.get_ddl('TABLE', primary_table_name), primary_table_name, new_table_name)
INTO ddl_query
FROM dual;
ddl_query := substr(ddl_query, 1, length(ddl_query) - 1);
EXECUTE IMMEDIATE ddl_query;
```
А также триггеры и индексы к ней:
```
FOR idx IN (SELECT idxs.index_name FROM user_indexes idxs WHERE idxs.table_name = primary_table_name)
LOOP
ddl_query := REPLACE(
REPLACE(dbms_metadata.get_ddl('INDEX', idx.index_name), primary_table_name, new_table_name),
idx.index_name, new_idx_trg_prefix || idx.index_name || new_idx_trg_postfix);
ddl_query := substr(ddl_query, 1, length(ddl_query) - 1);
EXECUTE IMMEDIATE ddl_query;
END LOOP;
```
4. Переименовываем таблицы:
```
EXECUTE IMMEDIATE 'alter table ' || secondary_table_name || ' rename to ' || history_table_name;
EXECUTE IMMEDIATE 'alter table ' || primary_table_name || ' rename to ' || secondary_table_name;
EXECUTE IMMEDIATE 'alter table ' || new_table_name || ' rename to ' || primary_table_name;
```
5. Переименовываем триггеры и индексы для них;
6. Если холодный tablespace не существует, то считаем, что исторические данные хранить не нужно, и удаляем соответствующую таблицу:
```
EXECUTE IMMEDIATE 'drop table ' || history_table_name || ' cascade CONSTRAINTS';
```
7. Выполняем ребилд представления (только для oracle):
```
EXECUTE IMMEDIATE 'select * from ' || view_name || ' where 1=0';
```
*Процедура move\_history\_logs\_to\_cold\_ts(primary\_table\_name). Выполняется, например, раз в день.*
1. Если «холодный» tablespace существует, ищем все исторические таблицы, которые не находятся в этом tablespace:
```
EXECUTE IMMEDIATE
'select
table_name
from
user_tables
where
table_name like ''' || history_table_pattern || '''
and (tablespace_name != ''EMS_HISTORICAL_DATA'' or tablespace_name is null)'
BULK COLLECT INTO history_tables;
```
2. Перемещаем каждую таблицу в «холодный» tablespace:
```
EXECUTE IMMEDIATE 'ALTER TABLE ' || history_tables(i) || ' MOVE TABLESPACE ems_historical_data';
```
3. Удаляем для перемещенных таблиц триггеры и индексы;
4. Выполняем удаление слишком старых таблиц из «холодного» tablespace.
Запуск процедур по расписанию делался с помощью Quartz Sheduler в случае Postgre, и с помощью Oracle Scheduler в случае Oracle, скрипты для конфигурации которого также есть в исходниках.
#### Заключение
Полные исходники процедур и скриптов для конфигурации шедулера можно посмотреть на [GitHub](https://github.com/SCORE1387/dbTablesRotation).
Спасибо за внимание! | https://habr.com/ru/post/240061/ | null | ru | null |
# HTML5-консоль от Google
HTML5-консоль, который вы могли видеть в одном из выступлений на майской конференции Google I/O, [работает в онлайне](http://www.htmlfivewow.com/demos/terminal/terminal.html) (судя по всему, только в браузере Chrome).
[](http://www.htmlfivewow.com/slide32)
Презентация [HTML5 Wow](http://www.htmlfivewow.com/) целиком была создана для демонстрации возможностей HTML5. Все демонстрационные примеры, в том числе консоль, [выложены](http://code.google.com/p/html5wow/) с открытыми исходниками.
Пару советов по работе с HTML5-консолью.

1. Вы можете скопировать туда файлы с десктопа, просто перетащив их мышкой. Они будут скопированы в текущую директорию.
```
var reader = new FileReader();
reader.onload = function(e) {
document.querySelector('img').src = e.target.result;
};
function onDrop(e) {
reader.readAsDataURL(e.dataTransfer.files[0]);
};
```
2. Новые папки создаются командой `mkdir`, а сгенерировать случайный набор папок и файлов можно командой `init`.

3. Команда `3d` запускает трёхмерный рендеринг вашей файловой структуры. Мышкой можно поворачивать изображение.

Командой `3d off` картинка отключается.
4. Команда `wget` тоже работает, но здесь действуют кроссдоменные ограничения, так что `wget` выполняется на том же URL.
 | https://habr.com/ru/post/132479/ | null | ru | null |
# Маркировка сигарет. Строение кода маркировки
В этой статье я постараюсь прояснить техническую часть и состав маркировки сигарет.
Простите меня Хабр читатели за укороченный обзор.
**Что такое маркированные сигареты?**
Маркированными являются те сигареты, на потребительской упаковке которой нанесены средства идентификации с соблюдением требований Закона №381-ФЗ и принятых в соответствии с ним нормативно правовых актов Правительства РФ.
Таким образом, для признания товаров маркированными необходимо выполнить следующие условия:
1. На товары должны быть нанесены средства идентификации (код маркировки)
2. В информационной системе мониторинга должны содержаться сведения о нанесении средств идентификации на сигареты (это делает производитель сигарет)
3. В информационной системе мониторинга должны содержаться достоверные сведения о товарах
Напоминаем, что наличие в информационной системе мониторинга сведений об обороте сигарет не является условием для признания продукции маркированной.
Для тех покупателей, кто приобрел маркированные сигареты до 01.07.2020 года на бумажных носителей, не нужно волноваться и подавать куда то остатки. Сигареты, введенные в оборот производителем до 01.07.2020 зарегистрированы в системе мониторинга как «временно не прослеживаемые» и в соответствии с Правилами допускается их дальнейший оборот.
Надо помнить, что в течение периода эксперимента для производителей (2018-07.2019) состав маркировки менялся. Производители сигарет совместно с оператором ЦРПТ пытались найти приемлемые решения. Вся произведенная продукция с нанесенной маркировкой в этот переходный период также являлась маркированной.
**Давайте разберем строение кода маркировки сигарет, действующего сегодня.**
Он, кстати, является копией кода маркировки сигарет в некоторых европейских странах. Именно поэтому для транснациональных компаний маркировка стала конкурентным преимуществом над Российскими производителями.
Для кодирования серийного номера сигарет и МРЦ (максимальной розничной цены) используется 80 символов:
```
ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789!”%&’*+-./_,:;=<>?
```
Алгоритм кодирования-декодирования МРЦ основан на переводе размера МРЦ в копейках в 80-ричную систему исчисления, используя следующий алфавит:
*Кодирование*
*Процедура кодирования*
1. МРЦ преобразуем в копейки, например
2. Находим целую часть и остаток от деления МРЦ на основание системы счисления (в нашем случае – 80)
3. Берём символ из алфавита по индексу, равному остатку и записываем его в начало результирующей строки
4. Повторяем шаги 2 и 3 пока целая часть не окажется равной 0
5. Дополняем результирующую строку до 4 символов слева символом по индексу 0 из алфавита (“A”)
**Пусть МРЦ = 146рублей 30копеек, переводим тогда МРЦ копейки = 14630к**
Результирующая строка изначально пустая
1. Находим целое и остаток от деления 14630 на 80: 182 и 70
2. Находим символ по индексу 70 в алфавите и добавляем его в начало результирующей строки: “.”
3. Целое от деления больше 0, поэтому находим новые целое и остаток от деления 182 на 80: 2 и 22
4. Находим символ по индексу 22 в алфавите и добавляем его в начало результирующей строки: “W.”
5. Целое от деления больше 0, поэтому находим новые целое и остаток от деления 2 на 80: 0 и 2
6. Находим символ по индексу 2 в алфавите и добавляем его в начало результирующей строки: “CW.”
7. Целое равно 0, поэтому дополняем результирующую строку слева нулевым символом: “ACW.”
*Декодирование*
*Процедура декодирования*
1. Для каждого символа из закодированного представления МРЦ повторяем следующие шаги
2. Возводим длину алфавита, равную 80, в степень, равную позиции текущего символа МРЦ, считая с конца строки и начиная с 0, и умножаем на индекс текущего символа в алфавите
3. Прибавляем полученное значение к результирующему
**Пусть закодированное значение МРЦ равно “ACW.”**
Результирующее значение изначально равно 0.
1. Берём первый символ МРЦ: “A”2. Индекс символа “A”: 03. Возводим 80 в степень 3 (позиция текущего символа, считая от конца строки из 4 символов) и умножаем на 0, получаем 04. Прибавляем 0 к результирующему значению строке: 05. Берём второй символ МРЦ: “C”6. Индекс символа “C”: 27. Возводим 80 в степень 2 и умножаем на 2, получаем 128008. Прибавляем 12800 к результирующей строке: 128009. Берём третий символ МРЦ: “W”10. Индекс символа “W”: 2211. Возводим 80 в степень 1 и умножаем на 22, получаем 176012. Прибавляем 1760 к результирующему значению: 1456013. Берём четвёртый символ МРЦ: “.”14. Индекс символа “.”: 7015. Возводим 80 в степень 0 и умножаем на 70, получаем 7016. Прибавляем 70 к результирующему значению: 1463017. Итоговое значение МРЦ = 14360к или 146р30к
**mrp encoder on с++**
```
using System;
using System.Text;
namespace SharedUtil.Mrp
{
public static class MrpEncoder
{
public const string Alphabet = "ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789!\"%&\'*+-./_,:;=<>?";
public static string Encode(uint value, byte paddingLength = 4)
{
var builder = new StringBuilder();
long result = value;
do
{
long rmdr;
result = Math.DivRem(result, Alphabet.Length, out rmdr);
builder.Insert(0, Alphabet[(int) rmdr]);
} while (result > 0);
return builder.ToString().PadLeft(paddingLength, Alphabet[0]);
}
public static uint Decode(string value)
{
uint result = 0;
for (int i = 0; i < value.Length; i++)
{
var characterIndex = Alphabet.IndexOf(value[i]);
if (characterIndex < 0)
{
throw new ArgumentException(string.Format("Invalid character: '{0}'", value[i]));
}
result += (uint) (Math.Pow(Alphabet.Length, value.Length - 1 - i) * characterIndex);
}
return result;
}
}
}
```
Поскольку на практике МРЦ(максимальная розничная цена) округляется до рублей и имеет диапазон от 60 до 500 рублей, можно сделать вывод: МРЦ в 80-ричной кодировке всегда начинается с «A», а заканчивается на один из четырех символов «A»,«U»,«o,»8". Можно использовать это для проверки валидности МРЦ в коде маркировки пачки.
**Таблица кодирования МРЦ.**

*Рассмотрим маркировку на примере Сигарет с фильтром «T&W» ОРИДЖИНАЛ КОМПАКТ МРЦ 106"*
Вот как выглядит маркировка на пачках и блоках:
*Извините, я не нашел блок с МРЦ 106, для фото брал 115.*
Маркировка пачки:

**0461003014152700000HdAB0oOnE1**
Строка длиной 29 символов, содержит:
* GTIN-14 (14 цифровых символов). Содержит лидирующие «0» и EAN-13 код для единицы измерения «пачка» прижаты к правому краю. Аналогичен обычному EAN-13, нанесенному на пачке.
* Серийный номер (7 символов) . Идентификационный код, сгенерированный оператором эмиссии из набора 80 символов. Задумывался он как уникальный для указанного EAN.
* МРЦ (4 символа). Максимальная розничная цена, указанная в копейках в 80-ричном исчислении.
* Криптохвост (4 символа). Код создается на производстве в «черном ящике» при запросе очередного пула кодов у оператора эмиссии маркировки. Его запрещено накапливать в базах данных и передавать третьим лицам. Именно это ограничение хоть и защищает от утечки кодов маркировки, но порождает проблемы, описанные ниже.
**Исправление неточности в статье**
> GTIN-14 (14 цифровых символов). Содержит лидирующие «0» и EAN-13 код для единицы измерения «пачка» прижаты к правому краю. Аналогичен обычному EAN-13, нанесенному на пачке.
АО «ФИЛИП МОРРИС ИЖОРА» так не считает и делает различными GTIN в маркировке и в нанесенном с боку штрихкоде EAN13. 
Маркировка блоков:

**(01)04610030141534(21)00000!&(8005)106000(93)yikZ**
Строка длиной не менее 41 символов и содержит код в формате GS1. Скобочки добавлены для наглядности. Содержит символы GS1
* (01) GTIN-14 (14 цифровых символов). Содержит лидирующие «0» и EAN-13 код для единицы измерения «блок». Аналогичен обычному EAN-13 нанесенному на блоке.
* (21) Серийный номер (7 символов). Идентификационный код, сгенерированный производителем из набора 80 символов. Задумывался как уникальный для указанного GTIN-14.
* (8005) МРЦ (6 цифровых символов). Максимальная розничная цена, указанная цифрами в копейках для блока. В нашем примере 1060.00 рублей для блока (106 для пачки)
* (93) Криптохвост (4 символа). Код создается на производстве в «черном ящике» при запросе очередного пула кодов у оператора эмиссии маркировки. Его запрещено накапливать в базах данных и передавать третьим лицам.
В код могут быть включены дополнительные данные, но первыми должны идти коды 01 и 21.
Маркировка коробов:

**(01)14610030141524 (21)0011986(8005)106000(37)50**
Строка длиной не менее 25 символов. Содержит обязательные коды 01 и 21 в формате GS1. Каждый производитель сам определяет состав кода маркировки для транспортной упаковки. Не имеет криптохвоста. Может быть нанесен как GS-1 DataMatrix код.
Часто производители дублируют GS-1 (CODE-128) и GS-1 DataMatrix, вот пример:
Другие производителя иногда не указывают МРЦ, а некоторые добавляют элемент 240 для указания внутреннего кода номенклатуры производителя.
Разберем пример кода маркировки транспортной упаковки «короб»:* (01) GTIN-14 (14 цифровых символов). Содержит IFT-14 код для единицы измерения «короб». Аналогичен обычному IFT-14, нанесенному на коробе в черной рамке.
* (21) Серийный номер (7-20 цифр). Идентификационный код, сгенерированный производителем и обеспечивающий неповторимость в рамках одного IFT-14 кода.
* (8005) МРЦ юнита (6 цифровых символов). Максимальная розничная цена, указанная в копейках для вложенного юнита – «блока».
* (37) Количество вложенных юнитов (2 и более цифровых символов). Количество вложенных в короб блоков сигарет.
В код могут быть включены дополнительные данные, но первыми должны идти коды 01.
**ВНИМАНИЕ! ИЗМЕНЕНИЯ В МАРКИРОВКЕ КОРОБОВ ПОСЛЕ ВЫПУСКА СТАТЬИ:**
Мы получили несколько официальных разъяснений от ЦРПТ по поводу маркировки коробов и я считаю необходимым отразить их в статье.
ВОПРОС: Какие символы могут применяться при указания серийного номера (21) кода маркировки для транспортного КОРОБА.
> Допустимые значения:
>
> ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789!"%&'()\*+,-./\_:;=<>?.
ВОПРОС: Какое количество символов в поле (21) возможно указывать в коде маркировки транспортной упаковки КОРОБ. Только 7 символов или любое до 20 символов?
> Серийный номер должен быть не короче 7 символов.
>
> Рекомендуем начать серийный номер с префикса фабрики и линии, если применимо, и использовать простой счетчик (инкремент) коробов.
Вопрос: Могут ли быть одинаковыми серийные номера в поле (21) для разных МРЦ при маркировки КОРОБОВ и наличии в коде поля (8005)?
> Да, в данном случае, серийные номера могут быть одинаковыми.
Маркировка паллет:
habrastorage.org/webt/oh/dt/9t/ohdt9tprqmxhzjls4tiitbtb4ru.png» alt=«Маркировка паллет»/>
**(00)946100301410004634**
Строка длиной 20 символов. Содержит префикс 00 и обязательный логистический код паллеты (контейнера) SSCC.
На всех упаковках, кроме пачек, наносится как машиночитаемый код, так и его человекочитаемый эквивалент. Это позволяет набрать код маркировки вручную, если по какой-то причине код не сканируется сканером.
**Агрегации и дезагрегации.**
В системе маркировки заложены такие возможности, как агрегация и дезагрегация упаковок.До недавнего времени агрегация производилась только на заводе изготовителе. С завода информация передается в систему не только о нанесенных кодах маркировки, но и об ее агрегации. JSON файл, передаваемый с завода в СУЗ, содержит структуру, в которой нельзя отправить данные о маркировке без данных о заводской агрегации. На заводе агрегация блоков/коробов/паллет производится при повторном сканировании маркировки с каждого вложенного элемента и кодов упаковки. Этим обеспечивается проверка читаемости кода и гарантия правильной агрегации, т.е. соответствие кодов, входящих в состав упаковки, коду самой упаковки.
Поэтому старайтесь сохранять заводскую упаковку до последнего момента. Вскрыв заводскую коробку, уже нельзя гарантировать, что все блоки относятся именно к этому коробу. Привет всем торговым сетям, которые проверяют вложенные блоки и вскрывают заводские короба для этого ;)
Недавно функция агрегации сигарет появилась в API для торговых организаций. Видим большую перспективу здесь для отгрузки паллетами с логистических складов.
Дезагрегация производится автоматически, как только вложенная в упаковку единица была использована в документах выбытия или смены собственника. Другими словами, если продать пачку сигарет, то блок, в котором она находилась, автоматически дезагрегируется на пачки, а короб, в котором находился этот блок, дезагрегируется на блоки и т.д. Использовать в дальнейшем дезагрегированные коды блока, короба, паллет будет невозможно. Это очень изящное решение. Сегодня дезагрегация короба/блока производится только в том случае, если выбытие вложенного агрегата произошло на стороне текущего собственника. Если сторонний контрагент попытается продать ваши сигареты из вашей коробки, это не приведет к ее автоматической дезагрегации, поскольку по данным ГИС МТ, контрагент не являлся собственником на момент сканирования маркировки при подачи сведений о выбытии.
**Описание кодов идентификации потребительских упаковок, наборов, групповых упаковок, транспортных упаковок при указании в УПД, УКД**
| | | |
| --- | --- | --- |
| Табачная продукция | КИ | с указанием максимальной розничной цены
код товара (14 цифр) ИСН (7 символов) максимальная розничная ценапачки (4 символа)
пример: **00000046198532%J\_zMZ401er** |
| без указания максимальной розничной ценыкод товара (14 цифр) ИСН (7 символов)
пример: **00000046214805ltCeK2L** |
| КИГУ | с указанием максимальной розничной цены
01 код товара (14 цифр) 21 (7 символов) 8005 сумма максимальнойрозничной цены (6 символов)
пример: **(01)04600266012586(21)E'd8ZnM(8005)100000**
пример: **010460026601258621E'd8ZnM8005100000**
допустимо указание КИГУ со скобками и без |
| без указания максимальной розничной цены01 код товара (14 цифр) 21(7 символов
пример: **(01)04600266012586(21)E'd8ZnM**
пример: **010460026601258621E'd8ZnM**
допустимо указание КИГУ со скобками и без |
| КИТУ | **короба:** группа1+группа2+группа3
• группа 1
01 код товара (14 цифр) или
02 код товара, входящего в короб (14 цифр)
• группа 2
11 дата изготовления (6 символов) или
13 дата упаковки (6 символов)
• группа 3
21 серийный номер (до 20 символов)
пример:
**02046002660125991302071921E'd8ZnMZx**
или
**01046002660125861101071921E'd8ZnM** |
| **паллеты, контейнера:**
серийный код транспортной упаковки, SSCC (20 символов) (стандартGS1-128, указывается с идентификатором применения AI (00))
пример: **00177102981700000049** |
Производители ПО обратите внимание: В примере нигде не применяется символ «FNC1» (код 29). Он вырезается при подстановке в УПД.
Формируемый для подачи сведений файл УПД должен иметь в названии признак маркировки — "«MARK»"
PDF: [Официальные методические рекомендации по оформлению УПД/УПДи/УКД](https://xn--80ajghhoc2aj1c8b.xn--p1ai/upload/%D0%9C%D0%A0_%D0%9E%D1%84%D0%BE%D1%80%D0%BC%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%AE%D0%97_%D0%AD%D0%94%D0%9E_%D0%BF%D1%80%D0%B8_%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%B0%D1%87.pdf)
**Образцы ЭУПД:**
[XML. Образец ЭУПД от Мегаполис.](https://drive.google.com/file/d/1mK2ArLpYU68DpTSCVbveZ_TzfT0TS__E)
[XML. Образец ЭУПД c разными видами упаковок.](https://drive.google.com/file/d/1EaWtS-FoOG8xXgYMr-Rpm-T6Dy1EkLUa)
[XML. Образец уведомления об уточнении счет фактуры.](https://drive.google.com/file/d/1V2x-tiqxqLwyy3Q8tZGQ2EAcGq8kvZfi) | https://habr.com/ru/post/510996/ | null | ru | null |
# Создание расписания для SCADA системы на основе cron
[В продолжение о SCADA системе моего «любимого» торгового центра](https://habrahabr.ru/post/330980/)
Я думаю не мало инженеров в АСУТП сталкивались с требованием заставить «что-то» работать по расписанию. Покажу как реализовал сделал расписание в составе сервера SCADA.
В основном расписания я видел в ПЛК. И там обычно это расписание недельное. Несколько точек переключения на день.
Для ПЛК такую реализацию можно понять. Ограниченная память, например. Да и не особо надо морочиться больше.
Но все же, так не сделаешь каких-нибудь мудреных условий работы. Типа «включится в праздничные дни».
### Идея
Есть такая утилита в linux — cron. «Для периодического выполнения заданий в определённое время». Инструкции в cron пишутся в таком виде
> *минута час день\_месяца месяц день\_недели* **команда**
>
> * День недели (0 — 7) (Воскресенье =0 или =7)
> * Месяц (1 — 12)
> * День (1 — 31)
> * Час (0 — 23)
> * Минута (0 — 59)
>
Например
> 0 0 \* \* 1 — Каждый понедельник в 0:00 минут
>
> где \* — означает любое значение
>
>
У cron еще куча фишек. За пикантными подробностями можно в [википедию](https://ru.wikipedia.org/wiki/Cron)
А нам и этого вполне хватит.
Только в нашем случае нужен отрезок времени, а не конкретный момент времени. Ну и приделаем к записи еще и год (чтоб не мелочиться). Получим такую запись:
> <Минуты> <Часы> <Дни\_месяца> <Месяцы> <Дни\_недели> <Годы> <Отрезок времени в минутах>
Еще понадобится «приоритет». Ведь может быть, что одна инструкция перекроет другую.
### Реализация
На первом этапе в SCADA системе все было в xml файле:
```
xml version="1.0" encoding="utf-8" ?
```
Где
> «Реж\*ИМП; ПВ\*80; ВВ\*80; У\*21» — импульсный режим работы, 80% скорости приточного вентилятора, 80% скорости вытяжного вентилятора, уставка температуры по помещению — 21°С
Все делалось под вентиляционные установки. Для примера показано 2 правила.
Одно — постоянный «стоп» системы. Второе каждый день в 7 утра запустит вент установку на 1 час.
Диспетчеризация построена в **SCADA+**. Эта среда поддерживает скрипты С#. Скрипты формируются как объекты с выходными переменными (свойствами). Для нашего скрипта чтения расписания переменные выглядят так:

Задача скрипта — сформировать выходной массив типа ArrayList. Он будет содержать строки типа
> «ПВ1>СТОП»
>
> «ПВ2>СТОП»
>
> «ПВ3>СТОП»
А уже дальше подпрограмма, отвечающая за конкретную вентиляционную установку, найдет себя в массиве и изменит (если надо) режим работы вентустановки.
#### А теперь код
На красоту и правильность кода не претендую. Так же некоторые решения тут вызваны самой средой исполнения.
Функция для чтения конфигурационного файла и формирования выходного массива режимов:
```
public void XMLread() {
arr = new ArrayList();
int prio;
XmlDocument xmlDocument = new XmlDocument();
try{
xmlDocument.Load(filepath_local);
Massege_str = "Открыт успешно" ;
}
catch
{
Massege_str = "Ошибка открытия файла" ;
return;
}
foreach (XmlNode device in xmlDocument.SelectNodes("/timemode/device"))
{
prio = -1;
string strmode = "???" ;
foreach (XmlNode mode in xmlDocument.SelectNodes("/timemode/device[@ID=\"" + device.Attributes["ID"].Value + "\"]/mode"))
{
int prioNew = Convert.ToInt16(mode.Attributes["priority"].Value) ;
if ((innerInterval(mode.Attributes["timeperiod"].Value) > 0 ) && prio < prioNew)
{
strmode = mode.Attributes["type"].Value;
prio = prioNew ;
}
}
string newmes = (device.Attributes["ID"].Value + ">" + strmode);
arr.Add(newmes);
}
ArrayListVentModes_local = arr;
CountElement = ">" + ArrayListVentModes.Count.ToString();
Thread.Sleep(5000);
clamp = 0;
}
```
И функция innerInterval. Она определяет попадает ли установка в конкретный отрезок времени:
```
int innerInterval(string CronFormatStr){
string[] word = CronFormatStr.Split(' ');
DateTime dt = DateTime.Now;
if (word.Length == 7)
{
try
{
int dayOfWeekArray = 0;
if (word[4] != "*") {
dayOfWeekArray = Convert.ToInt32(word[4]);
}
DateTime dt_start = new DateTime(
(word[5] == "*") ? dt.Year : Convert.ToInt32(word[5]),
(word[3] == "*") ? dt.Month : Convert.ToInt32(word[3]),
(word[2] == "*") ? dt.Day: Convert.ToInt32(word[2]),
(word[1] == "*") ? dt.Hour : Convert.ToInt32(word[1]),
(word[0] == "*") ? 0 : Convert.ToInt32(word[0]),
0 );
DateTime dt_end = dt_start.AddMinutes(Convert.ToInt32(word[6]));
if (dt >= dt_start && dt <= dt_end)
{
if (dayOfWeekArray != Convert.ToInt32(dt.DayOfWeek) && dayOfWeekArray > 0)
{
return 0;
}
return 1;
}
}
catch (FormatException)
{
return -1;
}
catch
{
return -10;
}
}
return -1;
}
```
**Ну и полный код, кому интересно**
```
using System;
using System.Collections;
using System.Collections.Generic;
//using System.Linq;
using System.Text;
using System.Xml;
using System.Threading;
using System.Xml.Linq;
namespace ClassLibrary
{
public class MyClass
{
ArrayList ArrayListVentModes_local;
public ArrayList ArrayListVentModes{
get{
return ArrayListVentModes_local;
}
}
public string FilePath{
set{ this.filepath_local = value ; }
}
public string Massege_str{
get; set;
}
public string CountElement{
get; set;
}
string filepath_local ;
ArrayList arr;
int innerInterval(string CronFormatStr){
string[] word = CronFormatStr.Split(' ');
DateTime dt = DateTime.Now;
if (word.Length == 7)
{
try
{
int dayOfWeekArray = 0;
if (word[4] != "*") {
dayOfWeekArray = Convert.ToInt32(word[4]);
}
DateTime dt_start = new DateTime(
(word[5] == "*") ? dt.Year : Convert.ToInt32(word[5]),
(word[3] == "*") ? dt.Month : Convert.ToInt32(word[3]),
(word[2] == "*") ? dt.Day: Convert.ToInt32(word[2]),
(word[1] == "*") ? dt.Hour : Convert.ToInt32(word[1]),
(word[0] == "*") ? 0 : Convert.ToInt32(word[0]),
0 );
DateTime dt_end = dt_start.AddMinutes(Convert.ToInt32(word[6]));
if (dt >= dt_start && dt <= dt_end)
{
if (dayOfWeekArray != Convert.ToInt32(dt.DayOfWeek) && dayOfWeekArray > 0)
{
return 0;
}
return 1;
}
}
catch (FormatException)
{
return -1;
}
catch
{
return -10;
}
}
return -1;
}
int clamp = 0;
public void main_metod() {
if (this.clamp != 1) {
Thread tRec = new Thread(new ThreadStart(XMLread));
tRec.Start();
this.clamp = 1 ;
}
}
public void XMLread() {
arr = new ArrayList();
int prio;
XmlDocument xmlDocument = new XmlDocument();
try{
xmlDocument.Load(filepath_local);
Massege_str = "Открыт успешно" ;
}
catch
{
Massege_str = "Ошибка открытия файла" ;
return;
}
foreach (XmlNode device in xmlDocument.SelectNodes("/timemode/device"))
{
prio = -1;
string strmode = "???" ;
foreach (XmlNode mode in xmlDocument.SelectNodes("/timemode/device[@ID=\"" + device.Attributes["ID"].Value + "\"]/mode"))
{
int prioNew = Convert.ToInt16(mode.Attributes["priority"].Value) ;
if ((innerInterval(mode.Attributes["timeperiod"].Value) > 0 ) && prio < prioNew)
{
strmode = mode.Attributes["type"].Value;
prio = prioNew ;
}
}
string newmes = (device.Attributes["ID"].Value + ">" + strmode);
arr.Add(newmes);
}
ArrayListVentModes_local = arr;
CountElement = ">" + ArrayListVentModes.Count.ToString();
Thread.Sleep(5000);
clamp = 0;
}
}
}
```
**Касается SCADA+**Еще нужно будет указать какой метод вызывать при пересчете программы.

По текущей реализации. Заказчик затребовал возможность самим настраивать режимы. Понятное дело, от редактирования xml файла он отказался. Перевели все с xml на таблицу в MySQL (чтоб можно было редактировать с АРМа, т.к. сервер c SCADA находится удаленно) и сделали простенькую программу для редактирования

На этом все. Интересных вам проектов.
#### P.S.
Подобное расписание можно поднять и на MasterSCADA — она тоже поддерживает C#. Можно даже подключить Visual Studio для более удобной отладки (насчет SCADA+ не знаю).
Сейчас руки зачесались реализовать эту идею на ST для Codesys. Конкретно для ОВЕН ПЛК63. Если получится, напишу продолжение. | https://habr.com/ru/post/333412/ | null | ru | null |
# Извлечение данных при машинном обучении
Хотите узнать о трех методах получения данных для своего следующего проекта по ML? Тогда читайте перевод статьи Rebecca Vickery, опубликованной в блоге Towards Data Science на сайте Medium! Она будет интересна начинающим специалистам.

Получение качественных данных — это первый и наиболее важный шаг в любом проекте по машинному обучению. Специалисты Data Science часто применяют различные методы получения датасетов. Они могут использовать общедоступные данные, а также данные, доступные по API или получаемые из различных баз данных, но чаще всего комбинируют перечисленные методы.
Цель этой статьи — представить краткий обзор трех разных методов извлечения данных с использованием языка Python. Я расскажу, как делать это с помощью Jupyter Notebook. В своей предыдущей [статье](https://towardsdatascience.com/five-command-line-tools-for-data-science-29f04e5b9c16?source=post_page---------------------------) я писала о применении некоторых команд, запускаемых в терминале.
### SQL
Если вам нужно получить данные из реляционной базы данных, скорее всего, вы будете работать с языком SQL. Библиотека SQLAlchemy позволит связать ваш код в ноутбуке с наиболее распространенными типами баз данных. По [ссылке](https://docs.sqlalchemy.org/en/13/core/engines.html#postgresql) вы найдете информацию о том, какие базы данных поддерживаются и как осуществить привязку к каждому типу.
Вы можете использовать библиотеку SQLAlchemy, чтобы просматривать таблицы и запрашивать данные, или писать необработанные запросы. Для привязки к базе данных понадобится адрес URL с вашими идентификационными данными. Далее нужно инициализировать метод `create_engine` для создания подключения.
```
from sqlalchemy import create_engine
engine = create_engine('dialect+driver://username:password@host:port/database')
```
Теперь вы можете писать запросы к базе данных и получать результаты.
```
connection = engine.connect()
result = connection.execute("select * from my_table")
```
### Скрапинг
Веб-скрапинг используется для загрузки данных с веб-сайтов и извлечения необходимой информации с их страниц. Существует множество библиотек Python, применимых для этого, но самой простой является [Beautiful Soup](https://www.crummy.com/software/BeautifulSoup/bs4/doc/).
Вы можете установить пакет через pip.
```
pip install BeautifulSoup4
```
Давайте на простом примере разберемся, как этим пользоваться. Мы собираемся применить Beautiful Soup и библиотеку [urllib](https://docs.python.org/3/library/urllib.html), чтобы соскрапить названия отелей и цены на них с веб-сайта [TripAdvisor](https://www.tripadvisor.co.uk/).
Сначала импортируем все библиотеки, с которыми собираемся работать.
```
from bs4 import BeautifulSoup
import urllib.request
```
Теперь загружаем контент страницы, которую будем скрапить. Я хочу собрать данные о ценах на отели на греческом острове Крит и беру адрес URL, содержащий перечень отелей в этом месте.

Код внизу определяет адрес URL как переменную и использует библиотеку urllib для открытия страницы, а библиотеку Beautiful Soup — для ее чтения и возвращения результатов в простом формате. Часть данных на выходе показана под кодом.
```
URL = 'https://www.tripadvisor.co.uk/Hotels-g189413-Crete-Hotels.html'
page = urllib.request.urlopen(URL)
soup = BeautifulSoup(page, 'html.parser')
print(soup.prettify())
```

Теперь давайте получим список с названиями отелей на странице. Мы введем функцию `find_all`, которая позволит извлечь части интересующего нас документа. Можно по-разному фильтровать его, используя функцию `find_all`, чтобы передать одну строку, регулярное выражение или список. Также можно отфильтровать один из атрибутов тега — это как раз тот метод, который мы применим. Если вы не знакомы с тегами и атрибутами языка HTML, обратитесь за кратким обзором к этой [статье](https://en.wikipedia.org/wiki/HTML_attribute).
Чтобы понять, как наилучшим образом обеспечить доступ к данным в теге, нам нужно проверить код для этого элемента на странице. Находим код к названию отеля, кликая правой кнопкой мыши по названию в списке, как показано на рисунке ниже.

После клика на `inspect` появится код элемента, а раздел с названием отеля будет выделен цветом.

Мы видим, что название отеля — единственный кусочек текста в классе (class) с наименованием `listing_title`. После класса идет код и название этого атрибута к функции `find_all`, а также тег `div`.
```
content_name = soup.find_all('div', attrs={'class': 'listing_title'})
print(content_name)
```
Каждый раздел кода с названием отеля возвращается в виде списка.

Чтобы извлечь названия отелей из кода, воспользуемся функцией `getText` библиотеки Beautiful Soup.
```
content_name_list = []
for div in content_name:
content_name_list.append(div.getText().split('\n')[0])
print(content_name_list)
```
Названия отелей возвращаются в виде списка.

Тем же способом получаем данные о цене. Структура кода для цены показана ниже.

Как видите, мы можем работать с кодом, очень похожим на тот, что использовали для отелей.
```
content_price = soup.find_all('div', attrs={'class': 'price-wrap'})
print(content_price)
```
В случае с ценой есть небольшая сложность. Ее можно увидеть, запустив следующий код:
```
content_price_list = []
for div in content_price:
content_price_list.append(div.getText().split('\n')[0])
print(content_price_list)
```
Результат продемонстрирован ниже. Если в списке отелей указано уменьшение цены, в дополнение к некоторому тексту возвращается как исходная цена, так и итоговая. Чтобы устранить эту проблему, мы просто возвращаем цену, актуальную на сегодняшний день.

Можем воспользоваться простой логикой, чтобы получить последнюю цену, указанную в тексте.
```
content_price_list = []
for a in content_price:
a_split = a.getText().split('\n')[0]
if len(a_split) > 5:
content_price_list.append(a_split[-4:])
else:
content_price_list.append(a_split)
print(content_price_list)
```
Это даст нам следующий результат:

### API
API — программный интерфейс приложения (от англ. application programming interface). С позиции извлечения данных это веб-система, обеспечивающая конечную точку данных, с которой вы можете связаться посредством программирования. Обычно данные возвращаются в формате JSON или XML.
Этот метод, вероятно, пригодится вам в машинном обучении. Я приведу простой пример извлечения данных о погоде с общедоступного API [Dark Sky](https://darksky.net/dev). Чтобы подключиться к нему, нужно зарегистрироваться, и у вас будет 1000 бесплатных вызовов в день. Этого должно быть достаточно для пробы.
Для доступа к данным из Dark Sky я воспользуюсь библиотекой `requests`. Первым делом мне нужно получить корректный URL для запроса. Помимо прогноза, Dark Sky предоставляет исторические данные о погоде. В этом примере я возьму их, а корректный URL получу из [документации](https://darksky.net/dev/docs#time-machine-request).
Структура этого URL:
```
https://api.darksky.net/forecast/[key]/[latitude],[longitude],[time]
```
Мы будем использовать библиотеку `requests`, чтобы получить
результаты для конкретной широты и долготы, а также дату и время. Представим, что после извлечения ежедневных данных о ценах на отели Крита мы решили выяснить, связана ли ценовая политика с погодой.
Для примера давайте возьмем координаты одного из отелей в списке — Mitsis Laguna Resort & Spa.

Сначала создадим URL с корректными координатами, а также запрашиваемыми временем и датой. Используя библиотеку `requests`, получим доступ к данным в формате JSON.
```
import requests
request_url = 'https://api.darksky.net/forecast/fd82a22de40c6dca7d1ae392ad83eeb3/35.3378,-25.3741,2019-07-01T12:00:00'
result = requests.get(request_url).json()
result
```
Чтобы результаты было легче читать и анализировать, мы можем преобразовать данные в датафрейм.
```
import pandas as pd
df = pd.DataFrame.from_dict(json_normalize(result), orient='columns')
df.head()
```

Есть еще много вариантов для автоматизации извлечения данных с помощью этих методов. В случае с веб-скрапингом можно написать разные функции, чтобы автоматизировать процесс и облегчить извлечение данных для большего количества дней и/или мест. В этой статье я хотела сделать обзор и привести достаточно примеров с кодом. Следующие материалы будут более подробными: я расскажу, как создавать большие датасеты и анализировать их, применяя описанные выше методы.
Благодарю за внимание! | https://habr.com/ru/post/460675/ | null | ru | null |
# Что готовит нам Angular? Заметки из changelog, новый синтаксис шаблонов, Ivy
В этой статье приведу заметки к релизу Angular 13, и рассмотрим предложения по шаблонам которую будут рассматривать в Angular Team в ближайшем митинге.
🅰️ Angular 13
-------------
Пока изменений на первый взгляд не так уж и много, думаю добавят много при 13.1+2 как это было с 12. Я бы назвал что релиз Angular 13 это про окончательный дроп IE.
**Angular:**
- Поддержка number separators:
`Total: \${{ 1\_000\_000 \* multiplier }}`
- Form status протипизировали
- Forms: Добавили методы hasValidators, addValidators, и removeValidators
**Angular/CLI:**
- webpack-dev-server upgrade в 4 версию
- deprecate deployUrl
- esbuild для оптимизации css глобальных стилей
- | https://habr.com/ru/post/578818/ | null | ru | null |
# Повышение скорости написания кода: Emmet и его использование в VSCode
Emmet - это утилита для текстовых редакторов, которая упрощает и повышают скорость написания кода. Первоначально слово "Emmet" означало муравей - маленькое насекомое, которое может нести в 50 раз больше своего веса. Чтобы использовать Emmet, нужно скачать и установить плагин для используемого текстового редактора. Список всех плагинов доступен на [официальном сайте](https://emmet.io/download/). Если вы используете Visual Studio Code, то устанавливать плагин не нужно, он уже встроен.
Аббревиатуры
------------
Аббревиатуры - это специальные выражения, которые преобразуются в структурированный блок кода. Во многих редакторах также создаются метки табуляции, по которым вы можете быстро перемещаться между важными местами сгенерированного кода с помощью клавиши Tab.
У Emmet нет предопределенного набора имен тегов, вы можете написать любое слово и преобразовать его в тег: `div` → , `foo` → и так далее. Преобразование происходит по нажатию клавиши. Обычно это клавиша Tab. В VSCode, чтобы выполнять преобразование по нажатию клавиши Tab, добавьте следующую настройку:
```
{
"emmet.triggerExpansionOnTab": true
}
```
Создание базовой структуры html
-------------------------------
Для создания базовой структуры html напишите символ `!` и нажмите клавишу Tab. В результате файл заполнится следующим содержимым:
```
Document
```
Операторы вложенности
---------------------
Операторы вложенности используются для позиционирования элементов внутри сгенерированного дерева.
### Дочерний элемент
Оператор `>` позволяет вкладывать один элемент в другой:
`div>ul>li`→
```
*
```
### Соседний элемент
Оператор `+` позволяет разместить элементы рядом друг с другом на одном уровне:
`div+p+bq`→
```
```
### Повторение
Оператор `*` позволяет определить, сколько раз должен выводиться элемент:
`ul>li*3`→
```
*
*
*
```
### Группировка
Круглые скобки позволяют выделить в аббревиатуре отдельные поддеревья:
`div>(header>ul>li*2>a)+footer>p`→
```
*
*
```
Вы можете вкладывать группы друг в друга и повторять их с помощью оператора умножения:
`(div>dl>(dt+dd)*3)+footer>p`→
```
```
Атрибуты операторов
-------------------
Вы можете указать атрибуты для выводимых элементов.
### Указание класса и id
Оператор `.` позволяет указать класс. Оператор `#` предназначен для указания id:
`div#header+div.page+div#footer.class1.class2.class3`→
```
```
### Произвольные атрибуты
Квадратные скобки позволяют задавать элементу произвольные атрибуты:
`td[title="Hello world!" colspan=3]`→
```
|
```
Произвольные атрибуты имеют следующие особенности:
1. Для разделения атрибутов используется пробел.
2. Если не указано значение атрибута, то его значением станет пустая строка с меткой для табуляции (если ваш редактор поддерживает метки табуляции).
3. Можно использовать одинарные и двойные кавычки для указания значений атрибутов.
4. Если значение атрибута не содержит пробелов, то его не обязательно заключать в кавычки.
### Нумерация
Оператор `$` позволяет создавать нумерацию. Для этого поместите данный оператор после имени элемента, имени атрибута или значения атрибута:
`ul>li.item$*3`→
```
*
*
*
```
Оператор `$` можно поместить в любом месте имени:
`ul>li.ite$m*2`→
```
*
*
```
Вы можете использовать несколько операторов `$` подряд, чтобы дополнить номер нулями:
`ul>li.item$$$*3`→
```
*
*
*
```
#### Начальное значение и направление нумерации
Модификатор `@` позволяет изменить начальное значение и направление нумерации (по возрастанию или убыванию). Чтобы изменить направление нумерации, добавьте модификатор `@-` после оператора `$`:
`ul>li.item$@-*3`→
```
*
*
*
```
Чтобы изменить начальное значение счетчика, добавьте модификатор `@N` к оператору `$`:
`ul>li.item$@3*5`→
```
*
*
*
*
*
```
Вы можете изменить начальное значение счетчика и направление нумерации одновременно:
`ul>li.item$@-3*5`→
```
*
*
*
*
*
```
### Добавление текста
Фигурные скобки позволяют добавить текст в элемент:
`a{Перейти}`→
```
Перейти
```
Неявные имена тегов
-------------------
Во многих случаях можно не писать имя тега. Например, вместо `div.content` вы можете написать `.content`, что преобразуется в . Emmet смотрит на родительский тег каждый раз, когда вы расширяете аббревиатуру без имени тега. Если родительcкий элемент является [блочным](https://developer.mozilla.org/en-US/docs/Web/HTML/Block-level_elements), то будет выбрать тег `div`, в противном случае — `span`. При этом есть несколько исключений:
1. `li` для `ul` и `ol`.
2. `tr` для `table`, `tbody`, `thead` и `tfoot`.
3. `td` для `tr`.
4. `option` для `select` и `optgroup`.
Генератор "Lorem Ipsum"
-----------------------
Аббревиатуры "lorem" и "lipsum" генерируют случайный текст. Каждый раз, когда вы выполняете преобразование данных аббревиатур, генерируется текст из 30 слов, разбитый на несколько предложений.
`lorem`→
```
Lorem ipsum dolor sit amet consectetur adipisicing elit. Et hic incidunt repellat, quos veritatis a tenetur deserunt accusantium ab ad adipisci ex rerum distinctio corrupti omnis asperiores, numquam exercitationem sapiente.
```
Вы можете указать количество генерируемых слов. Например, `lorem10` сгенерирует текст из 10 слов. Также, вы можете использовать оператор повторения `*`, чтобы создать несколько элементов со случайным текстом:
`ul>li*3>lorem10`→
```
* Lorem ipsum dolor sit amet consectetur adipisicing elit. Ad, temporibus.
* Earum totam eius repudiandae sit optio, consectetur ipsum officiis enim?
* Ex, molestias. Minima ducimus quaerat et earum commodi natus autem?
```
Добавление аббревиатур и фрагментов
-----------------------------------
Некоторые аббревиатуры преобразуются в элементы с предустановленными атрибутами. Список таких аббревиатур для различных языков вы можете посмотреть в официальном репозитории в каталоге [snippets](https://github.com/emmetio/emmet/tree/master/snippets). Например, аббревиатуры для html находятся в файле [html.json](https://github.com/emmetio/emmet/blob/master/snippets/html.json).
Способ добавления аббревиатур вы можете узнать в документации плагина, который используете в текстовом редакторе. Если используется Visual Studio Code, то вам нужно создать файл `snippets.json`. Таких файлов может быть несколько, например, один с глобальными настройками, а другой с локальными на уровне проекта. Затем, в файле настроек VSCode, добавьте параметр `emmet.extensionsPath`, содержащий массив путей к каталогам, содержащим файл `snippets.json`. Рассмотрим на примере: создайте каталог `.vscode` в текущем проекте. В каталоге `.vscode` создайте файлы `settings.json` и `snippets.json`. Вот как это сделать через терминал:
1. `mkdir .vscode && cd .vscode`
2. `touch settings.json && touch snippets.json`
В файл `settings.json` добавьте следующую настройку:
```
{
"emmet.extensionsPath": ["./.vscode"]
}
```
В файле `snippets.json` для каждого языка записываются его псевдонимы и фрагменты. На данный момент в VSCode используется Emmet 2.0. В данной версии аббревиатуры и фрагменты задаются через один параметр `snippets`. Создадим несколько аббревиатур для `html` и `css`:
```
{
"html": {
"snippets": {
"abbr1": "ul>li*3",
"abbr2": "ol>li*3"
}
},
"css": {
"snippets": {
"clw": "color: white",
"clb": "color: black"
}
}
}
```
Подробности создания аббревиатур и фрагментов в VSCode можно найти в [официальной документации](https://code.visualstudio.com/docs/editor/emmet#_using-custom-emmet-snippets). | https://habr.com/ru/post/573032/ | null | ru | null |
# Множественные CSRF уязвимости в крупнейших порталах Рунета
Простите мне заголовок в стиле Securitylab, но факт остается фактом.
Сначала я планировал написать о CSRF уязвимостях, которые я нашел в одном из крупнейших порталов Рунета. Но оказалось, что этим уязвимостям подвержен не только этот портал, а большинство крупнейших ресурсов. О найденных проблемах я сообщил в соответствующие компании полтора месяца назад. Сейчас у меня снова появилось время и я посмотрел, что же уже закрыто. Оказалось, что за полтора месяца была закрыта только 1 уязвимость.
Т.к. уязвимости ещё рабочие, я напишу только где их нашёл и как их можно использовать. Через неделю обещаю выложить работающие примеры для чайников — чтобы воспользоваться смогли школьники и домохозяйки. Кто не спрятался — я не виноват.
Нагнетаю интригу: я искал уязвимости в Яндексе, Рамблере, Mail.ru, Вконтакте, ЖЖ и на других популярных ресурсах. Если не терпится узнать где и какие уязвимости я нашел — сразу переходите к разделу «Список уязвимостей».
Для понимания обнаруженных уязвимостей понадобятся хотя бы базовые знания о том, что такое CSRF. Если их нет — не расстраивайтесь, ниже я попробовал доступно это объснить (правда, по-моему, не получилось). Если вы и так в курсе, что это такое, или же наоборот, не собираетесь в этом разбираться — смело переходите к результатам моего поверхностного аудита.
Для начала имеет смысл [почитать Википедию](http://en.wikipedia.org/wiki/Cross-site_request_forgery). Если читать по-английски лень (на русском языке в Википедии почти ничего по теме нет, на Хабре тема освещена чрезвычайно слабо), а узнать что-нибудь хочется, то вот краткое ~~содержание предыдущих серий~~ описание этой уязвимости.
~~**UPD:** главный разработчие Liveinternet.ru не верит в существование CSRF. Раскрываю его уязвимости раньше обещанной недели. [Здесь](http://zazuzizo.narod2.ru/liru/container.html) пример использования. Будьте внимательны, если у вас есть аккаунт в LiRu.~~
**UPD 2:** Работа уязвимости продемонстрирована, пример пока убрал.
**UPD 3:** Неделя прошла. Выкладываю работающие/работавшие примеры. Времени мало, поэтому пока не проверяю, что работает, а что нет. Буду признателен, если отпишете об этом в комментариях. Все вопросы, пожелания, предложения — в ответах [к этому комментарию](http://habrahabr.ru/blogs/infosecurity/126409/#comment_4186466).
[Рамблер](http://zazuzizo.narod2.ru/rambler.tar.gz), [Mail.Ru](http://zazuzizo.narod2.ru/mail.tar.gz), [Liveinternet](http://zazuzizo.narod2.yandex.ru/liru.tar.gz), [Яндекс](http://zazuzizo.narod2.ru/yandex.tar.gz)
#### Что такое CSRF?
Для выполнения каких-либо действий с Web приложением пользователи отправляют HTTP запросы. Для того, чтобы определить, от имени какого пользователя выполняется действие, обычно используются сессии, данные о которых хранятся в Cookie. Сервер получает запрос, смотрит Cookie, убеждается в том, что сессия связанная с данными Cookie существует и выполняет действие от имени пользователя, связанного с этой сессией. Для того, чтобы пользователь мог оставаться залогиненым на своем любимом ресурсе, браузеры автоматически отправляют Cookie тому серверу, который их установил. Таким образом, если из браузера пользователя отправить запрос, то вместе с ним отправятся и Cookie. И сервер будет думать, что имеет дело с залогиненым пользователем ресурса и действия выполнит от его имени. А заставить браузер отправить запрос можно и со сторонней страницы. И если сервер такие запросы будет обрабатывать так же, как и запросы со своих страниц — это и есть уязвимость.
#### Как воспользоваться?
Немного запутано, конечно, получилось, поэтому простой пример. Можно из всего объяснения читать только его.
Чтобы удалить свой профиль из популярной социальной сети Васе нужно кликнуть по ссылке «Удалить профиль», которая ведет на страницу http://vulnerable.site/delete\_profile.php?sure=yes. Петя размещает на своей странице картинку, которая должна загружаться по этому адресу (понятное дело, что никакой картинки по этому адресу нет, но браузер заранее этого не знает). Когда Вася заходит на страницу Пети, браузер Васи пытается загрузить эту картинку. Картинки он не находит и успокаивается. Но популярная социальная сеть получила от имени Васи команду удалить профиль. И профиль Васи был благополучно удален. Возможно вам все равно непонятно — поменяйте Васю и Петю на Alice и Bob и прочитайте еще раз. От этих Васи с Петей всегда сплошная путаница.
Итак, для использования придется заманить пользователя на собственноручно созданную страницу (или же на страницу с XSS, на которой через XSS размещен ваш код — но для данной статьи разницы нет). На этой странице должно быть что-то, что отправит запрос. Самый простой способ — разместить картинку:
``
Можно взломать популярный блог и разместить там скрытый iframe — результат будет потрясающим.
##### А в моём приложении все действия выполняются через POST запросы
Почему-то многие разработчики уверены, что невозможно воспользоваться CSRF уязвимостью, требующей отправки POST запроса. Обычно они мотивируют это тем, что через JS нельзя отправить POST запрос на другой домен. Это действительно так (по крайней мере при обычных условиях). Но почему-то всегда забывают о ~~корне мирового зла~~ теге iframe. Во-первых, он может быть скрытым (display:none) и при этом всё равно загрузится. Во-вторых, загрузить его можно откуда угодно (со своего сервера в том числе). И, в-третьих, в нем может быть уже заполненная форма с method=«POST» и action=«http://vulnerable.site/delete\_profile.php», а по onload вызываться submit этой формы. Для демонстрации нижеперечисленных уязвимостей я использовал именно такой метод.
#### Я пользователь — как мне защититься?
Тут я должен вас огорчить. Единственный способ защиты — не пользоваться интернетом. Или хотя бы той его частью, в которой нужно куда-нибудь логиниться (социальные сети, твиттер, электронная почта, форумы и т.д.). Нет, можно конечно никогда не оставлять открытые сессии и всегда нажимать кнопку выход сразу после использования ресурса — но это все равно вас не спасет, т.к. пока вы залогинены — вы уязвимы. Обычным пользователям остается только надеятся на профессионализм разработчиков и на то, что они позаботились о своих пользователях. А надежды мало.
**UPD:** Для FF есть addon — [RequestPolicy](https://addons.mozilla.org/en-US/firefox/addon/requestpolicy/), спасибо **Vanav**
#### Я разработчик — как мне позаботиться о своих пользователях?
Именно позаботиться о своих пользователях — использование CSRF сервера из строя не выводит и SSH доступ не дает. Всего-лишь какие-то действия от имени пользователя выполняются. Ну так пользователь и сам мог их выполнить. Поэтому некоторые разработчики это и уязвимостью не считают. А я считаю такое отношение вопиющим непрофессионализмом и наплевательством на собственных пользователей. Вон из профессии. Тем более, что уязвимость далеко не новая.
Подробно останавливаться на способах защиты я, пожалуй, не буду — просто перечислю способы и дам небольшие комментарии — т.к. если вы разработчик, то и сами ~~можете~~ **уже должны** в этом разбираться.
Сразу скажу, что способы взял из английской Википедии и, по моему личному мнению, многие из них никакой защитой не являются.
1. Одноразовый токен для каждого действия — *самый надёжный способ, лично я выбираю его*
2. В каждом запросе требовать передачи логина и пароля — *тоже надежно, но если используется не HTTPS, то пароль можно украсть из любого запроса с помощью сниффера*
3. Ограничение времени жизни сессии — *ни от чего не защищает, просто сокращает время, в течение которого можно воспользоваться уязвимостью*
4. Проверка заголовка Referer — *неплохо, но этот заголовок устанавливается не всегда, первый способ всё же предпочтительнее*
5. Убедиться, что clientaccesspolicy.xml и crossdomain.xml (для Silverlight и Flash соответственно) не позволяют запросы из непроверенных источников — *это как сначала снять замок с двери и разрешить ходить кому угодно, а потом для защиты повесить его обратно*
6. Проверять наличие X-Requested-With — *поможет для AJAX запросов да и то [не всегда](https://docs.djangoproject.com/en/1.2/releases/1.2.5/#csrf-exception-for-ajax-requests)*
#### Практика
В принципе, поиск CSRF — очень простое занятие. Просто заводим аккаунт на интересующем нас ресурсе, включаем Firebug/Chrome Developer Tools и делаем всё то, что делает обычный пользователь — настраиваем почтовый ящик, читаем, пишем, удаляем письма, пишем в блоги и т.д. При этом не забываем смотреть на отправленные запросы. Если запрос не содержит непонятно как сформированных данных (различные одноразовые токены) — это потенциальная уязвимость. Повторяем этот запрос с локальной страницы и смотрим на результат. Если действие произошло — уязвимость обнаружена. Пишем страничку с формой, загружаем на свой сервер и грузим эту страницу в скрытом iframe с какой-нибудь другой своей страницы — просто для демонстрации работы (или для промышленного использования). Можно ещё каким-нибудь своим знакомым показать и на них проверить. Только трезво оценивайте уязвимость и свои отношения со знакомыми — вряд ли одноклассник Петя обрадуется, если с его счета будет переведено 300 тысяч долларов.
Некоторые запросы не получилось отследить ни через Firebug, ни через Chrome Developer Tools — сначала отправляется AJAX запрос, а после получения ответа на него с помощью JS открывается следующая страница. В этом случае интересующий нас запрос видно только несколько секунд. Но от Wireshark все равно никому не скрыться.
**UPD:** Умные люди в комментариях подсказывают, что в FireBug есть кнопка «Не очищать» а в Chrome Developer Tools — «Preserve Log upon Navigation»
При поиске уязвимостей нельзя забывать о дополнительных сервисах (вроде календарей Яндекс) и мобильных версиях.
#### Список уязвимостей
Я не ставил перед собой задачу найти все CSRF узявимости на определенном портале. На каждый ресурс выделялось не больше 2х часов. Проверял только русские порталы — Google.ru, Facebook.com и им подобные остались в стороне. На некоторых порталах за отведенное время я не обнаружил ничего, но в список внес, чтобы оставить общий отзыв об их способе защиты. Некоторые порталы из списка я не считаю крупнейшими в Рунете, но так считает рейтинг, которым я пользовался.
##### Liveinternet.ru
Защиты от CSRF нет вообще никакой. Сделать можно всё, что угодно — отправлять личные сообщения, постить в блоги, писать комментарии, перенастраивать аккаунт, в общем всё, что вообще позволяет ресурс. Поэтому составлять список уязвимостей не стал. Этот ресурс был последним, до которого я добрался, да и не считаю я его одним из крупнейших. После него у меня уже руки опустились — все стало и так понятно.
##### Rambler.ru
Защита от CSRF по методу №1 — одноразовый токен. Казалось бы никаких CSRF быть не может. Но, во-первых, эта защита есть не везде. А, во-вторых, токен не проверяется — можно отправить любой токен (и даже пустой) и все равно нужно действие выполнится. В качестве дополнительной защиты в одной из форм увидел скрытое поле «referer» с адресом текущей страницы. Даже прослезился немного.
Создается впечатление, что разработчикам Рамблера в один прекрасный день сказали, что есть такая уязвимость CSRF и что для защиты от нее нужно с каждым запросом отправлять уникальный токен. Но забыли сказать, что его еще и проверять надо.
Что можно сделать
1. В Рамблер.Друзьях (да кто ими вообще пользуется?) можно создать группу друзей с произвольным названием, добавить или удалить произвольного друга, изменить настройки уведомлений о действиях друзей/добавлении в друзья
2. В настройках аккаунта можно добавить или удалить пользователя из черного списка, изменить подпись, изменить местоположение, изменить список своих интересов, разрешить/запретить отображать список своих друзей и своё ФИО
3. В почте можно отправить произвольное письмо от имени пользователя, включить безусловную переадресацию на произвольный e-mail (без сохранения), изменить настройки почты (особенно ценно включить отображение изображений со сторонних серверов), удалить все письма из папки (на самом деле они переместятся в корзину) и очистить корзину
4. Также в почте можно удалить письмо, пометить письмо как прочитанное и переслать письмо на произвольный почтовый ящик. Правда для этого нужно знать id письма и имя папки, в которой оно хранится. 2 папки известны — «Входящие» и «Отправленные». id письма — номер письма в текущей папке, так что брутфорс никто не отменял
В общем, огромный простор для спама и махинаций с почтой. Даже потенциальные сценарии использования обдумывать не стал — проще сказать, что нельзя сделать без ведома пользователя.
Это далеко не весь перечень, т.к. защиты нет (вернее она есть, но не работает, что равносильно).
##### Mail.ru
На почте защита от CSRF по методу №2 — ввод пароля. Т.е. изначально это не от CSRF защита, но там, где требуется ввод пароля, CSRF тоже не работает. На других сервисах есть и нормальная защита.
Итак, какие узявимости найдены в популярнейшем почтовом сервисе СНГ
1. Отправка от имени пользователя письма с любым текстом и темой на любой почтовый ящик. Письмо с уникальным кодом может быть отправлено на почтовый ящик злоумышленника и тогда он узнает email посетителя. Этот email через AJAX попадет на страницу, на которой пользователь уже находится — это пригодится для использования уязвимостей №2, №7
2. Отправка копии письма на любой адрес (письмо не сохраняется в отправленных, пользователь об этом никак не может узнать). Для использования этой уязвимости нужно было знать id письма — 20 цифр, из которых первые 10 — timestamp, а вторые 10 — номер письма среди обработанных сервером в эту секунду (это только мое личное предположение конечно же). По моим наблюдениям это число не превышает 1000. Можно попросить сервер отправить сразу 1000 писем и тогда он отправит те из них, которые действительно есть у пользователя в почтовом ящике, хотя в интерфейсе pro.mail.ru (а именно там находится эта уязвимость) сказано, что переслать больше 3х писем одновременно нельзя. Использовать можно брутфорсом — переслать письма полученные за 10 секунд, запрашивая пересылку каждый раз по 1000 штук. Чтобы пробрутфорсить письма за день надо 2.5Гб исходящего трафика, но для кражи письма с паролем это и не нужно — на почтовый ящик пользователя (он уже может быть известен из №1) запускается восстановление пароля на стороннем ресурсе и время прихода письма уже приблизительно известно. Можно использовать вместе с уязвимостью №3
3. Удаление письма — опять же по id. Опять же брутфорсом. Запускаем восстановление пароля, крадем письмо с паролем и удаляем его
4. Подключение и отключение СМС уведомлений — тут вообще всё просто. Некоторые настройки почтового ящика можно изменить не вводя пароль. Можно отключить уведомления, а можно включить их на свой телефон, привязанный в пункте №7
5. Отключить сохранение отправленных писем и включить Web mail-агент на страницах почты — эти галочки находятся на одной странице в настройках и так же (как и предыдущая уязвимость) не требовали пароля для изменения состояния. Отключать сохранение отправленных понятно зачем. А включить Web mail-агент имеет смысл, если в нем тоже есть CSRF
6. Отключить уведомления о приближении лимита размера почтового ящика — суть та же, что и в 2х предыдущих. Отключаем уведомления и заваливаем ящик большими письмами
7. Привязать/удалить номер телефона — с этим всё немного интереснее. Для всех действий требуется email пользователя (вернее username и domain) которые можно получить из пункта №1. Также требуется указывать номер телефона, так что удалить у пользователя его собственный номер телефона не получится (по крайней мере если его не узнать заранее — например, он отображается авторизованным контактам в mail агенте — а как авторизоваться, это уже другой вопрос). Чтобы привязать свой номер телефона надо отправить соответствующий запрос. После этого на телефон придет СМС с кодом. На этом этапе понадобится софт, который будет код из СМС доставать и по AJAX запросу его сообщать. JS же на страничке получив этот код создаст еще один iframe, который выполнит подтверждение привязки номера телефона. Удалить этот номер телефона можно таким же образом. Тут правда есть одна особенность — если номер телефона единственный, то удалится он только через 15 дней, а не сразу. Удалить его сразу можно только зная код из СМС (он тот же самый, что и для привязки)
##### Yandex
Защита от CSRF есть. Но т.к. Яндекс — это не только поиск или почта, то и защита везде разная. А где-то что-то пропущено. Яндекс в течение 3х дней ответили на моё письмо и обещали проверить информацию. И они единственные, кто исправил хотя бы одну уязвимость.
Что же можно (было) сделать
1. Можно было перенастроить поиск — включить сохранение поисковых запросов и результатов в сервисе «Находки», изменить уровень фильтрации поиска (например, запретить искать порнографию коллеге по работе — просто так, из вредности). Эта уявимость на данный момент закрыта
2. Можно изменить местоположение пользователя — и будут ему показываться результаты поиска, реклама и пробки в Херсоне вместо Питера. А можно изменить всем посетителям местоположение на какое-нибудь не очень популярное и гнать туда рекламу из Директа по ценам значительно ниже московских
3. Можно создать в календаре пользователя ToDo-list с произвольным именем и добавить в него произвольные дела. Для добавления дел нужно знать id списка, но можно ведь сначала создать список у себя, затем у пользователя, а потом снова у себя и перебрать id между двумя своими списками (а, с учетом количества создаваемых списков, скорее всего даже перебирать ничего не придется). Уязвимость в мобильной версии Яндекс.Календарь
4. Можно из Яндекс.Паспорта удалить телефон. Нужно знать его id, но зная примерную дату добавления можно его и брутфорсом подобрать
5. В Яндекс.Маркете можно добавить произвольный товар в список сравнения. Или удалить его оттуда.
6. В Яндекс.Маркете можно подписать пользователя на уведомление о снижении цены на конкретный товар ниже определенного уровня. Или отписать пользователя от уведомлений. Например, недобросовестный интернет-магазин закупил партию серых iPhone и планирует акцию по их распродаже. Перед самой акцией он устраивает какую-нибудь PR-кампанию и всех посетителей подписывает на уведомление о снижении цены ниже 8000 рублей. А затем в Яндекс.Маркет экспортируется iPhone по цене 7999 рублей и все пользователи получают от Яндекса спам с предложением купить этот самый iPhone
7. Глобальный логаут. Можно завершить все сессии пользователя на всех компьютерах. Можно пользоваться как мелкой пакостью. Конкуренты могут на своих сайтах размещать iframe, который будет завершать все сессии Яндекса, пользователи будут раздражаться. Вообще, единственный сайт на котором такой проблемы нет — Вконтакте. Там с неправильным токеном даже из аккаунта не выйдешь. Не уверен, можно ли считать это уязвимостью вообще, но похоже Вконтакте считает
Не самые серьезные уязвимости. Скорее всего причина их появления в том, что Яндекс — это большое количество сервисов, каждый со своей командой разработчиков и везде защита организована по-разному. А где-то просто недосмотрели.
#### А как же Вконтакте и ЖЖ?
Конечно же эти ресурсы я не мог обойти своим вниманием. Но уязвимостей не нашел, хотя это и не значит, что их там нет. В любом случае стоит рассказать, как у них устроена защита от CSRF.
##### Вконтакте
Токены на любые действия пользователя. Похоже добавляются автоматически, поэтому о них не забывают. Точно такая же защита и в мобильной версии. Один сервис, одна команда разработчиков, нет таких проблем, как, например, у Яндекса. Смущает меня только одно — токен для конкретного действия у конкретного пользователя всегда один и тот же. Т.е. это некая смесь способов защиты №1 и №2 — токены не одноразовые, но известны только пользователю. Можно считать их паролем для выполнения действия — на каждое действие свой пароль. Что-то мне в такой организации не нравится, но я пока не понял, что именно.
##### ЖЖ
Защита по методу №1 — одноразовые токены. В мобильной версии защита немного проще, но все же есть. Вот на кого можно смотреть в качестве примера. Стоит правда заметить, что сервис-то не очень и русский. Так что он вне конкурса.
##### Одноклассники
Очень хотел проверить и их. Но для этого нужно уметь ими пользоваться. А у меня от их дизайна нервный тик. Так что не сложилось. Попробую как-нибудь ночью с отключенными картинками это исправить.
#### Вывод
В общем, картина совершенно нерадостная. Если такие монстры допускают такие ошибки в своих проектах, то всем остальным разработчикам стоит еще раз проверить свои ресурсы. Первое место по скорости закрытия уязвимостей занимает Яндекс со скоростью 1 уязвимость в полтора месяца. Остальные ресурсы занимают почетное второе место. | https://habr.com/ru/post/126409/ | null | ru | null |
# Подключение планшета Wacom к последовательному (Com, Serial) порту и работа через usb-com адаптер.
При переходе с десктопа на лэптоп встала проблема подключения планшета Wacom Intuos. Моя модель достаточно старая и подключается через COM порт, который в лэптопах уже давно не используются. Покупать новый 6×8 дюймовый планшет только из-за usb смысла нет. Проще купить com-usb адаптер. Wacom гарантирует работу только с [Keyspan](http://www.tripplite.com/EN/products/model.cfm?txtSeriesID=518&txtModelID=3914), но они достаточно дороги. Зато есть множество дешевых адаптеров, большинство из которых собраны на чипе [Prolific](http://www.prolific.com.tw/eng/downloads.asp?ID=31). В итоге взял [TRENDnet TU-S9](http://trendnet.com/products/proddetail.asp?prod=150_TU-S9&cat=49). С ним все заработало, думаю с другими «Пролификами» тоже проблем не должно быть.
**Теперь о трудностях подключения**
Интернет полнится рассказами о черной магии и танцах с бубном при подключении Wacom-ов. «Wacom Tablet Properties» в Control Panel в упор не видит планшет. Промучавшись целый день, все наконец заработало. Драйвера для Wacom брал [здесь](http://www.wacom.com/productsupport/select.cfm). Вся серия 6.x должна работать. Я подключал через com-usb адаптер, но, думаю, через com порт будет так же.
Итак, что нужно делать:
1. Удаляем из системы все драйвера Wacom-а.
2. Если используется usb-com адаптер, ставим его драйвер.
3. Устанавливаем драйвер Wacom-а.
4. Создаем файл `Wacom_Tablet.dat` со следующим содержанием:
`PrefsFileVersion 4
DriverOn1Off0 1
DriverLanguage 13
LeftHandedMouse 0
FunkyButtonMode 0
NoStartWarnings 0
HowManyTablets 1
TabletType 0
TabletModel 201
CommPort COM1
TabletOn1Off0 1
TabletPhysicallyOn 1
TabletFlags 0
HowManyTransducers 0`
меняем номер порта в `CommPort` на порт, используемый планшетом. При использовании usb-com адаптера, com порт можно проверить в Control Panel, System, Hardware tab, Device manager там смотрим в Ports.
5. Копируем этот файл в
`%USERPROFILE%\Application Data\WTablet\Wacom_Tablet.dat`
6. Перезапускаем Wacom service.
Лучше написать для этого bat-файл. Он нам не раз еще пригодится. Скажем, `wacom.bat`. Туда пишем
`net stop "TabletServiceWacom"
net start "TabletServiceWacom"`
7. Если планшет не откликается на перо, перегружаем компьютер.
Если все еще что-то не работает, проверяем номер порта в `%USERPROFILE%\Application Data\WTablet\Wacom_Tablet.dat`. Иногда драйвер его меняет.
После перезагрузки Windows может предложить установить новое оборудование, закрывайте это окно и ничего не устанавливайте. Иногда от этого ничего не работает.
При переподключении планшета, скорее всего, он не будет работать. Тут и понадобится созданный ранее `wacom.bat`. Ну или просто перезагрузка. | https://habr.com/ru/post/51441/ | null | ru | null |
# Онлайн кассы ОФД класс на Delphi
Создаем Свои класс для взаимодействия с ООФ КазакТелеком
--------------------------------------------------------
> Объявим вспомогательные типы
>
>
```
type
TSellBuy = class(TObject)
Sum : Double;
PaymentType : Integer;
PaymentTypeName : String;
end;
```
```
type
TNonNullableType = record
Sell : Double;
Buy : Double;
ReturnSell : Double;
ReturnBuy : Double;
end;
```
> Объявим тип для хранения данных ZX отчета
>
>
```
type
TZXReport = class(TObject)
ReportNumber : Integer;
TaxPayerName : String;
TaxPayerIN : String;
TaxPayerVAT : Boolean;
TaxPayerVATSeria : String;
TaxPayerVATNumber : String;
CashBoxSN : String;
CashBoxIN : String;
CashBoxRN : String;
StartOn : String;
ReportOn : String;
CloseOn : String;
CashierCode : Integer;
ShiftNumber : Integer;
DocumentCount : Integer;
PutMoneySum : Double;
TakeMoneySum : Double;
ControlSum : String;
OfflineMode : Boolean;
CashBoxOfflineMode : Boolean;
SumInCashbox : Double;
Sell : TList;{ of TSellBuy;}
Buy : TList {of TSellBuy;};
ReturnSell : TList {of TSellBuy;};
ReturnBuy : TList {of TSellBuy;};
StartNonNullable : TNonNullableType;
EndNonNullable : TNonNullableType;
end;
```
```
type
TControlTape = class(TObject)
OperationTypeText : String;
Sum : Double;
Date : String;
EmployeeCode : Integer;
Number : String;
isOffline : Boolean;
ExternalOperationId : String;
end;
```
> Объявим тип для хранения данных кассы, в дальнейшем этот тип будем использовать чтобы авторизовываться в системе и для быстрой смены кассы
>
>
```
type
TCassa = class(Tobject)
UniqueNumber: String;
RegistrationNumber: String;
IdentificationNumber: String;
Name: String;
Description: String;
IsOffline: Boolean;
CurrentStatus: Integer;
Shift: Integer;
end;
```
> Данный тип будем использовать как вспомогательный, чтобы хранить в
>
>
```
type
Tpayment = class(Tobject)
Sum: double;
PaymentType: LongInt;
end;
```
```
type
Tposition = class(Tobject)
Count: double;
Price: double;
Tax: double;
TaxType: LongInt;
PositionName: String;
PositionCode: double;
Discount: double;
Markup: double;
SectionCode: String;
IsStorno: Boolean;
UnitCode: Integer;
end;
```
```
type
TSendCheck = class(Tobject)
public
Token: String;
CashboxUniqueNumber: String;
OperationType: LongInt;
Position: TJSONArray;
Payment: TJSONArray;
Change: double;
RoundType: Integer;
ExternalCheckNumber: String;
CustomerEmail: String;
end;
```
```
type
Tcashbox = class(Tobject)
Unique_Number: String;
Registration_Number: String;
Identity_Number: String;
Address: String;
end;
```
```
type
TMoneyOperation = class(TObject)
OfflineMode : Boolean;
CashBoxOfflineMode : Boolean;
DateTime : String;
Sum : Double;
CashBox : Tcashbox;
end;
```
```
type
TAnswerCheck = class(Tobject)
public
var
check_number: String;
date_time: String;
offline_mode: Boolean;
cashbox: Tcashbox;
CheckOrderNumber: Integer;
ShiftNumber: Integer;
EmployeeName: String;
TicketUrl: String;
end;
```
> Объявим наш основной тип, который будем использовать и добавлять в него наши функции
>
>
```
type
TOOFD = class(Tobject)
private const
API_URL = 'https://devkkm.webkassa.kz/api/';
var
HTTP: TIdHTTP;
SSLIO: TIdSSLIOHandlerSocketOpenSSL;
public
constructor Create();
destructor Destroy();
```
> Добавим в наш основной тип функцию авторизации в ККМ системе, тут в принципе все довольно просто, используя REST API производится запрос по указанному адресу, в обратном ответе возвращается токен, по которому мы будем делать дальнейшие действия
>
>
```
function TOOFD.Autorize(login: String; passwd: String): String;
var
json_stream: TStringStream;
json_obj: TJSONObject;
json_pair: TJSONPair;
response: String;
Token: String;
json_response: TJSONObject;
begin
try
begin
Token := '';
json_obj := TJSONObject.Create;
json_pair := TJSONPair.Create('Login', login);
json_obj.AddPair(json_pair);
json_pair := TJSONPair.Create('Password', passwd);
json_obj.AddPair(json_pair);
json_stream := TStringStream.Create(json_obj.ToJSON);
response := HTTP.Post(API_URL + 'Authorize', json_stream);
json_response := TJSONObject.ParseJSONValue(response) as TJSONObject;
if (json_response.GetValue('Data') <> nil) then
begin
Token := (json_response.GetValue('Data') as TJSONObject)
.GetValue('Token').Value;
end
else
begin
// error code
ShowMessage(response);
Log(response);
end;
end;
finally
Result := Token;
json_obj.Free;
json_stream.Free;
end;
end;
```
> Добавим функцию которая будет формировать чек и отправлять его в ООФД, тут нужно обратить внимание что чек может быть как "ЧЕК ПОКУПКИ" так и "ЧЕК ВОЗВРАТА" , основные данные которые мы должны отправить это
>
> 1.Наш токен - который мы получили при авторизации
>
> 2. Наш номер кассы который мы получили когда зарегистрировались в ООФД
>
> 3. Вид операции (покупка или возврат)
>
> 4. Позиции в чеке - товары или услуги которые мы продаем или по которым делаем возврат
>
> 5. Оплаты или Возвраты сумма и количество
>
> Это основные данные которые мы должны передать на сервер ККМ ООФД,
>
> в ответ мы получаем тип который мы описали ранее **type** **TAnswerCheck**
>
>
```
function TOOFD.Check(SendCheck: TSendCheck): TAnswerCheck;
var
json_stream, jsst: TStringStream;
json_obj: TJSONObject;
json_pair: TJSONPair;
response: String;
json_response: TJSONObject;
json_data: TJSONObject;
answer: TAnswerCheck;
cashbox: Tcashbox;
cashbox_json: TJSONObject;
js_str: String;
begin
try
json_obj := TJSONObject.Create;
json_obj.AddPair('Token', SendCheck.Token);
json_obj.AddPair('CashBoxUniqueNumber', SendCheck.CashboxUniqueNumber);
json_obj.AddPair('OperationType',
TJSONNumber.Create(SendCheck.OperationType));
json_obj.AddPair('Positions', SendCheck.Position);
json_obj.AddPair('Payments', SendCheck.Payment);
json_stream := TStringStream.Create(json_obj.ToJSON);
answer := TAnswerCheck.Create;
response := HTTP.Post(API_URL + 'Check', json_stream);
Log(response);
json_response := (TJSONObject.ParseJSONValue(response) as TJSONObject);
if (json_response.GetValue('Data') <> nil) then
begin
json_data := (json_response.GetValue('Data') as TJSONObject);
answer.check_number := json_data.GetValue('CheckNumber').Value;
answer.date_time := json_data.GetValue('DateTime').Value;
answer.offline_mode := StrToBool(json_data.GetValue('OfflineMode').Value);
cashbox_json := (json_data.GetValue('Cashbox') as TJSONObject);
answer.cashbox := Tcashbox.Create;
answer.cashbox.Unique_Number :=
cashbox_json.GetValue('UniqueNumber').Value;
answer.cashbox.Registration_Number :=
cashbox_json.GetValue('RegistrationNumber').Value;
answer.cashbox.Identity_Number :=
cashbox_json.GetValue('IdentityNumber').Value;
answer.cashbox.Address := cashbox_json.GetValue('Address').Value;
answer.CheckOrderNumber :=
StrToInt(json_data.GetValue('CheckOrderNumber').Value);
answer.ShiftNumber := StrToInt(json_data.GetValue('ShiftNumber').Value);
answer.EmployeeName := json_data.GetValue('EmployeeName').Value;
answer.TicketUrl := json_data.GetValue('TicketUrl').Value;
end
else
begin
// error code
ShowMessage(response);
end;
finally
Result := answer;
json_stream.Free;
json_response.Free;
end;
end;
```
> Добавляем функцию которая позволит нам получить информацию по ZX Отчетам
>
>
```
function TOOFD.ZReport(Token: String; CassaNumber: String): TZXReport;
var
json_obj,
json_data,
json_response,
json_ennon: TJSONObject;
json_stream: TStringStream;
response: String;
res : TZXReport;
sell,
buy :TSellBuy;
i : Integer;
sell_js_arr : TJSONArray;
type_pay : Integer;
begin
try
DialogProgress;
json_obj := TJSONObject.Create;
res := TZXReport.Create;
json_obj.AddPair('Token', Token);
json_obj.AddPair('CashBoxUniqueNumber', CassaNumber);
json_stream := TStringStream.Create(json_obj.ToJSON);
response := HTTP.Post(API_URL + 'ZReport', json_stream);
Log(response);
json_response := (TJSONObject.ParseJSONValue(response) as TJSONObject);
if (json_response.GetValue('Data') <> nil) then
begin
json_data := (json_response.GetValue('Data') as TJSONObject);
res.ReportNumber := StrToInt(json_data.GetValue('ReportNumber').Value);
res.TaxPayerName := json_data.GetValue('TaxPayerName').Value;
res.TaxPayerIN := json_data.GetValue('TaxPayerIN').Value;
res.TaxPayerVAT := StrToBool(json_data.GetValue('TaxPayerVAT').Value);
res.TaxPayerVATSeria := json_data.GetValue('TaxPayerVATSeria').Value;
res.TaxPayerVATNumber := json_data.GetValue('TaxPayerVATNumber').Value;
res.CashBoxSN := json_data.GetValue('CashboxSN').Value;
res.CashBoxIN := json_data.GetValue('CashboxIN').Value;
res.CashBoxRN := json_data.GetValue('CashboxRN').Value;
res.StartOn := json_data.GetValue('StartOn').Value;
res.ReportOn := json_data.GetValue('ReportOn').Value;
res.CloseOn := json_data.GetValue('CloseOn').Value;
res.CashierCode := StrToInt(json_data.GetValue('CashierCode').Value);
res.ShiftNumber := StrToInt(json_data.GetValue('ShiftNumber').Value);
res.DocumentCount := StrToInt(json_data.GetValue('DocumentCount').Value);
res.PutMoneySum := StrToFloat(json_data.GetValue('PutMoneySum').Value);
res.TakeMoneySum := StrToFloat(json_data.GetValue('TakeMoneySum').Value);
res.ControlSum := (json_data.GetValue('ControlSum').Value);
res.OfflineMode := StrToBool(json_data.GetValue('OfflineMode').Value);
res.CashBoxOfflineMode := StrToBool(json_data.GetValue('CashboxOfflineMode').Value);
res.SumInCashbox := StrToFloat(json_data.GetValue('SumInCashbox').Value);
sell_js_arr :=(TJSONObject(json_data.GetValue('Sell')).GetValue('PaymentsByTypesApiModel') as TJSONArray);
res.Sell := TList.Create;
for i := 0 to sell_js_arr.Count-1 do
begin
sell := TSellBuy.Create;
sell.Sum := StrToFloat(TJSONObject(sell_js_arr.Items[i]).GetValue('Sum').Value);
type_pay := StrToInt(TJSONObject(sell_js_arr.Items[i]).GetValue('Type').Value);
case type_pay of
0 : sell.PaymentTypeName := 'Наличные';
1 : sell.PaymentTypeName := 'Банковская карта';
2 : sell.PaymentTypeName := 'Оплата в кредит';
3 : sell.PaymentTypeName := 'Оплата тарой';
end;
res.Sell.Add(sell);
end;
res.EndNonNullable.Sell := StrToFloat(TJSONObject(json_data.GetValue('EndNonNullable')).GetValue('Sell').Value);
res.EndNonNullable.Buy := StrToFloat(TJSONObject(json_data.GetValue('EndNonNullable')).GetValue('Buy').Value);
res.EndNonNullable.ReturnSell := StrToFloat(TJSONObject(json_data.GetValue('EndNonNullable')).GetValue('ReturnSell').Value);
res.EndNonNullable.ReturnBuy := StrToFloat(TJSONObject(json_data.GetValue('EndNonNullable')).GetValue('ReturnBuy').Value);
res.StartNonNullable.Sell := StrToFloat(TJSONObject(json_data.GetValue('StartNonNullable')).GetValue('Sell').Value);
res.StartNonNullable.Buy := StrToFloat(TJSONObject(json_data.GetValue('StartNonNullable')).GetValue('Buy').Value);
res.StartNonNullable.ReturnSell := StrToFloat(TJSONObject(json_data.GetValue('StartNonNullable')).GetValue('ReturnSell').Value);
res.StartNonNullable.ReturnBuy := StrToFloat(TJSONObject(json_data.GetValue('StartNonNullable')).GetValue('ReturnBuy').Value);
// res.ReturnSell.Add();
end
else
begin
ShowMessage(response);
end;
finally
Result := res;
CloseDialog;
end;
end;
```
> Пример использования OOFD
>
>
```
if(not Assigned(OOFD))then
OOFD := TOOFD.Create;
sum := StrToFloat(edt_sum.Text);
moneyOperation := OOFD.MoneyOperation(MainForm.WEBCASSA_HASH_KEY,UniqueNumberSelect,0,sum,'');
LoadReport(326);
frxReport1.Variables['SNCASSA']:=QuotedStr(moneyOperation.CashBox.Unique_Number);
frxReport1.Variables['REGNUMCASSA']:=QuotedStr(moneyOperation.CashBox.Registration_Number);
frxReport1.Variables['SUMOPER']:=QuotedStr(FloatToStr(sum));
frxReport1.Variables['SUMMA']:=QuotedStr(FloatToStr(moneyOperation.Sum));
frxReport1.Variables['ZAVNUMCASSA']:=QuotedStr(moneyOperation.CashBox.Identity_Number);
ShowReport;
``` | https://habr.com/ru/post/685648/ | null | ru | null |
# Сам себе РКН или родительский контроль с MikroTik (ч.2)
[](https://habr.com/ru/company/ruvds/blog/583868/)
Вторая и заключительная статья в цикле организации родительского контроля на оборудовании MikroTik. [Ранее](https://habr.com/ru/company/ruvds/blog/583866/) подробно рассмотрены организация DNS, работа Firewall Filter и Ip Kid-control. В текущей части поговорим о прикладном применении маркировки трафика посредством Firewall Mangle, а также сделаем общие за представленный цикл статей выводы, касающихся возможностей RouterOS по организации родительского контроля.
▍ 1. Firewall Mangle
--------------------
Рассмотрим имеющиеся возможности по маркировке трафика в контексте родительского контроля. [Firewall Mangle](https://wiki.mikrotik.com/wiki/Manual:IP/Firewall/Mangle) подробно изучается на курсе MikroTik Certified Traffic Control Engineer (MTCTCE), тема требует внимательности и сосредоточенности. Разметим проходящий через маршрутизатор трафик:
```
/ip firewall mangle
add action=mark-connection chain=prerouting comment="WAN=>LAN connections" connection-nat-state="" in-interface=WAN new-connection-mark="WAN=>LAN connections" passthrough=yes
add action=mark-packet chain=prerouting comment="WAN=>LAN packets" connection-mark="WAN=>LAN connections" new-packet-mark="WAN=>LAN packets" passthrough=yes
add action=mark-connection chain=forward comment="LAN=>WAN connections" connection-mark=no-mark in-interface=bridge_home new-connection-mark="LAN=>WAN connections" out-interface=WAN passthrough=yes
add action=mark-packet chain=forward comment="LAN=>WAN packets" connection-mark="LAN=>WAN connections" new-packet-mark="LAN=>WAN packets" passthrough=yes
add action=mark-packet chain=forward comment="LAN=>WAN packets Children" new-packet-mark="LAN=>WAN packets Children" packet-mark="LAN=>WAN packets" passthrough=yes src-address-list=children
add action=mark-packet chain=postrouting comment="WAN=>LAN connections Children" dst-address-list=children new-packet-mark="WAN=>LAN packets Children" packet-mark="WAN=>LAN packets" passthrough=yes
```
В текстовом варианте они плохо представляются, поэтому объясним их по скриншоту. Как видно, трафик пользователей размечается на входящий (WAN => LAN) и исходящий (LAN => WAN).

На самом деле, так делать не нужно, ведь достаточно маркировать только исходящий трафик, потому что входящий – это всегда ответ на исходящий, в контексте домашнего устройства. TCP соединение устанавливается по инициативе пользователя, так же как и UDP пакеты к нам идут в ответ на наши запросы.
Итого нам нужно пометить весь исходящий трафик. Сразу будем выделять только детские соединения. Весь трафик разделим на четыре категории: DNS, HTTPS, [QUIC](https://ru.wikipedia.org/wiki/QUIC) и остальные соединения. DNS будем отлавливать в цепочки prerouting, сначала помечая соединения, затем пакеты в этих соединениях:
```
add action=mark-connection chain=prerouting comment="LAN=>WAN connections DNS Children" connection-mark=no-mark dst-port=53 in-interface=bridge_home new-connection-mark="LAN=>WAN connections DNS Children" passthrough=yes protocol=udp src-address-list=children
add action=mark-packet chain=prerouting comment="LAN=>WAN packets DNS Children" connection-mark="LAN=>WAN connections DNS Children" new-packet-mark="LAN=>WAN packets DNS Children" passthrough=yes
```
Чтобы понять, почему это нужно делать именно в prerouting, следует обратиться к схеме прохождения трафика внутри маршрутизатора MikroTik. Например, можно воспользоваться рисунком от этой [компании](https://xn-----xlcfvffioc4g.xn--p1ai).

Если первичным DNS сервером (*/ip dhcp-server network add address=10.0.0.0/24 dns-server=10.0.0.1 gateway=10.0.0.1 netmask=24*) будет выступать ваш роутер, то запросы от клиентов пойдут именно к нему, т. е. в Input Interface. Далее уже будем работать с цепочкой Forward. Помечаем все детские соединения. Среди них выделяем соединения HTTPS и QUIC:
```
add action=mark-connection chain=forward comment="LAN=>WAN connections Children" connection-mark=no-mark in-interface=bridge_home new-connection-mark="LAN=>WAN connections Children" out-interface=WAN passthrough=yes src-address-list=children
add action=mark-connection chain=forward comment="LAN=>WAN connections HTTPS Children" connection-mark="LAN=>WAN connections Children" dst-port=443 new-connection-mark="LAN=>WAN connections HTTPS Children" passthrough=yes protocol=tcp
add action=mark-connection chain=forward comment="LAN=>WAN connections QUIC Children" connection-mark="LAN=>WAN connections Children" dst-port=443 new-connection-mark="LAN=>WAN connections QUIC Children" passthrough=yes protocol=udp
```
Одинаково помечаем пакеты в HTTPS и QUIC соединениях, так как к ним будет применена одинаковая логика обработки:
```
add action=mark-packet chain=forward comment="LAN=>WAN packets Children HTTPS+QUIC" connection-mark="LAN=>WAN connections HTTPS Children" new-packet-mark="LAN=>WAN packets Children HTTPS+QUIC" passthrough=yes
add action=mark-packet chain=forward comment="LAN=>WAN packets Children HTTPS+QUIC" connection-mark="LAN=>WAN connections QUIC Children" new-packet-mark="LAN=>WAN packets Children HTTPS+QUIC" passthrough=yes
```
Далее необходима перемаркеровка пакетов. Для чего это нужно, будет понятно далее. На выходе имеем все детские пакеты (HTTPS, QUIC, !HTTPS и !QUIC), идущие в цепочке Forward:
```
add action=mark-packet chain=forward comment="LAN=>WAN packets Children ALL" connection-mark="LAN=>WAN connections Children" new-packet-mark="LAN=>WAN packets Children ALL" passthrough=yes
add action=mark-packet chain=forward comment="LAN=>WAN packets Children ALL" new-packet-mark="LAN=>WAN packets Children ALL" packet-mark="LAN=>WAN packets Children HTTPS+QUIC" passthrough=yes
```
Для самоконтроля, рекомендую на каждом этапе проводить зеркалирование пакетов и их ручную обработку в Wireshark (как настроить прием трафика, рассмотрено [ранее](https://habr.com/ru/company/ruvds/blog/576352)):
```
add action=sniff-tzsp chain=forward comment=Sniffer_for_Test disabled=yes packet-mark="LAN=>WAN packets Children" sniff-target=192.168.1.1 sniff-target-port=37008
```
Трафик размечен, теперь прикрутим сюда параметры блокировки. В Firewall Mangle во вкладке Advanced имеются следующие интересующие нас возможности: *Content* и *TLS Hosts*.

Параметр Content позволяет задать текст, который будет искаться во всех проходящих через маршрутизатор пакетах. В первую очередь, это подойдет для HTTP соединений по понятным причинам. Для HTTPS и QUIC это тоже работает. В качестве примера рассмотрим соединение с одним из сайтов, о которых нельзя говорить вслух:
```
openssl s_client -servername xvideos.com:443 -tlsextdebug -connect xvideos.com:443
CONNECTED(00000003)
TLS server extension "server name" (id=0), len=0
TLS server extension "renegotiation info" (id=65281), len=1
0000 - 00 .
TLS server extension "EC point formats" (id=11), len=4
0000 - 03 00 01 02 ....
TLS server extension "session ticket" (id=35), len=0
depth=2 C = US, ST = New Jersey, L = Jersey City, O = The USERTRUST Network, CN = USERTrust RSA Certification Authority
verify return:1
depth=1 C = GB, ST = Greater Manchester, L = Salford, O = Sectigo Limited, CN = Sectigo RSA Domain Validation Secure Server CA
verify return:1
depth=0 CN = *.xvideos.com
verify return:1
Certificate chain
0 s:CN = *.xvideos.com
i:C = GB, ST = Greater Manchester, L = Salford, O = Sectigo Limited, CN = Sectigo RSA Domain Validation Secure Server CA
1 s:C = GB, ST = Greater Manchester, L = Salford, O = Sectigo Limited, CN = Sectigo RSA Domain Validation Secure Server CA
i:C = US, ST = New Jersey, L = Jersey City, O = The USERTRUST Network, CN = USERTrust RSA Certification Authority
2 s:C = US, ST = New Jersey, L = Jersey City, O = The USERTRUST Network, CN = USERTrust RSA Certification Authority
i:C = GB, ST = Greater Manchester, L = Salford, O = Comodo CA Limited, CN = AAA Certificate Services
Server certificate
-----BEGIN CERTIFICATE-----
MIIFtzCCBJ+gAwIBAgIQCP+nsUrbzwj8B5SCxl4RzjANBgkqhkiG9w0BAQsFADCB
…….
kvUG3hiNVNNEK4n1a8M3a32muX6G9vm17N6j
-----END CERTIFICATE-----
subject=CN = *.xvideos.com
issuer=C = GB, ST = Greater Manchester, L = Salford, O = Sectigo Limited, CN = Sectigo RSA Domain Validation Secure Server CA
```
Видно, что его доменное имя несколько раз проходит в устанавливаемом соединении. Используем его в качестве фильтра, для всех типов размеченных пакетов: DNS и остального трафика Именно поэтому нужна была перемаркеровка пакетов, выполненная ранее в цепочке Forward:
```
add action=mark-packet chain=prerouting comment="Children Filter Content \"xvideo\"" content=xvideo new-packet-mark="Children Filter" packet-mark="LAN=>WAN packets DNS Children" passthrough=no
add action=mark-packet chain=prerouting comment="Children Filter Content \"porn\"" content=porn new-packet-mark="Children Filter" packet-mark="LAN=>WAN packets DNS Children" passthrough=no
add action=mark-packet chain=prerouting comment="Children Filter Content \"drug\"" content=drug new-packet-mark="Children Filter" packet-mark="LAN=>WAN packets DNS Children" passthrough=no
add action=mark-packet chain=forward comment="Children Filter content \"porn\"" content=porn new-packet-mark="Children Filter" packet-mark="LAN=>WAN packets Children ALL" passthrough=no
add action=mark-packet chain=forward comment="Children Filter Content \"drug\"" content=drug new-packet-mark="Children Filter" packet-mark="LAN=>WAN packets Children ALL" passthrough=no
```
Конечно, такой анализ сильно грузит процессор роутера. Как видно, при срабатывании хотя бы одно из правил ставится запрет на дальнейшую перемаркировку трафика, что разгрузит маршрутизатор (*passthrough=no*).
Параметр TLS Hosts позволяет задать SNI или Server Name Indication – расширение популярного широко используемого криптографического протокола TLS. Смысл SNI в том, что если в настройках web сервера включена поддержка технологии, то на одном IP адресе может размещаться неограниченное количество сайтов, работающих по HTTPS. Изначально HTTPS можно было использовать только при наличии выделенного IP адреса. Если возникала необходимость разместить на сервере второй сайт, работа с которым была бы возможна по защищенному соединению, нужно было использовать другой белый IP. В современном мире, конечно, на одном сервере хостится огромное количество сайтов.
Рассмотрим как проверить SNI на сервере:
```
openssl s_client -servername xvideos.com:443 -tlsextdebug -connect xvideos.com:443 | grep 'TLS'
TLS server extension "server name" (id=0), len=0
TLS server extension "renegotiation info" (id=65281), len=1
TLS server extension "EC point formats" (id=11), len=4
TLS server extension "session ticket" (id=35), len=0…
```
Наличие в выводе строки *TLS server extension «server name» (id=0), len=0* будет означать, что SNI используется, и на сервере с одним IP адресом можно разместить любое количество сайтов. Таким образом, можно помечать пакеты на основании параметра TLS Hosts:
```
add action=mark-packet chain=forward comment="Children Filter SNI \"habr.com\"" new-packet-mark="Children Filter" packet-mark="LAN=>WAN packets Children HTTPS+QUIC" passthrough=no protocol=tcp tls-host=habr.com
add action=mark-packet chain=forward comment="Children Filter SNI \"xvideo\"" content=xvideo new-packet-mark="Children Filter" packet-mark="LAN=>WAN packets Children HTTPS+QUIC" passthrough=no
```
Запретим дальнейшую перемаркеровку пакетов (*passthrough=no*) и поставим эти правила перед правилами с параметром Content. [Говорят](https://xakep.ru/2020/08/10/great-firewall), таким же образом работает великий китайский firewall, но при этом он умеет лезть еще глубже. Жалко пока нет технических подробностей.
Во вкладке Mangle Extra для решения поставленной задачи нам ничего не подойдет, увы…

Теперь соберем все правила Mangle воедино по следующей схеме:
```
LAN=>WAN connections DNS Children
LAN=>WAN packets DNS Children
Children Filter
LAN=>WAN connections Children
LAN=>WAN connections HTTPS Children
LAN=>WAN connections QUIC Children
LAN=>WAN packets Children HTTPS+QUIC
Children Filter
LAN=>WAN packets Children ALL
Children Filter
```

Пакеты, помеченные как Children Filter, будем дропать в Firewall Filter. Иллюстрация ниже, взятая опять же у [этих ребят](https://xn-----xlcfvffioc4g.xn--p1ai), объясняет почему это нужно делать именно там, а не в результате, например, роутинга:

Блокирующее правило придется поставить самым первым в цепочке Forward, иначе пакеты, подлежащие фильтрации, перескочат через Firewall:
```
/ip firewall filter
add action=accept chain=input comment="Accept established,related" connection-state=established,related
add action=drop chain=input comment="Drop invalid" connection-state=invalid
add action=drop chain=forward comment="Drop Children Filter" packet-mark="Children Filter"
add action=accept chain=forward comment="Accept established,related" connection-state=established,related
add action=drop chain=forward comment="Drop invalid" connection-state=invalid
add action=drop chain=forward comment=Drop_sites_by_address_list dst-address-list=Block_site_by_dns_name
```
В результате ограничиваемые соединения будут просто прибиваться, браузер ребенка не сможет загрузить ничего из запрещенного контента.
Упомяну еще про [/ip firewall layer7-protocol](https://wiki.mikrotik.com/wiki/Manual:IP/Firewall/L7). Данный фильтр позволяет искать совпадения в первых 2 KB трафика (или 10 первых пакетах) по регулярным выражениям в ICMP, TCP и UDP потоках. Не рекомендую его использовать, слишком вероятностно все там работает и очень сильно загружает процессор роутера.
▍ 2. Заключение
---------------
RouterOS обладает различными возможностями по организации родительского контроля. В статьях представлены различные подходы: работа с DNS протоколом, Firewall Filter, Firewall Mangle и Kid-Control. Последний является средством автоматизации от MikroTik и не несет самостоятельных инженерных решений. Что же лучше использовать: работу с DNS, Firewall Filter или Firewall Mangle?
Работа DNS протокола неизбежна связана с кешированием, как на промежуточных серверах, так и на вашем роутере и даже в операционной системе. Нельзя сказать, чтобы это прямо-таки был минус, но нужно учитывать. Чтобы вы, как родитель, не подставили в DNS ответ, но до него дело может даже не дойти. Устройство ребенка извлечет IP адрес запрашиваемого ресурса из своего собственного хранилища. А вот то, что рано или поздно [шифрованный](https://ru.wikipedia.org/wiki/DNSSEC) [DNS](https://ru.wikipedia.org/wiki/DNS_%D0%BF%D0%BE%D0%B2%D0%B5%D1%80%D1%85_HTTPS) прочно войдет в нашу жизнь, нужно понимать уже сейчас. Поэтому в будущем актуальность эксплуатации собственных DNS серверов или коммерческих аналогов, по моему мнению, сохранится. Для данного подхода придется задействовать дополнительные технические ресурсы и, самое главное, поддерживать всю эту инфраструктуру в исправном и актуальном состоянии, что, скорее всего ляжет на ваши сисадминские плечи.
Дропать пакеты по IP адресу в Firewall Filter – достаточно топорное решение. Автоматический резолвинг доменных имен работает хорошо. Однако поле TLS Hosts в Firewall Mangle имеет перед ним сильное преимущество, так как позволяет фильтровать и субдомены. Ведь забивать их все в address-list совсем не хочется. А если на одном IP адресе окажется несколько сайтов, что было достаточно частой проблемой в период известных блокировок Роскомнадзора, то ничего хорошего из подобного подхода не выйдет. Грамотно разметить трафик в Firewall Mangle – это хороший навык, который позволяет решать много инженерных задач, в том числе таких как, приоритезация трафика и балансировка. Поэтому он мне нравится больше других.
Параметр Content может показаться исключительно хорошим решением, однако прогон толстого трафика через не достаточно сильный MikroTik по множеству фильтров может перегрузить центральный процессор роутера. Поэтому это остается последней мерой качественной фильтрации трафика.
В статье не рассмотрены подходы к блокировкам различных VPN, которые позволят перепрыгнуть через все описанные фильтры, потому как, считаю, это не относится к родительскому контролю.
Получается, что все описанные технические возможности хороши с определенными оговорками. Выбираем, что нравится больше и используем, а лучше все сразу. И потолще и побольше. Если вы действительно хотите организовать родительский контроль за трафиком ребенка. Но это уже не тема нашей статьи.
[**Часть 1**](https://habr.com/ru/company/ruvds/blog/583866/)
[**Часть 2**](https://habr.com/ru/company/ruvds/blog/583868/) (вы тут)
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=article&utm_campaign=olegtsss%0A&utm_content=mikrotik_safes_children_(chast_2)) | https://habr.com/ru/post/583868/ | null | ru | null |
# Проектирование дашбордов для веб-аналитики e-commerce сайта. Часть 3: SEO-канал
В этой статье соберем дашборд для аналитики SEO-трафика. Данные будем выгружать через скрипты на python и через .csv файлы.
Что будем выгружать?
--------------------
Для аналитики динамики позиций поисковых фраз потребуется выгрузки из [Яндекс.Вебмастера](https://webmaster.yandex.ru/welcome/) и [Google Search Console](https://search.google.com/search-console/about). Для оценки «полезности» прокачивания позиции поисковой фразы будут полезны данные о частотности. Их можно получить из [Яндекс.Директа](https://direct.yandex.ru) и [Google Ads](https://ads.google.com). Ну а для анализа поведения технической стороны сайта воспользуемся [Page Speed Insider](https://developers.google.com/speed/pagespeed/insights/?hl=RU).

*Динамика SEO-трафика*
### Google Search Console
Для взаимодействия с API воспользуемся библиотекой [searchconsole](https://github.com/joshcarty/google-searchconsole). На гитхабе подробно описано, как получить необходимые токены для логина. Процедура для выгрузки данных и загрузки их в базу данных MS SQL будет следующей:
```
def google_reports():
# авторизация в нужный ресурс
account = searchconsole.authenticate(client_config=r'credentials.json'
, credentials=r'cred_result.json')
webproperty = account['https://test.com/']
# выгрузка данных за последнюю неделю в разрезе страны, устройства, посадочной страницы и поисковой фразы
report = webproperty.query.range('today', days=-10).dimension('country', 'device', 'page', 'query').get()
now = datetime.now()
fr = now - timedelta(days = 9)
to = now - timedelta(days = 3)
res = pd.DataFrame(columns=['dt_from', 'dt_to', 'country', 'device', 'page', 'query', 'clicks', 'impressions', 'position'])
# собираем данные в DataFrame и записываем их на сервер
for i in report.rows:
temp={}
temp['country'] = i[0]
temp['device'] = i[1]
temp['page'] = i[2]
temp['query'] = i[3]
temp['clicks'] = i[4]
temp['impressions'] = i[5]
temp['position'] = i[7]
temp['dt_from'] = fr.strftime("%Y-%m-%d")
temp['dt_to'] = to.strftime("%Y-%m-%d")
res = res.append(temp, ignore_index=True)
to_sql_server(res, 'google_positions')
```
### Яндекс.Вебмастер
К сожалению, Вебмастер умеет выгружать только 500 поисковых фраз. Выгрузить разрезы по стране, типу устройства и т.п. он тоже не может. Из-за этих ограничений помимо выгрузки позиций по 500 словам из Вебмастера мы выгрузим данные из Яндекс.Метрики по посадочным страницам. Для тех, у кого поисковых фраз не так много, 500 слов будет достаточно. Если же у вас семантическое ядро по Яндексу достаточно широкое, то придется выгружать позиции из иных источников или писать свой парсер позиций.
```
def yandex_reports():
token = "..."
# получаем UserID
url = "https://api.webmaster.yandex.net/v4/user/"
headers = {"Authorization": "OAuth " + token}
res = requests.get(url, headers=headers)
a = json.loads(res.text)
userId = a['user_id']
host_id = "https:test.com:443"
# выгружаем 500 запросов по числу показов в разрезе показов
res = requests.get(url+str(userId)+"/hosts/"+host_id+"/search-queries/popular/?order_by=TOTAL_SHOWS&query_indicator=TOTAL_SHOWS", headers=headers)
df1 = pd.DataFrame(columns=['query_id', 'query_text', 'shows', 'dt_from', 'dt_to'])
a = json.loads(res.text)
for i in a['queries']:
temp={}
temp['query_id'] = i['query_id']
temp['query_text'] = i['query_text']
temp['shows'] = i['indicators']['TOTAL_SHOWS']
temp['query_text'] = i['query_text']
temp['dt_from'] = a['date_from']
temp['dt_to'] = a['date_to']
df1 = df1.append(temp, ignore_index=True)
# выгружаем 500 запросов по числу показов в разрезе кликов
res = requests.get(url+str(userId)+"/hosts/"+host_id+"/search-queries/popular/?order_by=TOTAL_SHOWS&query_indicator=TOTAL_CLICKS", headers=headers)
df2 = pd.DataFrame(columns=['query_id', 'clicks'])
a = json.loads(res.text)
for i in a['queries']:
temp={}
temp['query_id'] = i['query_id']
temp['clicks'] = i['indicators']['TOTAL_CLICKS']
df2 = df2.append(temp, ignore_index=True)
# выгружаем 500 запросов по числу показов в разрезе позиций
res = requests.get(url+str(userId)+"/hosts/"+host_id+"/search-queries/popular/?order_by=TOTAL_SHOWS&query_indicator=AVG_SHOW_POSITION", headers=headers)
df3 = pd.DataFrame(columns=['query_id', 'position'])
a = json.loads(res.text)
for i in a['queries']:
temp={}
temp['query_id'] = i['query_id']
temp['position'] = i['indicators']['AVG_SHOW_POSITION']
df3 = df3.append(temp, ignore_index=True)
df1 = df1.merge(df2, on='query_id')
df1 = df1.merge(df3, on='query_id')
to_sql_server(df1, 'yandex_positions')
```
### Page Speed Insider
Позволяет оценить скорость загрузки контента сайта. Если сайт стал загружаться медленнее, то это может существенно снизить позиции сайта в поисковой выдаче.
```
# выгружаем топ-50 страниц для подсчета скорости загрузки
conn = pymssql.connect(host=host,user=user,password=password)
sql_string = r'''
;with a as(
select distinct page, sum(clicks) as clicks
from seo_google_positions
group by page
)
select top 50 page from a
order by clicks desc
'''
data = pd.read_sql(sql_string, conn)
conn.close()
# выгружаем данные о средней скорости загрузки страницы
dat = pd.DataFrame(columns=['first_cpu_idle', 'first_contentful_paint', 'page', 'dt'])
for i, j in data.iterrows():
url = "https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url={0}&category=performance&strategy=desktop".format(j[0])
res = requests.get(url)
res = json.loads(res.text)
temp = {}
temp['first_cpu_idle'] = res['lighthouseResult']['audits']['first-cpu-idle']['displayValue']
temp['first_contentful_paint'] = res['lighthouseResult']['audits']['first-contentful-paint']['displayValue']
temp['page'] = j[0]
temp['dt'] = now.strftime("%Y-%m-%d")
dat = dat.append(temp, ignore_index = True)
to_sql_server(dat, 'google_pagespeed')
```
### Google Ads и Яндекс Директ
Для оценивания частотности поисковых запросов выгрузим частотность нашего СЕО-ядра.

*Прогноз бюджета Яндекс*

*Планировщик ключевых слов Google*
### Яндекс Метрика
Выгрузим данные по просмотрам и визитам на страницы входа с SEO-трафика.
```
token = token
headers = {"Authorization": "OAuth " + token}
now = datetime.now()
fr = (now - timedelta(days = 9)).strftime("%Y-%m-%d")
to = (now - timedelta(days = 3)).strftime("%Y-%m-%d")
res = requests.get("https://api-metrika.yandex.net/stat/v1/data/?ids=ids&metrics=ym:s:pageviews,ym:s:visits&dimensions=ym:s:startURL,ym:s:lastsignSearchEngine,ym:s:regionCountry,ym:s:deviceCategory&date1={0}&date2={1}&group=all&filters=ym:s:lastsignTrafficSource=='organic'&limit=50000".format(fr,to),
headers=headers)
a = json.loads(res.text)
re = pd.DataFrame(columns=['page', 'device', 'view', 'dt_from', 'dt_to', 'engine', 'visits', 'country', 'pageviews'])
for i in a['data']:
temp={}
temp['page'] = i['dimensions'][0]['name']
temp['engine'] = i['dimensions'][1]['name']
temp['country'] = i['dimensions'][2]['name']
temp['device'] = i['dimensions'][3]['name']
temp['view'] = i['metrics'][0]
temp['visits'] = i['metrics'][1]
temp['pageviews'] = i['metrics'][0]
temp['dt_from'] = fr
temp['dt_to'] = to
re=re.append(temp, ignore_index=True)
to_sql_server(re, 'yandex_pages')
```
Сбор данных в Power BI
----------------------
Посмотрим, что у нас получилось выгрузить:
* google\_positions и yandex\_positions
* google\_frequency и yandex\_frequency
* google\_speed и yandex\_speed
* yandex\_metrika
Из этих данных мы сможем собрать динамику по неделям, по сегмантам, общие данные по сегментам и запросам, динамику и общие данные по страницам и скорости загрузки контента. Вот так может выглядеть финальный отчет:

С одной стороны, очень много разных табличек и сложно понять, каковы общие тенденции. С другой стороны, в каждой табличке отображены важные данные по позициям, показам, кликам, CTR, скорости загрузки страницы.
Статьи из цикла:
* [Проектирование дашбордов для веб-аналитики e-commerce сайта. Часть 1: Удобный интерфейс](https://habr.com/post/422235/)
* [Проектирование дашбордов для веб-аналитики e-commerce сайта. Часть 2: Email-рассылки. Стратегический дашборд](https://habr.com/post/422369/)
* [Проектирование дашбордов для веб-аналитики e-commerce сайта. Часть 2: Email-рассылки. Операционный дашборд](https://habr.com/ru/post/422825/) | https://habr.com/ru/post/467019/ | null | ru | null |
# Реализация Unidirectional Data Flow в супераппе. Часть II
В [предыдущей статье](https://habr.com/ru/company/indriver/blog/571394/) я сформулировал нашу главную проблему при масштабировании Unidirectional Data Flow (UDF) — модуляризацию. Сегодня существует много UDF-фреймворков на Swift, но мало кто уточняет, как их масштабировать на большое, многомодульное приложение. Во второй части я решил поделиться, с какими сложностями мы столкнулись и к каким решениям пришли.
В статье рассмотрим 3 проблемы и сравним, как разные фреймворки их решают. Для сравнения я выбрал одни из самых популярных — [ReSwift](https://github.com/ReSwift/ReSwift) и [The Composable Architecture](https://github.com/pointfreeco/swift-composable-architecture) (TCA). В конце расскажу, какое решение мы в итоге реализовали. Приступим!
3 проблемы, с которыми мы столкнулись
-------------------------------------
**1. Все компоненты знают о состоянии всего приложения.**
Предположим, есть приложение и компонент в нем. Например, компонент для отображения данных пользователя или информации о заказе. У этого компонента есть состояние, которое лежит в AppState. Компонент знает об AppState, подписывается на него и при изменении рендерит данные на экран:
Таких компонентов в проекте может быть множество и каждый из них знает об AppState. Это плохо, потому что такой подход нарушает [Закон Деметры](https://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%BA%D0%BE%D0%BD_%D0%94%D0%B5%D0%BC%D0%B5%D1%82%D1%80%D1%8B). Большинству компонентов нужен только собственный State, но им приходится пробираться сквозь AppState к своим данным. Часто в проекте замечаем такой код:
```
let state = appState.someInnerState.anotherInnerState.andAnotherOneState.finallyMyState
```
Писать и поддерживать такой код крайне сложно, хоть такой подход и работает. Ситуация меняется, когда мы захотим переиспользовать наш компонент в другом приложении. Для этого нужно вынести его в отдельный модуль:
Получаем сразу 2 проблемы:
1. App1 нужно знать про Component, чтобы его использовать. Component нужно знать про App1, чтобы получить доступ к AppState. Мы получаем циклическую зависимость между модулями, что не понравится компоновщику Swift.
2. Component теперь нужно знать про App2, а в перспективе и о App3, App4 и так далее.
Решить проблемы можно, забрав State компонента внутрь его модуля:
Теперь модуль компонента ни о ком не знает и не имеет никаких зависимостей. Сам компонент знает только о своем стейте. Модули приложений знают о модуле компонента, и AppState каждого из приложений использует State компонента из его модуля. Остается научить компонент слушать только ту часть стейта, в котором он заинтересован. Посмотрим, как эта проблема решается в популярных фреймворках.
**ReSwift**. ReSwift идет по пути своего предшественника и реализует механизм, схожий с [cелекторами из Redux](https://redux.js.org/usage/deriving-data-selectors). Подписка нашего компонента выглядела бы так:
```
store.subscribe(self) { $0.select { $0.componentState } }
```
Селекторы в Redux — мощный механизм, который оптимизирует частоту обновления состояния для компонента с помощью библиотеки [reselect](https://github.com/reduxjs/reselect). В ReSwift такой же механизм, поэтому если после диспетчеризации Action стейт компонента не изменился, компонент не получит тот же стейт еще раз.
**TCA.** У TCA в Store есть метод scope. Он позволяет получить промежуточный Store с уменьшенной областью видимости:
```
let componentStore = store.scope(state: \.componentState) // componentStore имеет тип Store
```
Теперь можно просто подписать наш компонент на componentStore. Более подробно мы разберем работу scope в решении третьей проблемы. TCA, как и ReSwift, позволяет игнорировать одинаковые стейты, но с помощью Combine и [removeduplicates()](https://developer.apple.com/documentation/combine/fail/removeduplicates()).
**inDriver UDF.** Мы пошли по простому пути и добавили KeyPath параметр в метод connect:
```
component.connect(to: store, state: \.componentState)
```
Пока мы не делаем проверку дубликатов стейта (она появится в решении третьей проблемы). Зато добавляем в метод connect проверку на дубликаты View-моделей, поэтому компонент все равно не будет рендерить 2 одинаковых View-модели подряд. Правда, придется создать View-модель еще раз.
**2.** **2 модуля хотят использовать одну фичу.**
Предположим, есть данные профиля пользователя, которые мы хотим использовать в 2 модулях. Оба модуля используются в нашем приложении. Логично, что стейт каждого из модулей должен содержать стейт профиля, а AppState содержит данные и модулей, и профиля:
В таком случае мы получаем копии ProfileState в 3 местах: AppState, Feature1State и Feature2State. Пользователь в приложении один, поэтому и ProfileState нам нужен в единственном экземпляре. При этом Feature1 и Feature2 определенно должны иметь в своих стейтах ProfileState, так как доступа к AppState они не имеют. Рассмотрим 2 решения, которые мы условно назвали **Computed Module State** и **State Protocol and Where Clause**:
**Computed Module State.** Разделим FeatureState на 2 части. Непосредственно FeatureState — данные, которые принадлежат только одной фиче. И FeatureModuleState — FeatureState + переиспользуемые стейты:
```
struct FeatureModuleState {
let feature: FeatureState
let profile: ProfileState
}
```
Тогда в AppState будем хранить только FeatureState и ProfileState:
```
struct AppState {
let feature1: Feature1State
let feature2: Feature2State
let profile: ProfileState
}
```
ModuleState реализуем как вычисляемые свойства:
```
extension AppState {
var feature1Module: Feature1ModuleState {
.init(feature: feature1, profile: profile)
}
var feature2Module: Feature2ModuleState {
.init(feature: feature2, profile: profile)
}
}
```
В результате получаем такую картину:
На уровне AppState мы гарантируем, что ProfileState в приложении всегда будет в единственном экземпляре. ModuleState же собираем свой под каждый модуль. Такой подход легко масштабируется под любое количество переиспользуемых фич, но требует реализацию вычислимого свойства под каждую новую фичу.
Пример такого подхода есть в учебных материалах TCA (например, [здесь](https://github.com/pointfreeco/episode-code-samples/blob/main/0073-modular-state-management-view-state/PrimeTime/PrimeTime/ContentView.swift)). В примере PrimeModelState является вычислимым и не хранится в AppState.
**State Protocol and Where Clause.** Вместо вычислимых свойств используем протоколы. Объявим протокол Feature1ModuleState и реализуем его в AppState:
```
protocol Feature1ModuleState {
let feature: Feature1State
let protifle: ProfileState
}
extension AppState: Feature1ModuleState {}
```
Аналогично сделаем для Feature2. Теперь фичи могут хранить у себя FeatureModuleState и не знать, что AppState их реализует. Но есть проблема — в Swift [ковариантность](https://forums.swift.org/t/covariance-contravariance/39635) работает только для системных дженериков, поэтому мы не сможем Store привести к Store. Зато можем задать FeatureModuleState как ограничения для компонента:
```
class FeatureViewController: UIViewController where S.State: FeatureModuleState {
let store: S
init(store: S) {
self.store = store
super.init(nibName: nil, bundle: nil)
}
}
```
Из плюсов такого подхода выделим отсутствие необходимости в вычислимых свойствах, достаточно просто реализовать протокол. Минус — каждый компонент реализуется как Generic на Store с требованием, что его State реализует FeatureModuleState. Такой подход можно найти в обсуждении модуляризации [ReSwift](https://github.com/ReSwift/ReSwift/issues/377#issuecomment-434364649).
Для себя мы выбрали **Computed Module State** как более простое и не накладывающее ограничения на реализацию компонентов решение.
**3.** **Подписка на Store внутри модуля**
В предыдущих двух пунктах рассматривался случай, когда подписка на компонент происходит в том же модуле, в котором находится Store. Но это не всегда удобно. Если есть модули, в которых много компонентов и которые могут динамически подключаться и отключаться от Store, то было бы удобно это делать непосредственно в этих модулях. Но если передавать Store в модуль целиком, то мы получим циклическую зависимость. Главному модулю нужно знать про FeatureModule, чтобы обратиться к нему. FeatureModule должен знать про AppModule, так как AppState лежит в AppModule:
Рассмотрим, как эту проблему решают в других фреймворках:
**ReSwift.** В отличии от первой проблемы, select здесь не поможет. В FeatureModule нужно получить Store с каким-то типом State, и только потом использовать select. Создатели ReSwift не дают никаких официальных рекомендаций, что делать в такой ситуации. Для решения проблемы подойдет **State Protocol and Where Clause** из второго пункта. Если мы закроем AppState протоколом, то передадим Store в FeatureModule, не раскрывая сам тип AppState.
**TCA.** В TCA для решения этой проблемы мы можем использовать метод scope, который упоминался в первом пункте. Метод scope позволяет получить Store, который смотрит только на часть всего State. В нашем случае из Store мы получаем Store и передаем в FeatureModule. Реализацию метода scope и всего Store можно найти [здесь](https://github.com/pointfreeco/swift-composable-architecture/blob/main/Sources/ComposableArchitecture/Store.swift), прочитать про особенности реализации — [здесь](https://www.pointfree.co/episodes/ep151-composable-architecture-performance-view-stores-and-scoping).
**inDriver UDF.** В своем фреймворке мы пошли по пути TCA и разлиновали метод scope. Так как мы не используем Combine и запускаем reducer на отдельной очереди, детали реализации отличаются от TCA, но идея сохранена. Рассмотрим схему работы:
1. Component отправляет Action в LocalStore.
2. LocalStore никак не обрабатывает Action, а транслирует дальше в родительский Store.
3. Reducer родительского Store обрабатывает Action и обновляет AppState.
4. LocalStore по подписке получает обновленный AppState и сохраняет из него LocalState.
5. Все подписчики LocalStore получают обновленный LocalStore.
Также на 4 шаге есть возможность сравнить новый и старый LocalState. Если он не изменился, мы можем не уведомлять подписчиков LocalStore об изменениях. Это избавляет целые модули от реагирования на каждый Action из других модулей, если они не влияют на их собственный стейт.
Заключение
----------
Конечно, сложностей в реализации модульности гораздо больше. Мы рассмотрели лишь основные. В следующих частях обязательно вернемся и к остальным. В результате применения Unidirectional Data Flow у нас получился собственный фреймворк [UDF](https://github.com/inDriver/UDF), который мы решили **сделать публичным**. В нем собраны решения, которые помогли нам сделать большой и многомодульный проект. Около половина нашего приложения работает на UDF, и мы продолжаем масштабировать его на остальные части приложения.
Хочу сказать, что UDF хорошо показал себя как архитектура для приложения большого коммерческого продукта. И для реализации в своем проекте UDF совершенно не обязательно использовать сторонние фреймворки. На своем примере мы показали, что UDF-подход можно реализовать самостоятельно, и для этого не потребуется много кода. | https://habr.com/ru/post/576660/ | null | ru | null |
# Тестируем вёрстку правильно

### Что не так с тестированием вёрстки
Мы часто им пренебрегаем. Написание функциональных, интеграционных и юнит-тестов давно стало повсеместной практикой. Вёрстке мы обычно уделяем гораздо меньше времени.
Проблема тестирования вёрстки в том, что только живой человек может сказать, хорошо свёрстан блок на странице или нет. Поэтому чаще всего мы тестируем HTML и CSS вручную: проверяем, как будет вести себя блок, если в нем будет слишком много (или слишком мало) текста или дочерних элементов; смотрим, чтобы все возможные варианты отображения блока смотрелись корректно; помним о том, как блоки должны адаптироваться к разным устройствам и разрешениям экрана.
### Как тестировать вёрстку правильно
Нам не нужно придумывать ничего нового. Мы можем применить те же подходы, которые используем при написании автотестов.
Сначала нужно посмотреть на требования, дизайн. На основе этого составить список всех *значимых состояний* приложения, которые нужно проверить. Далее, дело за малым — проверить каждый тест-кейс.
В статье я расскажу, как мы создали для себя [Makeup](https://github.com/chaptykov/makeup), как изменили свой процесс разработки интерфейсов и как это упростило нам жизнь.
Makeup — графический интерфейс для быстрого и комфортного *ручного* регрессионного тестирования вёрстки, основанной на методологии BEM. Это инструмент, для которого мы готовим тестовые данные так, чтобы можно было проинициализировать любой независимый блок с разными данными и быстро посмотреть его во всех интересующих нас состояниях.
Описанный подход может помочь, если на вашем проекте соблюдаются 2 условия:
* у вас есть эталонные дизайн для всех блоков, и вы хотите, чтобы ваш проект точно соответствовал этому дизайну;
* вы придерживаетесь BEM-методологии в HTML и CSS.
А теперь обо всём по порядку.
### Как измерить качество вёрстки
Первая версия Makeup (тогда у него ещё не было имени) возникла в файле spec/index.html. На этой странице прогонялись юнит-тесты по всем модулям (читай: блокам) нашего приложения. Всё было традиционно: мы инициализировали каждый модуль с разными наборами тестовых данных и проверяли тестами то, что нас интересовало.
Но этого было недостаточно. Несмотря на то, что эти тесты были сильно связаны с вёрсткой, они не могли ответить на вопрос, хорошо ли свёрстан модуль и правильно ли он будет вести себя в разных обстоятельствах.
В сети можно найти огромное количество чек-листов на качество вёрстки. Проверку многих пунктов из них можно легко поручить анализаторам кода. Но обычно эти чек-листы проверяют качество работы по косвенным или нерелевантным признакам.
По большому счету, критериев качества вёрстки всего два:
* **соответствие макету:** вёрстка должна быть идентична дизайну.
* **работоспособность:** вёрстка должна отображаться в браузере пользователя на всех устройствах, которые нас интересуют.
При несоблюдении любого из двух пунктов проделанная работа не имеет никакого смысла.
### Как проверить соответствие макету
Сравнить вёрстку с исходным макетом и найти отличия. Но это порой не так просто. Помните, в детских журналах были головоломки «найди 10 отличий»?

Любой инженер мгновенно предложит очевидное решение, как проще находить отличия. Достаточно наложить одно изображение на другое и верхнее изображение сделать полупрозрачным.
Можно сделать ещё удобнее — инвертировать цвета для верхнего полупрозрачного изображения. Тогда при идеальном совпадении мы должны увидеть однородный серый фон.

### Зачем для этого специальный инструмент
Для реализации подобной задумки не нужен специальный инструмент. Если нужно сравнить вёрстку с исходным дизайном страницы сайта, то такой подход можно реализовать прямо в браузере.
#### 1. Добавляем картинку с макетом
```

```
#### 2. Позиционируем поверх свёрстанной страницы
```
#psd {
/* Позиционируем макет */
position: absolute;
top: 0;
left: 50%;
margin: 0 0 0 -640px;
/* Делаем его полупрозрачным */
opacity: .5;
/* Оставляем возможность взаимодействия с элементами */
pointer-events: none;
/* Инвертируем изображение в вашем любимом -webkit (-blink) браузере */
-webkit-filter: invert(100%);
}
body:hover #psd {
/* Прячем картинку при наведении */
opacity: 0;
}
```
По такому принципу работает огромное количество существующих инструментов:
* JavaScript-плагины
+ Resemble.js
* Расширения для браузера
+ PerfectPixel
+ 1px
При желании вы найдёте ещё несколько десятков или сотен таких инструментов.
### В чём же проблема
Этот подход применим только в том случае, когда при разработке мы можем построить однозначное соответствие между макетами и страницами верстки.
 | https://habr.com/ru/post/277457/ | null | ru | null |
# Идеальный график отпусков. Естественные алгоритмы. Поведение роя пчёл

Естественные (или эволюционные) алгоритмы – это направление в искусственном интеллекте, которое моделирует процессы естественного отбора, мутации и воспроизводства.
Одним из видов естественных алгоритмов является метод роя пчел. Его целью является концентрация бОльшего количества пчел в областях с наибольшей плотностью цветов.

*Пчелы изначально ничего не знают о поле, преградах и расположении цветов. Они начинают поиск со случайных позиций, со случайными скоростями и направлениями.*
Каждая пчела помнит позицию, где она нашла наибольшее количество цветов и области где другие пчелы нашли наибольшее количество цветов. При выборе дальнейшего направления пчела направится между двумя этими точками отдав предпочтение одной из них в зависимости от того, что для нее важнее: личное восприятие или социальный рефлекс. Если в процессе движения будет найдено более цветочное место, в будущем оно может быть назначено как место наибольшей концентрации цветов, отмеченное всем роем.
Пчела может пролететь мимо цели. Чтобы этого не произошло, скорость пчелы уменьшается с приближением к месту концентрации. Таким образом, вскоре весь рой собирается в цветочных местах.

Стояла задача спланировать отпуска работников со следующими условиями:
1. Имеются предпочтения по периодам отпусков. Изменение и сдвиг этих периодов нежелателен. Некоторые отпуска запрещено изменять.
2. У работников может быть разное количество дней отпуска
3. Минимальные размер отпуска 7 дней
4. Одна из частей отпуска должна быть не меньше 14 дней
5. Чем меньше выходных попадает на отпуск – тем лучше
6. В одном отделе не должно отсутствовать более 30% работников
Для решения будем использовать генетический алгоритм и алгоритм роя пчел. В роли пчел будут периоды отпусков (Класс Holyday). Каждый период принадлежит работнику (Класс Empl), каждый работник находится в отделе (Класс Dep).
```
//структура класса отпуска
class Holiday
{
public List penalties;
public Empl empl;
public DateTime start;
public DateTime end;
...
/// оценка от -1 до 100. -1 - противоречет условиям.
/// 100 - полностью соответсвует целевой функции
/// 100-50 - попадает в целевой интервал
/// 50-0 - не попадает в целевой интервал, чем дальше от интервала, тем меньше значение
public sbyte score() { ... }
}
//структура класса работника
internal class Empl:IEquatable
{
private readonly int id;
public int daysNorm;
public string fio;
public Dep dep;
public readonly List penalties;
public int cntPlannedDays { get {
int result = 0;
foreach (Holiday h in holidays)
result += (h.end - h.start).Days + 1;
return result;
} }
public List holidays;
public sbyte score() { ... }
}
//структура класса отдела
class Dep
{
/// максимальное к-во одновременно отсутствующих работников
public int maxDepAbcenceCnt { get {... } }
/// возвращает список интервалов доступных для планирования
public List> GetFreeIntervals() {... }
public string name;
public List empls;
public List penalties;
public sbyte score() { ... }
}
```
Каждый из классов содержит функцию score() – оценка критериям алгоритма, которая вычисляется исходя из списка штрафов penaltyes.
Пчелы (отпуска) могут создаваться, сдвигаться, удаляться и мутировать (изменять свой размер). После загрузки предпочтений работников в свободные периоды случайным образом назначаются не распределенные дни отпуска работников. Если работник назначил больше дней, его отпуска будут уменьшаться пока не будут приведены к нормативу.
Задача считается решенной, если все не запланированные дни отпусков распределены, соблюдены предпочтения и выполняются остальные условия задачи. В реальной жизни угодить всем получается редко, но алгоритм может попробовать найти самое оптимальное решение. Для этого на каждой итерации классы оценивают свое соответствие условиям задачи и заполняют список штрафов. В зависимости от индивидуального количества штрафов и штрафов смежных классов будет выбрана дальнейшая мутация. В конце каждого перемещения всех пчел проходит проверка на сходимость алгоритма и запоминается самое удачное решение. Качество решения вычисляется исходя из штрафов всех пчел. Если идеальное решение не будет найдено алгоритм выдаст результат с наименьшим штрафом.
```
//структура класса роя
class Swarm
{
public void toXlsx(string path){…}
public List deps;
public List empls;
public List holidays;
public sbyte \_score = -127;
//вычисление штрафов
public void findPenalties(){…}
public void nextIteration()
{
resetScore();
findPenalties();
foreach (Empl e in empls)
{
foreach (Penalty p in e.penalties)
{
switch (p.name)
{
case "PenaltyAboveNormalHolidayCnt": //запланировано много дней
…
break;
case "PenaltyNo14DaysPart"://одна из частей должна быть не менее 14 дней
…
break;
case "PenaltyBellowNormalHolidayCnt": //запланировано мало дней
…
break;
default:
Log.WriteLine("Не задан алогритм для штрафа " + p.name);
break;
}
}
}
}
//функция оценки качества
public sbyte score(bool reCalculate=false)
{
if (\_score != -127)
return \_score;
if (reCalculate)
resetScore();
float resultH = 0,resultD=0,resultE=0;
findPenalties();
foreach (Holiday h in holidays)
{
resultH += (float)h.score();
}
resultH = resultH / (float)holidays.Count;
foreach (Dep d in deps)
{
resultD += (float)d.score();
}
resultD = resultD / (float)deps.Count;
foreach (Empl e in empls)
{
resultE += (float)e.score();
}
resultE = resultE / (float)empls.Count;
\_score = (sbyte)((resultH+resultD+resultE)/3);
return \_score;
}
public bool isConverged()
{
if (\_score == -127)
return false;
findPenalties();
foreach (Dep d in deps)
{
if (d.penaltyes.Count > 0)
return false;
}
foreach(Empl e in empls)
{
if (e.penaltyes.Count > 0)
return false;
}
foreach(Holiday h in holidays)
{
if (h.penalties.Count > 0)
return false;
}
return true;
}
}
```
Функция findPenalties() отвечает за заполнение списка штрафов всех объектов роя
Класс роя так же содержит функцию оценки качества, которая вычисляется из оценок всех элементов роя.
После перемещения всех пчел происходит оценка сходимости алгоритма, если искомый результат не достигнут и лимит итераций не превышен будет запущена следующая итерация nextIteration()
В нашем случае много зависит от первоначального распределения незапланированных отпусков, поэтому было решено запустить рой в несколько параллельных потоков и выбрать лучший из них:
```
List list = new List();
for (int i = 1; i < CONST.SWAM\_SIZE; i++)
list.Add(i);
int bestScore = 0;
Parallel.ForEach(list, new ParallelOptions() { MaxDegreeOfParallelism = 10 }, x => {
Swarm iterSwarm = new Swarm(swarm);
int currIter = 0;
while (true)
{
if (iterSwarm.isConverged())
{
Console.WriteLine($"Алгоритм сошелся за {currIter} итераций score={iterSwarm.score()}");
break;
}
if (currIter >= CONST.MAX\_ITER\_CNT)
{
Console.WriteLine("Решение не найдено");
break;
}
iterSwarm.nextIteration();
currIter++;
lock(isLock)
{
if (iterSwarm.score(true) > bestScore)
{
bestScore = iterSwarm.score();
bestSwarm = new Swarm(iterSwarm);
}
}
}
});
Console.WriteLine($"Source swarm score={swarm.score()}");
Console.WriteLine("");
Console.WriteLine($"Result bestSwarm={bestSwarm.score()}");
bestSwarm.toXlsx();
```

Алгоритм не сложен в реализации и сводится, в основном, к написанию функции мутации. Использование алгоритма роя пчел уместно в задачах оптимизации, для которых нет формализованного решения, а перебор всех вариантов и комбинаций не уместен в силу их огромного количества. | https://habr.com/ru/post/513874/ | null | ru | null |
# Продвижение Java-стартапов
На сайте DZone собираются публиковать серию интервью о Java-стартапах.

Вот письмо одного из редакторов сайта:
`Java-Стартапы - Мы хотим услышать о Вас!
Сейчас все помешаны на культуре стартапов которая стала модной в индустрии разработки ПО. Стартап Draw Something покупают за $ 200 млн, Facebook покупает Instagram за $ 1 млрд, постоянно происходит что-то новое. Но мы не видим, на каких технологиях базируются эти проекты. В ближайшее время будут опубликовано несколько интервью освещающих эту сторону стартапов.`
`Если вы являетесь стартапом использующим Java или язык на основе JVM, если Java в центре вашего стека технологий - я хотел бы поговорить с вами. Может быть вы делаете социальную сеть нового поколения, фантастическое мобильное приложение - раз ваш продукт основан на Java - я заинтересован. Как только вы свяжетесь с нами, мы опубликуем интервью с вами здесь, на DZone, в серии интервью о Java-стартапах. Вам не нужно выдавать какие-то корпоративные секреты - мы просто хотим посмотреть, насколько хорошо Java подходит стартапам.
Итак, если ваша компания заинтересована, вы можете написать мне письмо на james@dzone.com или оставить сообщение для меня.
Я был бы рад поговорить с вами!`
Оригинал письма с обсуждением здесь <http://java.dzone.com/articles/are-you-java-or-mobile-based>. | https://habr.com/ru/post/142033/ | null | ru | null |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.