text
stringlengths
20
1.01M
url
stringlengths
14
1.25k
dump
stringlengths
9
15
lang
stringclasses
4 values
source
stringclasses
4 values
# Скриптовый (script) 3D редактор OpenSCAD Введение -------- В настоящие время существует большой выбор мощных, универсальных 3D-редакторов для создания и анимирования 3D-сцен, которые в подавляющим случае можно отнести к программам с графическим интерфейсом. Такой подход к созданию 3D сцен имеет одновременно как большое преимуществом так и серьезный недостаток, заключающийся в том, что с одной стороны вам доступны сотни различных объектов и манипуляций над ним, а с другой стороны для качественной работы их все нужно знать и использовать, что требует весьма длительного времени на обучение. В основу 3D-script редактора OpenSCAD положена абсолютно обратная парадигма, в данном редакторе полностью отсутствует какой либо графический интерфейс для создания 3D-объектов, нет ни одной "кнопки" или пункта "меню" при помощи которого вы могли бы создать какой либо графический примитив и произвести над ним какую либо манипуляцию. Создание всех объектов в OpenSCAD и манипуляции над ними происходят только посредством заранее подготовленного script-кода. Предлагаю Вам самим ознакомиться с представленным ниже руководством и самому решить оправдан либо такой подход к созданию и анимации 3D-сцен. Вы можете скачать [OpenSCAD](https://openscad.org/), либо воспользоваться его [ONLINE](https://openjscad.azurewebsites.net/) версией, но учтите что она немного отличаются в синтаксисе от представленных ниже примеров. Инструкция по скачиванию, установке и настройки программы не прилагается, подразумевается что если вы решили овладеть OpenScad, то значит вы достаточно технически грамотны чтобы разобраться в таких вопросах самостоятельно. Данное пособие рассчитано на читателей минимально знакомых с синтаксисом си-подобных языков. 1. Графические примитивы ------------------------ Напишем две строки кода первой сцены/программы: ``` $fn = 32; sphere(); ``` Запустим их на исполнение и получим картинку примерно следующего вида: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/107/6b8/f5c/1076b8f5c6c15e99178b530160b23e39.png)Очевидно что `строка-2` отвечает за создание сферы, а поскольку никакие параметры, при создании сферы, не были явно указаны, она была создана с параметрами по умолчанию. Значение первой строки это специальная переменная (`Special variables`), о чем свидетельствует символ доллара, определяющая на сколько секторов будет разбита любая окружность. Как видно мы установили ее значение равным 32 для большей визуальной гладкости криволинейных поверхностей. Не стоит беспокоиться о необходимости запоминания сотен специальных переменных, их всего 10 штук, следующих типов: * `$fa, $fs, $fn` гладкость криволинейных поверхностей; * `$t` время; * `$vpr, $vpt,, $vpd,, $vpf` место расположения и ориентация камеры; * `$children` номер "наследника/последователя"; * `$preview` выбор кнопки рендера Напишим новый код и запустим его: ``` $fn = 32; cylinder(); ``` Как можно заметить поведение цилиндра более сложно чем сферы, во первых он считает своей осью симметрии исключительно`ось-Z`, а во вторых располагает одну из своих торцевых поверхностей в `плоскости-XY` с центром в начале координат. Задействуем теперь все доступные параметры примитива, которых не так и много, чтобы увидить все доступные модификации по умолчанию: ``` $fn = 32; cylinder(h = 3, d1 = 2, d2 = 1, center = true); ``` Как можно заметить, цилиндр поддерживает крайне небольшое количество модификаторов параметров, среди которых даже нету модификатора координат. Для полноты картины расмотрим третий графический примитив `cube()`. ``` $fn = 32; cube([3,2,1], center = true) ``` Кроме выше указанных графических примитивов существуют еще несколько графических примитивов 3D и 2D, расматривать которые в данной статье мы не будем. 2. Манипуляторы примитивы ------------------------- Добавте в код манипулятор `translate()` и самостоятельно измените его параметры отслеживая изменения. Обратите внимание что параметры должны быть не только переданы модификатору, посредством размещения внутри `оператора()`, но и быль заключены в `оператор[]` который преобразует три одиночных числа `x,y,z` в вектор вида `[x,y,z]`, принимаемый на входе модификатор `translate()`. Если нарушить данное правило, то модификатор `translate()` расширит первое одиночное число `X` до вектора `[x,0,0]`. ``` $fn = 32; translate([3,2,1]) cylinder(h = 3, d1 = 2, d2 = 1, center = true); ``` Обратите внимание, что после модификатора `translate()` не нужно указывать `оператор;` это вызвано тем, что модификатор оказывает воздействие на первый же примитив следующий за ним, если же за модификатором будет следовать следующий модификатор, то их общее действие `сложиться` и будет применено к первому же примитиву, следующему за цепочкой модификаторов. Добавим в код второй манитулятор `rotate()`, и попробуем две различных комбинации их сочетания: ``` $fn = 32; rotate([90, 0, 0]) translate([3,2,1]) cylinder(h = 3, d1 = 2, d2 = 1, center = true); translate([3,2,1]) rotate([90, 0, 0]) cylinder(h = 3, d1 = 2, d2 = 1, center = true); ``` Как видно, два абсолютно одинаковых модификатора, но в разном последовательности оказывают различное воздействие на графический примитив. Это естественное следствие векторных вычислений, где в отличии от скалярного, результат меняется в зависимости от перестановки слагаемых. Поэкспериментируйте с параметрами и сочетаниями модификаторов самостоятельно, чтобы понять как и в какой последовательности они воздействуют друг на друга. 3. Составные объекты (модули) ----------------------------- Напишем код создающий объект состоящий из трех примитивов, моделирующий стержень круглого сечения и переменного диаметра. ``` $fn = 32; cylinder(h = 3, d = 2); translate([0, 0, 3]) cylinder(h = 2, d1 = 2, d2 = 1); translate([0, 0, 3 + 2]) cylinder(h = 1, d = 1); ``` Обратите внимание что поскольку действие модификаторов распространяется только на примитив который следует за ним и заканчивается при достижении `;`. в `строке-5` было необходимо сложить высоту первого и второго цилиндра, для того чтобы третий оказался выше них обоих. Изменим код чтобы продемонстрировать как можно распространить действие одного модификатора на несколько примитивов. ``` $fn = 32; cylinder(h = 3, d = 2); translate([0, 0, 3]) { cylinder(h = 2, d1 = 2, d2 = 1); translate([0, 0, 2]) cylinder(h = 1, d = 1); }; ``` Заключение группы модификаторов и примитивов в один блок, посредством фигурных скобок, позволяет оперировать ими как одним целым. Введем в код символьные константы, для придания ему большей читабельности и облегчения его дальнейшего совершенствования. Стоит отметить что хотя в англоязычном руководстве символьные константы называются переменными, фактически это константы значение которым можно присвоить только при инициализации. ``` $fn = 32; diam1 = 2; diam2 = 1; heig1 = 3; heig2 = 2; heig3 = 1; cylinder(h = heig1, d = diam1); translate([0, 0, heig1]) { cylinder(h = heig2, d1 = diam1, d2 = diam2); translate([0, 0, heig2]) cylinder(h = heig3, d = diam2); }; ``` Прорисовка объекта совершенно не изменилась, но зато теперь мы можем изменять его весь целиком меняя значения всего лишь нескольких констант. Инкапсулируем фигуру, сделав из нее "шаблон", для будущего применения изменив код следующим образом. ``` $fn = 32; module Arm(diam1 = 2, diam2 = 1, heig1 = 3, heig2 = 2, heig3 = 1) { cylinder(h = heig1, d = diam1); translate([0, 0, heig1]) { cylinder(h = heig2, d1 = diam1, d2 = diam2); translate([0, 0, heig2]) cylinder(h = heig3, d = diam2); }; }; ``` Как можно заметить после этих изменений объект пропал. Это произошло потому что теперь код лишь "описывает" объект, но не создает его, добавим в самый конец файла еще одну строку и повторим рендер. ``` Arm(); ``` Стоит заметить что мы не только определили символические имена констант, но и присвоили им значения по умолчанию, что позволяет нам создавать объект с параметрами по умолчанию. 4. Проверка типа параметра -------------------------- Напишем код для создания стержня который может опционально заканчиваться "втулкой", внесем изменение в код в два этапа, для реализации указанного функционала. ``` $fn = 32; module Arm(list = [[1,2],[1,2,3]]) { echo(Arm = list); diam = list[0]; heig = list[1]; cylinder(h = heig[0], d = diam[0]); translate([0, 0, heig[0]]) { cylinder(h = heig[1], d1 = diam[0], d2 = diam[1]); translate([0, 0, heig[1]]) cylinder(h = heig[2], d = diam[1]); }; }; Arm(); ``` В указанном коде количество передаваемых параметров сократилось до одного, которому присвоено символическое имя `list`, но одновременно указанный параметр представляет собой `сложным` вектором, состоящим из двух `простых` векторов. В начала модуля мы раскладываем `сложный` вектор на два `простых`, с символическими более простыми и понятными именами `diam`, `heig`, и осуществляем все дальнейщие посроения и манипуляции уже посредством этих векторов. Под термином `сложный`/`простой` подразумевается содержит ли вектор в себе подвекторы или состоит только из чисел. Особо стоит отметить модификатор `echo`, как несложно догадаться он выводит в консоль содержимое вектора `list`. Сейчас значение `list` известно нам заранее, но в будущем при отладке более сложного кода всегда полезно видеть входные параметры. Найдите консоль и посмотрите что было передано. Напишем дополнительные элементы кода для реализующими требуемого функционала. ``` $fn = 32; module Arm(list = [[[1,2],[1,2,3]], 3, 2]) { echo(Arm = list); diam = list[0][0]; heig = list[0][1]; fork = [list[1], list[2]]; if (is_num(fork[0])) rotate([0, 90]) cylinder(h = fork[0], d = diam[0], center = true); cylinder(h = heig[0], d = diam[0]); translate([0, 0, heig[0]]) { cylinder(h = heig[1], d1 = diam[0], d2 = diam[1]); translate([0, 0, heig[1]]) { cylinder(h = heig[2], d = diam[1]); if (is_num(fork[1])) translate([0, 0, heig[2]]) rotate([0, 90]) cylinder(h = fork[1], d = diam[2], center = true); }; }; }; Arm(); ``` В `строке-9` и `строке-19`, посредством оператора `is_num` мы проводим проверку определен ли параметр фактически и является ли он числом, и если параметр определен производим отрисовку дополнительных элементов объекта. 5. Рекурсивный вызов и передача объектов по вектору --------------------------------------------------- Напишем код для создания стержня состоящего из пяти участков и имеющий три различных диаметра. На первый взгляд имеющийся на данный момент код в принципе не соответствует такой задаче и нужно написать новый, но давайте не будем выбрасывать существующий код, а попробуем его усовершенствовать. ``` $fn = 32; module Arm(list = [[[1,2],[1,2,3],[1,[2,1],undef]], undef, 2]) { echo( Arm = list); diam = list[0][0]; heig = list[0][1]; next = list[0][2]; fork = [list[1], list[2]]; if (is_num(fork[0])) rotate([0, 90]) cylinder(h = fork[0], d = diam[0], center = true); cylinder(h = heig[0], d = diam[0]); translate([0, 0, heig[0]]) { cylinder(h = heig[1], d1 = diam[0], d2 = diam[1]); translate([0, 0, heig[1]]) if (is_list(next)) { diam = [diam[1],next[0]]; heig = [heig[2],next[1][0],next[1][1]]; next = next[2]; Arm([[diam,heig,next],undef,fork[1]]); } else { cylinder(h = heig[2], d = diam[1]); if (is_num(fork[1])) translate([0, 0, heig[2]]) rotate([0, 90]) cylinder(h = fork[1], d = diam[1], center = true); }; }; }; Arm(); ``` Применив в `строке-23` рекурсивный вызов модуля `Arm` можно создавать объекты состоящие из неограниченного числа однотипных блоков. 6. Вложенные модули и сокрытие имен ----------------------------------- Напишем код для создания плоской закругленной пластины `Slab`, с возможностью рекурсивного вызова для добавления дополнительных звений. Поскольку код `Slab` аналогичен коду `Arm`, предлагаю читателю разобраться с ним самостоятельно. ``` $fn = 32; module Slab (list = [3,1,.5,[30,30],[2,30,undef]]) { echo(Slab = list); length = list[0]; diameter = list[1]; thickness = list[2]; angle = is_list(list[3]) ? list[3]: is_num(list[3]) ? [0, list[3]]: [0,0]; next = list[4]; rotate([0, 0, angle[0]]) { cylinder(h = thickness, d = diameter, center = true); translate([length / 2, 0, 0]) cube([length, diameter, thickness], center = true); translate([length, 0, 0]) if (is_list(next)) rotate([0, 0, angle[1]]) Slab([next[0], diameter, thickness, next[1], next[2]]); else cylinder(h = thickness, d = diameter, center = true); }; }; Slab(); ``` Стоит обратить внимание что значение константы `angle`, определяемое в `строках-8,9`, зависит от того является ли переданный параметр вектором. Напишем теперь код создающий две параллельных пластинки `Fork`, которые в последствии применим в `Arm`. ``` module Fork (list = [1,[1,1,.5,[30,30],[2,30,[1,-30]]]]) { echo(Fork = list); gap = list[0]; thickness = list[1][2]; slab = list[1]; translate([0, 0, (thickness + gap) / 2]) Slab(slab); translate([0, 0, -(thickness + gap) / 2]) Slab(slab); }; Fork(); ``` Как легко заметить для создания модуля `Fork`, необходим модуль `Slab`. При этом модуль `Slab` имеет глобальную видимость и доступен для всех прочих модулей, что может создать конфликт имен. Инкапсулируем модуль `Slab` внутри модуля `Fork`. ``` $fn = 32; module Fork (list = [1,[1,1,.5,[30,30],[2,30,[1,-30]]]]) { echo(Fork = list); gap = list[0]; thickness = list[1][2]; slab = list[1]; translate([0, 0, (thickness + gap) / 2]) Slab(slab); translate([0, 0, -(thickness + gap) / 2]) Slab(slab); module Slab (list = [3,1,.5,[30,30],[2,30,undef]]) { echo(Slab = list); length = list[0]; diameter = list[1]; thickness = list[2]; angle = is_list(list[3]) ? list[3]: is_num(list[3]) ? [0, list[3]]: [0,0]; next = list[4]; rotate([0, 0, angle[0]]) { cylinder(h = thickness, d = diameter, center = true); translate([length / 2, 0, 0]) cube([length, diameter, thickness], center = true); translate([length, 0, 0]) if (is_list(next)) rotate([0, 0, angle[1]]) Slab([next[0], diameter, thickness, next[1], next[2]]); else cylinder(h = thickness, d = diameter, center = true); }; }; }; Fork(); ``` Теперь попытка создания модуля `Slab` за пределами модуля `Fork` будет приводить к ошибке. По умолчанию все символические имена существуют только в пределах объявленного блока, а при совпадении имен более "нижний" уровень перекрывает более "высокий". 7. Подключение дополнительных файлов ------------------------------------ Сохраним код содержащий определение `Fork` в отдельном файле с именем `Fork.scad` Напишем код который позволит нам присоединить к "верхнему" концу `Arm` вилку `Fork` применив директиву `include`. ``` $fn = 32; module Arm(list = [[[1,2],[1,2,3],[1,[2,1],undef]], undef, [1,[1,1,.5,[-30,30],[1,30,[1,-30,undef]]]]]) { echo( Arm = list); diam = list[0][0]; heig = list[0][1]; next = list[0][2]; fork = [list[1], list[2]]; if (is_num(fork[0])) rotate([0, 90]) cylinder(h = fork[0], d = diam[0], center = true); cylinder(h = heig[0], d = diam[0]); translate([0, 0, heig[0]]) { cylinder(h = heig[1], d1 = diam[0], d2 = diam[1]); translate([0, 0, heig[1]]) if (is_list(next)) { diam = [diam[1],next[0]]; heig = [heig[2],next[1][0],next[1][1]]; next = next[2]; Arm([[diam,heig,next],undef,fork[1]]); } else { cylinder(h = heig[2], d = diam[1]); if (!is_undef(fork[1])) translate([0, 0, heig[2]]) rotate([0, -90]) if (is_list(fork[1])) { heig = fork[1][0]; cylinder(h = heig, d = diam[1], center = true); Fork(fork[1]); } else cylinder(h = diam[1], d = diam[1], center = true); }; }; include; }; Arm(); ``` 8. Наследование --------------- Предположим необходимо создать двухзвенный манипулятор, текущая версия модуля `Arm` вполне работоспособна и позволяет создать два звена манипулятора, но она не позволяет объединить их в один объект посредством какой либо простой манипуляции. При попытки создать два звена манипулятора, они будут сгенерированы каждый сам по себе и совершенно не будут учитывать факт существования друг друга, а также какой либо иерархии, когда одно звено должно быть главным и способным перемещаться самостоятельно, а второе зависимым и учитывать перемещение главного. Реализуем требуемый функционал посредством технологии `наследования` реализованной в операторе `children`, добавив его в существующий код. ``` $fn = 32; module Arm(list = [[[1,2],[1,2,3],[1,[2,1],undef]], 1, [1,[1,1,.5,[-30,30],[2,30,[1,-30]]]]]) { echo( Arm = list); diam = list[0][0]; heig = list[0][1]; next = list[0][2]; fork = [list[1], list[2]]; if (is_num(fork[0])) rotate([0, 90]) cylinder(h = fork[0], d = diam[0], center = true); cylinder(h = heig[0], d = diam[0]); translate([0, 0, heig[0]]) { cylinder(h = heig[1], d1 = diam[0], d2 = diam[1]); translate([0, 0, heig[1]]) if (is_list(next)) { diam = [diam[1],next[0]]; heig = [heig[2],next[1][0],next[1][1]]; next = next[2]; Arm([[diam,heig,next],undef,fork[1]]) children(); } else { cylinder(h = heig[2], d = diam[1]); translate([0, 0, heig[2]]) if (is_undef(fork[1])) children(); else { if (is_list(fork[1])) { heig = fork[1][0]; rotate([0, -90]) cylinder(h = heig, d = diam[1], center = true); Fork(fork[1]) children(); } else { rotate([0, -90]) cylinder(h = diam[1], d = diam[1], center = true); children(); }; }; }; }; include; }; Arm() Arm(); ``` Добавление в оператора `children()` позволила разместить второе звено манипулятора на месте второй, `зависимой` оси первого манипулятора. Впрочем полученный код не полон, в случае попытки добавить манипулятору вилку, не важно на каком конце, второе звено манипулятора разместиться не на конце вилки, а на оси втулки. Так происходит потому что код вилки не имеет функционал наследования, добавим его и модернизируем код `Arm` для поддержки нового функционала. ``` $fn = 32; module Fork (list = [1,[1,1,.5,[30,30],[2,30,[1,-30]]]]) { echo(Fork = list); gap = list[0]; thickness = list[1][2]; slab = list[1]; rotate([0, -90]) { translate([0, 0, (thickness + gap) / 2]) Slab(slab); translate([0, 0, -(thickness + gap) / 2]) Slab(slab) translate([0, 0, (thickness + gap) / 2]) rotate([0, 90]) children(); }; module Slab (list = [3,1,.5,[30,30],[2,30,undef]]) { echo(Slab = list); length = list[0]; diameter = list[1]; thickness = list[2]; angle = is_list(list[3]) ? list[3]: is_num(list[3]) ? [0, list[3]]: [0,0]; next = list[4]; rotate([0, 0, angle[0]]) { cylinder(h = thickness, d = diameter, center = true); translate([length / 2, 0, 0]) cube([length, diameter, thickness], center = true); translate([length, 0, 0]) { if (is_list(next)) { rotate([0, 0, angle[1]]) Slab([next[0], diameter, thickness, next[1], next[2]]) children(); } else { cylinder(h = thickness, d = diameter, center = true); children(); }; }; }; }; }; ``` 0. Анимация ----------- Это маленькая затравка для подогрева интереса к следующему посту. Замените последнию строку кода в файл `Arm.scad`, создающию два объекта `Arm`, на строку указанную ниже и запустите анимацию. ``` rotate([$t * 360]) Arm() rotate([$t * 360]) Arm(); ``` Послесловие ----------- Данный пост абсолютно не претендует на полное и сичерпывающие описание OpenSCAD, пишите вопросы в комментариях и я постораюсь дать ответы. Небольшая [шпаргалка](https://openscad.org/cheatsheet/index.html) для самостоятельного изучения.
https://habr.com/ru/post/651923/
null
ru
null
# Multilingual Text-to-Speech Models for Indic Languages ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/d11/ce4/869/d11ce4869a574fbbb023e43b1f0db9a6.jpg)In this article, we shall provide some background on how multilingual multi-speaker models work and test an Indic [TTS model](https://github.com/snakers4/silero-models#indic-languages) that supports 9 languages and 17 speakers (Hindi, Malayalam, Manipuri, Bengali, Rajasthani, Tamil, Telugu, Gujarati, Kannada). It seems a bit counter-intuitive at first that one model can support so many languages and speakers provided that each Indic language has its own alphabet, but we shall see how it was implemented. Also, we shall list the specs of these models like supported sampling rates and try something cool – making speakers of different Indic languages speak Hindi. Please, if you are a native speaker of any of these languages, share your opinion on how these voices sound, both in their respective language and in Hindi. ### Basic Background on Text-to-Speech Text-to-speech (**TTS**) is a broad subject, but we need to get a basic understanding of how it works in general or what are the main components. Unlike more traditional TTS models that relied on specific linguistic information as inputs, modern TTS models usually work with text or phoneme inputs. The main components of most modern TTS systems are (even newer fully end-to-end models still have similar components inside): * Text preprocessing module and cleaning plus some form of text to phoneme transcription, transcription, or transliteration; * An acoustic model; * A vocoder; ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cf5/b54/e8e/cf5b54e8ea4fc70170ba1812100df933.png)Modern TTS models typically rely on curated graphemes or phonemes as input. This input is then passed into an [embedding layer](https://medium.com/analytics-vidhya/understanding-embedding-layer-in-keras-bbe3ff1327ce) that maps this alphabet to a set of tensors. Usually, [Mel Spectrograms](https://medium.com/analytics-vidhya/understanding-the-mel-spectrogram-fca2afa2ce53) are chosen as a modelling unit for the acoustic model and the vocoder. In simple terms, the acoustic model transfers input text embeddings into a Mel Spectrogram, which the vocoder turns into the actual audio. There is a whole plethora of different approaches and architectures for vocoders and acoustic models (please see the paper below for a comprehensive review), but this is out of scope for this article. ![Source: http://arxiv.org/abs/2106.15561](https://habrastorage.org/r/w1560/getpro/habr/upload_files/af5/c8e/092/af5c8e09220278843e5572fe9fa0baa0.png "Source: http://arxiv.org/abs/2106.15561")Source: http://arxiv.org/abs/2106.15561Each Indic language has its own alphabet and basically, there are only 2 ways we can combine them into one unified model (of course we also can train several distinct models): * Use some transliteration or transcription scheme; * Combine the alphabets together and increase the number of embeddings; The second approach is a bit problematic because the phonemes are very similar in closely related languages using such an approach may hurt the model’s generalization and convergence. Also, each speaker should get his or her own embedding. As for the languages – it does not make sense to include language embeddings in case the number of speakers is not much larger than the number of languages. ### How does it Work? The secret sauce is that the model uses ISO romanization techniques supported by a widely used [aksharamukha tool](https://aksharamukha.appspot.com/converter) and its python [package](https://aksharamukha.appspot.com/python). This process is a transliteration (not a transcription) and some language’s letters have a bit different sounds, but this works well enough as you will see. **To use this tool for all of these languages, for example using python, we need to:** | | | | --- | --- | | **Language** | **Romanization function** | | hindi | transliterate.process(‘Devanagari’, ‘ISO’, orig\_text) | | malayalam | transliterate.process(‘Malayalam’, ‘ISO’, orig\_text) | | manipuri | transliterate.process(‘Bengali’, ‘ISO’, orig\_text) | | bengali | transliterate.process(‘Bengali’, ‘ISO’, orig\_text) | | rajasthani | transliterate.process(‘Devanagari’, ‘ISO’, orig\_text) | | tamil | transliterate.process(‘Tamil’, ‘ISO’, orig\_text, pre\_options=[‘TamilTranscribe’]) | | telugu | transliterate.process(‘Telugu’, ‘ISO’, orig\_text) | | gujarati | transliterate.process(‘Gujarati’, ‘ISO’, orig\_text) | | kannada | transliterate.process(‘Kannada’, ‘ISO’, orig\_text) | **After converting the input text to ISO, now we can try the model:** ``` import torch from aksharamukha import transliterate model, example_text = torch.hub.load(repo_or_dir='snakers4/silero-models', model='silero_tts', language='indic', speaker='v3_indic') orig_text = "प्रसिद्द कबीर अध्येता, पुरुषोत्तम अग्रवाल का यह शोध आलेख, उस रामानंद की खोज करता है" roman_text = transliterate.process('Devanagari', 'ISO', orig_text) print(roman_text) audio = model.apply_tts(roman_text, speaker='hindi_male') ``` The created audio is a PyTorch Tensor containing a 48 kHz (the default sampling rate) audio with the generated phrase. Of course, lower sampling rates are also available. The romanization is a lossless process, and for the majority of texts that I have tried, it **can be transliterated**[**back and forth**](https://aksharamukha.appspot.com/python)**without any errors using the aksharamukha tool**. ### Model Performance and Characteristics After a bit of fiddling, prodding, and testing we can see that the model: * Can generate audio with a sampling rate of 8 000, 24 000, or 48 000 kHz; * Works both on CPUs and GPUs. Also, it works even on old and outdated x86 CPUs without AVX2 instructions; * Weighs about 50 MB for all speakers and languages (yes, really!); If we properly measure the model speed on 1 and 4 CPU threads (turns out adding 6 or more threads does not really help), we can see that it quite quick (I measured the seconds of audio generated per second): | | | | | --- | --- | --- | | **Sampling Rate** | **1 CPU Thread** | **4 CPU Threads** | | 8 kHz | 15 — 25 | 30 — 60 | | 24 kHz | 10 | 15 — 20 | | 48 kHz | 5 | 10 | The model also supports [SSML markdown](https://github.com/snakers4/silero-models/wiki/SSML), but it is still a bit glitchy for some tags. ### Audio Samples Now let’s generate some audio samples for each of the languages and listen to them: I am not a native speaker of these languages to evaluate the speech quality, but as far as TTS models go, most of these speakers sound passable. The most obvious problems can be traced to source material – mostly slow pace of speech and audio quality (some audios were noisy or upsampled from lower quality). I asked a native speaker from India (he speaks Hindi, Telugu, Tamil and understands Malayalam, Bengali, Kannada and Gujarati  to a certain extent) to evaluate the anecdotal quality, and this is what he replied: * **Hindi**. The pronunciations were accurate. It sounded a bit mechanical (like reading out phrase by phrase), probably because that’s how the speakers spoke it in the dataset; * **Telugu**was perfect. Was natural and smooth with accurate pronunciations; * **Tamil**. The output could have been a bit smoother if it was generated for a single sentence. Nevertheless, it was still good; * **Malayalam**. The pauses and phrasing were somewhat uncomfortable to hear. Female output was better, probably because it has a bit higher speed; * **Bengali**was good. The female sample was perfect; * **Kannada. The male** sample was perfect. The female one had awkward pauses; * **Gujarati**– seemed too mechanical; ### Non Hindi Speakers Speaking Hindi Now for something extra. Let’s see what happens if non-Hindi speakers are asked to speak Hindi! Take a listen:  **And here is what a native speaker thinks:** * In general, when we use a speaker of another language Y for an input text language X, it does not sound natural. And it also loses the accent of Y when in such cases. But neither does it have the accent of X; * It was a plain read-out of the roman text using the voice of another speaker. Although the basic voice characteristics were maintained; * But it was accurately able to pronounce some phonemes of X which they would have never encountered for Y. So definitely there’s sharing of phonetics across languages, wherever non-ambiguous; * The model is definitely useful when using appropriate languages for the respectively trained speakers; * More precisely, it sounds like a person of native language Y trying hard to fluently read the script of language X, without knowing the language; And what do you think? Do these conclusions hold? It is next to impossible for me to make these judgments apart from observing and fixing standard TTS problems shared by all non-tonal languages. ### Conclusion In this article, we have briefly touched upon the subject of how TTS models work and have shown that the ISO romanization scheme (provided by the aksharamukha tool)  can serve as a decent foundation to build a universal Indic TTS model, that not only can “speak” several Indic languages, but also can make speakers “speak” a language that they originally did not even record. This did not work for the Assamese language, because some of its romanized phonemes sounded too different compared to other languages (according to our non-native ear). Also, a surprising finding is that the model generalizes that speakers can produce “non-native” phonemes for other languages and speak “unfamiliar” languages not fluently, but at least diligently. And if you are a native speaker of any of these languages, what do you think? Hope you liked my article on Indic languages? Share in the comments below.
https://habr.com/ru/post/674358/
null
en
null
# Из Excel в MySQL. Небольшая функция на PHP (fixed) #### Введение Здравствуй, **$habrauser**! Бывает так, что вам нужно импортировать файл Excel в базу MySQL, но готового решения нигде нет. Вот и я, когда меня попросил друг поискать легкий способ импорта, сперва решил ~~загуглить~~ поискать решение. Увы, запрос *php excel to mysql* не дал ничего конкретного, или же описанные способы были довольно таки не удобны. Тогда же я решил найти библиотеку для работы с Excel на PHP, и мне попалась PHPExcel. Но опять же меня ждало разочарование, запрос *phpexcel to mysql* не дал ничего путного (я ленивый пользователь и дальше 1й страницы не хожу). В итоге я решил создать свой ~~велосипед~~ скрипт, которым и хочу поделиться с вами. #### Начало Итак, библиотеку я нашел, [скачал](http://phpexcel.codeplex.com/) и начал разбираться. Для начала нужно было подключить библиотеку и создать подключение к базе, что совсем не сложно: ``` require_once "PHPExcel.php"; $connection = new mysqli("localhost", "user", "pass", "base"); $connection->set_charset("utf8"); ``` Далее нужно открыть файл Excel для чтения: ``` $PHPExcel_file = PHPExcel_IOFactory::load("./file.xlsx"); ``` После открытия файла, нам нужно перебрать все листы в нем и каждый добавить в базу MySQL (можно и 1 конкретный, но об этом позже): ``` foreach ($PHPExcel_file->getWorksheetIterator() as $worksheet) { // ... } ``` Ну а теперь самое интересное… #### Перебор и добавление Мы будем исходить из того, что таблицы у нас нет (или есть, но с другими данными) и ее нужно создать. Для этого нам нужно получить имена для столбцов (в соответствии с просьбой друга, имена могут находиться в 1 строчке таблицы): ``` // Строка для названий столбцов таблицы MySQL $columns_str = ""; // Количество столбцов на листе Excel $columns_count = PHPExcel_Cell::columnIndexFromString($worksheet->getHighestColumn()); // Перебираем столбцы листа Excel и генерируем строку с именами через запятую for ($column = 0; $column < $columns_count; $column++) { $columns_str .= ($columns_name_on1line ? "column" . $column : $worksheet->getCellByColumnAndRow($column, 1)->getCalculatedValue()) . ","; } // Обрезаем строку, убирая запятую в конце $columns_str = substr($columns_str, 0, -1); ``` Далее удаляем таблицу из базы, если она существовала, и создаем новую: ``` $connection->query("DROP TABLE IF EXISTS exceltable"); $connection->query("CREATE TABLE exceltable (" . str_replace(",", " TEXT NOT NULL,", $columns_str) . " TEXT NOT NULL)"); ``` Как видно из кода, значения будут иметь тип *TEXT*. Теперь приступаем собственно к перебору ячеек и добавления их в базу. Конечно, такой алгоритм не сложно найти на просторах [Stack Overflow](http://stackoverflow.com/), однако было замечено, что происходить ошибка при попытки чтения объединенных ячеек (точнее несоответствие количества столбцов и значений в запросе). Это я и решил учесть: ``` // Количество строк на листе Excel $rows_count = $worksheet->getHighestRow(); // Перебираем строки листа Excel for ($row = 1; $row <= $rows_count; $row++) { // Строка со значениями всех столбцов в строке листа Excel $value_str = ""; // Перебираем столбцы листа Excel for ($column = 0; $column < $columns_count; $column++) { // Строка со значением объединенных ячеек листа Excel $merged_value = ""; // Ячейка листа Excel $cell = $worksheet->getCellByColumnAndRow($column, $row); // Перебираем массив объединенных ячеек листа Excel foreach ($worksheet->getMergeCells() as $mergedCells) { // Если текущая ячейка - объединенная, if ($cell->isInRange($mergedCells)) { // то вычисляем значение первой объединенной ячейки, и используем её в качестве значения // текущей ячейки $merged_value = $worksheet->getCell(explode(":", $mergedCells)[0])->getCalculatedValue(); break; } } // Проверяем, что ячейка не объединенная: если нет, то берем ее значение, иначе значение первой // объединенной ячейки $value_str .= "'" . (strlen($merged_value) == 0 ? $cell->getCalculatedValue() : $merged_value) . "',"; } // Обрезаем строку, убирая запятую в конце $value_str = substr($value_str, 0, -1); // Добавляем строку в таблицу MySQL $connection->query("INSERT INTO exceltable (" . $columns_str . ") VALUES (" . $value_str . ")"); } ``` #### Все дело в функцию! Конечно, данный скрипт был бы гораздо удобнее, если бы все объединить в функцию. Поэтому итоговый результат получается такой: **Функция excel2mysql** ``` // Подключаем библиотеку require_once "PHPExcel.php"; // Функция преобразования листа Excel в таблицу MySQL, с учетом объединенных строк и столбцов. // Значения берутся уже вычисленными. Параметры: // $worksheet - лист Excel // $connection - соединение с MySQL (mysqli) // $table_name - имя таблицы MySQL // $columns_name_line - строка с именами столбцов таблицы MySQL (0 - имена типа column + n) function excel2mysql($worksheet, $connection, $table_name, $columns_name_line = 0) { // Проверяем соединение с MySQL if (!$connection->connect_error) { // Строка для названий столбцов таблицы MySQL $columns_str = ""; // Количество столбцов на листе Excel $columns_count = PHPExcel_Cell::columnIndexFromString($worksheet->getHighestColumn()); // Перебираем столбцы листа Excel и генерируем строку с именами через запятую for ($column = 0; $column < $columns_count; $column++) { $columns_str .= ($columns_name_line == 0 ? "column" . $column : $worksheet->getCellByColumnAndRow($column, $columns_name_line)->getCalculatedValue()) . ","; } // Обрезаем строку, убирая запятую в конце $columns_str = substr($columns_str, 0, -1); // Удаляем таблицу MySQL, если она существовала if ($connection->query("DROP TABLE IF EXISTS " . $table_name)) { // Создаем таблицу MySQL if ($connection->query("CREATE TABLE " . $table_name . " (" . str_replace(",", " TEXT NOT NULL,", $columns_str) . " TEXT NOT NULL)")) { // Количество строк на листе Excel $rows_count = $worksheet->getHighestRow(); // Перебираем строки листа Excel for ($row = $columns_name_line + 1; $row <= $rows_count; $row++) { // Строка со значениями всех столбцов в строке листа Excel $value_str = ""; // Перебираем столбцы листа Excel for ($column = 0; $column < $columns_count; $column++) { // Строка со значением объединенных ячеек листа Excel $merged_value = ""; // Ячейка листа Excel $cell = $worksheet->getCellByColumnAndRow($column, $row); // Перебираем массив объединенных ячеек листа Excel foreach ($worksheet->getMergeCells() as $mergedCells) { // Если текущая ячейка - объединенная, if ($cell->isInRange($mergedCells)) { // то вычисляем значение первой объединенной ячейки, и используем её в качестве значения // текущей ячейки $merged_value = $worksheet->getCell(explode(":", $mergedCells)[0])->getCalculatedValue(); break; } } // Проверяем, что ячейка не объединенная: если нет, то берем ее значение, иначе значение первой // объединенной ячейки $value_str .= "'" . (strlen($merged_value) == 0 ? $cell->getCalculatedValue() : $merged_value) . "',"; } // Обрезаем строку, убирая запятую в конце $value_str = substr($value_str, 0, -1); // Добавляем строку в таблицу MySQL $connection->query("INSERT INTO " . $table_name . " (" . $columns_str . ") VALUES (" . $value_str . ")"); } } else { return false; } } else { return false; } } else { return false; } return true; } // Соединение с базой MySQL $connection = new mysqli("localhost", "user", "pass", "base"); // Выбираем кодировку UTF-8 $connection->set_charset("utf8"); // Загружаем файл Excel $PHPExcel_file = PHPExcel_IOFactory::load("./file.xlsx"); // Преобразуем первый лист Excel в таблицу MySQL $PHPExcel_file->setActiveSheetIndex(0); echo excel2mysql($PHPExcel_file->getActiveSheet(), $connection, "excel2mysql0", 1) ? "OK\n" : "FAIL\n"; // Перебираем все листы Excel и преобразуем в таблицу MySQL foreach ($PHPExcel_file->getWorksheetIterator() as $index => $worksheet) { echo excel2mysql($worksheet, $connection, "excel2mysql" . ($index != 0 ? $index : ""), 1) ? "OK\n" : "FAIL\n"; } ``` #### Заключение Что ж, надеюсь данная статья поможет вам. Ну, или, если вы захотите ~~изобрести свой велосипед, но только с моторчиком~~ написать свой скрипт, эта статья поможет вам начать. #### P.S. Это моя первая, и думаю, не последняя статья. Поэтому жду ваших советов и поправок, как тут принято, в комментариях. #### Update Вижу, все-таки, мне удалось создать небольшую дискуссию, но не все понимают, почему было сделано именно так. Постараюсь объяснить. Во-первых: с этим должен был работать пожилой человек, которому будет трудновато объяснить как сохранить файл в CSV, при этом не потеряв данные (а такое исключать нельзя, к тому же у них свой формат на файл XLS, который приходит сверху) и, тем более, как это импортировать через phpMyAdmin (который, кстати, с версии 3.4.5 [не поддерживает XLS/XLSX](http://wiki.phpmyadmin.net/pma/import#Microsoft_Excel_97-2003_Workbook_.28XLS.29_-_removed), советую посмотреть почему) или подобное. Так что это не подходит. Во-вторых: все это должно быть расположено на хостинге, и установка модулей как на сервер, так и для локальных программ не подходит (к тому же там Linux, а не Windows, как некоторые подумали). В-третьих: это дело проводится раз в полгода, однако от безделья я решил написать такую функцию, способную обобщить импорт (вдруг кому нужно). Теперь о хорошем: переписал данную функцию в класс, исправил кое-что и добавил возможность экспорта из MySQL в Excel. Забрать можно [отсюда](https://github.com/BOOMER74/excel_mysql). Извините, что не ответил в комментариях, решил что в самой статье будет уместние.
https://habr.com/ru/post/178089/
null
ru
null
# Автоматизация автоматизированного тестирования или Сила batch файлов *— Почему не работаешь? — Оно тестируется* Привет, Хабролюди. Решил поделиться с вами своим опытом на тавтологическую тему – автоматизация автоматизированного тестирования. Как мы все знаем, чтобы не тратить время на регрессионные тесты умные тестировщики придумали когда-то использовать что-то кроме рук для прогона тестов. Но захотелось автоматизации полного цикла, то есть от начала тестов до получения результатов. Итак… ![image](http://burnlife.ru/wp-content/42902.jpg) #### Задача. Автоматизировать циклическое тестирование приложения на разных операционных системах без участия человека. #### Условие. Есть программный продукт, новые версии которого активно разрабатываются. Следовательно необходимость регрессионного тестирования очевидна. Продукт мультиплатформный – тестировать надо на разных операционных системах. В «железном» плане – есть 5 тестовых компьтеров, 1 сервер, 1 FTP сервер – все это ласково называется «тестовая ферма». Трудность в моем случае была в том, что все это находилось за 2 тысячи километров от меня, и доступ был только по RDP и KVM. В программном плане – тестируемое приложение написано с помощью Qt и для тестирования выбран Squish. Для установки разных операционных систем на тестовые компьютеры используется Acronis Snap Deploy. #### Решение. Есть скрипты, которые непосредственно тестируют приложение. Необходимо их запустить, получить результаты, сменить ОС, запустить, получить результаты, и так далее в цикле. В конце было бы неплохо эти результаты как-то отформатировать. Как происходит автоматическая установка образа системы на целевой компьютер с помощью Acronis Snap Deploy? Для установки образа в более-мение автоматическом режиме нам необходимо перезагрузить целевой компьютер, когда он словит PXE сервер (компьютеры должны быть настроены на загрузку с сетевой карты в первую очередь), выбрать пункт PE Media. Загрузится PE среда, в которой локально можно запустить деплой образа системы. PE среду необходимо заранее подготовить, т. е. собрать и вложить в нее утилиту командной строки Aronis Snap Deploy Command Line (asdcmd.exe) и сервис psexesvc.exe, засунуть ее в Acronis PXE Server и выставить загрузку по умолчанию на нее. Как мы будем запускать сприпты? На сервере тестовой фермы (дальше речь будет только о ней) по расписанию будет запускаться .bat файл, который и будет запускать скрипты. Итак цепочка, в которой собственно и раскрывается вся сила .bat файлов и psexec вчастности: В определенное время стартует .bat файл, который вызывает деплой необходимой системы на целевом компьютере: * запускаем сервис Акрониса, так как потом мы его будем выключать; * посылаем целевой компьютер с IP = comIP в ребут; * тянем время, ждем пока компьютер ребутнется, подхватит PXE среду и зайдет в PE Media; * выключаем сервис Акрониса, чтобы после деплоя образа системы загружалась ОС, а не PE Media, стоящая по умолчанию в PXE сервере; * собственно сам сценарий деплоя, подробности описывать не буду, все есть в мануале. `net start AcronisPXE.exe psexec \\*compIP* reboot ping *compIP* ping *compIP* net stop AcronisPXE.exe psexec \\*compIP* asdcmd /deploy [param]` Далее мы ждем пока происходит деплой образа. Для этого нам надо заранее в каждый образ (их всеравно надо создавать) засунуть по файлу, например ready.txt. Мы проверяем когда файл станет доступным, что свидетельствует об окончании деплоя: `psexec \\compIP cmd if exist ready.txt ( goto do ) else ( ping compIP) do *scripts.bat*` Таким образом, после установки образа мы начинаем тестирование. Файл scripts.bat начинает установку Squish, тесты, формирует результаты, высылает их, и т. д. В конце он вызывает наш батник, который повторяет все это заново. Чтобы процесс не был цикличным, можно контролировать его разными способами, например простой счетчик. #### Вывод. Данное решение позволяет нам двойным кликом по банику запустить весь процесс мультиплатформенного автоматизированного тестирования. Также мне не кажется, что это очень нетривиальная задача, и я думаю, должны быть какие-нибудь более простые решения данной проблемы. Сейчас копаю в сторону Altiris. Всем спасибо за потраченое время на чтение данного опуса.
https://habr.com/ru/post/100792/
null
ru
null
# Lego Mindstorms для программиста ![Mindstorms set](http://www.picamatic.com/show/2009/11/03/10/04/5770693_300x176.jpg)Мне очень нравится играть в Lego. Нравится собирать роботов и машинки. А ещё мне очень нравится програмировать. Нравится писать программы и фреймворки. А не так давно я нашел способ совместить эти два увлечения. [Lego Mindstorms](http://en.wikipedia.org/wiki/Lego_Mindstorms) — это набор, включающий в себя несколько моторчиков, сенсоров и программируемый модуль, который может считывать информацию с сенсоров и управлять моторчиками. В этом посте я расскажу больше о Mindstorms и о способах программирования. Архитектура любого проекта выглядит так: сенсоры передают информацию на управляющий модуль. Программа, выполняемая на модуле обрабатывает информацию и передаёт управляющие команды на моторчики. Моторчики приводят конструкцию в движение. #### Сенсоры Стандартный набор сенсоров Mindstorms 2.0 включает в себя: ![light sensor](http://www.picamatic.com/show/2009/11/04/11/16/5778115_92x77.gif) ###### Цветовой сенсор Этот сенсор умеет делать довольно много. Во-первых, он умеет считывать текущий цвет (и возвращать его RGB-значения). Во-вторых, он умеет возвращать текущую освещённость. Ну, и в-третьих, он умеет работать как лампочка. ![touch sensor](http://www.picamatic.com/show/2009/11/04/11/16/5778118_91x76.gif) ###### Два сенсора прикосновения Эти сенсоры умеют регистрировать три события: пимпочку нажали, пимпочку отпустили и пимпочку нажали и тут же отпустили. ![sonic sensor](http://www.picamatic.com/show/2009/11/04/11/19/5778149_111x80.gif) ###### Ультразвуковой сенсор Этот сенсор умеет определять расстояние до преграды перед сенсором. Работает в радиусе 2ух метров. #### Моторчики ![servo motor](http://www.picamatic.com/show/2009/11/04/11/33/5778252_117x70.gif)В комплект входят 3 моторчика. Каждый можно крутить на заданный угол (обещают точность до одного градуса), а также считывать текущий угол поворота. Последнее полезно, если к моторчику приделано колесо, которое пользователь крутит сам. #### Программируемый модуль ![servo motor](http://www.picamatic.com/show/2009/11/04/09/27/5784585_125x79.gif)Это маленький компьютер. Процессор на 48 MHz, 64 KB оперативки, 256 KB флеш-памяти, порт USB 1.1 и bluetooth радио. Конечно, висту на нём не поднять, но приложения для управления роботами работают очень даже шустро. #### Программы Здесть начинается самое интересное. Вместе с набором поставляется диск с программой Mindstorms NXT. Это графическая оболочка для написания простеньких программ. Она показалась мне весьма неудобной. Вот, к примеру, как выглядит программа с одним циклом и if-ом: ![program](http://www.picamatic.com/show/2009/11/04/11/58/5778454_400x382.png) К счастью, существует целый ряд проектов, который позволяют программировать на нормальных языках. Я остановился на проекте [lejos](http://lejos.sourceforge.net/). Программы пишутся на Java, компилируются в классы, а потом транслируются в бинарный формат, который понимает перепрошитый управляющий модуль. Java вполне настоящая: есть довольно много стандартный библиотек, есть нити, кое-что из IO. Даже есть API для работы с bluetooth. Более того, есть плагин для eclipse. В общем, всё, о чём может мечтать разработчик. Приведу пример простой программы: > `[public static void main(String[] aArg) throws Exception { > >     ColorLightSensor cs = new ColorLightSensor(SensorPort.PORTS[0], > >         ColorLightSensor.TYPE\_COLORNONE); > > > >     for (int i = 0; i < 3; i++) { > >       cs.setFloodlight(true); > > > >       LCD.drawString("Hello Habr", 3, 4); > >       Thread.sleep(500); > > > >       Motor.A.rotate(i % 2 == 0 ? 90 : -90); > > > >       cs.setFloodlight(false); > >     } > > > >   } > > > > \* This source code was highlighted with Source Code Highlighter. > > > > Как вы поняли, робот катается туда-сюда, мигает лампочкой и говорит «Hello Habr». > > > > #### Ещё про сенсоры > > > > Здорово, что сторонние разработчики также производят сенсоры для Mindstorms. Покопавшись в интернете можно найти акселерометр, компас, GPS-приёмник, градусник, ИК-сенсор, читатель RFID и многое другое. К сожалению, к одному программируемому модулю можно подключить не более чем четыре сенсора. Так что для сложных проектов зачастую используют несколько модулей, работающих вместе. > > > > #### Итого > > > > В общем, Mindstorms — это отличный способ провести время. Если нравится Lego и хочется почувствовать себя сумасшедшим профессором — очень рекомендую. > > > > Буду рад ответить на вопросы про этот набор.](http://virtser.net/blog/post/source-code-highlighter.aspx)`
https://habr.com/ru/post/74222/
null
ru
null
# [The Old New Thing] Могу ли я использовать свой стек как угодно? В Windows стек растет от больших адресов к меньшим. Иногда это определяется архитектурно, а иногда это просто принятое соглашение. Значение указателя стека (регистр процессора), является указателем на значение в верхней части стека. А значения, расположенные глубже по стеку, соответственно, находятся по большим адресам. Но что происходит с данными, которые расположены по адресам, меньшим, чем указатель стека? ![](https://habrastorage.org/r/w1560/webt/x1/my/nz/x1mynzntsrw6gl7i24yhef8yvc0.png) Соглашения для некоторых (но не для всех) архитектур определяют красную зону, которая является областью памяти под указателем стека, но которая по-прежнему валидна для использования приложением. ![](https://habrastorage.org/r/w1560/webt/ty/xb/5t/tyxb5taodk6tlgraaaxo0yldvh8.png) Для Windows размер красной зоны варьируется в зависимости от аппаратной архитектуры и часто равен нулю. | Архитектура | Размер красной зоны | | --- | --- | | x86 | 0 байт | | x64 | 0 байт | | Itanium | 16 байт\* | | Alpha AXP | 0 байт | | MIPS32 | 0 байт | | PowerPC | 232 байта\*\* | | ARM32 | 8 байт | | ARM64 | 16 байт | \* У платформы Itanium стоит отметить особенность: там красная зона расположена [над указателем стека](https://blogs.msdn.microsoft.com/oldnewthing/20040113-00/?p=41073), а не под ним. \*\* В случае PowerPC красная зона является [побочным эффектом соглашения о вызовах](https://blogs.msdn.microsoft.com/oldnewthing/20180817-00/?p=99515). Любая память за красной зоной (ниже по стеку) считается непостоянной (*volatile*) и может быть изменена операционной системой в любое время. А если серьезно, почему операционную систему вообще заботит то, что я делаю со своим стеком? Я имею в виду, это **мой** стек! Операционная система не говорит мне, что делать с памятью, которую я выделяю через `VirtualAlloc`. Что отличает стек от любой другой памяти? [Рассмотрим следующий код для x86 платформы](https://blogs.msdn.microsoft.com/oldnewthing/20040113-00/?p=41073#comment-135993): ``` MOV [esp-4], eax ; сохранить eax ниже указателя стека MOV ecx, [esp-4] ; считать сохраненное значение в ecx CMP ecx, eax ; они одинаковые? JNZ panic ; N: случилось что-то безумное ``` **Пояснение к комментарию для инструкции JNZ**Соглашение о кодировании для ассемблера говорит, что комментарии для инструкций перехода должны описывать результат, если переход выполнен. В приведенном выше примере инструкция CMP задает вопрос «Являются ли они одинаковыми?». И инструкция JNZ переходит, если они не равны. Таким образом, комментарий начинается с «N:», что означает что переход будет выполнен, если ответом на предыдущий вопрос является «No» (Нет), а в оставшейся части комментария описывается сама ситуация, когда выполняется переход. **Соглашение о кодировании для ассемблера?**Да, у нас есть соглашение о кодировании для ассемблера. Возможна ли ситуация, когда условный переход будет осуществлен? Поскольку на x86 нет красной зоны, память с отрицательными смещениями относительно указателя стека может быть перезаписана в любое время. Поэтому для приведенного выше кода возможен переход к метке `panic`. Отладчик может использовать память за красной зоной как удобное место для хранения своих данных. Например, если вы [используете команду .call](https://blogs.msdn.microsoft.com/oldnewthing/20070427-00/?p=27083), отладчик выполнит вложенный вызов в том же стеке и, вероятно, использует часть этого пространства стека для сохранения регистров, чтобы их можно было восстановить после возврата из вызываемой функции. Поэтому любые данные, хранящиеся за пределами красной зоны, будут уничтожены. Даже во время нормальной работы операционная система может в любой момент перезаписать данные за пределами красной зоны. Вот, например, как это может произойти: Предположим, что ваша нить (thread) отработала свой квант времени сразу после сохранения данных за красной зоной. Пока ваша нить ожидает возможности возобновить выполнение, менеджер памяти временно забирает у вашего кода физическую страницу памяти (page out). В конце концов ваша нить снова получает управление и менеджер памяти пытается подкачать страницу кода обратно (page in). О нет, во время подкачки происходит ошибка ввода-вывода! Операционная система помещает фрейм исключения для `STATUS_IN_PAGE_ERROR` на стек, что приводит к порче данных, которые вы сохранили за красной зоной. Операционная система диспетчеризует это исключение. Она обращается к векторному обработчику исключений (VEH), который является другой частью вашей программы. Обработчик был установлен специально, для обработки исключительных ситуаций, возникающих из-за возможного запуска вашей программы непосредственно с CD-ROM или ненадежной сетевой ФС. Программа отображает запрос, в котором просит пользователя снова вставить компакт-диск и предлагает повторить попытку. Если пользователь говорит, что нужно повторить, то обработчик векторных исключений возвращает `EXCEPTION_CONTINUE_EXECUTION`, а операционная система перезапустит инструкцию, на которой возникло исключение. На этот раз перезапуск завершается успешно, потому что CD-ROM присутствует (и читается) и код может быть успешно подкачан в память. Выполняется следующая инструкция, которая загружает значение за пределами красной зоны в регистр `ecx`. Но это уже не то значение, которое было сохранено предыдущей инструкцией, поскольку исключение `STATUS_IN_PAGE_ERROR` перезаписало его. Сравнение говорит, что данные разные, и мы переходим к метке `panic`. Если вы хотите сохранить данные в стеке, помещайте их туда правильно: сначала уменьшайте указатель стека, а затем сохраните значение в валидной части стека. Не прячьте данные за красной зоной, эта память может быть изменена в любой момент без вашего ведома.
https://habr.com/ru/post/435814/
null
ru
null
# Установка и работа с менеджером пакетов для Maс OS X (MacPort и Homebrew) Менеджер пакетов в Mac OS X позволит нам легко работать с пакетам посторонних разработчиков. В этом топике рассмотрим два таких менеджера: MacPort и Homebrew. #### 1. MacPort [Официальний сайт](http://www.macports.org/) На этом же сайте можна найти Mac OS X Package (.pkg) Installer для Mountain Lion, Lion, Snow Leopard и Leopard. Установите подходящий вам пакет и пользуйтесь на здоровье. Есть и другие способы установки, но мы выбрали простой и быстрый. На случей чево, у меня port установился сюда: /opt/local/bin/port. ##### Требование: * [Command Line Tools для Xcode](https://developer.apple.com/downloads) или [Xcode](http://itunes.apple.com/us/app/xcode/id497799835) * Apple’s X11 или XQuartz Работать с port придельно просто — ищем в «портах» нужный пакет и устанавливаем его: ``` $ port search php5 php-eaccelerator @0.9.6.1 (php, www, devel) php5 extension for PHP acceleration, optimization, and dynamic content caching php-xdebug @2.2.1 (php, net, devel) php5 extension for php debugging php5 @5.3.15 (lang, php, www) PHP: Hypertext Preprocessor php5-amf @0.9.2 (php, devel) ActionScript Message Format extension php5-apc @3.1.9 (php, devel) Alternative PHP Cache ... $ sudo port install php5 ``` ##### Дополнительные команды: ``` $ port list - список доступных портов $ sudo port -v selfupdate - обновления дерева пакетов $ sudo port upgrade outdated - обновление установленного программного обеспечения до актуальных версий $ port deps nano - вывести список зависимостей порта Full Name: nano @2.2.3_0 Library Dependencies: ncurses, gettext, libiconv $ port contents nano - вывести содержимое установленного порта $ port installed - вывести список всех установленных портов $ port dependents erlang - вывести список портов, которые зависят от erlang $ sudo port uninstall nano - удалить уже установленный порт nano ``` #### 2. Homebrew [Официальная страница](http://mxcl.github.com/homebrew/) О Homebrew поговорим подробнее… ##### Требование: * Intel CPU * OS X 10.5 или выше * [Command Line Tools для Xcode](https://developer.apple.com/downloads) или [Xcode](http://itunes.apple.com/us/app/xcode/id497799835) * Apple’s X11 или XQuartz * [Java Developer Update](https://connect.apple.com/) ##### Установка: ``` $ ruby <(curl -fsSk https://raw.github.com/mxcl/homebrew/go) ``` После успешной установки виполним следующую команду: ``` $ brew doctor ``` Если в результате этой команди получим ответ: **«Your system is raring to brew»**, тогода все хорошо и можете спокойно начинать работу з brew. В ином случае продолжим… Если возникла ошибка **Warning: Experimental support for using Xcode without the «Command Line Tools»**, то скорее всего была обновлена «ось», к примеру, с Lion к Mountain Lion, но не была переустановлена Command Line Tools для Xcode. Если возникла ошибка **Error: No such file or directory — /usr/local/Cellar**, то нужна создать эту директорию: ``` $ sudo mkdir /usr/local/Cellar ``` После этого опять запускаем команду: ``` $ brew doctor ``` Если мы получим что-то вроде этого: ``` Warning: Your Xcode is configured with an invalid path. You should change it to the correct path. Please note that there is no correct path at this time if you have *only* installed the Command Line Tools for Xcode. If your Xcode is pre-4.3 or you installed the whole of Xcode 4.3 then one of these is (probably) what you want: sudo xcode-select -switch /Developer sudo xcode-select -switch /Applications/Xcode.app/Contents/Developer DO NOT SET / OR EVERYTHING BREAKS! ``` то исправляем примером так: ``` $ sudo xcode-select -switch /Applications/Xcode.app/Contents/Developer ``` Проверяем ище раз: ``` $ brew doctor ``` Если на этот раз никаких ошибок не произошло, тогда все — можна спокойно работать с Homebrew. ##### Работа с Homebrew: ``` $ brew search git - поиск $ brew info git - информация по пакету $ brew install git - установка пакета $ brew update - обновление Homebrew (нужен git) $ brew list - список установленных пакетов $ brew uninstall git - удаление пакета $ brew outdated - список пакетов, для которых есть обновления ``` #### От себя: Я б советовал забыть о MacPort и работать с Brew, так как MacPort уж больно много зависимостей за собой тянет, при этом их все переустанавливает внезависимости от того есть в этом потребность или нет.
https://habr.com/ru/post/151023/
null
ru
null
# Генерация окружения на основе звука и музыки в Unity3D. Часть 2. Создание 2D трассы из музыки Аннотация --------- Всем привет. Относительно недавно я написал статью [Генерация окружения на основе звука и музыки в Unity3D](https://habr.com/company/everydaytools/blog/429872/), в которой привел несколько примеров игр, задействующих механику генерации контента на основе музыки, а так же рассказал про базовые аспекты подобных игр. В статье практически не было кода и я пообещал, что будет продолжение. И вот оно, перед вами. На этот раз мы попытаемся создать трассу для 2D гонки, в стиле Hill Climb, из вашей музыки. Посмотрим, что у нас получится.. ![](https://habrastorage.org/r/w1560/webt/wp/6y/jk/wp6yjkpyoal7a3bzsg0ugeiuyvs.png) Введение -------- Я напомню, что этот цикл статей рассчитан для начинающих разработчиков и для тех, кто только недавно начал работать с звуком. Если вы в уме делаете быстрое преобразование Фурье, то, вероятно, тут вам будет скучно. Вот наш Road Map на сегодня: 1. Рассмотреть, что такое дискретизация 2. Выяснить, какие данные мы можем получить из Audio Clip Unity 3. Понять, как мы можем работать с этими данными 4. Узнать, что мы можем генерировать исходя из этих данных 5. Научиться тому, как из всего этого сделать игру (ну, или что-то похожее на игру) Итак, поехали! Дискретизация аналогового сингала --------------------------------- Как многие знают, чтобы использовать сигнал в цифровых системах, нам нужно его преобразовать. Один из шагов преобразования — это дискретизация сигнала, при котором аналоговый сигнал разбивается на части (временные отчеты), после которого каждому отчету присватывается то значение амплитуды, которое было в выбранный момент. ![](https://habrastorage.org/r/w1560/webt/k-/r4/_0/k-r4_0pvvu8sxhcdxaybjnpsn0q.png) Буквой Т обозначен период дискретизации. Чем меньше период, тем точнее будет преобразование сигнала. Но чаще всего говорят об обратной величине: Частотой дискретизации (логично, что это F = 1/T). Для телефонного сингала хватит 8 000 Гц, а, например, один из вариантов формата DVD-Audio требует частоты дискретизации 192 000 Гц. Стандарт в цифровой записи (в игровых редакторах, музыкальных редакторах) равняется 44 100 Гц — это частота CD Audio. Числовые значения амплитуды хранятся в так называемых сэмплах и именно с ними мы будем работать. Значение сэмпла float и оно может быть от -1 до 1. Упрощенно это выглядит вот так. ![](https://habrastorage.org/r/w1560/webt/sj/rg/r7/sjrgr7njjj7iwmyi6nebdtpfxze.png) Отрисовка звуковой волны (статично) ----------------------------------- ### Базовая информация Волновая форма (или аудио-форма, а в простонародье — "рыба") — визуальное представление звукового сигнала во времени. Волновая форма может показать нам, в каком моменте звука происходит активная фаза, а где наступает затухание. Часто волновая форма представлена для каждого канала отдельно, например, вот так: ![](https://habrastorage.org/r/w1560/webt/hj/xr/vm/hjxrvm-bdrgt-myieappnmqxgb0.png) Представим что у нас уже есть AudioSource и скрипт, в котором мы работаем. Давайте разберемся, что нам может дать Unity. ``` // Получаем AudioSource от нашего объекта AudioSource myAudio = gameObject.GetComponent(); // Сохраняем частоту дискретизации нашего аудиофайла. По умолчанию она равна 44100. int freq = myAudio.clip.frequency; ``` ### Выбор кол-ва отчетов Прежде чем мы пойдем дальше, нужно немного поговорить о глубине отрисовки нашего звука. При частоте дискретизации 44100 Гц в каждую секунду нам доступно для обработки 44100 отчетов. Допустим, нам нужно отрисовать трек длиной в 10 секунд. Каждый отчет мы будем рисовать линией в пиксель шириной. Получается, наша осциллограмма будет длинной 441000 пикселей. Получится очень длинная, вытянутая и мало понятная звуковая волна. Но, в ней вы сможете разглядеть каждый конкретный отчет! А еще вы страшно нагрузите систему, независимо от того, как вы это будете рисовать. ![](https://habrastorage.org/r/w1560/webt/qr/yf/j6/qryfj6qyv0v5mrbzjfqz6qcws_y.png) Если вы не делаете профессиональный аудио-софт, вам такая точность не нужна. Для общей аудио-картины мы можем разбить все семплы на более крупные периоды и брать, например, среднее по каждым 100 семплам. Тогда наша волна будет иметь вполне внятную форму: ![](https://habrastorage.org/r/w1560/webt/2v/yk/kz/2vykkzw2wtewvjzcwsfsz_h1zvq.png) Конечно же, это не совсем точно, так как вы можете пропустить пики громкости, которые вам могут быть нужны, поэтому можно попробовать не среднее значение, а максимальное из данного отрезка. Это даст немного другую картину, но ваши пики не пропадут. ### Подготовка к получению аудиоданных Давайте определим точность нашей выборки, как quality, а итоговое количествово отчетов, как sampleCount. ``` int quality = 100; int sampleCount = 0; sampleCount = freq / quality; ``` Пример расчета всех цифр будет ниже. Далее нам нужно получить сами сэмплы. Это можно сделать из аудиоклипа, с помощью метода **GetData**. ``` public bool GetData(float[] data, int offsetSamples); ``` Этот метод принимает в себя массив, куда он записывает семплы. offsetSamples — параметр, который отвечает за начальную точку чтения массива данных. Если вы читаете массив с начала, то там должен быть ноль. Чтобы записать сэмплы, нам нужно подготовить для них массив. Например, вот так: ``` float[] samples; float[] waveFormArray; //Сюда мы запишем уже усредненные данные samples = new float[myAudio.clip.samples * myAudio.clip.channels]; ``` Почему мы умножили длину на количество каналов? Сейчас расскажу... ### Информация об аудиоканалах в Unity Многие знают, что в звуке мы обычно используем два канала: левый и правый. Кто-то знает, что есть системы 2.1, а так же 5.1, 7.1 в которых источники звука окружают со всех сторон. Тема каналов хорошо описана [на вики](https://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%8A%D1%91%D0%BC%D0%BD%D1%8B%D0%B9_%D0%B7%D0%B2%D1%83%D0%BA). Как это устроено в Unity? При загрузке файла, при открытии клипа, можно найти вот такое изображение: ![](https://habrastorage.org/r/w1560/webt/us/hy/tu/ushytu2q3jhyyl8sbx9tclnaf9i.png) Тут как раз показано, что у нас есть два канала, и можно даже заметить, что они отличаются друг от друга. Unity записывает сэмплы этих каналов друг за другом. Получается вот такая картина: ![$[L_1, R_1, L_2, R_2, L_3, R_3, L_4, R_4,L_5, R_5, L_6, R_6,L_7, R_7, L_8, R_8...]$](https://habrastorage.org/getpro/habr/formulas/d8d/91a/435/d8d91a435930ca1355be75f96d38d561.svg) Именно поэтому нам нужно в два раза больше места в массиве, чем просто для количества сэмплов. Если вы выберете опцию клипа Force To Mono, то канал будет один и весь звук будет в центре. Превью вашей волны сразу поменяется. ![](https://habrastorage.org/r/w1560/webt/fx/pk/-f/fxpk-fvqtdsvhfvfyyvl1mjrjla.png) ![](https://habrastorage.org/r/w1560/webt/po/62/s8/po62s86xpcbainozvupbpekwdig.png) ### Получение аудиоданных Вот что у нас выходит: ``` private int quality = 100; private int sampleCount = 0; private float[] waveFormArray; private float[] samples; private AudioSource myAudio; void Start() { myAudio = gameObject.GetComponent(); int freq = myAudio.clip.frequency; sampleCount = freq / quality; samples = new float[myAudio.clip.samples \* myAudio.clip.channels]; myAudio.clip.GetData(samples,0); // создаем массив, куда запишем усредненные сэмплы. Из него мы будем рисовать волну waveFormArray = new float[(samples.Length / sampleCount)]; //Дальше проходим по нашему массиву и находим среднее значение в каждой группе сэмплов for (int i = 0; i < waveFormArray.Length; i++) { waveFormArray[i] = 0; for (int j = 0; j < sampleCount; j++) { //Abs тут использован для создания "красивой" и зеркально отраженной волны. См. ниже waveFormArray[i] += Mathf.Abs(samples[(i \* sampleCount) + j]); } waveFormArray[i] /= sampleCount; } } ``` Итого, если трек идет 10 секунд и он двухканальный, то мы получаем следующее: * Количество сэмплов в клипе (myAudio.clip.sample) = 44100 \* 10 = 441000 * Длинна массива сэмплов для двух каналов (samples.Length) = 441000 \* 2 = 882000 * Количество отчетов (sampleCount) = 44100 / 100 = 441 * Длинна финального массива = samples.Length / sampleCount = 2000 В итоге, мы будем работать с 2000 точками, которых нам вполне хватит для отрисовки волны. Теперь нужно включать фантазию и думать, как мы можем использовать эти данные. ### Отрисовка аудиоинформации #### Создание простой аудиодорожки с помощью Debug-средств Как многие знают, в Unity есть удобные средства для вывода разного рода Debug-информации. Толковый разработчик на основе этих средств может сделать, например, весьма мощные расширения для редактора. Наш случай показывает весьма нетипичное использование Debug-методов. Для отрисовки нам нужна линия. Её мы можем сделать с помощью вектора, который будет создан из значений нашего массива. Учтите, чтобы сделать красивую зеркальную аудиоформу, нам нужно "склеить" две половинки нашей визуализации. ``` for (int i = 0; i < waveFormArray.Length - 1; i++) { //Создание вектора для верхней половины аудиоформы Vector3 upLine = new Vector3(i * .01f, waveFormArray[i] * 10, 0); //Создание вектора для нижней половины аудиоформы Vector3 downLine = new Vector3(i * .01f, -waveFormArray[i] * 10, 0); } ``` Далее просто используем Debug.DrawLine для отрисовки наших векторов. Цвет можете выбрать любой. Все эти методы нужно вызывать в Update, так мы будет обновлять информацию каждый кадр. ``` Debug.DrawLine(upLine, downLine, Color.green); ``` Если хотите, можно добавить "бегунок", который будет показывать текущую позицию играемого трека. Эту информацию можно получить из поля "AudioSource.timeSamples". ``` private float debugLineWidth = 5; //Создание "бегунка" на аудиоформе. Положение привязано к текущему временному сэмплу int currentPosition = (myAudio.timeSamples / quality) * 2; Vector3 drawVector = new Vector3(currentPosition * 0.01f, 0, 0); Debug.DrawLine(drawVector - Vector3.up * debugLineWidth, drawVector + Vector3.up * debugLineWidth, Color.white); ``` Итого, вот наш скрипт: ``` using UnityEngine; public class WaveFormDebug : MonoBehaviour { private readonly int quality = 100; private int sampleCount = 0; private int freq; private readonly float debugLineWidth = 5; private float[] waveFormArray; private float[] samples; private AudioSource myAudio; private void Start() { myAudio = gameObject.GetComponent(); //Базовые расчеты freq = myAudio.clip.frequency; sampleCount = freq / quality; //Получение аудиоданных samples = new float[myAudio.clip.samples \* myAudio.clip.channels]; myAudio.clip.GetData(samples, 0); //Создание массива с данными для отрисовки аудиоформы waveFormArray = new float[(samples.Length / sampleCount)]; for (int i = 0; i < waveFormArray.Length; i++) { waveFormArray[i] = 0; for (int j = 0; j < sampleCount; j++) { waveFormArray[i] += Mathf.Abs(samples[(i \* sampleCount) + j]); } waveFormArray[i] /= sampleCount; } } private void Update() { for (int i = 0; i < waveFormArray.Length - 1; i++) { //Создание вектора для верхней половины аудиоформы Vector3 upLine = new Vector3(i \* 0.01f, waveFormArray[i] \* 10, 0); //Создание вектора для нижней половины аудиоформы Vector3 downLine = new Vector3(i \* 0.01f, -waveFormArray[i] \* 10, 0); //Отрисовка Debug информации Debug.DrawLine(upLine, downLine, Color.green); } //Создание "бегунка" на аудиоформе. Положение привязано к текущему временному сэмплу int currentPosition = (myAudio.timeSamples / quality) \* 2; Vector3 drawVector = new Vector3(currentPosition \* 0.01f, 0, 0); Debug.DrawLine(drawVector - Vector3.up \* debugLineWidth, drawVector + Vector3.up \* debugLineWidth, Color.white); } } ``` А вот результат: ![](https://habrastorage.org/r/w1560/webt/gq/ij/fd/gqijfdc9d3b6t1nemd-wqsxqn70.png) #### Создание плавного звукового ландшафта с помощью PolygonCollider2D Прежде чем приступить к данному разделу, хочу отметить следующее: кататься по сгенерированной из музыки трассе, конечно же, весело, но с точки зрения геймплея практически бесполезно. И вот почему: 1. Для того, чтобы трасса была проходимой, нужно сгладить наши данные. Все пики пропадают и вы практически перестаете "чувствовать вашу музыку" 2. Обычно музыкальные треки весьма сильно скомпрессированы и представляют собой звуковой кирпич, который плохо подходит для 2D-игры. 3. Не решенный вопрос скорости нашего транспорта, который должен подходить под скорость трека. Этот вопрос я хочу рассмотреть в следующей статье. Поэтому, в качестве эксперимента, такой тип генерации довольно забавный, но реальную геймплейную фичу на его основе сделать сложно. В любом случае, продолжим. Итак, нам нужно сделать PolygonCollider2D с помощью наших данных. Это сделать просто. У PolygonCollider2D есть публичное поле points, которое принимает Vector2[]. Нужно для начала перенести наши точки в вектора нужного вида. Сделаем функцию для перевода массива наших сэмплов в векторный массив: ``` private Vector2[] CreatePath(float[] src) { Vector2[] result = new Vector2[src.Length]; for (int i = 0; i < size; i++) { result[i] = new Vector2(i * 0.01f, Mathf.Abs(src[i] * lineScale)); } return result; } ``` После этого, просто передаем наш полученный массив векторов в коллайдер: ``` path = CreatePath(waveFormArray); poly.points = path; ``` Смотрим результат. Вот начало нашего трека… хм… выглядит не сильно проходимым (о визуализации пока что не думайте, комментарии будут позже). ![](https://habrastorage.org/r/w1560/webt/e-/3e/ry/e-3eryzi385zy3f4r-hvnsi0iwc.png) У нас слишком резкая аудиоформа, поэтому трасса выходит странной. Нужно её сгладить. Здесь нам пригодится алгоритм скользящего среднего. Более подробно про него можно прочитать на Хабре, в статье [Алгоритм скользящего среднего (Simple Moving Average)](https://habr.com/post/134375/). В Unity алгоритм реализуется следующим образом: ``` private float[] MovingAverage(int frameSize, float[] data) { float sum = 0; float[] avgPoints = new float[data.Length - frameSize + 1]; for (int counter = 0; counter <= data.Length - frameSize; counter++) { int innerLoopCounter = 0; int index = counter; while (innerLoopCounter < frameSize) { sum = sum + data[index]; innerLoopCounter += 1; index += 1; } avgPoints[counter] = sum / frameSize; sum = 0; } return avgPoints; } ``` Модифицируем наше создание пути: ``` float[] avgArray = MovingAverage(frameSize, waveFormArray); path = CreatePath(avgArray); poly.points = path; ``` Проверяем... ![](https://habrastorage.org/r/w1560/webt/m5/rk/sb/m5rksbekvjfd45482gbgprvnmn0.png) Теперь наша трасса выглядит вполне нормально. Я использовал ширину окна равную 10. Вы можете модифицировать этот параметр, чтобы подобрать нужное вам сглаживание. Вот полный скрипт данного раздела: ``` using UnityEngine; public class WaveFormTest : MonoBehaviour { private const int frameSize = 10; public int size = 2048; public PolygonCollider2D poly; private readonly int lineScale = 5; private readonly int quality = 100; private int sampleCount = 0; private float[] waveFormArray; private float[] samples; private Vector2[] path; private AudioSource myAudio; private void Start() { myAudio = gameObject.GetComponent(); int freq = myAudio.clip.frequency; sampleCount = freq / quality; samples = new float[myAudio.clip.samples \* myAudio.clip.channels]; myAudio.clip.GetData(samples, 0); waveFormArray = new float[(samples.Length / sampleCount)]; for (int i = 0; i < waveFormArray.Length; i++) { waveFormArray[i] = 0; for (int j = 0; j < sampleCount; j++) { waveFormArray[i] += Mathf.Abs(samples[(i \* sampleCount) + j]); } waveFormArray[i] /= sampleCount \* 2; } //Получаем сглаженный массив, с шириной окна frameSize float[] avgArray = MovingAverage(frameSize, waveFormArray); path = CreatePath(avgArray); poly.points = path; } private Vector2[] CreatePath(float[] src) { Vector2[] result = new Vector2[src.Length]; for (int i = 0; i < size; i++) { result[i] = new Vector2(i \* 0.01f, Mathf.Abs(src[i] \* lineScale)); } return result; } private float[] MovingAverage(int frameSize, float[] data) { float sum = 0; float[] avgPoints = new float[data.Length - frameSize + 1]; for (int counter = 0; counter <= data.Length - frameSize; counter++) { int innerLoopCounter = 0; int index = counter; while (innerLoopCounter < frameSize) { sum = sum + data[index]; innerLoopCounter += 1; index += 1; } avgPoints[counter] = sum / frameSize; sum = 0; } return avgPoints; } } ``` Как я уже говорил в начале раздела, при таком сглаживании мы перестаем чувствовать трек, кроме того, скорость машинки не привязана к скорости музыки (BPM). Эту проблему мы разберем в следующей части данного цикла статей. Кроме того, там же мы затронем тему спец. эффектов под бит. Машинку я, кстати, взял из этого [бесплатного ассета](https://assetstore.unity.com/packages/tools/physics/2d-car-73763). Наверное, многие из вас, глянув на скрины, задались вопросом, как я нарисовал саму трассу? Ведь коллайдеров не видно. Я воспользовался мудростью интернета и нашел способ, с помощью которого вы можете превратить полигон коллайдер в меш, которому вы можете присвоить любой материал, а line renderer сделает стильный контур. Подробно этот способ описан вот [тут](http://answers.unity3d.com/questions/835675/how-to-fill-polygon-collider-with-a-solid-color.html). Triangulator вы можете взять на [Unity Community](http://wiki.unity3d.com/index.php/Triangulator). Завершение ---------- То, что мы с вами изучили в этой статье — это базовый набросок для музыкальной игр. Да, в таком виде он, пока что, немного неказистый, но вы уже можете смело сказать "Ребята, я сделал так, чтобы машинка ездила по аудио-дорожке!". Чтобы сделать из этого реальную игру, нужно приложить много сил. Вот список того, что мы можем тут сделать: 1. Привязать скорость машинки к BPM трека. Игрок сможем управлять только наклоном автомобиля, но не скоростью. Тогда музыка намного сильнее будет чувствоваться в процессе прохождения трассы. 2. Сделать бит-детектор и добавить спец. эффекты, которые будут срабатывать под бит. Кроме того, можно добавить анимацию на корпус автомобиля, который будет подпрыгивать на ударе бита. Тут уже всё зависит от вашей фантазии. 3. Вместо скользящего среднего нужно более грамотно обработать трек и получить массив данных так, чтобы пики не пропадали, но при этом трассу было строить легко. 4. Ну, и, конечно же, нужно сделать геймплей интересным. Можно разместить на каждый удар бита монетки, добавить опасные зоны и т.п. Все это и многое другое будем изучать в остальных частях данного цикла статей. Всем спасибо за чтение!
https://habr.com/ru/post/432134/
null
ru
null
# Многострочный textarea placeholder, который работает в Firefox [![image](https://habrastorage.org/r/w780q1/files/669/2f4/f26/6692f4f267984b0ca0fd565cdd9577c6.jpg)](http://habrahabr.ru/post/268947/) Понадобилось сделать многострочный placeholder в textarea. Выяснилось, что Firefox, в отличие от всех других современных браузеров, не поддерживает перенос строки в элементе placeholder. Хотя делает он это в соответствии с W3C спецификацией — радости это не добавляет. Все нагугленные решения не понравились. Ставить JQuery-плагины только ради переноса строк в Firefox не хотелось. Решил попробовать сделать свой placeholder во вспомогательном блоке. В итоге получилось вот такое простое решение, которое работает во всех браузерах и предоставляет широкие возможности для кастомизации placeholder. Стандартное поведение реализуется с помощью jQuery (используется у меня в проекте, при необходимости легко заменяется чистым JS). Если вам нравится скрывать placeholder, когда поле попадает в фокус, то можно обойтись только CSS. Посмотреть [пример](http://jsfiddle.net/tropic/74na7vkh/) на jsfiddle. **UPD** Спасибо [gwer](https://habrahabr.ru/users/gwer/) за подсказки. Изменения и уточнения: * на чистом CSS работать не будет, без JS не обойтись * в JS нужно использовать событие 'input'. Тогда placeholder исчезает и при вставке из буфера обмена через контекстное меню. ``` Multiline textarea placeholder that works in Firefox ```
https://habr.com/ru/post/268947/
null
ru
null
# Создание плагина для Clang Static Analyzer для поиска целочисленных переполнений ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e69/d01/efb/e69d01efbeff395f19dbb543055a5493.jpg "рис. 1") *Автор статьи: [0x64rem](https://habr.com/ru/users/0x64rem/)* Вступление ---------- Полтора года назад у меня появилась идея реализовать свой фазер в рамках дипломной работы в университете. Я начала изучать материалы про графы потока управления, графы потока данных, символьное исполнение и т.д. Далее шёл поиск тулз, проба разных библиотек (Angr, Triton, Pin, Z3). Ничего конкретного в итоге не получилось, пока этим летом я не отправилась на летнюю программу Summer of Hack 2019 от [Digital Security](https://dsec.ru), где в качестве темы проекта мне было предложено расширение возможностей Clang Static Analyzer. Мне показалось, что эта тема поможет мне расставить по полкам мои теоретические знания, приступить к реализации чего-то существенного и получить рекомендации от опытных менторов. Далее я расскажу вам, как проходил процесс написания плагина и опишу ход своих мыслей в течение месяца стажировки. Clang Static Analyzer --------------------- Для разработки Clang предоставляет три варианта интерфейсов для взаимодействия: * [LibClang](https://clang.llvm.org/doxygen/group__CINDEX.html) — высокоуровневый C интерфейс, который позволяет взаимодействовать с AST, но не полноценно. Хороший вариант, если вам требуется взаимодействие с другим языком (например, реализация [bindings](https://en.wikipedia.org/wiki/Language_binding)) или стабильный интерфейс. * [Clang Plugins](http://clang.llvm.org/docs/ClangPlugins.html) — динамические библиотеки, вызываемые во время компиляции. Даёт полноценно манипулировать AST. * [LibTooling](http://clang.llvm.org/docs/LibTooling.html) — библиотека для создания отдельных инструментов на основе Clang. Также даёт полный доступ к взаимодействию с AST. Полученный код можно запускать вне среды сборки проверяемого проекта. Так как мы собираемся расширять возможности Clang Static Analyzer, то выбираем реализацию плагина. Писать код для плагина можно на C++ или Python. Для последнего есть [биндинги](https://en.wikipedia.org/wiki/Language_binding), которые разрешают парсить исходный код, перебирать ноды полученного абстрактного синтаксического дерева, также имеют доступ к свойствам нод и могут сопоставлять ноду строке исходного кода. Такой набор подойдёт для простого чекера. Подробнее ознакомиться с кодом можно в [репозитории llvm](https://github.com/llvm-mirror/clang/tree/master/bindings/python). Для моей задачи требуется детальный анализ кода, поэтому для разработки был выбран C++. Далее идёт знакомство с инструментом. [Clang Staic Analyzer](https://clang.llvm.org/docs/ClangStaticAnalyzer.html) (далее CSA) — инструмент для статического анализа C/C++/Objective-C кода, работающий на основе символьного исполнения. Анализатор можно вызвать через фронтенд Clang'а, добавив флаги -cc1 и -analyze к команде сборки, или через отдельный бинарь scan-build. Кроме самого анализа, CSA даёт возможность генерировать наглядные html-отчёты. ``` # команда, чтобы посмотреть флаги для фронтенда clang'а clang -cc1 --help # запуск CSA способ №1 clang++ -cc1 -x c++ -load path/to/Checker.so -analyze -analyzer-checker=test.Me -analyzer-config $BUILD_OPTIONS Checker.cpp ``` ``` # запуск CSA способ №2 scan-build -load-plugin path/to/Checker.so -enable-checker test.Me $BUILD_COMMAND ``` ``` # пример генерации отчёта для встроенного чекера DivideZero clang++ -cc1 -analyze -analyzer-checker=core.DivideZero -o reports div-by-zero-test.cpp ``` ![пример отчёта](https://habrastorage.org/r/w780q1/getpro/habr/post_images/6dd/b8e/302/6ddb8e302c62b6cc58c4533a894d49e9.jpg "рис. 2") CSA имеет отличную библиотеку для синтаксического анализа исходного кода при помощи обхода AST (Abstract Syntax Tree), CFG (Control Flow Graph). Из структур далее можно увидеть декларации переменных, их типы, использование бинарных и унарных операторов, можно получать символьные выражения и т.д. Мой плагин будет использовать функционал AST классов, такой выбор будет обоснован далее. Ниже перечислен список классов, который был использован в реализации плагина, список поможет получить первичное понимание о возможностях CSA: * Stmt — сюда относятся бинарные операции. * Decl — объявление переменных. * Expr — хранит левые, правые части выражений, их тип. * ASTContext — информация о дереве, текущей ноде. * Source manager — информация о фактическом коде, который соответствует части дерева. * RecursiveASTVisitor, ASTMatcher — классы для обхода дерева. Повторюсь, что CSA предоставляет разработчику возможность детально рассмотреть структуру кода, и классы, перечисленные выше, это лишь небольшая часть доступного. Обязательно рекомендую полистать [документацию](https://clang.llvm.org/doxygen/dir_b7f1fb8e22c16abc1bb9b644ee717a58.html) вашей версии Clang, если вы не знаете, как извлечь какие-то данные; скорее всего, что-то подходящее уже написано. Поиск целочисленных переполнений -------------------------------- Чтобы начать реализовывать плагин, нужно выбрать задачу, которую он будет решать. Для этого случая сайт llvm предоставляет [списки потенциальных чекеров](https://clang-analyzer.llvm.org/potential_checkers.html), также можно доработать существующие [стабильные](https://clang.llvm.org/docs/analyzer/checkers.html) или [альфа](https://clang.llvm.org/docs/analyzer/checkers.html#alpha-checkers) чекеры. В ходе ознакомления с кодом имеющихся чекеров, стало понятно, что для более успешного освоения libclang лучше написать свой чекер с нуля, поэтому выбор делался из листа [нереализованных идей](https://clang-analyzer.llvm.org/potential_checkers.html). В итоге был выбран вариант создания чекера для детекта целочисленных переполнений (integer overflow). В Clang уже есть функционал для предупреждения этой уязвимости (для его применения указывают флаги -ftrapv, -fwrapv и подобные), он встроен в компилятор, и такой выхлоп сыпется в warnings, а туда смотрят нечасто. Ещё есть [UBSan](https://clang.llvm.org/docs/UndefinedBehaviorSanitizer.html), но это санитайзеры, их используют не все, и этот метод — про выявление проблем во время исполнения, а плагин для CSA работает во время компиляции, анализируя исходники. Далее идёт сбор материала по выбранной уязвимости. Прежде integer overflow казалось чем-то простым и не серьёзным. На самом деле, уязвимость занятная и может иметь внушительные последствия. Целочисленные переполнения — это тип уязвимостей, в результате которых данные целочисленного типа в коде могут принимать неожиданные значения. Overflow — если переменная стала больше, чем это было задумано, Underflow — меньше, чем её первоначальный тип. Такие ошибки могут появляться как из-за программиста, так и из-за компилятора. В C++ во время операции сравнения арифметики целочисленные значения приводятся к одному типу, чаще к большему по разрядности. И такие приведения происходят везде и постоянно, они могут быть явными или неявными. Есть несколько правил, по которым происходят приведения [1]: * Преобразование со знаком в тип со знаком, но большей разрядности: просто добавляются старшие разряды. * Преобразование целого со знаком в целое без знака одной разрядности: отрицательное преобразуется в положительное и примет новое значение. Пример подобной ошибки в DirectFB — [CVE-2014-2977](https://github.com/DirectFB/directfb/blob/e97c8d40ae10585ad10cb55800efcd2ea13fbdf8/proxy/dispatcher/idirectfbsurface_dispatcher.c#L1714). * Преобразование целого со знаком в целое без знака большей разрядности: сначала разрядность расширится, затем, если число отрицательное, то оно некорректно поменяет значение. Например: 0xff (-1) станет 0xffffffff. * Целое без знака в целое со знаком той же разрядности: число может поменять значение, в зависимости от значения старшего бита. * Целое без знака в целое со знаком большей разрядности: сначала повышается разрядность беззнакового числа, потом перевод в знаковое. * Понижающее преобразование: биты просто усекаются. Это может сделать беззнаковые значения отрицательными и прочее. Пример такой [уязвимости в PHP](http://www.php-security.org/MOPB/MOPB-38-2007.html). Т.е. триггером для уязвимости может послужить небезопасный пользовательский ввод, некорректная арифметика, неверное приведение типа, вызванное программистом или компилятором в ходе оптимизации. Также возможен вариант time bomb, когда фрагмент кода безобиден с одной версией компилятора, но с выходом нового алгоритма оптимизации "взрывается" и вызывает непредвиденное поведение. В истории уже был такой случай с классом SafeInt (очень иронично) [5, 6.5.2]. Целочисленные переполнения открывают широкий вектор: возможно заставить выполнение пойти по другому пути (если переполнение затрагивает условные операторы), вызвать переполнение буфера. Для наглядности можно ознакомиться с конкретными CVE, посмотреть их причины, последствия. Естественно искать лучше integer overflow в опенсорных продуктах, чтобы не только описание читать, но и код посмотреть. * [CVE-2019-3560](https://blog.semmle.com/facebook-fizz-CVE-2019-3560/) — Integer overflow в Fizz (проект, реализующий TLS для Facebook) можно было эксплуатировать уязвимость для DoS-атак, используя скрафченный сетевой пакет. * [CVE-2018-14618](https://curl.haxx.se/docs/CVE-2018-14618.html) — Переполнение буфера в Curl'е вызывалось целочисленным переполнением из-за длины пароля. * [CVE-2018-6092](https://bugs.chromium.org/p/chromium/issues/detail?id=819869) — На 32-битных системах уязвимость в WebAssembly для Chrome позволяла осуществлять RCE через специальную HTML-страницу. Чтобы не изобретать велосипеды, был рассмотрен код для детектирования integer overflow в статическом анализаторе [CppCheck](https://github.com/danmar/cppcheck). Его подход следующий: 1. Определить, является ли выражение бинарным оператором. 2. Если да, то проверить, оба ли аргумента имеют целочисленный тип. 3. Определить размер типов. 4. Проверить при помощи вычислений, может ли значение выйти за свои границы максимума или минимума. Но на этом этапе это не дало ясности. Получается много разных сюжетов, и от этого систематизация информации становится сложнее. На свои места всё поставил список [CWE](https://cwe.mitre.org/data/definitions/190.html). Всего на сайте выделено 9 типов integer overflow: * 190 — integer oveflow * 191 — integer underflow * 192 — integer coertion error * 193 — off-by-one * 194 — Unexpected Sign Extension * 195 — Signed to Unsigned Conversion Error * 196 — Unsigned to Signed Conversion Error * 197 — Numeric Truncation Error * 198 — Use of Incorrect Byte Ordering Рассматриваем причину для каждого варианта и понимаем, что переполнения происходят при некорректном явном/неявном приведении. И т.к. в структуре абстрактного синтаксического дерева отображаются любые приведения, будем использовать AST для анализа. На рисунке ниже (рис. 3), видно, что любая операция, вызывающая приведение в дереве, является отдельным узлом, и, бродя по дереву, мы можем проверять все приведения типов, опираясь на таблицу с преобразованиями, которые могут вызвать ошибку. | | Sign G | Sign L | Sign E | Unsign G | Unsign L | Unsign E | | --- | --- | --- | --- | --- | --- | --- | | Sign | + | - | + | - | - | - | | Unsign | + | - | - | - | - | + | ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e72/315/acb/e72315acbeaf57dcf7ea2f85670fe4e0.jpg "рис. 3") Конкретнее алгоритм звучит так: ходим по Cast'ам и смотрим IntegralCast (целочисленные преобразования). Если нашли подходящую ноду, смотрим на потомков в поисках бинарной операции или Decl (объявления переменной). В первом случае надо проверить знак и разрядность, которые использует бинарная операция. Во втором случае, сравнить только тип декларации. Реализация чекера ----------------- Приступим к реализации. Нужен скелет для чекера, который может быть stand-alone библиотекой, а может быть собран как часть Сlang. В коде разница будет небольшой. Если вы уже собрались писать свой плагин, то рекомендую сразу прочитать небольшой pdf: ["Clang Static Analyzer: A Checker Developer's Guide"](https://github.com/haoNoQ/clang-analyzer-guide/releases/download/v0.1/clang-analyzer-guide-v0.1.pdf), там отлично описаны базовые вещи, правда, что-то может быть уже не актуально, библиотека обновляется регулярно, но базу вы схватите сразу. Если вы хотите добавить ваш чекер в вашу сборку clang, то необходимо: 1. Написать сам чекер примерно с таким содержанием: ``` namespace { class SuperChecker : public Checker> { // Наследовать вы будете один из классов чекеров, которые имеют виртуальные функции. Задача реализовать их под ваши нужды struct CheckerOpts { // структура для передачи входных аргументов чекера string FlagOne; int FlagTwo; }; CheckerOpts Opts; //cool code }; } void ento::registerSuperChecker(CheckerManager &mgr) { auto checker = mgr.registerChecker(); // если чекеру нужны входные параметры от пользователя, то следующие 4 строчки описывают это // этот вариант подходит только для встроенного чекера, для stand-alone пример кода описан ниже. AnalyzerOptions &AnOpts = mgr.getAnalyzerOptions(); SuperChecker::CheckerOpts &ChOpts = checker->Opts; ChOpts.FlagOne = AnOpts.getCheckerStringOption("Inp1", "", checker); ChOpts.FlagTwo = AnOpts.getCheckerIntegerOption("Inp2", 0, checker); //аргументы getCheckerIntegerOption: имя параметра, дефолтное значение, экземпляр чекера } ``` 2. Потом в исходниках Clang'а потребуется изменить файлы `CMakeLists.txt` и `Checkers.td`. Живут примерно тут `${llvm-source-path}/clang/lib/StaticAnalyzer/Checkers/CMakeLists.txt` и тут `${llvm-source-path}/clang/include/clang/StaticAnalyzer/Checkers/Checkers.td`. В первом нужно просто добавить имя файла с кодом, во втором нужно добавить структурное описание: ``` #Checkers.td def SuperChecker : Checker<"SuperChecker">, HelpText<"test checker">, Documentation; ``` Если непонятно, то в файле `Checkers.td` достаточно примеров, как и что делать. Скорее всего вам не захочется пересобирать Clang, и вы прибегните к варианту со сборкой библиотеки (so/dll). Тогда в коде чекера должно быть примерно следующее: ``` namespace { class SuperChecker : public Checker> { // Наследовать вы будете один из классов чекеров, которые имеют виртуальные функции. Задача реализовать их под ваши нужды struct CheckerOpts { string FlagOne; int FlagTwo; }; CheckerOpts Opts; //cool code }; } void initializationFunction(CheckerManager &mgr){ SuperChecker \*checker = mgr.registerChecker(); // если чекеру нужны входные параметры от пользователя, то следующие 4 строчки описывают это AnalyzerOptions &AnOpts = mgr.getAnalyzerOptions(); TestChecker::CheckerOpts &ChOpts = checker->Opts; ChOpts.FlagOne = AnOpts.getCheckerStringOption("Inp1", "", checker); ChOpts.FlagTwo = AnOpts.getCheckerIntegerOption("Inp2", 0, checker); //аргументы getCheckerIntegerOption: имя параметра, дефолтное значение, экземпляр чекера } extern "C" void clang\_registerCheckers (CheckerRegistry &registry) { registry.addChecker(&initializationFunction, "test.Me", "SuperChecker description", "doc\_link"); } extern "C" const char clang\_analyzerAPIVersionString [] = "8.0.1"; ``` Далее собираете свой код, можно написать свой скрипт для сборки, но если у вас возникают какие-то проблемы с этим (как это было у автора :) ), то можно по-странному использовать Makefile в исходниках clang'a и команду make clangStaticAnalyzerCheckers. Далее вызываем чекер: * для встроенных чекеров ``` clang++ -cc1 -analyze -analyzer-checker=core.DivideZero test.cpp ``` * для внешних ``` clang++ -cc1 -load ${PATH_TO_CHECKER}/SuperChecker.so -analyze -analyzer-checker=test.Me -analyzer-config test.Me:UsrInp1="foo" test.Me:Inp1="bar" -analyzer-config test.Me:Inp2=123 test.cpp ``` На этом этапе у нас есть уже какой-то результат (рис. 4), но написанный код умеет детектить только потенциальные переполнения. А это значит — большое количество false positive срабатываний. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ac1/79d/29b/ac179d29b330efd513343fdd5f9a2ddd.jpg "рис. 4") Чтобы это исправить мы можем: * Ходить по графу туда-сюда и проверять конкретные значения переменных для случаев, когда у нас есть потенциальное переполнение. * Во время обхода AST сразу сохранять конкретные значения для переменных и проверять их когда потребуется. * Использовать Taint анализ. Чтобы подкрепить дальнейшие аргументы, стоит упомянуть, что при анализе Clang парсит также и все файлы, указанные в директиве `#include`, в результате размер полученного AST увеличивается. В итоге из предложенных вариантов, только один является рациональным относительно конкретной задачи: * Первое, требует много времени на выполнение. Хождение по дереву, поиск и подсчёт всего необходимого будет длится долго, анализировать большой проект таким кодом может стать затруднительно. Для хождения по дереву в коде мы будем использовать [класс](https://clang.llvm.org/doxygen/classclang_1_1RecursiveASTVisitor.html) `clang::RecursiveASTVisitor`, который выполняет рекурсивный поиск в глубину. Оценка времени такого подхода будет ![](https://wikimedia.org/api/rest_v1/media/math/render/svg/a7cf317fbe3965ae3164f28c1f6858696adb23f4 "оценка сложности"), где V — множество вершин, а E — множество рёбер графа. * Второе — можно конечно хранить, но мы не знаем, что нам будет нужно, а что нет. Кроме этого, сами древовидные структуры, которые мы используем при анализе, требуют много памяти, поэтому расходовать такие ресурсы на что-то ещё — плохая идея. * Третье — хорошая идея, для такого метода можно найти достаточно исследований и примеров. Но в CSA нет готового taint'а. Есть [чекер](https://github.com/franchiotta/taintchecker/tree/master/src), который позже был добавлен в список альфа чекеров (alpha.security.taint.TaintPropagation) в исходниках он описан в файле `GenericTaintChecker.cpp`. Чекер хороший, но подходит только для известных небезопасных функций ввода-вывода из C, "помечает" только переменные, которые были аргументами или результатами опасных функций. Кроме описанных вариантов, стоит учитывать глобальные переменные, поля классов и прочее, чтобы правильно восстановить модель "распространения". Оставшееся время на стажировке ушло на чтение `GenericTaintChecker.cpp` и попытки переделать его под свои нужды. Успешно сделать это к концу срока не вышло, но это осталось задачей для доработки уже за рамками обучения в DSec. Так же в ходе разработки стало ясно, что определять опасные функции — отдельная задача, не всегда опасные места в проекте идут из каких-то стандартных функций, поэтому чекеру был добавлен флаг для указания списка функций, которые будут считаться "отравленными"/"помеченными" во время taint анализа. Дополнительно была добавлена проверка, является ли переменная битовым полем. Стандартными средствами CSA размер определяется по типу, и если мы работаем с битовым полем, то его размер будет иметь значение разрядности типа всего поля, а не количеству бит, указанному в декларации переменной. Что в итоге? ------------ На данный момент реализован простой чекер, способный предупреждать только о потенциальных целочисленных переполнениях. Модифицированный класс для taint анализа, над которым предстоит ещё много работы. После, нужно использовать SMT для определения переполнений. Для этого подойдёт SMT-решатель Z3, который был добавлен в сборку Clang ещё в версии 5.0.0 (судя по [release notes](https://releases.llvm.org/5.0.0/tools/clang/docs/ReleaseNotes.html)). Для использования солвера необходимо, чтобы Clang был собран с опцией `CLANG_ANALYZER_BUILD_Z3=ON`, а при непосредственном вызове плагина CSA передаются флаги `-Xanalyzer -analyzer-constraints=z3`. [Репозиторий с результатами на GitHub](https://github.com/dR3m/IntOverflow-CSA-plugin) Ссылки: ------- 1. Ховард М., Лебланк Д., Вьега Дж. "24 греха компьютерной безопасности" 2. [How to Write a Checker in 24 Hours](https://llvm.org/devmtg/2012-11/Zaks-Rose-Checker24Hours.pdf) 3. [Clang Static Analyzer: A Checker Developer's Guide](https://github.com/haoNoQ/clang-analyzer-guide/releases/download/v0.1/clang-analyzer-guide-v0.1.pdf) 4. [CSA checker development manual](https://clang-analyzer.llvm.org/checker_dev_manual.html) 5. [Dietz W. et al. Understanding integer overflow in C/C++](https://pdfs.semanticscholar.org/ce98/eea75f56e3f0244b3c5593495992cc946d36.pdf)
https://habr.com/ru/post/473412/
null
ru
null
# Миграция микросервиса с геоданными с MS SQL на PostgreSQL ### Проблема Не секрет, что тема перехода в IT-сфере на технологии, не требующие дорогостоящего лицензирования становится всё более актуальной. В то же время, очевидно и стремление компаний попасть в Реестр отечественного ПО, чтобы получить разного рода преференции для себя и своих сотрудников. С точки зрения обновления технологического стека, мы воспользовались [методическими рекомендациями Реестра отечественного ПО](https://ru-ikt.ru/metodicheskiye_rekomendatsi/) и приняли решение о переводе наших проектов на технологии со свободными лицензиями, в частности .NET 6 и PostgreSQL. Это открыло нам путь как к оптимизации производительности приложений и уменьшению расходов на лицензирование, так и добавлению решений компании в реестр. В данной статье предлагаю рассмотреть путь по миграции географического микросервиса с MS SQL на PostgreSQL с фокусом на пространственные (spatial) типы данных. Вопрос стоимости лицензий и непосредственного сравнения MS SQL vs PostgreSQL опустим, т.к. эта тема весьма хорошо раскрыта в [DotNext-докладе](https://www.youtube.com/watch?v=3DcCX89Mz78) моего коллеги, Станислава Флусова ([@stus](/users/stus)). Рекомендую к просмотру! ### Пути миграции Поскольку типы данных и встроенные функции в MS SQL и PostgreSQL зачастую имеют свои особенности, нельзя просто так взять и накатить бэкап/скрипт одной СУБД на другую. Задача осложнялась еще и необходимостью перевести 150 ГиБ пространственных данных (типы GEOGRAPHY и GEOMETRY из MS SQL) в PostgreSQL. На рынке уже есть готовые решения, позволяющие передавать схему или данные из MS SQL в PostgreSQL: * [Babelfish от AWS](https://aws.amazon.com/rds/aurora/babelfish/) + Устанавливается как плагин на PostgreSQL и делает его совместимым с T-SQL синтаксисом, заставляя клиентское приложение думать, что оно работает с MS SQL. + В то же время, данное решение рассматривалось лишь как средство для быстрого перехода на PostgreSQL, которое имеет некоторые ограничения в совместимости с СУБД. + Babelfish пока что [не поддерживает пространственные типы данных](https://babelfishpg.org/docs/usage/limitations-of-babelfish/) GEOMETRY и GEOGRAPHY. * [AWS Schema Conversion tool](https://aws.amazon.com/dms/schema-conversion-tool/) + Утилита генерации SQL-скриптов со схемой БД для заданной СУБД на основе другой СУБД. + Мигрирует данные через специальные [data extraction agents](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/agents.html). + Миграция данных рассчитана на облако AWS. * Некоторое количество вариаций утилит по, непосредственно, импорту-экспорту пространственных данных. Например, [ogr2ogr](https://gdal.org/faq.html#what-is-this-ogr-stuff). + Утилита специализируется исключительно на пространственных данных и пришлось бы разделить процессы выгрузки их и других типов данных, что усложнило бы разработку. + Часть процесса выглядела бы так: MS SQL → файл с геоданными → PostgreSQL. + Довольно тернистый путь, как показалось. Рассмотрев различные варианты утилит и инструментов по миграции схем и данных, взвесив их плюсы и минусы, все же, решили обратиться к технологии, которую уже использовали в проекте, Entity Framework, и написать свой ~~велосипед~~ мигратор. ### О проекте Geography Данный микросервис был написан еще в 2016 году, основывается на .NET, использует MS SQL для хранения данных и Entity Framework в качестве ORM. Некоторое время назад было принято решение адаптировать данный проект под требования Реестра отечественного ПО, в том числе - обновить версии .NET, EF Core и, наконец, перевести хранение данных в PostgreSQL. Современные версии .NET предлагают не только свободную лицензию MIT, но также и существенный рост производительности (на эту тему есть целый [цикл статей](https://devblogs.microsoft.com/dotnet/performance_improvements_in_net_7/)) вместе с новыми возможностями для разработки. В то же время, PostgreSQL предлагает версионность данных "из коробки", которая эффективно решает проблему блокировок уровня манипуляций с данными (DML, при условии штатного функционирования сервера), бесплатное High Availability, вплоть до кластера, не говоря уже о read only и логических репликах. В добавок, получаем полную совместимость со стеком Linux и развитое сообщество. Да и кто же не любит новые технологии? Таков путь. Стоит отметить, что и Entity Framework Core уже достаточно зрелая ORM-технология. #### Составные части решения на момент начала перехода к PosgtreSQL: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/170/9b9/8f1/1709b98f1bb6372201b05d577306777b.png)* Api - ASP .NET web API * Api.Client - Клиент API * Business Logic Services - Слой бизнес-логики * EF.Sql - EF Core контекст БД, миграции схемы и данных БД, репозитории * Migration utility - консольная утилита для миграций схемы и данных. Используется для CI/CD. * Проекты с тестами API, сервисов, интеграционными тестами #### Технологический стек * .NET Core 3.1 * MS SQL Server 2016 * Entity Framework Core 5 + Все сущности конфигурируются через [Data Annotations](https://learn.microsoft.com/en-us/ef/core/modeling/entity-properties?tabs=data-annotations%2Cwithout-nrt). * ASP .NET Core 3.1 * Autofac в качестве DI-контейнера ### Рефакторинг проекта Для начала, из проекта контекста БД было выделено несколько слоёв: * Cущности EF в виде POCO-классов, без каких-либо ссылок на EF и без аннотаций/атрибутов, описывающих ограничения, ключи и связи между сущностями. * Интерфейсы + Для контекста EF. + Для конфигурирования контекста EF. + Для чтения/записи в БД, UnitOfWork - часть унифицированного подхода компании к работе с Data Access Layer Интерфейсы чтения/записи в БД. Фрагмент библиотеки Fortis.Common.DAL ``` // Copyright © 2022 ООО "Фортис", ГК "Монополия" namespace Fortis.Common.DataAccessLayer.Contracts; /// /// Предоставляет запрос на получение записей из хранилища /// Абстрагирован от конкретной СУБД и ORM /// public interface IDbReader { /// /// Предоставляет запрос на получение записей из хранилища /// IQueryable Read() where TEntity : class, IDbEntity; } /// /// Интерфейс создания и модификации записей в хранилище /// Абстрагирован от конкретной СУБД и ORM /// public interface IDbWriter { /// Добавить новую запись void Add(TEntity entity) where TEntity : class, IDbEntity; /// Изменить запись void Update(TEntity entity) where TEntity : class, IDbEntity; /// Удалить запись void Delete(TEntity entity) where TEntity : class, IDbEntity; } /// Сохранение изменений контекста public interface IDbUnitOfWork { /// Асинхронно сохраняет все изменения контекста в Db /// Число записей о состоянии, записанных в базу данных Task SaveChangesAsync(CancellationToken cancellationToken); /// Создает новую транзакцию IDbTransaction InTransaction(); } ``` Реализация интерфейсов ``` // Copyright © 2022 ООО "Фортис", ГК "Монополия" using System.Linq;
 using Fortis.Common.DataAccessLayer.Contracts;
 using Fortis.GeographyEF.Abstract;
 using Microsoft.EntityFrameworkCore; namespace Fortis.GeographyEF; partial class GeographyDbContext : IMsSqlGeographyDbReader, IMsSqlGeographyDbWriter, IDbUnitOfWork { void IDbWriter.Add(TEntity entity) => Entry(entity).State = EntityState.Added; void IDbWriter.Update(TEntity entity) => base.Entry(entity).State = EntityState.Modified; void IDbWriter.Delete(TEntity entity) => base.Entry(entity).State = EntityState.Deleted; IQueryable IDbReader.Read() => base.Set() .AsNoTracking() .AsQueryable(); Task IDbUnitOfWork.SaveChangesWithoutAuditAsync(CancellationToken cancellationToken) => SaveChangesAsync(cancellationToken); Task IDbUnitOfWork.SaveChangesAsync(CancellationToken cancellationToken) => SaveChangesWithDetachAsync(cancellationToken); IDbUnitOfWork.IDbTransaction InTransaction() { var internalTransaction = Database.BeginTransaction(); return new GeographyDbTransaction(internalTransaction); } /// /// Метод сохраняет изменения с Detach модифицированных сущностей /// internal async Task SaveChangesWithDetachAsync(CancellationToken cancellationToken) { var count = await base.SaveChangesAsync(cancellationToken); foreach (var entry in base.ChangeTracker.Entries().ToArray()) { entry.State = EntityState.Detached; } return count; } } ``` * Сам DbContext для MS SQL, реализующий описанные выше интерфейсы, а также его миграции и Autofac-модуль, регистрирующий контекст в DI контейнере и подключаемый в web API приложении. * Конфигурация контекста для MS SQL на основе [Fluent API Configuration](https://learn.microsoft.com/en-us/ef/core/modeling/) + Для каждой из таблиц написан отдельный класс конфигурации, реализующий интерфейс IEntityTypeConfiguration. Пример конфигурирования сущности ``` // Copyright © 2022 ООО "Фортис", ГК "Монополия" namespace Fortis.GeographyEF.Entities.Configurations.MsSql; public class SettlementConfiguration : IEntityTypeConfiguration { public void Configure(EntityTypeBuilder builder) { builder.ToTable("Settlements"); builder.HasKey(p => p.Id); builder.Property(p => p.Id).ValueGeneratedOnAdd(); builder.Property(o => o.Name) .IsRequired() .HasMaxLength(100) .HasColumnType("NVARCHAR(100)"); builder.Property(o => o.Abbreviation) .IsRequired() .HasMaxLength(15) .HasColumnType("NVARCHAR(15)"); builder.HasOne(p => p.Region) .WithMany(p => p.Settlements) .HasForeignKey(p => p.RegionId) .OnDelete(DeleteBehavior.Cascade); } } ``` + Подключение такого рода конфигураций довольно просто осуществляется в контексте БД. Пример подключения конфигураций сущностей ``` // Copyright © 2022 ООО "Фортис", ГК "Монополия" namespace Fortis.GeographyEF; internal sealed class GeographyDbContext: DbContext, IGeographyDbContext { //... protected override void OnModelCreating(ModelBuilder builder) { base.OnModelCreating(builder); builder.ApplyConfigurationsFromAssembly(typeof(SettlementConfiguration).Assembly); } } ``` * Слой репозиториев, зависящих не от конкретного контекста, а от абстракции (интерфейса). Таким образом, получилась более красивая и расширяемая организация слоя данных приложения и открывшая путь к абстрагированию от реализации Entity Framework под конкретную СУБД. #### Составные части решения после рефакторинга ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/43d/c90/b29/43dc90b291276273ef4d6b0d25be71b1.png)#### Подключаем PostgreSQL На данном этапе в приложение было добавлено еще два проекта, подобные реализованным ранее для MS SQL: * DbContext для PostgreSQL, миграции схемы и Autofac-модуль. + Инициирующую миграцию создали тут же. * Конфигурация контекста PostgreSQL на основе Fluent API Configuration. #### Составные части решения после подключения PostgreSQL ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/329/16b/f6e/32916bf6e831d9c26d8848c92de122a2.png)Также, для web api приложения, в рамках Startup-класса, было добавлено чтение новой переменной конфигурации из IConfiguration, в зависимости от значения которой подключается нужный нам Autofac-модуль контекста БД.  Т.е. то, какая СУБД будет использована, определяется на уровне конфигурации самого исполняемого приложения.  Не обошлось и без дополнительной настройки самой PostgreSQL - было необходимо установить расширение [PostGIS](https://postgis.net/install/#binary-installers), включающее поддержку пространственных типов данных в СУБД. ### Миграция данных и стратегия переключение на PostgreSQL Схема деплоя сервиса Geography использует консольное приложение-мигратор для миграции схемы БД. Было решено расширить его конфигурацию возможностью выбрать текущую активную СУБД (MS SQL или PostgreSQL), а также добавить поддержку аргумента командной строки для запуска процесса миграции данных. Поскольку уже имелась созданная ранее инициирующая миграция для PostgreSQL, она была развёрнута на пустую базу и взята за основу для будущих деплоев. Для передачи всех 150ГиБ данных (несколько таблиц по ~10млн записей, но основной объем - это значения в полях с пространственными типами данных), было решено пойти по пути обхода каждой таблицы из EF-контекста MS SQL и записи в контекст PostgreSQL. С этим помог алгоритм топологической сортировки со стратегией [поиска в глубину](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B8%D1%81%D0%BA_%D0%B2_%D0%B3%D0%BB%D1%83%D0%B1%D0%B8%D0%BD%D1%83) для обхода всех сущностей БД так, чтобы однократно пройтись по всем сущностям с учетом их взаимосвязей - сначала выгружаются все зависимости, а затем зависимые сущности. Пример реализации алгоритма топологической сортировки ``` // Copyright © 2022 ООО "Фортис", ГК "Монополия" using System; using System.Collections.Generic; using System.Reflection; using NetTopologySuite.Geometries; namespace Fortis.Geography.Migrate.DbSync; internal sealed class TopSortService : ITopSortService { private static readonly HashSet excludedTypes = new HashSet { typeof(string), // don't analyze string properties typeof(Geometry), // and Geometry types typeof(LineString), }; public IEnumerable Sort(IEnumerable typesList) { var graph = new Dictionary>(); foreach (var vertex in typesList) { var edges = new List(); graph.Add(vertex, edges); foreach (var propertyInfo in vertex.GetProperties(BindingFlags.Public | BindingFlags.Instance)) { var edge = propertyInfo.PropertyType; if (!edge.IsValueType && // don't analyze primitive types !edge.IsGenericType && // and generic types !excludedTypes.Contains(edge) ) { edges.Add(edge); } } } var result = new List(); var visited = new HashSet(); foreach (var vertex in graph.Keys) { Dfs(vertex, graph, visited, result); } return result; } private static void Dfs( Type vertex, Dictionary> graph, HashSet visited, List result) { if (!visited.Add(vertex)) { return; } foreach (var edge in graph[vertex]) { Dfs(edge, graph, visited, result); } result.Add(vertex); } } ``` Далее, был написан сам код мигратора. Пример реализации мигратора ``` // Copyright © 2022 ООО "Фортис", ГК "Монополия" using System; using System.Linq; using System.Reflection; using System.Threading; using System.Threading.Tasks; using Fortis.Common.DataAccessLayer.Entity.Contracts; using Fortis.Common.Logging.Contracts; using Fortis.GeographyEF.Abstract; using Fortis.GeographyEF.Common; using Fortis.GeographyEF.PostgreSql.Abstract; using Microsoft.EntityFrameworkCore; namespace Fortis.Geography.Migrate.DbSync; internal sealed class DbSynchronizationService : IDbSynchronizationService { private static readonly MethodInfo synchronizeEntityMethodInfo = typeof(DbSynchronizationService).GetMethod(nameof(SynchronizeEntities)); private readonly ITopSortService topSortService; private readonly IMsSqlGeographyDbReader msReader; private readonly IGeographyEntitiesResolver entitiesResolver; private readonly IPgGeographyDbWriter pgWriter; private readonly IPgGeographyDbUnitOfWork pgUnitOfWork; private readonly IFortisLogger logger; public DbSynchronizationService( ITopSortService topSortService, IMsSqlGeographyDbReader msReader, IGeographyEntitiesResolver entitiesResolver, IPgGeographyDbWriter pgWriter, IPgGeographyDbUnitOfWork pgUnitOfWork, IFortisLogManager logManager) { logger = logManager.GetLogger(); this.topSortService = topSortService; this.msReader = msReader; this.entitiesResolver = entitiesResolver; this.pgWriter = pgWriter; this.pgUnitOfWork = pgUnitOfWork; } async Task IDbSynchronizationService.Synchronize(CancellationToken cancellationToken) { var dbTypes = entitiesResolver.GetClrTypes(); var sortedDbTypes = topSortService.Sort(dbTypes); foreach (var dbType in sortedDbTypes) { await (Task)synchronizeEntityMethodInfo .MakeGenericMethod(dbType) .Invoke(this, new object[] {cancellationToken}); } } // don't change modifier, because we use reflection public async Task SynchronizeEntities(CancellationToken token) where T : class, IDbEntity, ICreatedAtEntity, IEntityWithId { const int batchSize = 4024; var baseMsQuery = msReader.Read(); var recordsTotal = await baseMsQuery.CountAsync(token); var recordsProcessed = 0; logger.Info($"Synchronizing {typeof(T).Name}. Total records: {recordsTotal}"); try { while (recordsProcessed < recordsTotal) { var srcList = await baseMsQuery .Skip(recordsProcessed) .Take(batchSize) .ToListAsync(token); foreach (var entity in srcList) { pgWriter.Add(entity); } await pgUnitOfWork.SaveChangesAsync(token); recordsProcessed += srcList.Count; } } catch (Exception e) { logger.Error($"{typeof(T).Name} synchronization failed. Processed records: {recordsProcessed}.", e); throw; } logger.Info($"{typeof(T).Name} has been synchronized."); } } ``` В класс мигратора инжектируются не непосредственно контексты БД, но абстракции над ними (для чтения, операций записи и UnitOfWork). Стоит и уточнить назначение IGeographyEntitiesResolver - это интерфейс, предоставляющий список CLR типов, ассоциированных с контекстом. Интерфейс IGeographyEntitiesResolver и его реализация ``` // Copyright © 2022 ООО "Фортис", ГК "Монополия" public interface IGeographyEntitiesResolver { /// /// Вернуть все ассоциированные с контекстом БД CLR-типы /// IReadOnlyCollection GetClrTypes(); } partial class PgGeographyContext : IGeographyEntitiesResolver { private static readonly Assembly entitiesAssembly = typeof(Location).Assembly; IReadOnlyCollection IGeographyEntitiesResolver.GetClrTypes() => Model.GetEntityTypes() .Select(o => o.ClrType) .Where(o => o.Assembly == entitiesAssembly) .ToList(); } ``` Отмечу сразу, что данная реализация мигратора не является панацеей и может отличаться в зависимости от особенностей ваших БД. Мигратор из примера запускался для статической, отдельной, копии БД продуктивного окружения.  Само собой, что с момента окончания первой миграции данных в PostgreSQL, БД продуктивного окружения гарантированно будет отличаться по количеству строк и необходимо реализовать механизм компенсации расхождений. Задача облегчалась тем, что бизнес-логика сервиса Geography подразумевает только добавление новых данных по городам, точкам интереса и маршрутам. Изменение данных - только через отдельные EF-миграции данных. Таким образом, было достаточно догрузить несколько тысяч недостающих записей на момент релиза с окончательным переходом к PostgreSQL - для этого в код мигратора были внесены изменения с поддержкой определения последней выгруженной строки для каждой таблицы и переноса только новых строк. В процессе деплоя был вызван мигратор и данные доактуализированы за небольшое время. Да, были возможны и альтернативные варианты стратегий компенсации расхождений данных: * Реализация одновременной записи в обе СУБД через репозитории. * Отслеживание изменений на уровне триггеров в таблицах и уведомление об этом через реализацию Outbox-паттерна. * и т.д. Все варианты имеют свои плюсы и минусы и был выбран наиболее эффективный для нашей конкретной ситуации. ### Итоги Сервис Geography был успешно мигрирован на новую СУБД без потерь, сопутствующий рефакторинг улучшил структуру решения, проблем с производительностью запросов не наблюдается. Поскольку подход миграции данных с использованием EF и топологической сортировкой показал свою состоятельность, планируется применять его, с некоторыми доработками, и в других проектах. Надеюсь, что описанное выше поможет вам в переходе с MS SQL на PostgreSQL. Если остались вопросы, welcome в комментарии.
https://habr.com/ru/post/701060/
null
ru
null
# Секрет Великого Искоренителя В недавнем выпуске ТВ-шоу «Удивительные люди» победа была присуждена человеку, продемонстрировавшему, казалось бы, невозможное – извлечение в уме, за 5 минут, корня 9999-й степени из числа, состоящего (по заявлению ведущего) из 80000 цифр. ![image](https://habrastorage.org/r/w780q1/webt/mt/ft/ns/mtftnsa1quakqddxgykboij8npu.jpeg) Но действительно ли продемонстрированное вычисление является проявлением каких-то сверхчеловеческих способностей, как это утверждают победитель и организаторы шоу, или же оно вполне доступно для простого человека? Для начала нужно выяснить, какое число было задано. Это число было представлено в виде групп цифр размером 100x10 каждая, итого 80 групп на 3 досках. Разглядеть 80000 цифр на экране телевизора невозможно, да и не нужно — ведь нам известно как оно было вычислено: ![$N=97865891^{9999}$](https://habrastorage.org/getpro/habr/formulas/bad/799/808/bad799808c417ff741091bd3a33c323b.svg) Здесь и далее: N — число, из которого извлекается корень; n — корень; p — степень корня. Искомое число можно вычислить, например в python-е (питон умеет работать с большими числами «из коробки», результат получается точный до последней цифры), введя: ``` print pow(97865891, 9999) ``` **получаем Мега-число** 210335540071638032532739663973635434663372108457406858001703392643029151656083742751640376426791077714196778186065289364749034720165933751686797625910631225474106658835747402678181714967525210402729964930655343263625370038127202036866249844305294242775799178796718598140271488101691237901734711171152610089501868734349674332673601523846325339786422267496931214540052423682650897003825602727088350321272684789553784049604844344511310854050324323724591262523177971970050524236938168746375618364673692482371242971048044942709465265649843521663164393435959538027792695306764542409188571585725304834625127648653541193162202479709507736963966074488381352178970445923936865562577475854897818580039537243201170306111308309918486726414302755908440285682235379064882406128975920207920432586531093248310807047636441903019772222932346055626467194352601484259214219342497122037161514727391430820841453590747934224417389419095273664732031953337679197470616556369968678435458495942638360216564942870186895685023592589792115560236327156737137012110149447376262029785185561767691367181883299704843642958949306571215848528182421059693246251361088097645084421719152444391616024607832156199790237661440581682756626823677529020510409099683905497199120466769510719993333643904962825051610038015804758608783016155471376568321958755332624670528927940604335327599382019332597827023323997773199677882914167279319866531787311921635334456473863829255808841099292408346055769570039672620711202074070070673812495566474145641082620359279159338657572425266357505822495336897967693639314900314290249367150262633188420168378955974472423967382343138062080175950158111990114559412153261256052629315142047520112764918902555739837488919799007948006770860765073243640147993596043206352980209238245729853139481037883567345445963509066124887873644335694680513495741010769431941752449255737273632673689819847204282621677468462879043666756667421734851016716393895564861648132039616776148077806532373673853643156270540121136542259989632842175488339713629360341100155172715602252557738055370720880738652338250962797326589218730381769944353313505464826453922964327185869813793659014291967130928237196921187665962071909336283470925644386196569677471161235069509925581114984150188256839091946155205818440718538954551429342289736458633265011321352650498190963717413143011853346331408442678643172598541717891654493407348073727339472332168205651270580746774721160586571551979795780561597901725359187762042374069574192931295149132467832472306578126963158718717127705944514515296411721695459236216488268272167542767726244704048694759005159430962590217235054235678537723331008287246961413647899671290829385774002521045334769160797813230251496231169548527639471905683941861004045260664674884614009377750904441027236041612835720886288486931151635146627309266689158573737127435599754013623937907803063754708798333177583307460688347675740120546087923558906997583583880701604856148665646967573750901124966227920162180218857724266512374037214253667809192329369392269006750604426305295257387287219049772505896632809682706107415141476687664896744234540738194333171919824427926327543317179763685345222608536350826879138422414168716000142265763545078146336941103177829466967498884990032144376815285934041750747449575999585020809251193743929477351361700197308730553842941853710390478341279621007804374143865287619682290365794066460879018360751643834596631633259817326228977075486996921307518075718754766447312331588472106426159132191515467396528886098403786124466783718071289340914571344236861734586396315582367496187077697808293536523369633263923691467197212291629930926083542537740660926060001864782880412791564684091008987662256293465352421269854242125141412433698137623148026943991906301639415744505467387671843129830747671576275340132874798278962734723260202017768436029966492203814154140292836012113077416426414785793120315315709001159413818908581100324941133726826797990824006893008668065373085760109140756068508034305153757600266730238414112116462621008889715400166474873371305149358614828097695679622351600637076799746990700406189402786350554594604176192150216922310784471641453304995836230435755809525343819592640735498880484316560635850075436903028124690377384472376812817940249666758843122788201412472270207826729360243835157188525704332471808163295484616721166864230612880100036208490486485850341517749191466832406723247070967679237973833918402096366590817191994100478468993140561838636978675174426042278070284517382209705626467452462800119874470128128750058530087701794859182977785347871700946719959355896736870995234161333614408021449894027976294775581474690319249850561225727767372581154695835727845884550323160354336152468001652682561979743607205979081718955120759349579581887846226008930622184030825830708403659211576985063148856876943766906009812044838024027146406075047500833405724459904573648031952945463288464632958811165775473158189318607792262862905692841064349528989870171854373327680642570865853973419708321557579158079357587980212229876221894120319376829646408217367062380359819285413622601892002305337568666205150408064060139159141953970480256334892541199432531827639535833540025250538289693547572515178807991976093485278783569410960559679733081272224591203370213515838211941180251996584799846769604719217670645134410180116995607818965862792527418227485213954559313050477950015329956417157304379571113138831946161360814464126104927878225198373053742431945241886627345732562064705859706566012143913927681362690196106238471858603434367898906321680936651927093732984028393764106346211776091778508456932534449188662534946161567362277508060715631565182198667322523675993874168524801809472781617863092897066740336313754659405281997629361546415189015849429322037410725109814880957545392089383429216332419787949516145491413435424276380617419025571568059388603097583419022736128847580299972841131101097670355899988525729091428652522113221808244040319434057267169636165871151507320659446598537342097651380083859201360676070754558221760373543492534761995998463669003169344710492613243551972705431377912126859118081854582102658027319208442132001581824645375668614397351718414142436780741384428033987640555504720720930681030506576898610263903395994570054209988922068135965509336908049110573940506462399575238618529065783043204256977762438852837304034995901391382512252929140004817019448038862933169949590075539495890986562373176934517928393324371963894265315942619961945967758111887853496285363902869208661357785022525823034454868802711616920864963543043615864580131451914803855171989260313182622375144777283657231897379751195860942565287752071227855756837521894628570878373280532911150158082361962557645361887880290289959360982720826230626481836277812178289165737472053819602383307668519750442555488209029756917225295452832349430529285046947222271419454006253846351933503534505186734810131045964814818797696757351871721806517372131246341954983014347968823759896930579917772358682638268897869635553308061139212339537958525936322449411951430515282624122931852973464525162649191386798203189398630376581971102329132340807994161457249227494639644857828494406426112290113881410103022052106225140912071781020444586751509026468932377945882427517511024676429175587556874661944451029469712758616773921687871829527150000216929884040927450645275172445071921084578188159825263374825250823175045545320937075663603639227161786436443233122372856764162357132228396781214372554806029457729871942082370639416751551389232805111326417038702289452877420274686862287227816272534636673560148532830673111990065345366457224381061492747743435415207604829019717685702340822674932573636021167868772610023996312101386145503608072295542307658014736950393622820919540164525303886345869918008239340158152757664320434457191827492293413669868014493712231411051493634795600864869576150269871539515725178553137359842386558216270107217591971853994110755945799608969292039971470494583057308560544297959634254650745186933299435174609702962867406592285454860279379934970608318602333423838174099002624590351538069075780567431057656452107252951880294153465453499127899268361518548216121147483565299268491738529095892982642520679846324842854488572722749699464775458261961695934425159016675652437944676740009213764757967318827919947425730618635352493455341720105021115834786840258649705181130221081554049037343863443010077605040408829280768568870134107746447827176689113422463860271943917886097930231215078254238711356004519581245081975854784250384881999824224374052652182652736601651664698982339107346231968543021939710428376104125091683648482567732777426853148602042599785853298274299087800244351837171374400390824139961093896921917195142989474882650809290264566526191656974983960344226631727828680016892869374576726393025170725586545655610068080764344732052585497638855418440931098463785515530822250788422976260983300304235343835706850922727145753389423473987008668682114074136629928164216150026269218416360508312301718647013679135111358412532057899005692665112032017478904096162118653656166993523082959311729815573009609764637585534100523077050668066331161680158009086610004203209148067799667765132748995186740383771707068039382746814304877584053195600796711439410189634331429139539237807146289468808415971615213815755261553498276659056675528315820989832465685669388061504324331782274529418066472967445071988642738456213381469266888359492299435555262034833514229641376512683723567185282061321879209868594067961743997261850014686512182039841581239650488982405335668298036323320345193313056502006754596754246534116969812181652386096003592647125283038814916827950324630073103574690135957054044916255476063542474319579126628834847756947042072668641889049220257128944386049622338809583554578177608387949951367966924815578504135242368251240172808399970313916583811867158130485226770202975692322842469176109085821369775238035954116099584364252726446555929237020401873254971131133198598729242891173747853557802441553433818997838164861246344540016179039917798126931258157840031327700932992714503590017930446702291501799405625905799150164644171386868610612103109786406104722388544949945417069608602919623163567704516690804637413441005664512407275579985703528647411870808458674030657070424981620870174315412412470674055942061024430136994739515141536174740855793467146605572243009502707291598581301421453456013008152956222572776555302085389846905846199520592061159792431033601651522723813324118314576276324282134663660857447866488359711339723903371895562396470880790061402612527457247788388761274794415586281534323495758546751064509565228542942932729033049153192830668677554932517511598119669040963741756622871319599403099064838823892141315024706884343781920067051669221929139839325030899781689732101461363917778214718847620273351893167987812874955553400051765120713877176227810720395357877253984577686101236355898894128039643020891322224773583609865340889916965212059549287125510569094483704574497859230879879503474120314066194481951186811090060058942430838589586736459881556773229310839958411528847666948822538297666229233794404374210422956150339965289162390797553709032852832364106132223591505027089586796565535642099203598780264153566018932902130722432620298858714262147771680020731827374307520392827424990750303050847224269893492957730118784281782042137074682911827273646253903586599888459013665228407067385227304462643642436987279927113270267586017820530043543829398987477664168778918935081067252781854215789568549567083212211024181623174362787797182535475060382804515948162503791064348629342675144643292850896774459728767601528570711638334968474862613995095816341982078944736450887084876838676063746702936566967118901503880873150052540741523357923447647309630111615120040254368715417474274763876817670651422830686096849606235963795313389165845282807938609304571935306361150065124725981553653532110051758588587874871747099570056475400219424135697033545543868124831695277667302718266962967850401136185535140080592275076975402260748292614606230761897659017076901714703053564557592060469606612899318737907821260330836962755056325912059253676741279025898988584558413598893247293525272193037841707303820773953622098259907103335877691574641017660016127552621778286858108102815166307245946198743788186471821326715463646387400718114187710653092561714922779474146343215813454913444496551862183901618650381246088730004165313828863162718728567401547868909487222065760446155143409190462110951330495796049729930394915890492353498707541221217712216126921944497423481948003802339641861446828401355318810606160374046679613793173856248855837789938508254028919135171428563079965567725780592817268857125298640630910398432961749981720763002952977339847537387581029923508856469541659777866539667625820996332453532289730047719148570304132322374401615735928816295228264504525949836821176698727499026194241429415292317413952354087626934840956690336248001979397322222791391860406641624618999930999159424757210152715125641650593178046712746405766353205239616210168684735978279160085673405282412058186078751967956897950460110664657254029080728862081812732580820250330105526211836904019552701503774917777652206613812091206437655851955278782775695357826986730428837740276561415525919392562250520131897362668531915655757351288352519258333189789195902189608745637951039948192029870079363775659180509149007213921771956987041313755122711403533435036151272787223869999701754712159194391535560759185044300427247847303272721285678655159866294784377583649356037949146754399040432936956104342302170361481234236196841162071143726364143006367776287633963195899354679599352861986748704130251652171173757705010188169070340076996979122376958944464097237403171819515794685829380984271229177158447978773994151215672359360393883346392507501963592163015479457694356445541479601556848981553551434609814460412748915301783700352137967130803300435993033590809573983316986327713983611582325223451878267821591965835228455305332202059490799087992372976839916801235395817656170646496819353948908019035420196479797313595059254958853641124052807035348843991484183070980836356892705616931127777772629655540478972862842607346725626440901180275442235117729794510634296642011106662339051168886913650439659501450705342774512467638709544567249501499502087361671511442286573088318961468359663658403723201681834585941655177691427835167481149188362676849300651985832605926036168038696694638850738284971683302855983833519374488696225101267578853305296945083767184143568286680837938518050917010296256193831319570084411288677354955363841535566148908598866042377410523305796259415224249596807527370694011557233115620196267879414703400068447872378498907998278020385685076806683948030166370965129019936846878809725921780533905442920807261383640547434872982512361327780209597189617413762389425076051408252080121092516089626418558112416006447746481322431110875272805006000350622740077099226280861518511795167856789333811393390797069085568618868114538494025598345959757297337037228158167107283832028844453876923342669736953601121542229026341897956345115400937829389717351574684609988401981101917595415015896396196012795092224621167118704785297203038858752867991946270293433684789925112565742049861999416415244292573400727434668552291043027213055491337869351470664097489324098106809470944579344572378051253385371982734878774250225744426143034756063996959877932154907891706201905239682767350939153744647013138332041010214260443741926317777950093351444690574638969076826094686449373818612823341793805564067578015508377912403745847806524491702584239598485369237916874244288341089635658358446958628117676471391372274647455793250246356769565559606153112581453081389308210268237126361319692925004549293625436362425169184086119207903879462656745835903002656071977397620756981196009576455149070207599863946550054419266864139147575718653474472828328181769304720176560180026092040248893933367521242300023918606436830735263962166233781024571892262112539379762509757268856232576475246452692117620963445376630260052530203728713657765975035527615800169991881224331963933281959012648526614615094497542535141599340926164660691336254230714947454017885625475633024265342883720692583839077214847966889540370715112999858002042180207596873087597808422046355288382698113353320218487064934649064217680923812601914308221647891165267079056584000968016266929721598737021040186025754342967639343996141167682124453307929244823724952187353933245611926494402555506293966202579866477482809680208478572969088316856060852468473736234713753720351881807041542835576368333732447134793166928624780021690999557869939427925240668779722351554676793072223303224640769134106859416169174924003063964323060560121483481964008492854908289494841810664060560799528127685525342385069831286007496675454134796185197552632057132041839682739490460388786867032167545856518903466993252219338076181016343520191536349039997094419947753458035618210455965106504157317116481031290499603936924858800714982612120210933457136692941488604167704584174512191706096340162873593949859046779020484372236734823384994414859304899938920407181178458464629560780036767028002717510845700209416162827745594922803208570174525856950220785607434349553122752936812935885455178585314981142452928456759951260252081451036174806294427356866059230921303677546127671047674122051102094007369329008057045060205742973655752339550400664425472516891468297876418075947498109293647619766109336843615649220467485081693753593654854948952284130056591642325661732361205395508187754082278686102065257798223124048292827602074945402200216801490032727208689040327380981797078499851598741290995178558219313811014114529786860168259452365397758271270744210354303286163741798836889991788524164702293084491724480565423364534899830783834263533969313275214682562307855587165401105915364052240037912868431831185625635564122700295963393855128399306165125122677554987956333314159814495433701804362130328060344810374276199483410482267582719091160821785165846304273653045333425728620179998708504396861646009470511958892680168010351767538380814701014764956641898990849274449710402928054101990275639956001359443544091951147156056559306232716956751644935084993213370415272493000870542802868528185016575955360766746801358946726408676976596310991501636106580105045350084792899638245961930005243154524508892081347697924630488903144222258443990852668973251918307832026544133480125912303265579176276695797441831085482582880054957504446601786629315734302840444669176342269300900177445000820781578533028239404703161546789220569461168071815046918353230790821948509062597070235693914234416122784081055562301511416811235161591895415866170772024556011519541654300645435856227921462505815754965407432491613701820624859847156320655703736727774536588710082248211936378741957137111067345411698716556567810424866534705748661008896062571746641378800289307525363655690384174866609192853361013524590844935487827390726722875218825063536879611873447080888959122226001650491928778914156754605391569391710115758493559317102815040515184136350229619408207944280443276280230910453711192593351882155076715702924555141229409907478569014087406573801680752249187384171323571922574742662479561200133993186152399989673092962177107065731439901527277922809641782608379753639124259997205897244283422179531876853785079420862722545449807987345697986403989848038781297076926729278146835665305676272258408644799450390907431512256540018048156253734817147170415169791647712500397879085472075425383193506715835360795755347877463498722242649786935433484912554935845030115938002821031408769883112047813301131450418473371512721338266926070889121928504048324914704854340510665989291331434029062518573121442606782029361642766408917256709769255418401509220325337790495564825912679292976181903936535932250609356326148480532402786046072355642667392633518661719273832130524352494375139279655450146426070306459827530051578357011741600719549156994799159526515065518036866529392583548806229480826146069475418420540930017615854992639849718511726305196573182053679103825353514947067075086392298592298689851657731066798021504513605482078793080019720183365259275448124433385679914246002208795696674000008569536274851547084070207391236769874944182989538477381439029254509910486412744719676377155941131179584029334833292214570159384027809882658372962400460567493645024905329583775583850418570130815558235950476076982731172883101662006249829171712725785565422771596152231975290203938222826661133616490651636831933504712365797339276975467394484948547984772051280130912030216928551136076145202667205850357033534453918725676166970117770596892106876125515631612551016236559617385207275800911658593082276254129302873163865824152375267274167752886115095987334612940190031568079852912314185926945621498091065972994900079630390466120927812649564761926469376509181928999422273123685138496092109969092120147875920308158340347496238605363630211327998952385094963366561293467932775200079545853828074869260748157952299234659497819546900223128231869321849908537731606395653737957332598065062725375955691314103835517012156166859453183444813646586938967652279238502417502036301298599054863391998803163669313646657900633952622046362305268021685944722209665633359355956384025079353735678774405662707810541353193341861857711729881534308672477524880457993653696838406462826930700484223322824463991129910410844863154277294089064868894922129815751239308963156894062248139349407230947711313751253206948543513764205731546608738752709603045131168636634497566180140339384149619366337201116504207796773475972235230089758263156077324942019580878855517681659957433955922533897652153029192934587084375334095421115184427584192574714799621434884852640023060497401715506147824696227359146234778903191645661821579754805622679987357040045394371461143249416709747783011182548959970861093634209991739960629200700886885521626447445450469889434508175416553673592597213863454569334673572174069379400221117030946424556799478763613218251690443781652809376925661580364981116940492381839301237597751379320103698246531834776532651486409386135897885023248403741543683733815723349646891718359694281304107290563811039605700823138689930275968180666653463011321251577838987455570777998076142912040115238991754940165935860149571288692821897535591705586906696805447545820514292569501829895177041877235312873612369904083564608416423243326896439001139713676935906231789402192872026210332967453772594633044640841278949605816869769016950719249202871793794104152515245608295731767686305253552179855030756687670848738129499157604630925582111852873268731759621343841178112644675593015879366222414020747649707722827650928093505618062419528700535755495822020983488609169214406236106475036689070379888726137033100809197831388416724592321066507759465722219032864337609999807936512347174218808853983730952696781152455212513655967566283616608945098673037553875900783602430572761186494966035447197453392206821666749646267584102239849249813695450530810495419157365019406804545776297607763442642035927736398869679667132249175119810866353765195714857153975893846488005491402091988782979925641279601619604585199390713794577119027540081666823733885798138025326148763731759864440607725076992597991172876000160200947343479144961195927691974493885772128025759517977182219389367426715761770236588706566323710183240946227666301891494947872774704776327137488153615385443261364421144942792128993549380383854509365081625587046911931354004396390273987655892624255452978614028311345842472024864006651221542777171327469990892482323349809786610991443770335540488876269262630811850744630661840490328974948923628419712720337325979195420342304937347672237283687451629003815133468214504962291320365562572289506624184126966699854923035262011210791332782038200450732732754385342078352686291081168563023507026229499384588338772802849751717174859790560355810649336589660262693241678934021481925001090182835010867884262837910178143118913461243339625863740916212378447032677068493944666216461273054875088074041589292506054886955006327659956618160028139683813291222128429895887449901748329606888994683097408444365068313310973849212301612452806443028485680057928595828106068478048548853801131835890396561816314170409601353196165454924128384042312509228816192030442129974710247583151664739009854578256535365783411529640387041367590408027354846712291311868109748165454384587216696620006743422691003584027003563259578841142192410991039301557189293856848073321330966434611317680966572961546847033020711059028340706302467439175488341980858487506946551208295658969764840018593308029216292463051196162385969033014650534158910171779488310797884371046020410152680772550010805414126567732465027378215133302402217411127907606893498096164515717901260864689238370510470830574502318123732683123843518146629428957353054210840724860066170639735749231690139674193315155832184254942853236598727186775483329282914082895245083130163722326035028227722008472677737811931340924222465637794453532355383264651333068787155074116565793263806166573740036615038225690876978110250955657455714736147408387176786615726058500559474673829740995606778612352147365922374258348833647337182696844999459906112526529449431012302516104919699558827880397409082569810254545047998222083738267040774108003669403751069108467981602957449031229782287067735294567318458037254909304229095745003919056416360481392013187670620216980878735608813941941314920823273426638838654988885283053921178369500582018919380854586413078345731151836050697594201994143640053319669173034467665170689866290767129714766072533220745804416165250266856466751494912760614200887641734678101498510054445023312007375881304785435405149542915522356871947329595637383988251612211534860061248799443335324237752117420681517400659848975730007375534644644382529456250172501308167457148889415007023767166290222919852308698425664839378757013205351522465842165242774436948344656087320180314288037868599286665538342435572066786008150624905511004326972082451343506598215779182042333172888657177223890698476961741747320313269618933941898418331173347780814955853452254204544951617798998906513178065388411141289606064502994914310290386635566265478354411369181355905616987501287873286289697403547915746212571324393194766250670527257146582499638916123854179049596488023502496056384640919062380604975889068266759796998562572531428361246171522373603641357953839059422403613525698722678093528327621256285344791547309416172823537084375081801737222618937000097532913469743883649092994196076765952141468033805865055395156906388247966901364673121502799081816638313804656955437723475613509139294906812810443514455400899934766215346599318680147138730590744486569294621783134454261544852606909784826333313679395051631576968958869480549663650176905699400531638132996047595408769113511504986165160567725185777217315708378307883701164057444004136532919304268957366471108723016596800580616386948257097527022760947631181136346145070245160631722608610197595611706688123372455005120850332996763255735762091463643949988706730974991382794055083642537528659671284899692887260742658472488159326576920619531863789597945342212815396283709594347736969010138699199526620452017664543672690809093185561726962064891734714423635965519381939576906699162124684389324122603560745855509239452834671014678333370238372302166702911866717823821187476014577234143055505662379579883085200815895144646022805565123075911364495964345039754002477720055810196290679230576261703868293401116283159959457152327774907265304507891032027843375793130939357244126491497881540556263297428004207758601736775907120467984888958377139579569419820580574336098936586513242510249426650972830487493393205763206045934282049110978259093522774083410053114073746640337839207559113398173285959677285536580863118010486639081158736453987533505977053607928780578051547407388537635701065786984970451876045944187092736995913177724624095258276231195768736772743665904801323574780996481461201982059951461391001806168880314722134277348396274014018292974254163002919993079476292078780025597642358365340619754791447154516037857558181581723591157790720171859150060378347496914186597274665376438712642529454495977901152816028828470415113057736586683513692805723854045510981726157830891011204894834403249420978614752300238574515622453485099976642775262900933106636270974563244580174940476349357727618676586879873422912296716064715576105192146588545087935564273033230296449695345458761143643984131923378439497320487277079117104101925717007950940400266384653967011674110963965071597153712563189550959791165250487266991364814170396758374857881029096565339616399206078036624784930020932882782668016892547046073197930310240840352799135464830523235908137545765313014077162306209156271841350357608830183318305231955072832500242713613463475305413237005286758450962194657163307050838184355270756151161916152745936609433968653307864932451533868466696794678479489584214421495865320685610452919718902109878382211731210471410678475329227886417090209436885086549982569058829559900105258842856471129645336400479386390260523607278448077778787784446206684370674935969358671168408670261394005687835317805218022558078442731315331325602178537992005290465337543468068338729159546489982404421569239802821575269455400676604707790965086388373279056714146235074179056466027777985946386227844513069687148348911289640461652515140957839818519768002490588365815805470261532901163349311507139001710195306025835027467667680367346123150310876820497817173929061619921036266453935497972571049646159536249837506128648152733753883292698469161782225386873723029977325358097456613218639277662555403382368876277446685909382758471680177215635441498992775992765999346198404630734201142633967012498675354748759787199715681774374643477375456512976558813665652004393109927526134291246917799093417419521296672538119930133213412973814056294815542198211635239376947241854349504403125582478319285063791543047303843181129687353893900668067200942391783961625942120092923186487930877330537870345275105735546877201065680656722006444721397274049128933958350012229845077831095767253061281168317204900012775730243652884761785317700982670969200543389203716608231147386781792288090184188807071401624759620275257627469136324871491724416171538012611830979643237275760429865728816779470660063569036544593797126631556470961466528675191375998993866931999268910353872369054505767401020027425066737238115066795546085279998276330030030016188058520320635388052818565148049539233888328216048005056695893046046955019958250465577314876880070774298716410221095727303107173865537775419577165428054389231832230455089833399145284797439970709183087444481882822251459448097090766201235015703249245488676763276126301739643249699496730748100928338033126550502530010690219594202385321410761302948694524335010051592501478277144444224139154896174907408364375876265902075610363707765926020678312593766833594970014524657372488820234174037200138736873157401756870984583750125695827652896110350311307707102865102943540855212239791142504361661062069553565326753298754056290630151390838967299220831495236558538340913057374256597165656256401604973959096902023699457165056790560514395234471568452250120476289708342224717752089675284587024914253082802570901865756408687711559321199308178955148600542729847326642520496693585343238650266491391087144051892312516476298470402900167186906407742541861381949680653274196722960624075745898278631254308025659531416967820418046653152860950033964538136875753014154834271823087072857194144011674513986748751164071519344795627947360211176312868539635004751568889209759141496050489017061074173200213038880413713293336375291347492049878395469425134277627765903143625609081130014458497845871658964385296545221991846594514075623188314813739099584027596985296996702047853767638411351204316744906665586771321445915400009804878506706021818219501029859201463485331321268650790756874515196940824832752870596638319590852566702271865613103214725668910533020300571065037279030270178023167330845100958412888977972736906058305002813958614402957699250545618496237372717871176741102967218493605534595449450986522950087517844836135418355273673389846944804268959611350190692675761462722596713501399672509722434741465478377173180020154598411508316185994998204755654607013376030498679353754316013275757707698583476594035251446465349027364125579431364055646514159504922964385829392962740087951910131388626735671106511807698912159502225342069598966770101100264356143529009560949848327369799704485364673404732111627907438663416371674568685663873940597873230684544386421880708483948881839597965520780328432406991519566491565353770524203740365177387639359276731462110576132098466270676856529297016757313620942574173230959370976957942496524727741170878842034343084661789748078304412789885424193700049782794126235552878808244313355830718092458536091191898399419027819100279025070868535523497331995605009023729462019464883101429312565852706520872876537768247514925002934417523289479760723569204883368481587936631167801894451102834568506433480062298646519452966050564188992748476983570415156430797191924652025338688680906978889819275355285276603344662336751827447170611439253315306199741403398221363593895493373519048870663844030501146050061283683036248844192443948498308566581908481108199827414060875494878544706600069712457462414274964664006478788073350557244191011918802401495254749183613311442267227245493591068987565560825372374916165729768047674488309531306652209984268282412688157258396685006628857171962302574265601562203202907861756649880625333268255182560825444912463219962041809816413369684384125961417500441693621453821423154557806735213318712453832995434020283175747584563419725275053022859838324536038232532626765219389634824871026396405808209667707815298854774781970736173933836407251171268924019744455362284416485105078184365769711752453686038674302839120686258198375053250332438409776876887583164224237182425221914390186834986996815159625241167219583085327362698280128731815915940740209195195077048533314992079794519080463932405512981681014387550012084886383064469014964891364551240282978446812516694613993695883517973111140059570266316855435504905502022872589049822908571256721162410281118642948879935817564853919916715828613028886202785249882142472919215118541899759269064657934873955606788985153135033433197390953094598877355729851722191275191048159744520673649887763836883694644610870140673671712499933428848976431751964756723431322189352090691885128245576638621398906305961311070945553397770509489537412917485125315294470719544627967736882892825444828147368735810256796016138096716150699310609749407502997830127755526579304020946727411705417173190984607772278479734054475262763196997246327003008022827614413847286790323574563293238638554183579831877587341664849728216267677992588455899666405396179421670579077826299278621258198743981515517692296313786035781134660214336778990597320756366127600775994836348667484340932397494471512148124704138142715810608580526073810692905196409004908834541850092266200510856867228168899931071881334424257998762534356062173312830331992457469498323264378079680041085671632477400395447499018931578502470690498394120963063598760963016324460025539329175109621020529865538212232402230735845284480574320302733600273339167787718449153088942777401917545406934748569108967425966778415554712843017215718599621069990207371173560181644328698783235811825989963062281774790812420414565837613101040852019172953435587427913009254178358745449080270074782839353674113392089177878476828637963439505843079630811384527493406173328590073234556888578690082571395497664977116262381926036343096783141927662341563764730054361658451818662467083772462850973369418411469626342409868586617753468273443886934180818622607309154316763689488556888230807065545774079030514262518404163030472675976645340782311267227627941040182221281063107077299792198654093762839399287771864457366752606126202063520431370170892888713616660143572265616325449192549091834381958050360045146258891665741679969395729822093991129782894127792230324556176495448265172760085874676375245241653760213274144070617734525457626628535350932909927363849362904954318933142930113941244537109346351548082079334818343529027405441772030596569826920101099251889475925113556692244138284156641970667897878855435006608086870333752226107055425211629750830047901519802698531443226571726529778060656400009990460346095267591460117439919417517281401498229783246777392318656111038478959059440558973654144934753923976320934661178683841529852320145900583476321761735068468816582836220949996011976517083270949896238393627585348031512555010668989993343551340461778375205129059863523732165376784578969971711244724457177967074053605725705975556318855656928261371469280812758870645562934788132619910400981806956299721723049607435467124112836031620444705007790902286745779805205433886679369792433333371925665431466677297049770128379531367542174200818816078423437436460134838333889086786936956783313142864961271954285256146211645673571172197254289824155385121727296069055767594311294546545021715517729125899372619012058343295466458312050913045026617983682976917634256269058157978046571698204719508541126320271857480831576281404546397214973236103157820262716800589237986741904040707927354142945000361323900978689223835756928681389930976922732204680803245966657134206605147718726509717371692446833075169980538887606340949918756522102691516681572851787992559447419351078956052657994593714338387736940545578271871497485688442319095744166517733823983561813229765729468292443150711460324220291157747980008771639138578080977070128471512856142715021532835865885254848521086938523602297046485464441470012538384954169695034573114826947872952396066353645586238839840073675529936653571974732803533004513822953126932946994401867031279931448320708439097097123329288827984147624992816600808071169729937545049570486475584657847693782176141509280991055376028050914295617096308594476912013198828582959963929299029892064581232944525230322295057520197039376148694675110300737207510360312536642819665868667538650550876050739504029178598609015901074229298589923764571204804434708845756043432339924267896323700888709855776224200404581291916089362704835551155238063127723253781012074310947173747734666171259530700271806965192844036271824859299472464472572041643495007955168975614649627039265345729434404778784603659587135744341244034798072888738560979573273934625142653502940763594224960637614123856526671255095944781896288676184491764391934275899416033783773810406377044375737108941979742675538126540152876136442968158574319317581733803747311294958078635112038610501833671587496901328979569281381228900953186059606221075961472498247004693588452619547184742286164165590427972838463736919462297203617247228170817926730668094450107744748070263431760569242723353426030984777320042122873366332795579825433675596279296456465787763349462170597304675087858542516681531379075664928423148778563348490415112562543241353536913333818080076663404111351699030253669083108191207618945520753069010057601955326942758810515469510664444878865760503531152915430168609122146089175757352311071844255946521029376483685966988188577467790709727422195869451360076756968818269168721257877846565363518319230037294576412384715306495579126496377049797232499911490463894806071579924115395924647675447935758624195397873391774408035900201344209883051073379001800397000401207946867649826731743226293340438466115210216435089263708909432763696717315879357644326960162467379881265871397643148411314566935364892622949937864056715472358966414941399640666197638623941856467060707737122202327100441367422628528776109281206940003353834812593182428900910001483668264925035264332893695987116851240191831774623482957220896446658750327020870395165081937039688925252399891333353560338818000671526999783301227897915316578376365477737709955629189024870364882457895232419951253435504354063915569573833121379682745234883744576427120054036399593229656816621008675209422707344423588618110789698532970673525961052601645792785942131993433943575496871990555683499113923427904972775459755768410729671419907676055861452644737502541409655809405630570996172656903297185179922450372933453270750762051185332036623272321168874039782695508060812591111204482776405233757862586089297014205670705694114574910823182711789445161716884465120814314596055047400863714012958950570058803635324801578753348313002958985749730342671979181308386997698177567866956630028036840091908284835520009070375979502446597831613908488259715759867048758194872894584639436089885660714403314804007233057329012551333162451287498501323086888519970411089987302530986768952942777977809048430969366150271682989057975727634979812287088536711222058670455765718003457327568173422734717671105252099402422167787662642678184742143638334410392446814925440162665664051136828941694811407134612314263909457130434452792652715188630417484814612708761505306178360849176761832381491138318586976692770614151983645849332677607444885623849821431503774733165612634859886945399892067253805733332396838219797870242784775165365863996922867190876948935593491345934412987589414038816033208342928214580400007959237717105435394330179510730254193500652310488006505828056620677955561457346914975564642447117317762659366937559701172751788059507576351219610467981408599720777922619345954100690746990826553275615428458340600114040641697207192199060680244484787710075253493851966631900130532316591856272133389684450576553975439608155181110433444633762478593750376966496187788750547042515233431711196274631659165579260912036079009139330806793563080660315687372555199004770376184075111340920868453125377259580954584218268023350264767318555296323889819380145004422408266215154275388776290613172502223515230590816339614810438119638074540756970021179992122892387720756456231095748342204469896872311392637511802459803216027556623559418217642090544713925207039569111324271420445238170512051677346011931100835972243780545066190794258194849917633136863188058985032116335129419859574200925533654380543783775465945868320688168752798384931443199110128348149859889524805574016795079482352015408433351154682051617839342615443199511981878888677801349206685244792499615677999015956659983979859598615271960815055160426173971095269475758338816349572070385093241677926157603450333524741082844359582762692176704237764548140924151074082107795682325601025479683469557526528251560734816041896772990940742538864072423883604813013751743752395873910706195533877284181149368280613224147734833857352733634683439933405249734962582207332205723589720920121823448165300734573647743416396437081829350717591111135071111111003828938851024210238168839176364873735960522719809686387614219589335950356665790593295380066391634427739525482858247683315457497418084084626827786123827460764533474409461624151550776330895864715796920752539536335060100862418208414763288883277064367275106443063978213520693298737995091154537507085306000832931380856646317678374668587055646653948793515909268830326128995244220608402243906136347051904986082225262660910867159461659268495548830951473331934027493541735772797469626271569855677334030894033670868796138866685174956180440284644415425999389772012201861406185319710728647112923136612732282617982935700237395353615245798760985820281354784396727510311187581347761360360087117641907892643238508098959463491410834295249087864599065260882532468859249090792463720857555624406453851328173667530691044746502507702660759529565276143036492852588051951967457944467003348626455889112169756409450102554942768483358910574318120606359377381641879096645662856973344806721971467855672827498400900952930057711815197141502006177662637398792648287027379819498132129151722533567849183937370958312192150668075651755208985976562737758734831681718399808570580159615700970958163822194228697807503804554165514051162900315583463580816281645401077452800791564893139240319127399218876733413564460081664523054271512479102556948186447540388836396234874289851485248157452253830897621168574187831669609151669758142905509756991075875900488019575148933666300164593534493202806636277449606783743284868751425783143845952316878193122024443947013017190855882483222148559740950389647932329936522005819018527988801771702963522868650591029098923058079127527352176238439412764911420723419391370755498116701745108465999193483960456815464772001514973503798023782699801381634744493674116077893399484891235758228048166400737682179746327541665756624047005400937561556546444254465088968972137807529228581498828688994581492368506828081959528592976918331710523299386809507609632792246480899277539346707579440886468778247366811774120593358316435733162714650474312492418586339485777421453793928550249482289663245945531727274439428458066154679562662635505366160030924931638083028373357707880872068769816715506967216043069591096712730056350429655832466482664937938767198548631541441146863993780154943508270002387095797695039112081508368057789886348443707033118092740541326544839625644004516353009178110977518035004607710458330876045257310895920401524384228166486073354323962659764689993484416447604824304702457334975660327834005157354355312098111293238738186518115137266241737089253591398293018002235744762437142668024096364817617270189951088919979881190119927682647044877502625813807984091268568934052809901518817026441122898354389913428183037570215923063274205800902088348842960965222675351424885269351853862092477309824480015551767526757678445705290935677761629467902053121863258183647610911323877171568235603569757746481953144347578268473729099908173908573153279199273493559038433709832886595333217964187601810671168129720645089122500843572990960782144664673316222252895289476137961197747929356636617630440988397303759514590170559179077083386287850814625149374454065799918163135544489057849050678651897097871400706520437919810568787544916957267144438880617244280565365955472875276864649688136655430140507890922736318347795859391019075892210170383645038651788460461249638760173636693317091332008395168952334740190484849856904380155938288279433249225729311471918320754760130068291850537438568433992608391249888277028996867989749690457125662176829432930937341088382860635919516467048179755047227380769611780249320390978172058659729775680898444014455843025421849759942145444892480721427035159651152650925362002643956900038136548179014034524086238124156007271372408390394377523206419445689414166870300912668306466702968189291548040674156656934074559942878983377097083852851555007829802432412745345168042281891963938479849396924775727389855998677940771560428385628817340464705224705962538820948427198560920841242607661165696666092693350162612793858890631420592448688115563186638512387843342951738419792929781634618168634235047016350498205632926387031807842985533338847396524779746479750704632272523611270521024518400307847350943668447726847557648551098413900810237634511669780084738601116413753366882323454245075587077812541666200127653953319495384502529814812221570750971259512051005333699536777686364301321965711237491383540969304188951002459919519725571862959160886797989179458134870108777705085517894785411035120611562501869366874552206590885537657024489583825418128812987291013218323165465722745480300970960810366583802373433657710929793219803979319423099539997542625598323463744336262405647772202444065574117716553847252602513175795410358155030082884944646452211069113586304907437556075917585326596128350030910335676888414425066982048881860713085779076814002939743852646400879829857018552048656517713085382952174369080164068388184238599179329682036808599687387982907671549731803335223756207887180109156622349710412857950241623547580609011838457552790281038264971157559297850213590564928816637754354851264779229264492156112050716645293483307279086348231854997745189372851874818445301122822703726604610288963536852826959476402548423204044608364112501128431227613897593697496226846745116674999998513269900619913842467425159561867369228700779863651542821973559324151090153403459063213445259670810096109706425706734366940264232081367587986849852488412032499343807619072930690420623505842766882216904088802728590935503196826679300166989186423534191719872806491596375431186902061286726926598611629306262884639274671737155420419456883706610443054944333463073223550250239630068906089737140934394672084119135240455004394511626271241372477943457420405964353552661217589390042471096762182625779718930787689222766893453747585963962033837213012372680071433017783095475545510546020479914287107066791852298011835345763122770317645118960896462309351319393600379603170265814947189392526828914606002552005927914832851830965725821737241557904920030245942986669883482126245110320090546348992569223455492540760266916884230863938005598327203538032526745781429051159364232030577545320594477740643670945440643870858149584140910932752637897815393431388092545839584371120872444902581411485349083895882430861084173305330614144561408227484452901847845550008551035091298347386913888383171324403490561396727074205634649810720706911801477809681670553784467101212509790060322567467468680436732876345288271832008630588355079915039324390282188083019096730641538924415211140654125188971729090879142364048245341546641793361578025124260355145500149247182190764757287258173422004121894977931346157639988144067286659325924089851398344626524654112817954589320179260873494002075613982789208726010954728563036311969208137006360775826953402643911571350316394207870124108994000812421926873996661508026715505945935673256722542122913687099535310895589065852588159689256436896231671710736829052004685897913466701015273517462118060794947757009738685359079791082593050559957068610241130009415222915272633087555549748705810175479115756766001811786439413635687584535945397943084706302115859698355408149636971195548310321727140954277599798022910444539195878638621656005010594951194294740164860692880055734501402257630790362538930301012102712815688382498446060402000320537555181379997906748835899434164049498217895959238960488393691760739237059182992395810122581720155153785597782691388182824751124729854597656207368097227087755181220330442741850659198684395088849986928228581077736229048686703446164139531634556509059641224497132973479797017694300708192092792345480884830373258173161047146121993200364595881911573282778758817807122811057969625216097040942780808399328994297253934426850945160704258021114700263711736619613657773741046748566202334194009115681520352768761278501739980184186958505260216174550985510789845805214037603495972873386961979215094695844570185820572153024450723322017543900732377022490781304459573750292643792245691111991942821702864033476971130572159080788505862563579371544051908872718106151850136731207552821243156985956007492740976329179894016994558158767953061448083650905824974457570403044476544719127185243716272833221165567038003397624881154130580470519245580551839421713825048792818095694112269654025123383651415302514595259998987940956622550305183934397468115355076961261214122643408040817771309494592305757374315436497074792047038636751540352356657132850173831872431001120116605004167473200292879495067852539191741525805761536278689513155056133206199619341894254130520275059536622675198929302574801161881717904156013878796800347617887190682061661844583358541958716761834783287116530635503823803073505398123211955434982328063690530382049766621743292915647802898595953271131672971342003239970295699975920038818591488653617513720229027770643019254815774077380803753535415658627433331162235239393588419432695007577629646120375328570730864351318672803207928411406262558136911206429036626243023448045839978831786363994396652720635058247479154858019182923390533334525146854511616893714428183236833013467864218946626491678545006884126879864725737429595637364033132584990528981835018344571566187720756506551439566974613606139928378145804060856227736087237287895562014580572465195375338505881006520500164990979068988278312530919048895075397170131873116229771678231979009067885846925839076510461501241430432937108188810539700665852373719938737751180525556743553867431104652920992540242317849551834975899641820700192270627326334346010032636159267718560750009493194885236922137106213487816212238205944539213217564490346003409837152277372752851708251906760643318274298196704793089923969196609536804891950787430382474954303743881473511177608074281573764568690347284016128084809575483340657806278183585395633200251786603170902976220218348116665723845519967237718459082813757267478043594739309921574419753500342985804659745504740590018985057191439815651530827574605839912152073122353922333066963593823090502092617018408273361213021480932936981503610449591900238592828150198727207205777976097265467287598939876147424021488558052011052405594134845608023157513573433475667077727075822991712371314624675761699116820346468604529323107554823536805940294460374543741688769823370117066931406606133206458735941868942855926451116563883889827976641407703606288630335636650725811919447686038364910535378911727674200400420035458999351098629759740940102445387852385009316249069889986496982210543527955042271991982632030610113504749213919122027972580012729900920610265300562217603382691106106694668577892122984649667557348373894785664881586548992808368980234740461915987450516939574180690051656736274331779318376183728468565548615363054942254067220819527963083827231271990842960732608195361743981831687571188117537587034264747666026956535871780552814109211888890067271484963677860644110303794630789057003362931627673370262554416492012111261796526604082776444197844221748125325053078584474495118565772701929551571682122677344815606957394933686937266941110471080830401223881543740880988328196432604114158864895895990907302172391970892432180579092532698708888634575950981300701125065082346030027108880107891582213656568326811659097358347808500360229989947933022264233546571090928294511691266672439318976624176593594164999227430851991225657563218069130880433372787952654854870600631892964939434969312387455853950650736377148093818439854894778030295566217674109390342420195332391513837724005246875362615424421938100989775579602176478512116147568355437821252155996606843147642298432856466998029965860505006318455380424962562314372962741746585103820207248613090426111162086088728802011579685948724292775692241684327596329918368856033882971002883071177372061949985195058899264749676406066418173886611004863115834293734114759457761614384150303955065611218424748981740771856475208880122263789415923600975560941402621807364429068537424107218795248676235502464177255746048746058626280497943994661049351402038238436971477657243771422946088746948350584076225170624120170504622060707371955430050113282466869911914832292596612952792148801237957088912369695128105258118981891765594256819170809320446014003922201038965710466799329696484839203262056491975289077421082833925537196974733030094190585034955048018045848881813100224402006073599368559836326342781180547654759565947589503895370817364199075193833475006419248057254630858003775378872667446863270426534431737101053564497230339578717181209914420735625838283261292051836215089773906437314203533924389530232300075998041940225387647025565684135632045790860425551393505876151150235561757098082355658560001583430038585473535753812684413738280069731914885039037119382983736644202663208706697456913995797223375149207147896242117212110477449902298989857121782253264865754084289644364926715180195629509664442716016740263129877997990537783536392210960782520147256937675735485846403021133955064565664239386285695584803656317674737702171745041855840091385015127004056442979936149010212035129569799971652465969549057820040121995412360974727101250095985554359020241242573456744692062570898825327431178043663767412133782068805607203214156402665482585951348011718891616434324845809508013959509680266888309647357569346262486641342870149647250676607290061845377603054848398739390954492663640365761475844752540736854261557584198477665241668320825774051740789956508737307380674743294265106675074958072639110043772832225668635430238685218397071414479521914947074681528775820644927515665948303839654573978028919690457257758101093317478772751047615921311787043338836443997283844904703073827088440082616512091716946051364424615238309436585894539790916438703367648566954282220067015611880420012739317721099976785294344838294076739806439375502099367526105436182259156696992428245230987600044471571940404311937831938945787157960426577649880537850511502313606241927299812576855854430039796299485875575189935460670394949294605842300960454694325808353052350163078132761762219476303674001673426395015856902492984823312832770946543775689613161019597517762474775715171972176628882707750725269469955409478900437381821896063742370425623314959247976637435164495263410415886304151771400601703903883071666714812345830079463640269448626166619297970864635784044928609266550017540295872311638453991194098832022545121012913033572068541348337603160023406908948398917176334094991827278065325238072005314522214353221241750611622535324634495578632321123370123077158272561752943136000048919162284932915254529735374311568948472978273736335115232078747945680851175576588264788680127222187969784819618319387779060873686272347872409763560709642866473651876187445567585320170603433939006048822204641187446551396355519813925701442855337723405824237080097168389632703609605146967859175825276087218207758037439443588719851275642695973070690884075869520012796444992684196983684933798753600182066279006952912505784232128875910832176013485055774175252839133618694587430515574083811804327257610752864301612934174969233612274282292915429959317689277267909682827836409237823220540516869897900414047074134335146120138374899625163724545531703999364700342486395107297724848688987879886554160212331351476592017759228981992229654369762830155776380286156619957393990526149859595851639776966577604669708842146357025493582248234020432665613419737138928161634430471955193194586114959961050094169491839382085507090289866702655686959480166123726973993818785343135775801395396180147043809707130103588738075132270938929073742136552520748403482346363735956700434642677429828164837727971965363988158430048314252913653459374022117890710829071523059917981669612489201786955804649593103233959616978329334176855902040315477528578371988362847732353673279006113576373992420160313099992384892136530909763583260762156814469130530045240248293679622627458837149637101777095867827800778608350555077935444621168548579379657918162949443337573245630956406240024413561660375381595037587487383810742376514394312432682071062982917522063028438917914372959489190885479293627500917679593633062357230625189150508741419986616980367648041892769404605546524302426775866422444706050846902982282698209727777789880393136528312188642964343974534589560263794630786483613602648009845019850236837759176679658639191219864699955774459385101789051929254007678906311204873054971528838295011239428670316001061122815867634457501197301194406362697525520863790003708716001664870569229068586485012222606371882139346939359263666483981307018713597414139017113527097657883193764289267771642611531850647981405017847160480869898344147113173141178520050091336072298753410254901705985974411055139164190663700796552248285036134429347189166801410539623389920357612164705524314763055291001167930871046769424526179926358961663258275058994314063148929027224320405929648289955612122967543639109036633664243571342596876998968050294529443057759483772582729744166158020316771793673196844750283383978789057432541683898514383463080559620807464226920829160017898657336364812663150012086330969018718725994440845542914588949592633905940314740088177374202434849453507783974083610719345984364838506636642723635618376617411852012363396296031834473492692988964693155912991949904337192560408636601667026004048126423460802623921347727351625734140063655339210851197760299605410935248525704459632010521627432393086118902641320459085199921923277363310159558090794864035887204298460604624595694828630430248692715054773644071273325138454320450306535500113346131251969692907295387875058546849380857238191054903866009722244037558538345053636608361957823498827484333308147050455398235053874233866736867780594634678612383223047461255616187032986114197868183847000277755721279502722203861034775757320672916481915830830018450183021031199711542278823138562762220989681640881723185878345260677675896655405553256401261274279470381534696755863601397671801806089077675387603363092702946018956345119973025960091861659954657716589249349620146100146087260593046534238247870179526226748289632825658166323991133686247833439285089230728290375194171495072704976207257636352147821946579811143572655802436304960612002708608879029643944713403195666809117322505434756642544035357709752493902747130747965487015754781960987311075444725492349318136335122817809270988562923975418261494958601052829535828687652669661426902811217969332580248404996576921638415484134147947679086353330685170583970945593660426228061590647440408801410600741955196278477967874673490101380406829785048570276851862758959334807395861148895290557185640562663561065774343463136139167859847426299647538763737790807517232074862024778049652031490628419303328227599603095411454797893232828649788630034503642596335889338370587890236109570412563149788180511357954226080584200607128547377692326470848657199152739786083060798150693844140349997792544876494609860098390627177873295123636022113227939295342210518926787059924925242983619890870036495797761614233721055246784403672938049114384914789372043841829952837500168580583897515690130609522500671172631464869396998752408295224874009428688044937052892390789323414581344885765030459358049993415396799158278994905387289297384388211231048428276105561004344221468782499660534744506425686768964753628149530478236114399662306146029360871327549731234957735697652923438769172663695869398440861378076914583079925641061653832965860045620402655793979525704373922487901060435945116027411989441050228391684055771424450471597086279303547939826323682458803242878976365153761059247107230167487314224279923477593029177491612065429095444112443224418165196349823586753836625393028259404441904417088237205465186661403895280981920618760832585235878683886509389716846938854384354406113260505412481490893072100131060047924138184977197551161255573331439320386807552306892076419285717437156095057081360010584854760407710024671663429353267948144197512602526794361250299377035729893128141589195062975040060600827095784789273398902160247731190522768691943313195520250096932300268669412914610119245705742447885969823030835636916657929879726230869334837687929269793270405140622616369572474670566335961812491267660670725770134237119425789560917044049296350970260172054102111432162382578408300339436901671839203167955623201411765692702803281417817538839801120167068989101816566147316602939016899388137597776968317390088941537571029669290645074640522057073376077224053650590062481245454759247558955702725324614637416373412407726256515722965902073434818441630791558078098924225400367899801390356512542617168536112378179737281917896507425704856583184995671433566154809642726547000304918518149151955526322433108055204534769895863979196889028281938722527983716336758468481525602965708253761064804983606339689455845783745812730327117911665467434204930739329374990448780903529015627237923267755339515368281563210950938632664924017796500742172411998428601752152734107956857972160454135607342073292104755741717309794528983091958064387952768660086462490723237880851265055850836893595203512944920897215870686990980259695120436537978130663736713385819138567036735886483561759116779912894359204702912845342026328952355445854083605179682744691696680050110553981178852515089784546032160993102656730845996920817990848968855742405487007247789802353280881430121637623448998239135663330722178839455449531996265748471310528681726441199451147931004004692051504619857768423797641588997017704802766337686513556656165300619731934857168608112318518577529832886853944202140979887948060083536051628489870541082362222487583414414629020982721515615652000155199323397080199433228940780187242943441638269342833728439074513917309836736337389759976504190713510514596498950980846363863789888484546471995973345961906943234671716669571209696738814805534676355059363546958042175169875272727048316385925626392457499882024862953061167031669201823574595059764052254749015351870802728728166309547194369591303522338142918209689574459742997273381476021313515827757477089485192901819290505354368870543611868864524786713230563216958295361537684321369955475233610101220374365366078599128087778720308461032855761148054701468963799412384740768553670608540804079173881803689655635622779814631914088769405498397966869395515285360604176229501866262827186144709964428786535999110306498592401409559589088915841028411037330356607717965182025097866945964344066223736763187914797524907370784201037142541413422558981791336371414628295157412441606904650796998330968981469505359729803979598701159372191842701540958561496456176380066244424480246809093752330276901273761176902140572637718905902356681904541600860616309123962152557714526625059803663580946422345816150731459088827495257733126445639276087166894420738548175314748293328739428807074150545476286363790155061270311836543077935921061088367354006044274067023879026827122584694961719833490340268006237263089726708935718827088736502377133574550442715408815970461665418239082466837188751773340689978811499669216836108984612325753868933657733475093356973018896875309330894182451414254251089361947223018921925524059288199131580992651181151513563599841896271380932441185358550145244152091725106690798425776611000077944850021211008348302481533903431259423561251435481513521053612315522897912055560479169022417623500879286913339902421182407396768449216708040759363061886729061813415418376246107581158824909104116381833609380434937661765294421614817041394067965745784825004386877685628443312751366072668814683795239961112055822254895620037477754418639727606046107800979155742079016805690838852571483965760136741619387259641339511168726155623949477567307091365336279521383473302712325574992144014852669454502438381380871317766395619256996035365890226202738760338529380138510684377258854105135749010982031880054565760518072266015415861764434799301283444595344651006168565883393675751412267972292389240070816658639407898309022173496806889587582129369266032547207576547805007468782575775935390365062969711643659584146890393044126970755806339136475930438556142818117318384952667791471076565131369606953944479830087623645761660783666115249487563913321598948291378016335099181688432324008505924974069992779627211587669473508057459895980885865616701771741661434287685075308454834828925119969949800983632513163779215987564016989791019688088355310909519900840899952679172232928206206808726936848703472529050446697248321144256488840278993786614074054349228992350594256399644697119895598325058797345612732701680542205960022531491852841070257085176350141718440203470357913260602597575873385586860535684917240664166352964048755846013105513257179485267868184300927136705567479978724837900325269927863112533694322201259653766501581186197421395680918649329078304129957094096198516405062034264855995980786632390949076004293327498012170975914791240995222049912018637458696936331418606443909107023186319387400805832184539212149355552355338840205311807432354569886769222975563919538782307714754729283449140597397587187203519506971183950606236442073088327157211485258843404211773097153667356266349212555079851373264115961841034070831778106435785154288547301637829765634888731758034861599003798273577201244931054647303906360804210599972867941818494047247001956252938910042237768321395111860505304170470872998633108374156296423539485204044647316780966746121991083192914976440546627327045962533666474241025887660346506086987070083811250433575907928144251976513710969414788609891197071018915404503272797532041376434743606049640743147986386122245155776943192938857868669308813960946515938964737156317657297118325555594115812754833157360610575264317844376409667090842711207630650122957567695447996493968007097127030084865824624184974065799363913387519214617632014002286965496199263107216685473959636761030197757795560120279869062386389547954833465714106613675289243976184099374167028381327006792559887385482345448593725746414828598131814535659313061349048987783193209719120372790176071821024227987968521510006134879197895998745473870302808943728759200954014570423636386849814726409568991395155510373385885111673724545252161666594712931368614314445805766848870402001112899557993206155093013118487135763097065721312480590676052667322463373390522043112688061221241705388680405950107581594968033391164145007539449916359923846844465661324065574667398887110292468008820482412768194563041812936826658188107428063134534470180937216982494245527607124886456890072509561384791920900155155021283135467367669329966699140220087440120213400648941136059577539591941735409527306290191061263593282183321617481512837681688689080396640010522927991978306787381192272296268932899648287726815424652032108384592976690075408171203522151264313606822779765808749818873399803336431842355958649163065776630790660216036763606568451780580194030307756360087538576271533951011144355299280082942675072377015533037427200346071848417190587457883290412844696677871427723463586024071755391775024485142647034026758404806315606249558757088578300668001399649234724094463642726196142155106263684268915536377411197555751891497682216508018058914696309443313840252732367998054861321662002841787271590910351360540372967487297952369174556111354866715038758709595604841225118414544369833987400861727145985442826976428142541572134523545352571994988322000172377258229907968494774147167221921406074833910171295350579552780586464322446935029113027891822433518088892025765005077730019294806824731797830046736052772042975614811396637381928349564485313583625799353533130801722802058021331945231616914556055744706960503568895004682246021511458423365256217142524368859878696778436796519980358012734960463668736182318989831462457345578966478245746178259350493818714738780923047662287934278934840330800209390690008353415035492752387787205296841534779941351368348846556881394736880355751685052294737824021767251131235246146106600941181409702152710484154112811742444374435950347480843376490283956645437807987597521624818052232095059768405329019202954061444496544884655390494629652354193625239216276474472531013469363334679874555057791237502523314270465190215836157894269956078174317619341087370108926771947247115221831235214542695055951938626045283555535017194237436284536438435468067985997628275814002553291344770687188616122698570632967363908472016249413104967672352351172951279622872827788086865730279876248066377095893682721926073097068500663138430851140544480883480120865208808766535139661984116887763556724830253293600286279038486473230443080777315504791990550780871471292211621785370695786045842167505636208424268496095536754900359355436696128749845462904444016529978078918184686924955660619369345127433966621276831029250171929925776125391256734357743751000906590758612374485600944762399201901493053884062467227681803834376796182505859105910985248843622192840063806500574193851574015279306358523044455430423244515152948654498955578470111451844335396382918148504489643546768814678862370041222882289678040894201315891282619234680002061549660018936523700234354915350491134974026222366360013453380046541713144371085779035282562116996739656842519449455227031360429012122182480708315121761161913327702522639200945417236969163395662300212274879417770438668082212291805364326620649928966664442130847424129061648980441825768000514757959739795384516860522123348801820809079089264975169103130342953682872787907293447976765401175153037410778655617909902064304424909605489481617273585851372115321099254947557974077525126972355204698146873747997154860722486753641633090758049601346846046272829598358787990268944480083621096209177506325566729169825854512173423994741283922698963076940305613764375530079864403140662352292048032540101185311068465517385885747739092089407386898781665951317895616900776873145663981743612981919459195789831859738500556933758580410355304126542066008456604049726084950949517735240219026984982308103171464053281299990136296549603101103760906078911747690808091025266651091205411315879643384579844121978267705742785602028387503152847141551655026654855860267978807343870169129763558461633133898457680493831820585548676508279698078557418314775204734311165602803540937909937247096105137781471878598477844970558779464967386547823870051236492196499639741513652908485756734584693260019304747981914313140283972307613344295182333256446479979556752874370756817960510912884960936251955467528739410237572647702646422460018887566780558419375384835874315597233764355411076256930270157850952312046323793706772705275418616636973066631955390811550042333165700404963930605095350210378273372182172766708513184926530421825905666623807282817710428699968382018798469944485578289189729264776478094511042502624437420067811486623426212113822209160090521009892013685286410396910965019699138784567685638040293182415249224308835740927203871069747755978987014088565811604554318688914305358932984342208839137343220477720935733276648878604732265974659645161187649625144004992835257258232088257754989208947341191527838618500739386349624894704159327846361032481896848538370256846476815572114919209890356576077230803422889161350827125760728731485376803461819666933004211014761179905704081383944600945001069265713102050196789082617822892039667411364808202079185630528680751188818618425945828505261510777762132027959550523827438851960567258944802641719764679545615304112789526261351772676504976896994849669546690650885628839870134061312531280856495034080025266964977381097821053570357747941707837171004302883574579404177764807003373024978787855334168550040704643560956136428500733506200711317325872261346385512979027133714334507554969489820029716799945587779582892099934281698460151804332944737649623314619968652777201754395036276216646501209022780857984883675955702092963474472523372216596599337363715689337874407744947546443732858677746290419684290644980701987204583619835253721332775533128759287031985770826890062385219457006847233617774205201590302356034926821544153553370414274455936214272915836678577262703420150257229401769905714648538129572691541281600030987899788908826483573441882413508465870353458851019892354415663112224880609285913062250035525892069179543576193015217118171519368522445442234905670936570542792634966370567024114377007666274089023128379423182505178352829828673351932753139325116173849524336831315137414555009275348194640714777720560870020422958169916192363871817823889486963959994286650567739727075511775860452738659410755322914299508408154851600908793896922436338552354337359936838160111671754722984667141570799684908476940435898456729519565377791971727655518238684707757847011850930764722601900473319970706395852537581918056319469805524823179814345683763746803472774351911437333981892946611180294982959045238086862167891514373923531188666958816211740828115880450009703843573652147970539389287084965681201305266584259696558512298427594345667100607648335963246297741630861513801004506365299418640407808092789940224443649834353428635586540302917264150004146649521830253492608075831248736257950589660600917575930359895742756490502525468397216171235748369855326832519457017269157444414960561300074754815348712267195152283877851712283866051225406132888939260895766657746518068813743015434147998462119643126352034221619071896382693767272230309484398700313046208030147671437344071625311987385994723700035009436736919174758128794091251090096789424752721467076906148261735775866869689263571741168335049645633710986016247661832969595919117713533612419310708162316685719169472258657949962628305310633410734906970266095227585348072292491313018312439957314245059552367231711849530400147974007070135014887009308007099336588332059167884493286948248921134083968438339578001495895215176562248218479329486893541273654082132796118864575797857353508761173010712295164822547587690733656768826222641334875883122942027130371710127538529881139529273451655200785127810265731685275306378758728882493391723928422988418620625717330505696991173322459951235429367366858858443931971079851515935832779559792920578209075018154132666323452659409673630198244670047587691841252845665145617062417698691275636081655073531218186131375357916531461864825608440678090302766663711499867911194038164971388225203014699065005836631804959346313789077432695062069266551469012367972609971412920737194960225647840783005193172190465048773087919500282596382154590435347676486466869156909373055892855352783336223004728416662550545274307012632793636172418080292546645601475886421532482801610185985033213743117861807027077898935696639455025119937469204184911957784390871710611343589759837550769009224612253777669224542354513382299185768598274800690681851532760745739936456930283433937072262836706913749197993783820396782571900975819867286191247970871165499081082501869438598534499746318469715649056288929900822465092740321089817033002190693640740792356713855355682472697823178394557429990661910252834449860139010039495211876394367763763428308954238705690645653060072468577184480991210159007760558605186977439857345698847176263593172595302236811402399315028253827621274819599078802925399231100277946211971177053548283574398686252442220081265662755112370663084601055293339904964402367277073847422679184254258546466245536151778789091350777742761263686129809662068092639486202864098751406519760226812776375632483871407957598045812008193125985614284342787853580340320176838715247145448988921424578620433166800292077489745491102694261284632330279504859630051750736557056758770771000944005479061042514200571584680690279200087549044160612507905729017524100425384047975050603777062141769276590066068886367409038119815603376219484867605841098625136046379722958797467654982568914639928213865890677191528673539716999942104861534872093426899344153055706918287512581571714907892794761601892088285048582459163550525933968253401003364299242497957468348734162414518073683167490607953435241985782083852615105018600878936568457835341497121761837277061620135719704632999462472827219713293663470850562406442082018341827010425408998837129733598120514053350026795930238750957350682767084097641144175251745835284666186956108108094720207249667905377020477032545945843803003036902265325324439865005497112135727895191713602849317598130374164614715594589503221160141126918558373911142363679666593312893013997385282408331132106230614796807744290254219848595049167258366711315765362776614559396856230009594245966898015724213719769249223501732030530919737866899146666990373444459734090558814343130951923719485071269251353464692848332697709251504433896961590644012707252241516978239889206065823846279646914750629758216960732216074623519278400817825536720927790663411634673962602141257435164734021797667858304519343418613584552749249261040968944760536002249292230209504521904490342330491114994047233869463394674919379501573821986350849240767158833212346163843574629988534481929695346467367434276187710462393616707693913358160823921974674512028311458789151810935917096864676065395719895431689483247514128108690790756622452387409706564369099472208274326252543435615654637545743633204951708298957232732433424747717978766844019978219036760993456941857303023452519721761021655900845579233650697865367271828315210451317016685952324676358590808283462410484173082348940802462687507861320858539106444238556518433063906190973754616872582998631998024302420188439599632205523928128511975956396515909675272717261757528300738174016877833224843806494079193064126562446900784771619474963434911204529306057908194217263026313737579976422558014332777602432419017438415018399275354820008667960559396712998290134220059721032841634134464867563851603891626562587315202327033691159517875164316342236428767156744748248249598858420132127972849710163356776463582168887589670344866701728836540829587899896040478340040671153952994765538190870090231541164900673913919203365195284291822829182361554798570228806614819970391840628865815903433179569538901729067211 Используя кадры из шоу, где видны читаемые фрагменты заданного числа: ![](https://habrastorage.org/r/w780q1/webt/zm/cv/bk/zmcvbkvxpwxpnolsazfp6-cto1k.jpeg) можно убедиться, что было задано именно это число. Ну что же, значит, по крайней мере, тут обмана нет – названный победителем ответ действительно является верным. Однако найденное число состоит из 79899 цифр, а не 80000, как это заявлял ведущий, к слову, не использовавший никаких намеков типа «примерно» или «около», которые указали бы на приблизительность заявленного числа цифр. Но математика-то точная наука! Впрочем, на кадре, где хоть как-то можно разглядеть последний блок цифр, видно, что у него отсутствует одна строка и одна цифра на последней строке, так что все сходится. Теперь разберемся, как же можно выполнить это задание, если очевидно, что даже прочитать все эти цифры невозможно за отведенные на решение 5 минут. Сам победитель, объясняя свой метод вычисления, говорит, что оперирует какими-то зрительными образами, вообще не считает чисел, и т.д. в стиле Рен-ТВ и ТВ-3, но посмотрим, что по поводу извлечения корней говорит простая школьная математика. Для вычисления произвольных степеней и корней можно использовать [свойства логарифмов](https://ru.wikipedia.org/wiki/%D0%9B%D0%BE%D0%B3%D0%B0%D1%80%D0%B8%D1%84%D0%BC#%D0%9B%D0%BE%D0%B3%D0%B0%D1%80%D0%B8%D1%84%D0%BC_%D0%BF%D1%80%D0%BE%D0%B8%D0%B7%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D1%8F,_%D1%87%D0%B0%D1%81%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BE%D1%82_%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F,_%D1%81%D1%82%D0%B5%D0%BF%D0%B5%D0%BD%D0%B8_%D0%B8_%D0%BA%D0%BE%D1%80%D0%BD%D1%8F) понижать порядок действия. ![$log(^p\sqrt{a}) = log(a)/p$](https://habrastorage.org/getpro/habr/formulas/be7/7ab/106/be77ab106b56668c9b9d0081dd944086.svg) Поскольку мы считаем в десятичной системе, удобно использовать десятичные логарифмы. Для получения конечного результата нужно будет возвести 10 в полученную степень. Получается такая формула вычисления корня: ![$n=10^{log10(N)/p}$](https://habrastorage.org/getpro/habr/formulas/23f/960/fbc/23f960fbc100e5bd30bda74e349030de.svg) Из той же школьной математики известна [экспоненциальная форма](https://ru.wikipedia.org/wiki/%D0%AD%D0%BA%D1%81%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%86%D0%B8%D0%B0%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F_%D0%B7%D0%B0%D0%BF%D0%B8%D1%81%D1%8C) представления числа. В этой форме заданное число выглядит примерно так: ![$N=2.1033554*10^{79898}$](https://habrastorage.org/getpro/habr/formulas/4cd/5bb/228/4cd5bb2280479d7bba73e61965ecdf62.svg) В принципе этого уже достаточно для вычисления – подставив это число в приведенную выше формулу, получаем ответ с нужной точностью. Однако не любой калькулятор может переварить такую степень. Формулу можно слегка оптимизировать – логарифм и степень сокращаются, умножение становится сложением при выносе за пределы логарифма и формула с подставленными числами будет выглядеть так: ![$n=10^{(log10(2.1033554)+79898)/9999}=97865890.999996$](https://habrastorage.org/getpro/habr/formulas/e40/695/b16/e40695b164085fdeeca5124cc1af821a.svg) Теперь никаких гигантских степеней, результат – самое большое число, которым приходится оперировать. Видно, что точность результата даже избыточна – 5 девяток в дробной части, значит, точности в 8 первых цифр заданного числа даже много. Получается, что все гигантское число вовсе и не нужно – достаточно знать первые несколько цифр и общее количество цифр в числе. Для 5 первых цифр (2.1034 – округляем по правилам) ответ будет 97865891.2, чего вполне достаточно при знании, что искомый результат является целым числом. После округления до целого получаем верный ответ. На самом деле даже отношения 79898/9999 достаточно чтобы определить порядок результата и даже получить первые 3 цифры. Теперь очевидно, что ничего сверхчеловеческого в продемонстрированном на шоу вычислении нет, вполне достаточно школьной математики и калькулятора. Да, вычисление в уме дробных логарифмов и степеней – это не то, что умеет делать каждый человек, но ради миллиона вечнодеревянных можно и научиться. К слову, на том же шоу был человек, оперировавший дробными числами сходной разрядности в реалтайме, тогда как у победителя на выполнение 4-х математических операций было отведено 5 минут, и он их полностью использовал. Как сам Великий Искоренитель объяснял свои вычисления, уже было сказано выше – зрительные образы и т.д. Ну да, видимо воображал логарифмическую линейку. Наверное, не стоит его строго судить за это — это как судить фокусника за использование слова “магия”. Однако на шоу, помимо зрителей и ведущих, были приглашены эксперты, с целью дать научную оценку выступлению. И тут – как в ужастиках – уберите слабонервных, стариков и детей от экрана. Иначе они могут получить инфаркт от приступа смеха или черепно-мозговую травму от фейспалма. Приглашенные эксперты, профессора математики и информатики, руководители ВУЗов, в такт участнику стали пороть отборную ахинею в стиле Рен-ТВ. Один предлагал на основе этого разработать супер алгоритм сжатия данных (видимо, слава [архиватора Бабушкина](https://lurkmore.to/%D0%90%D0%BB%D0%B5%D0%BA%D1%81%D0%B5%D0%B9_%D0%91%D0%B0%D0%B1%D1%83%D1%88%D0%BA%D0%B8%D0%BD#.D0.90.D1.80.D1.85.D0.B8.D0.B2.D0.B0.D1.82.D0.BE.D1.80) не дает покоя), другой говорил что-то про запредельную вычислительную сложность O(n\*log(n)) (и откуда только он это взял?), хотя из приведенного выше очевидно, что сложность этого вычисления – O(1). Интересно, они продемонстрировали свои реальные знания, или им заплатили, чтобы они несли эту чушь и позорились в эфире на всю страну? Судя по интро перед выступлением, этот участник решал схожие примеры с корнями и на предыдущем шоу, так что на подготовку была минимум неделя – могли бы хоть загуглить если в голове ничего не осталось. Но все же, я надеюсь, от этой клоунады будет и реальная польза. Этот пример можно использовать для преподавания ученикам логарифмов и степеней – ведь опустить всем классом на уроке математики двух профессоров этой самой математики – это же так весело! А знания, полученные таким образом, усваиваются в разы лучше стандартной зубрежки, и прививают ученикам интерес к предмету.
https://habr.com/ru/post/526378/
null
ru
null
# Huginn: простая интеграционная платформа В мире API, сервисных архитектур и облачных решений многое доступно вообще без программирования. Однако, компании все еще тратят драгоценное время разработчиков на рутинные задачи по интеграции. Мы хотим рассказать об одной из платформ, которая позволяет нам подключить новомодный маркетинговый сервис или проверить гипотезу максимально быстро и без участия разработки. ![](https://habrastorage.org/r/w1560/web/505/575/f48/505575f485d54b068c5fbba22df86eda.png) Всем привет! Меня зовут Юра Буйлов, и я отвечаю за разработку в CarPrice. Компания развивается динамично, поэтому скорость проведения экспериментов для нас играет важную роль. Сегодня хочу рассказать о простом инструменте, который избавляет разработчиков от бесконечного потока простых однотипных задач по интеграции с внешними сервисами. ### Мотивация. Почему Huginn Рынок изобилует сервисами, позволяющим менеджерам строить простые цепочки действий, например: 1. поступила жалоба от клиента 2. зафиксировать факт в журнале 3. отправить сообщение в Telegram ![](https://habrastorage.org/r/w1560/web/67b/b88/fc7/67bb88fc7ace43ca99e72de4de2c06b2.png) Мы уже активно использовали Zapier для подобных задач, но нам важны self-hosting, масштабируемость и отсутствие ограничений по количеству обрабатываемых задач. Так мы стали искать инструмент для простых и быстрых интеграций, который был бы полезен и менеджерам, и разработчикам. Сам подход не нов и напоминает упрощенную реализацию EIPs (Enterprise Integration Patterns). Естественно, мы попробовали несколько решений из мира “кровавого энтерпрайза” (Mulesoft, Jboss Fuse, WSO2, Servicemix, Corezoid). Вели переговоры с вендорами проприетарного ПО. Все не то: долго, дорого, сложно или неудобно. Так мы пришли к Huginn. * OpenSource – более 16k звёзд на github. * Написан на RoR – можно дорабатывать и писать свои компоненты. * Легко разворачивается и масштабируется. * Имеет низкий порог вхождения. ### Где использовать Huginn Для капитальной интеграции мы используем RabbitMQ с адаптерами для каждого сервиса, критичного для работоспособности системы. Настроен мониторинг размера очередей, доступности сервисов и работоспособности компонент. Однако вносить изменения и поддерживать документацию в актуальном состоянии в такой схеме накладно. ![](https://habrastorage.org/r/w1560/web/4dd/eec/22a/4ddeec22ade74c0dadf3f7e7b84760ef.png) Huginn же используем для экспериментов и простых быстрых интеграций без высоких требований к надежности: * публикация аукционов во внутренний Telegram-канал, * триггерные уведомления: жалобы, нарушения, пики и просадки в метриках, * пуш данных во внешние системы, такие как exponea, expertsender или piwik. ### Что такое Huginn Изначально Huginn – это платформа, которая задумывалась для запуска агентов, которые выполняют ваши задания в интернете. Парсят странички, отслеживают события и выполняют действия от вашего имени. Агенты создают и принимают события, передавая их друг другу по цепочке. Huginn предоставляет множество встроенных агентов, которые мы можем использовать как настраиваемые элементы своего Pipeline. Агенты могут запускаться по расписанию или принимать события от других агентов, обрабатывать и передавать результат дальше по цепочке. * **Webhook Agent** – принимает POST запросы от внешних источников. * **Post Agent, Website Agent** – отправляет запросы на указанный урл, парсит JSON, HTML или XML. * **DeDuplication Agent** – не пропускает дубли событий по уникальному ключу. * **Event Formatting Agent** – позволяет перемапить поля в сообщении. * **JavaScript Agent** – выполняет произвольный JS код (V8, therubyracer). Для полноценной интеграции нам не хватало только агента, который умеет отслеживать изменения в базе и мы написали его сами, благо в Huginn очень удобно писать своих агентов. [huginn\_mysql2\_agent](http://huginnio.herokuapp.com/agents#Mysql2Agent) Как оказалось, большинство кейсов мы покрываем тремя агентами: * **Mysql2Agent** – поллим базу на наличие изменений. Для каждой строки выборки будет сгенерировано событие и передано дальше по цепочке. * **EventFormatting** – форматируем входящее сообщение с использованием [liquid шаблонов](https://shopify.github.io/liquid/). * **JsonAPIAgent** – вызвать внешнее или внутреннее API для получения/отправки данных. ### Примеры использования #### Публикация новых аукционов в Telegram-канал Ниже представлена одна из первых реализованных цепочек. Агент ежеминутно проверяет новые аукционы в БД по created\_at, далее по внутреннему API получает всю информацию по авто и отправляет сообщение в Telegram. ![](https://habrastorage.org/r/w1560/web/78d/015/653/78d0156539834ab9b8d13261fc514879.png) Самое примечательное – это то, что интерфейсы интуитивно понятны, а актуальная конфигурация визуализирована в виде графа. Поэтому подобная интеграция не требует ресурсов разработки и делается силами менеджеров и интернет-маркетологов. #### Персональные рекомендации по sms Ниже пример реализации эксперимента по доставке персональных рекомендаций дилерам по sms. Для каждого нового аукциона получаем по API внутренней рекомендательной системы (LSTM RNN) список дилеров, из БД получаем номер телефона, сокращаем ссылку на аукцион с помощью urlshortener и отправляем sms через внешний сервис рассылки. ![](https://habrastorage.org/r/w1560/web/3ae/54b/512/3ae54b512c1c4da180a1998f1f833bc6.png) #### Интеграция с маркетинговыми инструментами Далее представлена часть схемы интеграции с маркетинговыми инструментами – сервисом exponea. В ходе ее реализации ни один разработчик не пострадал – реализация и поддержка силами одного менеджера. ![](https://habrastorage.org/r/w1560/web/776/efd/5be/776efd5bedee4d9082b8cc8a68570f09.png) ### Развернуть и попробовать Самый простой способ попробовать Huginn – развернуть его в docker. ``` docker run -it --name huginn \ -p 3000:3000 \ -e ADDITIONAL_GEMS="huginn_mysql2_agent(git: https://github.com/yubuylov/huginn_mysql2_agent.git),huginn_jsonapi_agent(git: https://github.com/yubuylov/huginn_jsonapi_agent.git)" \ huginn/huginn ``` > <http://localhost:3000/> > > Логин: admin, Пароль: password > > Можно использовать внешнюю базу MySQL и отдельно запускать разные инстансы для web интерфейсов и обработчиков событий, что позволяет с легкостью масштабироваться. Спасибо за внимание. Надеюсь, данная заметка будет полезна, а Huginn кому-то поможет освободить немного времени для крутых проектов! ### Полезные ссылки → [Оф.репозиторий](https://github.com/huginn/huginn) → [Установка в docker](https://github.com/huginn/huginn/blob/master/doc/docker/install.md) → [Production environment](https://github.com/huginn/huginn/tree/master/docker/single-process) → [Список агентов](http://huginnio.herokuapp.com/agents)
https://habr.com/ru/post/330382/
null
ru
null
# Morris.js: средство рисования красивых графиков при помощи jQuery и Raphaël В [позавчерашнем выпуске](http://hacks.mozilla.org/?p=11575) «Mozilla Hacks Weekly» увидал гиперссылку «[Morris.js](http://oesmith.github.com/morris.js/)», пошёл по ней, почитал, порадовался — а теперь и вам поведаю. **Morris** — это легковесный джаваскрипт (всего-то [3052 байта](https://raw.github.com/oesmith/morris.js/0.2.2/morris.min.js) после миниатюризации) с открытым исходным кодом (распространяемым по упрощённой лицензии BSD), который для работы требует **[jQuery](http://jquery.com/)** и **[Raphaël](http://raphaeljs.com/)** и строит с их помощью графики на простой сетке горизонтальных линий, наподобие такого: ![[график]](https://habrastorage.org/r/w1560/getpro/habr/post_images/2ac/8dd/0ef/2ac8dd0ef355f42b9d8c48ee02360a2b.png) По оси абсцисс откладывается время, по оси ординат — какие-нибудь зависящие от времени значения. (Morris изначально разрабатывался для [сайта](http://howmanyleft.co.uk/), показывающего общее число автомашин той или иной марки в Великобритании, так что для него естественно, что ось абсцисс — это ось времени.) Графики реагируют на мышь: вспучиваются точки, соответствующие указанному мышью моменту во времени, и подле них появляются подсказки. Достоинство скрипта — простота API. Приведённый мною пример создаётся вот таким вызовом: ``` // поквартальные данные, тонкие линии, цвета их заданы в явном виде Morris.Line({ element: 'quarterly', data: [ {q: '2009 Q3', a: 100, b: 75}, {q: '2010 Q2', a: 75, b: 50}, {q: '2010 Q3', a: 75, b: 50}, {q: '2011 Q1', a: 50, b: 25}, {q: '2011 Q3', a: 50, b: 25}, {q: '2011 Q4', a: 75, b: 50}, {q: '2012 Q2', a: 100, b: 75} ], xkey: 'q', ykeys: ['a', 'b'], labels: ['Series A', 'Series B'], lineColors: ['#167f39','#044c29'], lineWidth: 2 }); ``` Все необходимые подробности употребления API изложены [в первоисточнике](http://oesmith.github.com/morris.js/) достаточно подробно — подглядывать в открытый исходник, скорее всего, не потребуется. Единственное, чего «Моррису», на мой взгляд, недостаёт — так это вертикальных линий, перпендикулярных горизонтальным. Чтобы связь значений из одного и того же времени тотчас явствовала, а не только когда мышою поводить доведётся. Предвижу также, что для кого-то итог работы «Морриса» покажется чрезмерно простым. Они, впрочем, всегда смогут прибегнуть к помощи [gRaphaël](http://g.raphaeljs.com/) и тем создавать [несколько более навороченные](http://g.raphaeljs.com/linechart.html) графики.
https://habr.com/ru/post/139326/
null
ru
null
# Дистанционное управление системой отопления Интернет вещей (IoT, Internet of Things) является многообещающим направлением, как уверяют аналитики. Одним из главных трендов IoT является автоматизация жилья или, как любят выражаться маркетологи, создание «умного дома». Оставим в покое словесные упражнения и рассмотрим конкретный проект. ### Постановка задачи Я живу в собственном доме недалеко от Москвы. Помимо очевидных плюсов подобного варианта проживания, имеются свои нюансы. Если в многоквартирном доме большинство коммунальных задач берет на себя управляющая компания, то в собственном доме их приходится решать самостоятельно. Одной из таких задач для меня стала необходимость дистанционного мониторинга и управления системой отопления. Справедливо утверждение, что в средней полосе России отопление зимой это не вопрос комфорта, но выживания. Согласно многократно подтвержденному эмпирическому закону, все неприятности случаются в самое неподходящее время. Более чем за десятилетие опыта жизни в собственном доме я тоже убедился в справедливости этого закона. Но если, например, отказ насоса водоснабжения в 30-ти градусный мороз еще как-то можно пережить, то выход из строя отопительного котла превращается в катастрофу. В такой мороз нормально утепленный дом выстужается менее чем за сутки. Мне приходится часто отлучаться из дома на длительное время, в том числе и зимой. Поэтому возможность дистанционного мониторинга состояния системы отопления и ее управления стала для меня актуальной задачей. В моем доме система отопления имеет два котла, солярный (увы, газа нет и не предвидится) и электрический. Данный выбор обусловлен не только вопросами резервирования, но и оптимизации расходов на отопление. По ночам, за исключением суровых морозов, работает электрокотел, так как в доме установлен двухтарифный электросчетчик. Мощности этого котла вполне хватает для комфортной ночной температуры (18-19 градусов). Днем же в работу вступает солярный котел, поднимающий температуру до 22-23 градусов. В таком режиме система отопления работает уже несколько лет и позволяет сделать вывод об экономичности данного варианта. Понятное дело, что ежедневные ручные переключения режимов работы системы отопления не самое разумный выбор, поэтому принято решение автоматизировать этот процесс и, заодно, предусмотреть возможность дистанционного управления. ### Техническое задание Следуя привычке разработчика, первым делом я систематизировал требования к создаваемой системе управления и накидал для себя нечто похожее на техническое задание. Вот краткий перечень основных требований к проектируемому решению: * контролировать температуру в доме и на улице * обеспечивать три режима выбора отопительных котлов (подробнее чуть ниже) * обеспечивать дистанционный мониторинг состояния системы и ее управление Первоначально в списке было еще несколько пунктов, но потом они оказались исключенными в силу разных причин. Например, я планировал оснастить систему экраном с индикацией текущих параметров и возможностью управления через тачскрин. Но это мне показалось не нужным дублированием дистанционного управления через Интернет. Конечно, можно придумать вполне жизненные ситуации, когда локальная индикация и управление необходимы. Не спорю, но не стоит забывать, что эта возможность потребовала бы дополнительного усложнения и удорожания системы. В алгоритм управления системой отопления заложен сценарий апокалипсиса, связанный с полным отключением электроснабжения. Понятное дело, в этом случае не приходится рассуждать о дистанционном управлении. Но находящиеся в доме могут несколькими простыми манипуляциями перейти в аварийный режим отопления. Достаточно переключить один внешний четырехполюсный тумблер и запустить резервный бензиновый электрогенератор. Это обеспечит работу солярного котла в автономном режиме. На практике такое случалось уже пару раз, когда ледяные дожди приводили к массовому обрыву проводов ЛЭП. Современные котлы отопления, как правило, имеют выносные блоки управления, подключаемые обычным двужильным проводом. Чтобы не влезать в заводские схемы управления, было решено коммутировать собственно эти провода. Разрыв провода, осуществляемый обычным электромеханическим реле, приводит к остановке работы котла. ### Метод обеспечения безопасности IoT Начитавшись страшилок про последствия взлома умных домов, я решил подстраховаться и минимизировать возможность внешнего взлома. Кто-то скажет, дескать, кому нужно взламывать именно твой умный дом. Соглашусь, вероятность минимальна, но наблюдая регулярные попытки хакинга своих вебсерверов, я решил действовать по принципу: лучше переспать, чем недоесть. Шутка. Для этого я отказался от распространенной парадигмы, когда центральный сервер является инициатором управления распределенными умными датчиками (устройствами). Было решено использовать классическую схему клиент-сервер, где клиентом выступает умный датчик. Выбор такой архитектуры не всегда возможен в IoT, но в данном случае вполне допустим, так как системы отопления обладают достаточно большой инерционность. Даже наличие возможности мгновенного и произвольного изменения установок в системе, например, значения температуры в помещении, не приводит к мгновенному достижению заданных параметров. Передача инициативы в обмене данными на сторону умного датчика позволяет практически полностью исключить его взлом посторонними лицами. Ведь датчик воспринимает только ответ от сервера на свой запрос. Теоретически можно перехватить такой запрос и подменить ответ, но эта угроза минимизируется, например, протоколом https. Если нет желания поднимать в датчике этот протокол, то есть вариант с вычислением контрольных сумм с учетом параметров, априори неизвестных злоумышленнику. Но данный криптографический вопрос выходит за рамки рассматриваемой темы. Если на запрос не был получен ответ сервера, умный датчик, выждав определенный тайм-аут, продолжает работать в ранее установленном режиме. В качестве сервера было решено создать небольшой веб-сайт с базой MySQL, который развертывался на домене третьего уровня одного из моих сайтов. Сайт был написан с использованием адаптивной верстки, что позволяет комфортно работать со смартфона. Для обмена информацией с сервером был выбран пятиминутный период. Отчасти этот выбор обусловлен одним нюансом работы электрокотла. Для исключения закипания воды в колбе нагревателя от остаточного тепла ТЭНов, используется так называемый выбег котла. Другими словами, после выключения ТЭНов циркулярный насос продолжает работать некоторое время. В моем котле по умолчанию стоит выбег в течение 4 минут, хотя его можно увеличить и на более продолжительное время. Поэтому пятиминутный интервал обмена вполне укладывался в логику работы отопительной системы. Да и более частый обмен данными не давал никакой пользы, лишь приводил к увеличению числа записей в базе сервера. ### Алгоритм работы Работа умного датчика, получившего название метеомодуль, не содержит ничего необычного. В цикле опрашиваются датчики температуры и влажности. Это продолжается примерно 4,5 минуты. Затем происходит формирование GET-запроса к серверу и обрабатывается полученный ответ. В итоге период (главный цикл) получается длительностью примерно 5 минут. Здесь не требуется идеальная точность, на практике период оказался меньше на несколько секунд, что приводит к постепенному сдвигу. При идеальном пятиминутном периоде в сутки передавалось бы 288 отсчетов, реально их оказывается 289-290. Это совсем не сказывается на работе системы. Основной скетч программы с подробными комментариями приведен в листинге. В силу обширного объема кода я не стал публиковать реализации используемых подпрограмм. В листинге оставлены диагностические сообщения для вывода в терминал. **Основной скетч программы** ``` /* * Sketch Meteo Control Mega2560 * ver. 13.0 * упрощенный алгоритм автоматики день - солярка, ночь - электрика. Начальный порог 21 градус, шаг - 0,5 градуса * обмен с сервером по http 1.0 */ // libs #include #include "DHT.h" // wired connections // подключение таймера через шину I2C, адрес на шине 104 #define DS3231\_I2C\_ADDRESS 104 // define #define HYSTERESIS 0.5 // гистерезис порога температуры, градусы #define LONG\_CYCLE 9 // продолжительность цикла измерений, 9 - около 5 мин с учетом времени обмена с сервером #define SHORT\_CYCLE 13 // продолжительность малого цикла измерений, 13 сек. с учетом времени сбора данных с датчиков малый цикл получается около 30 сек #define DAY\_BEGIN 6 // начало дневного тарифного периода #define DAY\_END 22 // конец дневного тарифного периода #define MIN\_INTERVAL 3000 // интервал чтения датчиков температуры 3 сек #define PIN\_DHT\_IN 23 // вход датчика температуры и влажности внутри AM2301 #define PIN\_DHT\_OUT 22 // вход датчика температуры и влажности снаружи AM2301 #define DHTTYPE DHT21 DHT dhtin(PIN\_DHT\_IN, DHTTYPE); DHT dhtout(PIN\_DHT\_OUT, DHTTYPE); #define RELAY\_E 25 // выход управления реле электрокотла #define RELAY\_D 24 // выход управления реле солярного котла #define LED\_R 27 // LED RGB #define LED\_G 29 // LED RGB #define LED\_B 31 // LED RGB #define LED 13 // внутренний светодиод #define LEAP\_YEAR(\_year) ((\_year%4)==0) // для вычисления високосного года // vars uint32\_t workTime; // время работы котла с момента включения реле float hIn; // влажность внутри float tIn; // температура внутри float hOut; // влажность снаружи float tOut; // температура снаружи float tModule; // температура внутри метеомодуля float tInSet; // установленное значение температуры внутри float tOutSet; // установленное значение температуры снаружи. В текущей версии не используется. Параметр оставлен для развития byte seconds, minutes, hours, day, date, month, year; byte del; // счетчик большого цикла, считает декрементом малые циклы char weekDay[4]; byte tMSB, tLSB; float temp3231; static byte monthDays[] = {31, 28, 31, 30, 31, 30, 31, 31, 30, 31, 30, 31}; uint32\_t unixSeconds; // метка времени UNIX uint16\_t timeWorkElectro; // время работы (сек) электрокотла между сеансами обмена с сервером uint16\_t timeWorkDiesel; // время работы (сек) солярного котла между сеансами обмена с сервером uint32\_t unixSecondsStartCycle; // метка времени UNIX начала цикла между сеансами обмена с сервером int modeWork; // режим работы метеомодуля, 0 - auto, 1 - ручное-выключено, 2 - ручное-электро, 3 - ручное-солярка, 4 - полуавтомат-электро, 5 - полуавтомат-солярка byte typeBoiler; // тип рабочего котла, 0 - котлы не работают, 1 - электро, 2 - солярный char statusBoiler; // статус работающего котла для сервера char unit = '1'; // id модуля char mode; // метка режима работы метеомодуля для сервера String message; // строка для отправки на сервер char ans; // символ из буфера String answerServer; // исходная строка ответа сервера String tInSer; // строка от сервера = порог температуры внутри String tOutSer; // строка от сервера = порог температуры снаружи String timeSer; // строка от сервера = установка времени char datetime[15]; // массив для установки времени модуля void setup() { Serial.begin(115200); // выставляем скорость COM порта для терминала Serial.println("Start setup()"); Serial.println("Meteo Module. Ver.13.0 Unit Number: " + String(unit)); pinMode(LED, OUTPUT); //LED flash pinMode(LED\_R, OUTPUT); //LED\_R pinMode(LED\_G, OUTPUT); //LED\_G pinMode(LED\_B, OUTPUT); //LED\_B // инициализация внешнего таймера Wire.begin(); //set control register to output square wave on pin 3 at 1Hz Wire.beginTransmission(DS3231\_I2C\_ADDRESS); // 104 is DS3231 device address Wire.write(0x0E); Wire.write(B00000000); Wire.write(B10001000); Wire.endTransmission(); // устанавливаем порог температуры по умолчанию tInSet = 21; tOutSet = -15; // включаем наружний термометр pinMode(PIN\_DHT\_OUT, INPUT\_PULLUP); dhtout.begin(); // включаем внутренний термометр pinMode(PIN\_DHT\_IN, INPUT\_PULLUP); dhtin.begin(); // задаем пины управления котлами на выход pinMode(RELAY\_E, OUTPUT); pinMode(RELAY\_D, OUTPUT); modeWork = 0; // автоматический режим // котлы в состоянии выключено relayElectroSwitchOff(); relayDieselSwitchOff(); timeWorkElectro = 0; // сбрасываем время работы котлов timeWorkDiesel = 0; unixSecondsStartCycle = 0; // сбрасываем начальное время работы котлов typeBoiler = 0; Serial.println("All Boilers Off"); digitalWrite(LED\_G, HIGH); // включаем зеленый цвет RGB-светодиода. Исходное состояние, котлы выключены //инициализация serial 1 is to esp8266 Serial1.begin(115200); //скорость передачи в модуль ESP8266 Serial1.setTimeout(1000); while (!Serial1); String startcommand = "AT+CWMODE=1"; // модуль ESP8266 в режиме клиента Serial1.println(startcommand); Serial.println(startcommand); delay(2000); del = 0; // сброс счетчика большого цикла } void loop() { Serial.print("Start loop(). "); // диагностический вывод текущего времени get3231Date(); // получаем текущее время unixSeconds = timeUnix(seconds, minutes, hours, date, month, year); // UNIX-метка в секундах Serial.print("Current datetime: "); Serial.print(weekDay); Serial.print(", "); if (date < 10) Serial.print("0"); Serial.print(date, DEC); Serial.print("."); if (month < 10) Serial.print("0"); Serial.print(month, DEC); Serial.print("."); Serial.print(year, DEC); Serial.print(" - "); if (hours < 10) Serial.print("0"); Serial.print(hours, DEC); Serial.print(":"); if (minutes < 10) Serial.print("0"); Serial.print(minutes, DEC); Serial.print(":"); if (seconds < 10) Serial.print("0"); Serial.println(seconds, DEC); // сбор данных с датчиков Serial.println("Getting temperature and himidity"); getSensors(); // подготовка сообщения для отправки на сервер collectServerData(); // БЛОК ОБМЕНА С СЕРВЕРОМ И ИНИЦИАЛИЗАЦИИ // отправка данных на сервер и прием управляющей строки Serial.println("Send data to server"); connectServer(); // анализ управляющей строки и установка новых режимов controlServer(); // БЛОК УПРАВЛЕНИЯ КОТЛАМИ В ЗАВИСИМОСТИ ОТ УСТАНОВЛЕННОГО РЕЖИМА switch(modeWork){ case 0: // автоматический режим Serial.println("Current Mode: Auto"); autoMode(); break; case 1: // ручной режим Serial.println("Manual Mode"); manualMode1(); break; case 2: // ручной режим Serial.println("Manual Mode"); manualMode2(); break; case 3: // ручной режим Serial.println("Manual Mode"); manualMode3(); break; case 4: // полуавтоматический режим Serial.println("Semi Auto Mode Electro"); semiAutoMode4(); break; case 5: // полуавтоматический режим Serial.println("Semi Auto Mode Diesel"); semiAutoMode5(); break; } del = LONG\_CYCLE; // устанавливаем счетчик большого цикла while (del > 0) { Serial.print("Start short cycle #"); Serial.println(del); // отображение номера малого цикла mDelay(SHORT\_CYCLE); // сбор данных с датчиков Serial.println("Getting temperature and himidity"); getSensors(); del--; // декремент счетчика в большом цикле } } ``` Как я упоминал выше, в метеомодуле предусмотрено три режима работы: * автоматический * полуавтоматический * ручной В автоматическом режиме метеомодуль по встроенным часам реального времени выбирает какой котел включить в то или иное время. В часы льготного тарифа на электроэнергию запускается электрокотел. В первоначальном варианте системы предусматривалась возможность работы электрокотла так же в дневной период, чтобы сэкономить солярку. В этом варианте метеомодуль отслеживал продолжительность работы электрокотла днем. Если в течение часа не удавалось достичь заданной температуры в доме, то электрокотел отключался и после паузы на выбег, в работу включался солярный котел. По опыту первой зимы такой вариант был убран. Причина заключалась в недостаточной мощности электрокотла, который не мог в относительно сильные морозы (ниже -10 градусов) обеспечить достижение заданной комфортной температуры. Поэтому было решено днем в автоматическом режиме однозначно запускать солярный котел. Полуавтоматический режим подразумевает жесткий выбор того или иного котла с поддержанием автоматической регулировки его работы по датчикам температуры метеомодуля. Этот режим оказался полезным в нескольких случаях. Во-первых, при выходе одного котла из строя принудительно задается работа другого котла вне зависимости от времени суток. Во-вторых, в слабые морозы и оттепели можно круглосуточно включать в работу электрокотел, или, наоборот, в очень сильные морозы запускать только солярный котел. Ручной режим я практически не использую. Он подразумевает не только выбор конкретного котла для работы, но и передачу управления им штатному выносному блоку. Другими словами, котел будет управляться заданными температурными параметрами на этом блоке. Метеомодуль в таком режиме продолжает работать только как станция мониторинга температуры и влажности. В своем запросе к серверу метеомодуль передает пакет данных, который включает информацию о текущем состоянии котлов (какой котел выбран, работает или нет), текущее локальное время метеомодуля, продолжительность работы котлов в предшествующий пятиминутный период, текущую температуру и влажность внутри и снаружи дома. Так же в запрос включен идентификатор метеомодуля. В моем случае это излишне, но привычка проектировать под масштабирование дала о себе знать. После отправки запроса метеомодуль ожидает ответ сервера в течение 20 секунд. Полученный ответ парсится с помощью регулярных выражений. В ответе сервера присутствует четыре параметра: * пороговое значение температуры внутри дома * пороговое значение температуры снаружи дома * заданный режим работы * время первоначальной установки для часов реального времени модуля В текущей версии пороговое значение наружной температуры не используется. Эта возможность была предусмотрена для реализации выбора шаблонов отопления, в зависимости от температуры «за бортом». Возможно, эту функцию когда-нибудь реализую. Последний параметр требуется довольно редко. Я его задавал лишь дважды. При первоначальном запуске модуля и после замены батарейки в модуле часов реального времени. Если временные установки не требуют изменения, то этот параметр равен нулю. После разбора ответа от сервера, обнуляются текущие счетчики времени работы котлов. Ведь предыдущее значение уже было отправлено на сервер. При сбросе учитывается время паузы на ожидание ответа от сервера. Надо заметить, что передаваемое время работы котла имеет оценочное значение. По этому параметру нельзя судит, скажем, о потребленной электроэнергии. Это связано с особенностями работы котлов отопления. Например, при достижении температуры в котле 80 градусов происходит его выключение, но продолжает работать циркулярный насос. При снижении температуры теплоносителя до 60 градусов, котел снова включается в работу. Метеомодуль лишь измеряет суммарное время, которое потребовалось котлу для достижения температурного порога внутри дома. После достижения заданной температуры котел отключается, а метеомодуль продолжает с периодичностью 30 секунд считывать температурные показатели. При снижении температуры более чем на 0,5 градуса, котел отопления вновь включается в работу. Такая величина гистерезиса была подобрана опытным путем, с учетом инерционности работы системы отопления. Для визуальной индикации работоспособности метеомодуля в подпрограмму задержки между циклами измерения температуры, добавлено мигание встроенным светодиодом. Хочу отметить, что выбор режима работы котла происходит в конце пятиминутного периода. При первоначальном включении модуля или при его перезагрузке по умолчанию устанавливается автоматический режим. ### Реализация Для воплощения идеи я использовал то, что оказалось под рукой. Было решено построить метеомодуль с применением модулей Arduino. В качестве процессорной платы была взята Mega 2560, оставшаяся от предыдущих экспериментов. Эта плата заведомо избыточна для данной задачи, но она была в наличии. К тому же к ней был шилд макетирования, на котором разместились почти все остальные модули. Это часы реального времени DS3231 и WiFi-модуль ESP8266(01). Был куплен блок коммутации с двумя реле для раздельного управления электрическим и солярным котлами. В качестве источника питания использован имевшийся компьютерный блок питания. Как известно, в таком блоке достаточно широкий выбор вторичного питающего напряжения. Там есть +5В и, что особенно важно при работе с WiFi-модулем ESP8266, +3,3В. К тому же эти блоки очень надежны, принимая во внимание непрерывный характер работы метеомодуля. ![](https://habrastorage.org/r/w1560/webt/ht/5s/0x/ht5s0xvzlsbppxjw6gkzrbp8vnk.png) На рисунке представлена схема коммутации плат. Принципиальная схема не рисовалась в виду ее очевидности. На рисунке есть RGB-светодиод для визуальной индикации режимов работы метеомодуля. Зеленый цвет показывает, что котлы выключены, красный означает работу солярного котла, голубой – электрического. У меня под рукой не оказалось резисторов на 220 Ом, поэтому RGB-светодиод был подключен напрямую к выходам платы, без токоограничивающих резисторов. Каюсь, был не прав, но шел на риск осознанно. Ток потребления каждого вывода светодиода составляет всего 20 мА, выход платы позволяет подключать до 40 мА. За три года эксплуатации пока проблем не было. В качестве датчиков температуры были использованы DHT21 (AM2301). Первоначально для измерения температуры внутри дома использовал датчик DHT11, но у него очень плохая точность измерения и, по невыясненной причине, библиотека DTH.h некорректно работала при использовании в схеме двух разных типов датчиков. Но так как замена DHT11 в силу его чрезмерной погрешности была очевидна, то я не стал разбираться с проблемой библиотеки. Цифры в квадратиках означают номера проводов, подключающие внешние устройства к основной плате. ![](https://habrastorage.org/r/w780q1/webt/gp/dp/xt/gpdpxtfxha5ojhmz9elswu8u3_m.jpeg) Вся схема была собрана в навесном металлическом щитке, используемом для монтажа электропроводки. Выбор такого корпуса так же был связан с тем, что имелось под рукой. Но тут меня ожидал вполне предсказуемый сюрприз. При полностью закрытой дверце корпус щитка экранировал WiFi сигнал. Пришлось дверцу оставлять приоткрытой, так как не было желания искать другой подходящий корпус и все заново перемонтировать. Вот и живу уже три года с приоткрытой дверцей. ### Сервер управления Вебсервер, используемый для мониторинга и управления написан на чистом PHP и имеет адаптивную верстку. Первоначально была задумка написать приложение для Андроид, но от этой идеи отказался, так как все равно сервер был бы необходим. После авторизации становятся доступны несколько страниц с информацией. Это текущее состояние системы по последнему полученному запросу от метеомодуля, таблица значений в текущем часе и графическое представление сводной информации за произвольный период времени. Так же есть страница с выбором настроек для управления метеомодулем. На момент написания статьи метеомодуль был уже отключен, ведь отопительный сезон завершился. Поэтому все параметры на главной странице сайта актуальны на момент выключения. Внимательный читатель заметит, что это было 2 мая. ![](https://habrastorage.org/r/w1560/webt/vc/zr/y0/vczry0moatvofjpvneye1wrdcmo.png) ![](https://habrastorage.org/r/w1560/webt/a6/7x/xu/a67xxuc9cef1v3-esnppgjwgu5o.png) В качестве примера графиков приведены значения на 25 января 2018 года. Гистограммы показывают время работы котлов. ![](https://habrastorage.org/r/w1560/webt/km/i4/cz/kmi4czmt9q659njydmzx1q8c-gk.png) ![](https://habrastorage.org/r/w1560/webt/94/5v/jw/945vjwwmogasv9tthsuzffbumrm.png) Страница установки параметров ![](https://habrastorage.org/r/w1560/webt/ag/bn/rn/agbnrnxsir1bo1gpvd1d0gqjbie.png) Как я уже упоминал, это решение для мониторинга и управления системой отопления частного дома уже отработало три отопительных сезона. За это время было всего два зависания, вызванных долговременным пропаданием канала к Интернет. Причем зависал не весь метеомодуль, а только WiFi-модуль ESP8266. В целом, функционал системы меня полностью устраивает, но учитывая явную избыточность примененной платформы, подумываю о его расширении.
https://habr.com/ru/post/358796/
null
ru
null
# Обход блокировок adblock, и блокировка обхода блокировки В статье рассматривается один из эффективных методов противодействию adblock, и обход этого метода. Этот круг вечен – но, похоже, рекламщики вырвались вперёд! ![](https://habrastorage.org/r/w1560/files/bc6/ae7/b7f/bc6ae7b7f73c4f8cb4c665823626aa92.png) Как-то раз *на одном сайте* администрация вежливо попросила пользователей добавить сайт в исключения адблока. Я, как сознательный пользователь, это сделал – но появившаяся реклама через какое-то время стала совсем не похожа на [допустимую рекламу](https://adblockplus.org/ru/acceptable-ads#criteria), и я включил адблок снова. К моему удивлению, реклама не исчезла – и я стал разбираться, в чём тут дело. ### 1. Обход adblock со стороны разработчиков: Способ обхода adblock, который применили разработчики сайта, оказался очень эффективным: они помещали рекламу в div со случайным переменным классом, который менялся при каждой перезагрузке страницы. Также были убраны все атрибуты, по которым можно было идентифицировать div или рекламу внутри: никаких постоянных id элементов, изображение рекламы подгружается с хостинга, на котором хранятся полезные картинки. Вышестоящий div содержит много полезной информации, так что его тоже не заблокируешь. Случайный переменный класс для рекламного элемента – именно за этим, как мне кажется, будущее интернет-рекламы. По крайней мере, при огромной аудитории сайта – в стандартных подписках адблока эта реклама не блокируется до сих пор. ### 2. Блокировка рекламы пользователем, в обход обхода adblock: Пришлось создать правило, исключающее вложенные полезные элементы. В описании создания фильтров для adblock нигде про это не рассказывается, поэтому незнакомые с CSS люди вряд ли смогут это сделать. Может, моя статья им в этом поможет. Для вложенных элементов в adblock используется следующая конструкция: `div.внешний_класс > div.внутренний_класс` Для исключения элементов по какому-то атрибуту используется конструкция not: `div:not(.полезный_класс)` Таким образом, искомое правило выглядит так: `имя_сайта##div.sidebar_right > div:not(.block)` Это позволяет заблокировать все вложенные в sidebar\_right элементы, за исключением тех, которые имеют класс block. Задача была решена – что дальше? ### 3. Обход такой хитрой блокировки со стороны разработчиков: Обойти такую блокировку можно, модифицировав движок сайта. Например, если и вышестоящий контейнер, и вложенные полезные div тоже будут иметь переменные имена классов, в адблоке просто не будет механизмов для их идентифицирования. Так что, повторюсь – именно за таким подходом я вижу будущее рекламы, в то время как [всё больше пользователей устанавливают фильтры](http://geektimes.ru/post/251726/), а адблок начинает [рекламировать самого себя](http://habrahabr.ru/post/191414/). И, напоследок – ещё один эффективный способ для web-мастеров: можно просто добавлять [ненавязчивую рекламу](https://adblockplus.org/ru/acceptable-ads#criteria), тогда пользователи намного лояльнее начнут относиться к ней.
https://habr.com/ru/post/386417/
null
ru
null
# C++11 и 64-битные ошибки ![CryEngine 3 SDK and PVS-Studio](https://habrastorage.org/r/w1560/getpro/habr/post_images/034/947/5c8/0349475c8bf4008cc4b16c2e432f69ec.png) Мы решили сделать небольшую паузу в тематике статического анализа кода. Ведь блог C++ читают и те, кто пока еще не использует эту технологию. А между тем в мире C++ происходят явления, которые оказывают влияния на такую «устоявщуюся» тему, как 64-битный мир. Речь идет о том как стандарт C++11 влияет и помогает (если есть чем) в разработке корректных 64-битных программ. Сегодняшняя статья как раз об этом. 64-битные компьютеры давно и успешно используются. Большинство приложений стали 64-битными. Это позволяет им использовать больший объем памяти, а также получить прирост производительности за счёт архитектурных возможностей 64-битных процессоров. Создание 64-битных программ на языке Си/Си++ требует от программиста внимательности. Существует масса причин, из-за которых код 32-битной программы отказывается корректно работать после перекомпиляции для 64-битной системы. Про это написано много статей. Но сейчас нам интересен другой вопрос. Давайте посмотрим, позволяет ли использование новых возможностей, появившихся в C++11, облегчить жизнь программистов, создающих 64-битные программы. Мир 64-битных ошибок -------------------- Существует множество ловушек, в которые может попасть программист, создавая 64-битные приложения на языке Си/Си++. Про это написано большое количество статей, поэтому не будем повторяться. Тем, кто не знаком с нюансами разработки 64-битных программ или тем, кто хочет освежить свою память, можно порекомендовать следующие ресурсы:* [Коллекция примеров 64-битных ошибок в реальных программах](http://www.viva64.com/ru/a/0065/); * [Уроки разработки 64-битных приложений на языке Си/Си++](http://www.viva64.com/ru/l/); * [All about 64-bit programming in one place](http://www.viva64.com/go.php?url=1357). Время не стоит на месте, и вот уже программисты используют обновлённую версию языка C++, получившего названия C++11. На данный момент большинство нововведений, описанных в стандарте языка C++11, поддерживается современными компиляторами. Давайте посмотрим, могут ли эти нововведения как-то помочь программисту избежать 64-битных ошибок. Статья будет построена следующим образом. Будет даваться краткое описание типичной 64-битной ошибки, и предлагаться способы, как её избежать, используя C++11. Сразу отметим, что далеко не всегда С++11 может хоть чем-то помочь. Защитить от ошибок может только аккуратное программирование. А новый стандарт лишь помогает в этом, но не решить все проблемы за программиста. Магические числа ---------------- Речь идёт об использовании таких чисел, как 4, 32, 0x7FFFFFFF, 0xFFFFFFFF ([подробнее](http://www.viva64.com/ru/l/0009/)). Плохо, если программист предположил, что размер указателя всегда равен 4 байтам и написал вот такой код: ``` int **array = (int **)malloc(n * 4); ``` Здесь стандарт C++11 нам помочь не может. Магические числа, это зло и единственный способ избежать ошибок — это стараться их не использовать. ***Примечание.*** *Да, malloc() это не C++, а старый добрый C. Намного лучше использовать оператор new или контейнер std::vector. Но сейчас это к делу не относится. Разговор про магические числа.* Впрочем, С++11 иногда помогает сократить число магических чисел. Некоторые магические числа в программе появляется из-за боязни (часто необоснованной), что компилятор плохо оптимизирует код. В этом случае, стоит обратить внимание на generalized constant expressions (сonstexpr). Механизм **constexpr** гарантирует инициализацию выражений во время компиляции. При этом, можно объявить функции, которые гарантированно развернутся в константу на этапе компиляции. Пример: ``` constexpr int Formula(int a) { constexpr int tmp = a * 2; return tmp + 55; } int n = Formula(1); ``` Вызов функции Formula(1) превратится в число. Объяснение конечно слишком краткое. Подробнее про «constexpr» и другие нововведения можно прочитать, перейдя по ссылкам, приведённым в конце статьи. Функции с переменным количеством аргументов ------------------------------------------- Речь идёт о неправильном использовании таких функций, как printf, scanf ([подробнее](http://www.viva64.com/ru/l/0010/)). Пример: ``` size_t value = ....; printf("%u", value); ``` Этот код корректно работает в 32-битной программе, но может распечатать некорректные значения, когда программа превратится в 64-битную. Функции с переменным количеством аргументов — пережиток языка Си. Их недостаток в отсутствии контроля типов фактических аргументов. В Си++ уже давно пора отказаться от них. Есть масса других способов форматирования строк. Например, можно заменить printf на cout, а sprintf на boost::format или std::stringstream. С языком C++11 жизнь стала ещё лучше. В C++11 появились шаблоны с переменным числом параметров (Variadic Templates). Это позволяет реализовывать вот такой безопасный вариант функции printf: ``` void printf(const char* s) { while (s && *s) { if (*s=='%' && *++s!='%') throw runtime_error("invalid format: missing arguments"); std::cout << *s++; } } template void printf(const char\* s, T value, Args... args) { while (s && \*s) { if (\*s=='%' && \*++s!='%') { std::cout << value; return printf(++s, args...); } std::cout << \*s++; } } ``` Этот код просто «достает» первый аргумент, не являющийся форматной строкой, и затем вызывает себя рекурсивно. Когда таких аргументов больше не останется, будет вызвана первая (более простая) версия метода printf(). Тип Args… определяет так называемую «группу параметров» («parameter pack»). По сути, это последовательность пар тип/значение, из которых вы можете «доставать» аргументы, начиная с первого. При вызове функции printf() с одним аргументом, будет выбран первый метод (printf(const char\*)). При вызове функции printf() с двумя или более аргументами, будет выбран второй метод (printf(const char\*, T value, Args… args)), с первым параметром s, вторым – value, и оставшиеся параметры (если они есть) будут запакованы в группу параметров args, для последующего использования. При вызове: ``` printf(++s, args...); ``` Группа параметров args сдвигается на один, и следующий параметр может быть обработан в виде value. И так продолжается до тех пор, пока args не станет пустым (и будет вызвана первая версия метода printf()). Некорректные операции сдвига ---------------------------- Числовой литерал 1 имеет тип int. Значит, его нельзя сдвигать более чем на 31 разряд ([подробнее](http://www.viva64.com/ru/l/0011/)). Про это часто забывают, и в программах можно встретить вот такой код: ``` ptrdiff_t mask = 1 << bitNum; ``` Если, значение bitNum будем равно, скажем 40, то результат будет непредсказуем. Формально, это приведёт к undefined behavior ([подробнее](http://www.viva64.com/ru/b/0142/)). Может нам помочь C++11? К сожалению, ничем. Рассинхронизация виртуальных функций ------------------------------------ Пусть в базовом классе объявлена виртуальная функция: ``` int A(DWORD_PTR x); ``` А в классе наследнике есть функция: ``` int A(DWORD x); ``` В 32-битной программе типы DWORD\_PTR и DWORD совпадают. Однако, в 64-битной программе, это уже два разных типа ([подробнее](http://www.viva64.com/ru/l/0012/)). В результате, вызов функции A из базового класса будет приводить к различным результатам в 32-битной и 64-битной программе. Бороться с подобными ошибками могут помочь новые ключевые слова, появившиеся в C++11. Теперь у нас есть ключевое слово **override**, которое позволяет программисту явно выражать свои намерения насчет переопределения функций. Объявление функции с ключевым словом override является корректным, только если существует функция для переопределения. Этот код не скомпилируется в 64-битном режиме и тем самым ошибка будет обезврежена: ``` struct X { virtual int A(DWORD_PTR) { return 1; } }; struct Y : public X { int A(DWORD x) override { return 2; } }; ``` Смешанная арифметика -------------------- Это достаточно важная и обширная тема. Предлагаю познакомиться с соответствующим заделом «64-битных уроков»: [Смешанная арифметика](http://www.viva64.com/ru/l/0017/). Совсем кратко:1. Программисты часто забывают, что результат перемножения и сложения двух переменных типа 'int', тоже имеет тип 'int'. При этом может возникнуть переполнение. И не важно, как потом используется результат умножения и сложения. 2. Опасно смешивать 32-битные и 64-битные типы данных. Последствия: неправильные условия, вечные циклы. ### Рассмотрим несколько простых примеров про переполнение ``` char *p = new char[1024*1024*1024*5]; ``` Программист пытается выделить массив 5 гигабайт памяти, но выделит гораздо меньше. Дело в том, что выражение «1024\*1024\*1024\*5» имеет тип int. В результате произойдёт переполнение, и выражение будет равно 1073741824 (1 гигабайт). Затем, при передачи в оператор 'new', число 1073741824 будет расширено до типа size\_t, но это не имеет значения (уже поздно). Если проблема не понятна, то вот другой аналогичный пример: ``` unsigned a = 1024, b = 1024, c = 1024, d = 5; size_t n = a * b * c * d; ``` Результат выражения помещается в переменную типа 'size\_t'. Она способна хранить значения больше, чем UINT\_MAX. Но при перемножении переменных типа 'unsigned' возникает переполнение и результат будет некорректен. Почему мы называем всё это 64-битными ошибками? Дело в том, что в 32-битной программе невозможно выделить массив размером более 2 гигабайт. А значит, переполнения просто не возникают. Проявляют себя такие ошибки только в 64-битных программах, когда они начинают работать с большими объёмами памяти. ### Теперь пара примеров про сравнение ``` size_t Count = BigValue; for (unsigned Index = 0; Index < Count; ++Index) { ... } ``` Это пример вечного цикла, если Count > UINT\_MAX. Предположим, что на 32-битных системах этот код выполнял менее повторения, менее чем UINT\_MAX раз. Но 64-битный вариант программы может обрабатывать больше данных, и ему может потребоваться большее количество итераций. Поскольку значения переменной Index лежат в диапазоне [0..UINT\_MAX], то условие «Index < Count» всегда выполняется, что и приводит к бесконечному циклу. Ещё один пример: ``` string str = .....; unsigned n = str.find("ABC"); if (n != string::npos) ``` Этот код некорректен. Функция find() возвращает значение типа string::size\_type. Всё будет отлично работать в 32-битной системе. Но давайте посмотрим, что произойдет в 64-битной программе. В 64-битной программе string::size\_type и unsigned перестают совпадать. Если подстрока не находится, функция find() возвращает значение string::npos, которое равно 0xFFFFFFFFFFFFFFFFui64. Это значение урезается до величины 0xFFFFFFFFu и помещается в 32-битную переменную. Вычисляется выражение: 0xFFFFFFFFu != 0xFFFFFFFFFFFFFFFFui64. Получается, что условие (n != string::npos) всегда истинно! ### Может здесь как-то помочь C++11? Ответ — и да, и нет. В некоторых случаях, нам может помочь новое ключевое слово **auto**. А в некоторых оно может только запутать программиста. Поэтому, давайте внимательно разберёмся. Если объявить «auto a = .....», то её тип будет вычислен автоматически. Очень важно не запутаться и не написать вот такой **неправильный код**: «auto n = 1024\*1024\*1024\*5;». Поговорим о ключевом слове **auto**. Рассмотрим следующий пример: ``` auto x = 7; ``` В данном случае тип переменной 'x' будет 'int', потому что именно такой тип имеет ее инициализатор. В общем случае мы можем написать: ``` auto x = expression; ``` И тип переменной 'x' будет равен типу значения, полученному в результате вычисления выражения. Ключевое слово 'auto' для вывода типа переменной из ее инициализатора, наиболее полезно, когда точный тип выражения не известен, либо сложен в написании. Рассмотрим пример: ``` template void printall(const vector& v) { for (auto p = v.begin(); p!=v.end(); ++p) cout << \*p << "\n"; } ``` В С++98, вам бы пришлось писать гораздо более длинный код: ``` template void printall(const vector& v) { for (typename vector::const\_iterator p = v.begin(); p!=v.end(); ++p) cout << \*p << "\n"; } ``` Очень полезное нововведение в языке C++11. Вернемся к нашей проблеме. Выражение «1024\*1024\*1024\*5» имеет тип 'int'. Так что для сейчас нам 'auto' никак не поможет. Не поможет нам 'auto' и в случае цикла: ``` size_t Count = BigValue; for (auto Index = 0; Index < Count; ++Index) ``` Стало лучше? Нет. Число 0 имеет тип 'int'. Значит переменная Index теперь будет иметь тип не 'unsigned', а «int'. Пожалуй, стало даже хуже. **Так есть ли хоть какой-то нам прок от 'auto'?** Да, есть. Например, здесь: ``` string str = .....; auto n = str.find("ABC"); if (n != string::npos) ``` Переменная 'n' будет иметь тип string::size\_type. Теперь всё хорошо. Вот наконец нам и пригодилось новое ключевое слово 'auto'. Однако, будьте аккуратны. Нужно понимать, что и зачем вы делаете. Не надо надеяться побороть все ошибки, связанные со смешанной арифметикой, используя повсеместно 'auto'. Это всего лишь один из инструментов, а не панацея. Кстати, есть ещё один способ защититься от обрезания типа в рассмотренном ранее примере: ``` unsigned n = str.find("ABC"); ``` Можно использовать новый формат инициализации переменных, который предотвращает сужение (narrowing) типов. Проблема заключается в том, что языки С и С++ неявно обрезают некоторые типы: ``` int x = 7.3; // Ой! void f(int); f(7.3); // Ой! ``` Однако списки инициализации С++11 не позволяют сужение (narrowing) типов: ``` int x0 {7.3}; //compilation error int x1 = {7.3}; //compilation error double d = 7; int x2{d}; //compilation error ``` Для нас сейчас более интересны вот эти пример: ``` size_t A = 1; unsigned X = A; unsigned Y(A); unsigned Q = { A }; //compilation error unsigned W { A }; //compilation error ``` Представим, что код написан так: ``` unsigned n = { str.find("ABC") }; или так unsigned n{str.find("ABC")}; ``` Этот код будет компилироваться в 32-битном режиме и перестанет компилироваться в 64-битном режиме. Опять это не панацея от всех ошибок. Просто ещё один способ писать более надёжные программы. Адресная арифметика ------------------- Проблема во многом схожа с тем, что мы рассмотрели в разделе „Смешанная арифметика“. Отличие лишь в том, что переполнение возникает при работе с указателями ([подробнее](http://www.viva64.com/ru/l/0013/)). Рассмотрим пример: ``` float Region::GetCell(int x, int y, int z) const { return array[x + y * Width + z * Width * Height]; } ``` Данный код взят из реальной программы математического моделирования, в которой важным ресурсом является объем оперативной памяти. В программах данного класса для экономии памяти часто используют одномерные массивы, осуществляя работу с ними, как с трехмерными массивами. Для этого существуют функции, аналогичные GetCell, обеспечивающие доступ к необходимым элементам. Но приведенный код будет корректно работать только с массивами, содержащими менее INT\_MAX элементов. Причина — использование 32-битных типов int для вычисления индекса элемента. Может здесь как-то помочь C++11? Нет. Изменение типа массива и упаковка указателей. --------------------------------------------- Иногда в программах необходимо (или просто удобно) представлять элементы массива в виде элементов другого типа ([подробнее](http://www.viva64.com/ru/l/0014/)). Ещё бывает удобно хранить указатели в переменных целочисленного типа ([подробнее](http://www.viva64.com/ru/l/0015/)). Ошибки возникают из-за неправильных явных приведений типов. С новым стандартом С++11 здесь никакой взаимосвязи нет. Явные приведения типов всегда делались на свой собственный страх и риск. Следует ещё упомянуть про работу с данными, находящимися в объединениях (union). Такая работа с данными является низкоуровневой и также зависит только от умений и знаний программиста ([подробнее](http://www.viva64.com/ru/l/0016/)). Сериализация и обмен данными ---------------------------- В проекте может возникнуть потребность создания совместимого формата данных. То есть один набор данных должен обрабатываться как 32-битной, так и 64-битной версией программы. Сложность заключается в том, что меняются размеры некоторых типов данных ([подробнее](http://www.viva64.com/ru/l/0019/)). Стандарт C++11 немного облегчил жизнь, введя типы фиксированного размера. Раньше программисты объявляли такие типы самостоятельно или использовали типы, объявленные в одной из системной библиотек. Теперь есть следующие типы фиксированного размера:* int8\_t * int16\_t * int32\_t * int64\_t * uint8\_t * uint16\_t * uint32\_t * uint64\_t Кроме размера изменяются выравнивание данных в памяти (data alignment). Это тоже может предоставить определённые сложности ([подробнее](http://www.viva64.com/ru/l/0021/)). Касательно этой темы, стоит упомянуть появление в С++11 нового ключевого слова 'alignment'. Теперь можно написать вот такой код: ``` // массив символов, выровнен для хранения типов double alignas(double) unsigned char c[1024]; // выравнивание по 16 байтной границе alignas(16) char[100]; ``` Существует также оператор 'alignof', который возвращает выравнивание для указанного аргумента (аргумент должен быть типом). Пример: ``` constexpr int n = alignof(int); ``` Перегруженные функции --------------------- При переносе 32-битных программ на 64-битную платформу может наблюдаться изменение логики ее работы, связанное с использованием перегруженных функций. Если функция перекрыта для 32-битных и 64-битных значений, то обращение к ней с аргументом, например, типа size\_t будет транслироваться в различные вызовы на различных системах ([подробнее](http://www.viva64.com/ru/l/0022/)). Я затрудняюсь ответить, можно ли использовать какое-то из новых свойств языка для борьбы с такими ошибками. Проверки размеров типа ---------------------- Бывают случаи, когда необходимо проверить размеры типов данных. Это нужно, чтобы не получить глючную программу после перекомпиляции кода для новой системы. Часто это делают неправильным способом. Например, так: ``` assert(sizeof(unsigned) < sizeof(size_t)); assert(sizeof(short) == 2); ``` Плохой способ. Во-первых, программа всё равно компилируется. Во-вторых, эти проверки проявят себя только в отладочной версии. Гораздо лучше останавливать компиляцию, если необходимые условия не выполняются. Для этого существует множество решений. Например, можно использовать макрос \_STATIC\_ASSERT, который доступен разработчикам, использующим Visual Studio. Пример использования: ``` _STATIC_ASSERT(sizeof(int) == sizeof(long)); ``` C++11 стандартизировал способ, как остановить компиляцию, если что-то пошло не так. В язык введены утверждения времени компиляции (static assertions). Статические утверждения (утверждения времени компиляции) содержат константное выражение и строковый литерал: ``` static_assert(expression, string); ``` Компилятор вычисляет выражение, и если результат вычисления равен false (т.е. утверждение нарушено), выводит строку в качестве сообщения об ошибке. Примеры: ``` static_assert(sizeof(long)>=8, "64-bit code generation required for this library."); struct S { X m1; Y m2; }; static_assert(sizeof(S)==sizeof(X)+sizeof(Y), "unexpected padding in S"); ``` Заключение ---------- Написание кода с максимальным использованием новых конструкций языка C++11 вовсе не гарантирует отсутствия 64-битных ошибок. Однако, язык представляет несколько новых возможностей, которые позволят сделать код более коротким и надёжным. Дополнительные ресурсы ---------------------- В статье не делалась попытка ознакомить читателя как с можно большим количеством нововведений в языке C++11. Для первого знакомства с новым стандартам можно порекомендовать следующие ресурсы:1. Bjarne Stroustrup. [C++11 — the new ISO C++ standard](http://www.viva64.com/go.php?url=1359) ([Замечательный перевод](http://sergeyteplyakov.blogspot.com/2012/05/c-11-faq.html)). 2. Wikipedia. [C++11](http://www.viva64.com/go.php?url=1360). 3. Scott Meyers. [An Effective C++11/14 Sampler](http://www.viva64.com/go.php?url=1361).
https://habr.com/ru/post/215939/
null
ru
null
# Экспорт UI дизайн-интерфейсов из Figma в Xcode iOS/Android Studio, в виде .xib/xml [**FigmaConvertXib**](https://github.com/mrustaa/FigmaConvertXib)это инструмент для экспорта элементов дизайна из проекта Figma, в среду разработки, с точностью 90%. В результате конвертации будут созданы файлы **xib / xml**, и уже с помощью интерфейс редактора Xcode/Android Studio, можно будет манипулировать всеми элементами у себя коде. Если дизайн вашего проекта разрабатывается в Figma, и вы не реализуете дизайн программно, то это для вас. Для того чтобы не тратить огромное время на реализацию всех UI элементов. <https://github.com/mrustaa/FigmaConvertXib> ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/138/78d/23f/13878d23f75dcb59063cf0b350c389f8.png)**▶️**[**Добавление проекта Figma в Конвертер**](https://www.youtube.com/watch?v=2Cue6R7TfjA) **▶️**[**Изменение страниц (в каждая странице разные типы)**](https://www.youtube.com/watch?v=UAX1FXRFouw) ![Figma > Xcode xib > AndroidStudio xml](https://habrastorage.org/getpro/habr/upload_files/edf/e5a/1c4/edfe5a1c441e3742542f27811213ea99.gif "Figma > Xcode xib > AndroidStudio xml")Figma > Xcode xib > AndroidStudio xml### Как это работает Благодаря [**Figma API**](https://www.figma.com/developers/api), можно одним запросом вытянуть данные о всех элементах проекта. Каждый элемент имеет - размер / название / тип элемента / цвет фона, цвет текста, градиент заливка / если это текст, то его значение / шрифты стили / массив элементов которые находится внутри (этого слоя) subviews children / толщина границ strokes border / эффекты тени размытие shadow blur / округление краев cornerRadius / и т.д. То есть мы получаем данные в виде иерархии ui элементов аналогичных UIKit. Которые мы парсим и преобразуем в элементы UIKit-а. К примеру: *1 тип элемента Figma* - *Text* - это текст UILabel в UIKit iOS - *Document, Canvas, Group, Frame, Rectangle* - это прямогольник UIView или CALayer - *Fill Image* - это UIImageView - Есть типы векторов *(Ellipse, Star, RegularPolygon* - круг, треугольник, звезда - которые можно реализовать с помощью *IB Designables* в UIKit - И типы *Vector, Line* - которые невозможно преобразовать, потому что данные о местоположении точек не передаются. ### Массив Fill (Заливки слоя) В Figma каждый элемент содержит в себе массив **Fill** заполнителей окраски слоя. Это может быть (*обычный цвет / градиент / или изображение)*. Или может быть массив **Fill** из 1 цвета, и 2 градиентов. Поэтому рассматривать 1 элемент Figma , так же как 1 элемент UIKit-а, иногда не получится. - К примеру, если массив **Fill** состоит из 1 элемента (обычного цвета), то можно просто реализовать его в добавив цвет как свойство к 1 элементу UIKit backgroundColor если тест textColor. - Но если их множество, то для реализации в UIKit придется создавать множество subviews слоев заполнителей в одном. **IB Designables** ⚡️ **(Расширение до уровня Figma)** Xcode InterfaceBuilder ограничен в возможностях. И не может добавить к слою: (*тень, толщину границ, градиент, фигуру*), так что бы, можно было увидеть идеально скопированный результат. Но благодаря IB Designablesэто можно сделать. Поэтому были созданы несколько вьюшек с расширенными свойствами **- DesignFigure - DesignButton - DesignLabel - DesignInnerShadow** **Типы Vector и Line не передаются** ❗️ Поэтому я и написал в начале с экспортируется с точностью 90%. Потому что оставшиеся 10% это *(вектора, кривые линии, просто линии, и стрелки)* Нарисованные дизайнером. Но в большинстве случаев они не используются. Лучше договориться с дизайнером - Использовать вместо линии - прямоугольник - Вместо вектора овала - прямоугольник с округленными краями cornerRadius - И вообще по возможности не использовать эти типы. **Но что если Vector иконка** 🏞 **И что насчет экспорта иконок и изображений** ![](https://habrastorage.org/getpro/habr/upload_files/10d/515/fee/10d515fee690a7b1a6cfe22d2c47f5d2.gif) Чтобы экспортировать векторные объекты и иконки. Вам нужно выбрать слои вектора (vector layers) и нажать **create component** по сверху центру. Он сделает пометку, всей группе, что это компонент. То есть при экспорте группа векторов - будет рассматриваться как одно единое изображение, а слои внутри будут игнорироваться. Но для редактирования в Figma будут доступны. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/178/585/2d9/1785852d920ff0c6c7c408407a4235e1.png)Запрос [**Figma API**](https://www.figma.com/developers/api) будет возвращать этот элемент не как вектор, а как изображение. Очевидно если попытаться в запросе передать тип вектор и все его координаты точек - то запрос и ответ будет очень долгим. Поэтому я думаю, они не стали заморачиваться с ним, и предложили такую альтернативу. Установка --------- Базовые параметры На каждом этапе генерации используются следующие базовые параметры: * `accessToken`: строка токена доступа, необходимая для выполнения запросов API Figma (см. [Токен доступа Figma](https://github.com/mrustaa/FigmaConvertXib#figma-access-token) ). * `project id`: URL-адрес файла Figma, данные которого будут использоваться для генерации кода (см. [Файл Figma](https://github.com/mrustaa/FigmaConvertXib#figma-file) ). ### Токен доступа Figma Для получения файлов Figma требуется авторизация. Авторизация осуществляется путем передачи персонального токена доступа. Этот токен можно создать за несколько простых шагов: 1. Откройте настройки аккаунта в Figma. 2. Нажмите кнопку «Создать новый токен личного доступа» в разделе «Токены личного доступа». 3. Введите описание токена (например, «FigmaConvertXib»). 4. Скопируйте созданный токен в буфер обмена. ![Создать - Токен доступа Figma](https://habrastorage.org/r/w1560/getpro/habr/upload_files/faf/f08/7ce/faff087ce41ddecb9920c6b1c69e62e1.png "Создать - Токен доступа Figma")Создать - Токен доступа FigmaЗатем **Скомпилировать / Run** проект [**FigmaConvertXib**](https://github.com/mrustaa/FigmaConvertXib)**.xcodeproj** и вставляем полученный токен доступа в поле accessToken. Достаточно определить его только в базовом разделе, если этот токен разрешает доступ ко всем файлам Figma, которые появляются в конфигурации. #### Добавить идентификатор проекта Figma Откройте URL-адрес проекта figma и скопируйте его идентификатор проекта. Затем откройте приложение, нажмите кнопку с плюсом и вставьте полученный идентификатор проекта. ![Figma Project Id](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8fe/274/f71/8fe274f718386f985716369d4f2597ec.png "Figma Project Id")Figma Project IdЗавершение создания xib/xml для проектов ios/android ---------------------------------------------------- **Все изображения скачиваются сюда** Xcode `... / Figma / Xib / images.xcasset` Android `... / app / res / drawable` **Результат конвертации** *Xcode*`FigmaConvertXib.xcodeproj` `... / Figma / Xib / result_ios.xib` *Android-Studio* `FigmaConvertAndroidXml` `... / app / res / layout / result_android.xml` ![Figma > Xcode xib > AndroidStudio xml](https://habrastorage.org/getpro/habr/upload_files/3c9/e12/ea3/3c9e12ea38d6a25451a0a6ffab5ab6f0.gif "Figma > Xcode xib > AndroidStudio xml")Figma > Xcode xib > AndroidStudio xml
https://habr.com/ru/post/645883/
null
ru
null
# Показать все, что скрыто Привет, %username%. Сегодня речь пойдет об очередной интересной железяке — о гибкой видеокамере mt1010. ![](https://habrastorage.org/r/w780q1/storage1/69150f9e/ed552f45/960d9b2e/b88c396c.jpg) ###### *Сначала матчасть =)* Если верить всемогущей Википедии, то: `Эндоскоп (от др.-греч. ἔνδον — внутри и σκοπέω — смотрю) — группа оптических приборов различного назначения.` Когда я впервые увидел гибкую видеокамеру МТ1010, мой ассоциативный ряд сразу же привел меня к медицинским приборам, наподобие таких: ![image](http://www.0629.com.ua/upload/img/news/news_4df21a0200b50/ab6771df5b53fc106f8a927bb4dbee2f.jpg) Но mt1010 — эндоскоп технический. Автоматически встает вопрос-а где же применять такую железяку? Воображение (и интернеты) сразу же рисуют потенциальные возможности: 1. **Безразборная диагностика двигателя.** ![](https://habrastorage.org/r/w780q1/storage1/a88a081e/d5afa184/2498445f/3e3a83a2.jpg) *(Да, тут явно что-то не так!)* 2. **Диагностика узлов и агрегатов автомобилей.** ![](https://habrastorage.org/storage1/becd1dad/da5a8b89/7c1bb55b/8b5ad6e0.gif) 3. **На таможне для проверки скрытых полостей.** ![](https://habrastorage.org/r/w780q1/storage1/2e099b07/29de2b59/c3cfa5c9/6172166e.jpg) *(например, бензобаков автомобилей)* 4. **Всяческие агрегаты (лопатки турбин, станки и прочие железки) требуют к себе пристального внимания.** ![](https://habrastorage.org/r/w780q1/storage1/5088efb4/f9ac16be/fcde1444/e9d0beaf.jpg) 5. **Если бы у каждого сантехника и трубочиста был бы эндоскоп, быть может приходилось бы выслушивать меньше отборной брани.** ![](https://habrastorage.org/r/w780q1/storage1/df457fb2/cd7385c6/4105e186/f748ce25.jpg) 6. **Опытные люди говорят, что эндоскопом можно убивать.** ![](https://habrastorage.org/r/w780q1/storage1/62bf2ec2/9c1bc909/7b829cd5/9f6ae8e8.jpg) *(кадр из фильма «Механик»)* --- ###### *На этой высокой ноте мы, пожалуй, и закончим матчасть, плавно перейдя к конкретике.* ![](https://habrastorage.org/r/w780q1/storage1/c3cb654f/830f4aa1/d06f8401/e5e9ab5d.jpg) Итак, устройство представляет собой компактную видеокамеру со светодиодной подсветкой, закрепленную на гибком зонде. ![](https://habrastorage.org/r/w780q1/storage1/61aa09dd/d2e3f584/7d9ef5f0/3f94a6b5.jpg) ![](https://habrastorage.org/r/w780q1/storage1/87de286e/fe671d6f/6dd3e474/f767f30f.jpg) С другой стороны зонд заканчивается эргономичной ручкой с кнопкой «screenshot» и колесиком регулировки подсветки. ![](https://habrastorage.org/r/w780q1/storage1/fb01cd88/36a9d49e/b33f809d/33bcf0a3.jpg) #### Технические характеристики: * Тип видеоматрицы: VGA CMOS 640x480 * Угол обзора: 54 градуса * Минимальная дистанция фокусировки:6см * Запись видео: 30кадров в секунду * Длина зонда 66см * Зонд является влагостойким * Питание: от USB * Длина шнура USB: 2 метра #### Комплект поставки * Гибкая USB-видеокамера-1шт. * Магнитная насадка-1шт. * CD-диск с ПО-1шт. * Упаковочный чемоданчик-1 шт. * Инструкция-1шт. Сам девайс поставляется в довольно легком и небольшом чемоданчике: ![](https://habrastorage.org/r/w780q1/storage1/0ae1e3b5/04583fb0/31a2e37d/4908f20a.jpg) Вынуть его оттуда не составляет никаких проблем, а вот чтобы положить на место, нужно потратить несколько секунд на выгибание зонда определенным образом. Имхо, не критично. ![](https://habrastorage.org/r/w780q1/storage1/c72bc42f/e1d45f74/337bb720/9552ec0b.jpg) Поднимать металлические предметы из полостей поможет магнитная насадка (в конце обзора-наглядное видео): ![](https://habrastorage.org/r/w780q1/storage1/7bac8670/400c49c7/0c7b0cf5/c8515ca6.jpg) Тестовый стенд представляли собой нетбук Acer Aspire One A531 (Atom N270 1.6 ГГц / 1024 Мб / 160 Гб / Win7 Ultimate) и ноутбук Acer Aspire Timeline 3820TG (Core i3 350M 2,26 ГГц / 3072 Мб / Radeon HD 5470 / 250 Гб / Win7 Ultimate) ![](https://habrastorage.org/r/w780q1/storage1/79720e14/5599a355/5ea80456/131207a3.jpg) ![](https://habrastorage.org/r/w780q1/storage1/16e805bd/a670b92d/9e384c2c/0c6249e3.jpg) С установкой софта справится ~~даже дичайший ламер~~ кто угодно. Вставил диск, программа оповестила тебя о том, что девайс подключать еще рано. Щелкнул `далее -> далее -> далее` — встали и дрова, и сама программа. В меню «Пуск» она отображается так: ![](https://habrastorage.org/r/w1560/storage1/122e240f/02c495ff/9423fa6b/f05c68fa.png) **При первом запуске** (девайс еще был отключен) она подключилась к моей веб-камере и беспощадно вывела на экран все, что происходило перед нетбуком: ![](https://habrastorage.org/r/w1560/storage1/f40c3fdf/cea68f7f/1f0d70cc/2fdbc351.png) *Почему у таксы грустные глаза?* Программа имеет много настроек: ![](https://habrastorage.org/r/w1560/storage1/e678b34f/5250fc1d/80132838/85ccdc65.png) ![](https://habrastorage.org/r/w1560/storage1/b5a26323/c335f75e/3bd27729/60924917.png) ![](https://habrastorage.org/r/w1560/storage1/e23878af/e76ce913/34ad8de1/5fb34bb9.png) ![](https://habrastorage.org/r/w1560/storage1/14b20a57/b8b9690e/e63deb86/dde62abe.png) ![](https://habrastorage.org/r/w1560/storage1/98b032e5/cb0b7b84/cab5c534/900ef6df.png) **Подключаем гибкую видеокамеру к ноутбуку** Фотографии в простом режиме: ![](https://habrastorage.org/r/w780q1/storage1/710b68e7/c8561a90/116e2e88/997b2518.jpg) и с подсветкой ![](https://habrastorage.org/r/w780q1/storage1/b2df672e/765982f3/bbfe79c5/21763825.jpg) Таким образом видно, что при нормальном освещении разницы практически нет, но вряд-ли кто-то будет использовать эту камеру для съемок при нормальном освещении. ![](https://habrastorage.org/r/w1560/storage1/fb496698/dd55b597/59132d77/5e6caabd.png) А в полной темноте подсветка очень пригодится. Со своей основной задачей — показывать картинку «на лету» (on-line, кому как больше нравится) камера справляется на ура. Разрешение, как уже говорилось ранее, 640\*480. Сфотографировать текущий кадр поможет кнопка на корпусе камеры. Примеры фотографий из боевых условий: ![](https://habrastorage.org/r/w780q1/storage1/d5668b31/14c566bf/08d26ef5/9a8ed502.jpg) ![](https://habrastorage.org/r/w780q1/storage1/96ed67e5/ce83464e/8aa4026e/fc29338c.jpg) **На фото ниже видна трещина слева** ![](https://habrastorage.org/r/w780q1/storage1/bdfdeae6/a7cf8c60/a2e81087/a7b24a9c.jpg) ![](https://habrastorage.org/r/w780q1/storage1/2666d643/6b2f96bd/a66db66c/e6a206a2.jpg) ![](https://habrastorage.org/r/w780q1/storage1/3a86e0cf/0f456442/f490a742/e37bc658.jpg) Чтобы включить **режим записи видео** сначала необходимо выбрать файл, в который камера будет писать видео: ![](https://habrastorage.org/r/w1560/storage1/e7cdb6af/134f690b/10f5a000/1c89557e.png) Далее в два клика включаете сам процесс записи видео. Камера пишет 30 кадров в секунду, без звука. 2-минутное видео весит около, внимание, **гигабайта**. Но поскольку девайс подключается к внешнему носителю, и видео, скорее всего, не будет выгружаться в Сеть, можно смело сказать, «размер не главное, главное — техника» =) ###### Примеры видео (смотреть в 480р): На этом видео четко виден осадок внутри бачка, четко видны риски Max и Min. Следующее видео-наглядное путешествие внутрь гофры. На удивление-внутри оказалось очень чисто, я ждал ~~крови и расчлененки~~ большей грязи. А тут мы видим возможности магнитной насадки МТ1010. За счет своей формы, маленький фрагмент насадки всегда остается в кадре. #### Плюсы устройства: ![](https://habrastorage.org/r/w1560/storage1/054d5c45/1fb86183/c2801947/c3939bc9.png) * Простота в использовании * Легкость и компактность устройства * Хорошее качество картинки * Аппаратная кнопка скриншота * Встроенная подсветка * Насадка-магнит, которая поможет достать металлические предметы и всегда в кадре * Цена: на официальном сайте гибкая видеокамера mt1010 стоит 1955 руб. #### Минусы устройства: ![](https://habrastorage.org/r/w1560/storage1/24a4ff06/51c4bcd3/ba5f615d/6b1d9f0a.png) * Отсутствие встроенного дисплея * Отсутствие аппаратной кнопки записи видео * «Тяжелые» видеофайлы * Лишние пара секунд на упаковку устройства в транспортировочный чемоданчик ##### Вывод ![](https://habrastorage.org/r/w780q1/storage1/6f6ab4aa/814b6686/92b9f5c2/e656cbf2.jpg) Полагаю автолюбителям, айтишникам и всем, кто любит делать что-то своими руками, гибкая видеокамера mt1010 придется по вкусу. За помощь с фото отдельно спасибо фотографу Александру Скородумову. Другие необычные полезные штуки можно найти [на сайте гаджетов Мастер Кит](http://dadget.ru/katalog/avto-moto-velo/usb-endoskop/?utm_source=habrahabr.ru&utm_medium=referral&utm_term=usb-endoskop&utm_content=usb-endoskop&utm_campaign=usb-endoskop). P.S. В ближайшее время планирую в апдейты выкладывать новые фото и видео с устройства, открылись неведанные ранее возможности для видеосъемок. Пишите пожелания в комментарии.
https://habr.com/ru/post/128799/
null
ru
null
# Линейная регрессия. Разбор математики и реализации на python Тема линейной регресии рассмотрена множество раз в различных источниках, но, как говорится, "нет такой избитой темы, которую нельзя ударить еще раз". В данной статье рассмотрим указанную тему, используя как математические выкладки, так и код python, пытаясь соблюсти баланс на грани простоты и должном уровне для понимания математических основ. Линейная регрессия представляется из себя регриссионную модель зависимости одной (объясняемой, зависимой) переменной от другой или нескольких других переменных (фактров, регрессоров, независимых переменных) с линейной функцией зависимости. Рассмотрим модель линейной регрессии, при которой зависимая переменная зависит лишь от одного фактора, тогда функция, описывающуя зависимость y от x будет иметь следующий вид: ![f(x)=w_0+w_1∗x](https://habrastorage.org/getpro/habr/upload_files/f66/fc1/413/f66fc1413541a2a51828c20cfec85bd3.svg) и задача сводится к нахождению весовых коэффициентов w0 и w1, таких что такая прямая максимально "хорошо" будет описывать исходные данные. Для этого зададим функцию ошибки, минимизация которой обеспечит подбор весов w0 и w1, используя метод наименьших квадратов: ![MSE=\frac{1}{n}*\sum\limits_{i=0}^n(y_i−f(x_i))^2](https://habrastorage.org/getpro/habr/upload_files/4c9/46f/1d3/4c946f1d31c516162e471857a462b13f.svg)или подставив уравнение модели ![MSE=\frac{1}{n}*\sum\limits_{i=0}^n(y_i−w_0−w_1∗x_i)^2](https://habrastorage.org/getpro/habr/upload_files/6db/3f4/063/6db3f40631ff30311c048303a159774d.svg)Минимизируем функцию ошибки MSE найдя частные производные по w0 и w1 ![\frac{\partial MSE(w_0,w_1)} {\partial w_0} = −\frac{2}{n}*\sum\limits_{i=0}^n(y_i−w_0−w_1∗x_i)](https://habrastorage.org/getpro/habr/upload_files/15a/4d5/9ee/15a4d59ee80a9bfa3981780fa0de9628.svg)![\frac{\partial MSE(w_0,w_1)}{\partial w_1} = −\frac{2}{n}*\sum\limits_{i=0}^n((y_i−w_0−w_1∗x_i)∗x_i)](https://habrastorage.org/getpro/habr/upload_files/060/f79/8f3/060f798f35c0cb1046a51cf1d69b7aed.svg)И приравняв их к нулю получим систему уравнений, решение которой обеспечит минимизацию функции потерь MSE. ![\begin{equation*} \begin{cases} 0=−\frac{2}{n}*\sum\limits_{i=0}^n(y_i−w_0−w_1∗x_i)\\ 0=−\frac{2}{n}*\sum\limits_{i=0}^n((y_i−w_0−w_1∗x_i)∗x_i) \end{cases} \end{equation*}](https://habrastorage.org/getpro/habr/upload_files/724/d20/6f8/724d206f89c3660228c870cf2741062e.svg)Раскроем сумму и с учетом того, что -2/n не может равняться нулю, приравняем к нулю вторые множители ![\begin{equation*} \begin{cases} 0=−w_0*n + \sum\limits_{i=0}^n y_i−w_1∗\sum\limits_{i=0}^n x_i\\ 0=\sum\limits_{i=0}^n(y_i*x_i) - w_0*\sum\limits_{i=0}^n x_i −w_1∗\sum\limits_{i=0}^n x_i^2 \end{cases} \end{equation*}](https://habrastorage.org/getpro/habr/upload_files/a10/3aa/8f3/a103aa8f31696fc7ac576edcc8cba558.svg)Выразим w0 из первого уравнения ![w_0 = \frac{\sum\limits_{i=0}^n y_i}{n} - w_1 \frac{\sum\limits_{i=0}^n x_i}{n}](https://habrastorage.org/getpro/habr/upload_files/eee/972/5f6/eee9725f68a4a1882304b6cd51b91dda.svg)Подставив во второе уравнение решим относительно w1 ![0=\sum\limits_{i=0}^n(y_i*x_i) - (\frac{\sum\limits_{i=0}^n y_i}{n} - w_1 \frac{\sum\limits_{i=0}^n x_i}{n})*\sum\limits_{i=0}^n x_i −w_1∗\sum\limits_{i=0}^n x_i^2](https://habrastorage.org/getpro/habr/upload_files/d9b/014/298/d9b0142987f5793cb35f1f3e826c5c85.svg)![0=\sum\limits_{i=0}^n(y_i*x_i) - \frac{\sum\limits_{i=0}^n (y_i\sum\limits_{i=0}^n x_i)}{n} + w_1 \frac{\sum\limits_{i=0}^n (x_i\sum\limits_{i=0}^n x_i)}{n} −w_1∗\sum\limits_{i=0}^n x_i^2](https://habrastorage.org/getpro/habr/upload_files/559/00c/b05/55900cb0506f52e2fe9de29b18c119fc.svg)И выразив w1 последнего уравнения получим ![w_1 = \frac{\frac{\sum\limits_{i=0}^n(x_i\sum\limits_{i=0}^ny_i)}{n} - \sum\limits_{i=0}^n(y_i*x_i)}{\frac{\sum\limits_{i=0}^n(x_i\sum\limits_{i=0}^nx_i)}{n} - \sum\limits_{i=0}^nx_i^2}](https://habrastorage.org/getpro/habr/upload_files/680/65d/167/68065d16740e476ca9c55d3c6cf982cf.svg)Задача решена, однако представленный способ слабо распространим на большое количество фичей, уже при появлении второго признака вывод становится достаточно громоздким, не говоря уже о большем количестве признаков. Справиться с этой задачей нам поможет матричный способ представления функции потерь и ее минимизация путем дифференцирования и нахождения экстремума в матричном виде. Предположим, что дана следующая таблица с данными | | | | | | --- | --- | --- | --- | | f1 | f2 | f3 | y | | x11 | x12 | x13 | y1 | | ... | ... | ... | ... | | x1n | x2n | x3n | yn | Для вычисления интерсепта (коэффициента w0) необходимо к таблице добавить столбец слева с фактором f0 все значения которого равны 1 (единичный вектор-столбец). И тогда столбцы f0-f3 (по количеству столбцов не ограничены, можно считать fn) можно выделить в матрицу X, целевую переменную в матрицу-столбец y, а искомые коэффициенты можно представить в виде вектора w. ![X=\begin{bmatrix} x_{01}& x_{11} & x_{12} & x_{13}\\ ...& ... & ... & ... \\x_{0n} & x_{1n} & x_{2n} & x_{3n}\end{bmatrix} y = \begin{bmatrix} y_0 \\ ... \\ y_n \end{bmatrix} w = \begin{bmatrix} w_0 & w_1 & w_2 & w_3\end{bmatrix}](https://habrastorage.org/getpro/habr/upload_files/111/867/4ca/1118674ca93280d560683b0f609eb2b6.svg)Тогда функцию потерь ![MSE=\sum\limits_{i=0}^n(y_i−f(x_i))^2](https://habrastorage.org/getpro/habr/upload_files/503/7a7/979/5037a7979672afbcd331b5c718a33595.svg)можно представить в следующем виде ![MSE = (y - X*w)^T(y - X*w)](https://habrastorage.org/getpro/habr/upload_files/cd2/d0d/fa3/cd2d0dfa3449309bd4c25b3e71691b56.svg)Представим в виде скалярного произведения < > и вычислим производную используя дифференциал ![\partial (<(y-X*w),(y-X*w)>)](https://habrastorage.org/getpro/habr/upload_files/987/09b/efa/98709befa26e30a82681a24ed212f0f2.svg)используя правило ![\partial(<x,x>) = <2x, \partial x>](https://habrastorage.org/getpro/habr/upload_files/51a/ac5/0f3/51aac50f37ce42cf11a4dc9905c00fb2.svg)приведем формулу к следующему виду ![(<2*(y-X*w), \partial (y-X*w)>)](https://habrastorage.org/getpro/habr/upload_files/7b4/abc/068/7b4abc0681420a85154e5907abd6464f.svg)Поскольку дифференциал разницы равен разнице дифференциалов, дифференциал константы (y) равен нулю и константу (в данном случае матрицу X) можно вынести за знак дифференциала, получим ![(<2*(y-X*w), X*\partial w>)](https://habrastorage.org/getpro/habr/upload_files/bb9/652/fb1/bb9652fb1d6a114b8ce8941673fff279.svg)Используя свойство скалярного произведения перенесем матрицу X справа налево незабыв транспонировать ее ![(<2*X^T*(y-X*w), \partial w>)](https://habrastorage.org/getpro/habr/upload_files/6f1/f5b/e4a/6f1f5be4a3ca288310c7f5dce41d8d3d.svg)Собственно, то что слева и есть дифференциал, найдем экстремум приравняв его к нулю и решив по параметрам w ![2*X^T*(X*w-y)=0](https://habrastorage.org/getpro/habr/upload_files/fc5/481/ca5/fc5481ca59ad5abbc434134bdaccbac0.svg)раскроем скобки и перенесем значения без w вправо ![X^T*X*w=X^T*y](https://habrastorage.org/getpro/habr/upload_files/183/aa6/3a5/183aa63a5d75456ac12488f0ccf23956.svg)Домножим слева обе стороны равенства на обратную матрицу произведения транспонированной матрицы X на X для выражения вектора w, тогда получим ![w=(X^T*X)^{-1}*X^T*y](https://habrastorage.org/getpro/habr/upload_files/95f/024/054/95f0240549df29aefc282874eefdb3cb.svg)Аналитическое решение получено, переходим к реализации на python. ``` #импорт необходимых библиотек import numpy as np from sklearn.linear_model import LinearRegression #зададим начальные условия f0 = np.array([1, 1, 1, 1, 1, 1, 1, 1, 1, 1]) f1 = np.array([1.1, 2.1, 3.1, 4.4, 5.2, 6.4, 7.1, 8.2, 9.4, 10.5]) f2 = np.array([1.4, 2.3, 3.4, 4.1, 5.5, 6.2, 7.3, 8.4, 9.2, 10.1]) f3 = np.array([1.2, 2.2, 3.4, 4.2, 5.3, 6.2, 7.3, 8.4, 9.2, 10.3]) y = np.array([[1.2], [2.2], [3.3], [4.3], [5.2], [6.3], [7.2], [8.3], [9.3], [10.2]]) w = np.array([np.nan, np.nan, np.nan, np.nan]) X = np.array([f0, f1, f2, f3]).T #рассчитаем коэффициенты используя выведенную формулу coef_matrix = np.dot(np.dot(np.linalg.inv(np.dot(X.T, X)), X.T), y) print(f'Коэффициенты рассчитанные по формуле {coef_matrix.T[0]}') #Коэффициенты рассчитанные по формуле [0.05994939 0.42839296 0.09249473 0.46642055] #проверим расчет используя библиотеку sklearn model = LinearRegression().fit(X, y) coef_sklearn = model.coef_.T coef_sklearn[0] = model.intercept_ print(f'Коэффициенты рассчитанные с использованием библиотеки sklearn {coef_sklearn.T[0]}') #Коэффициенты полученные с рассчитанные библиотеки sklearn [0.05994939 0.42839296 0.09249473 0.46642055] ``` Надеюсь эта статья помогла заглянуть под капот одного из базовых методов машинного обучения - линейной регрессии и станет первой ступенью в этот увлекательный мир: математика машинного обучения.
https://habr.com/ru/post/659415/
null
ru
null
# WWDC19: Приступим к работе с Test Plan для XCTest Привет, Хабр! Представляю вашему вниманию перевод статьи [«WWDC19: Getting Started with Test Plan for XCTest»](https://shashikantjagtap.net/wwdc19-getting-started-with-test-plan-for-xctest/) автора Shashikant Jagtap. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/6a2/9a9/122/6a29a9122ce8deb03a188773b00eda1d.png) На прошедшей конференции [WWDC](https://developer.apple.com/wwdc19/) компания Apple показала новые классные фичи для разработчиков. В Xcode 11 так же добавлено несколько потрясающих фич. О них можно почитать в [release notes](https://developer.apple.com/documentation/xcode_release_notes/xcode_11_beta_release_notes). Один из наиболее значимых инструментов, анонсированных в этом году, — Test Plan для XCTest и Xcode UI тестов. В этой статье мы детально рассмотрим, как функционал Test Plan будет работать с XCTest. Если вы хотите узнать больше подробностей, посмотрите видео сессии [“Testing on Xcode”](https://developer.apple.com/videos/play/wwdc2019/413/) ### Xcode Test Plan До Xcode 11 тестовая конфигурация была частью Xcode схем. Если разработчики хотели сконфигурировать разные наборы тестов для разных условий, они или создавали новую схему, или редактировали существующую под определенные тестовые нужды. Тестовая конфигурация была тесно связана с Xcode схемами, поэтому приходилось создавать множество схем для для разных задач при тестировании. Новая функциональность в Xcode 11 позволяет разработчикам и QA инженерам конфигурировать тесты согласно своим потребностям. Test Plan позволяет определить: * какие тесты запустить в сборке; * как запустить эти тесты (например, в случайном или алфавитном порядке); * как управлять тестовыми артефактами (например, аттачментами и скриншотами); * как использовать runtime инструменты как часть тестирования. С Xcode Test Plan вы можете конфигурировать тест-сьюты независимо от Xcode схем. Это значительное улучшение в технологиях тестирования, которое может вывести ваши тесты на новый уровень. Теперь давайте посмотрим на Xcode Test plan в действии. ### Сценарий Предположим, что мы создаем тест-план для функциональных тестов со следующими требованиями: * В функциональных тестах должны присутствовать наборы для смоук- и регресс-тестов; * Смоук-тесты должны запускаться в Лондоне (UK), а регрессионные — в Сан-Франциско (USA); * Смоук-тесты должны запускаться в алфавитном порядке, а регрессионные — в случайном, чтобы отловить проблемы между тестами. Мы создадим этот тест-план для Xcode для различных платформ Apple. ### Создание Test Plan в Xcode Xcode 11 позволяет нам определять эти требования в Test Plan. Xcode позволяет создавать Test Plan из текущей конфигурации схемы. Когда вы редактируете схему и переходите к текущим тестовым действиям, Xcode отображает опцию для создания Test Plan. Вы можете создать Test Plan со следующими настройками: * **Blank Test Plan**: Создает пустой шаблон и позволяет сделать свой собственный план; * **Test Plan from Scheme**: Берет конфигурацию схемы и создает Test Plan; * **Choose Test Plan**: Если у вас уже есть созданный Test Plan, вы можете выбрать и добавить его в схему. Для ознакомления создадим Test Plan из конфигурации схемы. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/30f/b4e/35c/30fb4e35ca1f47fea781e215662dd381.png) Нужно назвать Test Plan и указать правильный тестовый таргет. Когда Test Plan создан, он прикреплен к схеме. Однако схема может переопределить любой Test Plan, созданный после, с помощью флага при вызове команды Xcodebuild. После создания Test Plan, вы можете прикрепить его к определенному таргету. Давайте добавим текущий план к таргету с UI тестами и присвоим ему имя. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/3a1/b23/1be/3a1b231be28d8ba7592cc0cc62485612.png) Вы обнаружите новый файл с расширением functional.xctestplan. Это и есть ваш Test Plan. Его можно редактировать при необходимости. Можно сделать составной Test Plan в том же таргете в зависимости от потребностей тестов. В этом месте у нас есть доступный Test Plan для нашего таргета с UI тестами. ### Test Plan файл Файл Test Plan — простой json-подобный конфигурационный файл, который содержит информацию о том, как конфигурировать ваши тесты для запуска независимо от любой схемы. Здесь находятся различные настройки для конфигурации тестов, доступные в Test Plan. Базовый Test Plan содержит три ключевых элемента: * Configurations (Конфигурации); * Test Targets (Тестовые таргеты); * Settings (Настройки). Каждая конфигурация в Test Plan содержит набор тестов, привязанных к нему с различными настройками. В соответствии с требованиями к нашему тест-плану нам понадобятся две конфигурации: одна для смоук-тестов, другая — для регрессионных тестов. Теперь давайте откроем файл functional.xctestplan в Xcode и переименуем configuration1 в smoke-uk, а затем кликнем на кнопку “+” вверху плана и добавим другую конфигурацию regression-usa. Теперь у нас есть две конфигурации в Test Plan и Test Plan уже привязан к таргету с UI-тестами. Добавим некоторые настройки к каждой конфигурации. Когда smoke-uk конфигурация выбрана, мы можем изменить локацию на Лондон и внести другие изменения в настройках. Подобным образом изменим конфигурацию regression-usa. Вот так будет выглядеть Test Plan для запуска регресса: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/44a/ff4/09b/44aff409be8d8d43ef4ac09ece172e4c.png) Настройки доступные в Test Plan: * Arguments — позволяет переопределить launch arguments и launch environment для тестов; * Localization — позволяет конфигурировать тесты для различных геолокаций, локалей и языков. Это очень крутая настройка для тестирования интернационализации и локализации; * UI Testing/Attachment/Test Execution/Code Coverage — специфичные опции для UI тестирования и тестовых артефактов. Вы можете решить, оставлять ли артефакты или удалять их при первой возможности. Также можно выбрать порядок запуска тестов и подсчет покрытия кода; * Xcode Code Diagnostic tools — несколько инструментов Xcode для диагностики кода, как например, Address Sanitizer или Thread Sanitizer, доступны для поиска runtime-ошибок. Вы также можете использовать другие опции, которые помогают искать утечки памяти и т.п. ### Создание Test Plan с нуля Если вы не хотите создавать Test Plan, используя Xcode схему, то вы всегда можете создать новый Test Plan через Xcode → Product → Test Plan. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/6a2/9a9/122/6a29a9122ce8deb03a188773b00eda1d.png) Cоздав Test Plan таким образом, прикрепим его к некоторому тестовому таргету путём добавления тестов к нему. В примере ниже мы создали новый Test Plan и добавили в него тесты. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/be9/14e/1ec/be914e1eca257b745ef3d194c7d3279f.png) ### Создание Test Plan из исходника Как было упомянуто ранее, Xcode Test Plan — это всего лишь конфигурационный файл, где мы установили все определенные нами конфигурации. В нашем сценарии мы создали functional.xctestplan, и исходный код для него выглядит примерно так: ``` { "configurations" : [ { "name" : "smoke-uk", "options" : { "language" : "en-GB", "locationScenario" : { "identifier" : "London, England", "referenceType" : "built-in" }, "region" : "GB", "testExecutionOrdering" : "lexical" } }, { "name" : "Regression-usa", "options" : { "addressSanitizer" : { "enabled" : true }, "language" : "en", "locationScenario" : { "identifier" : "San Francisco, CA, USA", "referenceType" : "built-in" }, "region" : "US", "testExecutionOrdering" : "random" } } ], "defaultOptions" : { "codeCoverage" : false }, "testTargets" : [ { "target" : { "containerPath" : "container:XCTestPlan.xcodeproj", "identifier" : "9B0E393A22A6EB5400F666A1", "name" : "XCTestPlanUITests" } } ], "version" : 1 } ``` Вы можете создать конфигурацию таким образом и сохранить ее в файл с расширением .xctestplan в Xcode 11. ### Запуск Test Plan Теперь мы понимаем процесс создания файла Test Plan в Xcode. Давайте посмотрим, как запускать Test Plan и получать отчеты в Xcode. Вы можете запускать тесты через Xcode → Product → Test как обычно, запуская прикрепленные Test Plans к схеме. В нашем случае это запустит обе тестовые конфигурации — смоук и регресс. Есть несколько опций командной строки в Xcodebuild для просмотра и запуска Test Plans. Можно выполнить следующую команду: ``` $ Xcodebuild -showTestPlans -scheme YOUR_SCEME ``` Она выведет все Test Plans для текущей схемы. Вы также можете запустить отдельный тест: ``` $ Xcodebuild -project XCTestPlan.Xcodeproj/ -scheme XCTestPlan -destination 'platform=iOS Simulator,OS=13.0,name=iPhone XR' test -testPlan functional ``` Этот скрипт запустит тест, используя конфигурацию Test Plan. ### Отчеты Test Plan После выполнения тестов для определенного Test Plan, вы можете посмотреть хорошие отчеты, сгенерированные в Xcode. Отчеты генерируются отдельно для каждой конфигурации. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/08c/e42/f26/08ce42f2651ca6c28fe18b3078fb3634.png) В Xcode, в разделе test navigator, вы можете фильтровать отчеты по Test Plans. Отчеты по Xcode Test Plan могут быть сконфигурированы на Xcode сервере. *Исходный код демо доступен на Github: [XCTestPlan](https://github.com/Shashikant86/XCTestPlan)* ### Xcode Test Plan: применение Вкратце о том, где может быть использован Xcode Test Plan и как он изменяется в зависимости от конфигурации схемы. Вот несколько примеров использования Xcode Test Plan: * Различные виды тестирования, как было показано в демо: смоук, регрессионное и т. д.; * Тестирование интернационализации и локализации приложения, например, если вы хотите протестировать ваше приложение для нескольких языков, вы можете создать различные конфигурации; * Запуск тяжелых тестов, таких как, например, перфоманс, нагрузочные, и отделение их от функциональных тестов. Вы можете сконфигурировать тесты на работу вместе с инструментами для диагностики кода или с другими нефункциональными тестами. Также возможно множество других сценариев, где Xcode Test Plans может помочь расширить процесс тестирования. ### Заключение С Xcode Test Plan, XCTest может быть выведен на новый уровень по возможностям управления конфигурацией и запуском ваших тестов. Xcode Test Plans позволяет лучше контролировать платформу тестирования на базе Apple.
https://habr.com/ru/post/457108/
null
ru
null
# [CppCon 2018] Herb Sutter: На пути к более простому и мощному C++ В своём выступлении на CppCon 2018 Herb Sutter представил общественности свои наработки по двум направлениям. Во-первых, это **контроль времени жизни** переменных (Lifetime), который позволит обнаруживать целые классы багов на этапе компиляции. Во-вторых, это обновлённый proposal по **метаклассам**, которые позволят избежать дублирования кода, один раз описывая поведение категории классов и потом подключая его к конкретным классам одной строчкой. Предисловие: больше = проще?! ----------------------------- Слышны обвинения C++ в том, что стандарт бессмысленно и беспощадно разрастается. Но даже самые ярые консерваторы не поспорят с тем, что такие новые конструкции, как range-for (цикл по коллекции) и auto (хотя бы для итераторов) делают код проще. Можно выработать примерные критерии, которым (хотя бы одному, в идеале всем) новые расширения языка должны удовлетворять, чтобы упрощать код на практике: 1. Сокращать, упрощать код, убирать дублирующийся код (range-for, auto, lambda, Metaclasses) 2. Делать безопасный код проще для написания, предотвращать ошибки и особые случаи (умные указатели, Lifetimes) 3. Полностью заменять старые, менее функциональные фичи (typedef → using) Herb Sutter выделяет "современный C++" — подмножество фич, которые соответствуют современным стандартам кодирования (вроде [C++ Core Guidelines](https://isocpp.github.io/CppCoreGuidelines/CppCoreGuidelines)), а полный стандарт рассматривает как "режим совместимости", который каждому знать не обязательно. Соответственно, если "современный C++" не растёт, то всё хорошо. Проверки времени жизни переменных (Lifetime) -------------------------------------------- Новая группа проверок Lifetime уже сейчас доступна в составе Core Guidelines Checker для Clang и Visual C++. Цель — не добиться абсолютной строгости и точности, как в Rust, а выполнять простые и быстрые проверки в рамках отдельных функций. ### Основные принципы проверки С точки зрения анализа времени жизни, типы разбиваются на 3 категории: * Значение (value) — то, на что может указывать какой-нибудь Указатель * Указатель (pointer) — обращается к Значению, но не управляет его временем жизни. Может быть висячим (dangling pointer). Примеры: `T*`, `T&`, итераторы, `std::observer_ptr`, `std::string_view`, `gsl::span` * Владелец (owner) — управляет временем жизни Значения. Обычно может удалить своё Значение досрочно. Примеры: `std::unique_ptr`, `std::shared_ptr`, `std::vector`, `std::string`, `gsl::owner` Указатель может быть в одном из следующих состояний: * Указывать на Значение, хранящееся на стеке * Указывать на Значение, содержащееся "внутри" некоторого Владельца * Быть пустым (null) * Быть висячим (invalid) ### Указатели и Значения Для каждого Указателя ![$p$](https://habrastorage.org/getpro/habr/formulas/a7d/f0b/0cf/a7df0b0cf52583a7326d63832fe3d4ed.svg) отслеживается ![$pset(p)$](https://habrastorage.org/getpro/habr/formulas/9ce/9c8/52e/9ce9c852e8ca128e8582634d0b41ce31.svg) — множество значений, на которые он может указывать. При удалении Значения, его вхождения во все ![$pset$](https://habrastorage.org/getpro/habr/formulas/df6/35f/44b/df635f44bcec08a495d6d35e85bd3792.svg) заменяются на ![$invalid$](https://habrastorage.org/getpro/habr/formulas/57d/a85/3ec/57da853ecdb2c3a86dac5e4415e70444.svg). При обращении к Значению Указателя ![$p$](https://habrastorage.org/getpro/habr/formulas/a7d/f0b/0cf/a7df0b0cf52583a7326d63832fe3d4ed.svg), такого что ![$invalid ∈ pset(p)$](https://habrastorage.org/getpro/habr/formulas/ef6/307/2f1/ef63072f1e4020818aa51aacd8a308b2.svg), выдаём ошибку. ``` string_view s; // pset(s) = {null} { char a[100]; s = a; // pset(s) = {a} cout << s[0]; // OK } // pset(s) = {invalid} cout << s[0]; // ERROR: invalid ∈ pset(s) ``` С помощью аннотаций можно настроить, какие операции будут считаться операциями обращения к Значению. По умолчанию: `*`, `->`, `[]`, `begin()`, `end()`. Обращаю внимание, что варнинг выдаётся только в момент *доступа* к невалидному Указателю. Если Значение удалено, но к этому Указателю больше никто никогда не обратится, то всё в порядке. ### Указатели и Владельцы Если Указатель ![$p$](https://habrastorage.org/getpro/habr/formulas/a7d/f0b/0cf/a7df0b0cf52583a7326d63832fe3d4ed.svg) указывает на Значение, содержащееся внутри Владельца ![$o$](https://habrastorage.org/getpro/habr/formulas/da4/c7a/9fe/da4c7a9fe1dc3242b9a2465d70258f87.svg), то это обозначают ![$pset(p) = {o'}$](https://habrastorage.org/getpro/habr/formulas/f0a/67e/53c/f0a67e53c0582a0efe0b951093e3888c.svg). Методы и функции, принимающие Владельцев, подразделяются на: * Операции доступа к Значению Владельца. По умолчанию: `*`, `->`, `[]`, `begin()`, `end()` * Операции доступа к самому Владельцу, инвалидирующие указатели, вроде `v.clear()`. По умолчанию, это все остальные не-const операции * Операции доступа к самому Владельцу, не инвалидирующие указатели, вроде `v.empty()`. По умолчанию, это все const-операции Старое содержимое Владельца объявляется ![$invalid$](https://habrastorage.org/getpro/habr/formulas/57d/a85/3ec/57da853ecdb2c3a86dac5e4415e70444.svg) при удалении Владельца или при применении инвалидирующих операций. Этих правил достаточно, чтобы обнаружить многие типичные баги в коде C++: ``` string_view s; // pset(s) = {null} string name = "foo"; s = name; // pset(s) = {name'} cout << s[0]; // OK name = "bar"; // pset(s) = {invalid} cout << s[0]; // ERROR ``` ``` vector v = get\_ints(); int\* p = &v[5]; // pset(p) = {v'} v.push\_back(42); // pset(p) = {invalid} cout << \*p; // ERROR ``` ``` std::string_view s = "foo"s; cout << s[0]; // ERROR // Расшифровка: сохраняем указатель на содержимое временного объекта std::string_view s = "foo"s // pset(s) = {"foo"s '} ; // pset(s) = {invalid} ``` ``` vector v = get\_ints(); for (auto i = v.begin(); i != v.end(); ++i) { // pset(i) = {v'} if (\*i == 2) { v.erase(i); // pset(i) = {invalid} } // pset(i) = {v', invalid} } // ERROR: ++i for (auto i = v.begin(); i != v.end(); ) { if (\*i == 2) i = v.erase(i); // OK else ++i; } ``` ``` std::optional> get\_data(); // Пусть мы уверены, что get\_data() != nullopt for (int value : \*get\_data()) // ERROR cout << value; // \*get\_data() — ссылка на временный объект for (int value : std::vector(\*get\_data())) // OK cout << value; ``` ### Отслеживание времени жизни параметров функций Когда мы начинаем иметь дело с функциями в C++, возвращающими Указатели, остаётся лишь догадываться о зависимости между временем жизни параметров и возвращаемого значения. Если функция принимает и возвращает Указатели на одинаковый тип, то делается предположение, что функция "достаёт" возвращаемое значение из одного из входных параметров: ``` auto f(int* p, int* q) -> int*; // pset(ret) = {p', q'} auto g(std::string& s) -> char*; // pset(ret) = {s'} ``` Запросто обнаруживаются подозрительные функции, которые берут результат неоткуда: ``` std::reference_wrapper get\_data() { // странный тип функции int i = 3; return {i}; // pset(ret) = {i'} } // pset(ret) = {invalid} ``` Так как в параметры `const T&` можно передать временное значение, то они не учитываются, кроме случаев, когда результат больше неоткуда взять: ``` template const T& min(const T& x, const T& y); // pset(ret) = {x', y'} // Возвращается указатель на const T&-параметр // С этой функцией надо быть предельно аккуратным auto x = 10, y = 2; auto& bad = min(x, y + 1); // pset(bad) = {x, temp} // pset(bad) = {x, invalid} cout << bad; // ERROR ``` ``` using K = std::string; using V = std::string; const V& find_or_default(const std::map& m, const K& key, const V& def); // pset(ret) = {m', key', def'} std::map map; K key = "foo"; const V& s = find\_or\_default(map, key, "none"); // pset(s) = {map', key', temp} ⇒ pset(s) = {map', key', invalid} cout << s; // ERROR ``` Ещё считается, что если функция принимает указатель (вместо ссылки), то он может быть nullptr, и этот указатель до сравнения с nullptr нельзя использовать. ### Заключение по контролю времени жизни Повторю, что Lifetime — это пока не предложение для стандарта C++, а смелая попытка внедрения проверок времени жизни в C++, где, в отличие от Rust, например, никогда не было соответствующих аннотаций. На первых порах будет много ложных срабатываний, но со временем эвристики будут совершенствоваться. ### Вопросы из зала **Дают ли проверки группы Lifetime математически точную гарантию отсутствия висячих указателей?** Теоретически можно было бы (в новом коде) навешивать кучу аннотаций на классы и функции, а взамен компилятор бы давал такие гарантии. Но эти проверки разрабатывались, следуя принципу 80:20, то есть можно поймать бОльшую часть ошибок, используя небольшое число правил и применяя минимум аннотаций. Метаклассы ---------- Метакласс некоторым образом дополняет код класса, к которому он применяется, а также служит названием для группы классов, удовлетворяющих определённым условиям. Например, как показано ниже, метакласс `interface` сделает за вас все функции публичными и чисто виртуальными. В прошлом году Herb Sutter впервые выступил со своим проектом метаклассов ([смотреть тут](https://habr.com/post/339186/)). С тех пор текущий предлагаемый синтаксис поменялся. Для начала, поменялся синтаксис использования метаклассов: ``` // Было interface Shape { int area() const; void scale_by(double factor); }; // Стало class(interface) Shape { … } ``` Стало длиннее, зато теперь есть естественный синтаксис применения нескольких метаклассов сразу: `class(meta1, meta2)`. ### Описание метакласса Раньше метакласс представлял из себя набор правил для модификации класса. Сейчас метакласс — это constexpr-функция, которая принимает на вход старый класс (объявленный в коде) и создаёт новый. А именно, функция принимает один параметр — метаинформацию о старом классе (тип параметра зависит от реализации), создаёт элементы класса (фрагменты), после чего добавляет их внутрь тела нового класса с помощью инструкции `__generate`. Фрагменты можно генерировать с помощью конструкций `__fragment`, `__inject`, `idexpr(…)`. Докладчик предпочёл не фокусироваться на их предназначении, так как эта часть ещё поменяется до того, как будет представлена комитету по стандартизации. Сами имена гарантированно будут изменены, двойное подчёркивание добавили специально, чтобы это прояснить. Акцент в докладе делался на примерах, которые и идут дальше. ### interface ``` template constexpr void interface(T source) { // source описывает исходный класс // Вначале тело целевого класса пусто. Здесь мы добавляем туда // деструктор ~X, где X — имя целевого класса. \_\_generate \_\_fragment struct X { virtual ~X noexcept {} }; // В отличие от static\_assert, compiler.require может использовать // значение параметра constexpr-функции. // Запрещаем объявлять переменные в исходном классе. compiler.require(source.variables().empty(), "interfaces may not contain data members"); // member\_functions(), вероятно, возвращает tuple<…>, поэтому нужен for... for... (auto f : source.member\_functions()) { // Проверяем, что функция — не конструктор копирования/присваивания compiler.require(!f.is\_copy() && !f.is\_move(), "interfaces may not copy or move; consider a virtual clone()"); // Делаем функцию public по умолчанию if (!f.has\_default\_access()) f.make\_public(); // (1) // Проверяем, что функция не была объявлена как protected/private compiler.require(f.is\_public(), "interface functions must be public"); // Делаем функцию чисто виртуальной f.make\_pure\_virtual(); // (2) // Добавляем функцию f в тело нового класса \_\_generate f; } } ``` Можно подумать, что на строках (1) и (2) мы модифицируем исходный класс, но нет. Обратите внимание, что мы итерируемся по функциям исходного класса с копированием, модифицируем эти функции, после чего вставляем их в новый класс. Применение метакласса: ``` class(interface) Shape { int area() const; void scale_by(double factor); }; // Преобразуется в: class Shape { public: virtual ~Shape noexcept {} public: virtual int area() const = 0; public: virtual void scale_by(double factor) = 0; }; ``` ### Отладка мьютекса Пусть у нас есть не-потокобезопасные данные, защищённые мьютексом. Можно облегчить отладку, если в debug-сборке при каждом обращении проверять, залочил ли текущий процесс этот мьютекс. Для этого был написан простенький класс TestableMutex: ``` class TestableMutex { public: void lock() { m.lock(); id = std::this_thread::get_id(); } void unlock() { id = std::thread::id{}; m.unlock(); } bool is_held() { return id == std::this_thread::get_id(); } private: std::mutex m; std::atomic id; }; ``` Далее, в нашем классе MyData хотелось бы каждое публичное поле вроде ``` vector v; ``` Заменить на поле + getter: ``` private: vector v\_; public: vector& v() { assert(m\_.is\_held()); return v\_; } ``` Для функций тоже можно провести аналогичные преобразования. Такие задачи решаются с помощью макросов и кодогенерации. Макросам Herb Sutter объявил войну: они небезопасны, игнорируют семантику, пространства имён и т.д. Как выглядит решение на метаклассах: ``` constexpr void guarded_with_mutex() { __generate __fragment class { TestableMutex m_; // lock, unlock } } template constexpr void guarded\_member(T type, U name) { auto field = …; \_\_generate field; auto getter = …; \_\_generate getter; } template constexpr void guarded(T source) { guarded\_with\_mutex(); for... (auto o : source.member\_variables()) { guarded\_member(o.type(), o.name()); } } ``` Как это использовать: ``` class(guarded) MyData { vector v; Widget\* w; }; MyData& x = findData("foo"); x.v().clear(); // assertion failed: m\_.is\_held() ``` ### actor Хорошо, пусть мы защитили какой-то объект мьютексом, теперь всё потокобезопасно, претензий к корректности нет. Но если к объекту могут часто параллельно обращаться множество потоков, то мьютекс перегрузится, и на его взятие будет большой оверхед. Принципиальное решение проблемы глючных мьютексов — концепция акторов, когда у объекта есть очередь запросов, все обращения к объекту ставятся в очередь и выполняются один за другим в специальном потоке. Пусть класс Active содержит реализацию всего этого — по сути, thread pool/executor с одним потоком. Ну а метаклассы помогут избавиться от дублирующегося кода и ставить в очередь все операции: ``` class(active) ImageFilter { public: ImageFilter(std::function w) : work(std::move(w)) {} void apply(Buffer\* b) { work(b); } private: std::function work; } // Преобразуется в: class ImageFilter { public: ImageFilter(std::function w) : work(std::move(w)) {} void apply(Buffer\* b) { a.send([=] { work(b); }).join(); } private: std::function work; Active a; // обязан быть последним, чтобы начать удаляться до work } ``` ``` class(active) log { std::fstream f; public: void info(…) { f << …; } }; ``` ### property Свойства есть почти во всех современных языках программирования, и их кто только не реализовывал на базе C++: Qt, C++/CLI, всякие уродливые макросы. Однако они никогда не будут добавлены в стандарт C++, так как сами по себе они считаются слишком узкой фичей, и всегда была надежда, что какой-то proposal реализует их в качестве частного случая. Что же, их можно реализовать на метаклассах! ``` // Пишем class X { public: class(property) WidthClass { } width; }; // Получаем class X { public: class WidthClass { int value; int get() const; void set(const int& v); void set(int&& v); public: WidthClass(); WidthClass(const int& v); WidthClass& operator=(const int& v); operator int() const; // Бесплатная поддержка move! WidthClass(int&& v); WidthClass& operator=(int&& v); } width; }; ``` Можно задать собственные getter и setter: ``` class Date { public: class(property) MonthClass { int month; auto get() { return month; } void set(int m) { assert(m > 0 && m < 13); month = m; } } month; }; Date date; date.month = 15; // assertion failed ``` В идеале хочется писать `property int month { … }`, но и такая реализация заменит зоопарк расширений C++, изобретающих свойства. ### Заключение по метаклассам Метаклассы — большая новая фича для и без того сложного языка. Стоит ли оно того? Вот некоторые их преимущества: * Позволят программистам более ясно выражать свои намерения (хочу написать actor) * Уменьшат дублирование кода и упростят разработку и поддержку кода, следующего определённым паттернам * Устранят некоторые группы часто встречающихся ошибок (достаточно будет один раз позаботиться обо всех тонкостях) * Позволят избавиться от макросов? (Herb Sutter настроен очень воинственно) ### Вопросы из зала **Как отлаживать метаклассы?** Как минимум для Clang есть intrinsic-функция, которая, если её вызвать, напечатает во время компиляции реальное содержимое класса, то есть то, что получается после применения всех метаклассов. **Раньше говорилось о возможности объявлять не-члены вроде swap и hash в метаклассах. Куда она делась?** Синтаксис будет дорабатываться. **Зачем нужны метаклассы, если уже приняты для стандартизации концепты (Concepts)?** Это разные вещи. Метаклассы нужны для определения частей класса, а концепты проверяют, соответствует ли класс некоему шаблону, при помощи примеров использования класса. На самом деле, метаклассы и концепты отлично сочетаются. Например, можно определить концепт итератора и метакласс "типичного итератора", который определяет некоторые избыточные операции через остальные.
https://habr.com/ru/post/425873/
null
ru
null
# Опыт еще одного инженерного расследования ##### Нам представилась возможность провести еще одно небольшое, но крайне поучительное тактическое занятие Тематику этого поста навеяла рассылка от Шерлока Омса — периодически там размещаются истории о нетривиальных инженерных задачах, возникших при диагностировании различных электронных устройств. Вот и подумалось, а почему бы и нет? Хотя прекрасно понимаю, что тематика достаточно специфическая, требует вполне конкретных узкоспециализированных знаний и вряд ли будет интересна широкому кругу читателей, но нескольно приятных минут узкому кругу ценителей аппаратных загадок способна доставить. Итак для тех, кто знает, что такое шина данных и как она устроена — история, в которой будут и корабли, и башмаки, и сургуч, и капустные пальмы. В процессе проектирования устройства на МК 1986ВЕ1Т, о котором я уже писал, возникла необходимость взаимодействовать с внешними микросхемами FLASH памяти через достаточно быстрый интерфейс, желательно параллельный. К счастью, в рассматриваемом МК такая возвожность присутствует, и для организации доступа к устройствам, отображенным на память, но не включенным в состав собственно МК, можно использовать полную (32 разряда адреса, 32 разряда данных, 2 управляющих сигнала, 4 сигнала сопровождения) внешнюю шину, причем обмен для пользовательской программы выглядит абсолютно прозрачным.Как всегда, благодарности разработчикам за включение такой опции, и, как всегда, выражения неудовольствия по поводу явно недостаточной документации, хотя пост и не об этом. В силу ряда особенностей разработки и контроллера, использовалась не вся ширина шины данных, а только 8 разрядов, начиная с 03го, что абсолютно несущественно для описания обнаруженной проблеммы. Мк вместе со всеми выходными буферами питается от +3.3, кроме того, для обеспечения работы других устройств на шину данных были подключены подтягивающие резисторы 2 ком к напряжению +5. После сборки опытного экземпляра устройства началась отладка и первые тестовые примеры (естественно, или, как еще говорят, разумеется) не заработали, после чего взяли (здесь и далее используется множественное число, поскольку мы проводили эту работу с молодым коллегой, который почему-то категорически не желает писать посты на Хабре) осциллограф и полезли смотреть времянки. И вот тут то и было обнаружено интересное явление. Ожидаемая осцилограмма сигналов на шине данных должна выглядеть следующим образом (красный и зеленый цвета — это не я придумал, просто так получилось при заливании на Хабр): ![](https://habrastorage.org/files/951/549/a17/951549a175164562ac5e3999051cb1f4.BMP) Фрагмент осциллограммы, помеченой цифрой 2 — это ожидаемое поведение шины при отсутствии адресованного внешнего устройства (достигается переводом входа выборки в неактивное состояние). МК снимает данные с шины (черная линия на верхней диаграмме) и напряжение на ней начинает подтягиваться к питанию через подпитывающий резистор. Через некоторое время МК выдает активный уровень (нулевой) сигнала чтения (зеленый сигнал на нижней диаграмме) и в этот момент внешнее устройство должно передать данные (поскольку оно неактивно, продолжается подтяжка), затем по истечении определенного времени активный уровень сигнала чтения снимается, внешнее устройство освобождает шину, дальнейшее состояние на шине неопределенно, в нашем случае продолжается подтяжка. Все логично и понятно, но дело в том, что первоначально были обнаружены диаграммы, показаные на участке 1. В этом случае перед подачей сигнала чтения МК выдавал на шину высокий уровень и продолжал его удерживать на протяжении времени чтения и даже дальше, лишь по истечению значительного времени (порядка миллисекунд) шина данных переходила в отключенное состояние. Несколько неожиданно, но сначала я отнесся к ситуации без должного внимания — решил, что где-то ошибка в настройках пинов и надо ее искать (поскольку программу писал молодой коллега, мне было легко предположить наличие в ней возможных ошибок, вот если бы ее писал я, то тут ситуация не была бы столь однозначой :) ). Твердая уверенность в наличии ошибки настроек исчезла после того, как быо установленно, что ВСЕ 16 линий данных (из 32) настроены одинаково, а сбои имеются только на 4 из них, причем это биты 4,5, 8 и 11. Думаем дальше и экспериментируем. Появляется идея, что нельзя проводить чтение сразу после записи (это в докуметации не отражено, но при работе с Миландром мы уже привыкли что-то домысливать), поэтому делаем 2 последовательных чтения, в надежде что второе пройдет правильно. ``` data=*buffaddr; data=*buffaddr; ``` И вот тут начинается самое интересное — второе чтение действительно проходит правильно, НО первое тоже становится правильным — очень интересное явление — совершенно не могу себе представить его механизм — то есть не могу представить разумный механизм влияния последующей команды на предыдущую. Беглый просмотр порожденного ассемблерного кода дает подсказку — изменился адрес расположения команды первого чтения в силу особенностей работы линкера — уже лучше, механизм влияния адреса на выполнение команды придумать проще. Для того, чтобы поисследовать поведение МК, выделяем фрагмент, относящийся к обмену с внешней шиной, из общей программы, путем удаления всего ненужного. И получаем очередной сюрприз — неправильное чтение не наблюдается даже при одинарном обращении, хотя адрес команды остается неизменным. Путем вставления удаленных фрагментов обратно выясняем, что при подключении функции вычисления CRC16 неправильное чтение наболюдается, а при ее отсутствии — нет, причем эта функция совершенно очевидно никак с внешней шиной не взаимодействует и влиять на чтение разумными способами не может. Дальнейшие эксперименты показали, что важна не функция подсчета CRC16 как таковая, а наличие в ней блока данных промежуточных сумм, более того, размер этого блока, то есть при коде: ``` static CRC16Buff[256]; ошибка наблюдается а при static CRC16Buff[215]; (и менее 215) - ошибка обращения отсутствует ``` Каким образом может этот фрагмент влиять на код исполняемый совсем в другом месте? Обнаруживаем, что единственное изменение — в значении стека, поскольку изменилось требуемое место под глобальные переменные. То есть получается, что неправильное обращение происходит при выполнении команды с определенных мест при определенных значениях стека, причем количество ошибочных битов в слове невелико? Самое время вспомнить первое правило инженера — «Чудес на свете не бывает». Можно предположить, что это остаток какой то отладочной функции VHDL, который сигнализировал об определенных ситуациях и не был убран из релиза. Выглядит как мысль сильно обкурившегося разработчика, но пока другой гипотезы нет, поскольку божественное вмешательство мы отвергаем. Другая мысль — «вот ты какой, северный олень» — мы обнаружили ЗАКЛАДКУ, правда, довольно-таки бессмысленную, но кто их, ребят из АНБ, может понять. Продолжаем исследования и с изумлением обнаруживаем, что перемещение команды по различным адресам (путем добавления NOP) ни к чему не приводит — ошибка не появляется, или, соответственно не исчезает для разных значений стека, то есть гипотезу с адресом следует отвергнуть. Но как же тогда добавление второй команды влияет на первую? Смотрим на ассеблерный код внимательнее и обнаруживаем еще изменения, а именно при одинарном чтении компилятор порождает ``` mov r0, sp ldrh r1,[r4] strh r1,[r0] ``` А при двух чтениях подряд он провел отпимизацию: ``` mov r2, sp ldrh r1,[r4] strh r1,{r2] ldrh r1,[r4] strh r1,[r2] ``` В это трудно было поверить, но действительно далее устанавливаем, что неправильное чтение имеет место тогда, и только тогда, когда в регистре r0 лежит вполне конкретное значение, причем неважно, будет ли этот регистр использоваться в дальнейшем. По сравнению с предыдущей совершенно сумасшедшей гипотезой о связи указателя стека и счетчике команд наблюдаем явный прогресс.Дальнейшими экспериментами устанавливаем, что форсированный ошибочный высокий уровень наблюдается на разрядах данных, по которым в последнем цикле были записаны единицы, и в которых в регистре r0 записаны единицы, причем явление явно триггерное — возникает при первом чтении после записи и удерживается на протяжении определенного времени, причем время это никак не связано с частотой МК (в пределах ошибки наблюдения), но имеет явно выраженную связь с температурой кристалла (при повышении температуры время удержания растет). Можно предположить, что сигнал управления выходным буфером верхнего каскада шины данных имеет нефорсированный неактивный уровень, и на него наводится сигнал с соответствующего разряда регистра, пока не произойдет перезарядка емкости токами утечки. Гипотеза хорошая, но триггерность, к сожалению, не объясняет, если кто нибудь придумает более подходящее объяснение — прошу в комменты. Ну а в практической части, так сказать в сухом остатке, перед чтением данных в регистр r0 записываем ноль и шина ведет себя как и должна, что подтверждается вышеприведенной осцилограммой, полученной при следующем коде ``` mov r0, #0xFFFFFFFF ; это псевдокод операции ldrh r1,[r4] ; здесь наблюдается ошибка - фрагмент 1 strh r1,[r4] ; проводим запись с установлеными единицами, сигнал записи - синяя линия на нижней диаграмме mov r0,#0x00000000 ldrh r1,[r4] ; а вот тут ошибки нет - фрагмент 2 ``` Кстати, как и у О'Генри, ни королей ни капусты так и не было.
https://habr.com/ru/post/231373/
null
ru
null
# AngularJS + UI Router: проверка авторизации и прав доступа Если ваше приложение предполагает авторизацию пользователей и/или проверку прав доступа, то вам придется либо изобретать велосипед, либо гуглить в поисках подходящего решения. В принципе, я тоже это делал. В итоге я принял приемлемым для себя описанный ниже вариант. #### Предпосылки Информацию об авторизованном пользователе я решил хранить в sessionStorage, копируя её при запуске приложения в `$rootScope`. Также по рекомендации авторов UI Router я храню в $rootScope значения объекты `$state` и `$stateParam`, для удобного доступа. Информацию же о доступе к тому или иному состоянию можно передавать через блок `data` при описании самого состояния. Поскольку в моем приложении везде закрыт доступ, я решил идти от обратного и добавлять значение `noLogin = true` для состояний, которые не требуют авторизации, например страницы ввода логина, восстановления пароля или регистрации. ``` angular.module('myApp.auth', [ 'ui.router' ]) .config(['$stateProvider', '$urlRouterProvider', function ($stateProvider, $urlRouterProvider) { $stateProvider .state('auth', { url: '/auth', abstract: true, template: '' }) .state('auth.login', { url: '/login', templateUrl: 'src/auth/partials/login.html', data: { 'noLogin': true } }); ]); ``` #### Создание сервиса для пре-роутинга Проверять авторизацию и права доступа нужно в самом начале, до работы роутера, перед тем, как он отправит посетителя на запрошенное состояние (предполагается, что вы знаете, что UI Router управляет не положениями, а состояниями. Больше читайте в официальной документации). Хороший способ это сделать — повесить слушателя на событие `$stateChangeStart` в методе run() вашего главного модуля. Чтобы не захламлять функционалом тело метода, который может быть объемным и сложным, я вынес его в отдельный сервис, в методе `run()` я просто вызываю метод сервиса. Думаю, дальше объяснения не понадобятся. ``` angular.module('myApp.auth') .service('SessionService', [ '$injector', function($injector) { "use strict"; this.checkAccess = function(event, toState, toParams, fromState, fromParams) { var $scope = $injector.get('$rootScope'), $sessionStorage = $injector.get('$sessionStorage'); if (toState.data !== undefined) { if (toState.data.noLogin !== undefined && toState.data.noLogin) { // если нужно, выполняйте здесь какие-то действия // перед входом без авторизации } } else { // вход с авторизацией if ($sessionStorage.user) { $scope.$root.user = $sessionStorage.user; } else { // если пользователь не авторизован - отправляем на страницу авторизации event.preventDefault(); $scope.$state.go('auth.login'); } } }; } ]); ``` #### Собираем все вместе Ну и остается последний штрих, чтобы все это заработало — повесить слушателя на событие сервиса `$state`. ``` angular.module('myApp', [ 'myApp.auth', 'ui.router', 'ngStorage' ]) .run([ '$rootScope', '$state', '$stateParams', 'SessionService', function ($rootScope, $state, $stateParams, SessionService) { $rootScope.$state = $state; $rootScope.$stateParams = $stateParams; $rootScope.user = null; // Здесь мы будем проверять авторизацию $rootScope.$on('$stateChangeStart', function (event, toState, toParams, fromState, fromParams) { SessionService.checkAccess(event, toState, toParams, fromState, fromParams); } ); } ]) ``` #### Заключение Думаю, данного примера вполне достаточно, чтобы использовать его как идею и написать собственную авторизацию и проверку прав доступа с какими угодно плюшками. Например, в тот же блок `data` при описании состояния вы можете передавать какие-либо RBAC-правила, а затем проверять их в своем сервисе.
https://habr.com/ru/post/245049/
null
ru
null
# Карта самоорганизации (Self-orginizing map) на TensorFlow Привет, Хабр! Недавно начал свое знакомство с библиотекой глубокого обучения (Deep Learning) от Google под названием TensorFlow. И захотелось в качестве эксперимента написать карту самоорганизации Кохонена. Поэтому решил заняться ее созданием используя стандартный функционал данной библиотеки. В статье описано что из себя представляет карта самоорганизации Кохонена и алгоритм ее обучения. А также приведен пример ее реализации и что из этого всего вышло. ![image](https://habrastorage.org/r/w780q1/web/323/2f9/2ee/3232f92ee1554246866326dcef706f94.jpg) О картах самоорганизации ------------------------ Для начала разберемся что из себя представляет карта самоорганизации (Self-orginizing Map), или просто SOM. SOM – это искусственная нейронная сеть основанная на обучении без учителя. В картах самоорганизации нейроны помещени в узлах решетки, обычно одно- или двумерной. Все нейроны этой решетки связаны со всеми узлами входного слоя. ![](https://habrastorage.org/r/w1560/web/61d/864/a37/61d864a37162433b86557067494f9a69.png) SOM преобразует непрерывное исходное пространство ![$\mathbf{X}$](https://habrastorage.org/getpro/habr/formulas/501/8a9/3db/5018a93dbb0956090c4bea328c4a3a51.svg) в дискретное выходное пространство ![$\mathbf{A}$](https://habrastorage.org/getpro/habr/formulas/39a/410/32a/39a41032a12a46ce65cc096fe84a3e5f.svg).![$\Phi : \mathbf{X} \to \mathbf{A}$](https://habrastorage.org/getpro/habr/formulas/b16/04e/821/b1604e821368d1c77bfeba63e40fabde.svg) Алгоритм обучения SOM --------------------- Обучение сети состоит из трех основных процессов: конкуренция, кооперация и адаптация. Ниже описаны все шаги алгоритма обучения SOM. **Шаг 1: Инициализация.** Для всех векторов синаптических весов,![$\mathbf{w}_j = [w_{j1},w_{j2},...,w_{jm}]^T\:j = 1,2,...,l$](https://habrastorage.org/getpro/habr/formulas/7f1/9e9/5b2/7f19e95b2a37612de1910613b0a3ebf6.svg) где ![$l$](https://habrastorage.org/getpro/habr/formulas/30f/b68/14e/30fb6814eea0091044df0e5de33dfbc2.svg) — общее количество нейронов, ![$m$](https://habrastorage.org/getpro/habr/formulas/e2e/33f/15a/e2e33f15a96008ca33579599483c4531.svg) — размерность входного пространства, выбирается случайное значение от -1 до 1. **Шаг 2: Подвыборка.** Выбираем вектор ![$\mathbf{x} = [x_1,x_2,...,x_m]$](https://habrastorage.org/getpro/habr/formulas/8dc/639/564/8dc63956442d0cdf733066a391cbdbbf.svg) из входного пространства. **Шаг 3: Поиск победившего нейрона или процесс конкуренции.** Находим наиболее подходящий (победивший нейрон) ![$i(\mathbf{x})$](https://habrastorage.org/getpro/habr/formulas/560/2db/280/5602db2808245aba70c38675eaa832ce.svg) на шаге ![$n$](https://habrastorage.org/getpro/habr/formulas/08d/9fa/efb/08d9faefbe272bdf8fbb80773542e343.svg), используя критерий минимума Евклидова расстояния (что эквивалентно максимуму скалярных произведений ![$\mathbf{w}_j^T\mathbf{x}$](https://habrastorage.org/getpro/habr/formulas/e3a/bf7/0bd/e3abf70bdb7f636c88b5b28f1424c11b.svg)):![$i(\mathbf{x}) = \arg\min_{j}\lVert\mathbf{x} - \mathbf{w}_j\rVert, j = 1,2, ..., l\hspace{35pt}(1)$](https://habrastorage.org/getpro/habr/formulas/d72/f7b/a53/d72f7ba537f1464d39889277c29ea10e.svg) **Евклидово расстояние.**Евклидово расстояние (![$\ell_2 norm$](https://habrastorage.org/getpro/habr/formulas/a32/e8e/0b8/a32e8e0b8abea7da4b0fa1dd841bf62d.svg)) определятся как:![$\lVert \mathbf{x} - \mathbf{y} \rVert_2 = \sqrt{\sum_{i=1}^n\lvert x_i - y_i \rvert^2}$](https://habrastorage.org/getpro/habr/formulas/ba5/b7f/0c1/ba5b7f0c1bb1bd5bdb7a3e2b44bd87bf.svg) **Шаг 4: Процесс кооперации.** Нейрон-победитель находится в центре топологической окрестности «сотрудничающих» нейронов. Ключевой вопрос: как определить так называемую топологическую окрестность (topological neighbourhood) победившего нейрона? Для удобства обозначим ее символом: ![$h_{j,i}$](https://habrastorage.org/getpro/habr/formulas/971/dbb/6f0/971dbb6f097458e18166b2a1ffb48fa0.svg), с центром в победившем нейроне ![$i$](https://habrastorage.org/getpro/habr/formulas/bf8/3b5/32c/bf83b532cd867d34004f8eded8c5c79a.svg). Топологическая окрестность должна быть симметричной относительно точки максимума, определяемой при ![$d_{j,i}=0$](https://habrastorage.org/getpro/habr/formulas/0ae/23b/528/0ae23b52801548823c681769d3aaaf68.svg), ![$d_{j,i}$](https://habrastorage.org/getpro/habr/formulas/544/99f/1e8/54499f1e89e8ceeb65803d10b306e757.svg) — это латеральное расстояние (lateral distance) между победившим ![$i$](https://habrastorage.org/getpro/habr/formulas/bf8/3b5/32c/bf83b532cd867d34004f8eded8c5c79a.svg) и соседними нейронами ![$j$](https://habrastorage.org/getpro/habr/formulas/b82/8e2/475/b828e2475a3a56280b895f35eb250ea2.svg). Типичным примером, удовлетворяющим условию выше, ![$h_{j,i}$](https://habrastorage.org/getpro/habr/formulas/971/dbb/6f0/971dbb6f097458e18166b2a1ffb48fa0.svg) является функция Гаусса:![$h_{j,i}=\exp\Bigg(-\frac{d_{j,i}^2}{2\sigma^2}\Bigg)\hspace{35pt}(2)$](https://habrastorage.org/getpro/habr/formulas/3c4/2f3/abb/3c42f3abb843a731b0bf267495b8495b.svg) где ![$\sigma$](https://habrastorage.org/getpro/habr/formulas/bd2/53a/dd0/bd253add01b6a626f79861899c5e7d73.svg) — эффективная ширина (effective width). Латеральное расстояние определяется как: ![$d_{j,i}^2=\lvert r_j-r_i\rvert^2$](https://habrastorage.org/getpro/habr/formulas/f25/86a/01e/f2586a01ed9f74e6a775fa0381396c84.svg) в одномерном, и: ![$d_{j,i}^2=\lVert r_j-r_i\rVert^2$](https://habrastorage.org/getpro/habr/formulas/b65/892/559/b658925595c5a4b325373ff17fe9924e.svg) в двумерном случае. Где ![$r_j$](https://habrastorage.org/getpro/habr/formulas/80d/487/147/80d487147d59774316d21671eb1a4a51.svg) определяет позицию возбуждаемого нейрона, а ![$r_i$](https://habrastorage.org/getpro/habr/formulas/300/742/edf/300742edf17955ccd51dad394dde8966.svg) — позицию победившего нейрона (в случае двумерной решетки ![$r = (x, y)$](https://habrastorage.org/getpro/habr/formulas/f3f/d06/540/f3fd06540f902e2e7049f75bfda5a4a8.svg), где ![$x$](https://habrastorage.org/getpro/habr/formulas/817/b92/407/817b92407f764f57af9226e50cc788fd.svg) и ![$y$](https://habrastorage.org/getpro/habr/formulas/9b3/4c4/da5/9b34c4da5c757d4982bbd1b6f2e8998a.svg) координаты нейрона в решетке). ![image](https://habrastorage.org/r/w1560/web/ba6/a97/517/ba6a9751798b4ae293d8bc24a8dc040d.png) *График функции топологической окрестности для различных ![$\sigma$](https://habrastorage.org/getpro/habr/formulas/bd2/53a/dd0/bd253add01b6a626f79861899c5e7d73.svg).* Для SOM характерно уменьшение топологической окрестности в процессе обучения. Достичь этого можно изменяя ![$\sigma$](https://habrastorage.org/getpro/habr/formulas/bd2/53a/dd0/bd253add01b6a626f79861899c5e7d73.svg) по формуле:![$\sigma(n)=\sigma_0\exp\Bigg(-\frac{n}{\tau_1}\Bigg),\:n=0,1,2,...\hspace{35pt}(3)$](https://habrastorage.org/getpro/habr/formulas/c3b/e62/dd5/c3be62dd5174b80e0931f18a6c57ac57.svg) где ![$\tau_1$](https://habrastorage.org/getpro/habr/formulas/818/9ad/785/8189ad78592ebe2bc4a42368096954bf.svg) — некоторая константа, ![$n$](https://habrastorage.org/getpro/habr/formulas/08d/9fa/efb/08d9faefbe272bdf8fbb80773542e343.svg) — шаг обучения, ![$\sigma_0$](https://habrastorage.org/getpro/habr/formulas/e85/728/8b2/e857288b2a83c67bf05d7afa80059813.svg) — начальное значение ![$\sigma$](https://habrastorage.org/getpro/habr/formulas/bd2/53a/dd0/bd253add01b6a626f79861899c5e7d73.svg). ![image](https://habrastorage.org/r/w1560/web/e44/6a7/51e/e446a751ea804f05962a4b92de01955c.png) *График изменением ![$\sigma$](https://habrastorage.org/getpro/habr/formulas/bd2/53a/dd0/bd253add01b6a626f79861899c5e7d73.svg) в процессе обучения.* Функция ![$h_{j,i}$](https://habrastorage.org/getpro/habr/formulas/971/dbb/6f0/971dbb6f097458e18166b2a1ffb48fa0.svg) по окончании этапа обучения должна охватывать только ближайших соседей. На рисунках ниже приведены графики функции топологической окрестности для двумерной решетки. ![image](https://habrastorage.org/r/w1560/web/d75/997/a1d/d75997a1dcca4f87a48244935b31459d.png) *Из данного рисунка видно, что в начале обучения топологическая окрестность охватывает практически всю решетку.* ![image](https://habrastorage.org/r/w1560/web/c0e/204/aa3/c0e204aa3552455abf5eee0b7e0e10ac.png) *В конце обучения ![$h_{j,i}$](https://habrastorage.org/getpro/habr/formulas/971/dbb/6f0/971dbb6f097458e18166b2a1ffb48fa0.svg) сужается до ближайших соседей.* **Шаг 5: Процесс адаптации.** Процесс адаптации включает в себя изменение синаптических весов сети. Изменение вектора весов нейрона ![$j$](https://habrastorage.org/getpro/habr/formulas/b82/8e2/475/b828e2475a3a56280b895f35eb250ea2.svg) в решетке можно выразить следующим образом:![$\Delta\mathbf{w}_j = \eta h_{j,i}(\mathbf{x}-\mathbf{w}_j)$](https://habrastorage.org/getpro/habr/formulas/278/100/d00/278100d00a4631ca7e58108667a00b08.svg) ![$\eta$](https://habrastorage.org/getpro/habr/formulas/bb9/97f/87c/bb997f87cffdb02b3cf68579e8e7f520.svg) — параметр скорости обучения. В итоге имеем формулу обновленного вектора весов в момент времени ![$n$](https://habrastorage.org/getpro/habr/formulas/08d/9fa/efb/08d9faefbe272bdf8fbb80773542e343.svg):![$\mathbf{w}_j(n+1)=\mathbf{w}_j(n)+\eta(n)h_{j,i}(n)(\mathbf{x}-\mathbf{w}_j(n))\hspace{35pt}(4)$](https://habrastorage.org/getpro/habr/formulas/cd9/27c/0c4/cd927c0c45c2a15d05f326d0c0c4501f.svg) В алгоритме обучения SOM также рекомендуется изменять параметр скорости обучения ![$\eta$](https://habrastorage.org/getpro/habr/formulas/bb9/97f/87c/bb997f87cffdb02b3cf68579e8e7f520.svg) в зависимости от шага.![$\eta(n)=\eta_0\exp\Bigg(-\frac{n}{\tau_2}\Bigg)\:n=0,1,2,...\hspace{35pt}(5)$](https://habrastorage.org/getpro/habr/formulas/32f/2af/d3e/32f2afd3e87db0ddf724314f058c51e5.svg) где ![$\tau_2$](https://habrastorage.org/getpro/habr/formulas/c3e/8a4/115/c3e8a4115f83c61bdac6c20022c16bc3.svg) — еще одна константа алгоритма SOM. ![image](https://habrastorage.org/r/w1560/web/bc6/39f/90d/bc639f90d32442b693bae1a539d8d8cd.png) *График изменением ![$\eta$](https://habrastorage.org/getpro/habr/formulas/bb9/97f/87c/bb997f87cffdb02b3cf68579e8e7f520.svg) в процессе обучения.* После обновления весов возвращаемся к шагу 2 и так далее. Эвристики алгоритма обучения SOM -------------------------------- Обучения сети состоит из двух этапов: **Этап самоорганизации** — может занять до 1000 итерций а может и больше. **Этап сходимости** — требуется для точной подстройки карты признаков. Как правило, количесвто итераций, достаточное для этапа сходимости может превышать количество нейоронов в сети в 500 раз. **Эвристика 1.** Начальное значение параметра скорости обучения лучше выбрать близким к значению: ![$\eta_0 = 0.1$](https://habrastorage.org/getpro/habr/formulas/3cf/edd/1d0/3cfedd1d0864e2e46a53204afa4bf776.svg), ![$\tau_2=1000$](https://habrastorage.org/getpro/habr/formulas/f7e/102/f48/f7e102f487177572fe59051ce0b13d62.svg). При этом оно не должно опускаться ниже значения 0.01. **Эвристика 2.** Исходное значение ![$\sigma_0$](https://habrastorage.org/getpro/habr/formulas/e85/728/8b2/e857288b2a83c67bf05d7afa80059813.svg) следует установить примерно равной радиусу решетки, а константу ![$\tau_1$](https://habrastorage.org/getpro/habr/formulas/818/9ad/785/8189ad78592ebe2bc4a42368096954bf.svg) опрелить как: ![$\tau_1=\frac{1000}{\log\sigma_0}\hspace{35pt}(6)$](https://habrastorage.org/getpro/habr/formulas/6e4/14c/ace/6e414cace417e2bd96e1832f5c89cbb9.svg) На этапе сходимости следует остановить изменение ![$\sigma$](https://habrastorage.org/getpro/habr/formulas/bd2/53a/dd0/bd253add01b6a626f79861899c5e7d73.svg). Реализация SOM с помощью Python и TensorFlow -------------------------------------------- Теперь перейдем от теории к практической реализации самоорганизующейся карты (SOM) с помощью Python и TensorFlow. Для начала создадим класс SOMNetwork и создадим операции TensorFlow для инициализации всех констант: ``` import numpy as np import tensorflow as tf class SOMNetwork(): def __init__(self, input_dim, dim=10, sigma=None, learning_rate=0.1, tay2=1000, dtype=tf.float32): #если сигма на определена устанавливаем ее равной половине размера решетки if not sigma: sigma = dim / 2 self.dtype = dtype #определяем константы использующиеся при обучении self.dim = tf.constant(dim, dtype=tf.int64) self.learning_rate = tf.constant(learning_rate, dtype=dtype, name='learning_rate') self.sigma = tf.constant(sigma, dtype=dtype, name='sigma') #тау 1 (формула 6) self.tay1 = tf.constant(1000/np.log(sigma), dtype=dtype, name='tay1') #минимальное значение сигма на шаге 1000 (определяем по формуле 3) self.minsigma = tf.constant(sigma * np.exp(-1000/(1000/np.log(sigma))), dtype=dtype, name='min_sigma') self.tay2 = tf.constant(tay2, dtype=dtype, name='tay2') #input vector self.x = tf.placeholder(shape=[input_dim], dtype=dtype, name='input') #iteration number self.n = tf.placeholder(dtype=dtype, name='iteration') #матрица синаптических весов self.w = tf.Variable(tf.random_uniform([dim*dim, input_dim], minval=-1, maxval=1, dtype=dtype), dtype=dtype, name='weights') #матрица позиций всех нейронов, для определения латерального расстояния self.positions = tf.where(tf.fill([dim, dim], True)) ``` Далее создадим функцию для создания операции процесса конкуренции: ``` def __competition(self, info=''): with tf.name_scope(info+'competition') as scope: #вычисляем минимум евклидова расстояния для всей сетки нейронов distance = tf.sqrt(tf.reduce_sum(tf.square(self.x - self.w), axis=1)) #возвращаем индекс победившего нейрона (формула 1) return tf.argmin(distance, axis=0) ``` Нам осталось создать основную операцию обучения для процессов кооперации и адаптации: ``` def training_op(self): #определяем индекс победившего нейрона win_index = self.__competition('train_') with tf.name_scope('cooperation') as scope: #вычисляем латеральное расстояние d #для этого переводим инедкс победившего нейрона из 1d координаты в 2d координату coop_dist = tf.sqrt(tf.reduce_sum(tf.square(tf.cast(self.positions - [win_index//self.dim, win_index-win_index//self.dim*self.dim], dtype=self.dtype)), axis=1)) #корректируем сигма (используя формулу 3) sigma = tf.cond(self.n > 1000, lambda: self.minsigma, lambda: self.sigma * tf.exp(-self.n/self.tay1)) #вычисляем топологическую окрестность (формула 2) tnh = tf.exp(-tf.square(coop_dist) / (2 * tf.square(sigma))) with tf.name_scope('adaptation') as scope: #обновляем параметр скорости обучения (формула 5) lr = self.learning_rate * tf.exp(-self.n/self.tay2) minlr = tf.constant(0.01, dtype=self.dtype, name='min_learning_rate') lr = tf.cond(lr <= minlr, lambda: minlr, lambda: lr) #вычисляем дельта весов и обновляем всю матрицу весов (формула 4) delta = tf.transpose(lr * tnh * tf.transpose(self.x - self.w)) training_op = tf.assign(self.w, self.w + delta) return training_op ``` В итоге мы реализовали SOM и получили операцию training\_op с помощью которой можно обучать нашу нейронную сеть, передавая на каждой итерации входной вектор и номер шага как параметр. Ниже приведен граф операций TensorFlow построенный с помощью Tesnorboard. ![image](https://habrastorage.org/web/56d/556/77a/56d55677ab6243ce97d26f8ef8d333c6.PNG) *Граф операций TensorFlow.* Тестирование работы программы ----------------------------- Для тестирования работы программы, будем подавать на вход трехмерный вектор ![$\mathbf{x} = (x_1, x_2, x_3), \:x_i = [0, 1]$](https://habrastorage.org/getpro/habr/formulas/dd6/21e/43e/dd621e43e4bd6b514da2c5dd84751955.svg). Данный вектор можно представить как цвет из трех ![$(r,g,b)$](https://habrastorage.org/getpro/habr/formulas/005/ac4/ee9/005ac4ee90b4c5caccf59534ec8fb928.svg) компонент. Создадим экземпляр нашей SOM сети и массив из рандомных векторов (цветов): ``` #сеть размером 20х20 нейронов som = SOMNetwork(input_dim=3, dim=20, dtype=tf.float64, sigma=3) test_data = np.random.uniform(0, 1, (250000, 3)) ``` Теперь можно реализовать основной цикл обучения: ``` training_op = som.training_op() init = tf.global_variables_initializer() with tf.Session() as sess: init.run() for i, color_data in enumerate(test_data): if i % 1000 == 0: print('iter:', i) sess.run(training_op, feed_dict={som.x: color_data, som.n:i}) ``` После обучения сеть преобразует непрерывное входное пространство цветов в дискретную градиентную карту, при подаче одной гаммы цветов всегда будут активироваться нейроны из одной области карты соответствующей данному цвету (активируется один нейрон наиболее подходящий подаваемому вектору). Для демонстрации можно представить вектор синаптических весов нейронов как цветовое градиентное изображение. На рисунке представлена карта весов для сети 20х20 нейронов, после 200тыс. итераций обучения: ![](https://habrastorage.org/r/w1560/web/ef1/1ea/3a7/ef11ea3a78e9476c82b6018f8d5b2b57.png) *Карта весов в начале обучения (слева) и в конце обучения (справа).* ![](https://habrastorage.org/r/w1560/web/074/1f7/a0f/0741f7a0fed74ecfb01410ce43f36a0e.png) *Карта весов для сети 100x100 нейронов, после 350тыс. итераций обучения.* Заключение ---------- В итоге создана самоорганизующаяся карта и показан пример ее обучения на входном векторе состоящим из трех компонент. Для обучения сети можно использовать вектор любой размерности. Так же можно преобразовать алгоритм для работы в пакетном режиме. При этом порядок представления сети входных данных не влияет на окончательную форму карты признаков и нет необходимости в изменении параметра скорости обучения со временем. **P.S.:** Полный код программы можно найти [тут](https://github.com/MoonL1ght/Self-orginizing-Map).
https://habr.com/ru/post/334810/
null
ru
null
# Миграция базы данных в Zend Framework: Akrabat_Db_Schema_Manager В процессе работы над одним огромным проектом на Zend Framework, возникла необходимость миграции баз данных и перемещение между версиями, т.е. кроме update, был необходим так называемый downdate. Немного погуглив натолкнулся на интересную статью Роба Алана (в дальнейшем Автор) «Akrabat\_Db\_Schema\_Manager: Zend Framework database migrations». Данная статья не является переводом оригинала, а скорее синтезом его и возникшей проблемы. Об этом и пойдет разговор. После каждого изменения в базе данных (добавление столбцов, таблиц, индексов, ключей и т.д.), нужно создавать отдельный файл миграции. Подобные файлы можно размещать в каталоге ./scripts/migrations. Автор предлагает именовать файл миграции как 001-CreateUsersTable.php. Номер определяет порядок, в котором данные файлы будут запускаться, т.е. по сути идет **[порядковый номер]-[краткое описание миграции].php**. Но в этом не так много информативности. По этому мы решили именовать миграцию как **[номер-ревизии]-[краткое описание миграции].php**. Для тех кто пользуется hg могут использовать порядковый номер changeset. В связи с этим пришлось немного переписать класс Akrabat\_Db\_Schema\_Manager, т.к. в одну ревизию могло входить несколько миграций и имена файлов переопределялись. Метод \_getMigrationFiles() возвращает не массив вида: ``` $files["v$versionNumber"] = array( 'path'=>$path, 'filename'=>$entry, 'version'=>$versionNumber, 'classname'=>$className); А массив массивов: $files["v$versionNumber"][] = array( 'path'=>$path, 'filename'=>$entry, 'version'=>$versionNumber, 'classname'=>$className); ``` Соответственно изменения коснулись и метода \_processFile($migration, $direction), в который передавался параметр $migration не как массив, а массив массивов. Кому интересно, исходные коды классов выложу на [GitHub](http://github.com), а пока расскажу про основной алгоритм модернизации. Файл миграции содержит класс наследуемый от Akrabat\_Db\_Schema\_AbstractChange и содержащий два метода: up() и down(). Метод up() запускает процесс обновления БД, а down() — в случае отката ревизии. Вот немного измененный пример, который приводит Автор: ``` class CreateUsersTable extends Akrabat_Db_Schema_AbstractChange { function up() { $tableName = $this->_tablePrefix . 'users'; $sql = "CREATE TABLE IF NOT EXISTS $tableName ( id int(11) NOT NULL AUTO_INCREMENT, username varchar(50) NOT NULL, password varchar(75) NOT NULL, roles varchar(200) NOT NULL DEFAULT 'user', PRIMARY KEY (id) )"; $this->_db->query($sql); $data = array(); $data['username'] = 'admin'; $data['password'] = sha1('password'); $data['roles'] = 'user,admin'; $this->_db->insert('users', $data); } function down() { $tableName = $this->_tablePrefix . 'users'; $sql = "DROP TABLE IF EXISTS $tableName"; $this->_db->query($sql); } } ``` В примере введена поддержка префикса таблиц, который указывается в конфигурационном файле, в ключе **resources.db.table\_prefix**. Но опять есть 1 минус, имя класса совпадает с **[кратким описанием миграции]**, и если у нас будет хотя бы 2 одинаковых описания, то вылетит Fatal error: Cannot redeclare class. Для этого определим индекс массива 'classname' как ``` 'classname' => $className.$versionNumber ``` и аналогично именуем класс — это позволит избежать нам ошибки. А теперь — самое вкусное. Прикручиваем всю эту красоту к zend Tool. Как установить Zend Tool я рассказывать не буду, об этом уже много писали. Для начала определимся где хранить Akrabat ZF Library, я предпочитаю все PHP библиотеки хранить в /usr/share/php/, это значит что путь к ней будет /usr/share/php/Akrabat. Далее все просто: ``` $ zf --setup storage-directory $ zf --setup config-file $ echo "`php -r 'echo get_include_path().PATH_SEPARATOR;'`/usr/share/php/Akrabat">~/.zf.ini $ echo ‘basicloader.classes.0 = "Akrabat_Tool_DatabaseSchemaProvider"’>>~/.zf.ini ``` Теперь убедимся что все работает: ``` $ zf ? database-schema ``` Должны увидеть что-то похожее: ``` Zend Framework Command Line Console Tool v1.11.11 Actions supported by provider "DatabaseSchema" DatabaseSchema zf update database-schema env[=development] dir[=./scripts/migrations] zf update-to database-schema version env[=development] dir[=./scripts/migrations] zf decrement database-schema versions[=1] env[=development] dir[=./scripts/migrations] zf increment database-schema versions[=1] env[=development] dir[=./scripts/migrations] zf current database-schema env[=development] dir[=./migrations] zf get-table-prefix database-schema ``` ##### Источники 1. [Статья Автора](http://akrabat.com/zend-framework/akrabat_db_schema_manager-zend-framework-database-migrations/) 2. [Akrabat ZF Library на GitHub.com](https://github.com/akrabat/Akrabat)
https://habr.com/ru/post/148843/
null
ru
null
# Обновление Kubernetes-кластера без простоя ![](https://habrastorage.org/r/w1560/webt/8l/ai/9a/8lai9abd768puguonlvtocep-jo.png) *Процесс обновления для вашего Kubernetes-кластера* В какой-то момент при использовании кластера Kubernetes возникает потребность в обновлении работающих нод. Оно может включать в себя обновления пакетов, обновление ядра или развертывание новых образов виртуальных машин. В терминологии Kubernetes это называется ["Voluntary Disruption"](https://kubernetes.io/docs/concepts/workloads/pods/disruptions/#voluntary-and-involuntary-disruptions). Этот пост является частью цикла из 4 постов: 1. Этот пост. 2. [Корректное завершение работы pod’ов в Kubernetes-кластере](https://habr.com/en/company/nixys/blog/489992/) 3. [Отложенное завершение pod'а при его удалении](https://habr.com/en/company/nixys/blog/490380/) 4. [Как избежать простоя в работе Kubernetes-кластера при помощи PodDisruptionBudgets](https://habr.com/en/company/nixys/blog/490680/) *(прим. пер. переводы остальных статей цикла ожидайте в ближайшее время)* В этой статье мы будем описывать все инструменты, которые предоставляет Kubernetes для достижения нулевого времени простоя для работающих в вашем кластере нод. Определение проблемы -------------------- Поначалу мы будем использовать наивный подход, определять проблемы и оценивать потенциальные риски данного подхода и накапливать знания для решения каждой из проблем, с которыми встретимся на протяжении всего цикла. В результате мы получим конфигурацию, в которой используются lifecycle hooks, readiness probes и Pod disruption budgets для достижения нашего нулевого времени простоя. Чтобы начать наш путь, давайте возьмем конкретный пример. Допустим, у нас есть кластер Kubernetes из двух нод, в котором запущено приложение с двумя pod'aми, находящимися за `Service`: ![](https://habrastorage.org/r/w1560/webt/g-/ae/7q/g-ae7qfeflyu-5zfpw04stxbmas.png) *Начнем с двух pod’ов с Nginx и Service запущенных на наших двух нодах Kubernetes-кластера.* Мы хотим обновить версию ядра двух рабочих нод в нашем кластере. Как мы это сделаем? Простым решением было бы загрузить новые ноды с обновленной конфигурацией и затем выключить старые ноды, одновременно с запуском новых. Хотя это сработает, будет несколько проблем с таким подходом: * Когда вы выключите старые ноды, то запущенные на них pod’ы так же будут выключены. Что если pod’ы нужно очистить для корректного отключения? Система виртуализации, которую вы используете, может не дождаться окончания процесса очистки. * Что если вы отключите все ноды одновременно? Вы получите приличный простой пока pod’ы переедут на новые ноды. Нам нужен способ корректной миграции pod’ов со старых нод и при этом нужно быть уверенными, что ни один из наших рабочих процессов не запущен, пока мы вносим изменения для ноды. Или когда мы делаем полную замену кластера, как в примере(то есть заменяем образы VM), мы хотим перенести работающие приложения со старых нод на новые. В обоих случаях мы хотим предотвратить планирование новых pod’ов на старых нодах, а затем выселить с них все запущенные pod’ы. Для достижения этих целей мы можем использовать команду `kubectl drain`. Перераспределение всех pod’ов с ноды ------------------------------------ Операция drain позволяет перераспределить все pod’ы с ноды. В процессе выполнения drain нода помечается как unschedulable (флаг `NoSchedule`). Это предотвращает появление на ней новых pod’ов. Затем drain начинает выселять pod’ы с ноды, завершает работу контейнеров, которые на данный момент запущены на ноде отправляя сигнал `TERM` контейнерам в pod’е. Хотя `kubectl drain` отлично справится с выселением pod’ов, есть ещё два фактора, которые могут стать причиной сбоя при выполнении операции drain: * Ваше приложение должно уметь корректно завершаться при подаче `TERM` сигнала. Когда pod’ы выселяются, Kubernetes отправляет сигнал `TERM` контейнерам и ждет их остановки заданное количество времени, после чего, если они не остановились, завершает их принудительно. В любом случае, если Ваш контейнер не воспримет сигнал корректно, вы все ещё можете потушить pod’ы некорректно, если они в данный конкретный момент работают (например, выполняется транзакция в БД). * Вы теряете все pod’ы, в которых содержится ваше приложение. Оно может быть недоступно на момент запуска новых контейнеров на новых нодах или, если ваши pod’ы развернуты без контроллеров, они могут не перезапуститься в принципе. Избегаем простоя ---------------- Что бы минимизировать время простоя от voluntary disruption, как, например, от операции drain для ноды, Kubernetes предоставляет следующие варианты обработки сбоев: * [Graceful termination](https://kubernetes.io/docs/concepts/workloads/pods/pod/#termination-of-pods) * [Lifecycle hooks](https://kubernetes.io/docs/concepts/containers/container-lifecycle-hooks/) * [PodDisruptionBudgets](https://kubernetes.io/docs/concepts/workloads/pods/disruptions/#how-disruption-budgets-work) В остальных частях цикла мы будем использовать данные функции Kubernetes для смягчения последствий переноса pod’ов. Чтобы было легче проследить основную мысль, мы будем использовать наш пример выше со следующей ресурсной конфигурацией: ``` --- apiVersion: apps/v1 kind: Deployment metadata: name: nginx-deployment labels: app: nginx spec: replicas: 2 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx:1.15 ports: - containerPort: 80 --- kind: Service apiVersion: v1 metadata: name: nginx-service spec: selector: app: nginx ports: - protocol: TCP targetPort: 80 port: 80 ``` Эта конфигурация является минимальным примером `Deployment`, который управляет pod’ами nginx в кластере. Кроме того, конфигурация описывает ресурс `Service`, который можно использовать для доступа к pod’ам nginx в кластере. На протяжении всего цикла мы будем итеративно расширять данную конфигурацию, чтобы в финале она включала в себя все возможности, предоставляемые Kubernetes для уменьшения времени простоя. *Чтобы получить полностью внедренную и протестированную версию обновлений кластера Kubernetes для нулевого временем простоя на AWS и других ресурсах, посетите [Gruntwork.io](https://gruntwork.io/).* Также читайте другие статьи в нашем блоге: ------------------------------------------ * [Zero Downtime Deployment и базы данных](https://habr.com/ru/company/nixys/blog/481932/) * [Kubernetes: почему так важно настроить управление ресурсами системы?](https://habr.com/ru/company/nixys/blog/480072/) * [Tekton Pipeline — Kubernetes-нативные pipelines](https://habr.com/ru/company/nixys/blog/481992/) * [Cборка динамических модулей для Nginx](https://habr.com/ru/company/nixys/blog/473578/) * [Введение в Hashicorp Consul’s Kubernetes Авторизацию](https://habr.com/ru/company/nixys/blog/473014/) * [К чему привела миграция с ClickHouse без авторизации на ClickHouse с авторизацией](https://habr.com/ru/company/nixys/blog/468779/)
https://habr.com/ru/post/489164/
null
ru
null
# Alpha-blending за одно умножение на пиксель на Windows Mobile Те, кто занимался графикой на Windows Mobile, наверняка слышали о графической библиотеке [GapiDraw](http://gapidraw.com/). Если заглянуть в их [Feature List](http://gapidraw.com/features.php), то в разделе High Performance можно обнаружить следующие слова: «drawing surfaces with opacity will only require one multiplication per pixel». То есть, они утверждают, что для рисования полупрозрачных картинок требуется всего по одному умножению на каждый пиксель. В данной статье я попытаюсь объяснить, как это возможно. Во-первых, большинство устройств с Windows Mobile имеет экранчик с 65 тысячами цветов. То есть, для каждого пикселя на экране отведено по 2 байта в памяти. Во-вторых, такие устройства имеют 32 разрядный процессор. На таком процессоре скорость выполнения математических операций с 2-байтовыми числами немногим отличается от скорости работы с 4-байтовыми. Именно здесь кроется одна из оптимизаций вычислений. Графическая библиотека обрабатывает по 2 пикселя одновременно. Посмотрим, как же устроен 16 разрядный пиксель. Старшие 5 бит отведены для красного цвета, далее 6 бит — для зеленого и оставшиеся 5 бит — для синего. ``` P = [RRRR RGGG GGGB BBBB] 15 8 7 0 ``` При этом, сами цвета можно получить с помощью сдвигов и масок по формулам: ``` int R = (P >> 11) & 0x1f; int G = (P >> 5) & 0x3f; int B = P & 0x1f; ``` А пиксель получается обратным преобразованием: ``` unsigned short P = (R << 11) + (G << 5) + B; ``` Когда мы пытаемся нарисовать один пиксель поверх другого с прозрачностью, происходит смешение цветов. Оба пикселя разбиваются на 3 компоненты: красный, синий, зеленый. Далее происходит смешение компонент, красный смешивается с красным, синий — с синим, зеленый — с зеленым. А из полученных значений составляется новый пиксель. В общем виде смешение цветов выглядит так: ``` C = C1*α + C2*(1 - α) ``` C1 — значение красного, зеленого или синего цвета из первого пикселя. C2 — значение этого же цвета во втором пикселе. C — результирующий цвет. α — коэффициент прозрачности, принимает значения от 0 до 1. Хранить вещественное значение α и оперировать им довольно накладно, особенно на карманных компьютерах, поэтому его ограничивают некоторым целочисленным диапазоном. Обычно используют значения 0-255, но для 5-битного цвета будет достаточно 5-битного α. Сначала обратим внимание на то, как делается смешение цветов с 50% прозрачностью: ``` C = C1/2 + C2/2 ``` Деление на 2 можно заменить сдвигом: ``` C = (C1 >> 1) + (C2 >> 1) ``` Теперь посмотрим, что произойдет при смешении двух пикселей один к одному: ``` P = (R1 >> 1 + R2 >> 1) << 11 + (G1 >> 1 + G2 >> 1) << 5 + (B1 >> 1 + B2 >> 1) ``` Раскрыв скобки получим: ``` P = (P1 & 0xf7de) >> 1 + (P2 & 0xf7de) >> 1 ``` Маска 0xf7de появляется, чтобы обеспечить правильность сдвига на 1 в каждой компоненте цвета. Сравните: ``` [RRRR RGGG GGGB BBBB] = P [0RRR RRGG GGGG BBBB] = P >> 1 // Младший бит одних компонент становится старшим битом других [RRRR RGGG GGGB BBBB] = P [1111 0111 1101 1110] = 0xf7de [RRRR 0GGG GG0B BBB0] = P & 0xf7de // Исправляем этот недостаток перед сдвигом [0RRR R0GG GGG0 BBBB] = P & 0xf7de >> 1 ``` Аналогично этому способу можно проделать те же операции для смешения пикселей 1 к 3, 1 к 7… Но на этих отношениях данный способ совершенно неэффективен, в основном из-за того, что деление идет раньше умножения. Поэтому сначала следует освободить место для умножения. Заметим, что умножая m-битное беззнаковое число на n-битное, мы получим число занимающее не более m+n бит. То есть, надо освободить по 5 бит перед каждым цветом, а для этого можно разделить цвета пикселя на четные и нечетные и оперировать уже ими. Так мы подошли к следующей процедуре смешения, использующей 2 умножения на пиксель: ``` #define Shift(p) ((p)>>5) #define OddCol(p) ((p) & 0x07E0F81F) #define EvenCol(p) ((p) & 0xF81F07E0) // Забираем из каждого буффера по 2 пикселя register unsigned int p1 = *dst; register unsigned int p2 = *(src++); // Здесь 4 умножения, но мы обрабатываем 2 пикселя одновременно *(dst++) = OddCol( Shift(OddCol(p1)*a + OddCol(p2)*(32 - a)) ) | EvenCol( Shift(EvenCol(p1))*a + Shift(EvenCol(p2))*(32 - a) ); ``` Как же избавиться от еще одного умножения? Попробуем раскрыть скобки и перегруппировать слагаемые: ``` C = (C1*α + C2*(32 - α)) >> 5 = (C1 - C2)*α >> 5 + C2 ``` Но в скобках может получиться отрицательное число, а арифметические операции с отрицательными числами основаны на переполнении. Таким образом, применить формулу в данном виде для распараллеливания вычислений невозможно. Поэтому избавимся от отрицательных значений прибавив максимально возможное: ``` C = (C1 - C2 + 32 - 32)*α >> 5 + C2 = (C1 - C2 + 32)*α >> 5 + C2 - α ``` С помощью этой формулы и трюка с четными и нечетными цветами можно получить процедуру смешения пикселей, использующую всего одно умножение на пиксель: ``` #define OddCol(p) ((p) & 0x07E0F81F) #define EvenCol(p) ((p) & 0xF81F07E0) register unsigned int p1 = *dst; register unsigned int p2 = *(src++); register unsigned int oddA = (a<<22) | (a<<11) | (a); register unsigned int evenA = (a<<27) | (a<<16) | (a<<6); register unsigned int oddP2 = OddCol(p2); register unsigned int evenP2 = EvenCol(p2); // 2 умножения при обработке 2 пикселей oddCol = (((OddCol(p1) - oddP2 + 0x08010020) * a) >> 5) + oddP2 - oddA; evenCol = ((( (EvenCol(p1)>>5) - (evenP2>>5) + 0x08010040) * a) + evenP2 - evenA ); *(dst++) = OddCol(oddCol) | EvenCol(evenCol); ```
https://habr.com/ru/post/128773/
null
ru
null
# Как написать (игрушечную) JVM > Статья про KVM оказалась интересной для читателей, поэтому сегодня публикуем новый перевод статьи Serge Zaitsev: как работает Java Virtual Machine под капотом. Нравится нам это или нет, но Java — один из наиболее распространенных и широко используемых языков программирования. Однако не каждый Java-разработчик настолько любопытен, чтобы заглянуть под капот и посмотреть, как устроена JVM. Я попытаюсь написать игрушечную (и неполную) JVM, чтобы показать основные принципы ее работы. Надеюсь, эта статья вызовет у вас интерес и вдохновит на дальнейшее изучение JVM. ### Наша скромная цель Начнем с простого: ``` public class Add { public static int add(int a, int b) { return a + b; } } ``` Мы компилируем наш класс с **javac Add.java**, и в результате получается **Add.class**. Этот class файл является бинарным файлом, который JVM может выполнять. Всё, что нам осталось сделать, — создать такую JVM, которая бы выполняла его корректно. Если мы заглянем внутрь **Add.class** с помощью шестнадцатеричного дампа — мы, скорее всего, будем не слишком впечатлены: `00000000 ca fe ba be 00 00 00 34 00 0f 0a 00 03 00 0c 07 |.......4........| 00000010 00 0d 07 00 0e 01 00 06 3c 69 6e 69 74 3e 01 00 |..........| 00000020 03 28 29 56 01 00 04 43 6f 64 65 01 00 0f 4c 69 |.()V...Code...Li| 00000030 6e 65 4e 75 6d 62 65 72 54 61 62 6c 65 01 00 03 |neNumberTable...| 00000040 61 64 64 01 00 05 28 49 49 29 49 01 00 0a 53 6f |add...(II)I...So| 00000050 75 72 63 65 46 69 6c 65 01 00 08 41 64 64 2e 6a |urceFile...Add.j| 00000060 61 76 61 0c 00 04 00 05 01 00 03 41 64 64 01 00 |ava........Add..| 00000070 10 6a 61 76 61 2f 6c 61 6e 67 2f 4f 62 6a 65 63 |.java/lang/Objec| 00000080 74 00 21 00 02 00 03 00 00 00 00 00 02 00 01 00 |t.!.............| 00000090 04 00 05 00 01 00 06 00 00 00 1d 00 01 00 01 00 |................| 000000a0 00 00 05 2a b7 00 01 b1 00 00 00 01 00 07 00 00 |...\*............| 000000b0 00 06 00 01 00 00 00 01 00 09 00 08 00 09 00 01 |................| 000000c0 00 06 00 00 00 1c 00 02 00 02 00 00 00 04 1a 1b |................| 000000d0 60 ac 00 00 00 01 00 07 00 00 00 06 00 01 00 00 |`...............| 000000e0 00 03 00 01 00 0a 00 00 00 02 00 0b |............|` Хотя мы еще не видим здесь четкой структуры, нам нужно найти способ ее разобрать: что значит **()V** и **(II)I**, и почему файл начинается с «cafe babe»? Вероятно, вы знакомы с другим способом выгрузить class файлы, часто он оказывается более полезным: `$ javap -c Add Compiled from "Add.java" public class Add { public Add(); Code: 0: aload_0 1: invokespecial #1 // Method java/lang/Object."":()V 4: return public static int add(int, int); Code: 0: iload\_0 1: iload\_1 2: iadd 3: ireturn }` Теперь мы видим наш класс, его конструктор и метод. И конструктор, и метод содержат несколько инструкций. Становится более-менее ясно, что делает наш метод add(): он загружает два аргумента (**iload\_0** и **iload\_1**), суммирует их и возвращает результат. JVM — это стековая машина, поэтому в ней нет регистров, все аргументы инструкций хранятся во внутреннем стеке, и результаты также помещаются в стек. ### Class loader Как нам добиться того же результата, который показала программа javap? Как разобрать class файл? Если обратиться к [спецификации JVM](https://docs.oracle.com/javase/specs/jvms/se14/html/index.html), мы узнаем о структуре [файлов формата class](https://docs.oracle.com/javase/specs/jvms/se14/html/jvms-4.html). Он всегда начинается с 4-байтовой подписи (CAFEBABE), затем 2 + 2 байта для версии. Звучит просто! Поскольку нам пришлось бы читать байты, short, int и байтовые последовательности из бинарного файла, начнем реализацию нашего загрузчика следующим образом: ``` type loader struct { r io.Reader err error } func (l *loader) bytes(n int) []byte { b := make([]byte, n, n) // мы не хотим обрабатывать ошибки на каждом этапе, // поэтому просто сохраним первую найденную ошибку до конца // и ничего не делаем, если ошибка была найдена if l.err == nil { _, l.err = io.ReadFull(l.r, b) } return b } func (l *loader) u1() uint8 { return l.bytes(1)[0] } func (l *loader) u2() uint16 { return binary.BigEndian.Uint16(l.bytes(2)) } func (l *loader) u4() uint32 { return binary.BigEndian.Uint32(l.bytes(4)) } func (l *loader) u8() uint64 { return binary.BigEndian.Uint64(l.bytes(8)) } // Usage: f, _ := os.Open("Add.class") loader := &loader{r: f} cafebabe := loader.u4() major := loader.u2() minor := loader.u2() ``` Затем спецификация сообщает нам, что необходимо распарсить пул констант. Что это? Так называется специальная часть class файла, которая содержит константы, необходимые для запуска класса. Все строки, числовые константы и ссылки хранятся там, и каждая имеет уникальный индекс uint16 (таким образом, класс может иметь до 64К констант). В пуле есть несколько типов констант, каждый из которых содержит свой набор значений. Нам могут быть интересны: * UTF8: простой строковый литерал * Class: индекс строки, содержащей имя класса (косвенная ссылка) * Name and type: индекс имени типа и дескриптор, используемый для полей и методов * Field and method references: индексы, относящиеся к классам и константам типа name and type. Как видите, константы в пуле часто ссылаются друг на друга. Поскольку мы пишем JVM на языке Go и здесь нет объединения типов (union types), давайте создадим тип Const, который будет содержать в себе различные возможные поля констант: ``` type Const struct { Tag byte NameIndex uint16 ClassIndex uint16 NameAndTypeIndex uint16 StringIndex uint16 DescIndex uint16 String string } type ConstPool []Const ``` Затем, следуя спецификации JVM, мы могли бы извлечь данные пула констант следующим образом: ``` func (l *loader) cpinfo() (constPool ConstPool) { constPoolCount := l.u2() // Валидные индексы пула констант начинаются с 1 for i := uint16(1); i < constPoolCount; i++ { c := Const{Tag: l.u1()} switch c.Tag { case 0x01: // UTF8 string literal, 2 bytes length + data c.String = string(l.bytes(int(l.u2()))) case 0x07: // Class index c.NameIndex = l.u2() case 0x08: // String reference index c.StringIndex = l.u2() case 0x09, 0x0a: // Field and method: class index + NaT index c.ClassIndex = l.u2() c.NameAndTypeIndex = l.u2() case 0x0c: // Name-and-type c.NameIndex, c.DescIndex = l.u2(), l.u2() default: l.err = fmt.Errorf("unsupported tag: %d", c.Tag) } constPool = append(constPool, c) } return constPool } ``` Сейчас мы сильно упрощаем себе задачу, но в реальной JVM нам пришлось бы обрабатывать типы констант long и double единообразно, вставляя дополнительный неиспользуемый постоянный элемент, как сообщает нам спецификация JVM (поскольку постоянные элементы считаются 32-битными). Чтобы упростить получение строковых литералов по индексам, реализуем метод **Resolve(index uint16) string**: ``` func (cp ConstPool) Resolve(index uint16) string { if cp[index-1].Tag == 0x01 { return cp[index-1].String } return "" } ``` Теперь нам нужно добавить похожие помощники для анализа списка интерфейсов, полей и методов классов и их атрибутов: ``` func (l *loader) interfaces(cp ConstPool) (interfaces []string) { interfaceCount := l.u2() for i := uint16(0); i < interfaceCount; i++ { interfaces = append(interfaces, cp.Resolve(l.u2())) } return interfaces } // Тип field используется и для полей и методов type Field struct { Flags uint16 Name string Descriptor string Attributes []Attribute } // Атрибуты содержат дополнительную информацию о полях и классах // Самый полезный - это атрибут Code, который содержит актуальный байтовый код type Attribute struct { Name string Data []byte } func (l *loader) fields(cp ConstPool) (fields []Field) { fieldsCount := l.u2() for i := uint16(0); i < fieldsCount; i++ { fields = append(fields, Field{ Flags: l.u2(), Name: cp.Resolve(l.u2()), Descriptor: cp.Resolve(l.u2()), Attributes: l.attrs(cp), }) } return fields } func (l *loader) attrs(cp ConstPool) (attrs []Attribute) { attributesCount := l.u2() for i := uint16(0); i < attributesCount; i++ { attrs = append(attrs, Attribute{ Name: cp.Resolve(l.u2()), Data: l.bytes(int(l.u4())), }) } return attrs } ``` И поля, и методы представлены как Fields, это очень удобно, позволяет сэкономить время. Наконец, мы можем собрать всё это вместе и полноценно распарсить наш класс: ``` type Class struct { ConstPool ConstPool Name string Super string Flags uint16 Interfaces []string Fields []Field Methods []Field Attributes []Attribute } func Load(r io.Reader) (Class, error) { loader := &loader{r: r} c := Class{} loader.u8() // magic (u32), minor (u16), major (u16) cp := loader.cpinfo() // const pool info c.ConstPool = cp c.Flags = loader.u2() // access flags c.Name = cp.Resolve(loader.u2()) // this class c.Super = cp.Resolve(loader.u2()) // super class c.Interfaces = loader.interfaces(cp) c.Fields = loader.fields(cp) // fields c.Methods = loader.fields(cp) // methods c.Attributes = loader.attrs(cp) // methods return c, loader.err } ``` Теперь, если мы посмотрим на полученную информацию о классе, мы увидим, что у него нет полей и два метода — **:()V** и **add:(II)I**. Что за римские числа со скобками? Это дескрипторы. Они определяют, какие типы аргументов принимает метод и что он возвращает. В этом случае (синтетический метод, используемый для инициализации объектов при их создании) не принимает аргументов и ничего не возвращает (V=void), в то время как метод «add» принимает два типа данных int (I=int32) и возвращает целое число. ### Байт-код Если присмотреться внимательно, мы поймем, что каждый метод в нашем разобранном классе имеет один атрибут с именем «Code». Этот атрибут содержит часть байтов в качестве полезной нагрузки. Байты: `: [0 1 0 1 0 0 0 5 42 183 0 1 177 0 0 0 1 0 7 0 0 0 6 0 1 0 0 0 1] add: [0 2 0 2 0 0 0 4 26 27 96 172 0 0 0 1 0 7 0 0 0 6 0 1 0 0 0 3]` В спецификации, на этот раз в разделе [bytecode](https://docs.oracle.com/javase/specs/jvms/se14/html/jvms-6.html), мы прочтем, что атрибут «Code» начинается со значения maxstack (2 байта), затем maxlocals (2 байта), длина кода (4 байта) и затем фактический код. Итак, наши атрибуты можно читать так: `: maxstack: 1, maxlocals: 1, code: [42 183 0 1 177] add: maxstack: 2, maxlocals: 2, code: [26 27 96 172]` Да, у нас есть только 4 и 5 байтов кода в каждом методе. Что означают эти байты? Как я уже сказал, JVM — это стековая машина. Каждая инструкция кодируется как один байт, за которым могут следовать дополнительные аргументы. Заглянув в спецификацию, мы увидим, что метод «add» имеет следующие инструкции: `26 = iload_0 27 = iload_1 96 = iadd 172 = ireturn` Точно такие же, как мы видели в выводе javap в начале! Но как это сделать? ### Фреймы JVM Когда метод выполняется внутри JVM, у него есть собственный стек для временных операндов, свои локальные переменные и фрагмент кода для выполнения. Все эти параметры хранятся в едином фрейме выполнения. Кроме того, фреймы содержат указатель текущей инструкции (насколько далеко мы продвинулись при выполнении байт-кода) и указатель на класс, в котором содержится метод. Последний нужен для доступа к пулу констант класса, а также к другим деталям. Давайте создадим метод, который создает фрейм для конкретного метода, вызванного с заданными аргументами. Я буду использовать здесь тип **interface{}** в качестве типа Value, хотя использование правильного объединения типов (union types), конечно, было бы более безопасным. ``` type Frame struct { Class Class IP uint32 Code []byte Locals []interface{} Stack []interface{} } func (c Class) Frame(method string, args ...interface{}) Frame { for _, m := range c.Methods { if m.Name == method { for _, a := range m.Attributes { if a.Name == "Code" && len(a.Data) > 8 { maxLocals := binary.BigEndian.Uint16(a.Data[2:4]) frame := Frame{ Class: c, Code: a.Data[8:], Locals: make( []interface{}, maxLocals, maxLocals ), } for i := 0; i < len(args); i++ { frame.Locals[i] = args[i] } return frame } } } } panic("method not found") } ``` Итак, мы получили Frame с инициализированными локальными переменными, пустым стеком и предварительно загруженным байт-кодом. Пришло время выполнить байт-код: ``` func Exec(f Frame) interface{} { for { op := f.Code[f.IP] log.Printf("OP:%02x STACK:%v", op, f.Stack) n := len(f.Stack) switch op { case 26: // iload_0 f.Stack = append(f.Stack, f.Locals[0]) case 27: // iload_1 f.Stack = append(f.Stack, f.Locals[1]) case 96: a := f.Stack[n-1].(int32) b := f.Stack[n-2].(int32) f.Stack[n-2] = a + b f.Stack = f.Stack[:n-1] case 172: // ireturn v := f.Stack[n-1] f.Stack = f.Stack[:n-1] return v } f.IP++ } } ``` Наконец, мы можем собрать все вместе и запустить, вызвав наш метод add(): ``` f, _ := os.Open("Add.class") class, _ := Load(f) frame := class.Frame("add", int32(2), int32(3)) result := Exec(frame) log.Println(result) // OUTPUT: OP:1a STACK:[] OP:1b STACK:[2] OP:60 STACK:[2 3] OP:ac STACK:[5] 5 ``` Итак, всё работает. Да, это очень слабая JVM на минималках, но все же она делает то, что и должна JVM: загружает байт-код и интерпретирует его (конечно, настоящая JVM делает гораздо большее). ### Чего не хватает? Оставшихся 200 инструкций, среды выполнения, системы типов ООП и еще нескольких вещей. Существует 11 групп инструкций, большинство из которых банальны: * Constants (помещает null, small number или значения из пула констант на стек). * Loads (помещает в стек локальные переменные). Подобных инструкций 32. * Stores (перемещают из стека в локальные переменные). Еще 32 скучных инструкции. * Stack (pop/dup/swap), как в любой стековой машине. * Math (add/sub/div/mul/rem/shift/logic). Для разных типов значений, всего 36 инструкций. * Conversions (int в short, int в float и т.д.). * Comparisons (eq/ne/le/…). Полезно для создания условных выражений, например с if/else. * Control (goto/return). Пригодится для циклов и подпрограмм. * References. Самая интересная часть, поля и методы, исключения и мониторы объекта. * Extended. На первый взгляд выглядит не очень красивым решением. И, вероятно, со временем это не изменится. * Reserved. Здесь находится инструкция точки останова 0xca. Большинство инструкций несложно реализовать: они берут один или два аргумента из стека, выполняют над ними некоторую операцию и отправляют результат. Единственное, что здесь следует иметь в виду, — инструкции для типов long и double предполагают, что каждое значение занимает два слота в стеке, поэтому вам могут потребоваться дополнительные push() и pop(), что затрудняет группировку инструкций. Для реализации References необходимо подумать об объектной модели: как вы хотите хранить объекты и их классы, как представлять наследование, где хранить поля экземпляров и поля классов. Кроме того, здесь вы должны быть осторожны с диспетчеризацией методов — существует несколько инструкций «invoke», и они ведут себя по-разному: * invokestatic: вызвать статический метод в классе, никаких сюрпризов. * invokespecial: вызвать метод экземпляра напрямую, в основном используется для синтетических методов, таких как или приватных методов. * invokevirtual: вызвать метод экземпляра на основе иерархии классов. * invokeinterface: вызывает метод интерфейса, аналогичный invokevirtual, но выполняет другие проверки и оптимизацию. * invokedynamic: вызвать динамически вычисляемый call site, в новой версии Java 7, полезно для динамических методов и MethodHandles. Если вы создаете JVM на языке без сборки мусора, в таком случае вам следует подумать, как ее выполнить: подсчет ссылок, алгоритм пометок (mark-and-sweep) и т. д. Обработка исключений путем реализации **athrow**, их распространения через фреймы и обработка с помощью таблиц исключений — еще одна интересная тема. Наконец, ваша JVM останется бесполезной, если нет runtime классов. Без **java/lang/Object** вы вряд ли даже увидите, как работает **new** инструкция при создании новых объектов. Ваша среда выполнения может предоставлять некоторые общие классы JRE из пакетов java.lang, java.io и java.util, или это может быть что-то более специфичное для домена. Скорее всего, некоторые методы в классах должны быть реализованы изначально, а не на Java. Это поднимет вопрос о том, как найти и выполнить такие методы, и станет еще одним крайним случаем для вашей JVM. Другими словами, создать правильную JVM не так уж и просто, однако разобраться, как именно она работает, — не сложно. У меня, например, на это ушли всего одни летние выходные. Моей JVM еще предстоит долгий путь, но структура выглядит более или менее ясной: <https://github.com/zserge/tojvm> (замечания всегда приветствуются!) Фактические фрагменты кода из этой статьи еще меньше и доступны здесь как [gist](https://gist.github.com/zserge/b75162f6cc3bf53c501cc6831e0e0884). Если появилось желание изучить вопрос лучше, вы можете подумать об использовании небольших JVM: * [Mika](https://github.com/kifferltd/open-mika) * [Avian](https://github.com/ReadyTalk/avian) * [NanoVM](https://github.com/harbaum/NanoVM) * [Luje](https://github.com/davidgiven/luje) (прекрасная JVM для LuaJIT) Надеюсь, эта статья не отбила ваш интерес к Java. Виртуальные машины — это весело, а виртуальная машина Java действительно заслуживает внимательного рассмотрения. Надеюсь, вам понравилась моя статья. Вы можете следить за моей работой через [Github](https://github.com/zserge) или [Twitter](https://twitter.com/zsergo), а также подписываться через [rss](https://zserge.com/rss.xml).
https://habr.com/ru/post/533244/
null
ru
null
# Как сделать простое «главное меню» для игры в Unreal Engine 4. Часть 1 *Этот туториал – моя первая «статья» по Unreal Engine 4. Сам я относительно недавно начал осваивать данный движок и разработку игр в общем и сейчас работаю над созданием более-менее простой игры. Недавно закончил базовую версию меню для своего проекта и решил описать свой опыт в этой статье.* Данная статья не требует каких-либо специальных навыков и вам нужно лишь установить [сам движок](https://www.unrealengine.com/). Я буду использовать последнюю на сей день стабильную версию: 4.16.2. Что мы будем делать? -------------------- Это меню я сделал для игры над которой сейчас работаю. В результате туториала мы сделаем нечто похожее. *(Сама игра не включена в туториал)*. 1. **Главное меню – первый экран игры** (данная статья). 2. Меню «паузы» – то же самое меню, но с дополнительной кнопкой «Продолжить». 3. Анимации и плавные переходы при открытии/закрытии меню. *Так как статья получилась длинной из-за скриншотов, части 2 и 3 пойдут отдельными статьями (надеюсь, в течение этой недели).* 0. Создаём проект ----------------- Возьмём за основу шаблон для First Person Shooter. Вы можете взять любой другой или вообще ипользовать пустой (Blank) шаблон – для данной статьи это не имеет значения. Я буду использовать Blueprint-шаблон, т.к. в любом случае меню удобнее создавать через UMG виджеты и визуальные скрипты, а работать с UMG из C++ не очень удобно (*впрочем, зависит от сложности и предпочтений – в упомянутом мной выше проекте я использую смешанный подход*). После запуска Unreal Engine вы увидите экран создания проекта: ![image](https://i.imgur.com/fXObw2H.png) Выбираем `New Project -> Blueprint -> First Person`. Вводим путь для сохранения проекта и имя проекта, нажимаем `Create Project`. После запуска Unreal Engine вы увидите примерно следующее: ![image](https://i.imgur.com/6P8rsWb.png) *Вы можете сразу же нажать `Play`, если интересно, что из себя представляет шаблон FPS-игры.* 1. Главное меню – первый экран игры ----------------------------------- Самый простой способ сделать главное меню – создать новый пустой уровень для меню и запускать игру именно с него. Итак, создадим новый уровень! Слева в `Content Browser` открываем папку `Maps` ![image](https://i.imgur.com/oE1l2Ua.png) Здесь на пустом месте вызываем контекстное меню и выбираем пункт `Level` ![image](https://i.imgur.com/95Vww8l.png) Назовём новый уровень `MainMenu`. Делаем двойной клик на уровне и видим, что уровень представляет из себя *ничего* – просто чёрный viewport. ![image](https://i.imgur.com/Abb26lG.png) В данном случае, именно *ничего* нам и нужно! В `Content Browser` возвращаемся на уровень выше и через то же контекстное меню создаём `New Folder`, называем его `UI`. Открываем папку `UI`, через контекстное меню создаём новый виджет: `Widget Blueprint` ![image](https://i.imgur.com/lVUWz1y.png) Назовём его снова оригинально: `MainMenu`. Открываем виджет двойным кликом и видим следующий экран. По-дефолту он открывается в новом окне, но вы можете перетащить вкладку в основное окно или просто развернуть его на весь экран. ![image](https://i.imgur.com/BODN7On.png) В правом верхнем углу вьюпорта есть настройки отображения (влияют только на то, как вы видите виджет в редакторе, но не в игре). Для себя я поставлю разрешение 1080p и отцентрирую вьюпорт, чтобы всю полезную площадь занимал сам виджет ![image](https://i.imgur.com/k9n45tI.png) Из панели `Palette` слева перетащим на основное поле элемент `Text` и введём туда какую-нибудь строку. Для автоматической установки размеров элемента в соответствии с текстом отметим опцию `Size To Content`. И нажмём кнопку Save в панели инструментов. UE4 любит неожиданно вылетать, а в случае вылета все несохранённые изменения вы потеряете. ![image](https://i.imgur.com/36GcdYx.png) Добавленный текст будет названием нашей игры. С помощью «ромашки» отцентрируем его по-горизонтали и на высоте 20% от верхнего края экрана. «Ромашка» позволяет выравнивать виджеты и привязывать их к нужным точкам, очень удобно при необходимости делать интерфейсы, которые будут работать на разных разрешениях экрана. Если вы не видите «ромашку» – выберите наш текстовый элемент, кликнув на него левой кнопкой мыши. ![image](https://i.imgur.com/PQQA4xQ.png) Справа, в панели `Details`, опции `Position X и Y` определяют расположение элемента относительно точки привязки (центр «Ромашки») и считаются в соответствии со значениями опции `Alignment`, которая задаёт точку самого элемента в значениях от `0.0` до `1.0`. Например, значение `X 0.5 Y 0.0` задаёт точку посередине элемента по-горизонтали и на верхней границе элемента по вертикали. К слову, управлять «ромашкой» можно через опцию `Anchors`. В этой же панели `Details` установим размер шрифта побольше, например 60 единиц. ### Создание самого меню Для меню UE4 предлагает удобный элемент `Vertical Box` – он позволяет автоматически выравнивать несколько дочерних элементов; в нашем случае это будут кнопки (`Button`). `Vertical Box` можно найти в панели `Palette`, в разделе `Panel`. ![image](https://i.imgur.com/slPYmf8.png) Установим для него точку привязки примерно посередине экрана, можно чуть выше. Внутрь `Vertical Box` поместите элемент `Button`, а внутрь `Button` – элемент `Text`. Слева, в `Hierarchy`, можно проверить, что всё расположено правильно. Если нет, то там же можно переместить элементы, чтобы получилась нужная вложенность. ![image](https://i.imgur.com/4nCdlWz.png) Цвета в UE4 в основном задаются четырьмя переменными типа `float` (RGBA: red, green, blue, alpha), каждое значение может быть от `0.0` до `1.0`. Сделаем фон кнопки прозрачным, выставив значение `alpha` в ноль в параметре Background color. Не забудьте предварительно выделить именно кнопку, а не текстовый элемент внутри неё. ![image](https://i.imgur.com/hoAxET4.png) У текстового элемента можно поставить размер шрифта побольше, например, 35 единиц. А сам текст поменяйте на "`Начать Игру`". *Картинку, как это сделать, вставлять не буду, изменение размера шрифта мы уже проходили чуть ранее, при добавлении заголовка.* Добавим ещё несколько кнопок. Для этого в панели `Hierarchy` вызовите контекстное меню на элементе `Button`, выберите пункт `Copy` (либо нажмите `Ctrl+C` / `⌘+C`), затем выберите `Vertical Box` и вставьте скопированную кнопку 3 раза. Поменяем текст у новых кнопок: "`Настройки`", "`Выход`", "`Продолжить`". Последняя расположена нелогично и надо бы поместить её на самый верх. Для этого выберем кнопку и воспользуемся кнопками перемещения, которые у нас есть благодаря `Vertical Box`. На данном этапе меню должно выглядеть примерно так: ![image](https://i.imgur.com/malx56T.png) ### Отображение меню в игре Теперь сделаем, чтобы созданный виджет отображался при запуске нашего уровня `MainMenu`. Перейдём на основную вкладку UE4, где у нас открыт пустой уровень с чёрным вьюпортом. ![image](https://i.imgur.com/1dHJW8G.png) В верхней панели инструментов нажмём кнопку `Blueprints` и в появившемся меню выберем `Open Level Blueprint`. Откроется редактор блюпринтов, в котором можно создавать обработчики различных событий и вообще писать логику игры (не конкретно в блюпринте уровня, но в таком же интерфейсе). ![image](https://i.imgur.com/q3XpeZE.png) *Blueprints – мощный язык программирования, несмотря на то, что здесь вы не пишете код, а составляете его из блоков (нод). «Под капотом» там всё равно работает C++, но многие вещи намного проще и удобнее делать именно через Blueprints, вместо того, чтобы писать непосредственно код «вручную». Впрочем, верно и обратное: многие другие вещи удобнее/проще делать в коде. Поэтому при создании игры моя рекомендация – использовать комбинированный подход, а не зацикливаться на чём-то одном.* Если вы не видите у себя ноды `BeginPlay`, то добавьте её через контекстное меню и строку поиска. Расположение ноды на поле не имеет значения, но в случае сложных скриптов лучше стараться сразу располагать ноды так, чтобы потом самим не запутаться. ![image](https://i.imgur.com/CpTzKXb.png) По аналогии с `BeginPlay` создадим рядом ноду `Create Widget`: ![image](https://i.imgur.com/NYeMEjQ.png) У нод событий (эвентов, events) обычно только один исходящий коннектор-пин – exec pin (*от «execute»*), пин выполнения. У других нод могут быть ещё пины параметров и пины результата. Цвета пинов параметров и результатов показывают тип значения (boolean, int, string и т.д., очень много всевозможных вариантов). Чтобы дать понять движку, что мы хотим выполнить ноду `Create Widget` при наступлении события `BeginPlay`, соединим исходящий exec-пин ноды `BeginPlay` со входящим exec-пином ноды `Create Widget`. Для этого левой кнопкой мыши нажмите на пин и не отпуская кнопку тащите до входящего пина. В ноде `Create Widget` в параметре `Class` выберем наш виджет `MainMenu` ![image](http://i.imgur.com/D7rS224.gif) Из пина параметра `Owning Player` тянем линию в пустое место (да, так тоже можно), отпускаем и в меню ищем ноду `Get Player Controller`, добавляем её. Т.к. UE4 – движок многопользовательский, этот параметр определяет, какому игроку будет показан виджет. В случае одного игрока можно просто оставить `Player Index` равный нулю. ![image](http://i.imgur.com/p0Qhbwh.png) Теперь при запуске игры виджет будет создан, но мы ничего не увидим, т.к. его ещё надо отобразить. А также – передать управление от самой игры к интерфейсу. Для этого из `Return Value` ноды `Create Main Menu Widget` тащим коннект в пустое место и в меню ищем ноду `Add to Viewport`. В данном случае, при создании ноды, exec-коннект должен подключиться автоматически. ![image](http://i.imgur.com/zldaBJw.png) Треугольник в нижней части новой ноды говорит о том, что есть какие-то скрытые параметры. Нажимаем его и видим опцию `ZOrder` – она устанавливает порядок, в котором виджеты будут наложены друг на друга, если мы добавляем сразу несколько виджетов на экран. Для меню логично будет поставить значение побольше, чтобы меню всегда было поверх остальных виджетов. Например, `9999`. Последний штрих (на данном этапе) – нужно переключить режим ввода. Нам нужна нода `Set Input Mode UI Only`. В качестве параметра `Target` нужно указать тот же самый `Player Controller`, что и ранее, а в качестве виджета – объект, созданный нодой `Create Widget`. ![image](http://i.imgur.com/kdkHkJ7.gif) В верхней панели инструментов нажимаем кнопку `Compile`. Возвращаемся в основную вкладку, сохраняем всё (меню `File -> Save All`) и в панели инструментов нажимаем большую кнопку `Play`! ![image](http://i.imgur.com/DUvBaFJ.png) Если всё было сделано правильно, то вы должны увидеть меню на чёрном фоне. Однако, есть проблема: курсор оказывается невидим. Ок, в панели инструментов нажимаем `Stop` (или просто `Esc` на клавиатуре). Это исправляется просто. Идём обратно во вкладку `Main Menu - Level Blueprint`. Из ноды `Get Player Controller` вытягиваем коннектор и создаём новую ноду `Set Show Mouse Cursor`. Отмечаем галочкой параметр `Show Mouse Cursor` (тёмно-красный цвет пина – `Boolean`; установка галочки равнозначна присвоению значения `true`, снятие галочки – `false`). Подключаем ноду между `BeginPlay` и `Create Main Menu Widget` и премещаем ноды так, чтоб они не запутывались. ![image](http://i.imgur.com/0Ri9jVs.png) *Hint: Колесом мыши можно менять зум блюпринта.* Снова нажимаем `Compile` и возвращаемся в основную вкладку. Нажимаем `Play`. На этот раз курсор должен быть виден, а кнопки должны нажиматься (хоть и без результата). ### Создание обработчиков кнопок Возвращаемся во вкладку нашего виджета `MainMenu`. Если вы её закрыли или потеряли – всегда можно открыть заново двойным кликом на нужном ассете в панели `Content Browser`. Так как статья получается длинной, в этой части мы сделаем только кнопки "`Начать игру`" и "`Выход`". А другие кнопки, пока что, отключим. Выбираем кнопку "`Продолжить`" *(удобнее сделать это в панели `Hierarchy`, чтобы выбрать саму кнопку, а не текстовый элемент)* и справа в панели `Details` находим опцию `Is Enabled`. *Чтобы не копаться в куче параметров, всегда можно воспользоваться строкой поиска вверху просто введите "`enabled`".* Снимаем галочку. Аналогично поступаем с кнопкой "`Настройки`". В редакторе внешне ничего не изменится, но если вы снова запустите игру, то кнопки будут серыми и неактивными. *Hint: элементы виджета можно переименовать, чтобы не путаться в нескольких одноимённых `Button`'ах. Для этого в панели Hierarchy выберите нужный элемент и кликните на нём один раз, либо в контекстном меню выберите Rename. Я переименовал кнопки в `ButtonContinue`, `ButtonStart`, `ButtonOptions` и `ButtonExit` соответственно.* Выбираем `ButtonStart` и прокручиваем панель `Details` в самый низ, до раздела `Events`. Там будет несколько зелёных кнопок. ![image](http://i.imgur.com/wtpW9Ta.png) Нажимаем кнопку `OnClicked` и попадаем в блюпринт нашего виджета со свежесозданой нодой эвента `On Clicked (ButtonStart)`. Создаём ноду `Open Level`, подключаем её к эвенту и в параметре `Level Name` указываем "`FirstPersonExampleMap`" (название дефолтного уровня, можно посмотреть в `Content Browser`). Казалось бы, всё… но не совсем. Если помните, раньше мы переключили режим ввода на `UI Only`. Теперь надо сделать обратное – переключить на `Game Only`. Для этого из ноды эвента вытягиваем коннектор и создаём ноду `Set Input Mode Game Only`. При этом нода `Open Level` автоматически переподключится к новой ноде, вам останется только выровнять их. Ну и не забудем, что надо указать параметр `Target` в новой ноде – подключим туда ноду `Get Player Controller`. ![image](http://i.imgur.com/qLpqNjt.png) Нажимаем `Compile` и `Save`, запускаем, нажимаем "`Начать игру`"… Ура, мы в игре! Создание обработчика `ButtonExit` оставляю на домашнее задание – оно даже проще: нужно просто использовать ноду `Quit Game` с дефолтными параметрами. Чтобы из блюпринта виджета вернуться в редактор UI можно воспользоваться переключателем справа вверху. ![image](http://i.imgur.com/28n9JRC.png) На сегодня всё!
https://habr.com/ru/post/334426/
null
ru
null
# PSGI — интерфейс между web-серверами и web-приложениями на perl Не так давно появилась спецификация интерфейса между web-серверами и приложениями/фреймворками на perl **PSGI — Perl Web Server Gateway Interface Specification**. PSGI добавляет слой абстракции, позволяющий не заботиться о конкретном способе подключения к web-серверу, и реализовать единственный интерфейс для спецификации. Запустить такое приложение можно на cерверах, поддерживающих PSGI — на данный момент это Plack (набор серверов и утилит), nginx (с патчем для поддержки PSGI и встроенным perl) и Apache с mod\_psgi. #### **Приложения** PSGI-приложение представляет собой функцию, принимающую в качестве аргумента ссылку на хэш с переменными окружения, и возвращающую ответ. ##### Запрос Хэш, передаваемый в приложение, содержит переменные, имена которых аналогичны именам заголовков в CGI — REQUEST\_METHOD, SCRIPT\_NAME, QUERY\_STRING и т.д., а также заголовки из HTTP-запроса (начинаются с HTTP\_, например HTTP\_HOST). Кроме этого, хэш должен содержать PSGI-специфичные переменные: * psgi.version: Ссылка на массив [1,0], содержащий версию PSGI. * psgi.url\_scheme: http или https, в зависимости от запроса. * psgi.input: поток ввода. * psgi.errors: поток для вывода ошибок. * psgi.multithread: true, если приложение может быть вызвано в другом потоке того же процесса. * psgi.multiprocess: true, если приложение может быть вызвано в другом процессе. Также хэш может содержать дополнительные переменные: * psgi.run\_once: true, если ожидается (но не гарантируется), что приложение будет вызвано только один раз до завершения процесса (обычно true только если приложение подключено к серверу через CGI). * psgi.nonblocking: true, если приложение вызывается в event loop. * psgi.streaming: true, если сервер поддерживает отложенные ответы и streaming. Приложение может проанализировать переменные окружения, и учесть особенности сервера либо завершить свое выполнение, если сервер не поддерживает то, что нужно приложению (например, запускаемое приложение неблокирующее, а сервер написан в синхронном стиле). ##### Ответ В общем случае приложение должно вернуть ссылку на массив из трех элементов — HTTP-код ответа, заголовки и тело ответа. HTTP-код ответа должен быть целым числом не менее 100. Заголовки передаются в виде ссылки на массив, причем заголовок Content-Type должен присутствовать обязательно (кроме ответов 1xx, 204 или 304). Телом ответа может являться ссылка на массив строк (или весь ответ без построчного разделения), либо IO::Handle-подобный объект или файловый дескриптор. Если требуется отложенный ответ, приложение может вернуть функцию, в которую будет передан колбэк для ответа. ##### Пример приложения Так выглядит простейшее PSGI-приложение: > `sub {[200, ['Content-Type' => 'text/plain'], ['Hi, ' . shift->{REMOTE_ADDR}]]}` #### **Middleware** Middleware похоже на обычное приложение, но принимает 2 аргумента — переменные окружения и ответ PSGI-приложения. Middleware может применяться для анализа этих данных (например, обычное ведение access log) или их модификации. Вот пример middleware, добавляющего в ответ заголовок X-PSGI-Used: > `my $app = sub {[200, ['Content-Type' => 'text/plain'], ['Hi, ' . shift->{REMOTE_ADDR}]]} > > > my $middleware = sub { > > >     my $env = shift; > > >     my $res = $app->($env); > > >     push @{$res->[1]}, 'X-PSGI-Used' => 1; > > >     return $res; > > > };` Для Plack на CPAN существует [довольно большой набор разнообразных middleware](http://search.cpan.org/search?query=plack+middleware). #### **Серверы** Сервер обеспечивает запуск PSGI-приложения и должен составлять хэш с переменными окружения и передавать его в приложение, а также обрабатывать ответ. Сейчас существует несколько PSGI-серверов: * [Plack](http://search.cpan.org/dist/Plack/) — набор middleware и серверов, в большинстве своем являющихся врапперами над существующими Perl-модулями. Кроме того, существует несколько серверов в том же пространстве имен, не присутствующих в составле дистрибутива Plack на CPAN: [AnyEvent](http://github.com/miyagawa/Plack-Server-AnyEvent), [FCGI::EV](http://github.com/mala/Plack-Server-FCGI-EV), [Danga::Socket](http://github.com/typester/Plack-Server-Danga-Socket), [Coro](http://github.com/miyagawa/Plack-Server-Coro), [POE](http://github.com/frodwith/plack-server-poe) и [ServerSimple](http://github.com/miyagawa/Plack-Server-ServerSimple). Запустить PSGI-приложение на Plack просто: > `plackup --server Coro --port 9090 --host 127.0.0.1 test.psgi` * [nginx с патчем для поддержки psgi](http://github.com/yappo/nginx-psgi-patchs) * [mod\_psgi для Apache](http://github.com/spiritloose/mod_psgi/) * [Perlbal](http://www.danga.com/perlbal/) * некоторые другие серверы Отдельно хочу отметить Plack::Server::AnyEvent и Plack::Server::Coro — в этих серверах реализована поддержка файлового AIO, поэтому небольшие неблокирующие PSGI-приложения на их основе можно использовать для раздачи статики с полным отсутствием блoкировок, пока поддержка AIO не готова в nginx. #### **Поддержка фреймворками** Сейчас есть поддержка PSGI во всех популярных web-фреймворках: [Catalyst](http://www.catalystframework.org/), [CGI::Application](http://cgi-app.org/), [HTTP::Engine](http://search.cpan.org/dist/HTTP-Engine), [Dancer](http://dancer.sukria.net), [Mason](http://www.masonhq.com/), [Squatting](http://search.cpan.org/~beppu/Squatting/), [Continuity](http://search.cpan.org/~awwaiid/Continuity/), [Maypole](http://maypole.perl.org/), [Tatsumaki](http://github.com/miyagawa/Tatsumaki) #### **Ссылки** [Сайт PSGI/Plack](http://plackperl.org/) [Спецификация PSGI на CPAN](http://search.cpan.org/perldoc?PSGI) [PSGI::FAQ](http://search.cpan.org/perldoc?PSGI::FAQ) [Plack на CPAN](http://search.cpan.org/perldoc?Plack)
https://habr.com/ru/post/78377/
null
ru
null
# Apt-cacher как корпоративный сервер обновлений для Ubuntu/Kubuntu/*buntu #### Замена apt-mirror`у apt-cacher — утилита для Debian-подобных дистрибутивов использующих apt в качестве установщика пакетов. Она кеширует файлы, которые скачивает пользователь с офф. зеркала обновлений и при следующем запросе выдает их из своего кэша. ###### В чем плюсы apt-cacher`a перед apt-mirror`ом? Во-первых, в экономии трафика. Зачем качать один и тот же пакет несколько раз, если его уже скачал ваш коллега? Таким образом экономия трафика растет пропорционально количеству народу в конторе использующих \*buntu. Во-вторых, в экономии места на ЖД сервера, на котором установлен apt-cacher. Ведь зачем хранить 22 Гб пакетов на ЖД, если из них используются максимум 10Гб? В-третьих, в скорости получения обновлений. Сколько раз вы обновляете свое зеркало обновлений? 1 раз в день? Apt-cacher позволяет получать обновления по мере их появления на офф. зеркале. Когда пользователь делает запрос на обновление(apt-get update) apt-caсher лезет на офф. зеркало проверить, нет ли обновлений того что у него лежит в кеше. Безусловно у apt-cacher есть и минусы. Первый минус — apt-cacher распределяет закешированные файлы по своей структуре, отличной от структуры debian-репозиториев. Но эту проблему можно решить, если вам важно сохранить структуры репозитория, это описано ниже. Второй минус — необходимо наличие Веб-сервера Apache. Тут, к сожалению так просто проблему не решить, но я не думаю, что это существенная проблема :) #### Установка и настройка apt-cacher`a Сама установка довольно банальна для debian-пакетов `sudo apt-get install apt-cacher` Создадим папку для хранения кэша(т.е. самих пакетов) и назначим ей права `sudo mkdir /var/cache/apt-cacher sudo chown www-data:www-data /var/cache/apt-cacher/*` Вы можете создать папку в любом месте под юзером и группой www-data будет запускаться наш apt-cacher, так же под ним надо будет запускать Apache. С настройкой немного сложнее, разбирать настройку самого apt-cacher`a, будем на примере. Откроем для редактирования файл /etc/apt-cacher/apt-cacher.conf: `sudo nano /etc/apt-cacher/apt-cacher.conf` Рассмотрим пример конф. файла: `cache_dir=/var/cache/apt-cacher #директория которую мы создали и в котрой будет храниться кэш. admin_email=root@localhost # мыло админа :) daemon_port=9999 #порт на котором будет висеть наш apt-cacher group=www-data #группа под которой будет запускаться наш apt-cacher user=www-data #юзер под которой будет запускаться наш apt-cacher allowed_hosts=* #хосты доступ с которых разрешен на наш сервер(по-умолчанию разрешено всем) denied_hosts= #соответственно запрещен. generate_reports=1 # раз в сутки будут генерироваться отчеты об использовании apt-cacher`a(1-генерить, 0 - нет) clean_cache=1 #Очистка кэша раз в сутки, offline_mode=0 #Если 0, то с apt-cacher будет тянуть обновления с офф. сервера, если 1, то раздавать только то что у него в кэше logdir=/var/log/apt-cacher #папка в которой будут храниться логи доступа к apt-cacher`у expire_hours=0 # apt-cacher может работать в двух режимах. В первом режиме сервер будет сравнивать expire_hours со временем последнего обновления пакета, и если оно становится меньше, то искать на офф. зеркале обновление для этого пакета, Во-втором режиме сервер будет сравнивать напрямую с офф.сервером, но в этом случае бОльшая вероятность рассинхронизации данных кэша и индексных файлов. Я всегда использую второй вариант, т.к. Для меня важнее получить вовремя обновление. 0 — Второй режим, все что больше 0 — то часы первого режима. http_proxy= #адрес вашего прокси-сервера(если он у вас есть) use_proxy=1 #Использовать(1) или нет(0) прокси. http_proxy_auth= #Авторизация на прокси(формат: user:password) use_proxy_auth= # Использовать ли авторизацию? (1-да, 0-нет) limit=0 #Ограничитель скорости. 0 — нет ограничений. 250K — 250кбит/с, 2m — 2мбит/с debug=0 #Уровень отладки. 0 — маленький лог файл, 1 — большой. path_map = ubuntu archive.ubuntu.com/ubuntu ; canonical archive.canonical.com/ubuntu ; medibuntu packages.medibuntu.org/ ; #Самый интересный параметр. Настройка зеркал обновления, т.е. Откуда будут тянуться обновления.` Думаю с настройкой самого apt-cacher`a все(ну или почти все) ясно. Теперь приступим к настройке Apache. Процесс настройки самого Apache я описывать не буду, в Сети много хороших руководств. Для работы всего этого должен быть установлен Perl и включен ExecCGI. Пример моего конфига(файл: /etc/apt-cacher/apache.conf `Alias /apt-cacher /usr/share/apt-cacher/apt-cacher.pl Options ExecCGI AddHandler cgi-script .pl AllowOverride None order allow,deny allow from all` Вот. Настройка конф. файлов закончена. Теперь, думаю, самое время приступить к настройке рабочих станций, но для начала опишу как все-таки конвертнуть то, что было в кэше apt-mirror`а в apt-cacher. #### Apt-mirror > apt-cacher У apt-cacher`a есть perl скрипт для конвертации пакетов в формат apt-cacher`a, имя ему apt-cacher-import.pl, и лежит он в /usr/share/apt-cacher. Пользоваться им следующим образом: `/usr/share/apt-cacher/apt-cacher-import.pl -r -c /etc/apt-cacher/apt-cacher.conf /var/my_repos` -r — рекурсивный обход каталога -c — не обязательный параметр, в котором указывается путь к конф. файлу. /var/my\_repos — директория к репозиторию формата apt-mirror(обычный дебиановский формат репозитория). В результате этой команды, в папку /var/cache/apt-cacher будут скопированы и переведены в нужный формат все пакеты, которые будут найдены в /var/my\_repos Если вам необходимо оставить дебиановский репозиторий, при этом чтобы репозиторий apt-cacher`a не занимал дополнительного места, к команде добавьте -s, тогда скрипт просто сделает сим-линки на пакеты. НО! Если вы после этого удалите дебиановский репозиторий, то пакеты для apt-cacher`a так же будут не доступны(это же обычные сим-линки) Если же вы использовали apt-proxy, то у apt-cacher`a тоже имеется скрипт для перевода его репозитория в свой. Скрипт лежит: /usr/share/apt-cacher/apt-cacher/apt-proxy-to-apt-cacher.pl. #### Запуск демона и настройка клиентских машин. Запустить сервер как обычно просто: `sudo /etc/init.d/apt-cacher start` Если вы не допустили синтаксических и иных ошибок в конфигурациях apache и apt-cacher`a, то сервер радостно запуститься, о чем сообщит вам не менее радостным сообщением [OK], если же произошла ошибка, то сервер сделает грустную гримасу и сообщит [FAIL]. Тогда вам придется все перечитать заново и возможно немного по`google`ить. Чтобы проверить запуск можно зайти на [localserver](http://localserver):9999 (где localserver — сервер на котором запущен apt-cacher). ###### Настройка клиентов Собственно нужно всего лишь добавить 1 строку(и закоментировать остальные) в файл /etc/apt/sources.list: `deb http://localserver:9999/ubuntu intrepid multiverse restricted main universe` Тут все как и в обыном репозитории, указываете что вам нужно обновлять, какой дистрибутив и т.п. Localserver — это сервер на котором запущен apt-cacher. Если вы включили статистику, то её можно посмотреть [localserver](http://localserver):9999/reports Ну вот вроде бы и все :) Статьи на [unix-admin.su](http://unix-admin.su/)
https://habr.com/ru/post/46449/
null
ru
null
# Быстрое целочисленное деление на константу На всех CPU операция деления выполняется сравнительно медленно, с этим ничего поделать нельзя. Но если делитель константа, то деление можно заменить на умножение на какую-то другую константу (обратное число, которое вычисляется во время компиляции). Тогда код будет чуть быстрее работать (и потреблять меньше энергии). Такую оптимизацию делают многие компиляторы (gcc, MSVC), но оказывается, многие разработчики не знают, как вычисляется сомножитель, а это не тривиально. Дальше будет рассказано, как вычисляется сомножитель. ##### Идея и случай для вещественных чисел Например, если в коде *double x = a / 2.5*, то это можно заменить на *x = a \* (1.0 / 2.5)* или *x = a \* 0.4*. Код будет быстрее, но иногда, менее точным. Для целых чисел такой трюк в лоб не получится, тк. сомножитель будет меньше единицы (те ноль). Можно использовать числа с фиксированной точкой (мантисса *N*): *int x = a / b = a \* B >> N, где B = (1 << N) / b*. Проблема в том, что иногда так рассчитанный х будет на 1 отличатся от правильного ответа, что для целых чисел неприемлемо. ##### Алгоритм Для упрощения будем работать только с неотрицательными числами. Математическая формулировка: Для известного целого **b** найти такую пару целых **M, B** чтобы для всех целых **a**: *0 ≤ a < (1 << **N** )* выполнялось **x** = *[a / b] = [a \* B >> M]*, где [ ] – целая часть, *а >> M* это разделить *a* на 2 в степени *M* (и << умножить). Запишем *1.0 / b* в двоичном виде (иногда бесконечно длинное число), первые *M* бит которого обозначим как целое **C**, остальные биты (хвост-остаток) как **D**, те *1.0 / b = C >> M + D, D < (1 >> M)*. Посмотрим, что будет, если *B = C* и *a \* D ≤ 1* (те *N ≤ M*): *x = [a / b] = [a \* (C >> M + D)]= [a \* C >> M + a\*D] ≥ [a \* C >> M] + [a\*D] = [a \* C >> M]* Получается, что если *B* это первые *M* бит числа *1/b*, а остальные биты отбросить (заменить нулями), тогда будем получать иногда правильные значения, а иногда на 1 меньше чем *x*. Это происходит, потому что отбрасывается *a\*D*, которое хоть и меньше единицы, но всё равно может изменять целую часть. Попробуем увеличить *B* на единичку (те *B = C + 1*), тогда: *[a\*(C + 1) >> M] = [a\*C >> M + a \* (1 >> M)] ≥ [a \* C >> M + a\*D] = [a \* (C >> M + D)] = [a / b] = x* Теперь получается, что будем получать иногда правильный ответ *x*, а иногда на 1 больше. Может показаться, что точно вычислять *x* через умножение невозможно тк при одном приближении будут иногда получатся числа на 1 меньше чем надо, при другом на 1 больше. Но это не так. Ведь *a* – это целые числа, а максимальная дробная часть *a/b* равна в точности *(b-1) / b*, и при вычислениях *x* оно увеличивается на *a \* ((1 >> M) – D)*. Ага, значит если *a \* ((1>>M) – D) < 1 / b* тогда неравенство превращается в равенство!!! Пускай число ***L*** такое, что *(1 << L) ≥ b*, тогда для равенства достаточно *(1 >> M) ≤ (1 >> (L + N))* или *M ≥ L + N*. ##### Пример на Java В примере делитель равен 127 (*L* = 7). Результат умножения на JVM должен помещаться в 32-а бита, выбираем *N* = (32 – 7) / 2 = 12. Пример: ``` final static int N = 12; private static int divideBy127(int a) { final int b = 127; final int L = 7; final int B = ((1 << (N + L)) / b) + 1; return (a * B) >>> (N + L); } public static void main(String[] args) { final int size = 20000; final int times = 10001; final int[] data = new int[size]; for (int i = 0; i < size; ++i) data[i] = (i * i) & ((1 << N) - 1); // fill by any random data for (int iteration = 0; iteration < 10; ++iteration) { long time0 = System.currentTimeMillis(); // Test 1: Using div int v0 = 0; for (int j = 0; j < times; ++j) for (int i = 0; i < size; ++i) v0 ^= data[i] / 127; // keep result long time1 = System.currentTimeMillis(); // Test 2: Using mul int v1 = 0; for (int j = 0; j < times; ++j) for (int i = 0; i < size; ++i) v1 ^= divideBy127(data[i]); // keep result long time2 = System.currentTimeMillis(); System.out.println((time1 - time0) + " vs " + (time2 - time1) + " " + (v0 - v1)); } } ``` На моем Intel Core-i5 2500, JVM 1.7.0u5 с JIT и опцией -XX:+AggressiveOpts тест с делением работает **в 2 раза медленнее**, чем с умножением. ##### Дополнение Остальное по теме не рассмотренное в этой статье: * делимое может быть отрицательным; * как избежать переполнения при умножении; * результат умножения целых на x86 занимает 64-бита и при определенных условиях можно убрать сдвиг вправо; * если известно, что числа делятся нацело, то можно использовать другой алгоритм; * в некоторых случаях умножение можно заменить на сдвиги влево и сложения; * частные случаи для некоторых делителей с ещё большей скоростью выполнения. ##### Литература [«Division by Invariant Integers using Multiplication», Torbjorn Granlund, Peter L. Montgomery](http://gmplib.org/~tege/divcnst-pldi94.pdf) — формальное доказательство и ещё некоторые алгоритмы по теме.
https://habr.com/ru/post/147096/
null
ru
null
# Ещё одна статья о декораторах в python, или немного о том, как они работают и как они могут поменять синтаксис языка Декораторы в python являются одной из самых часто используемых возможностей языка. Множество библиотек и, особенно, веб-фреймворков предоставляют свой функционал в виде декораторов. У неопытного python разработчика уйдёт не так уж много времени, чтобы разобраться, как написать свой декоратор, благо существует огромное количество учебников и примеров, а опытный разработчик уже не раз писал свои декораторы, казалось бы, что ещё можно добавить и написать о них? Я постараюсь раскрыть информацию о том, как работают стандартные декораторы `staticmethod`, `classmethod`, а так же сам интерпретатор python, как писать декораторы, принимающие аргументы без дважды вложенных функций, ну, и наконец, как немного поменять синтаксис python. ![Определение статический метод или нет по сигнатуре, а не по декоратору](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8a7/96a/b24/8a796ab24555958d635500a9e644e805.png "Определение статический метод или нет по сигнатуре, а не по декоратору")Определение статический метод или нет по сигнатуре, а не по декораторуБазовое определение и простые примеры ------------------------------------- *Disclamer: этот раздел небольшая церемония с базовым раскрытием темы. Если вы без помощи гугла можете написать декоратор, добавляющий подсчёт количества вызовов функции, гасящий исключения или ещё каким либо образом дополняющий её работу - можете смело пропускать этот раздел. Впрочем совсем новичкам придётся самим узнать, что такое* [*wraps*](https://docs.python.org/3/library/functools.html#functools.wraps)*. Ну или забить на строчки с его использованием.* Декоратор - механизм, позволяющий изменить объект или функции, дополнив или полностью изменив, его работу. Например, добавить логирование, замеры производительности, проверку прав, метрики, обработку ошибок, прикрепить какую-то информацию к объекту или функции. Например, почти во всех веб-фрейморках авторизация и роутинг выполняется с помощью декораторов, вот [пример](https://fastapi.tiangolo.com/#example) из официальной документации FastAPI: ``` from typing import Optional from fastapi import FastAPI app = FastAPI() @app.get("/") def read_root(): return {"Hello": "World"} @app.get("/items/{item_id}") def read_item(item_id: int, q: Optional[str] = None): return {"item_id": item_id, "q": q} ``` `app.get` в примере выше регистрирует функции и связывает их с определённым путём, при этом никак не меняя их реализацию. Однако, можно изменить поведение функции, например, добавить игнорирование исключений ``` import logging from functools import wraps from typing import Callable def suppress(f: Callable): @wraps(f) def inner(*args, **kwargs): try: return f(*args, **kwargs) except Exception as e: logging.exception("Something went wrong") return inner def f1(): 1 / 0 @suppress def f2(x): x / 0 f2(2) # -> первое исключение будет залогированно и программа продолжит работать f1() # -> а вот здесь программа завершится с ошибкой print("I will never be printed") ``` `@suppress` - синтаксис через `@` - по сути синтаксический сахар, он [появился](https://www.python.org/dev/peps/pep-0318/) только в python 2.4 в далёком 2003 году, что, однако, не мешало декораторам существовать в языке. Даже `classmethod` вполне присутствовал раньше. Интерпретатор в данном месте выполняет примерно следующий код: ``` f2 = suppress(f2) ``` То есть это просто вызов функции, которой передаётся другая функция. Осознание этого процесса позволяет понять, как задать декоратор с параметрами. Например, мы хотим игнорировать не все исключения, а лишь некоторые. Следующий вариант: ``` def suppress(f: Callable, ex=Exception): ... @suppress(ZeroDivisionError) def f2(x): x / 0 ``` Не сработает, потому что интерпретатор вызовет `suppress` с `ZeroDivisionError` в качестве первого аргумента, никакой дополнительной магии здесь не происходит, python просто вызовет функцию и не подумает, что её вызывают в качестве декоратора и, возможно, стоило бы не сразу вызывать её, а создать декорируемую функцию и, например, передать её в качестве первого аргумента, а все остальные, `ZeroDivisionError` в данном случае - в качестве второго и последующих. Поэтому при первом вызове декоратора там надо создать функцию, которая потом примет декорируемую ф-цию, изменит её работу и вернёт обёртку. ``` def suppress(ex=Exception): def dec(f): @wraps(f) def inner(*args, **kwargs): try: return f(*args, **kwargs) except ex as e: logging.exception("Something went wrong") return inner return dec ``` Выглядит немного монструозно, но именно так и было принято писать декораторы с параметрами, пока кому-то в голову не пришла светлая идея, что декоратор можно создавать в виде класса. Реализация декоратора с параметрами в виде класса ------------------------------------------------- По сути нам необходимо разделить этапы создания с запоминанием переданных параметров и вызова, то есть сделать то, что делают классы, поэтому можно изначально использовать их, а не делать всё самому с двумя вложенными функциями. ``` class suppress: def __init__(self, ex=Exception): self._ex = ex def __call__(self, f: Callable): @wraps(f) def inner(*args, **kwargs): try: return f(*args, **kwargs) except self._ex: logging.exception("Something went wrong") return inner ``` Мне кажется этот код гораздо лучше читается, осталось теперь только смириться с именем класса, начинающимся с маленькой буквы или с именем декоратора, начинающимся с большой. Декорирование классов --------------------- Декорировать можно не только функции, но и классы, например, можно реализовать декоратор, добавляющий метод преобразования класса в строку. ``` from typing import Type def auto_str(c: Type): def str(self): variables = [f"{k}={v}" for k, v in vars(self).items()] return f"{c.__name__}({', '.join(variables)})" c.__str__ = str return c class Sample1: def __init__(self, a, b): self.a = a self.b = b @auto_str class Sample2(Sample1): def __init__(self, a, b, c): super().__init__(a, b) self.c = c print(str(Sample2(1, 2, 3))) # -> Sample2(a=1, b=2, c=3) ``` *Реализовать декоратор, который позволяет менять формат выводимого сообщения, оставляется читателю в качестве самостоятельного упражнения.* Semantic Self ------------- Меня всегда немного удивляло, что python, заставляя указывать `self` параметр в сигнатуре каждого метода, никак не использует это своё требование и не делает метод автоматически статическим, если аргументов нет, и не возвращает `classmethod`, если первый параметр называется `cls`. Но с помощью декоратора можно исправить данный "недостаток". ``` import inspect from typing import Type, Callable def semantic_self(cls: Type): for name, kind, cls, obj in inspect.classify_class_attrs(cls): # с помощью модуля inspect возможно пройтись по всем # атрибутам класса и определить метод ли это if kind == "method" and not _is_special_name(name): setattr(cls, name, _get_method_wrapper(obj)) return cls def _is_special_name(name: str) -> bool: # специальные методы трогать не будем return name.startswith("__") and name.endswith("__") def _get_method_wrapper(obj: Callable): # определяем есть ли у метода аргументы, и, в зависимости от имени # первого аргумента, меняем его args = inspect.getargs(obj.__code__).args if args: if args[0] == "self": return obj elif args[0] == "cls": return classmethod(obj) return staticmethod(obj) ``` Пример использования: ``` @semantic_self class Sample: def obj_method(self, param): print(f"object {self} {param}") def cls_method(cls, param): print(f"class {cls} {param}") def static_method(param): print(f"static {param}") ``` Реализация декораторов из стандартной библиотеки ------------------------------------------------ Рассмотрим как реализованы некоторые из частоиспользуемых декораторов стандартной бибилиотеки. `abstractmethod` реализован весьма прямолинейно: [добавлением](https://github.com/python/cpython/blob/74d60eab558bffdf5ca8ea2f5305e19b36bdb9a8/Lib/abc.py#L24) специального аттрибута `__isabstractmethod__`. Класс таскает с собой [множество](https://github.com/python/cpython/blob/bb3e0c240bc60fe08d332ff5955d54197f79751c/Lib/_py_abc.py#L45) абстрактных методов и обновляет их при [создании](https://github.com/python/cpython/blob/74d60eab558bffdf5ca8ea2f5305e19b36bdb9a8/Lib/abc.py#L146) потомков. ``` abstracts = set() # Check the existing abstract methods of the parents, keep only the ones # that are not implemented. for scls in cls.__bases__: for name in getattr(scls, '__abstractmethods__', ()): value = getattr(cls, name, None) if getattr(value, "__isabstractmethod__", False): abstracts.add(name) # Also add any other newly added abstract methods. for name, value in cls.__dict__.items(): if getattr(value, "__isabstractmethod__", False): abstracts.add(name) cls.__abstractmethods__ = frozenset(abstracts) return cls ``` Ещё интереснее реализован `staticmethod`, потому что по сути он не делает ничего. Статический метод - это функция определённая в некотором пространстве имён, этот декоратор возвращает саму функцию. А вот обычные методы, не помеченные таким декоратором преобразуются в boundmethod, это можно видеть на КДПВ. Например, вот так выглядит получение статического метода: ``` static PyObject * sm_descr_get(PyObject *self, PyObject *obj, PyObject *type) { staticmethod *sm = (staticmethod *)self; if (sm->sm_callable == NULL) { PyErr_SetString(PyExc_RuntimeError, "uninitialized staticmethod object"); return NULL; } Py_INCREF(sm->sm_callable); return sm->sm_callable; // ф-ция возвращается без изменений } ``` А вот так, обычного: ``` static PyObject * instancemethod_descr_get(PyObject *descr, PyObject *obj, PyObject *type) { PyObject *func = PyInstanceMethod_GET_FUNCTION(descr); if (obj == NULL) { Py_INCREF(func); return func; } else return PyMethod_New(func, obj); // метод ассоциируется с объектом } ``` В случае класс методов, всё тоже довольно предсказуемо: ``` static PyObject * cm_descr_get(PyObject *self, PyObject *obj, PyObject *type) { classmethod *cm = (classmethod *)self; if (cm->cm_callable == NULL) { PyErr_SetString(PyExc_RuntimeError, "uninitialized classmethod object"); return NULL; } if (type == NULL) type = (PyObject *)(Py_TYPE(obj)); if (Py_TYPE(cm->cm_callable)->tp_descr_get != NULL) { return Py_TYPE(cm->cm_callable)->tp_descr_get(cm->cm_callable, type, type); } // метод ассоциируется с типом объекта return PyMethod_New(cm->cm_callable, type); } ``` Примеры декораторов ------------------- Декораторы не зря настолько популярны, они отлично помогают в огранизации кода, позволяют легко отделить одну часть логики от другой, например, бизнес логику от проверки прав, добавлять логирование и метрики без изменения тела функций, разделять базовый алгоритм и обработку ошибок или входных аргументов и результата. Например, существует [библиотека](https://andreacensi.github.io/contracts/), добавляющая контракты в язык, её синтаксис реализован именно в виде декораторов. ``` @contract(a='int,>0', b='list[N],N>0', returns='list[N]') def my_function(a, b): ... ``` Есть библиотеки, реализующие некоторые элементы функционального программирования: например отделение чистого кода от side эффектов. [Преобразование](https://github.com/dry-python/returns) функции, генерирующей исключения, в функцию, возвращающую тип Option/Maybe: ``` @safe def _make_request(user_id: int) -> requests.Response: # TODO: we are not yet done with this example, read more about `IO`: response = requests.get('/api/users/{0}'.format(user_id)) response.raise_for_status() return response ``` Или алгоритм от способа его выполнения, позволяет [выбирать](https://github.com/python-effect/effect), хотите ли вы выполнять его синхронно или асинхронно: ``` from effect import sync_perform, sync_performer, Effect, TypeDispatcher class ReadLine(object): def __init__(self, prompt): self.prompt = prompt def get_user_name(): return Effect(ReadLine("Enter a candy> ")) @sync_performer def perform_read_line(dispatcher, readline): return raw_input(readline.prompt) def main(): effect = get_user_name() effect = effect.on( success=lambda result: print("I like {} too!".format(result)), error=lambda e: print("sorry, there was an error. {}".format(e))) dispatcher = TypeDispatcher({ReadLine: perform_read_line}) sync_perform(dispatcher, effect) if __name__ == '__main__': main() ```
https://habr.com/ru/post/587066/
null
ru
null
# Атаки HTML5: что нужно знать ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/9f5/0bd/97e/9f50bd97e9d7bd5c78aecb79ac461436.png) Все последние версии браузеров поддерживают HTML5, следовательно, индустрия находится на пике готовности принять технологию и адаптироваться к ней. Сама технология создана такой, чтобы сделать простым процесс включения и обработки графического и мультимедиа-контента в вебе, без использования третьих плагинов или API. Эта статья расскажет о **новых типах атак,** которые HTML5 «подарил» миру. HTML5-атаки =========== Атаки на CORS (Cross origin resourse sharing) — получение реверсивного шелл-кода -------------------------------------------------------------------------------- Чтобы отвечать растущим потребностям разработчиков делать высококачественные сайты, HTML5 ослабил внимание к некоторым ограничениям, которые ранее провозглашались концепцией [SOP](http://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE_%D0%BE%D0%B3%D1%80%D0%B0%D0%BD%D0%B8%D1%87%D0%B5%D0%BD%D0%B8%D1%8F_%D0%B4%D0%BE%D0%BC%D0%B5%D0%BD%D0%B0) (same origin policy). Концепция имеет простые правила: скрипты, запускаемые на сайте, имеют доступ к методам и свойствам этого сайта, но не имеют такового к страницам другого сайта (SOP как таковое есть обширная отдельная тема, рекомендуем ознакомиться перед дальнейшим чтением). Теперь HTML5 нарушает эти ограничения. Например, AJAX-запросы могут выполняться между разными доменами. SOP ограничивает доступ JavaScript к контенту веб-страниц, предписывая обязательное условие: JavaScript и сам контент находятся на одном домене. Без такого ограничения, вредоносный веб-сайт может запускать яваскрипт, который подгружает персональную информацию с других сайтов, используя сохраненные аутентификационные данные пользователей, и возвращает информацию атакующему. Итак, HTML5 сделал возможным получение данных с других доменов с помощью JavaScript. Так, в то время, как xyz.com разрешает получать данные, abc.com может сделать аякс-запрос к xyz.com и прочитать ответ. Эта особенность используется для туннелирования HTTP-трафика кросс-доменным вызовом. AJAX вызывает и создает браузерный эквивалент реверсивного шелла с помощью простого инструмента «[Shell of of the future](http://blog.andlabs.org/2010/07/shell-of-future-reverse-web-shell.html)». Инструмент основан на концепции, что если атакующий в состоянии найти утечку кросс-доменного запроса, он может использовать начинку JavaScript (убедив пользователя нажать на ссылку) и его скрипт уйдет выполняться на сервер атакующего через кросс-доменный запрос. Используя эту брешь в будущем, атакующий может просматривать сессии жертвы с помощью туннелирования его запросов через браузер жертвы. > Важный вопрос: как сессия жертвы отображается для атакующего? Это возможно, потому что скрипт, запускаемый браузером пользователя, начинает обращаться к сайту атакующего через Cross Origin Resource (без HTML5 это было бы невозможно). Таким образом атакующий просто туннелирует свой запрос через браузер жертвы. Кража CSRF-токенов ------------------ С HTML5 стало возможным красть [CSRF](http://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D0%B6%D1%81%D0%B0%D0%B9%D1%82%D0%BE%D0%B2%D0%B0%D1%8F_%D0%BF%D0%BE%D0%B4%D0%B4%D0%B5%D0%BB%D0%BA%D0%B0_%D0%B7%D0%B0%D0%BF%D1%80%D0%BE%D1%81%D0%B0)-токены — если токен идет через URL (например, GET-запрос), пользуясь ранее названными правилами [CORS](http://ru.wikipedia.org/wiki/Cross-origin_resource_sharing). Атакующий может произвести инъекцию в CSRF-начинку на странице, использующей кросс-доменные запросы, после чего создается запрос на целевой сайт, без оповещения об этом пользователя. Обратите внимание, что для CORS должен быть добавлен дополнительный HTTP-заголовок, называемый `origin`. Смена значения атрибута `withCredentials` на `true` позволит угнать куки вместе с запросом. Заголовок сервера в таком случае должен быть `Access-Control-Allow-Origin: *`. Вместо звездочки можно указать адрес конкретного домена или доменов, которым разрешено получить ответ. Если оставить звездочку — разрешение будет распространяться на все домены. Пользователь и подозревать не будет, что происходит в фоновом режиме. Таким образом, HTML5 позволяет красть CSRF-токены и выполнять операции без ведома пользователя. Доступ к внутренним серверам ---------------------------- Многие коммерческие организации имеют внутренние сайты, которые используются для внутренних нужд бизнеса. Фактически это интранет-приложения, недоступные через интернет. Так как таких приложений существует множество, они должны как-то взаимодействовать друг с другом. И, в спешке, большинство разработчиков просто добавляют уже известный нам заголовок `Access-Control-Allow-Origin: *` и включают CORS. Это может быть использовано атакующим, который может использовать [социальную инженерию](http://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D1%86%D0%B8%D0%B0%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F_%D0%B8%D0%BD%D0%B6%D0%B5%D0%BD%D0%B5%D1%80%D0%B8%D1%8F), чтобы заставить работника компании кликнуть на ссылку, после чего атакующий очень легко получает доступ к контенту. Своеобразная «пошаговая инструкция»: 1. Сотрудник компании логинится на сайте, который не доступен через интернет. 2. Интранет-сервер возвращает запрос с заголовком `Access-Control-Allow-Origin: *` (Почему? Он хочет позволить другим сайтам в интранете получить доступ к данным сервера). 3. Сотрудник получает ссылку от злоумышленника в почтовом письме и кликает на нее. 4. Сайт выглядит совершенно нормально, сотрудник не замечает ничего подозрительного. Но сайт содержит JavaScript-код, который выполняется в браузере сотрудника. 5. Скрипт в фоновом режиме посылает запрос XMLHttpRequest и он также получает запрос (Почему? Потому что заголовок сервера содержит `Access-Control-Allow-Origin: *`. 6. Яваскрипт парсит запрос и отправляет его на сервер атакующего (легко делается через XMLHttpRequest). 7. Атакующий перехватывает данные, хранящиеся на внутреннем сайте компании. Новые XSS HTML5 векторы ----------------------- Разработчики всегда любят делать собственные кастомные фильтры для того, чтобы блокировать XSS-атаки. Большинство из них заносят в черный список такие символы, как `и так далее. HTML5 вводит множество новых тегов для поддержки мультимедиа и динамической загрузки аудио/видео. Новые теги, атрибуты и события могут, при должном старании, стать потенциальными векторами обхода XSS-фильтров. Ниже несколько возможных векторов, которые были собраны с различных ресурсов: `List of XSS vectors for HTML5` `X` Отравление кэша офлайновых веб-приложений ----------------------------------------- Кэш офлайновых HTML-приложений используется большинством браузеров — Google Chrome, Mozilla, Opera, Safari и так далее. Так, приложение может кэшировать контент для того, чтобы сделать его доступным офлайн. Главная проблема такого кэша — это его уязвимость к классу атак под названием «отравление кэша». Если JS-файл конкретного сайта отравил атакующий — он может очень легко заполучить пользовательский аккаунт. Главное различие между нормальным кэшем и кэшем приложения на HTML5 в том, что первый не позволяет кэшировать все типы файлов, а второй — позволяет. Используя эту особенность, атакующий может украсть аутентификационные данные пользователя. Давайте посмотрим, как атакующий может сделать это: 1. Пользователь соединяется с незащищенной Wi-Fi сети в торговом центре. 2. Пользователь заходит на случайный сайт. 3. Атакующий отвечает на его запрос страницей, которая содержит скрытый IFrame, призванный собрать с пользователя его Facebook-логин. 4. Браузер пользователя автоматически посылает запрос на авторизацию. 5. С этого момент сеть контролируется атакующим, он подает пользователю страницу, которая выглядит точно как страница авторизации в Фейсбуке, с одним только дополнительным кодом. 6. Этот код будет слать введенные доступы на сайт атакующего. Также страница содержит команду закэшировать это в системе пользователя. Итак, до этого момента фактически ничего не произошло — кроме того, что страница авторизации закэшировалась в системе пользователя. 7. Теперь жертва через один-два дня подключается к защищенной сети дома или в офисе и пытается авторизоваться в фейсбуке, вводя ссылку на сайт в адресной строке. 8. Браузер подгружает фейковую страницу авторизации из кэша. 9. Когда пользователь вводит доступы, они передаются атакующему, потому что закэшированная страница была так запрограммирована. Заключение ---------- Таким образом, через отравление кэша веб-приложения, атакующий может украсть доступы пользователя. Это несколько атак, которые обнаружили специалисты по безопасности. В ближайшие годы, без сомнения, появится еще больше атак, основанных на специфике HTML5. **В качестве бонуса — авторитетный комментарий нашего главного защитника информации, Алексея Федоровича:** > ![avatar](https://habrastorage.org/r/w1560/getpro/habr/post_images/522/069/57b/52206957b3ca0d57d374b5380fd4b32d.png)Собственно атаки на HTML5 как таковые используются довольно редко, злоумышленники не любят усложнять сам процесс получения доступа к конфиденциальным данным, в реальности все больше лидирует обычная компрометация почтовых ящиков, с дальнейшем восстановление паролей от необходимых ресурсов на этот ящик. Ну и конечно же самый любимый способ всех черношляп, точная копия сайта-формы авторизации (фейк), например Facebook’а или вашего собственного, расположенный на сервере злоумышленника. > > > > А CSRF, XSS, SQLinj и т.п. начинают искать на сайтах только тогда, когда на той стороне сидит человек с головой, и не помогает социальная инженерия + когда у злоумышленника достаточно времени и технических знаний для осуществления задуманного. Если вас захотят взломать, взломают, без вариантов. Можно лишь снизить порог проникновения и на первом уровне отсеять школьников со сканерами безопасности и хактулсами. Удачи. *[Оригинал статьи на Onextrapixel](http://www.onextrapixel.com/2014/04/25/html5-attacks-what-you-need-to-know/).*`
https://habr.com/ru/post/223501/
null
ru
null
# Deferred для Javascript (Prototype) ![Prototype and Twisted](https://habrastorage.org/r/w1560/getpro/habr/post_images/fe7/feb/b25/fe7febb254bbe9d539ec874d7c67083b.png "Prototype and Twisted") Продолжая тему [Deferred](http://twistedmatrix.com/projects/core/documentation/howto/async.html) для JavaScript предлагаю еще одно переписывание Deferred, теперь в терминах [Prototype](http://www.prototypejs.org/). Подробнее о самом Deferred можно почитать в двух моих прошлых заметках: [Асинхронное программирование: концепция Deferred](http://www.smira.ru/2009/02/10/deferred-async-programming/) и [Deferred: все подробности](http://www.smira.ru/2009/02/24/more-about-deferred/). Если кратко, самое распространенное и полезное применение Deferred в JavaScript — это работа с AJAX или другими RPC-over-HTTP вызовами, когда необходимо совершить цепочку логически связанных вызовов, корректно обрабатывать возникающие ошибки и т.п. С моей точки зрения, Deferred крайне необходим в таких ситуациях. Перейдем к примерам: обращение к некоторому JSON-RPC API на основе Prototype’овского [Ajax.Request](http://www.prototypejs.org/api/ajax/request) можеть быть обернуто в Deferred следующим образом: ``` var Api = Class.create({ initialize: function(url) { this.url = url; }, call: function(method, params) { var requestBody = $H({ 'method' : method, 'params' : params }).toJSON(); var d = new Deferred(); var onSuccess = function(transport) { result = transport.responseText.evalJSON(); if ('faultCode' in result && 'faultString' in result) { var err = new Error(result.faultString); err.faultCode = result.faultCode; err.faultString = result.faultString; d.errback(err); } else { result = result[0]; console.log("Got result: ", result); d.callback(result); } }; var onFailure = function(transport) { d.errback(new Error("API transport error: " + transport.status)) }; var onException = function(error) { d.errback(error); } new Ajax.Request(this.url, { method: 'post', postBody: requestBody, requestHeaders: { 'Content-Type' : 'application/json' }, onSuccess: onSuccess, onFailure: onFailure, onException: onException, }); return d; }, }); ``` Здесь любое обращение к `Api.call` будет возвращать новый Deferred, который будет содержать результат удаленного вызова либо исключение (транспортное или от сервера, к которому мы обращаемся). Пусть есть RPC-вызовы `sum` и `mult`, которые, соответственно, складывают и перемножают свои аргументы. Тогда вычисление выражения `(2+3)*7` с использованием нашего класса `Api` будет выглядеть так: ``` var api = new Api; api.call('sum', [2, 3]) .addCallback( function (sum_of_2_and_3) { return api.call('mult', [sum_of_2_and_3, 7]); }) .addCallback( function(result) { alert('(2+3)*7 = ' + result); }) .addErrback( function (error) { alert('Mmm… something wrong happened: ' + error); }); ``` Ну и самое главное: * исходный код [Deferred.js](http://www.smira.ru/wp-content/uploads/2009/05/deferred.js); * лицензия MIT, как и у самого [первого варианта Deferred для JavaScript](http://mochikit.com/doc/html/MochiKit/Async.html).
https://habr.com/ru/post/60956/
null
ru
null
# Старые песни о главном. Java и исходящие запросы ![](https://habrastorage.org/r/w1560/webt/gc/zo/yn/gczoyneiff_giu5osapzaaekbpw.png) ([*Иллюстрация*](http://vk.com/phkdesign)) Одна из задач, с которой сталкиваются 99,9% разработчиков, — это обращение к сторонним endpoint’ам. Это могут быть как внешние API, так и «свои» микросервисы. Сейчас все и вся бьют на микросервисы, да. Получить или отправить данные просто, но иногда изобретают велосипеды. Можете назвать 5 способов реализации запросов на Java (c использованием библиотек и без)? Нет — добро пожаловать под кат. Да? Заходите и сравните ;) 0. Intro ======== Задача, которую мы будем решать, предельно проста: нам необходимо отправить запрос GET/POST и получить ответ, который приходит в формате JSON. Чтобы не писать очередной оригинальный микросервис, я воспользуюсь [примером](http://jsonplaceholder.typicode.com/), который предоставляет набор endpoint’ов с некоторыми данными. Все примеры кода максимально упрощены, никаких хитросделанных кейсов с auth-токенами и заголовками тут не будет. Только POST и GET, GET и POST, и так 5 раз или около того. Итак, поехали. 1. Built-in Java solution ========================= Было бы странно, если бы поставленную задачу нельзя было решить без использования сторонних библиотек. Конечно, можно! Но грустно. Пакет java.net, а именно HttpURLConnection, URL и URLEnconder. Для отправки запроса, что GET, что POST, необходимо создать объект URL и открыть на его основе соединение: ``` final URL url = new URL("http://jsonplaceholder.typicode.com/posts?_limit=10"); final HttpURLConnection con = (HttpURLConnection) url.openConnection(); ``` Далее необходимо сдобрить соединение всеми параметрами: ``` con.setRequestMethod("GET"); con.setRequestProperty("Content-Type", "application/json"); con.setConnectTimeout(CONNECTION_TIMEOUT); con.setReadTimeout(CONNECTION_TIMEOUT); ``` И получить InputStream, откуда уже прочитать все полученные данные. ``` try (final BufferedReader in = new BufferedReader(new InputStreamReader(con.getInputStream()))) { String inputLine; final StringBuilder content = new StringBuilder(); while ((inputLine = in.readLine()) != null) { content.append(inputLine); } return content.toString(); } catch (final Exception ex) { ex.printStackTrace(); return ""; } ``` И, собственно, вот такой ответ мы получим (он будет одинаков для всех последующих примеров, ибо мы работаем с одними и теми же endpoint’ами): ``` [ { "userId": 1, "id": 1, "title": "sunt aut facere repellat provident occaecati excepturi optio reprehenderit", "body": "quia et suscipit\nsuscipit recusandae consequuntur expedita et cum\nreprehenderit molestiae ut ut quas totam\nnostrum rerum est autem sunt rem eveniet architecto" }, { "userId": 1, "id": 2, "title": "qui est esse", "body": "est rerum tempore vitae\nsequi sint nihil reprehenderit dolor beatae ea dolores neque\nfugiat blanditiis voluptate porro vel nihil molestiae ut reiciendis\nqui aperiam non debitis possimus qui neque nisi nulla" }, ... { "userId": 1, "id": 9, "title": "nesciunt iure omnis dolorem tempora et accusantium", "body": "consectetur animi nesciunt iure dolore\nenim quia ad\nveniam autem ut quam aut nobis\net est aut quod aut provident voluptas autem voluptas" }, { "userId": 1, "id": 10, "title": "optio molestias id quia eum", "body": "quo et expedita modi cum officia vel magni\ndoloribus qui repudiandae\nvero nisi sit\nquos veniam quod sed accusamus veritatis error" } ] ``` В случае с POST-запросом все немного сложнее. Мы же хотим не только получить ответ, но и передать данные. Для этого нам нужно их туда положить. Документация нам говорит что это может сработать следующим образом: ``` final Map parameters = new HashMap<>(); parameters.put("title", "foo"); parameters.put("body", "bar"); parameters.put("userId", "1"); con.setDoOutput(true); final DataOutputStream out = new DataOutputStream(con.getOutputStream()); out.writeBytes(getParamsString(parameters)); out.flush(); out.close(); ``` Где getParamsString это простой метод, перегоняющий Map в String, содержащие пары «ключ-значение»: ``` public static String getParamsString(final Map params) { final StringBuilder result = new StringBuilder(); params.forEach((name, value) -> { try { result.append(URLEncoder.encode(name, "UTF-8")); result.append('='); result.append(URLEncoder.encode(value, "UTF-8")); result.append('&'); } catch (final UnsupportedEncodingException e) { e.printStackTrace(); } }); final String resultString = result.toString(); return !resultString.isEmpty() ? resultString.substring(0, resultString.length() - 1) : resultString; } ``` При успешном создании мы получим объект обратно: ``` { "title": "foo", "body": "bar", "userId": "1", "id": 101} ``` [Ссылочка](http://github.com/umbrellaitcom/java-api-caller/blob/master/src/main/java/com/umbrellait/builtin/Runner.java) на source, который можно запустить. 2. Apache HttpClient ==================== Если уйти в сторону от встроенных решений, то первое, на что мы наткнемся — HttpClient от Apache. Для доступа нам понадобится сам JAR-файл. Или, так как я использую Maven, то соответствующая зависимость: ``` org.apache.httpcomponents httpclient 4.5.6 ``` И то, как выглядят запросы с использованием HttpClient’a, уже намного лучше ([source](http://github.com/umbrellaitcom/java-api-caller/blob/master/src/main/java/com/umbrellait/apacheclient/Runner.java)): ``` final CloseableHttpClient httpclient = HttpClients.createDefault(); final HttpUriRequest httpGet = new HttpGet("http://jsonplaceholder.typicode.com/posts?_limit=10"); try ( CloseableHttpResponse response1 = httpclient.execute(httpGet) ){ final HttpEntity entity1 = response1.getEntity(); System.out.println(EntityUtils.toString(entity1)); } final HttpPost httpPost = new HttpPost("http://jsonplaceholder.typicode.com/posts"); final List params = new ArrayList<>(); params.add(new BasicNameValuePair("title", "foo")); params.add(new BasicNameValuePair("body", "bar")); params.add(new BasicNameValuePair("userId", "1")); httpPost.setEntity(new UrlEncodedFormEntity(params)); try ( CloseableHttpResponse response2 = httpclient.execute(httpPost) ){ final HttpEntity entity2 = response2.getEntity(); System.out.println(EntityUtils.toString(entity2)); } httpclient.close(); ``` Мы получили те же данные, но написали при этом вдвое меньше кода. Интересно, куда еще могут завести поиски в таком, казалось бы, базовом вопросе? Но у Apache есть еще один модуль, решающий нашу задачу. 3. Apache Fluent API ==================== ``` org.apache.httpcomponents fluent-hc 4.5.6 ``` И уже с использованием Fluent Api наши вызовы становятся намного читабельнее ([source](http://github.com/umbrellaitcom/java-api-caller/blob/master/src/main/java/com/umbrellait/apachefluentapi/Runner.java)): ``` final Content getResult = Request.Get("http://jsonplaceholder.typicode.com/posts?_limit=10") .execute().returnContent(); System.out.println(getResult.asString()); final Collection params = new ArrayList<>(); params.add(new BasicNameValuePair("title", "foo")); params.add(new BasicNameValuePair("body", "bar")); params.add(new BasicNameValuePair("userId", "1")); final Content postResultForm = Request.Post("http://jsonplaceholder.typicode.com/posts") .bodyForm(params, Charset.defaultCharset()) .execute().returnContent(); System.out.println(postResultForm.asString()); ``` И как бонус — пример. Если мы хотим передавать данные в боди не как форму, а как всеми любимый JSON: ``` final Content postResult = Request.Post("http://jsonplaceholder.typicode.com/posts") .bodyString("{\"title\": \"foo\",\"body\":\"bar\",\"userId\": 1}", ContentType.APPLICATION_JSON) .execute().returnContent(); System.out.println(postResult.asString()); ``` По сути вызовы схлопнулись в одну строчку кода. Как по мне, это намного более дружелюбно по отношению к разработчикам, чем самый первый способ. 4. Spring RestTemplate ====================== Что же дальше? Дальше опыт меня завел в мир Spring. И, что не удивительно, у спринга тоже имеются инструменты для решения нашей простенькой задачи (странно, правда? Задача, даже не так — потребность! — базового уровня, а решений зачем-то больше одного). И первое же решение (базовое), которое вы найдете в экосистеме Spring, это RestTemplate. И для этого нам нужно тянуть уже немалую часть всего зоопарка. Так что если вам нужно отправить запрос в НЕспринговом приложении, то ради этого лучше не тянуть всю кухню. А если спринг уже есть, то почему бы и да? Как притянуть все, что необходимо для этого, можно посмотреть [здесь](http://spring.io/guides/gs/consuming-rest/). Ну а собственно GET-запрос с использованием RestTemplate выглядит следующим образом: ``` final RestTemplate restTemplate = new RestTemplate(); final String stringPosts = restTemplate.getForObject("http://jsonplaceholder.typicode.com/posts?_limit=10", String.class); System.out.println(stringPosts); ``` Гуд. НО! Работать со строкой уже не хочется, тем более есть возможность получать не строки, а готовые объекты, которые мы ожидаем получить! Создаем объект Post: ``` import com.fasterxml.jackson.annotation.JsonIgnoreProperties; import lombok.Builder; import lombok.Getter; import lombok.Setter; @Builder @Getter @Setter @JsonIgnoreProperties(ignoreUnknown = true) public class Post { private int id; private String title; private String body; private int userId; public String toString() { return String.format("\n id: %s \n title: %s \n body: %s \n userId: %s \n", id, title, body, userId); } } ``` Здесь: **Builder, Getter, Setter** — сахар от Lombok, чтобы не писать все руками. Да, вот она, лень-матушка. **JsonIgnoreProperties** — чтобы в случае получения неизвестных полей не вылетать в ошибку, а использовать те поля, которые нам известны. Ну и **toString**, чтобы выводить наши объекты в консоль, и это можно было прочитать. Ну и собственно наши GET- и POST- запросы перевоплощаются в ([source](http://github.com/umbrellaitcom/java-api-caller/blob/master/src/main/java/com/umbrellait/resttemplate/Runner.java)): ``` // Map it to list of objects final Post[] posts = restTemplate.getForObject("http://jsonplaceholder.typicode.com/posts?_limit=10", Post[].class); for (final Post post : posts) { System.out.println(post); } final Post postToInsert = Post.builder() .body("bar") .title("foo") .userId(1) .build(); final Post insertedPost = restTemplate.postForObject("http://jsonplaceholder.typicode.com/posts", postToInsert, Post.class); System.out.println(insertedPost); ``` И у нас уже в руках объекты, а не строка, которую надо разбирать самостоятельно. Кул. Теперь мы можем написать некоторую обертку вокруг RestTemplate, чтобы запрос строился корректно. Выглядит не так уж плохо, но, как по мне, это можно еще улучшить. Чем меньше кода пишется, тем меньше вероятность ошибки. Все же знают, что основная проблема зачастую PEBCAK (Problem Exists between Chair and Keyboard)… 5. Spring Feign =============== И тут на сцену выходит Feign, который входит в состав Spring Cloud. Сначала добавим к уже добавленному ранее спринговому окружению Feign-зависимость: ``` org.springframework.cloud spring-cloud-starter-feign 1.4.5.RELEASE ``` По сути все, что надо, это объявить интерфейс и сдобрить его хорошей жменькой аннотаций. Особенно данный подход будет симпатичен тем, кто пишет контроллеры с использованием спринга. Вот что нам надо сделать для отправки запросов посредством Feign ([source](http://github.com/umbrellaitcom/java-api-caller/tree/master/src/main/java/com/umbrellait/feign)). ``` @FeignClient(name = "jsonplaceholder", url = "http://jsonplaceholder.typicode.com", path = "/posts") public interface ApiClient { @RequestMapping(method = GET, value = "/", consumes = APPLICATION_JSON_VALUE) List getPosts(@RequestParam("\_limit") final int postLimit); @RequestMapping(method = POST, value = "/", consumes = APPLICATION\_JSON\_VALUE, produces = APPLICATION\_JSON\_VALUE) Post savePost(@RequestBody Post post); } ``` Красота, не правда ли? И да, те модели данных, которые мы писали для RestTemplate, отлично переиспользуются здесь. 6. Conclusion ============= Существует еще не один способ реализации помимо представленных пяти. Данная подборка это лишь отражение опыта автора в том порядке, в котором я знакомился с ними и начинал использовать в проектах. Сейчас активно пользую Feign, радуюсь жизни и жду, когда появится еще что-то более удобное, чтобы можно было крикнуть в монитор «<название библиотеки>, выбираю тебя!» — и все было готово к использованию и интеграции. Ну а пока Feign. P.S. Как один из «ленивых» способов можно рассматривать генерируемый Swagger клиент. Но, как говорится, есть нюанс. Далеко не все разработчики используют Swagger для документирования своих API, и еще меньше делают это настолько качественно, чтобы можно было спокойно сгенерировать и использовать клиент, а не получить вместо него энтомологическую коллекцию, от которой будет больше вреда, чем пользы.
https://habr.com/ru/post/423591/
null
ru
null
# Анонс Rust 1.2 Сегодня [завершаются](http://www.rust-lang.org/install.html) циклы стабильного Rust 1.2 и бета-Rust 1.3! Читайте дальше об основных изменениях или переходите к более подробным [release notes](https://github.com/rust-lang/rust/blob/master/RELEASES.md#version-120-august-2015). Что вошло в стабильный релиз 1.2 -------------------------------- Как [сообщалось ранее](http://blog.rust-lang.org/2015/06/25/Rust-1.1.html), Rust 1.2 принёс два существенных улучшения в компиляторе: * **Общее повышение** производительности компилятора, что наиболее заметно в пакетах [hyper](https://crates.io/crates/hyper) (компилируется в 1.16 раза быстрее), [html5ever](https://crates.io/crates/html5ever) (в 1.62 раза), [regex](https://crates.io/crates/regex) (в 1.32 раза) и [rust-encoding](https://crates.io/crates/encoding) (в 1.35 раза). Вы можете посмотреть подробную статистику производительности на [этом сайте](http://www.ncameron.org/perf-rustc/) (сделанном Nick'ом Cameron'ом), выставив даты с 2015-05-15 по 2015-06-25. * **Параллельная кодогенерация** [теперь работает](https://github.com/rust-lang/rust/pull/26018) и даёт прирост в 33% скорости на начальных стадиях компиляции компилятора Rust на четырёхъядерной машине. Параллельная кодогенерация особенно полезна для отладочных сборок, потому что она предотвращает использование некоторых оптимизаций; но она также может использоваться и при включённых оптимизациях, давая, по факту, уровень `-O1`. Активировать параллельную генерацию можно, передав `rustc` флаг `-C codegen-units=N`, где `N` — желаемое количество параллельных потоков. Производительность Cargo также существенно улучшилась: * Сборки, которые не требуют перекомпиляций («no-op-сборки») в больших проектах стали гораздо быстрее; например, в Servo время сборки упало с 5 секунд до 0.5 секунды. * Cargo теперь поддерживает разделяемые «целевые» директории, в которых кешируются скомпилированные зависимости для разных пакетов, что значительно уменьшает время сборки в сложных проектах. Также в релиз 1.2 [вошла поддержка](https://github.com/rust-lang/rust/pull/25350) тулчейна MSVC (Microsoft Visual C), в дополнение к вариантам от GNU. В итоге, код на Rust теперь может напрямую линковаться с кодом, собранным нативными для Windows утилитами. Сам компилятор способен bootstrap'иться на MSVC, у нас уже есть предварительные ночные сборки, и мы тестируем все библиотеки rust-lang на MSVC. Поддержки раскрутки стека (unwinding) ещё нет (процесс завершается при паниках), но работа над её внедрением ведётся. С точки зрения языка, в Rust 1.2 завершилась работа над поддержкой [типов с динамическим размером](http://smallcultfollowing.com/babysteps/blog/2014/01/05/dst-take-5/), что дало возможность умным указателям вроде `Rc` напрямую работать с массивами и трейт-объектами, т.е., например, `Rc<[T]>` полностью готов к использованию. Это улучшение применимо ко всем умным указателям из стандартной библиотеки. Поддержка для сторонних типов указателей доступна в ночных сборках и вскоре будет стабилизирована полностью. Что нового в 1.3 beta --------------------- Одной из наиболее интересных разработок в цикле 1.3 было создание [Растономикона](https://doc.rust-lang.org/nightly/nomicon/) — новой книги о «тёмных искусствах продвинутого и небезопасного программирования на Rust». Пока что эта книга только в самом начале написания, но уже сейчас в ней есть совершенно бесценное описание более тонких аспектов Rust. В цикле 1.3 также имеются улучшения производительности, в основном, в стандартной библиотеке: * Поиск подстроки теперь использует [более эффективный алгоритм](https://github.com/rust-lang/rust/pull/26327). * Улучшения в [заполнении нулями](https://github.com/rust-lang/rust/pull/26849) (zero filling), которые ускоряют `Vec::resize` и `Read::read_to_end`. * Реализация `Read::read_to_end` [специализирована для `stdin` и `File`](https://github.com/rust-lang/rust/pull/26950), что привело к дополнительному выигрышу в производительности. * Реализация `PartialEq` на срезах стала [гораздо быстрее](https://github.com/rust-lang/rust/pull/26884). Мы также предприняли отдельные шаги к [предварительной поддержке Windows XP](https://github.com/rust-lang/rust/pull/26601). Хоть мы и не собираемся делать Windows XP платформой «первого класса», теперь стало возможным программировать на Rust под XP, если избегать использования отдельных элементов стандартной библиотеки. Со стороны Cargo мы добавили возможность [ограничения lint'ов](https://github.com/rust-lang/rust/pull/27260), согласно [ранее принятому RFC](https://github.com/rust-lang/rfcs/pull/1193). Идея этой функциональности в том, что lint'ы зависимостей вашего проекта не должны мешать вам скомпилировать проект, что, в свою очередь, даст нам возможность подстраивать поведение lint'ов, не оказывая негативного влияния на экосистему в целом. Контрибьюторы релиза 1.2 ------------------------ Стабильный релиз 1.2 является плодом упорной работы 180 человек: **список**Aaron Turon Abhishek Chanda Adolfo Ochagavía Aidan Hobson Sayers Akshay Chiwhane Alex Burka Alex Crichton Alex Stokes Alexander Artemenko Alexis Beingessner Andrea Canciani Andrew Foote Andrew Kensler Andrew Straw Ariel Ben-Yehuda Austin Hellyer Barosl Lee Ben Striegel Björn Steinbrink Brian Anderson Brian Campbell Brian Leibig Brian Quinlan Carol (Nichols || Goulding) Chris Hellmuth Christian Stadelmann Chuck Bassett Corey Farwell Cornel Punga Cruz Julian Bishop Dave Huseby David Campbell David Stygstra David Voit Eduard Bopp Eduard Burtescu Eli Friedman Emilio Cobos Álvarez Emily Dunham Eric Ye Erik Michaels-Ober Falco Hirschenberger Felix S. Klock II FuGangqiang Geoffrey Thomas Gleb Kozyrev Guillaume Gomez Gulshan Singh Heejong Ahn Huachao Huang Huon Wilson Ivan Ukhov Iven Hsu Jake Goulding Jake Hickey James Miller Jared Roesch Jeremy Schlatter Jexell Jim Blandy Johann Tuffe Johannes Hoff Johannes Oertel John Hodge Jonathan Reem Joshua Landau Kevin Ballard Kubilay Kocak Lee Jeffery Leo Correa Liigo Zhuang Lorenz Luca Bruno Luqman Aden Manish Goregaokar Marcel Müller Marcus Klaas Marin Atanasov Nikolov Markus Westerlind Martin Pool Marvin Löbel Matej Lach Mathieu David Matt Brubeck Matthew Astley Max Jacobson Maximilian Haack Michael Layzell Michael Macias Michael Rosenberg Michael Sproul Michael Woerister Mihnea Dobrescu-Balaur Mikhail Zabaluev Mohammed Attia Ms2ger Murarth Mário Feroldi Nathan Long Nathaniel Theis Nick Cameron Nick Desaulniers Nick Fitzgerald Nick Hamann Nick Howell Niko Matsakis Nils Liberg OlegTsyba Oliver ‘ker’ Schneider Oliver Schneider P1start Parker Moore Pascal Hertleif Paul Faria Paul Oliver Peer Aramillo Irizar Peter Atashian Peter Elmers Philip Munksgaard Ralph Giles Rein Henrichs Ricardo Martins Richo Healey Ricky Taylor Russell Johnston Russell McClellan Ryan Pendleton Ryman Rémi Audebert Sae-bom Kim Sean Collins Sean Gillespie Sean Patrick Santos Seo Sanghyeon Simon Sapin Simonas Kazlauskas Steve Gury Steve Klabnik Steven Allen Steven Fackler Steven Walter Sébastien Marie Tamir Duberstein Thomas Karpiniec Tim Ringenbach Tshepang Lekhonkhobe Ulrik Sverdrup Vadim Petrochenkov Wei-Ming Yang Wesley Wiser Wilfred Hughes Will Andrews Will Engler Xuefeng Wu XuefengWu Yongqian Li York Xiang Z1 ben fleis benaryorg bluss bors clatour diwic dmgawel econoplas frankamp funkill inrustwetrust joliv klutzy marcell mdinger olombard peferron ray glover saml simplex sumito3478 webmobster
https://habr.com/ru/post/264387/
null
ru
null
# Разработка собственного плагина для сервера Minecraft Еще с детства я начал покорять бесконечные просторы Minecraft. Естественно о разработке в то время никакой речи не шло. Но с недавних пор загорелся идеей создать о свой проект серверов. На Java до этого никогда не писал, но есть бекграунд на других языках, поэтому осталось только приспособиться. Соотвественно разработка плагинов, Bukkit и другие библиотеки вижу впервые, но посмотрев несколько туторов, стала понятна примерная концепция. > Ранее писал на таких языках как PHP, JS. В данный момент веду разработку на языке Go. Сильно привык к "гошке" и его синтаксису и в процессе написания плагина часто использовал синтаксис Go для написания логических конструкций. > > Мне не сильно хотелось использовать какие-то готовые решения, ведь тогда не будет углубленных знаний, которые я получу в процессе написания кода. Хочется одновременно и поучить Java и написать что-то свое (самое главное). В этой статье я не буду затрагивать процесс настройки окружения, установки IDE и стороннего софта. Идея плагина ------------ На серверах часто используются постройки, находящиеся в пустоте, например летающие лобби, острова. Такую модель постройки мы выбрали вместе с моим другом: летающие острова. Одной из проблем таких построек - Игрок может провалиться в пустоту и не выбраться. Прошерстив Google мне удалось найти парочку подходящих плагинов, которые уже решают это проблему. Но один из них, который оказался поддерживаем разработчиком и самими ядром сервера, предоставлял ограниченный функционал, расширенный можно было приобрести на X евро. Фича, которая мне понравилась в платном плагине - создание анимаций из частиц после телепортации из пустоты. Мне захотелось самому понять, как это сделать, разработать собственный плагин, а потом с удовольствием им пользоваться, поддерживать, находить баги - мое мелкое детище, как никак. Создаем сам плагин ------------------ Назвал я плагин просто - **VoidTeleport**. Первым делом создал класс для управления конфигурацией плагина. ``` public class Config { private static File file; private static FileConfiguration config; private static final String fileNameConfig = "config.yml"; /** * Initializes the static Config class. */ public static void init() { // Получаем инстанс нашего плагина. Plugin plugin = Bukkit.getServer().getPluginManager().getPlugin(VoidTeleport.PluginName); if (plugin == null) { // На этом моменте что-то пошло не так, // нужно обработать и залогировать. Bukkit.getLogger().log( Level.WARNING, MessageFormat.format("Cannot get plugin {0}", VoidTeleport.PluginName) ); return; } file = new File(plugin.getDataFolder(), fileNameConfig); // Мы не знаем существует ли файл, поэтому пытаемся создать его. // Если файл уже есть, то выражение file.createNewFile() вернет false. try { if (file.createNewFile()) { plugin.getLogger().log( Level.INFO, MessageFormat.format("New config file with name {0} was created", fileNameConfig) ); } } catch (IOException e) { plugin.getLogger().log(Level.SEVERE, e.toString()); return; } // На данно моменте наш конфиг пустой, // поэтому подгружаем его из файла. reload(); } /** * Getter * @return FileConfiguration */ public static FileConfiguration get() { return config; } public static void reload() { // Самый простой анмаршаллер YAML из файла. config = YamlConfiguration.loadConfiguration(file); } ``` Отлично! Класс для работы с конфигом уже есть, теперь нужно определиться со структурой файла `config.yml`. Нужно реализовать поддержку для разных миров, поэтому не придумал ничего проще, как просто указать список нужных миров. ``` worlds: # Наименование мира, например spawn, world, world_the_end - name: spawn # Координаты для респавна игрока при падении в пустоту spawnLocation: x: 0 y: 0 z: 0 ``` Конфиг есть, теперь можно приступить к созданию обработчика событий. Мой выбор пал на событие [EntityDamageByBlockEvent](https://hub.spigotmc.org/javadocs/bukkit/org/bukkit/event/entity/EntityDamageByBlockEvent.html). Можно было бы и слушать событие [PlayerMoveEvent](https://hub.spigotmc.org/javadocs/bukkit/org/bukkit/event/player/PlayerMoveEvent.html), но оно случается гораздо чаще, чем триггер на получение урона. Лишняя нагрузка на сервер не нужна, поэтому стал слушать урон. ``` public class PlayerDamageListener implements Listener { // Хеш мапа в которой хранится наименования мира и точка телепортации. private HashMap worlds = new HashMap<>(); @EventHandler public void onPlayerDamage(EntityDamageByBlockEvent e) { if (!(e.getEntity() instanceof Player)) { // Это не игрок. return; } if (e.getCause() != EntityDamageEvent.DamageCause.VOID) { // Урон не от пустоты. return; } Player player = (Player) e.getEntity(); // Получаем мир, в котором находится Игрок. World world = player.getWorld(); // Пытаемся найти в хеш мапе значение по наименованию мира. Location spawnLocation = this.worlds.get(world.getName()); if (spawnLocation == null) { // К этому миру не действует правило телепорта. return; } // Данный код является костылем, который я быстро сообразил. // Проблема в том, что мир может быть = null. // В таком случае устанавливаем мир на тот, в котором находится игрок. if (spawnLocation.getWorld() == null) { spawnLocation.setWorld(world); } // Добрались до самого главного. // Отменяем событие, которое наносит урон игроку. e.setCancelled(true); // Отменяем сам урон от падения, // чтобы при телепортации игрок не разбился. player.setFallDistance(0); // Телепортируем игрока. player.teleport(spawnLocation); // Доабвляем анимацию из частиц при попадании на точку телепортации. Spiral.spawn(player); } @SuppressWarnings("unchecked") public void updateWorlds(@Nullable ArrayList> listWorlds) { if (listWorlds == null) { // Ну если null, так null - ничего не делаем. return; } // Очищаем мапу. this.worlds = new HashMap<>(); for (HashMap world: listWorlds) { String worldName = (String) world.get("name"); if (Objects.equals(worldName, "")) { // Тут хорошо бы залогировать, но просто скипаем. continue; } Location spawnLocation = Location.deserialize((Map) world.get("spawnLocation")); // Т.к. мир у нас не указан, поэтому получаем его. spawnLocation.setWorld(Bukkit.getWorld(worldName)); // Сохраняем в хеш мапу. this.worlds.put(worldName, spawnLocation); } } } ``` Тепер разберем вызов эффекта анимации при телепортации `Spiral.spawn(player)`. Назвал класс Spiral, потому что эффект будет в виде спирали. > Т.к. это мой первый плагин, то не стал заморачиваться с Пакетами и [ProtocolLib](https://www.spigotmc.org/resources/protocollib.1997/). > > Описываем анимацию в отдельном классе Spiral. Я предпочел реализовать спираль под названием [Helix](https://www.math.net/spiral#:~:text=In%203D%2C%20a%20spiral%20is,the%20surface%20of%20a%20cylinder.) - достаточно простая в реализации модель. Пришлось немного вспомнить тригонометрию, но у меня получилось! ``` public class Spiral { public static void spawn(@NotNull Player player) { Location location = player.getLocation(); // Задаем радиут спирали. double radius = 0.5; for (double y = 0; y <= 23; y += 0.1) { double x = radius * Math.cos(y); double z = radius * Math.sin(y); Location particleLocation = new Location(location.getWorld(), location.getX(), location.getY(), location.getZ()); player.spawnParticle(Particle.REDSTONE, particleLocation.add(x, y / 10, z), 2, new Particle.DustOptions(Color.AQUA, 1.0F)); try { // Думаю, что это плохо, но для первого раза сойдет. TimeUnit.NANOSECONDS.sleep(1); } catch (InterruptedException e) { Bukkit.getLogger().log(Level.SEVERE, e.toString()); } } } } ``` Почему в коде **23**? Это число является ограничением для координаты **y**. Т.е. по сути спираль будет подниматься вверх на `y = 2.3`. Как можно заметить, при указании смещения `particleLocation.add(x, y / 10, z)` y делится на **10**. Еще одной причиной стало то, что спираль не успевает несколько раз "обернуть" игрока. Собираем все вместе ------------------- Наконец можем собрать наш код в единой точке и протестировать, что получилось. ``` public final class VoidTeleport extends JavaPlugin { public static final String PluginName = "VoidTeleport"; @Override public void onEnable() { getLogger().log(Level.INFO, "Plugin enabled!"); // Инициализируем конфиг Config.init(); // Регистрируем обработчик событий для входщего урона this.registerDamageEvent(); } @Override public void onDisable() { getLogger().log(Level.INFO, "Plugin disabled!"); } @SuppressWarnings("unchecked") private void registerDamageEvent() { // Инициализируем обработчик PlayerDamageListener damageListener = new PlayerDamageListener(); // Достаем из конфига нужные значения и обновляем хеш мапу в обработчике damageListener.updateWorlds((ArrayList>) Config.get().get("worlds")); // Регистрируем новое событие на сервере getServer().getPluginManager().registerEvents(damageListener, this); } } ``` Результат --------- При заданным настройкам файле конфигурации мы успешно попадаем в указанную точки и наблюдаем просто классную анимацию, как по мне. ![](https://habrastorage.org/getpro/habr/upload_files/6b1/a9a/fe3/6b1a9afe37c16250a009138cf6e6976d.gif)И без указания мира в конфиге. ![](https://habrastorage.org/getpro/habr/upload_files/50c/c76/f10/50cc76f10e6ad1226d3e3f980ca32854.gif)Можно посмотреть код этого плагина [в моем репозитории Github](https://github.com/zubovdev/VoidTeleport). Скачать можно последний релиз.
https://habr.com/ru/post/676248/
null
ru
null
# Эффективный email как суперсила рекрутера и эйчара История про рекрутера Марию --------------------------- Жила-была девушка Мария. Маша работала в рекрутинге вот уже 3 с хвостиком года. Она была опытным и смелым рекрутером, и закрывала за месяц около 4-5 вакансий уровня Middle/Senior. Соискатели и кандидаты очень любили Машу за ее искренность, честность, ответственность и персональный подход к каждому. А Маше, в свою очередь, нравилось общаться с людьми, помогать им, и, в свой черед, ежедневно узнавать что-то новое. Уже с первого рабочего дня Маша знала, как важно написать правильно первое письмо или сообщение в LinkedIn, и сделать эффективный, персонализированный "first touch". В ее понимании “first touch = first impression”.  `По опыту знаю, что без ответа остаются шаблонные и не персонализированные` `письма. На что обращаю внимание:` * `тема должна быть информативной — кратко передавать суть письма;` * `структура должна быть краткой, четкой и понятной;` * `и последнее обязательно "call to action", в надежде получить ответ :)` `— Яна Разумова, HRD в Bergx2` Человеку достаточно 10 секунд, чтобы понять, хочет ли он исследовать содержание письма, заводить диалог с собеседником, или же пройдет мимо.   82% соискателей отвечали Маше на email, сообщения в LinkedIn, а иногда и на Facebook. Половина из них с удовольствием соглашались на скрининг-интервью. И даже когда по итогу всех процессов выбрали не ее кандидата, Маша оставалась на связи со всеми соискателями, бережно храня новые контакты. Наступили сложные времена COVID-19, и компания, в которой Маша работала последние несколько лет, не выдержала кризис. Сотрудникам пришлось искать свое место под IT солнцем. Маша не стала исключением из правил.  И вот, в конце 2020, за пару недель до нового года Маша получила оффер в большую и прогрессивную продуктовую компанию с центральным офисом в США!  Ура! Новые вызовы, новые правила, новые устои, и новый режим: теперь вся коммуникация на английском, и все события — онлайн, знакомство с коллегами — в Zoom. Спустя пару рабочих дней Маше на почту пришло следующее письмо:  ![](https://habrastorage.org/getpro/habr/upload_files/db8/698/0d2/db86980d23fe8ac8e7c28f61fe8b2886)Как думаете, понравилось ли оно Маше? А вам?  Как бы вы оценили такой текст? Как бы ответили на него?  Возможно, написали бы его иначе или перефразировали?  И хоть все персонажи, ситуация и письмо выдуманы, ошибки очень даже реальны. Так что давайте перейдем от фантастики к реальности и попробуем разобраться, что же не так с текстом выше?  Письмо выглядит грамотным, структурированным и аккуратным. Можно поставить плюсы за: * пунктуацию, * Subject line, * приветствие и прощание, * ссылку на материалы. И все же есть моменты, на которые стоило бы обратить внимание.  ![](https://habrastorage.org/getpro/habr/upload_files/a42/9bc/62e/a429bc62e6271b913dc242e4f59e33a6)“Hi, Marina!" — составляете вы текст на английском, русском или же украинском, будьте внимательней с именами. Марина, возможно, была бы и рада получить такое дружественное письмо. А вот для Марии оно, скорее всего, было обидным. `Листи я формую або українською, або англійською. Якщо у другому варіанті все` `однозначно (як спеціаліст вказує себе в LinkedIn), то український правопис` `вирізняється правилами. Наприклад, у мене була ціла дискусія зі скріншотами з` `інженером Олегом. Кличний відмінок нового (від 2019 року) правопису диктує як` `архаїчне звертання "Олеже", так і "Олегу".` `— Люда Зюман, Recruiter в EvoTalents` “There are a few CVs” — конструкция there is / there are сбивает с толку читателя и отводит от главной мысли.  “Proposed” — можно случайно выйти замуж и даже не заметить этого. "Are seen / was opened / can be found" — пассивный залог в тексте приводит в замешательство. Кто и что должен сделать? Предложения с пассивным залогом — тяжелые, увесистые и трудно читаемы. "CVs can be found here" — ссылка — это хорошо. В то же время, она должна быть физически больше и заметней. Это поможет читателям открыть письмо на телефоне и спокойно увидеть, куда нужно нажимать. "Don't / might not" — два отрицания, одно за другим. Чем больше в письме или речи негативных слов, тем больше негативного отношения вызывает текст и человек. "Don't hesitate to drop a line to Lena" — реципиенту понадобится приложить дополнительные усилия, чтобы понять отправителя. Какое отношение “to drop a line” имеет к твоему отпуску? Что делать с этой информацией дальше?  "For a professional recruiter like you it won't be hard ;-)" и "Thanks in advance!" — со стороны это может выглядеть как скрытые за смайлами и эмодзи пассивно-агрессивные манипуляции. Лучше используйте "I appreciate your help."  “Subject: New tasks for the recruitment team” — хорошо, что есть subject line. В то же время, по нынешним стандартам лучше сократить его в два раза.  “Hi, Marina” та “Best regards!” — несоответствие неформального и делового стилей.  Когда вы хотите донести важную мысль или раскрыть щепетильный вопрос, обязательно перечитайте текст два-три раза помимо грамматической и орфографической проверок.  Письмо стоит отправлять только тогда, когда вы сами понимаете, что в нем написано, какой ответ или действие ожидаете от реципиента.  `Think, write, and think again.` `— Alexey Kovalenko, Managing Partner at Savvy` Но как выглядит хороший email? Предлагаю рассмотреть следующие 8 правил, и затем разберем каждое из них в деталях. 8 правил хорошего письма ------------------------ | | | --- | | **ХОРОШЕЕ ПИСЬМО ДОЛЖНО** | | быть ясным | одно письмо = одно дело | | быть коротким  | иметь subject line | | быть простым  | быть без грамматических ошибок | | иметь четкую структуру | иметь call to action  | ### Что такое ясное письмо? У письма должна быть цель. Не начинайте писать, пока не ответите себе на вопрос «Что я хочу получить от читателя в итоге?» Реципиенту важно понять, что от него требуют, прочтя написанное всего один раз. Для этого ставьте цели, составляйте текст, используйте короткие слова и сокращайте длинные предложения. `В бизнес-переписке важно помнить о том, с какой целью вы пишете, и уважать время` `вашего собеседника.` `1. Вы посылаете огромное сопроводительное письмо, и перегруженный` `подобными письмами рекрутер выбирает кандидата с письмом по сути.` `2. Вы копируете часть сообщения из другого источника и отправляете письмо с` `тремя разными не читаемыми шрифтами - и ваш собеседник закрывает сообщение без` `ответа, потому что это невозможно читать.` `3. Вы не заботитесь кратко очертить суть в теме письма, и ваше письмо теряется в` `почтовом ящике среди других “Re:Fwd:a quick question”.` `4. Вы не пишете в письме, чего именно ожидаете в ответ от собеседника - и` `переписка останавливается.` `Нам выгодно заботиться о человеке по другую сторону экрана, потому что это` `сделает переписку эффективнее. And it’s a nice thing to do :)` `— Саша Голубева, Internal Communications в Very Good Security` ### Какое письмо — короткое, а какое нет? Для стандартного делового письма будет достаточно 100 слов или 5 предложений. `Less than five sentences is often abrupt and rude, more than five sentences` `wastes time.` `—  Guy Kawasaki, a Silicon-Valley based author, speaker, entrepreneur, and` `evangelist` ### Каким должно быть простое письмо? Простое письмо состоит из простых, конкретных и четких фраз. Избегайте пассивного залога,  сложносочиненных и сложноподчиненных предложений, длинных слов и конструкций.  `У меня нет скриптов, всегда от человека иду. Но в целом — коротко и по делу.` `Если совсем ничего не знаю о человеке, просто здороваюсь, почему написала (что` `предлагаю) и интересно ли? Иногда прошу коллег, если знаю, что они знакомы,` `сделать интро.` `— Светлана Рыбалка, Recruiter в AB Games` ### А что по структуре? | | | | --- | --- | | Приветствие | Hello | | Персонализированная эмоция | Many thanks for your… | | Цель | I am writing to… | | Почему это важно | It is important because.. | | Call to action | Could you.. / It would help if you… | | Эмоция | I appreciate your help… | | Прощание | Best… | `В нашей деловой переписке чаще всего проблема в  отсутствие четкой структуры` `письма. Что выливается в бесконечные цепочки уточнений. Из-за того ли это, что` `мы все время спешим, или из-за только подрастающей культуры писать сообщения /` `письма из заботы о получателе…` `— Марина Попруженко, Recruiter в EvoTalents` ### Одно письмо = одно дело, но можно обо всем и сразу? “One thing at a time” или «Одно тело = одно дело» Каждое отправленное вами письмо должно быть посвящено только одному вопросу. Если вам нужно сообщить о чем-то еще, рассказать о другом проекте, или поделиться новостями — лучше составить новый текст. ### Особенности Subject line Первым делом — ясность и четкость, а креатив и сюжетная линия — потом.  Основатель компании Backlinko [Брайан Дин в своей статье писал](https://backlinko.com/email-outreach-study), что строки, где Subject line не превышает 36-50 символов (или 4-8 слов), имеют значительно больший процент открытий. [В 2021-м году](https://web.archive.org/web/20200315064333/http://emailclientmarketshare.com/) реципиенты будут читать имейлы в большинстве случае с iPhone. Он, в свою очередь, отображает 37-41 символ (примерно 4-7 слов) и затем обрезает строку. Итог прост: Subject line около 20 символов или из 4-х, 3-х, 2-х, или даже одного слова, увеличивает вероятность открытия и прочтения письма.  ### Какие основные правила построения Call to action? Главное — помнить о нем.  Вы уже прочитали выше, что сначала задайте себе вопрос “Что я хочу получить от читателя в итоге”. А следующие 4 подсказки помогут вам создать простой и четкий призыв к действию. 1. Что человеку нужно сделать? Начните с глагола: напиши, подготовь, спроси, заверши... 2. Используйте цифры. Так вы сделаете жизнь реципиента проще. 3. Поставьте крайний срок. Так вы предупредите о своих ожиданиях и дадитечеткие рамки, когда необходимо завершить задачу. 4. Давайте не больше двух вариантов. [Исследования в передаче Mind Field](https://www.youtube.com/watch?v=lmI7NnMqwLQ&list=PLZRRxQcaEjA4qyEuYfAMCazlL0vQDkIj2&index=5) показали: чем больше у человека вариантов для выбора, тем дольше он думает и сильнее расстраивается, если что-то вдруг пошло не так. А при наличии двух вариантов человек склонен принимать решение быстрее и уверенней. Bang! ----- Воспользуйтесь этим чек-листом, чтобы создать корректное письмо:  1. Прежде чем писать, подумайте, зачем вы составляете текст: что вы хотите, что человек должен сделать. 2. Заполните Subject line. В идеале — 3 и меньше слов, или до 20 символов. 3. Напишите текст соответственно структуре. 4. Отдельно проверьте его на call to action — поймет ли получатель, что от него требуется? 5. Правильно написали имя реципиента? 6. Проверьте все сообщение на корректность языка через сервисы (такие как Grammarly и  LanguageTool), словари и Google поиск. Сочетаются ли стиль начала и завершения друг с другом? 7. Перечитайте текст второй раз, как еще можно его сократить? 8. В случае если отправляете файлы, проверьте, прикрепили ли их? 9. Внесите в строку отправителя его почту. 10. Нажмите «отправить». И помните, каждое отправленное письмо — ваш личный #TheSmartWayofLearning. Ваша Марго Подлесная, PR Manager в Savvy
https://habr.com/ru/post/540576/
null
ru
null
# Оптимизация ресурсов в Android. Ускорение сборки и уменьшение размера APK > *Привет. Меня зовут*[*Кирилл Розов*](http://twitter.com/kirill_rozov)*и вы если вы интересуетесь разработкой под Android, то скорее всего слышали о*[*Telegram канале "Android Broadcast"*](https://t.me/android_broadcast)*, с ежедневными новостями для Android разработчиков, и*[*одноимённом YouTube канале*](http://youtube.com/androidBroadcast)*. Этот пост является текстовой расшифровкой*[*видео на канале*](https://youtu.be/4xdpIe7SXkc) > > Система ресурсов в Android очень богата своими возможностями, которые позволяет нам описывать строки, хранить картинки и различные значения. Одной из очень удобных возможностей является эффективное определение ресурсов для различных конфигураций устройства (через [квалификаторы](https://developer.android.com/guide/topics/resources/providing-resources#table2)): размера экрана, ориентации, локали, код оператора и множество другого. Есть в этом механизме узкое место для скорости сборки ваших проектов - R классы. Сегодня я расскажу вам откуда возникает такая проблема и как её решили в Google, разделив R классы. ### Что такое R класс Все ресурсы Android описываются в XML либо сохраняются файлами, например, drawable или raw ресурсы. Чтобы использовать ресурсы из кода, нам нужен какой способ ссылаться на них. Да, можно было бы хардкорно забивать строки в виде пути к ресурсу, как это сделано для ресурсов в JAR, но в Google сделали иной подход - генерация идентификаторов для каждого ресурса в коде. Для этого создаётся специальный R класс, который содержит вложенные классы по типам ресурсов: string, drawable, integer и др. После этого мы можем передавать идентификатор в специальные методы [Resources](https://developer.android.com/reference/android/content/res/Resources) или [Context](https://developer.android.com/reference/kotlin/android/content/Context) и получить необходимый ресурс. ### Почему ресурсы из библиотек попадают в R класс приложения Основной момент в R классе, то все подключенные Android Gradle модули или AAB файлы тоже могут содержать ресурсы и все их идентификаторы попадают в модуль, к которому они подключены. Это называется **транзитивный R класс**. Реализация этого аспекта была связана с удобством доступа ко всем ресурсам и отсутствием необходимости работы со множеством R файлов. Представьте как было бы организовывать доступ ко множеству R классов в Java коде? Пришлось бы использовать полные имена классов либо делать статические импорты для констант. ``` public class MainActivity extends AppCompatActivity { @Override protected void onCreate(@Nullable Bundle savedInstanceState) { super.onCreate(savedInstanceState) Resources resources = getResources(); resources.getString(R.string.app_name); resources.getAnimation(androidx.appcompat.R.anim.abc_fade_in); } } ``` С Kotlin ситуация совсем другая, так как есть именованные импорты, что позволяют управлять легче, но Kotlin появился не сразу в Android. ``` import org.example.Message import org.test.Message as TestMessage ``` Одна из причин появления префиксов у ресурсов в библиотеках - необходимость чтобы их имена были максимально уникальными, например в библиотеке Jetpack AppCompat для ресурсов используются префиксы abc ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/14b/fcb/a6d/14bfcba6d185a8a0b54262b778556a58.jpg)### Нетранзитивные R классы С одной стороны мы получили удобство, а с другой - проблему для скорости сборки проектов. Фактически при любом добавление ресурсу приходится генерировать R класс для вашего модуля, а затем смёржить его со R классами из зависимостей. Представьте какой размер R файла получается в app модуле? А что если попробовать разделить классы и управлять и генерировать R классы независимо друг от друга? И в Google это сделали. Назвали такую фичу - нетранзитивные R классы. Теперь к ресурсам каждой android зависимости создаётся свой независимый R класс, но это не будет распространяться на уже скомпилированные Android библиотеки. ### Преимущества К сожалению, у меня нету проекта, где я бы смог проверить эту фичу, но вот я пообщался с человеком, которые переводили свой проект на нетранзитивные R классы. Что за проект не могу рассказать, но он достаточно большой и с legacy. На экране вы можете видеть результаты по оптимизации и они улучшились по всем параметрам, начиная со скорости сборки, заканчивая размером приложения и файлов сборки. ![Результаты оптимизации на реальном большом проекте](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/d30/6d1/fe5/d306d1fe5cace96da281aaf69b4dd52f.jpg "Результаты оптимизации на реальном большом проекте")Результаты оптимизации на реальном большом проекте### Как перевести проект Я думаю что вас уже заинтересовала миграция. Чтобы это сделать вам необходимо в `gradle.properties` вашего проекта выставить в `true` значение property `android.nonTransitiveRClass` ``` # gradle.properties & Android Gradle Plugin 7.X android.nonTransitiveRClass=true ``` Также вам надо выполнить миграцию в коде, чтобы обращаться к ресурсам из зависимостей через их `R` класс. Для этого вам нужно либо использовать полные имена пакетов, либо использовать alias для импортов в Kotlin (надеюсь что вы уже с ним) ``` import dev.androidbroadcast.sample.R R.layout.activity_main // App Resources R.layout.abc_action_bar_up_container // AndroidX Appcompat ``` ``` import dev.androidbroadcast.sample.R import androidx.appcompat.R as AppCompatR R.layout.activity_main androidx.appcompat.R.layout.abc_action_bar_up_container // полное имя класса AppCompatR.layout.abc_action_bar_up_container // с помощью type alias ``` #### Автоматическая миграция на нетранзитивные R классы в Android Studio Проходится руками по всей кодовой базе сложно и никто не станет этого. Чтобы упростить это в Android Studio 2020.3 Arctic Fox [добавили возможность автоматической миграции](https://developer.android.com/studio/releases#refactor-nontransitive-rclasses). Одна кнопка, предпросмотр изменений и нажатие "Refactor" позволит вам получить преимущества, о которых я рассказал. --- В комментариях я буду рад услышать пробовали ли нетранзитивные R классы и какие у вас результаты оптимизации после миграции, а также если вы поделитесь опытом автоматической миграции с помощью Android Studio.
https://habr.com/ru/post/578154/
null
ru
null
# Обновлены Docker-образы с clickhouse-exporter и clickhouse_fdw Эта новость — о двух Open Source-решениях с непростой судьбой: clickhouse-exporter и clickhouse\_fdw. Именно открытость и сила сообщества помогли им выжить, несмотря на перипетии судьбы (смену разработчиков).  Нам же они были важны, поскольку оба используются в проектах, а недавно появился запрос на актуализацию их версий. Так на Docker Hub появились два новых образа: [clickhouse-exporter](https://hub.docker.com/r/flant/clickhouse-exporter) и [spilo](https://hub.docker.com/r/flant/spilo) (включает в себя clickhouse\_fdw). Они могут пригодиться тем, кто работает с ClickHouse в Docker или Kubernetes. А теперь — небольшие подробности о произошедшем. Новый clickhouse-exporter: метрики снова работают ------------------------------------------------- [clickhouse-exporter](https://github.com/ClickHouse/clickhouse_exporter/) — это простой сервер, который собирает статистику СУБД ClickHouse и экспортирует ее по HTTP в Prometheus. Если вы пользуетесь clickhouse-exporter, наверняка знаете, что этот проект уже дважды сменил владельца. Сначала им был [f1yegor](https://github.com/f1yegor), затем разработка продолжилась в рамках Percona Lab… и вот его приняли в организацию ClickHouse! Из-за всей этой неразберихи в Docker-образах exporter’а — код годичной или даже двухгодичной давности. В нем накопились баги разного рода, поэтому образы уже не работают с актуальной версией ClickHouse. В общем, с ними собирать метрики не получалось. Например, при попытке получить данные можно было увидеть сообщение об ошибках работы с таблицей `asynchronous_metrics`: ``` time="2021-04-08T13:08:26Z" level=info msg="Error scraping clickhouse: Error scraping clickhouse url http://default:*****@clickhouse-cluster:8123?query=select+metric%2C+value+from+system.asynchronous_metrics: strconv.Atoi: parsing \"2549.633\": invalid syntax" file=exporter.go line=292 time="2021-04-08T13:08:26Z" level=info msg="Starting Server: :9116" file="clickhouse_exporter.go" line=34 ``` Благо, [исправление](https://github.com/ClickHouse/clickhouse_exporter/pull/52) уже принято в актуальный на текущий момент репозиторий. Поэтому, взяв актуальный мастер-срез clickhouse-exporter на GitHub, мы упаковали его в [Docker-образ](https://hub.docker.com/r/flant/clickhouse-exporter). Проблем при работе с последней версией ClickHouse больше не замечено. ***NB:*** *номера релизов (в Docker Hub) выбраны нами случайно, так как в репозитории тегов нет.* Новый Spilo и как он связан с ClickHouse ---------------------------------------- Как вы, возможно, знаете, [Spilo](https://github.com/zalando/spilo) — это Open Source-решение от Zalando для создания устойчивого, высокодоступного кластера… *PostgreSQL*. Но при чем здесь ClickHouse? Дело в том, что мы уже некоторое время используем Spilo в сочетании с [clickhousedb\_fdw](https://github.com/Percona-Lab/clickhousedb_fdw) — это довольно редкая, но полезная утилита, которая обеспечивает связь PostgreSQL с ClickHouse *(«fdw» расшифровывается как «Foreign Data Wrapper»)*. С этим расширением можно в PostgreSQL использовать таблицы, экспортируемые из ClickHouse.  С clickhousedb\_fdw случилась история, аналогичная судьбе clickhouse-exporter: репозиторий, поддерживаемый изначально Percona Lab, давно не обновлялся. И к концу 2020 года у расширения накопилась масса проблем, которые разработчики не решают: нет поддержки актуальных релизов PostgreSQL, возникают сложности со сборкой даже на поддерживаемых версиях PostgreSQL, есть проблемы с различными типами данных и курсорами и т. д. В общем, учитывая еще и в принципе [сложную сборку clickhousedb\_fdw](https://medium.com/@rocsky/how-to-compile-and-install-clickhousedb-fdw-6f627f75e2aa), мы бы не рекомендовали его использовать. К счастью, есть форк, который можно рассматривать как альтернативу — это [clickhouse\_fdw](https://github.com/adjust/clickhouse_fdw) *(да, название отличается всего на 2 буквы)*. Его-то мы и включили в свою редакцию Spilo, актуальную версию которого [поддерживаем](https://habr.com/ru/company/flant/blog/520616/) уже давно (и для себя, и для клиентских проектов). Итак, [сборка](https://hub.docker.com/r/flant/spilo) Spilo с clickhouse\_fwd теперь тоже доступна публично. ### Вместо заключения Будем признательны за любую обратную связь, если для вас актуальны какие-то из этих образов. P.S. ---- Читайте также в нашем блоге: * «[Обзор операторов PostgreSQL для Kubernetes. Часть 1: наш выбор и опыт](https://habr.com/ru/company/flant/blog/520616/)»; * «[Аварии как опыт #1. Как сломать два кластера ClickHouse, не уточнив один нюанс](https://habr.com/ru/company/flant/blog/535638/)»; * «[Практические истории из наших SRE-будней. Часть 2](https://habr.com/ru/company/flant/blog/510486/)».
https://habr.com/ru/post/551564/
null
ru
null
# Методы Монте-Карло для марковских цепей (MCMC). Введение Привет, Хабр! Напоминаем, что ранее мы анонсировали книгу "[Машинное обучение без лишних слов](https://habr.com/ru/company/piter/blog/481332/)" — и теперь она уже [в продаже](https://www.piter.com/collection/new/product/mashinnoe-obuchenie-bez-lishnih-slov). Притом, что для начинающих специалистов по МО книга действительно может стать [настольной](https://storage.piter.com/upload/contents/978544611560/978544611560_X.pdf), некоторые темы в ней все-таки затронуты не были. Поэтому всем заинтересованным предлагаем перевод статьи Саймона Керстенса о сути алгоритмов [MCMC](https://en.wikipedia.org/wiki/Markov_chain_Monte_Carlo) с реализацией такого алгоритма на Python. [Методы Монте-Карло для марковских цепей](https://en.wikipedia.org/wiki/Markov_chain_Monte_Carlo) (MCMC) – это мощный класс методов для выборки из вероятностных распределений, известных лишь вплоть до некоторой (неизвестной) нормировочной константы. Однако прежде, чем углубиться в MCMC, давайте обсудим, зачем вам вообще может понадобиться делать такую выборку. Ответ таков: вам могут быть интересны либо сами образцы из выборки (например, для определения неизвестных параметров методом байесовского вывода), либо для аппроксимации ожидаемых значений функций относительно вероятностного распределения (например, для расчета термодинамических величин по распределению состояний в статистической физике). Иногда нас интересует только мода распределения вероятностей. В данном случае получаем ее методом числовой оптимизации, поэтому делать полную выборку не обязательно. Оказывается, что выборка из любых вероятностных распределений кроме самых примитивных – сложная задача. [Метод обратного преобразования](https://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BE%D0%B1%D1%80%D0%B0%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BF%D1%80%D0%B5%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F) – элементарный прием для выборки из вероятностных распределений, который, однако, требует использовать кумулятивную функцию распределения, а для ее использования, в свою очередь, нужно знать нормировочную константу, которая обычно неизвестна. В принципе, нормировочную константу можно получить методом численного интегрирования, но такой способ быстро становится неосуществимым при увеличении количества размерностей. [Выборка с отклонением](https://ru.wikipedia.org/wiki/%D0%92%D1%8B%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D1%81_%D0%BE%D1%82%D0%BA%D0%BB%D0%BE%D0%BD%D0%B5%D0%BD%D0%B8%D0%B5%D0%BC) не требует нормализованного распределения, но, чтобы эффективно ее реализовать, требуется очень много знать об интересующем нас распределении. Вдобавок, этот метод серьезно страдает от проклятия размерностей – это означает, что его эффективность стремительно падает с увеличением количества переменных. Именно поэтому нужно толково организовать получение репрезентативных выборок из вашего распределения – не требующих знать нормировочную константу. Алгоритмы MCMC – это класс методов, предназначенных именно для этого. Они восходят к [эпохальной статье Метрополиса и др.](https://pdfs.semanticscholar.org/7b3d/c9438227f747e770a6fb6d7d7c01d98725d6.pdf); Метрополис разработал первый MCMC-алгоритм, названный [в его честь](https://ru.wikipedia.org/wiki/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC_%D0%9C%D0%B5%D1%82%D1%80%D0%BE%D0%BF%D0%BE%D0%BB%D0%B8%D1%81%D0%B0_%E2%80%94_%D0%93%D0%B0%D1%81%D1%82%D0%B8%D0%BD%D0%B3%D1%81%D0%B0) и предназначенный для вычисления равновесного состояния двумерной системы жестких сфер. Фактически, исследователи искали универсальный метод, который позволил бы вычислять ожидаемые значения, встречающиеся в статистической физике. В этой статье будут рассмотрены основы выборки по MCMC. **МАРКОВСКИЕ ЦЕПИ** Теперь, когда мы понимаем, зачем нам делать выборку, перейдем к сердцу MCMC: марковским цепям. Что такое марковская цепь? Не вдаваясь в технические детали, можно сказать, что марковская цепь – это случайная последовательность состояний в некотором пространстве состояний, где вероятность выбора определенного состояния зависит только от текущего состояния цепи, но не от ее прежней истории: эта цепь лишена памяти. В определенных условиях марковская цепь имеет уникальное стационарное распределение состояний, к которому сходится, преодолев определенное количество состояний. После такого числа состояний состояния в марковской цепи получают инвариантное распределение. Для выборки из распределения ![](https://habrastorage.org/r/w1560/webt/wb/sl/yf/wbslyf0r1hu5bjl1gbu7pyr3u48.png) алгоритм MCMC создает и имитирует марковскую цепь, чье стационарное распределение равно ![](https://habrastorage.org/r/w1560/webt/wb/sl/yf/wbslyf0r1hu5bjl1gbu7pyr3u48.png); это означает, что после начального «затравочного» периода, состояния такой марковской цепи распределяются по принципу ![](https://habrastorage.org/r/w1560/webt/wb/sl/yf/wbslyf0r1hu5bjl1gbu7pyr3u48.png). Следовательно, нам придется всего лишь сохранить состояния, чтобы получить образцы из ![](https://habrastorage.org/r/w1560/webt/wb/sl/yf/wbslyf0r1hu5bjl1gbu7pyr3u48.png). В образовательных целях давайте рассмотрим как дискретное пространство состояний, так и дискретное «время». Ключевая величина, характеризующая марковскую цепь – это оператор перехода ![](https://habrastorage.org/r/w1560/webt/5q/fu/fx/5qfufxlugigeusphytdet38q580.png), указывающий вероятность нахождения в состоянии ![](https://habrastorage.org/r/w1560/webt/gs/gz/hz/gsgzhzrwlbmvbexpmq21j8u1dbu.png) в момент времени ![](https://habrastorage.org/r/w1560/webt/cj/ut/o7/cjuto7hmum9a2ki6gyy23a86jb0.png), при условии, что цепь находится в состоянии ![](https://habrastorage.org/r/w1560/webt/cj/ut/o7/cjuto7hmum9a2ki6gyy23a86jb0.png) во время `i`. Теперь просто для интереса (и в качестве демонстрации) давайте по-быстрому сплетем марковскую цепь, имеющую уникальное стационарное распределение. Начнем с некоторых импортов и настроек для графиков: ``` %matplotlib notebook %matplotlib inline import numpy as np import matplotlib.pyplot as plt plt.rcParams['figure.figsize'] = [10, 6] np.random.seed(42) ``` Марковская цепь будет обходить дискретное пространство состояний, образуемое тремя состояниями погоды: ``` state_space = ("sunny", "cloudy", "rainy") ``` В дискретном пространстве состояний оператор перехода – это просто матрица. В нашем случае столбцы и строки соответствуют солнечной, облачной и дождливой погоде. Выберем относительно разумные значения для вероятностей всех переходов: ``` transition_matrix = np.array(((0.6, 0.3, 0.1), (0.3, 0.4, 0.3), (0.2, 0.3, 0.5))) ``` В строках указаны состояния, в которых в настоящее время может находиться цепь, а в столбцах – состояния, в которые цепи могут перейти. Если взять «временной» шаг марковской цепи за один час, то, при условии, что сейчас солнечно, существует 60% вероятность, что солнечная погода сохранится в течение ближайшего часа. Также есть 30% вероятность, что в следующий час будет облачная погода, и 10%-я вероятность, что сразу же после солнечной погоды пойдет дождь. Это также означает, что значения в каждом ряду в сумме дают единицу. Давайте немного погоняем нашу марковскую цепь: ``` n_steps = 20000 states = [0] for i in range(n_steps): states.append(np.random.choice((0, 1, 2), p=transition_matrix[states[-1]])) states = np.array(states) ``` Можем наблюдать, как марковская цепь сходится к стационарному распределению, рассчитывая эмпирическую вероятность каждого из состояний как функцию длины цепи: ``` def despine(ax, spines=('top', 'left', 'right')): for spine in spines: ax.spines[spine].set_visible(False) fig, ax = plt.subplots() width = 1000 offsets = range(1, n_steps, 5) for i, label in enumerate(state_space): ax.plot(offsets, [np.sum(states[:offset] == i) / offset for offset in offsets], label=label) ax.set_xlabel("number of steps") ax.set_ylabel("likelihood") ax.legend(frameon=False) despine(ax, ('top', 'right')) plt.show() ``` ![](https://habrastorage.org/r/w1560/webt/vu/tg/xv/vutgxvc3lq1-sang725fmek1ibm.png) **РОДОНАЧАЛЬНИК ВСЕХ MCMC: АЛГОРИТМ МЕТРОПОЛИСА-ГАСТИНГСА** Конечно, все это очень интересно, но вернемся к процессу выборки произвольного вероятностного распределения ![](https://habrastorage.org/r/w1560/webt/r2/lm/5b/r2lm5bcuhr-rdtxeg90gjnogcza.png). Оно может быть либо дискретным, и в этом случае мы и далее будем говорить о матрице перехода ![](https://habrastorage.org/r/w1560/webt/sz/nh/au/sznhau4xxghwlc7ma-eixqb9jok.png), либо непрерывным, и в этом случае ![](https://habrastorage.org/r/w1560/webt/sz/nh/au/sznhau4xxghwlc7ma-eixqb9jok.png) будет переходным ядром. Здесь и далее речь пойдет о непрерывных распределениях, но все концепции, которые мы здесь рассмотрим, применимы и к дискретным случаям. Если бы мы смогли спроектировать переходное ядро таким образом, чтобы следующее состояние уже было выведено из ![](https://habrastorage.org/r/w1560/webt/r2/lm/5b/r2lm5bcuhr-rdtxeg90gjnogcza.png), то этим можно было бы и ограничиться, так как наша марковская цепь… непосредственно делала бы выборку из ![](https://habrastorage.org/r/w1560/webt/r2/lm/5b/r2lm5bcuhr-rdtxeg90gjnogcza.png). К сожалению, чтобы добиться этого, нам нужна возможность делать выборку из ![](https://habrastorage.org/r/w1560/webt/r2/lm/5b/r2lm5bcuhr-rdtxeg90gjnogcza.png), чего мы делать не можем – иначе вы бы этого не читали, верно? Обходной путь – разбить переходное ядро ![](https://habrastorage.org/r/w1560/webt/7_/os/ja/7_osja2wwom8x6f29sp5ecxnrwc.png) на две части: шаг проб (proposal step) и шаг приема/отбрасывания (acceptance/rejection step). На шаге проб фигурирует вспомогательное распределение ![](https://habrastorage.org/r/w1560/webt/qf/bl/m0/qfblm0cpxxgzun1zq6i9qv_zmfq.png), из которого выбираются возможные следующие состояния цепочки. Мы не только можем делать выборку из этого распределения, но и в силах произвольно выбирать само распределение. Однако, при проектировании следует стремиться прийти к такой конфигурации, в которой образцы, взятые из этого распределения, минимально коррелировали бы с актуальным состоянием и одновременно имели хорошие шансы пройти этап приема. Вышеуказанный этап приема/отбрасывания – вторая часть переходного ядра; на данном этапе корректируются ошибки, содержавшиеся в пробных состояниях, выбранных из ![](https://habrastorage.org/r/w1560/webt/dq/wo/ba/dqwoba_pfa-ktifmo9zviggtesm.png). Здесь вычисляется вероятность успешного приема ![](https://habrastorage.org/r/w1560/webt/hz/f4/rv/hzf4rviqapfrbg3mphv1na6kao0.png) и принимается проба ![](https://habrastorage.org/r/w1560/webt/gs/gz/hz/gsgzhzrwlbmvbexpmq21j8u1dbu.png) с такой вероятностью в качестве следующего состояния в цепи. Получение следующего состояния ![](https://habrastorage.org/r/w1560/webt/gs/gz/hz/gsgzhzrwlbmvbexpmq21j8u1dbu.png) из ![](https://habrastorage.org/r/w1560/webt/5q/fu/fx/5qfufxlugigeusphytdet38q580.png) тогда выполняется следующим образом: сначала пробное состояние ![](https://habrastorage.org/r/w1560/webt/gs/gz/hz/gsgzhzrwlbmvbexpmq21j8u1dbu.png) берется из ![](https://habrastorage.org/r/w1560/webt/qf/bl/m0/qfblm0cpxxgzun1zq6i9qv_zmfq.png). Затем оно принимается в качестве следующего состояния с вероятностью ![](https://habrastorage.org/r/w1560/webt/hz/f4/rv/hzf4rviqapfrbg3mphv1na6kao0.png) или отбрасывается с вероятностью ![](https://habrastorage.org/r/w1560/webt/cr/_w/sd/cr_wsdxfgphyie2qbzl977pvfgq.png), и в последнем случае актуальное состояние копируется и используется в качестве следующего. Следовательно, имеем ![](https://habrastorage.org/r/w1560/webt/ty/vg/w-/tyvgw-g_ij7vgrpzoxtt7t3enmw.png) Достаточным условием для того, чтобы марковская цепь имела ![](https://habrastorage.org/r/w1560/webt/r2/lm/5b/r2lm5bcuhr-rdtxeg90gjnogcza.png) в качестве стационарного распределения является следующее: переходное ядро должно подчиняться *детальному равновесию* или, как пишут в физической литературе, *микроскопической обратимости*: ![](https://habrastorage.org/r/w1560/webt/hf/bg/oy/hfbgoyr944ikp5ce_menl-sg0da.png). Это означает, что вероятность находиться в состоянии ![](https://habrastorage.org/r/w1560/webt/mt/2y/jr/mt2yjrl958wkwmuhsrpm3h-4uko.png) и перейти оттуда в ![](https://habrastorage.org/r/w1560/webt/4t/py/hc/4tpyhcj70euwoys5id2rrqxa_ac.png) должна быть равна вероятности обратного процесса, то есть, быть в состоянии ![](https://habrastorage.org/r/w1560/webt/4t/py/hc/4tpyhcj70euwoys5id2rrqxa_ac.png) и перейти в состояние ![](https://habrastorage.org/r/w1560/webt/mt/2y/jr/mt2yjrl958wkwmuhsrpm3h-4uko.png). Ядра перехода большинства MCMC-алгоритмов удовлетворяют этому условию. Для того, чтобы двухчастное ядро перехода подчинялось детальному равновесию, нужно правильно выбрать ![](https://habrastorage.org/r/w1560/webt/oc/hr/x1/ochrx15_pe9awrsow_fygffjego.png), то есть, добиться, чтобы оно позволяло корректировать любые асимметрии в потоке вероятностей от / до ![](https://habrastorage.org/r/w1560/webt/4t/py/hc/4tpyhcj70euwoys5id2rrqxa_ac.png) или ![](https://habrastorage.org/r/w1560/webt/mt/2y/jr/mt2yjrl958wkwmuhsrpm3h-4uko.png). Алгоритм Метрополиса-Гастингса использует критерий приемлемости Метрополиса: ![](https://habrastorage.org/r/w1560/webt/mh/dm/z2/mhdmz27voos90zkz5_-zexopsdc.png). А вот здесь начинается магия: ![](https://habrastorage.org/r/w1560/webt/r2/lm/5b/r2lm5bcuhr-rdtxeg90gjnogcza.png) известно нам только до константы, но это не имеет значения, поскольку данная неизвестная константа обнуляет выражение для ![](https://habrastorage.org/r/w1560/webt/oc/hr/x1/ochrx15_pe9awrsow_fygffjego.png)! Именно это свойство paccpacc обеспечивает работу алгоритмов, основанных на алгоритме Метрополиса-Гастингса, на ненормированных распределениях. Часто используются симметричные вспомогательные распределения с ![](https://habrastorage.org/r/w1560/webt/b2/ss/pz/b2sspzujgmdn_uwizxwjjokkg5w.png), и в таком случае алгоритм Метрополиса-Гастингса редуцируется до оригинального (менее общего) алгоритма Метрополиса, разработанного в 1953 году. В оригинальном алгоритме ![](https://habrastorage.org/r/w1560/webt/hd/3k/vq/hd3kvqg9l2jqltan97_gfmzutsi.png). В таком случае полное переходное ядро Метрополиса-Гастингса можно записать как ![](https://habrastorage.org/r/w1560/webt/tl/ic/rd/tlicrdfto9zvzlooid7cdt4ii-m.png). **РЕАЛИЗУЕМ АЛГОРИТМ МЕТРОПОЛИСА-ГАСТИНГСА НА PYTHON** Отлично, теперь, когда мы разобрались в принципе работы алгоритма Метрополиса-Гастингса, давайте перейдем к его реализации. Сначала установим логарифмическую вероятность того распределения, из которого собираемся делать выборку – без нормировочных констант; предполагается, что мы их не знаем. Далее работаем со стандартным нормальным распределением: ``` def log_prob(x): return -0.5 * np.sum(x ** 2) ``` Далее выбираем симметричное вспомогательное распределение. В целом, производительность алгоритма Метрополиса-Гастингса можно повысить, если включить во вспомогательное распределение уже известную вам информацию о том распределении, из которого вы хотите сделать выборку. Упрощенный подход выглядит так: берем текущее состояние `x` и выбираем пробу из ![](https://habrastorage.org/r/w1560/webt/tl/ic/rd/tlicrdfto9zvzlooid7cdt4ii-m.png), то есть, задаем некоторую величину шага `Δ` и переходим влево или вправо от нашего текущего состояния не более чем на ![](https://habrastorage.org/r/w1560/webt/q1/n2/d_/q1n2d_lbzpbqtvbmbgiha503cmo.png): ``` def proposal(x, stepsize): return np.random.uniform(low=x - 0.5 * stepsize, high=x + 0.5 * stepsize, size=x.shape) ``` Наконец, вычисляем вероятность того, что предложение будет принято: ``` def p_acc_MH(x_new, x_old, log_prob): return min(1, np.exp(log_prob(x_new) - log_prob(x_old))) ``` Теперь собираем все это вместе в по-настоящему краткую реализацию этапа построения выборки для алгоритма Метрополиса-Гастингса: ``` def sample_MH(x_old, log_prob, stepsize): x_new = proposal(x_old, stepsize) # здесь мы определяем, принимается новое состояние или нет: # мы равномерно выбираем случайное число из [0,1] и сравниваем # его с вероятностью успешного приема accept = np.random.random() < p_acc(x_new, x_old, log_prob) if accept: return accept, x_new else: return accept, x_old ``` Кроме следующего состояния в марковской цепи, `x_new` или `x_old`, мы также возвращаем информацию о том, был ли принят шаг MCMC. Это позволит нам отслеживать динамику приема проб. В заключение данной реализации напишем функцию, которая будет итеративно вызывать `sample_MH` и таким образом строить марковскую цепь: ``` def build_MH_chain(init, stepsize, n_total, log_prob): n_accepted = 0 chain = [init] for _ in range(n_total): accept, state = sample_MH(chain[-1], log_prob, stepsize) chain.append(state) n_accepted += accept acceptance_rate = n_accepted / float(n_total) return chain, acceptance_rate ``` **ТЕСТИРУЕМ НАШ АЛГОРИТМ МЕТРОПОЛИСА-ГАСТИНГСА И ИССЛЕДУЕМ ЕГО ПОВЕДЕНИЕ** Наверное, теперь вам не терпится увидеть все это в действии. Этим и займемся, примем несколько информированных решений об аргументах `stepsize` и `n_total`: ``` chain, acceptance_rate = build_MH_chain(np.array([2.0]), 3.0, 10000, log_prob) chain = [state for state, in chain] print("Acceptance rate: {:.3f}".format(acceptance_rate)) last_states = ", ".join("{:.5f}".format(state) for state in chain[-10:]) print("Last ten states of chain: " + last_states) Acceptance rate: 0.722 Last ten states of chain: -0.84962, -0.84962, -0.84962, -0.08692, 0.92728, -0.46215, 0.08655, -0.33841, -0.33841, -0.33841 ``` Все хорошо. Итак, это сработало? Мы добились принятия проб примерно в 71% случаев, и у нас есть цепочка состояний. Следует отбросить несколько первых состояний, в которых цепь еще не сошлась к своему стационарному распределению. Давайте проверим, на самом ли деле у выбранных нами состояний – нормальное распределение: ``` def plot_samples(chain, log_prob, ax, orientation='vertical', normalize=True, xlims=(-5, 5), legend=True): from scipy.integrate import quad ax.hist(chain, bins=50, density=True, label="MCMC samples", orientation=orientation) # вычисляем нормировочную константу нашего PDF if normalize: Z, _ = quad(lambda x: np.exp(log_prob(x)), -np.inf, np.inf) else: Z = 1.0 xses = np.linspace(xlims[0], xlims[1], 1000) yses = [np.exp(log_prob(x)) / Z for x in xses] if orientation == 'horizontal': (yses, xses) = (xses, yses) ax.plot(xses, yses, label="true distribution") if legend: ax.legend(frameon=False) fig, ax = plt.subplots() plot_samples(chain[500:], log_prob, ax) despine(ax) ax.set_yticks(()) plt.show() ``` ![](https://habrastorage.org/r/w1560/webt/yo/rx/59/yorx59lirnkyju_dymptouaaokw.png) Выглядит отлично! Что же с параметрами `stepsize` и `n_total`? Обсудим сначала размер шага: он определяет, насколько может быть удалено пробное состояние от текущего состояния цепи. Следовательно, это параметр вспомогательного распределения `q`, контролирующий, насколько велики будут случайные шаги, совершаемые цепью Маркова. Если размер шага слишком велик, то пробные состояния часто оказываются в хвосте распределения, где значения вероятности низкие. Механизм выборки Метрополиса-Гастингса отбрасывает большинство из этих шагов, вследствие чего темпы приема снижаются, и сходимость значительно замедляется. Убедитесь сами: ``` def sample_and_display(init_state, stepsize, n_total, n_burnin, log_prob): chain, acceptance_rate = build_MH_chain(init_state, stepsize, n_total, log_prob) print("Acceptance rate: {:.3f}".format(acceptance_rate)) fig, ax = plt.subplots() plot_samples([state for state, in chain[n_burnin:]], log_prob, ax) despine(ax) ax.set_yticks(()) plt.show() sample_and_display(np.array([2.0]), 30, 10000, 500, log_prob) Acceptance rate: 0.116 ``` ![](https://habrastorage.org/r/w1560/webt/0g/4-/-r/0g4--rezypxzaqta-pkugq3gi3w.png) Не очень круто, правда? Теперь кажется, что лучше всего задать крошечный размер шага. Оказывается, что и это не слишком умное решение, поскольку марковская цепь станет исследовать вероятностное распределение очень медленно, и поэтому также не станет сходиться настолько быстро, как с хорошо подобранным размером шага: ``` sample_and_display(np.array([2.0]), 0.1, 10000, 500, log_prob) Acceptance rate: 0.992 ``` ![](https://habrastorage.org/r/w1560/webt/bf/qh/xi/bfqhxistqravnn7xug43ubowgmu.png) Независимо от того, как вы выберете параметр размера шага, марковская цепь в конце концов сойдется к стационарному распределению. Но на это может потребоваться мноооого времени. Время, в течение которого мы будем симулировать марковскую цепь, задается параметром `n_total` — он просто определяет, сколько состояний марковской цепи (и, следовательно, выбранных образцов) у нас в итоге будет. Если цепь сходится медленно, то требуется увеличить `n_total`, чтобы марковская цепь успела «забыть» исходное состояние. Поэтому оставим размер шага крошечным и увеличим количество образцов, нарастив параметр `n_total`: ``` sample_and_display(np.array([2.0]), 0.1, 500000, 25000, log_prob) Acceptance rate: 0.990 ``` ![](https://habrastorage.org/r/w1560/webt/fs/ba/27/fsba27vppyvfqnwdnnr0ifdp3w4.png) Мееееедленно идем к цели… **ВЫВОДЫ** Учитывая все вышеизложенное, надеюсь, теперь вы интуитивно уловили суть алгоритма Метрополиса-Гастингса, его параметров, и понимаете, почему это исключительно полезный инструмент для выборки из нестандартных вероятностных распределений, которые могут встретиться вам на практике. Настоятельно рекомендую вам самим поэкспериментировать с кодом, приведенным [здесь](https://github.com/tweag/blog-resources/blob/master/mcmc-intro/mcmc_introduction.ipynb) – так вы освоитесь с поведением алгоритма в различных обстоятельствах и глубже его поймете. Попробуйте несимметричное вспомогательное распределение! Что будет, если не настроить критерий приема как следует? Что произойдет, если попытаться сделать выборку из бимодального распределения? Можете ли придумать способ автоматической настройки размера шага? Какие здесь есть подводные камни? Ответьте на эти вопросы самостоятельно!
https://habr.com/ru/post/491268/
null
ru
null
# OS X, Vagrant и Parallels Desktop. Строим свои коробки с помощью veewee В этой заметке я хочу поделиться своим опытом по созданию свой Vagrant boxes в OS X с системой виртуализации Parallels Desktop. Если есть интерес, добро пожаловать под cut. Про [Vagrant](http://www.vagrantup.com) и [Chef](http://www.getchef.com) yже был неплохой пост: [Development Environment при помощи Vagrant и Chef](http://habrahabr.ru/post/178797/). Однако, если вы, как и я, используете Parallels Desktop, возникает проблема. Дело в том, что Parallels и VirtualBox не могут быть запущены одновременно. Поэтому можно воспользоваться провайдером виртуальных машин [vagrant-parallels](https://github.com/Parallels/vagrant-parallels). Процедура установки и использования довольно подробно описана на странице плагина на Github, но я, на всякий случай продублирую процесс. Лично я для устанрвки разнообразных полезных приложений использую [Homebrew](http://brew.sh) — им и воспользуемся. ``` eric@Copoka-3 ~> brew tap phinze/cask eric@Copoka-3 ~> brew cask install vagrant eric@Copoka-3 ~> vagrant plugin install vagrant-parallels ``` В общем-то, все готово для работы. Не хватает самой мелочи — собственно box'ов. На сайте с плагином есть ссылка на devbox, но нам же хочется чего-то более разнообразного и своего. И тут на сцену выходит [veewee](https://github.com/jedi4ever/veewee). К сожалению, готового пакета veewee нет, поэтому будем собирать сами. Чтобы не зосорять систему лишними gem'ами, установим [rvm](https://rvm.io): ``` eric@Copoka-3 ~> \curl -sSL https://get.rvm.io | bash -s stable eric@Copoka-3 ~> rvm install 2.1.0 eric@Copoka-3 ~> rvm use 2.1.0 ``` Ruby готов. Теперь собственно veewee: ``` eric@Copoka-3 ~> cd Work eric@Copoka-3 ~/Work> git clone https://github.com/jedi4ever/veewee.git eric@Copoka-3 ~/Work> cd veewee eric@Copoka-3 ~/W/veewee> rvm use 2.1.0@veewee --create eric@Copoka-3 ~/W/veewee> gem install bundler --no-ri --no-rdoc eric@Copoka-3 ~/W/veewee> bundle install eric@Copoka-3 ~/W/veewee> rake install ``` Теперь, чтобы начать создавать ящики, нужно установить Parallels SDK, скачав его по ссылке [SDK](http://download.parallels.com//desktop/v9/pde.hf1/ParallelsVirtualizationSDK-9.0.24172.951362.dmg) Скачали, установили, можно приступать. ``` eric@Copoka-3 ~> cd Work eric@Copoka-3 ~/Work> mkdir boxes eric@Copoka-3 ~/Work> cd boxes ``` Для создания ящика предлагается воспользоваться шаблоном. Список шаблонов можно получить так: ``` eric@Copoka-3 ~/W/boxes> veewee parallels templates ``` Список довольно большой, приводить не буду. Для наших целей воспользуемся старой доброй Ubuntu 12.04 LTS: ``` eric@Copoka-3 ~/W/boxes> veewee parallels define 'precise64' 'ubuntu-12.04.3-server-amd64' ``` Дальше нам предлагается запустить сборку командой `veewee parallels build`, однако нас постигнет неудача. Хотя, казалось бы, мы использовали шаблон для работы с parallels, данный шаблон пытается установить guest tools для VirtualBox и VMWare, но ничего не знает про Parallels. Исправим этот недостаток: ``` eric@Copoka-3 ~/W/boxes> cd definitions/precise64/ eric@Copoka-3 ~/W/b/d/precise64> ``` Здесь необходимо создать файл `parallels.sh` со следующим содержимым (я подсмотрел в шаблоне для ubuntu-13.10-server-amd64, но там другая проблема, расскажу позже): ``` # Install the Parallels Tools PARALLELS_TOOLS_ISO=prl-tools-lin.iso mount -o loop $PARALLELS_TOOLS_ISO /media/cdrom /media/cdrom/install --install-unattended-with-deps --progress umount /media/cdrom ``` Затем редактируем `definition.rb`, убираем из списка `postinstall_files` упоминания про virtualbox и vmfusion, и добавляем `parallels.sh`. Вот теперь можно приступать: ``` eric@Copoka-3 ~/W/b/d/precise64> cd ../.. eric@Copoka-3 ~/W/boxes> veewee parallels build precise64 ``` Можно сходить пообедать, процесс довольно длительный. В конце концов все благополучно завершится и мы увидим примерно следующее: ``` ...много-много букв... The box precise64 was built successfully! You can now login to the box with: ssh -o UserKnownHostsFile=/dev/null -o StrictHostKeyChecking=no -p 22 -l vagrant 10.211.55.7 eric@Copoka-3 ~/W/boxes> ``` На этом этапе можно зайти на машину (пароль `vagrant`), убедиться, что все нормально, что-нибудь добавить (например поддержку русского). После того, как мы убедились, что все установлено как надо, можно упаковать в коробку для Vagrant. Но тут нас поджидает еще один подводный камень. При попытке сделать экспорт получаем следующую ошибку: ``` Error: We executed a shell command and the exit status was not 0 - Command :prl_disk_tool compact --buildmap --hdd /Users/eric/Documents/Parallels/precise64.pvm/harddisk.hdd. - Exitcode :2. - Output : Operation progress 5 %Unable to compact the disk. ``` Это известная [ошибка](https://github.com/jedi4ever/veewee/issues/856), для ее решения нужно закомментировать строчку `optimize_disk` в файле `gems/veewee-0.3.12/lib/veewee/provider/parallels/box/export.rb` (относительно используемой версии gemset'а) — у меня это была 69-я строка. После этого экспорт отработает штатно, и в текущем каталоге мы увидим наш заветный ящик: ``` eric@Copoka-3 ~/W/boxes> ll total 1252512 drwxr-xr-x+ 3 eric staff 102B 20 фев 17:44 definitions drwxr-xr-x+ 4 eric staff 136B 20 фев 17:39 iso -rw-r--r--+ 1 eric staff 612M 20 фев 18:46 precise64.box eric@Copoka-3 ~/W/boxes> ``` Добавляем его в копилку: ``` eric@Copoka-3 ~/W/boxes> vagrant box add 'precise64' '/Users/eric/Work/boxes/precise64.box' ``` Теперь выбираем место для тестового запуска и стартуем получившийся ящик: ``` eric@Copoka-3 ~/W/boxes> cd ~/Work eric@Copoka-3 ~/Work> mkdir testbox eric@Copoka-3 ~/Work> cd testbox eric@Copoka-3 ~/W/testbox> vagrant init precise64 eric@Copoka-3 ~/W/testbox> vagrant up --provider=parallels eric@Copoka-3 ~/W/testbox> vagrant ssh Welcome to Ubuntu 12.04.4 LTS (GNU/Linux 3.8.0-29-generic x86_64) * Documentation: https://help.ubuntu.com/ Last login: Thu Feb 20 18:33:11 2014 from 10.211.55.2 vagrant@precise64:~$ ``` Что и хотели получить. Теперь про Ubuntu 13.10. Там шаблон практически не требует изменений, надо только в `definition.rb` раскомментировать строчку для Parallels и, соответственно, закомментировать VirtualBox. Дальше все точно также. Тем не менее, при попытке сделать `vagrant up` нашего ящика с 13.10 происходит таймаут ожидания запуска машины, хотя машина успешно стартует. Связано это с ошибкой драйверов Parallels для Linux. Parallels знает об этой ошибке и обещает в ближайшем обновлении ее исправить. Прочитать об этом можно на [vagrant-parallels issue tracker](https://github.com/Parallels/vagrant-parallels/issues/58) В качестве временного решения предлагается, в момент запуска, помочь vagrant руками: зайти в машину с консоли и перезапустить dhclient на eth0. Надеюсь, мои несколько сумбурные заметки кому-нибудь пригодятся, и позволят съекономить время.
https://habr.com/ru/post/213351/
null
ru
null
# Как и зачем разворачивать приложение на Apache Spark в Kubernetes ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6f3/ad4/53e/6f3ad453e1ceaba92c95daf0e1add755.png)Для частого запуска Spark-приложений, особенно в промышленной эксплуатации, необходимо максимально упростить процесс запуска задач, а также уметь гибко настраивать их конфигурации. В этом может помочь Kubernetes: он позволяет решать задачи изоляции рабочих сред, гибкого управления ресурсами и масштабирования. Но порог входа в Kubernetes для Data Scientists все еще остается высоким. Мы хотим помочь в работе с непростой технологией, поэтому покажем, как можно быстро развернуть Spark внутри Kubernetes и запустить в нем свое приложение. Я Александр Волынский, архитектор [облачной платформы Mail.ru Cloud Solutions](https://mcs.mail.ru/). В этой статье мы вместе: 1. Запустим [кластер Kubernetes](https://mcs.mail.ru/containers/) и подготовим его для работы со Spark: установим на нем Spark Operator. 2. Запустим в Spark простое приложение, которое считает число пи. Обычно на этом заканчиваются инструкции в интернете, но мы пойдем дальше и попробуем более интересные вещи. 3. Обернем приложение в Docker-образ и добавим в него необходимые зависимости. Так вы научитесь добавлять в образ нужные вам библиотеки. 4. Запустим приложение из этого образа, проверим логи и результаты работы. В процессе вы научитесь основам отладки приложений в Kubernetes. 5. Установим Spark History Server и перенаправим в него логи приложения, чтобы они были доступны даже после уничтожения пода. Но прежде чем перейти к практической части, посмотрим, какие преимущества можно получить, если развернуть Spark в Kubernetes. > Если вы предпочитаете видеоинструкцию, можете посмотреть [вебинар «Разворачиваем приложение на Apache Spark в Kubernetes. Пошаговый рецепт»](https://www.youtube.com/watch?v=fYGc4elKW-g). > > ### Почему стоит запускать Spark именно в Kubernetes Все больше специалистов в Data Science и Data Engineering используют контейнеры в ежедневной работе. Это позволяет разделять рабочие среды, упрощает миграцию из On-premise в облако и обратно. Используя Kubernetes и контейнеры, вы приближаетесь к Cloud Native. Перечислим, какие основные преимущества дает запуск Spark внутри Kubernetes: 1. **Изоляция сред**. В традиционном развертывании в Hadoop-кластере есть проблема версионности Spark. Если вам необходимо перейти на новую версию Spark, то это добавляет проблем командам администрирования и Data Science. Администраторам нужно организовать бесшовный апгрейд кластера, а дата-инженерам нужно проверить все свои пайплайны и убедиться, что они будут правильно работать в новой версии. Используя Spark в Kubernetes, вы решаете эту проблему. Потому что каждый член команды может создать себе отдельное окружение, которое будет работать в независимом контейнере, упаковать в него Spark-приложение со всем кодом и любыми зависимостями. Можно использовать любую версию Spark, любые зависимости и никому не мешать. 2. **Управление ресурсами**. Kubernetes позволяет накладывать ограничения ресурсов на разные приложения и разные типы пайплайнов, например, используя Namespace. 3. **Гибкое масштабирование**. Kubernetes в облаке умеет задействовать огромное количество ресурсов на то время, когда они реально используются. Допустим, ваше приложение обычно использует 10 ядер процессора, но иногда для сложной обработки ему нужно 500 или 1000 ядер. В этом случае вам нужно подключить функцию автомасштабирования кластера. Тогда, если ваше приложение запросит 500 ядер, облако их выделит. А когда приложение перестанет генерировать такую нагрузку, ненужные ресурсы автоматически вернутся в облако. 4. **Разделение Storage и Compute-слоев**. В Hadoop-кластере каждая нода является и Storage, и Compute. Если для приложения нужно добавить больше ядер, то приходится добавлять новую ноду, которая также добавляет и диски, за которые надо платить. Аналогично, если закончилось место на дисках: CPU хватает, но мы все равно добавляем лишнюю ноду. Облако позволяет разделить Storage и Compute-слои: Kubernetes выступает в роли Compute, а объектное S3-хранилище в роли Storage. Но даже если вы не хотите использовать S3, Kubernetes позволяет реализовать комбинированный сценарий. Вы можете использовать Hadoop-кластер как обычно, но в моменты пиковых нагрузок запускать Spark в Kubernetes, чтобы использовать его ресурсы. 5. **Повышение эффективности использования ресурсов**. Если у вас уже есть рабочий кластер Kubernetes, то его можно использовать, чтобы поднять Spark или любое другое приложение. При этом не придется создавать новый кластер. ### Способы запуска Spark в Kubernetes Spark можно запускать в Kubernetes, начиная с версии 2.3, которая вышла в 2018 году. До недавнего времени это была экспериментальная возможность, но недавно вышла версия Spark 3.1.1, в которой эта возможность [доведена до production-ready](http://spark.apache.org/docs/latest/running-on-kubernetes.html). Это означает, что Spark полностью готов к запуску в Kubernetes. В вебинаре мы еще использовали версию 3.0.1. Spark можно запускать в Kubernetes двумя способами: 1. **Spark-submit**, это Spark-Native путь. Вы используете spark-submit, задаете, как обычно, все параметры, а в качестве менеджера ресурсов указываете Kubernetes. В этом случае в момент spark-submit внутри Kubernetes создастся под, на котором сначала разместится Driver. Далее этот Driver будет напрямую взаимодействовать с API Kubernetes и создавать Executor по указанным параметрам. При этом Kubernetes не будет знать, что внутри него работает именно Spark, для него это будет просто еще одно приложение. 2. **Kubernetes Operator for Spark**, это Kubernetes-Native путь. В этом случае Kubernetes понимает, что внутри него работает Spark. При этом вы получаете более удобный доступ к логам, текущему состоянию Job и статусу приложения. Мы рекомендуем использовать именно этот способ. ### Производительность и особенности работы Spark в Kubernetes Для управления ресурсами и планирования приложений в Spark часто используют Yarn. Долгое время Spark в Kubernetes существенно отставал по скорости и эффективности от Spark в Yarn. Но на текущий момент производительность практически выровнялась. Yarn остается быстрее в среднем на 4–5%. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/677/e21/cf6/677e21cf6b32125161ae5d3bc863393d.jpg)![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/2cc/b6a/61c/2ccb6a61ca7f9cc83b7d11bd3af09dc1.jpg)[*Источник изображений*](https://www.datamechanics.co/blog-post/apache-spark-performance-benchmarks-show-kubernetes-has-caught-up-with-yarn) Но здесь нужно отметить, что для тестирования использовались локальные SSD-диски. Производительность Spark в облачном Kubernetes будет ниже из-за того, что мы используем S3 и доступ к данным осуществляется по сети. S3-хранилище позволяет разделить storage и compute слои, а также неограниченно масштабируется под любой объем данных. Но доступ к ним будет медленнее из-за сетевой задержки, тогда как в классическом Hadoop-кластере приложения размещаются рядом с данными, поэтому там минимальные задержки на передачу данных. Другой момент заключается в том, что Spark в процессе работы активно использует диски для сохранения промежуточного состояния — spill-файлов. Тип используемого диска существенно влияет на производительность. На нашей облачной платформе доступны разные типы дисков: HDD, SSD, High-iOps SSD и сверхбыстрые Low-latency NVMe. Для того чтобы получить максимум от Spark в Kubernetes, стоит использовать самые производительные Low-latency NVMe. Но в любом случае при прочих равных Spark в Kubernetes будет работать медленнее, чем в классическом Hadoop-кластере. Однако если Hadoop-кластер перегружен, то Kubernetes может обогнать его. Облако позволяет получить огромное количество ресурсов и быстро обработать данные. А загруженный Hadoop-кластер будет долго обрабатывать данные, несмотря на то, что задержка на передачу данных минимальна. Для увеличения производительности в качестве диска для spill-файлов можно подключить оперативную память. При этом нужно понимать, что если spill-файлы будут слишком большими, то Spark может упасть. Поэтому нужно знать, как работает ваше приложение, какие оно обрабатывает данные и какие совершает операции. Еще один момент: Kubernetes потребляет часть ресурсов ноды для своих служебных целей. Поэтому если создать ноду, например, с 4 ядрами и 16 Гб оперативной памяти, то Executor не сможет использовать все эти ресурсы. Best practice — выделять для Executor 75–85% от объема ресурсов, либо смотреть по конкретной ситуации. Еще стоит упомянуть о Dynamic Allocation. В Hadoop он работает за счет того, что там есть External Shuffle Service. Эти промежуточные файлы сохраняются не на самих Executor. А в Kubernetes они сохраняются на Executor, и мы не можем уничтожить те Executor, которые содержат эти shuffle-файлы. То есть в Kubernetes можно активировать Dynamic Allocation, но он будет не такой эффективный, как в Hadoop. Над этим ведется работа, и, возможно, в следующих версиях Spark появится External Shuffle Service, в том числе и для Spark в Kubernetes. ### Инструкция по установке и настройке Spark в Kubernetes Для вебинара мы [подготовили репозиторий](https://github.com/stockblog/webinar_spark_k8s). Там описаны все шаги, перечислены основные команды и есть все файлы, которые мы будем использовать далее при сборке собственного приложения. Также там есть множество ссылок для дополнительного самостоятельного изучения. #### Шаг 1: создаем кластер Kubernetes Переходим к практической части. Сначала нам необходимо развернуть кластер Kubernetes. Мы будем делать это на нашей облачной платформе Mail.ru Cloud Solutions. Заходим в панель MCS и создаем [кластер Kubernetes](https://mcs.mail.ru/containers/). Кластер можно создать в разных конфигурациях, выбираем «Другое», это позволит гибко задать параметры ресурсов. Также выбираем два предустановленных сервиса: мониторинг на базе Prometheus/Grafana и Ingress Controller. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/fea/569/320/fea569320a512120c4a5c354d1189a62.jpg)Далее выбираем конфигурацию кластера. Задаем имя кластера и тип виртуальной машины: 4 ядра и 8 Гб оперативной памяти. Можно выбрать и меньше, но для надежности рекомендуем такие значения. Выберем диск размером 200 Гб. Также отметим опцию «Назначить внешний IP», чтобы можно было управлять кластером через интернет. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e6a/8f6/979/e6a8f6979472748f53ad9f1a2a61b549.jpg)На следующем шаге указываем параметры для группы узлов. Также выберем 4 ядра и 8 Гб оперативной памяти, размер диска 200 Гб. Включим автомасштабирование, укажем максимальное количество узлов — 10. Это нужно, чтобы при возрастании нагрузки облако автоматически добавило к кластеру ноды, а после спада нагрузки автоматически их забрало. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/752/e01/460/752e01460dc93a8de02112fe0f61eb13.jpg) > Если у вас возникнут сложности, вот [полная инструкция](https://mcs.mail.ru/help/ru_RU/k8s-start/create-k8s) по созданию кластера Kubernetes. > > #### Шаг 2: скачиваем Spark Все дальнейшие действия мы будем проводить в виртуальной машине с ОС Ubuntu. Мы не будем подробно описывать процесс создания и подготовки ВМ. Вот что вам нужно будет подготовить: 1. [Создайте виртуальную машину с ОС Ubuntu 18.04](https://mcs.mail.ru/help/ru_RU/create-vm/vm-quick-create). 2. [Установите kubectl](https://mcs.mail.ru/help/ru_RU/k8s-start/connect-k8s#section-2). 3. [Импортируйте конфигурационный файл](https://mcs.mail.ru/help/ru_RU/k8s-start/connect-k8s#section-9), который вы получили после создания кластера. 4. [Установите docker](https://mcs.mail.ru/help/ru_RU/cases-gitlab/case-docker). 5. [Установите helm](https://helm.sh/docs/intro/install/). Также вы можете развернуть все это на своей машине. Теперь нам необходимо скачать Spark. Переходим на [официальный сайт](https://spark.apache.org/downloads.html), выбираем версию 3.0.1 и сборку под Hadoop 3.2. Нажимаем на ссылку Download Spark. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/f53/987/1dc/f539871dcf73b7ee3cb4ccbe622decc1.jpg)**Примечание**: мы проверяли работоспособность именно на версии 3.0.1, а сейчас уже доступны 3.0.2 и 3.1.1. Мы их не проверяли, но думаем, что проблем с ними быть не должно. Далее распаковываем скачанный архив: ``` tar -xvzf spark-3.0.1-bin-hadoop3.2.tgz ``` Откроем файл `~/.profile` на редактирование и добавим в него несколько переменных: ``` export SPARK_HOME=~/spark-3.0.1-bin-hadoop3.2 alias spark-shell=”$SPARK_HOME/bin/spark-shell ``` Этим мы задаем переменную `SPARK_HOME`, для того чтобы быстро получить доступ к директории со Spark. Также создаем alias для запуска Spark Shell. У меня еще задана переменная `KUBECONFIG`, для того чтобы kubectl мог работать с кластером Kubernetes. Чтобы не перелогиниваться, применим файл явно: ``` source ~/.profile ``` #### Шаг 3: устанавливаем Spark Operator Для установки Spark Operator мы воспользуемся Helm. Сначала добавим репозиторий: ``` helm repo add spark-operator https://googlecloudplatform.github.io/spark-on-k8s-operator ``` Далее установим Spark Operator: ``` helm install my-release spark-operator/spark-operator --namespace spark-operator --create-namespace --set sparkJobNamespace=default --set webhook.enable=true ``` Мы добавили параметр `--set webhook.enable=true` для того, чтобы Spark Operator мог изменять поды, монтировать к ним секреты, ConfigMap и так далее. Далее нам нужно создать service account role и role binding: ``` #create service account, role and rolebinding for spark cat < ``` Проверяем Namespaces: ``` kubectl get ns ``` Видим, что появился Namespace `spark-operator`: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/f6a/099/562/f6a099562c18e7f9ab483be9bd38426c.jpg)Теперь запустим демо-приложение, которое считает число π. Для этого мы возьмем репозиторий от Google, где уже есть это приложение: ``` git clone https://github.com/GoogleCloudPlatform/spark-on-k8s-operator spark-operator ``` Чтобы запустить приложение, применим YAML-файл: ``` kubectl apply -f spark-operator/examples/spark-pi.yaml ``` Проверим, что под создается: ``` kubectl get pods ``` Мы видим, что под создается и находится в статусе ContainerCreating: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/91d/6d0/37b/91d6d037bbbcef0e71997ba4d49b2138.jpg)Теперь посмотрим логи этого пода: ``` kubectl logs spark-pi-driver | grep 3.1 ``` Мы видим, что приложение отработало и посчитало число π: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e72/f08/5f7/e72f085f79e1c28579d9abfc9a1c75dc.jpg)Также через Kubernetes мы можем получить список всех Spark-приложений. Это возможно потому, что мы использовали Spark Operator. Kubernetes знает о том, что в нем работает новый тип ресурсов — spark applications. Итак, получим список всех Spark-приложений: ``` kubectl get sparkapplications.sparkoperator.k8s.io ``` В нашем случае это только одно приложение: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/42e/473/4eb/42e4734eb8f25275685e8cdf38dad4f1.jpg)Теперь посмотрим различную информацию по этому приложению. Это опять же возможно благодаря Spark Operator: ``` kubectl describe sparkapplications.sparkoperator.k8s.io spark-pi ``` Тут мы видим запрошенные ресурсы для Driver и Executor. Также видим образ, который использовался для запуска демо-приложения. И также видим, что мы запускаем приложение типа Scala (еще поддерживаются Python и R): ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/369/61f/880/36961f8801c1471827c6e96b6002e25c.jpg)Ниже видим, какие стадии проходило приложение: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/127/bcb/177/127bcb1778a9f1db9a669259ca49b1a9.jpg)#### Шаг 4: собираем Docker-образ, запускаем свое приложение Далее мы будем собирать Docker-образ с собственным приложением. Для этого мы [подготовили репозиторий](https://github.com/stockblog/webinar_spark_k8s/), клонируем его: ``` git clone https://github.com/stockblog/webinar_spark_k8s/ webinar_spark_k8s ``` Теперь нам нужно перенести из этого репозитория папку`custom_jobs` в директорию `$SPARK_HOME:` ``` mv webinar_spark_k8s/custom_jobs/ $SPARK_HOME ``` Это нужно, чтобы для сборки образа мы могли использовать утилиту `docker-image-tool`, которая поставляется вместе со Spark. Она устроена так, что внутрь Docker-context помещает только те файлы и папки, которые находятся внутри `$SPARK_HOME`. Одно из предназначений этой утилиты — минимизировать размер образа. Но также вы можете собрать собрать образ без нее, просто используя Docker. Далее мы рассмотрим два простых приложения. Первое читает данные из бакета — выводит 10 первых строк датасета для ознакомления, а второе копирует датасет в другой бакет. Для этого нам понадобятся credentials для доступа к бакету, а также пути к ним. Если у вас еще нет S3-хранилища, вы [можете создать его](https://mcs.mail.ru/help/ru_RU/s3-start/create-bucket) на платформе Mail.ru Cloud Solutions. Сначала создадим Secret, в нем будут храниться credentials. Вместо `PLACE_YOUR_S3_CRED_HERE` подставьте ваши данные: ``` kubectl create secret generic s3-secret --from-literal=S3_ACCESS_KEY='PLACE_YOUR_S3_CRED_HERE' --from-literal=S3_SECRET_KEY='PLACE_YOUR_S3_CRED_HERE' ``` Теперь создадим ConfigMap, в котором хранятся пути до бакетов. Вместо `S3_PATH` и `S3_WRITE_PATH` подставьте ваши данные: ``` kubectl create configmap s3path-config --from-literal=S3_PATH='s3a://s3-demo/evo_train_new.csv' --from-literal=S3_WRITE_PATH='s3a://s3-demo/write/evo_train_csv/' ``` Теперь познакомимся с содержанием Python-файлов, которые мы будем помещать внутрь приложения. Переходим в папку `custom_jobs` и открываем файл [s3read.py](https://github.com/stockblog/webinar_spark_k8s/blob/main/custom_jobs/s3read.py): ``` cd $SPARK_HOME/custom_jobs nano s3read.py ``` Мы видим, что приложение читает данные из бакета и выводит первые 10 строк. Для доступа к бакету мы используем переменные, которые указали ранее: `S3_ACCESS_KEY`, `S3_SECRET_KEY` и `S3_PATH`: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/ae0/231/986/ae023198602165d583500ca91b67eb23.jpg)Второе приложение — [s3read\_write.py](https://github.com/stockblog/webinar_spark_k8s/blob/main/custom_jobs/s3read_write.py). Оно также выводит первые 10 строк из одного бакета и записывает датасет в другой. Для этого используется еще одна переменная `S3_WRITE_PATH`, в которой хранится путь до второго бакета. Теперь познакомимся с содержимым [docker-файла](https://github.com/stockblog/webinar_spark_k8s/blob/main/yamls_configs/Dockerfile), который мы будем использовать для сборки: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/ed0/fd3/6ac/ed0fd36ac4d1b0032aed5ea1bf2bcb3b.jpg)Он собран на основе официального Docker-файла, который идет в комплекте со Spark. Мы добавили в него JAR-файлы для доступа к S3, без них не получится подключиться к объектному хранилищу. Также мы копируем папку `custom_jobs` внутрь `SPARK_HOME`, для того чтобы код приложения попал внутрь Docker-образа. Теперь будем собирать образ. Мы используем docker-image-tool — инструмент, о котором говорили выше. Мы указали тег `webinar_spark_k8s` и Docker-файл: ``` sudo /$SPARK_HOME/bin/docker-image-tool.sh -r $YOUR_DOCKER_REPO -t webinar_spark_k8s -p ~/webinar_spark_k8s/yamls_configs/Dockerfile build ``` Видим, что образ успешно собрался: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/5a8/8c7/f92/5a88c7f92883554e2cbf35ee76721ad4.jpg)Далее мы опубликуем образ в DockerHub. Для начала зададим переменную `DOCKER_REPO`, в которой хранится имя репозитория. Вы можете использовать публичный или приватный репозиторий. [Вот инструкция](https://docs.docker.com/engine/reference/commandline/login/), как залогиниться в приватный репозиторий. Мы будем использовать наш публичный [репозиторий mcscloud](https://hub.docker.com/u/mcscloud): ``` export DOCKER_REPO=mcscloud ``` Теперь отправим образ в репозиторий: ``` sudo /$SPARK_HOME/bin/docker-image-tool.sh -r $DOCKER_REPO -t webinar_spark_k8s -p ~/webinar_spark_k8s/yamls_configs/Dockerfile push ``` Теперь, когда мы запушили образ в репозиторий, мы будем использовать его, чтобы развернуть в Spark. Такой подход позволяет нам запускать Spark Jobs стандартным для Kubernetes способом — декларативным. Это означает, что мы декларативно описываем состояние Job, а Kubernetes уже сам будет приводить ее к желаемому состоянию. Это возможно благодаря тому, что мы используем Kubernetes Operator. Перейдем в директорию yaml\_configs и посмотрим на содержимое файла [s3read\_write\_with\_secret\_cfgmap.yaml](https://github.com/stockblog/webinar_spark_k8s/blob/main/yamls_configs/s3read_write_with_secret_cfgmap.yaml). На основе этого файла вы сможете создавать свои: ``` cd webinar_spark_k8s/yaml_configs nano s3read_write_with_secret_cfgmap.yaml ``` ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/506/61c/e9a/50661ce9a5e6143f9dd33a8f7dbd26a5.jpg)В этом файле видно, что мы используем Python третьей версии. Мы используем образ, который только что запушили в репозиторий. Наше приложение `s3read_write.py` находится внутри этого образа в папке `custom_jobs`. Далее мы задаем restart policy: если приложение упадет, оно будет перезапущено три раза с интервалом в 10 секунд. Также мы задаем требования по ресурсам, отдельно для Driver и Executor. Для доступа к S3 мы указываем названия credentials и ConfigMap, в которых у нас хранятся данные для доступа к хранилищу: `s3-secret` и `s3path-config`. Они также задаются отдельно для Driver и Executor. Есть более простой способ указать эти переменные. Рассмотрим файл [s3read\_example\_one.yaml](https://github.com/stockblog/webinar_spark_k8s/blob/main/yamls_configs/s3read_example_one.yaml): ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/199/c86/b41/199c86b4132ed24fa1e1f21c0dbeb067.jpg)Здесь все то же самое, но переменные окружения объявлены явно внутри YAML-файла. Мы не рекомендуем так делать в продуктовых средах, но на этапе тестирования или проверки MVP можно попробовать. Теперь запустим приложение, применив YAML-файл: ``` kubectl apply -f ~/webinar_spark_k8s/yamls_configs/s3read_write_with_secret_cfgmap.yaml ``` Приложение создалось: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/2e7/56c/521/2e756c521991d95e27e0e3d3e75058f8.jpg)Теперь посмотрим список подов в Kubernetes: ``` kubectl get pods ``` Видим, что сейчас создается контейнер с приложением: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/828/986/a4f/828986a4f0842e1bd8d89bbea4d3888e.jpg)Теперь снова проверим список Spark-приложений: ``` kubectl get sparkapplications.sparkoperator.k8s.io ``` Видим, что приложение только что запустилось, 13 секунд назад: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/927/c2b/d80/927c2bd80de8297cb514c66fc51ef5a2.jpg)Опять посмотрим список подов: ``` kubectl get pods ``` Видим, что Driver уже работает, сейчас создается Executor: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/b3d/a27/8c3/b3da278c3762bb3cd5293d2b3fa4a7b1.jpg)Если через некоторое время еще раз проверить список подов, мы увидим, что контейнер уже создался и приложение находится в статусе Running, значит, оно работает: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/895/aa3/64b/895aa364ba5682d4fcd37c7a049bdaa6.jpg)Мы можем выполнить команду `kubectl get events` и увидеть все события, которые связаны с приложением: как оно стартовало, нет ли ошибок, когда добавлялись поды и так далее. Вы можете посмотреть это сами, мы не будем приводить скриншот. Через некоторое время снова проверяем поды: ``` kubectl get pods ``` Теперь все поды в состоянии Completed, значит, приложение закончило работу: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/276/0dc/1a9/2760dc1a91eb4fe1e4c99b013c7cbe76.jpg)Посмотрим логи: ``` kubectl logs s3read-write-test-driver ``` Видим, что приложение отработало успешно. Оно вывело в лог первые 10 строчек из бакета: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/876/4d6/059/8764d60598b693b44661a957bdc62e60.jpg)Теперь проверим, что оно записало этот датасет в другой бакет. Напомним, что в ConfigMap мы указали название нашего бакета — `s3-demo` — и папку, куда нужно складывать файлы, — `write/evo_train_csv`. Заходим в бакет и убеждаемся, что файлы создались: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/607/5d0/e8c/6075d0e8ccd08c5661ef568239e3ac30.jpg)Итог: наше кастомное Spark-приложение запустилось и работает в Kubernetes. #### Шаг 5: устанавливаем Spark History Server С нашим приложением есть одна сложность. Если под, на котором оно работает, будет уничтожен, все логи также пропадут. Поэтому мы будем перенаправлять логи в отдельный S3-бакет, а для просмотра будем использовать [Spark History Server](https://spark.apache.org/docs/latest/monitoring.html#viewing-after-the-fact), который мы также развернем в Kubernetes. Чтобы разделить приложение и History Server, мы создадим в Kubernetes отдельный Namespace, это как бы виртуальный кластер внутри Kubernetes. Namespace позволяет разделять объекты, ресурсы, доступы и так далее. Создаем Namespace: ``` kubectl create ns spark-history-server ``` Проверим, что он создался командой `kubectl get ns`: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/fb7/89b/35b/fb789b35b69c46f417669c484e730666.jpg)Для того, чтобы Spark History Server мог читать логи из S3, нам нужно снова создать Secret с нашими данными для доступа к объектному хранилищу. Мы уже создавали такой Secret ранее, но так как History Server находится в другом Namespace, он не сможет получить к нему доступ. Создаем новый Secret, указываем только что созданный Namespace. Вместо `PLACE_YOUR_S3_CRED_HERE` укажите свои данные: ``` kubectl create secret generic s3-secret --from-literal=S3_ACCESS_KEY='PLACE_YOUR_S3_CRED_HERE' --from-literal=S3_SECRET_KEY='PLACE_YOUR_S3_CRED_HERE' -n spark-history-server ``` Проверим, что Secret создан с помощью `kubectl get secrets -n spark-history-server`: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/182/0aa/0fe/1820aa0fe79a4c6c924bb3b3494f4258.jpg)Теперь перейдем непосредственно к установке Spark History Server. Для этого мы снова воспользуемся Helm. Добавим репозиторий: ``` helm repo add stable https://charts.helm.sh/stable ``` Чтобы установить Spark History Server, сначала нужно изменить нужные нам настройки. Для этого мы воспользуемся файлом [values-hs.yaml](https://github.com/stockblog/webinar_spark_k8s/blob/main/yamls_configs/values-hs.yaml). Переходим в папку с файлом и открываем его на редактирование: ``` cd webinar_spark_k8s/yamls_configs/ nano values-hs.yaml ``` Мы прокомментируем настройки, чтобы вы знали, что вам нужно будет поправить. Во-первых, активируем S3. Далее указываем бакет и директорию с логами. Далее указываем название Secret, в котором хранятся credentials. Далее указываем тип сервиса — LoadBalancer. Это значит, что History Server будет доступен по внешнему IP: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/3ef/f0a/974/3eff0a9747f87d3520368c4bbd82a2bd.jpg)Еще один важный момент. В этом файле сейчас не указан способ авторизации, поэтому на сервер сможет зайти любой, если узнает его адрес. В продуктиве мы так делать не рекомендуем, но для тестирования можно пока оставить так. Теперь мы применяем этот файл: ``` helm install -f ~/webinar_spark_k8s/yamls_configs/values-hs.yaml my-spark-history-server stable/spark-history-server --namespace spark-history-server ``` Теперь нам нужно узнать, по какому IP-адресу доступен History Server. Для этого выполняем команду: ``` kubectl get service -n spark-history-server ``` Видим, что Cluster-IP уже выделен, а внешнего адреса еще нет. Облако генерирует его: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/eac/01d/f78/eac01df78238756794370bf1c7143900.jpg)Подождем несколько минут и повторим команду. Теперь мы видим IP-адрес и порт, на который нужно зайти: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/aa9/1cd/446/aa91cd4462c12e8e4d4d68a0c20460df.jpg)Переходим в History Server, в нашем случае по адресу <http://87.239.106.171:18080>. Мы видим, что он работает, но в нем пока нет логов: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a46/5b1/e9a/a465b1e9a89312d065ff661b30126538.jpg)Чтобы они появились, нам нужно немного изменить наше приложение. Мы сделаем так, чтобы оно писало логи в определенный S3-бакет. Для этого мы создали файл [s3\_hs\_server\_test.yaml](https://github.com/stockblog/webinar_spark_k8s/blob/main/yamls_configs/s3_hs_server_test.yaml). Он практически идентичен нашему предыдущему YAML-файлу за тем исключением, что мы добавили секцию `sparkConf` и в ней указываем, куда нужно писать логи. Опять же, для упрощения мы прописываем наши credentials в явном виде, но в продуктивном использовании так делать не рекомендуется: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/168/ec9/489/168ec9489854b7f8cc5598c459d7afc2.jpg)Теперь применим этот файл: ``` kubectl apply -f ~/webinar_spark_k8s/yamls_configs/s3_hs_server_test.yaml ``` Посмотрим на состояние подов: ``` kubectl get pods ``` Видим, что приложение в процессе работы: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/af9/22f/51b/af922f51b1de46500a7770ab975ab8de.jpg)Ждем некоторое время, проверяем поды снова. Видим, что запустился и Executor: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a3f/703/c62/a3f703c6235a9146cb7b1952278dc053.jpg)Ждем некоторое время и проверяем логи: ``` kubectl logs s3read-write-hs-server-test-driver ``` Видим, что приложение отработало и вывело 10 первых строк из бакета: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/521/b82/4a3/521b824a3496c787e603dc4769588213.jpg)Переходим в History Server. Видим, что появилась запись о выполненном приложении: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/b40/136/6b1/b401366b18cee8987e446481115657d9.jpg)Мы можем нажать на ссылку в столбце App ID и посмотреть все логи: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/cdb/6fa/75f/cdb6fa75f6c019688d4430767eed5da5.jpg)Тут мы можем получить всю информацию о работе приложения для полноценной отладки. ### Результат Spark в Kubernetes позволяет изолировать рабочие среды, управлять ограничениями приложений и получить гибкую масштабируемую систему. В этой статье мы установили Spark в Kubernetes, обернули свое приложение в Docker-образ и запустили его Native-способом для Kubernetes. > Новым пользователям платформы мы дарим [3000 бонусов](https://mcs.mail.ru/containers/#support) после полной верификации аккаунта. Вы сможете повторить сценарий из статьи или попробовать другие наши сервисы. > > Что еще почитать по теме: 1. [Наш телеграм-канал Вокруг Kubernetes в Mail.ru Group](https://t.me/k8s_mail). 2. [MLOps без боли в облаке: как развернуть Kubeflow в продашен-кластере Kubernetes](https://mcs.mail.ru/blog/razvernutyvanie-kubeflow-v-prodakshen-klastere-kubernetes).
https://habr.com/ru/post/549052/
null
ru
null
# Судебное разбирательство между Google и Oracle: анализируется происхождение нескольких строк кода Многие знают, что назревающий возможный скандал между крупными игроками IT-рынка Google и Oracle, подспудной причиной которого стала популярная платформа Android, вылился в суд между корпорациями, который начался в понедельник 16 апреля. Суть претензий Oracle заключается в том, что компания, купив в 2009 году Sun Microsystems, приобрела авторские права на язык программирования Java и теперь интернет-гигант незаконно использует технологии Java в Android, нарушая, таким образом, патенты Oracle. Не вдаваясь в подробности, собственно юридических вопросов патентного права, кажется любопытным проследить логику адвокатов Oracle в намерении доказать, что Google отнюдь не начинала с чистого листа в Android, а исходный код системы, как минимум, содержит прямые вставки непосредственно из исходного кода Java. Всего, если отметить ради интереса, Oracle обвиняет Google в копировании 103 400 строк Java-кода (подробное описание иска можно посмотреть в этом [pdf](http://www.wired.com/wiredenterprise/wp-content/uploads//2012/04/20120412-Oracle-Charges-clarification.pdf)-документе) Итак, после первичного заявления адвокатов Oracle о сознательном отказе от патентных отчислений в пользу законного владельца технологий, рассмотрение вопроса стало более конкретным. В суд был приглашен [Джошуа Блох](http://en.wikipedia.org/wiki/Joshua_Bloch), работающий в данный момент в Google и должность которого в корпорации обозначена как Chief Java Architect at Google (при этом не лишним будет отметить то обстоятельство, что Блох восемь лет проработал в Sun, перед тем как перейти на работу в интернет-гиганте). Исходный [код](http://www.docjar.com/html/api/java/util/Arrays.java.html) файла array.java содержит метод rangeCheck: ``` /** 789 * Checks that {@code fromIndex} and {@code toIndex} are in 790 * the range and throws an appropriate exception, if they aren't. 791 */ 792 private static void rangeCheck(int length, int fromIndex, int toIndex) { 793 if (fromIndex > toIndex) { 794 throw new IllegalArgumentException( 795 "fromIndex(" + fromIndex + ") > toIndex(" + toIndex + ")"); 796 } 797 if (fromIndex < 0) { 798 throw new ArrayIndexOutOfBoundsException(fromIndex); 799 } 800 if (toIndex > length) { 801 throw new ArrayIndexOutOfBoundsException(toIndex); 802 } 803 } ``` В ходе судебного заседания Блох подтвердил, что именно он является автором этого программного кода, который был написан им в 1997 году. Согласно предоставленным документам, Sun лицензировала соответствующий код в 2004 году — другими словами, еще до того, как она стала собственностью Oracle. Те же самые строки кода, содержат файлы TimSort.java и ComparableTimSort.java, включенные в состав Android, собственное авторство которых в 2007 году также подтвердил Блох. Когда ему был задан вопрос — не скопировал ли он их из кода Array.java — сначала Блох просто ответил, что не помнит. Когда же ему намекнули, что, по его собственным словам, в ходе разбирательства прошлого года по аналогичному вопросу, он ответил в том смысле, что один и тот же смысл кода и одно и тоже название говорит о том, что он, вероятно, действительно это сделал («the same order and same name is a strong indicator that it is likely that I did»), то теперь неясно, когда же он был ближе к истине и что, по сути, можно заключить по этому вопросу, отметили адвокаты, подчеркнув несколько невнятную позицию Google в этом вопросе. Таким образом, разбирательство в суде идёт на весьма высоком уровне, когда анализируется авторство даже небольших участков программного кода, что, впрочем, не редкость для такого рода дел. Справедливости ради стоит заметить, что Блох в конце своего выступления заметил буквально следующее: «Если я этот сделал, то это была ошибка, и мне очень жаль, что я это сделал». В Android 4.0 спорный метод rangeCheck отсутствует. [[Источник](http://news.cnet.com/8301-1035_3-57416413-94/apis-take-center-stage-at-oracle-google-trial/)]
https://habr.com/ru/post/142499/
null
ru
null
# Рецепт разработки бота под Telegram ![](https://habrastorage.org/r/w1560/files/e3f/e52/29e/e3fe5229e32b49b9b296b524fd8e8ccc.png) Добрый день, уважаемые читатели Хабрахабра! В этом топике я хочу поделиться с вами опытом разработки бота под Telegram за 4 дня. Этот бот переводит все голосовые сообщения, которые получает, в текст. Пытался сделать быстро, но качественно — подучил пару-тройку технологий. Постараюсь максимально подробно описать свой процесс преодоления ошибок и преград; доказать, что, даже не имея нужных навыков, запустить свой продукт не так-то и сложно. Статья может быть интересна как новичкам в программировании — увидеть, сколько препятствий стоят на пути у готового продукта, так и более продвинутым специалистам — где-то посмеяться, где-то поплакать, где-то написать комментарий «жизненно». Преамбула --------- И так, что же может сделать один программист за 4 дня? Написать модуль, написать один экран iOS приложения, написать 15% сложного бота под Telegram, поднять или опустить MMR в Dota2 или ранг в Overwatch. Может провести выходные на природе, сходить в тренажерный зал, поплавать в бассейне, написать 500-1000 строк кода в приложении для клиентов, которым никогда и никто, кроме друзей и родственников заказчика, пользоваться не будет. Может смотаться в Кремниевую Долину на последние деньги, посмотреть пару-тройку сериалов, познакомиться с уймой людей на одной-двух конференциях, повтыкать в документацию Ассемблера. А что, если я скажу, что все это — полная чушь? Что, если я вам открою секрет: все не так-то просто. Время — штука относительная, можно мерить ее разными величинами и коэффициентами; мой любимый критерий — отношение времени к пользе. Что, если я вам скажу, что программист может запустить новый продукт на рынок за 4 дня? Заинтригованы? — Читайте дальше. Мотивация --------- К нам в сообщество программистов в Telegram недавно добавился «наш собственный ивангай» и начал дико сорить направо и налево голосовыми сообщениями (кто его знает, вдруг парню просто сложно писать пальцами по клавиатуре). Естественно, людям надоело слушать по два-три часа в сутки сообщения, чтобы вникнуть в суть беседы — и тут кто-то предложил создать бота, который автоматически переводил бы все войсы в текст. Это именно тот момент, когда загораются глаза. Перевод голоса в текст ---------------------- Я не знал, сколько времени займет у меня разработка подобного бота, но уже имел достаточно опыта за плечами с ботами из нашего теплого уютного чатика и фриланс-биржой в Telegram с открытым исходным кодом. Не долго думая, сел за разработку — этап подключения модулей Telegam Bot API прошел, как по маслу. Что дальше? Модуль распознавания речи — гуглим «voice recognition api» и получаем среди первых ссылок список лучших сервисов. Во главе стоит Google Speech API в бета-версии — его и возьмем. Получаем все голосовые сообщения ботом и как-то направляем в сторону Google. Но, вот незадача: почти все npm модули работы с этим сервисом либо устарели, либо банально не работают. Пробуем использовать встроенное API под Node.js, написанное специалистами Google — работает. Что там по аутентификации? Испробовав уйму вариантов из документации от Google — которая, кстати говоря, тоже 50 на 50 устарела или не работает — и вот оно, ключики подошли. К слову, вот сам код, который я использовал: **Жми меня!** ``` const Speech = require('@google-cloud/speech'); const speech = new Speech({ projectId: 'voicy-151205', credentials: require('path/to/certificate/file.json') }); speech.startRecognition(filepath, { 'encoding': 'LINEAR16', 'sampleRate': 16000, 'languageCode': 'en-US', }) .then((results) => { const operation = results[0]; return operation.promise(); }) .then((transcription) => { console.log(transcription[0]); }) ``` Аудио форматы и ограничения Google ---------------------------------- Что там по отправке войсов к Google? Ага, нужно получить аудиофайлы из Telegram и отправлять их на сервера Speech API — пробуем, не работает. В чем дело? Формат .oga, обычный для Telegram, не принимается — нужно декодировать. Что у нас есть для конвертации медиа? Конечно же, ffmpeg, знакомый еще с раннего детства (спасибо папе, который когда-то давно заставил меня в нем разбираться). Как его подключить к ноде? Опа! Есть npm модуль, заточенный специально под это. В какой формат нужно конвертировать .oga файлы? Оказалось, Google принимает .flac — конвертируем, пробуем, все принимается, Google отвечает текстом, успех. Но, не тут-то было! Google не переводит в текст файлы длиннее 60 секунд, если не загружать их на Google Cloud Storage сервис. Что же такое? Сразу же пробуем модуль, написанный программистами Google, даже не смотрим в сторону устаревших npm готовых решений. Отлично, файлы загружаются, обрабатываются сервисом, возвращается текст. Кстати, странное у Google понятие времени — аудиофайлы длинной в 30 секунд, почему-то, определяются, как 60-ти секундные. Ничего страшного — пробуем файл длиннее 30 секунд и наступаем на очередные грабли — Google принимает длинные файлы только в кодировке «LINEAR16». Что еще за «LINEAR16»? Ищем в документации ffmpeg — ничего подобного нет. Отлично, как так? Работаем дальше. Ищем, что за зверь этот формат или кодек — оказывается, это «16 bit signed little endian» данные. Хорошо, что я прочитал пару книжек по Computer Science и знаю, что такое «16 bit» и почему это «little endian». Ищем, что же из себя представляет этот формат в ffmpeg — ага: «s16le»! Пробуем конвертировать — получается, Google принимает и отвечает текстом, «Mission accomplished». Осторожно: ниже код, который помог мне с конвертацией (нужно предустановить ffmpeg на машину)! **Жми меня!** ``` const ffmpeg = require('fluent-ffmpeg'); const temp = require('temp'); ffmpeg.ffprobe(filepath, (err, info) => { const fileSize = info.format.duration; const output = temp.path({ suffix: '.flac' }); ffmpeg() .on('end', () => console.log(output)) .input(filepath) .setStartTime(0) .duration(fileSize) .output(output) .audioFrequency(16000) .toFormat('s16le') .run(); }); ``` Монетизация ----------- Но, что это такое? Какие $2 за использование Speech API? Они там в Google совсем с дубу рухнули? Как это мы использовали более двух часов перевода голоса в текст? Так совсем не пойдет — добавят моего бота в 100-1000 чатов, и что мне потом делать? С завтраков сэкономить на поддержку бота уже не получится — не тот масштаб. Нужно как-то прикручивать оплату. Пускай, будет 600 бесплатных секунд у каждого чата, а дальше будем запрашивать покрытие стоимости Google Speech API. Как прикрутить оплату к боту в Telegram? Четких инструкций, как и инструментов монетизации в Telegram еще не завезли — нужно как-то решать вопрос вовне. Какой платежный сервис использовать? Так-так-так, недавно читал про парня, который стал самым молодым миллиардером — тот создал свой платежный сервис. Гуглим, видим — Stripe, его и используем. Что это у нас? У них есть удобный Checkout — но стандартную форму мы, конечно, использовать не будем, сделаем свою. Фронтенд -------- Куда смотреть, чтобы делать интерактивные странички? Я же iOS программист, недавно окунулся в серверную разработку — так, ноги слегка сполоснуть — а тут фронтенд подоспел, что же за напасть? Гуглим быстренько, какие технологии используются для создания интерактивных сайтов. Angular 2, jQuery, Vanila.js — самым простым выглядит jQuery, его и возьмем — тем более, я с ним когда-то давно уже развлекался. Гуглим YouTube уроки по jQuery — один трешак по 2-3 часа, будем разбираться по ходу дела, туториалам и ответам на Stack Overflow. Быстренько рисуем структуру сайта — лого, форму, пару строк текста и кнопку. Как это сделать? Что-то я слышал про Bootstrap. Гуглим, проходим пару уроков по Bootstrap 3 — еще гуглим, прикручиваем картинку, форму, кнопочку — вроде как, даже адаптивно получилось. Меняем фон сайта с белого на что-то более креативное (сероватый слегка), вот и сайтик готов. Время jQuery! Решаем вынести оплату в отдельный проект — запускаем в командной строке «express payments», получаем проект. Отлично, куда заносить скрипты? Как, прямо в сайт? Что-то не так — и вправду, можно вынести их в отдельный файл, этим и займемся. Прикручиваем обработку ошибок на отдельный лейбл, проверяем форму Stripe (благо, они дают весь нужный пользовательский интерфейс в Checkout модуле), прикручиваем наш новый проект к той же базе данных, проверяем оплату — проходит, все работает. По пути, конечно, ввиду отсутствия привычным фронтенд-разработчикам инструментов, мириады раз перезагружаем веб-страничку вручную. Вот тут файлики, которые у меня получились (осторожно, не очень чистый код) c моими небольшими комментариями: **Жми меня!****index.hjs** ``` Voicy payments ![Voicy](/images/logo.png) Chat ID: ======== {{ chatId }} ============ {{ seconds }} seconds are left in this chat. You can buy more seconds below. **$0.4 per 200 seconds** Buy ``` **global.js** ``` // Здесь начинается магия $(document).ready(function() { // Глобальные переменные — это плохо, но здесь сойдет var chatId; var amount; // Создаем обработчик от Stripe Checkout var handler = StripeCheckout.configure({ key: '***', image: 'https://pay.voicybot.com/images/stripe.png', locale: 'auto', // alipay: true, // Может, подключу как-нибудь AliPay // bitcoin: true, // Биткоины не получается использовать — у меня нет верифицированного US аккаунта банковского closed: function() { // Очищаем все, кроме info, когда закрываем stripe $("#successLabel").empty(); $("#errorLabel").empty(); }, token: function(token) { // Когда кредитка введена пользователем, мы получаем token и должны передать его на наш сервер // Попутно чистим лейблы (знаю, код повторяется — но здесь и так сойдет) $("#infoLabel").empty(); $("#successLabel").empty(); $("#errorLabel").empty(); // Уведомим пользователя, что оплата идет $("#infoLabel").append('Processing payment on Voicy servers...'); // Проводим непосредственно оплату, посылаем запрос в index.js $.ajax({ type: 'POST', url: 'buy', data: { 'token': token.id, 'chatId': chatId, 'amount': amount }, dataType: 'json', encode: true }) .done(function(data) { // Логика простая: все ок — показываем сообщение "Ок"; ошибка — показываем ошибку if (data['error']) { $("#infoLabel").empty(); $("#successLabel").empty(); $("#errorLabel").empty(); $("#errorLabel").append(data['error']); } else { $("#infoLabel").empty(); $("#successLabel").empty(); $("#errorLabel").empty(); $("#successLabel").append('Thank you for the payment!'); } }); } }); // Закроем Stripe, если он хочет закрыться, очистим лейблы попутно window.addEventListener('popstate', function() { $("#infoLabel").empty(); $("#successLabel").empty(); $("#errorLabel").empty(); handler.close(); }); // Обрабатываем форму — это происходит по нажатию на "Buy" $('form').submit(function(event) { event.preventDefault(); // Без этой строчки страница перезагрузится var seconds = $('input[name=numberOfSeconds]').val(); // Получаем секунды из текстового поля chatId = $('input[name=chatId]').val(); // Получаем chat id из невидимого поля // Проводим простую валидацию — если юзер покупает меньше 200 секунд, высвечиваем ошибку if (!seconds || seconds < 200) { $("#infoLabel").empty(); $("#successLabel").empty(); $("#errorLabel").empty(); $("#errorLabel").append('Please purchase at least 200 seconds'); } else { // Если все ок — считаем ценник в центах... var purch = seconds * 0.002 * 100; amount = seconds; $("#infoLabel").empty(); $("#successLabel").empty(); $("#errorLabel").empty(); $("#infoLabel").append('Please pay at Stripe Checkout'); // ...и настраиваем и открываем Stripe handler.open({ name: 'Voicy Bot', description: 'Purchasing ' + seconds + ' seconds', currency: 'USD', amount: purch, // alipay: true, // bitcoin: true }); } }); }); ``` **index.js** ``` // Express router нужен для обработки входящих HTTP реквестов из jQuery const express = require('express'); const router = express.Router(); // db — это модуль, который я написал для работы с моей базой данных const db = require('../helpers/db'); // Stripe — чтобы денежки с карточек клиентов снимать const stripe = require("stripe")("***"); /** Проводим покупку */ router.post('/buy', (req, res, next) => { // Получаем token от stripe, который позволит провести одну оплату const token = req.body.token; // Получаем id чата, в который добавляем секунды const chatId = parseInt(req.body.chatId); // Получаем, сколько секунд добавлять const amount = parseInt(req.body.amount); var charge = stripe.charges.create({ amount: amount * 0.002 * 100, // Страйп считает в центах source: token, currency: "USD", description: "Buying seconds for Voicy" }, (err, charge) => { if (err) { res.send({ error: err.message }); // Перенаправляем ошибку назад в jQuery } else { db.findChat(chatId) // Ищем чат с подобным id .then((chat) => { // Блок, если все "ок" chat.seconds = parseInt(chat.seconds) + amount; // Добавляем секунды в чат return chat.save() // Сохраняем чат .then((newChat) => { res.send({ success: true }); // Отправляем "ок" назад в jQuery }); }) .catch((err) => { res.send({ error: err.message }); // Перенаправляем ошибку назад в jQuery }) } }); }); /* Получаем главную страницу */ router.get('/:id', (req, res, next) => { const chatId = parseInt(req.params.id); // id чата, для которого рендерим страницу db.findChat(chatId) // Ищем чат по id .then((chat) => { // Не нашли? Бросаем ошибку 404! if (!chat) { const err = new Error(); err.status = 404; err.message = 'No chat found'; throw err; } // Нашли? Продолжаем работать с чатом! return chat; }) .then((chat) => { // Рендерим страницу чата, передаем количество секунд в чате и id чата res.render('index', { chatId: chat.id, seconds: chat.seconds, }); }) .catch(err => next(err)); // Возвращаем ошибку в обработчик ошибок (который просто рендерит страничку с ошибкой) }); ``` Главный вебсайт --------------- Любому хорошему проекту нужен добротный вебсайт — но мне что-то совсем не хочется тратить деньги на хостинг. Покупаем доменное имя и направляем его прямо на GitHub Pages, благо, с этим опыта достаточно с предыдущих проектов с открытым кодом. Берем стандартный шаблон, заполняем его нужными данными, слегка модифицируем index.html — готово. Nginx и SSL ----------- Но как мне будут доверять пользователи, если форма оплаты будет недоступна по https? Ничего страшного — плавали, знаем! Запускаем CertBot на сервере, получаем нужные SSL сертификаты. Пока что приложение доступно на pay.\*domain\*.com:3000 — негоже сюда направлять пользователей. Настраиваем Nginx, чтобы он перенаправлял все реквесты с http на https и вешаем прокси с 80 порта на 3000 — проверяем, заходим на сайт, работает. Если кому интересно, вот файл настроек nginx: **Жми меня!** ``` # HTTP - переносим все реквесты в HTTPS: server { listen 80; listen [::]:80 default_server ipv6only=on; return 301 https://$host$request_uri; } # HTTPS - переносим все реквесты в наш Node.js сервер: server { listen 443; server_name your_domain_name; ssl on; # Используем сертификаты от Lets Encrypt: ssl_certificate /etc/letsencrypt/live/pay.voicybot.com/fullchain.pem; ssl_certificate_key /etc/letsencrypt/live/pay.voicybot.com/privkey.pem; ssl_session_timeout 5m; ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_prefer_server_ciphers on; ssl_ciphers '***'; # Переносим все реквесты в localhost:3001: location / { proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-NginX-Proxy true; proxy_pass http://localhost:3000/; proxy_ssl_session_reuse off; proxy_set_header Host $http_host; proxy_cache_bypass $http_upgrade; proxy_redirect off; } } ``` Заключение ---------- Вот так неожиданно и оборвался мой рассказ — так как все оказалось готово: один сервер принимает все голосовые сообщения и переводит их в текст, второй отвечает за безопасную оплату времени обработки войсов, а GitHub раздает головной сайт проекта. Главное, что я хотел описать в этой статье — это то, что процесс создания продукта хоть и трудоемкий, но может уместиться в 40-80 часов благодаря уже существующим инструментам в Интернете. Напомню, что этот маленький проект включает в себя: * Нейронную сеть от Google, конвертирующую голос в текст * Неплохой вебсайт, созданный при неимении каких-либо дизайн или фронтенд навыков * Умный инструмент оплаты, который, к слову, работает во всех браузерах и даже с AliPay да Биткоинами * Базу данных чатов и пользователей, по которой всегда можно глянуть статистику * Конвертацию аудио файлов между разными форматами * Сложный сервер с SSL, с двумя поднятыми комплексными приложениями * Отсутствие какого-либо человеческого фактора: все работает автоматически Если вы все еще думаете, что для создания собственного продукта у вас недостаточно навыков — оглянитесь вокруг, все уже сделано за вас. В отличие от того же 2000, сегодня создание продукта не требует глубокого знания алгоритмов и структур данных. Так чего же вы ждете? Благодарности ------------- Огромное спасибо, что дочитали до конца! Я с радостью отвечу на все комментарии к статье. Ссылку на сам бот не прилагаю (хоть он и полностью рабочий), так как это против правил Хабрахабра. Rock on. --------
https://habr.com/ru/post/316824/
null
ru
null
# Защита .net приложения от посторонних глаз «Как защитить код своего .net приложение?» – один из тех вопросов, который можно часто услышать на различных форумах. Самый распространённый вариант – обфускация. С одной стороны — прост в использовании, а с другой — не достаточно надёжно прячет исходники. Предложу свой вариант, хорошо подходящий для утилит, использование которых предполагается самим автором (либо доверенным лицам), код которых показывать нежелательно. Защита будет строиться на шифровании сборок симметричным ключом и динамическом их дешифровании в процессе работы приложения. Ключ шифрования будет определяться пользователем на этапе развёртывания и вводиться как пароль при запуске. Разобьём всё на этапы: 1. Предварительные работы 2. Ввод пароля 3. Дешифровка сборок 4. Переопределение загрузки сборок 5. Запуск приложения 6. Вишенка на торте 7. Дополнительные настройки проекта И отдельным пунктом пойдёт: 1. Развёртывание и шифрование сборок #### Предварительные работы Поскольку нам необходимо как-то расшифровывать приложение перед запуском, сделаем обёртку, которая возьмёт на себя эту неблагодарную работу. Обёрткой будет обычное консольное приложение. #### Ввод пароля Вводимый пароль надо где-то хранить. Обычно для этих целей используются строки, но в .net они неизменяемы, а значит, введённый пароль можно без проблем вытащить отладчиком. Чтобы избежать этого, воспользуемся специальным классом SecureString (пространство имён System.Security), который хранит свои данные в зашифрованном виде. **Считываем пароль** ``` private static bool ReadPassword() { ConsoleKeyInfo consoleKey = Console.ReadKey(true); while (consoleKey.Key != ConsoleKey.Enter) { if (consoleKey.Key == ConsoleKey.Escape) { return false; } _password.AppendChar(consoleKey.KeyChar); consoleKey = Console.ReadKey(true); } return _password.Length > 0; } ``` При вводе на экране не будут отображаться вводимые символы, а после нажатия Enter ввод закончится. \_password – поле класса, в котором сохраняется введённый пользователем пароль. #### Дешифровка сборок Шифрование делится на два типа: симметричное и асимметричное. В симметричном для шифрования и дешифрования используется один и тот же ключ, в асимметричном разные. Поскольку нам разные ключи не нужны, остановимся на симметричном шифровании. Чтобы расшифровать что-то зашифрованное, нам нужны три компонента: * Зашифрованные данные; * Ключ, которым они зашифрованы; * Вектор инициализации (IV) – несекретные данные, которые использовались для первого этапа шифрования. Поскольку вектор инициализации не секретен, его можно хранить вместе с зашифрованными данными. Для облегчения работы напишем специальный класс CryptedData: **Класс CryptedData** ``` public sealed class CryptedData { /// /// Возвращает или устанавливает вектор инициализации. /// public byte[] IV { get; set; } /// /// Возвращает или устанавливает данные. /// public byte[] EncryptedSource { get; set; } /// /// Возвращает вектор инициализации и зашифрованные данные в виде единого массива. /// public byte[] ToArray() { using (MemoryStream ms = new MemoryStream()) { Store(ms); return ms.ToArray(); } } /// /// Сохраняет вектор инициализации и зашифрованные данные в поток. /// /// Поток, в который необходимо сохранить данные. public void Store(Stream output) { Validate(this); if (!output.CanWrite) { throw new ArgumentException("В переданный поток запрещена запись", "output"); } using (BinaryWriter bw = new BinaryWriter(output)) { bw.Write(IV.Length); bw.Write(IV); bw.Write(EncryptedSource.Length); bw.Write(EncryptedSource); } } /// /// Возвращает зашифрованные данные и вектор инициализации. /// /// Поток с входящими данными. public static CryptedData Create(Stream input) { if (!input.CanRead) { throw new ArgumentException("Из входящего потока запрещено чтение", "input"); } CryptedData data = new CryptedData(); using (BinaryReader reader = new BinaryReader(input)) { int ivLength = reader.ReadInt32(); data.IV = reader.ReadBytes(ivLength); int sourceLength = reader.ReadInt32(); data.EncryptedSource = reader.ReadBytes(sourceLength); } Validate(data); return data; } /// /// Проверяет валидность данных. /// /// Данные, которые необходимо проверить. private static void Validate(CryptedData data) { if (data.IV == null || data.IV.Length == 0) { throw new ArgumentException("IV должно быть ненулевой длинны"); } if (data.IV.Length > byte.MaxValue) { throw new ArgumentException("Длинна IV не может быть больше " + byte.MaxValue); } if (data.EncryptedSource == null || data.EncryptedSource.Length == 0) { throw new ArgumentException("Souce должно быть ненулевой длинны"); } } } ``` Шифровать мы будем используя алгоритмом AES. Для удобства создадим низкоуровневую обёртку: **Класс AesCryptography** ``` public static class AesCryptography { /// /// Возвращает вектор инициализации. /// /// internal static byte[] CreateIv() { using (AesManaged aes = new AesManaged()) { aes.GenerateIV(); return aes.IV; } } /// /// Зашифровывает данные. /// /// Данные. /// Ключ шифрования. /// Вектор инициализации. /// Зашифрованные данные. internal static byte[] Encrypt(byte[] source, byte[] key, byte[] iv) { Validate(source, key, iv); using (AesManaged aes = new AesManaged()) { using (ICryptoTransform transform = aes.CreateEncryptor(key, iv)) { using (MemoryStream ms = new MemoryStream()) { using (CryptoStream cs = new CryptoStream(ms, transform, CryptoStreamMode.Write)) { cs.Write(source, 0, source.Length); } byte[] encryptedBytes = ms.ToArray(); return encryptedBytes; } } } } /// /// Расшифровывает текст. /// /// Данные для расшифровки. /// Ключ шифрования. /// Вектор инициализации. /// Расшифрованные данные. internal static byte[] Decrypt(byte[] source, byte[] key, byte[] iv) { Validate(source, key, iv); using (AesManaged aes = new AesManaged()) { using (ICryptoTransform transform = aes.CreateDecryptor(key, iv)) { using (MemoryStream ms = new MemoryStream(source)) { using (CryptoStream cs = new CryptoStream(ms, transform, CryptoStreamMode.Read)) { List bytes = new List(1024); int b; while ((b = cs.ReadByte()) != -1) { bytes.Add((byte)b); } return bytes.ToArray(); } } } } } /// /// Проверяет данные. /// /// Данные. /// Ключ шифрования. /// Вектор инициализации. private static void Validate(byte[] source, byte[] key, byte[] iv) { if (source == null) { throw new ArgumentNullException("source"); } else if (source.Length == 0) { throw new ArgumentException("Данные не могут быть пустыми", "source"); } if (key == null) { throw new ArgumentNullException("key"); } else if (key.Length == 0) { throw new ArgumentException("Ключ не может быть пустым", "key"); } if (key.Length.IsOneOf(16, 24, 32) == false) { throw new ArgumentException("Длина ключа должна быть 128, 192 или 256 бит (16, 24, 32 байта)", "key"); } if (iv == null) { throw new ArgumentNullException("iv"); } else if (iv.Length != 16) { throw new ArgumentException("Длина вектора инициализации должна быть 128 бит (16 байт)", "iv"); } } public static bool IsOneOf(this T value, params T[] values) { return value.IsOneOf(values as IEnumerable); } public static bool IsOneOf(this T value, IEnumerable values) { if (values == null) { throw new ArgumentNullException("values"); } foreach (T t in values) { if (Equals(t, value)) { return true; } } return false; } } ``` Добавим ещё один уровень абстракции, для большей модульности: **Класс CryptographyHelper** ``` internal static class CryptographyHelper { /// /// Зашифровывает строку. /// /// Исходные данные. /// Ключ шифрования. /// public static CryptedData Encrypt(byte[] source, SecureString password) { byte[] iv = AesCryptography.CreateIv(); byte[] key = GetKey(password); byte[] encrypted = AesCryptography.Encrypt(source, key, iv); return new CryptedData() { EncryptedSource = encrypted, IV = iv }; } /// /// Расшифровывает данные. /// /// Данные, которые необходимо расшифровать. /// Пароль шифрования. /// Расшифрованные данные. public static byte[] Decrypt(CryptedData data, SecureString password) { byte[] key = GetKey(password); byte[] decrypted = AesCryptography.Decrypt(data.EncryptedSource, key, data.IV); return decrypted; } /// /// Дополняет длину ключа при необходимости. /// /// Ключ, который необходимо дополнить. /// private static byte[] GetKey(SecureString key) { using (InsecureString insecure = new InsecureString(key)) { using (SHA256Managed sha256 = new SHA256Managed()) { byte[] rawKey = new byte[key.Length]; int i = 0; foreach (char c in insecure) { rawKey[i++] = Convert.ToByte(c); } byte[] hashedKey = sha256.ComputeHash(rawKey); Array.Clear(rawKey, 0, rawKey.Length); return hashedKey; } } } } ``` В последнем методе – GetKey – присутствует немного магии. Первый момент – длина ключа должна быть равна 128, 192 или 256 битам. А в качестве пароля для запуска может быть строка произвольной длины. Поэтому просто хешируем строку пароля с помощью sha256 и получаем искомую длину. Вторая магия покруче и связана с SecureString. Этот класс доступен только на запись, и чтобы получить его содержимое нам необходимо воспользоваться небезопасным (unsafe) кодом: **Класс InsecureString** ``` [CLSCompliant(false)] public sealed class InsecureString : IDisposable, IEnumerable { internal InsecureString(SecureString secureString) { \_secureString = secureString; Initialize(); } public string Value { get; private set; } private readonly SecureString \_secureString; private GCHandle \_gcHandle; #if !DEBUG [DebuggerHidden] #endif private void Initialize() { unsafe { // We are about to create an unencrypted version of our sensitive string and store it in memory. // Don't let anyone (GC) make a copy. // To do this, create a new gc handle so we can "pin" the memory. // The gc handle will be pinned and later, we will put info in this string. \_gcHandle = new GCHandle(); // insecurePointer will be temporarily used to access the SecureString IntPtr insecurePointer = IntPtr.Zero; RuntimeHelpers.TryCode code = delegate { // create a new string of appropriate length that is filled with 0's Value = new string((char)0, \_secureString.Length); // Even though we are in the ExecuteCodeWithGuaranteedCleanup, processing can be interupted. // We need to make sure nothing happens between when memory is allocated and // when \_gcHandle has been assigned the value. Otherwise, we can't cleanup later. // PrepareConstrainedRegions is better than a try/catch. Not even a threadexception will interupt this processing. // A CER is not the same as ExecuteCodeWithGuaranteedCleanup. A CER does not have a cleanup. Action alloc = delegate { \_gcHandle = GCHandle.Alloc(Value, GCHandleType.Pinned); }; ExecuteInConstrainedRegion(alloc); // Even though we are in the ExecuteCodeWithGuaranteedCleanup, processing can be interupted. // We need to make sure nothing happens between when memory is allocated and // when insecurePointer has been assigned the value. Otherwise, we can't cleanup later. // PrepareConstrainedRegions is better than a try/catch. Not even a threadexception will interupt this processing. // A CER is not the same as ExecuteCodeWithGuaranteedCleanup. A CER does not have a cleanup. Action toBSTR = delegate { insecurePointer = Marshal.SecureStringToBSTR(\_secureString); }; ExecuteInConstrainedRegion(toBSTR); // get a pointer to our new "pinned" string char\* value = (char\*)\_gcHandle.AddrOfPinnedObject(); // get a pointer to the unencrypted string char\* charPointer = (char\*)insecurePointer; // copy for (int i = 0; i < \_secureString.Length; i++) { value[i] = charPointer[i]; } }; RuntimeHelpers.CleanupCode cleanup = delegate { // insecurePointer was temporarily used to access the securestring // set the string to all 0's and then clean it up. this is important. // this prevents sniffers from seeing the sensitive info as it is cleaned up. if (insecurePointer != IntPtr.Zero) { Marshal.ZeroFreeBSTR(insecurePointer); } }; // Better than a try/catch. Not even a threadexception will bypass the cleanup code RuntimeHelpers.ExecuteCodeWithGuaranteedCleanup(code, cleanup, null); } } #if !DEBUG [DebuggerHidden] #endif public void Dispose() { unsafe { // we have created an insecurestring if (\_gcHandle.IsAllocated) { // get the address of our gchandle and set all chars to 0's char\* insecurePointer = (char\*)\_gcHandle.AddrOfPinnedObject(); for (int i = 0; i < \_secureString.Length; i++) { insecurePointer[i] = (char)0; } #if DEBUG string disposed = "¡DISPOSED¡"; disposed = disposed.Substring(0, Math.Min(disposed.Length, \_secureString.Length)); for (int i = 0; i < disposed.Length; ++i) { insecurePointer[i] = disposed[i]; } #endif \_gcHandle.Free(); } } } public IEnumerator GetEnumerator() { if (\_gcHandle.IsAllocated) { return Value.GetEnumerator(); } else { return new List().GetEnumerator(); } } IEnumerator IEnumerable.GetEnumerator() { return GetEnumerator(); } private static void ExecuteInConstrainedRegion(Action action) { RuntimeHelpers.PrepareConstrainedRegions(); try { } finally { action(); } } } ``` Что происходит в этом коде? 1. Подготавливаются два куска кода, один основной, который делает всю работу, второй – код очистки в случае исключения; 2. Основной код создаёт новую строку, в которой будет храниться значение SecureString и которая будет принудительно очищена в методе Dispose; 3. Копирует данные из SecureString во внутреннюю строку через указатели и блокирует внутреннюю строку для сборщика мусора; 4. Через внутреннюю строку мы можем получить данные SecureString. В методе Dispose происходит затирание внутренней строки через указатели. Важно держать «окно жизни» экземпляра InsecureString как можно более коротким, чтобы минимизировать риск чтения данных защищённой строки отладчиком. Хеширование, описанное выше, помогает в этом, поскольку экземпляр InsecureString нам нужен только для получения хеша, а дальше мы работаем с самим хешем, из которого не вытащить первоначальное значение SecureString. #### Переопределение загрузки сборок Поскольку мы планируем использовать зашифрованные сборки, нам нужно поменять стандартный механизм их загрузки. За загрузку сборок отвечает домен приложения (AppDomain), через специальное событие AssemblyResolve. **Обработчик AssemblyResolve** ``` /// /// Обработчик подгрузки сборки. /// private static Assembly CurrentDomainOnAssemblyResolve(object sender, ResolveEventArgs args) { string[] fileParts = args.Name.Split(",".ToCharArray()); string assemblyPath = Path.Combine(AppDomain.CurrentDomain.BaseDirectory, fileParts[0] + ".edll"); string symbolsPath = Path.Combine(AppDomain.CurrentDomain.BaseDirectory, fileParts[0] + ".epdb"); byte[] assemblyBytes = null, symbolsBytes = null; if (File.Exists(assemblyPath)) { assemblyBytes = DecryptFile(assemblyPath); } if (File.Exists(symbolsPath)) { symbolsBytes = DecryptFile(symbolsPath); } return Assembly.Load(assemblyBytes, symbolsBytes); } /// /// Расшифровывает файл. /// /// Путь к файлы. /// Расшифрованные данные файла. private static byte[] DecryptFile(string path) { CryptedData data; using (FileStream fs = File.OpenRead(path)) { data = CryptedData.Create(fs); } byte[] bytes = CryptographyHelper.Decrypt(data, _password); return bytes; } ``` Поскольку к моменту входа в Main они могут уже понадобиться, переопределять механизм будем раньше, в конструкторе типа. Там же, для удобства, прикрутим обработку исключений: **Подключение обработчика** ``` static Program() { AppDomain.CurrentDomain.UnhandledException += (sender, eventArgs) => Console.WriteLine(eventArgs.ExceptionObject.ToString()); AppDomain.CurrentDomain.AssemblyResolve += CurrentDomainOnAssemblyResolve; _password = new SecureString(); } ``` #### Запуск приложения С запуском всё совсем просто: **Запуск приложения** ``` private static void RunApplication() { SetConsoleWindowVisibility(false); App app = new App(); MainWindow window = new MainWindow(); app.Run(window); } ``` #### Вишенка на торте Осталось два момента: 1. Скрывать окно консоли перед появлением приложения; 2. Маскировать само наличие приложения ##### Сокрытие окна консоли Нам понадобится импортировать пару неуправляемых методов **Подключаем внешние функции** ``` [DllImport("user32.dll")] public static extern IntPtr FindWindow(string lpClassName, string lpWindowName); [DllImport("user32.dll")] static extern bool ShowWindow(IntPtr hWnd, int nCmdShow); ``` и скрыть само окно **Скрываем консоль** ``` /// /// Устанавливает видимость окна консоли. /// /// Видимость окна консоли. private static void SetConsoleWindowVisibility(bool visible) { IntPtr hWnd = FindWindow(null, Console.Title); if (hWnd != IntPtr.Zero) { if (visible) ShowWindow(hWnd, 1); //1 = SW_SHOWNORMAL else ShowWindow(hWnd, 0); //0 = SW_HIDE } } ``` ##### Маскировка приложения Мы можем замаскировать наше приложение, выдав ошибку сразу после запуска **Main(string[] args)** ``` [STAThread] public static void Main(string[] args) { //Выводит фейковое сообщение об ошибке try { ArgumentException ex = new ArgumentException("There is not enough data to start application"); throw ex; } catch (ArgumentException ex) { Console.WriteLine(ex.ToString()); Console.WriteLine("Press Esc to exit"); } if (!ReadPassword()) return; RunApplication(); } ``` Понятно, что против дизассемблера такое не сработает, но праздношатающихся отведёт. #### Дополнительные настройки проекта Для корректной работы, в сборке загрузчика должен быть разрешён небезопасный код. Проще всего это сделать через настройки проекта. ![](https://habrastorage.org/r/w1560/files/d7d/74b/20a/d7d74b20a8b647bcbe0efc9526bb9230.png) #### Развёртывание и шифрование сборок Нам надо зашифровать сборки сразу после компиляции. Напишем пару функций для этого: **Шифрование сборок** ``` /// /// Зашифровывает сборки и удаляет оригинальные файлы. /// private static void EncryptAssemblies() { Wiper wiper = new Wiper(); foreach (string file in Directory.GetFiles(AppDomain.CurrentDomain.BaseDirectory, "*.dll")) { byte[] source = File.ReadAllBytes(file); CryptedData crypted = CryptographyHelper.Encrypt(source, _password); string resultPath = Path.Combine(Path.GetDirectoryName(file), Path.GetFileNameWithoutExtension(file) + ".edll"); File.WriteAllBytes(resultPath, crypted.ToArray()); //удаляем оригинальную сборку wiper.WipeFile(file, 3); //File.Delete(file); } string currentAssemblyName = Assembly.GetEntryAssembly().GetName().Name; foreach (string file in Directory.GetFiles(AppDomain.CurrentDomain.BaseDirectory, "*.pdb")) { if (Path.GetFileNameWithoutExtension(file) == currentAssemblyName) continue; byte[] source = File.ReadAllBytes(file); CryptedData crypted = CryptographyHelper.Encrypt(source, _password); string resultPath = Path.Combine(Path.GetDirectoryName(file), Path.GetFileNameWithoutExtension(file) + ".epdb"); File.WriteAllBytes(resultPath, crypted.ToArray()); //удаляем оригинальную сборку wiper.WipeFile(file, 3); } } ``` Для того, чтобы затереть оригинальный файл, воспользуемся вспомогательным классом Wiper, который в несколько проходов перезаписывает файл случайными данными, а затем удаляет. **Класс Wiper** ``` internal sealed class Wiper { /// /// Deletes a file in a secure way by overwriting it with /// random garbage data n times. /// /// Full path of the file to be deleted /// Specifies the number of times the file should be overwritten public void WipeFile(string filename, int timesToWrite) { if (File.Exists(filename)) { // Set the files attributes to normal in case it's read-only. File.SetAttributes(filename, FileAttributes.Normal); // Calculate the total number of sectors in the file. double sectors = Math.Ceiling(new FileInfo(filename).Length / 512.0); // Create a dummy-buffer the size of a sector. byte[] dummyBuffer = new byte[512]; // Create a cryptographic Random Number Generator. // This is what I use to create the garbage data. using (RNGCryptoServiceProvider rng = new RNGCryptoServiceProvider()) { // Open a FileStream to the file. FileStream inputStream = new FileStream(filename, FileMode.Open); for (int currentPass = 0; currentPass < timesToWrite; currentPass++) { // Go to the beginning of the stream inputStream.Position = 0; // Loop all sectors for (int sectorsWritten = 0; sectorsWritten < sectors; sectorsWritten++) { // Fill the dummy-buffer with random data rng.GetBytes(dummyBuffer); // Write it to the stream inputStream.Write(dummyBuffer, 0, dummyBuffer.Length); } } // Truncate the file to 0 bytes. // This will hide the original file-length if you try to recover the file. inputStream.SetLength(0); // Close the stream. inputStream.Close(); // As an extra precaution I change the dates of the file so the // original dates are hidden if you try to recover the file. DateTime dt = new DateTime(2037, 1, 1, 0, 0, 0); File.SetCreationTime(filename, dt); File.SetLastAccessTime(filename, dt); File.SetLastWriteTime(filename, dt); File.SetCreationTimeUtc(filename, dt); File.SetLastAccessTimeUtc(filename, dt); File.SetLastWriteTimeUtc(filename, dt); // Finally, delete the file File.Delete(filename); } } } } ``` #### Послесловие Очевидно слабое места подобной защиты – необходимость знать пароль каждому, кто будет пользоваться приложением. Также важно понимать, код сборок можно достать дизассемблером в процессе использования приложения. Но если есть необходимость скрыть то, что делает утилита, которой вы сами пользуетесь, от посторонних глаз, такой подход себя оправдывает. #### Материалы * [Исходный код проекта на GitHub](https://github.com/hmspns/EncryptedAssemblies)
https://habr.com/ru/post/244031/
null
ru
null
# Видеопроигрыватель для сайтов обучающих иностранным языкам ![MediaElement language learning plugins](https://habrastorage.org/r/w780q1/getpro/habr/post_images/826/38d/218/82638d218321b8e31f0e7455adb202bb.jpg) Некоторое время назад я разработал ряд плагинов для javascript-видеопроигрывателя [MedialElement](http://mediaelementjs.com), сейчас выложил их в открытый доступ. Эти плагины расширяют функциональность плейера таким образом, что он может быть использован для просмотра видеороликов обучающих иностранным языкам. Разумеется, и без моих плагинов никто не мешает просматривать обучающие видео в этом проигрывателе, но эти плагины делают процесс просмотра и изучения более комфортным. За эталон, к которому я стремился при разработке, был взят проигрыватель [http://www.yabla.com](http://www.yabla.com/player_cdn.php?id=217&tlang_id=en) (не буду скрывать, изначально планировалось склонировать ресурс целиком, но проект не завёлся). Этот проигрыватель обладает следующими особенностями: 1. навигация по таймлайну осуществляется не с точностью до секунды, а с точностью до предложения. Человеку, изучающему язык по видеороликам, часто приходится проматывать видео назад, чтобы несколько раз переслушать неразборчивую фразу и гораздо удобнее одним кликом переместиться к началу фразы, а не искать её начало несколькими кликами. 2. Каждая фраза может быть зациклена, чтобы прослушать её многократно. 3. Разбивка таймлайна на фразы не требует от редактора какой-то особой подготовки: данные о таймингах выбираются из стандартного srt-файла с титрами. 4. Титры на всех доступных языках выводятся под видеороликом (при желании могут быть скрыты). Эта особенность позволяет, например, показывать пользователю титры на языке оригинала видео и на родном языке пользователя. Клик по слову в титрах ставит видео на паузу и показывает пользователю перевод слова, по которому сделан щелчок. 5. Таймер показывает не только время от начала видеоролика, но также номер фразы и общее число фраз в ролике. 6. Скорость проигрывания ролика может быть замедлена или ускорена. 7. Переход между фразами возможен не только кликом по таймлайну, но и при помощи хоткеев Ctrl + стрелки влево/вправо. Другие горячие клавиши: пробел — зациклить фразу/снять зацикливание, Ctrl + стрелки вверх/вниз — изменение скорости ролика. Для демонстрации работы проекта я сделал небольшой сайт: [lang.kece.ru](http://lang.kece.ru/) (все видеоролики на нем позаимствованы с других ресурсов), сам проигрыватель с установленными плагинами можно увидеть, например, тут: [lang.kece.ru/ru/series/introducing-artifical-intelligence/video/course-welcome](http://lang.kece.ru/ru/series/introducing-artifical-intelligence/video/course-welcome). В принципе, при небольшой доработке, плагины могут быть использованы не только с целью просмотра обучающих роликов, но и с целью просмотра полноценных фильмов/сериалов. Доработка понадобится потому, что если в видео фраз больше чем 20-30, то таймлайн превращается в кашу из мелких блоков с фразами и навигация при помощи кликов мышью становится почти бесполезной, но в таком случае выручает использование горячих клавиш. Тестировались плагины только в современных браузерах. MedialElement — это HTML5-проигрыватель, по этому, при наличии видео-файлов в соответствующих форматах, отображение видео доступно практически везде: Windows, Mac, Linux, iOS, Android. Установка плагинов типа Flash не требуется. О том, какие форматы видео поддерживаются современными браузерами можно узнать, например, тут: [www.w3schools.com/html/html5\_video.asp](http://www.w3schools.com/html/html5_video.asp). Если коротко, то файлы в двух форматах: MP4 (MPEG 4 с кодеком H264 для видео и кодеком AAC для аудио) и WebM (кодек VP8 для видео и Vorbis для аудио) покроют все современные браузеры и устройства. Установка проигрывателя и плагинов стандартна и подробно описана в документации к MediaElement: [mediaelementjs.com](http://mediaelementjs.com/). Сначала нужно подключить необходимые js-файлы: ``` ``` Затем в нужном месте страницы вставить видеоролик: ``` ``` В настройках указать какие плагины использовать и инициализировать проигрыватель: ``` var video\_options = { features: ['playpause', 'timecaption', 'duration2', 'trackprogress', 'prev', 'repeat', 'next', 'volume', 'doublesubtitles', 'dictionary', 'speedupdown'], // some other settings, more details here: mediaelementjs.com/#options } var player = new MediaElementPlayer('#player1', video\_options); ``` Вот и всё. Доступны плагины в репозитории: [github.com/romka/mediaelementjs-language-learning-plugins](https://github.com/romka/mediaelementjs-language-learning-plugins). Форки и пулл-реквесты приветствуются! P.S. Если вас заинтересовала идея реализации проекта подобного yabla.com, буду рад её обсудить. В подобных проектах качественная техническая составляющая (скорость отдачи контента, удобство фронтенда и т.д), конечно, играет важную роль, но на порядки более важно наличие эффективной методики преподавания языка, интересных сценариев и качественно записанных видеороликов.
https://habr.com/ru/post/210146/
null
ru
null
# Room: Один ко многим Всем привет. На дворе 2018 и уже почти год как Google активно работает над [Architecture Components](https://developer.android.com/topic/libraries/architecture/release-notes.html). [Неплохая документация](https://developer.android.com/topic/libraries/architecture/index.html) и [примеры](https://github.com/googlesamples/android-architecture-components) позволяют начать использование новых компонентов без каких-либо проблем и сложностей. Но всегда есть ложка дегтя в бочке ~~меда~~ кода. Заметки ниже не претендуют на истину, но, возможно, сэкономят два-три часа гугления и просмотра кода библиотек. ### Один ко многим Тут все просто: в документации сказано как организовать классы, чтобы получить связь сущностей «один ко многим». Берем 2 сущности: ``` @Entity public class DialogPojo { @NonNull @PrimaryKey String id; //other fields } @Entity( foreignKeys = @ForeignKey(entity = DialogPojo.class, parentColumns = "id", childColumns = "dialogId", onDelete = ForeignKey.CASCADE), primaryKeys = {"dialogId", "tag"}) public class TagPojo { @NonNull String dialogId; @NonNull String tag; //other fields } ``` и связываем их в единую сущность: ``` public class DialogWithTags { @Embedded public DialogPojo dialog; @Relation(parentColumn = "id", entity = TagPojo.class, entityColumn = "dialogId") public List tags; //other fields } ``` Для получения новой сущности типа DialogWithTags нужно использовать Dao, которое будет загружать данные из таблицы DialogPojo, при этом автоматически загрузятся tags из связанной таблицы (entity = TagPojo.class): ``` @Dao public interface DialogDao { @Query("SELECT * FROM DialogPojo WHERE id = :dialogId") LiveData loadDialogBy(String dialogId); @Query("SELECT \* FROM DialogPojo WHERE id = :dialogId") DialogWithTags getDialogBy(String dialogId); } ``` Используя эти знания уже можно собирать ~~звезду смерти~~ приложение. Однако, в процессе работы могут возникнуть вопросы, ответы на которые лучше знать на подготовительных этапах. #### Целостность Как это ни странно, но запрос на получение DialogWithTags не гарантирует целостность данных. Т.е., возможна ситуация, когда DialogPojo уже загружен, а список TagPojo нет. Предупреждение о возможных проблемах появляется на этапе компиляции программы.~~А кто их читает, эти предупреждения?~~ Для обеспечения целостности данных, в запрос нужно добавить аннотацию Transaction. ``` @Dao public interface DialogDao { @Transaction @Query("SELECT * FROM DialogPojo WHERE id = :dialogId") LiveData loadDialogBy(String dialogId); @Transaction @Query("SELECT \* FROM DialogPojo WHERE id = :dialogId") DialogWithTags getDialogBy(String dialogId); } ``` #### Сохранение К сожалению, сохранить модель DialogWithTags просто так не получится. Сохранять данные нужно отдельно и, желательно, в одной транзакции, например: ``` @Dao public abstract class DialogDao { @Transaction public void insert(DialogWithTags dialogWithTags) { insert(dialogWithTags.dialog); for(TagPojo tag: dialogWithTags.tags) { insert(tag); } } @Insert(onConflict = OnConflictStrategy.IGNORE) public abstract long insert(DialogPojo dialog); @Insert(onConflict = OnConflictStrategy.IGNORE) public abstract long insert(TagPojo tag); .... } ``` #### Live Data Самое большое разочарование ждет при использовании LiveData. Данные будут живыми только для Embedded поля dialog. Изменения для tags отслеживаться не будут. Конечно можно объявить поле tags как LiveData, но, не стоит забывать, что LiveData вернет данные только в том случае, если зарегистрирован хотя бы один обсервер. #### Заключение Как и любой фреймворк, Architecture Components решает ряд задач, избавляет разработчиков от boilerplate кода ~~и делает жизнь прекрасней~~, но и добавляет своих собственных проблем. В моём случае фреймворк успешно внедрился в проект и прекрасно себя там чувствует.
https://habr.com/ru/post/349280/
null
ru
null
# Ищем дубликаты фотографий с помощью Perl За 20 лет у меня скопилось несколько тысяч фотографий: праздники, свадьбы, рождение детей, и прочее, прочее... Понятно что снималось всё это на разные цифровики, присылалось почтой, сливалось через ICloud и GDrive, FTP, самба и т.п. По итогу всё это превратилось в дикий хаос папок и что-то найти в архиве можно было только с большим трудом. В какой-то момент мне ~~нечем было заняться~~ это надоело и я за пару дней накидал скрипт, который всё это безумие раскидал по годам->месяцам->дням. Понятно, что и эта задача не такая простая как кажется на первый взгляд, что например делать с фото, у которых дата создания 1970? Но в этой статье я хотел бы рассказать о другом. Так вот, во многих папках у меня получилось по 2 и более копий одной и той же фотографий. Как так получилось? Я могу привести кучу вариантов ответа на этот вопрос, но копии от этого сами никуда не рассосутся. Быстренько погуглив, нашел [несколько методов](https://rosettacode.org/wiki/Percentage_difference_between_images#Perl) для сравнения фото на идентичность. Кроме тех, что вы найдете по ссылке, приведу еще пару примеров: библиотека GD::Image -------------------- ``` my $im1 = GD::Image->new( $image1 ); my $im2 = GD::Image->new( $image2 ); my $raw1 = $im1->gd; my $raw2 = $im2->gd; my $xored = $raw1 ^ $raw2; my( $all, $diff ) = (0)x2; $all += 255, $diff += ord substr $xored, $_, 1 for 0 .. length( $xored ) - 1; my $pr = ( $all - $diff ) / $all * 100; print $all, ' ', $diff; printf "The simlarity is %.3f%%\n", ( $all - $diff ) / $all * 100; ``` В данном случае используется сравнение, что называется "в лоб", рассчитывается процент исключенных побитово операндов в выражении ***$xored = $raw1 ^ $raw2 .*** библиотека Image::Compare ------------------------- ``` use Image::Compare; my $file1 = shift; #some jpegs, or png my $file2 = shift; my ( $cmp ) = Image::Compare->new(); $cmp->set_image1( img => $file1, type => 'png', ); $cmp->set_image2( img => $file2, type => 'png' ); $cmp->set_method( method => &Image::Compare::THRESHOLD, args => 25, ); #$cmp->set_method( # method => &Image::Compare::EXACT, # ); if ( $cmp->compare() ) { # The images are the same, within the threshold print "same\n"; } else { # The images differ beyond the threshold print "not same\n"; } ``` [Image::Compare](https://metacpan.org/pod/Image::Compare) написана как раз для сравнения изображений, использует разные методы и имеет кучу параметров. С нужной мне задачей она прекрасно справляется, однако функционал библиотеки гораздо шире. В "недра" библиотеки я не заглядывал, по описанию используется анализ pixel-by-pixel. Итак, у меня есть рабочие методы сравнения и я даже успел протестировать какой из них более производительный. Но... Вот именно производительность меня и не устраивает, ведь даже самое быстрое сравнение только двух фото занимает 2-3 секунды в зависимости от разрешения сравниваемых фотографий. А если изображений несколько тысяч? Естественно, видя, как работает поиск по изображениям в яндекс и гугл, я ожидал совсем другого. Не унываем, ищем дальше. библиотека Image::Hash ---------------------- Итак, что умеет эта библиотека. Цитирую "calculate the average hash, difference hash and perception hash an image". Кроме того, она поддерживает несколько модулей для работы с изображениями: GD, Image::Magick и Imager. Ага, уже интересно, многие советуют для сравнения использовать ImageMagick, а мне как раз его ставить совсем лениво, уж больно много он тянет за собой зависимостей(я поэтому и не стал приводить с ним примеры), а тут замечательные альтернативы. Попробуем: ``` use Image::Hash; use GD; my $ihash = Image::Hash->new('/spool/Photo/2015/01/06/00_17_50.jpeg'); # Возьмём только ahash my $a = $ihash->ahash(); print "1 Ph: $a\n"; #Второе изображение точная копия первого $ihash = Image::Hash->new('/spool/Photo/2015/01/06/00_17_50_1082302.jpeg'); $a = $ihash->ahash(); print "2 Ph: $a\n"; #Ну и для чистоты эксперемента... $ihash = Image::Hash->new('/spool/Photo/2015/01/06/00_17_55.jpeg'); $a = $ihash->ahash(); print "3 Ph: $a\n"; ``` смотрим результат: ``` 1 Ph: C5D74745060CFFFF 2 Ph: C5D74745060CFFFF 3 Ph: 036C040C0878FFFF ``` Совсем другое дело! Ну и для закрепления быстренько напишем скрипт, который будет проверять файлы в папке на "одинаковость": ``` use File::stat; #Добавим проверку на размер файла use Image::Hash; use GD; my %args; foreach my $vl (@ARGV) { my ($key,$value) = split(/=/, $vl); $args{$key} = $value; } my $dir = $args{DIR} or die "Please specify the folder\n"; my @files = glob( $dir . '/*.jpeg' ); my %fhash; my @results; for my $val (@files){ my $ihash = Image::Hash->new($val); # Получаем размер проверяемого файла my $fsize = stat($val)->size; # Получаем хеш файла my $a = $ihash->ahash(); #Тут немного распишу: # 1.проверяем, если такого хеша ранее не было # 2.проверяем, если был хеш, то сравниваем размеры файла, # выигрывает файл большего размера # По итогу проверки файл с уникальным хешем попадает в %fhash, # а дубликат в массив на удаление if ( !exists $fhash{$a} || (exists $fhash{$a} && $fhash{$a}[1] <= $fsize) ) { $fhash{$a} = [ $val, $fsize]; } else { push @results, $val; } } #Ну и удаляем дубликаты с запросом, будет выведен список файлов на удаление. if ( @results > 0 ) { print 'Total ' . scalar(@results) . " double files:\n" . join("\n", sort @results) . "\n"; print "Delete files(Y/N): "; my $ans = ; chomp $ans; if ( $ans eq 'Y' ) { foreach my $dfile ( @results ) { unlink $dfile; } print 'Check complete! Result: ' . scalar(@results) . " img removed\n"; } } else { print "Goodbye!\n" } ``` Погоняем по тестовой папке... Ну вот. За 10 секунд "прочесало" 60 изображений, и безошибочно нашло все дубликаты. Пока дебажил скрипт, замечаю ещё одну полезную вещь, если изображения не являются полной копией, а ОЧЕНЬ похожи, то их хеши различаются в 1-2 разряда. А таких у меня тоже немало, я так понимаю снимали в [многокадровом режиме](https://support.d-imaging.sony.co.jp/app/imagingedge/ru/instruction/1_2_about_psm.php), но почему-то сохранились все исходники. Тут же возникает идея слить хеши в БД и организовать поиск по фото. Для понимания привожу пример сравнения двух изображений: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9c0/a34/123/9c0a34123fcb350a0167ecb11442c64c.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8c6/2f9/01c/8c62f901cafbc99a92a740d32b8db431.png) ``` 1 Ph: ECFCF4F4E4C4C4C4 2 Ph: E4FCFCFCC4D4C4C4 ``` То есть, даже несмотря на огромные отличия, в том числе и разное сотношение сторон, хеши очень похожи. Но это уже история для отдельной статьи. В заключение ------------ По итогу простая сортировка фотографий вылилась у меня в написание полноценной фотогалерии, с бекендом на Perl и фронтом на JS, обработчиком добавления новых фото с автосортировкой и проверкой на дубликаты. Если Вас зантересовал этот метод, но Вы не являетесь фанатом Perl, то спешу обрадовать, есть подобные библиотекии для других ЯП: [Python](https://github.com/JohannesBuchner/imagehash) и [класс для PHP](https://jax-work-archive.blogspot.com/2013/05/php-ahash-phash-dhash.html). UPD: добавляю [еще одну ссылку](http://bugacms.com/?i=267) класса для PHP из [комментариев](https://habr.com/ru/post/578874/#comment_23504524), - тут имеется возможность задавать размер анализруемой матрицы.
https://habr.com/ru/post/578874/
null
ru
null
# OpenMCAPI: одновременный запуск Linux и RTOS на многоядерных процессорах ![](https://habrastorage.org/r/w780q1/storage2/9d0/600/87f/9d060087f4a0c271f7e2a863f13d14b3.jpg) В повседневной практике разработчика встраиваемых систем приходится сталкиваться с необходимостью запуска двух и более разноплановых ОС на n-ядерных системах на кристалле. Это, как правило, Linux и специализированная RTOS. На плечи Linux ложится работа с тяжеловесными стеками протоколов, а RTOS же занимается задачами реального времени. Одна из основных задач, которая встает при такой организации системы — обеспечение механизма взаимодействия, то есть межъядерный обмен данными. Если вам интересно узнать один из вариантов решения на базе открытой библиотеки OpenMCAPI, пролистать пару десятков строк программного кода и увидеть реальные цифры пропускной способности при использовании этой библиотеки, добро пожаловать под кат. Задача межъядерного обмена данными успешно решается за счет использования разделяемой памяти и межъядерных прерываний с написанием своей прослойки взаимодействия и портированием ее на различные ОС. Для приведения такого API к стандартизированному виду Multicore Association (MCA) разработала и выпустила в свет первую версию спецификации MCAPI (Multicore Communications API), вскоре была выпущена и вторая версия. Рассматриваемая библиотека OpenMCAPI основана на спецификации MCAPI 2.0, разработана компанией Mentor Graphics Corporation и имеет открытый исходный код под свободной лицензией BSD/GPL. Исходные коды можно получить, воспользовавшись [сайтом проекта](https://bitbucket.org/hollisb/openmcapi/wiki/Home), там же находится краткая информация по запуску и портированию. Библиотека OpenMCAPI изначально предоставляет возможность работы под управлением ОС Linux с использованием виртуального транспорта либо разделяемой памяти (но только на платформах mpc85xx и mv78xx0). Предлагаемая структура взаимодействия Linux и RTOS через OpenMCAPI c разделением на абстрактные уровни имеет следующий вид (см. рис 1): ![](https://habrastorage.org/r/w1560/storage2/539/58d/dc6/53958ddc6e4b65ca4a07696fc132fceb.png) *Рисунок. 1. Структура взаимодействия Linux и RTOS через OpenMCAPI* Рассмотрим реализацию приведенной структуры на примерах исходного кода порта для Linux: 1. MCAPI Generic — реализация внешнего MCAPI API. 2. OS Layer — часть уровня MCAPI Generic, который содержит код, зависящий от операционной системы. Эта часть представлена в файле libmcapi/mcapi/linux/mcapi\_os.c и содержит реализацию: 3. Transport Generic — это уровень абстракции, который предоставляет механизм для работы с разделяемой памятью на уровне пользовательского пространства (userspace). Он представлен файлами libmcapi/shm/shm.c и libmcapi/shm/linux/shm\_os.c и содержит реализацию: 4. OS Specific Driver представлен модулем ядра Linux, обеспечивающим прямой доступ к оборудованию из пользовательского пространства. Модуль находится в папке libmcapi/shm/linux/kmod и содержит реализацию: Для полного понимания механизма взаимодействия через транспорт, использующий разделяемую память, который реализован в библиотеке OpenMCAPI, необходимо рассмотреть механизм межъядерного сигнализирования и структуру данных в разделяемой памяти. Дальнейшее рассмотрение будет проводиться на основе платформы mpc85xx ([чип P1020 компании Freescale](http://www.freescale.com/webapp/sps/site/prod_summary.jsp?code=P1020)). Программное обеспечение: ядро Linux версии 2.6.35 с патчами, которое поставляется с комплектом средств разработки (SDK) Freescale QorIQ\_SDK\_V1\_03 (доступен для скачивания после регистрации на их сайте), в качестве операционной системы реального времени (RTOS) использована [RTEMS](http://www.rtems.org/), исходные коды которой можно получить в git-репозиторие по ссылке git://git.rtems.org/rtems.git. Для реализации межъядерного сигнализирования Freescale предоставляет как минимум два механизма: 1. Interprocessor Interrupts (IPIs) — межъядерные прерывания, до 4 штук с поддержкой мультикастовых прерываний. 2. Message Interrupts (MSGRs) — межъядерные 32-битные сообщения с генерированием прерывания при записи сообщения в регистр, до 8 штук. В библиотеке оpenmcapi при реализации OS Specific Driver для этой платформы используется механизм MSGRs. Рассмотрим структуру данных, содержащуюся в разделяемой памяти (см. рис. 2): ![](https://habrastorage.org/r/w1560/storage2/d52/811/1d5/d528111d5c0a09330c7fb1132633c4c4.png) *Рисунок 2. Структура данных в разделяемой памяти* Область разделяемой памяти по использованию пространству можно разбить на два блока: * **Первый блок** — область SHM\_MGMT\_BLOCK, представлена структурой: ``` /* SM driver mamagement block */ struct _shm_drv_mgmt_struct_ { shm_lock shm_init_lock; mcapi_uint32_t shm_init_field; struct _shm_route_ shm_routes[CONFIG_SHM_NR_NODES]; struct _shm_buff_desc_q_ shm_queues[CONFIG_SHM_NR_NODES]; struct _shm_buff_mgmt_blk_ shm_buff_mgmt_blk; }; ``` Структура содержит следующие элементы: 1. Глобальная блокировка разделяемой памяти — shm\_init\_lock, используемая для разграничения доступа n-ядер к разделяемой (shared) области. 2. Переменная shm\_init\_field содержит ключ окончания инициализации мастера, принимает значение SHM\_INIT\_COMPLETE\_KEY по окончанию инициализации. 3. Shm\_routes — таблица маршрутизации со связями межъядерных сообщений, содержит CONFIG\_SHM\_NR\_NODES связей по числу участвующих в обмене ядер (узлов). В нашем случае 2 узла. 4. Shm\_queues — очереди сообщений с привязкой к конкретному узлу, содержит CONFIG\_SHM\_NR\_NODES. В нашем случае 2 очереди. 5. Shm\_buff\_mgmt\_blk — структура управления буферами (SHM\_BUFFER) в области данных. * **Вторая область** — область данных, содержит SHM\_BUFF\_COUNT (по умолчанию 128) структур SHM\_BUFFER. Эта область служит непосредственно для хранения передаваемых данных. Структура SHM\_BUFFER состоит из массива размером MCAPI\_MAX\_DATA\_LEN и дополнительной структуры управления элементом. Перед тем как рассмотреть процесс портирования необходимо привести блок-схему работы низкоуровневого механизма коммуникации через разделяемую память (механизм реализован в OpenMCAPI, см. рис. 3): ![](https://habrastorage.org/r/w1560/storage2/c0f/cbc/f97/c0fcbcf978ed4affc240b1ee869c1606.png) *Рисунок. 3. SDL-диаграммы низкоуровневого механизма коммуникации через разделяемую память (реализован в OpenMCAPI).* Некоторые пояснения к диаграммам: * “HW-Notification” — диаграмма описывает процесс отсылки уведомления удаленному или текущему ядру: 1. Вызов функции принимает id ядра, для которого предназначено сообщение (функция openmcapi\_shm\_notify). 2. Если уведомление предназначено для удаленного ядра “target id”, то генерируется удаленное сообщение через механизм MSGRs (рассмотрен выше) со значением в поле данных равным единице (см. блок 3), иначе происходит явный вызов обработчика прерывания interrupt\_handle (диаграмма “HW-Receive”), см. блок 4. * “HW-Receive” — диаграмма описывает процесс приема уведомления от удаленного или текущего ядра: 1. Interrupt\_handle является обработчиком прерывания, настроенным на срабатывание при приеме сообщения по MSGRs, используется также для явного вызова. 2. В блоках 2—6 организована проверка статуса всех сообщений MSGRs, если поле данных MSGR-сообщения не равно 0, происходит разблокировка потока, который производит обработку данных в области разделяемой памяти. 3. В блоках 7—8 происходит проверка места вызова обработчика прерывания (“interrupt\_handler”). Если вызов был в прерывании, сбрасывается флаг присутствия сообщения MSGR. Перед тем как перейти к описанию портирования для RTEMS, вкратце рассмотрим эту ОС. ![](https://habrastorage.org/r/w1560/storage2/332/0a1/e60/3320a1e6062c2a29f266539e6772e7f5.png) **RTEMS (Real-Time Executive for Multiprocessor Systems)** — это RTOS c открытым исходным кодом, полнофункциональная операционная система реального времени с поддержкой множества открытых стандартных интерфейсов прикладного программирования (API), стандартов POSIX и BSD-сокетов. Она предназначена для использования в космических, медицинских, сетевых и многих других встраиваемых устройствах. RTEMS содержит широкий набор процессорных архитектур, таких как ARM, PowerPC, Intel, Blackfin, MIPS, Microblaze и др. Содержит большой стек реализованных сетевых протоколов, в частности tcp/ip, http, ftp, telnet. Предоставляет стандартизированный доступ к RTC, NAND, UART и другому оборудованию. Перейдем к процессу портирования OpenMCAPI. Исходя из документа, расположенного по ссылке [1] требуется: 1. Реализовать OS Layer, файлы: * libmcapi/mcapi/rtems/mcapi\_os.c; * libmcapi /include/rtems/mgc\_mcapi\_impl\_os.h. 2. Реализовать поддержку совместимого транспорта разделяемой памяти, файл: * libmcapi/shm/rtems/shm\_os.c. 3. Добавить рецепты в [waf-сборщик](https://code.google.com/p/waf/), который используется для OpenMCAPI. Так как целевая платформа P1020 (powerpc, 500v2) и портирование проводилось на RTOS, где допускается отсутствие разделения пространства kernel/user space, отпадает необходимость в написании: 1. libmcapi/include/arch/powerpc/atomic.h; 2. libmcapi/shm/rtems/kmod/. Также отпадает необходимость в реализации OS Layer, так как RTEMS поддерживает POSIX-совместимые вызовы, файлы mcapi\_os.c и mgc\_mcapi\_impl\_os.h просто были скопированы из реализации для Linux. Реализация транспорта разделяемой памяти полностью выполнена в файле shm\_os.c и включает адаптацию вызовов из уровня абстракции Transport Generic (файл libmcapi/shm/shm.c) и реализацию механизма обмена через MSGRs. Функции, требующие реализации: **1) mcapi\_status\_t openmcapi\_shm\_notify (mcapi\_uint32\_t unit\_id, mcapi\_uint32\_t node\_id)** — функция отправляет нотификацию удаленному ядру(ам), реализация представлена диаграммой (см. рис 3). Исходный код приведен ниже: ``` /* send notify remote core */ mcapi_status_t openmcapi_shm_notify(mcapi_uint32_t unit_id, mcapi_uint32_t node_id) { mcapi_status_t mcapi_status = MCAPI_SUCCESS; int rc; rc = shm_rtems_notify(unit_id); if (rc) { mcapi_status = MGC_MCAPI_ERR_NOT_CONNECTED; } return mcapi_status; } static inline int shm_rtems_notify(const mcomm_core_t target_core) { struct mcomm_qoriq_data *const data = &mcomm_qoriq_data; /* If the target is the local core, call the interrupt handler directly. */ if (target_core == mcomm_qoriq_cpuid()) { _mcomm_interrupt_handler(NO_IRQ, data); } else { mcomm_qoriq_notify(target_core); } return 0; } /* Wake up the process(es) corresponding to the mailbox(es) which just received * packets. */ static int _mcomm_interrupt_handler(rtems_vector_number irq, struct mcomm_qoriq_data *data) { register int i; void *mbox = data->mbox_mapped; for (i = 0; i < data->nr_mboxes; i++) { int active; switch (data->mbox_size) { case 1: active = readb(mbox); break; case 4: active = readl(mbox); break; default: active = 0; } if (active) { LOG_DEBUG("%s: waking mbox %d\n", __func__, i); (void) rtems_event_send( data->rid, MMCAPI_RX_PENDING_EVENT ); } mbox += data->mbox_stride; } if (irq != NO_IRQ) { mcomm_qoriq_ack(); } return 0; } ``` **2) mcapi\_uint32\_t openmcapi\_shm\_schedunitid(void)** — функция возвращает номер текущего ядра (то есть ядра, исполняющего этот код), реализуется тривиально чтением регистра процессора. Исходный код приведен ниже: ``` /* Get current cpu id */ mcapi_uint32_t openmcapi_shm_schedunitid(void) { return (mcapi_uint32_t) ppc_processor_id(); } ``` **3) mcapi\_status\_t openmcapi\_shm\_os\_init(void)** — функция создает и запускает низкоуровневый поток приема данных, реализуется посредством вызова функций rtems\_task\_create и rtems\_task\_start. Исходный код приведен ниже: ``` /* Now that SM_Mgmt_Blk has been initialized, we can start the RX thread. */ mcapi_status_t openmcapi_shm_os_init(void) { struct mcomm_qoriq_data *const data = &mcomm_qoriq_data; rtems_id id; rtems_status_code sc; if( RTEMS_SELF != data->rid ) { return MCAPI_ERR_GENERAL; } sc = rtems_task_create( rtems_build_name( 'S', 'M', 'C', 'A' ), MMCAPI_RX_TASK_PRIORITY, RTEMS_MINIMUM_STACK_SIZE, RTEMS_DEFAULT_MODES, RTEMS_DEFAULT_ATTRIBUTES, &id); if( RTEMS_SUCCESSFUL != sc ) { return MCAPI_ERR_GENERAL; } /* global save task id */ data->rid = id; sc = rtems_task_start( id, mcapi_receive_thread, 0 ); if( RTEMS_SUCCESSFUL != sc ) { perror( "rtems_task_start\n" ); return MCAPI_ERR_GENERAL; }; return MCAPI_SUCCESS; } static rtems_task mcapi_receive_thread(rtems_task_argument argument) { int rc; do { rc = shm_rtems_wait_notify(MCAPI_Node_ID); if (rc < 0) { perror("shm_rtems_wait_notify"); break; } MCAPI_Lock_RX_Queue(); /* Process the incoming data. */ shm_poll(); MCAPI_Unlock_RX_Queue(0); } while (1); printk("%s exiting!\n", __func__); } static inline int shm_rtems_wait_notify(const mcapi_uint32_t unitId) { rtems_event_set event_out; int ret = 0; while(1) { LOG_DEBUG("mcomm_mbox_pending start\n"); (void) rtems_event_receive( MMCAPI_RX_PENDING_EVENT, RTEMS_DEFAULT_OPTIONS, RTEMS_NO_TIMEOUT, &event_out ); LOG_DEBUG("rtems_event_receive\n"); ret = mcomm_mbox_pending(&mcomm_qoriq_data, (mcomm_mbox_t)unitId); LOG_DEBUG("mcomm_mbox_pending end ret=%d\n", ret); if(ret != 0) { return ret; }; } return 0; } ``` **4) mcapi\_status\_t openmcapi\_shm\_os\_finalize(void)** — функция останавливает низкоуровневый поток приема данных, реализуется посредством вызова функции rtems\_task\_delete. Исходный код приведен ниже: ``` /* Finalize the SM driver OS specific layer. */ mcapi_status_t openmcapi_shm_os_finalize(void) { struct mcomm_qoriq_data *const data = &mcomm_qoriq_data; rtems_id id = data->rid; rtems_status_code sc; sc = rtems_task_delete(id); if( RTEMS_SUCCESSFUL != sc ) { return MCAPI_ERR_GENERAL; } return MCAPI_SUCCESS; } ``` **5) void \*openmcapi\_shm\_map(void)** — функция подготовки и настройка интерфейса MSGRs, подготовка разделяемой памяти. Исходный код приведен ниже: ``` /* full open mcom device and get memory map addres*/ void *openmcapi_shm_map(void) { void *shm; int rc; size_t shm_bytes; // low level init // mcomm_qiroq_probe(); shm_bytes = shm_rtems_read_size(); if (shm_bytes <= 0) { perror("read shared memory size\n"); return NULL; } /* initialized device. */ rc = shm_rtems_init_device(); if (rc < 0) { perror("couldn't initialize device\n"); goto out; } shm = shm_rtems_read_addr(); if (shm == NULL) { perror("mmap shared memory"); goto out; } return shm; out: return NULL; } static size_t shm_rtems_read_size(void) { struct mcomm_qoriq_data *const data = &mcomm_qoriq_data; return (size_t) (data->mem.end - data->mem.start); } static inline int shm_rtems_init_device(void) { struct _shm_drv_mgmt_struct_ *mgmt = NULL; /* xmmm */ return mcomm_dev_initialize(&mcomm_qoriq_data, (uint32_t)&mgmt->shm_queues[0].count, CONFIG_SHM_NR_NODES, sizeof(mgmt->shm_queues[0].count), ((void *)&mgmt->shm_queues[1].count - (void *)&mgmt->shm_queues[0].count)); } static void *shm_rtems_read_addr(void) { struct mcomm_qoriq_data *const data = &mcomm_qoriq_data; return (void*)data->mem.start; } ``` **6. void openmcapi\_shm\_unmap(void \*shm)** — функция закрывает интерфейс MSGRs, отменяет использование разделяемой памяти. Исходный код приведен ниже: ``` /* full close mcom device and revert memory */ void openmcapi_shm_unmap(void *shm) { /* deinitialized device. */ shm_rtems_deinit_device(); // low level deinit // mcomm_qoriq_remove(); } static inline int shm_rtems_deinit_device(void) { return mcomm_dev_finalize(&mcomm_qoriq_data); } ``` Отдельно следует рассмотреть реализацию функции низкоуровневого потока приема mcapi\_receive\_thread (исходный код см. выше). При запуске потока вызовом функции rtems\_event\_receive он переводится в режим ожидания события (реализуется доступным в RTEMS механизмом событий). Далее при приходе события запуска, отсылаемого в обработчике interrupt\_handler (см. рис. 3, диаграмма “HW-Receive”), происходит обработка изменений в области разделяемой памяти (вызов внутренней функции openmcapi — shm\_poll()), c ее предварительной блокировкой, после чего поток возвращается в состояние ожидания. Ниже приводятся результаты, полученные при взаимодействии Linux и RTEMS через OpenMCAPI. Тестовый стенд представляет собой отладочная плата от Freescale P1020RDB-PB с установленным процессором P1020 (2 ядра). Частоты: частота ядра — 800 МГц, DDR2 — 400 МГц, CCB — 400 МГц. На ядрах 0/1 были запущены соответственно Linux/RTEMS. Обмен был двухсторонним, замерялось время, затраченное на 10000 двухсторонних посылок. Результаты тестов сведены в таблицу: | | | | | --- | --- | --- | | № | Описание теста | Времени на одну посылку, мкс | | 1 | Симметричные пакеты размером 512 байт | 37,5 | | 2 | Симметричные пакеты размером 52430 байт | 121 | | 3 | Симметричные пакеты размером 100 кБайт | 346 | | 4 | Ассиметричные пакеты размерами 1к/100к-linux/rtems | 185 | Из всего выше изложенного можно сделать вывод, что библиотека OpenMCAPI предоставляет собой достойный вариант реализации спецификации MCAPI, имеющей четкую структуру исходного кода, облегчающую портирование; наглядные примеры портирования (платформы powerpc и arm); свободную лицензию и производительность, достаточную для большинства применений. **[!?]** Вопросы и комментарии приветствуются. На них будет отвечать автор статьи Руслан Филипович, программист [дизайн-центра электроники Promwad](http://promwad.ru/uslugi/razrabotka-programmnogo-obespecheniya).
https://habr.com/ru/post/186806/
null
ru
null
# «Валидность» расширения для Firefox и пара мелочи Привет! На Хабре достаточно много статей на тему написания расширений для Mozilla Firefox. Воспользовавшись поиском, можно найти информацию, например: [здесь](http://habrahabr.ru/blogs/firefox/71839/), [здесь](http://habrahabr.ru/blogs/firefox/72117/), [здесь](http://habrahabr.ru/blogs/personal/132936/) или даже [здесь](http://habrahabr.ru/blogs/personal/53312/). Но я пока не нашел (если есть, то — простите) статьи про валидные расширения. При этом уже достаточно давно существует Валидатор расширений для разработчиков: [здесь внизу страницы, для входа нужен логин](https://addons.mozilla.org/ru/developers/). Информацию, приведенную в статьях выше я копировать, с Вашего позволения, не буду. Вместо этого я попытаюсь описать общие принципы создания «валидного» дополнения. И ещё приведу парочку примеров и подкину ссылок. * Никогда, не используйте **eval()**. Хотя, все знают это правило, но здесь оно тем более чревато. Кроме того, думаю, что немногие постоянно помнят, что eval() является «замыканием». Все, что было объявлено в его «области видимости» (scope), становится доступно коду, который содержался в eval(). В том числе и это чревато очень многими проблемами. Особенно если Вы предпочитаете давать вспомогательным переменным имена типа «i», «str» и тому подобное. * При использовании window.setTimeout() всегда пишите так: > `window.setTimeout( function(){ >     [ ваш код здесь] >   }, милисекунды ); > > \* This source code was highlighted with Source Code Highlighter.` * Никогда, вообще никогда не попадайте в Global Scrope для оверлея. То есть вот этого: > `<toolbarbutton id="helloButton" label="&helloworld" oncommand="showHello();"/> > > \* This source code was highlighted with Source Code Highlighter.` Что ещё можно придумать, чтобы усложнить Себе жизнь: 1. Для вашего XUL оверлея желательно создать только один (должен остаться только один, как в «Горце») JS файл, который и будет «всем вашим кодом». Причем, весь код этого файла будет внутри замыкания, вот так: > `(function(){ > >   var e; > >   try{ > >      > >     [ Ваш Код Здесь ] > >      > >   }catch(e){ window.alert(e); } > > })(); > > > > \* This source code was highlighted with Source Code Highlighter.` 2. Хотите, чтобы код при этом был «разбросан» по «кучке мелких файлов в кучке директорий? Это тоже можно! > `var JS\_Loader = function( path\_to\_file, object\_where\_file\_will\_be\_loaded ){ > > > >   Components.classes['@mozilla.org/moz/jssubscript-loader;1'] > >     .getService(Components.interfaces.mozIJSSubScriptLoader) > >     .loadSubScript( path\_to\_file , object\_where\_file\_will\_be\_loaded ); } > > } > > > > var our\_scope\_object = {}; > > > > // USING: > > > > JS\_Loader( 'some\_path to chrome:// or resource://' , our\_scope\_object); > > > > /\* > > > > В данном случае все, что было "глобального" в нашем 'some\_path' станет частью our\_scope\_object. > > Кроме того, в момент загрузки для этого 'some\_path' this будет являться our\_scope\_object > > > > \*/ > > > > \* This source code was highlighted with Source Code Highlighter.` Если данный вариант не устраивает по причине известных „глюков“, и, кстати, по причине того, что при валидации свалится Warning, то „совсем правильно“ нужно делать через: > `Components.utils.import( path\_to\_file , object\_where\_file\_will\_be\_loaded ) > > > > \* This source code was highlighted with Source Code Highlighter.` Хотя, здесь будут немножко другие „заморочки“. 3. Вообще, можно, конечно, убрать все действия по „навешиванию“ „**addEventListener**“ для контролов в отдельную функцию… Но тогда нужно не забыть что бывают „казусы“, если пытаться регистрировать события на несуществующие контролы. Кроме всего прочего в этом нам поможет!: > `window.addEventListener("aftercustomization", function(evt){ > > > >     [ действия, которые производятся для регистрации событий > после того, как пользователь добавил или удалил Вашу кнопку с панели toolbar ] > > > > > \* This source code was highlighted with Source Code Highlighter.` Напоследок, позвольте пару „приятных“ мелочей: **Работа со свойствами „расширения“.** > `var ADDON\_ID = '[ em:id из install.rdf ]'; > >   var EXTENSION = {}; > >   if (Application.extensions){ EXTENSION = Application.extensions.get(ADDON\_ID); } > >   else{ Application.getExtensions(function(extensions){ EXTENSION = extensions.get(ADDON\_ID); }); } > >   return { > >      ext : function(){ return EXTENSION; } > >     , ver : function(){ return EXTENSION.version; } > >   } > > > > \* This source code was highlighted with Source Code Highlighter.` **Путь к расширению в файловой системе:** > `var addonLocation = ''; > >   Components.utils.import("resource://gre/modules/AddonManager.jsm");  > >   AddonManager.getAddonByID( '[ em:id из install.rdf ]', function(addon) { > >     addonLocation = addon.getResourceURI("").QueryInterface(Components.interfaces.nsIFileURL).file; > >   } ); > > > > \* This source code was highlighted with Source Code Highlighter.` **Моргалка...** > `var blinker = function(cnt){ > >     for(var i = 1; i < cnt; i++){ > >       (function(ist){ > >         // window.alert('' + ist + ' ' + (ist % 2)); > >         window.setTimeout( function(){ show\_status((ist % 2)); }, ist\*450 ); > >       })(i); > >     } > >   } > >    > >   /\* > >    > >   show\_status, например, принимает 1 или 0 > >   и в зависимости от этого меняет свойства объекта > >   можно "поморгать" шрифтом на кнопке, или сделать ещё что-нибудь "подмигивающее" > >    > >   \*/ > > > > \* This source code was highlighted with Source Code Highlighter.` В заключение хотелось бы привести пару ссылочек: В комментариях не нуждается: [addons.mozilla.org/en-US/developers](https://addons.mozilla.org/en-US/developers/) Mozilla Developer Network: [developer.mozilla.org/en-US](https://developer.mozilla.org/en-US/) Просмотрим „это“ с заботой.: XUL Specification: [developer.mozilla.org/en/XUL](https://developer.mozilla.org/en/XUL) [developer.mozilla.org/en/JavaScript](https://developer.mozilla.org/en/JavaScript) [developer.mozilla.org/en/DOM](https://developer.mozilla.org/en/DOM) [developer.mozilla.org/en/XUL\_Overlays](https://developer.mozilla.org/en/XUL_Overlays) [developer.mozilla.org/en/XUL\_controls](https://developer.mozilla.org/en/XUL_controls) А это обязательно просмотрим!: [developer.mozilla.org/en/Setting\_up\_extension\_development\_environment](https://developer.mozilla.org/en/Setting_up_extension_development_environment) [developer.mozilla.org/en/Extension\_Frequently\_Asked\_Questions](https://developer.mozilla.org/en/Extension_Frequently_Asked_Questions) [developer.mozilla.org/en/Creating\_toolbar\_buttons](https://developer.mozilla.org/en/Creating_toolbar_buttons) [developer.mozilla.org/en/XUL\_School/Adding\_Toolbars\_and\_Toolbar\_Buttons](https://developer.mozilla.org/en/XUL_School/Adding_Toolbars_and_Toolbar_Buttons) [developer.mozilla.org/en/XUL\_School/Adding\_Events\_and\_Commands](https://developer.mozilla.org/en/XUL_School/Adding_Events_and_Commands) [developer.mozilla.org/en/Addons/Add-on\_Manager/Code\_Samples](https://developer.mozilla.org/en/Addons/Add-on_Manager/Code_Samples) [developer.mozilla.org/en/chrome\_registration](https://developer.mozilla.org/en/chrome_registration) [developer.mozilla.org/en/XPCOM\_Interface\_Reference/mozIJSSubScriptLoader](https://developer.mozilla.org/en/XPCOM_Interface_Reference/mozIJSSubScriptLoader) А об этом когда-нибудь, наверное, вспомним…: [developer.mozilla.org/en/Code\_snippets](https://developer.mozilla.org/en/Code_snippets) [developer.mozilla.org/en/XUL\_School/Handling\_Preferences](https://developer.mozilla.org/en/XUL_School/Handling_Preferences) [developer.mozilla.org/en/Security\_best\_practices\_in\_extensions](https://developer.mozilla.org/en/Security_best_practices_in_extensions)
https://habr.com/ru/post/134413/
null
ru
null
# Мини API на Lumen ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/ded/3ca/f74/ded3caf74c229253689ac0cfd639dbe7.png) Цель этой публикации — создание простого API на Lumen и рассмотрение его отличий от старшего брата. Весь код доступен [здесь](https://github.com/buzdykg/Lumen). Устанавливал я его на бокс homestead, т.ч. управился одной строчкой: ``` composer create-project laravel/lumen --prefer-dist Lumen ``` [Подробнее](http://laravel.com/docs/5.0/homestead) о homestead. Структура проекта похожа на Laravel: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/72b/386/6b8/72b3866b8f674a2d28d276fe4ffdaab7.png) Бросается в глаза отсутствие папки /config. Дело в том, что Lumen полностью полагается на содержимое .env файла. Пример содержимого: ``` DB_CONNECTION=mysql DB_USERNAME=homestead DB_PASSWORD=secret DB_DATABASE=lumen ``` Все возможные настройки можно подглядеть в vendor/laravel/lumen-framework/config/. Итак, Структура БД ------------ Допустим, нам нужна сущность пост, плюс 2 метода — регистрация и логин. Для создания миграций воспользуемся командной утилитой artisan. ``` php artisan make:migration create_users_table php artisan make:migration create_posts_table ``` Теперь в папке /database лежит 2 новых файла. В каждом по 2 метода, up и down — миграция и отмена миграции. Так выглядит метод up у таблицы users: ``` //database/*create_users_table.php Schema::create('users', function (Blueprint $table) { $table->increments('id'); $table->string('email')->unique(); $table->string('first_name'); $table->string('last_name'); $table->string('password'); $table->rememberToken(); $table->timestamps(); $table->softDeletes(); }); ``` Для постов: ``` //database/*create_posts_table.php Schema::create('posts', function (Blueprint $table) { $table->increments('id'); $table->string('user_id'); $table->string('content'); $table->timestamps(); $table->softDeletes(); }); ``` Миграции готовы, пытаемся их применить: ``` php artisan migrate ``` Но артисан почему-то не видит переменные из .env файла и жалуется на плохие параметры подключения. Для того, чтобы экспортнуть переменные, нужно раскомментировать строчку в /bootstrap/app.php: ``` Dotenv::load(__DIR__.'/../'); ``` Также по-умолчанию выключен ORM Eloquent и фасады. Штуки полезные, поэтому я их тоже включил. Теперь всё должно получится: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/79a/ace/b25/79aaceb25db062cebd55dbb339754ed5.png) (art — это alias для php artisan) Также создадим Eloquent модели для этих таблиц. Например, модель поста: ``` use Illuminate\Database\Eloquent\Model; class Post extends Model { /** * @return \Illuminate\Database\Eloquent\Relations\BelongsTo */ public function user() { return $this->belongsTo('Written\Models\User'); } } ``` Модели позволяют с меньшей болью отдавать данные с методов, т.к. они заботятся о взаимосвязи таблиц. Конечно, производительность «сырых» запросов к бд лучше, но скорость разработки при таком подходе будет неуклонно деградировать. Такие запросы уместны, на мой взгляд, только для статистических выборок. Контроллеры ----------- В Laravel 5 есть замечательный Trait, который позволяет сделать всю регистрацию в два щелчка пальцев. К сожалению в Lumen такого нет. Также сейчас принято не записывать все роуты в один файл, а пользоваться аннотациями, например: ``` /** * @Middleware("auth.token") * @Resource('post') */ class PostsController extends Controller { public function index() {} public function show($id) {} public function store() {} public function update() {} public function destroy() {} } ``` Данная аннотация говорит, что контроллер RESTful. Т.о. имея перед глазами 1 открытый файл уже есть понимание, как обращаться к методам, и что за фильтры они имеют. Делается это с помощью либы [laravelcollective/annotations](http://laravelcollective.com/docs/5.0/annotations). Но с Lumen она несовместима, поэтому все роуты придется пихать в /app/http/routes.php: ``` $app->get('/', function() use ($app) { return $app->welcome(); }); $app->post('/register', ['uses' => 'App\Http\Controllers\AuthController@postRegister']); $app->post('/login', ['uses' => 'App\Http\Controllers\AuthController@postLogin']); $app->get('/post/{id}', ['uses' => 'App\Http\Controllers\PostsController@show']); $app->get('/post', ['uses' => 'App\Http\Controllers\PostsController@index']); $app->group(['middleware' => 'logged.in'], function($app) { $app->post('/post', ['uses' => 'App\Http\Controllers\PostsController@store']); /** & another protected routes */ }); ``` В нормальном приложении этот файл становится монструозным быстро. У Lumen, как и у Laravel, есть Middleware, которые могут либо фильтровать определенные запросы, либо делать всякие полезности для каждого запроса. Все такие фильтры лежат в /app/Http/Middleware/. Для того, чтобы Lumen знал об их существовании, нужно добавить соответствующие классы в /bootstrap.app.php. Пример Middleware: ``` //app/Http/Middlewared/LoggedInMiddleware.php class LoggedInMiddleware { /** * Handle an incoming request. * * @param \Illuminate\Http\Request $request * @param \Closure $next * @return mixed */ public function handle($request, Closure $next) { if(!Auth::check()) { return new Response('', 401); } return $next($request); } } ``` Описанный фильтр выдаёт http код 401, если запрос исходит от неавторизованного пользователя. Пример контроллера: ``` //app/Http/Controller/PostsController.php /** * Class PostsController * @package App\Http\Controllers */ class PostsController extends Controller { public function index() { return $this->respondWithData(Post::with('user')->all()->toArray()); } public function show($id) { return $this->respondWithData(Post::find($id)->with('user')->get()->toArray()); } public function store() { $rules = [ 'text' => 'required', ]; $input = $_POST; $validator = Validator::make($input, $rules); if ($validator->fails()) { return $this->respondWithFailedValidation($validator); } $post = new Post; $post->content = $input['content']; $post->user()->associate(Auth::user()); $post->save(); return $this->show($post->id); } // public function delete() {} } ``` Пример профита от использования Eloquent можно увидеть в методе show(). Клиенту отдаётся не только информация о посте, но также об ассоциированном пользователе. respondWith\* методы — вспомогательные, для придания коду какой-то организованности. В целом метод может возвращать даже обычную строку. Заключение ---------- Не зря заявлено, что Lumen полностью совместим с Laravel, т.к. после всего написанного я не чувствую, что написал что-то про Lumen. Но всё же при разработке даже вышеописанного функционала остался осадочек: — несовместим с библиотеками, написанными для Laravel. Те же аннотации де-факто стандарт; — для вхождения нужно знать Laravel, т.к. многое, описанное в доках Laravel не работает, а в доках Lumen написано мало. Приходится смотреть исходники. Например фасады — доступно далеко не все. Недостающие нужно регистрировать самому, ручками; — завести тесты у меня не удалось, т.к. почему-то в метод не прилетает $\_POST. У меня только ~~один~~два вопроса — зачем нужен Lumen, когда есть Laravel? Разве есть люди, которые хотят мегапроизводительности и при этом не пишут своё решение?
https://habr.com/ru/post/257073/
null
ru
null
# Детекция объектов с помощью YOLOv5 Введение -------- Иногда возникает необходимость быстро сделать кастомную модель для детекции, но разбираться в специфике компьютерного зрения и зоопарке моделей нет времени. Так появился краткий обзор проблемы детекции, и пошаговый туториал для обучения и инференса модели YOLOv5 в сервисе Google Colab. Архитектура ----------- YOLOv5 относится к архитектуре One-Stage detector - подход, который предсказывает координаты определённого количества ***bounding box***'ов с результатами классификации и вероятности нахождения объекта, и в дальнейшем корректируя их местоположение. В целом такую архитектуру можно представить в следующем виде: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/690/e9d/b0e/690e9db0eff22a12f3c021aaba920976.jpeg)Сеть скейлит исходное изображение в несколько ***feature map***'ов с использованием skip-connection и прочих архитектурных фишек. Полученные карты признаков приводятся в одно разрешение с помощью апсемплинга и конкатенируются. Затем предсказываются классы и ***bounding box***'ы для объектов, далее для каждого объекта выбирается самый вероятный ***bounding box*** с помощью ***Non-Maximum Suppression***. Подробнее можно почитать на [Medium](https://jonathan-hui.medium.com/yolov4-c9901eaa8e61). Да, статья на **Medium** про **YOLOv4**, но отличие **v5** только в том, что **v5** реализована на pytorch. Реализация ---------- За основу взят репозиторий [ultralytics](https://github.com/ultralytics/yolov5). Установка --------- ``` $ git clone https://github.com/ultralytics/yolov5 $ cd yolov5 $ pip install -r requirements.txt ``` Структура датасета ------------------ ``` /dataset --/images --/train --/valid --/labels --/train --/valid --dataset.yaml ``` Файлы изображений и меток разделены по разным папкам, в корне лежит файл конфигурации **yaml**, который имеет следующий формат: ``` train: ../dataset/images/train/ val: ../dataset/images/valid/ nc: 1 # количество классов names: ['class_0'] # имена классов ``` Разметка -------- Разметка осуществляется в следующем формате: `Label_ID_1 X_CENTER_NORM Y_CENTER_NORM WIDTH_NORM HEIGHT_NORM` Для каждого изображения `.jpg` создается файл `.txt` с разметкой. Значения для каждого ***bounding box'***а вычисляются следующим образом: ``` X_CENTER_NORM = X_CENTER_ABS/IMAGE_WIDTH Y_CENTER_NORM = Y_CENTER_ABS/IMAGE_HEIGHT WIDTH_NORM = WIDTH_OF_LABEL_ABS/IMAGE_WIDTH HEIGHT_NORM = HEIGHT_OF_LABEL_ABS/IMAGE_HEIGHT ``` Для разметки можно использовать программу [LabelImg](https://github.com/tzutalin/labelImg). Обучение -------- Обучение производится с помощью скрипта `train.py` с ключами: `--data`, путь к датасету `--img`, разрешение картинки `--epochs`, количество эпох - рекомендуется 300-500 `--cfg`, конфиг размера s/m/l `--weights`, стартовые веса Существуют и другие настройки, о них можно почитать на [странице проекта](https://docs.ultralytics.com/). После обучения можно сохранить лучшую модель, которая расположена в `../yolov5/runs/train/exp/weights/best.pt` Инференс -------- Запустить модель можно несколькими способами: * Скрипта `detect.py` указав веса модели и файл для детекции * Torch Hub: ``` model_path = '/content/yolov5.pt' yolo_path = '/content/yolov5' model = torch.hub.load(yolo_path, 'custom', path=model_path, source='local') img_path = 'content/test.jpg' results = model([img_path]) ``` * Кастомная функция `predict` на основе `detect.py`, которую можно найти в [репозитории.](https://github.com/shitkov/signature_detector/) ``` from predict import predict pred_list = predict( weights=weights, source=image, imgsz=[1280, 1280] ) ``` Результаты ---------- Пример распознавания: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6e8/d30/059/6e8d300599be7a9c5302dd6cb2e97a57.png)Видно, что есть и пропуски, и ошибки распознавания, но сетка училась на сотне примеров из поисковой выдачи гугла, так что с ростом количества данных должно расти и качество предсказания. Заключение ---------- Код для запуска и пример датасета доступен в репозитории на [github](https://github.com/shitkov/signature_detector). Исправления и дополнения приветствуются.
https://habr.com/ru/post/576738/
null
ru
null
# CI/CD используя Jenkins на Kubernetes Добрый день. На Хабре уже есть несколько статей о jenkins, ci/cd и kubernetes, но в данной я хочу сконцентрироваться не на разборе возможностей этих технологий, а на максимально простой их конфигурации для постройки ci/cd pipeline. Я подразумеваю, что читатель имеет базовое понимание docker, и не буду останавливаться на темах установки и конфигурирования kubernetes. Все примеры будут показаны на minikube, но так же могут быть применены на EKS, GKE, либо подобных без значительных изменений. ![](https://habrastorage.org/r/w1560/webt/ge/qo/ub/geqoubunc_7bpd9dwq5bpftps2m.png) Окружения --------- Я предлагаю использовать следующие окружения: * test — для ручного деплоя и тестирования веток * staging — окружение, куда автоматически деплоятся все изменения попавшие в master * production — окружение используемое реальными пользователями, куда изменения попадут только после подтверждения их работоспособности на staging Окружения будут организованы используя kubernetes namespaces в рамках одного кластера. Такой подход является максимально простым и быстрым на старте, но так же имеет свои недостатки: namespaces не полностью изолированы друг от друга в kubernetes. В это примере каждый namespace будет иметь одинаковый набор ConfigMaps с конфигураций данного окружения: ``` apiVersion: v1 kind: Namespace metadata: name: production --- apiVersion: v1 kind: ConfigMap metadata: name: environment.properties namespace: production data: environment.properties: | env=production ``` Helm ---- Helm это приложение которое помогает управлять ресурсами установленными на kubernetes. Инструкцию по установке можно найти [здесь](https://helm.sh/docs/using_helm/). Для начала работы необходимо инициализировать tiller pod для использования helm с кластером: ``` helm init ``` Jenkins ------- Я буду использовать Jenkins так как это достаточно простая, гибкая и популярная платформа для сборки проектов. Он будет установлен в отдельном namespace для изоляции от других окружений. Так как я планирую использовать helm в дальнейшем, то можно упростить установку Jenkins используя уже имеющиеся [open source charts](https://github.com/helm/charts/tree/master/stable/jenkins): ``` helm install --name jenkins --namespace jenkins -f jenkins/demo-values.yaml stable/jenkins ``` demo-values.yaml содержат версию Jenkins, набор предустановленых плагинов, доменное имя и прочую конфигурацию **demo-values.yaml** ``` Master: Name: jenkins-master Image: "jenkins/jenkins" ImageTag: "2.163-slim" OverwriteConfig: true AdminUser: admin AdminPassword: admin InstallPlugins: - kubernetes:1.14.3 - workflow-aggregator:2.6 - workflow-job:2.31 - credentials-binding:1.17 - git:3.9.3 - greenballs:1.15 - google-login:1.4 - role-strategy:2.9.0 - locale:1.4 ServicePort: 8080 ServiceType: NodePort HostName: jenkins.192.168.99.100.nip.io Ingress: Path: / Agent: Enabled: true Image: "jenkins/jnlp-slave" ImageTag: "3.27-1" #autoadjust agent resources limits resources: requests: cpu: null memory: null limits: cpu: null memory: null #to allow jenkins create slave pods rbac: install: true ``` Данная конфигурация использует admin/admin в качестве имени пользователя и пароля для входа, и может быть перенастроена в дальнейшем. Один из возможных вариантов — SSO от google (для этого необходим плагин google-login, его настройки находятся в Jenkins > Manage Jenkins > Configure Global Security > Access Control > Security Realm > Login with Google). Jenkins будет сразу же настроен на автоматическое создание одноразовых slave для каждой сборки. Благодаря этому команда больше не будет ожидать свободный агент для сборки, а бизнес сможет сэкономить на количестве необходимых серверов. ![](https://habrastorage.org/r/w1560/webt/it/8_/oo/it8_oo1aownty_iuuihofbo0q_4.png) Так же из коробки настроен PersistenceVolume для сохранения pipelines при перезапуске либо обновлении. Для корректной работы скриптов автоматического деплоя понадобится дать разрешение cluster-admin для Jenkins для получения списка ресурсов в kubernetes и манипулирования с ними. ``` kubectl create clusterrolebinding jenkins --clusterrole cluster-admin --serviceaccount=jenkins:default ``` В дальнейшем можно обновить Jenkins используя helm, в случае выхода новых версий плагинов либо изменений конфигурации. ``` helm upgrade jenkins stable/jenkins -f jenkins/demo-values.yaml ``` Это можно сделать и через интерфейс самого Jenkins, но с helm у вас появится возможность откатится к предыдущим ревизиям используя: ``` helm history jenkins helm rollback jenkins ${revision} ``` Сборка приложениея ------------------ В качетве примера я буду собирать и деплоить простейшее spring boot приложение. Аналогично с Jenkins я буду использовать helm. Сборка будет происходить в такой последовательности: * checkout * компиляция * unit test * integration test * сборка артефакта * деплой артефакта в docker registry * деплой артефакта на staging (только для master branch) Для этого я использую [Jenkins file](https://jenkins.io/doc/book/pipeline/jenkinsfile/). На мой взгляд это очень гибкий (но, к сожалению, не самый простой) способ сконфигурировать сборку проекта. Одним из его преймуществ является возможность держать конфигрурацию сборки проекта в репозитории с самим проектом. ### checkout ![](https://habrastorage.org/r/w1560/webt/tl/zi/is/tlziisqfairddgvaayk6atfuhhm.png) В случае с bitbucket либо github organization можно настроить Jenkins переодически сканировать целый аккаунт на наличие репозиториев с Jenkinsfile и автоматически создавать сборки для них. Jenkins будет собирать как master, так и ветки. Pull requests будут выведены в отдельную вкладку. Существует и более простой вариант — добавить отдельный git репозиторий, независимо от того где он хостится. В этом примере я именно так и сделаю. Все что необходимо это в меню Jenkins > New item > Multibranch Pipeline выбрать имя сборки и привязать git репозиторий. ### Компиляция Так как Jenkins для каждой сборки создает новый pod, то в случае использования maven либо подобных сборщиков, зависимости будут скачиваться заново каждый раз. Чтобы избежать этого, можно выделить PersistenceVolume для .m2 либо аналогичных кешей и монтировать в pod который осуществляет сборку проекта. ``` apiVersion: "v1" kind: "PersistentVolumeClaim" metadata: name: "repository" namespace: "jenkins" spec: accessModes: - ReadWriteMany resources: requests: storage: 10Gi ``` В моем случае это позволило ускорить pipeline примерно с 4х до 1й минуты. ### Версионирование Для корректной работы CI/CD каждая сборка нуждается в уникальной версии. Очень хорошим вариантом может быть использование [semantic versioning](https://semver.org/). Это позволит отслеживать обратно совместимые и не совместимые изменения, но такое версионирование сложнее автоматизировать. В данном примере я буду генерировать версию из id и даты коммита, а так же названия ветки, если это не master. Например *56e0fbdc-201802231623* или *b3d3c143-201802231548-PR-18*. Преимущества данного подхода: * простота автоматизации * из версии легко получить исходный код и время его создания * визуально можно отличить версию релиз кандидата (из мастера) либо эксперементальную (из ветки) но: * такую версию тяжелее использовать в устной коммуникации * не ясно, были ли несовместимые изменения. Так как docker image может иметь несколько тегов одновременно то можно совместить подходы: все релизы используют сгенерированные версии, а те, которые попадают на продакшен, дополнительно (вручную) помечаются тегами с semantic versioning. В свою очередь это связано с еще еще большей сложностью реализации и неоднозначностью того, какую версию должно показывать приложение. ### Артефакты Результатом сборки будет: * docker image с приложением который будет хранится и загружаться из docker registry. В примере будет использоваться встроенный registry от minikube, который может быть заменен на docker hub либо приватный registry от amazon (ecr) либо google (не забывайте предоставить credentials к ним используя конструкцию withCredentials). * helm charts с описанием деплоймента приложения (deployment, service, etc) в директории helm. В идеале они должны хранится на отдельном репозитории артефактов, но, для упрощения, их можно использовать делая чекаут нужного коммита из git. ### Jenkinsfile В результате сборка приложения будет осуществлятся при помощи следующего Jenkinsfile: **Jenkinsfile** ``` def branch def revision def registryIp pipeline { agent { kubernetes { label 'build-service-pod' defaultContainer 'jnlp' yaml """ apiVersion: v1 kind: Pod metadata: labels: job: build-service spec: containers: - name: maven image: maven:3.6.0-jdk-11-slim command: ["cat"] tty: true volumeMounts: - name: repository mountPath: /root/.m2/repository - name: docker image: docker:18.09.2 command: ["cat"] tty: true volumeMounts: - name: docker-sock mountPath: /var/run/docker.sock volumes: - name: repository persistentVolumeClaim: claimName: repository - name: docker-sock hostPath: path: /var/run/docker.sock """ } } options { skipDefaultCheckout true } stages { stage ('checkout') { steps { script { def repo = checkout scm revision = sh(script: 'git log -1 --format=\'%h.%ad\' --date=format:%Y%m%d-%H%M | cat', returnStdout: true).trim() branch = repo.GIT_BRANCH.take(20).replaceAll('/', '_') if (branch != 'master') { revision += "-${branch}" } sh "echo 'Building revision: ${revision}'" } } } stage ('compile') { steps { container('maven') { sh 'mvn clean compile test-compile' } } } stage ('unit test') { steps { container('maven') { sh 'mvn test' } } } stage ('integration test') { steps { container ('maven') { sh 'mvn verify' } } } stage ('build artifact') { steps { container('maven') { sh "mvn package -Dmaven.test.skip -Drevision=${revision}" } container('docker') { script { registryIp = sh(script: 'getent hosts registry.kube-system | awk \'{ print $1 ; exit }\'', returnStdout: true).trim() sh "docker build . -t ${registryIp}/demo/app:${revision} --build-arg REVISION=${revision}" } } } } stage ('publish artifact') { when { expression { branch == 'master' } } steps { container('docker') { sh "docker push ${registryIp}/demo/app:${revision}" } } } } } ``` Дополнительные Jenkins pipelines для управления жизненным циклом приложения --------------------------------------------------------------------------- Предположим, что репозитории организованы так что: * содержат отдельное приложение в виде docker image * могут быть задеплоены использую helm файлы, которые рассположены в директории helm * версионируются используя один и тот же подход и имеют файл helm/setVersion.sh для установки ревизии в helm charts Тогда мы можем построить несколько Jenkinsfile pipelines для управления жизненным циклом приложения, а именно: * [деплоя на любое окружение](https://github.com/idegtiarenko/habr-demo-ci-cd/blob/master/jobs/Deploy.groovy) * [удаления с любого окружения](https://github.com/idegtiarenko/habr-demo-ci-cd/blob/master/jobs/Uninstall.groovy) * [promote с staging на production](https://github.com/idegtiarenko/habr-demo-ci-cd/blob/master/jobs/Promote.groovy) * [отката на предыдущую версию](https://github.com/idegtiarenko/habr-demo-ci-cd/blob/master/jobs/Rollback.groovy) В Jenkinsfile каждого проекта, можно добавить вызов deploy pipeline который будет выполнятся при каждой успешной компиляции master ветки либо при явном запросе deploy ветки на тестовое окружение. **Jenkins file deploy pipeline call** ``` ... stage ('deploy to env') { when { expression { branch == 'master' || params.DEPLOY_BRANCH_TO_TST } } steps { build job: './../Deploy', parameters: [ [$class: 'StringParameterValue', name: 'GIT_REPO', value: 'habr-demo-app'], [$class: 'StringParameterValue', name: 'VERSION', value: revision], [$class: 'StringParameterValue', name: 'ENV', value: branch == 'master' ? 'staging' : 'test'] ], wait: false } } ... ``` [Тут](https://github.com/idegtiarenko/habr-demo-app/blob/master/Jenkinsfile) можно найти Jenkinsfile с учетом всех шагов. Таким образом можно построить continuous deployment на выбраное тестовое либо боевое окружение, также используя jenkins либо его email/slack/etc нотификации, иметь аудит того, какое приложение, какой версии, кем, когда и куда было задеплоено. Заключение ---------- Используя Jenkinsfile и helm можно достаточно просто построить ci/cd для вашего приложеня. Этот способ может быть наиболее актуальным для небольших команд которые недавно начали использовать kubernetes и не имеют возможности (независимо от причины) использовать сервисы которые могут предоставлять такую функциональность из коробки. Примеры конфигурации для окружений, Jenkins и pipeline для управления жизненным циклом приложения вы можете найти [здесь](https://github.com/idegtiarenko/habr-demo-ci-cd) и пример приложения с Jenkinsfile [здесь](https://github.com/idegtiarenko/habr-demo-app).
https://habr.com/ru/post/442614/
null
ru
null
# Пошаговая инструкция: как с Node.js организовать иконки из Figma в проекте ![](https://habrastorage.org/r/w1560/webt/ov/ds/ly/ovdslydbkofqs1ewdd_eigypbh0.png) Эта статья подробно описывает создание небольшого скрипта на Node.js для выгрузки векторных иконок из Figma в проект, а также универсального компонента для разных видов иконок, который удобно использовать в своём приложении. Скрипт может пригодиться командам, которые ещё не определились с общим подходом к использованию и хранению иконок в проекте, и тем, кто стремится автоматизировать этот процесс. **Под катом** – довольно длинный (мы предупредили!) и подробный текст, но с большим количеством полезного кода. Ознакомиться с кодом небольшого тренировочного проекта можно в [этом репозитории](https://github.com/vbifonixor/icon-extractor/). Макет с иконками, использованный в этом статье можно найти по [этой ссылке](https://www.figma.com/file/yYOcOaqdNOd40vLvc29Dws/Sample-Icon-Pack?node-id=0%3A1) Зачем автоматизация при загрузке иконок ======================================= В клиентском веб-приложении среднего уровня сложности рано или поздно возникают проблемы с переиспользованием визуальных элементов. Решать их призвана добрая часть гаджетов на поясе инструментов современного фронтенд-ремесленника. Тем не менее, developer experience во фронтенде всё ещё далёк от совершенства, и разные команды по-разному стараются решить свои проблемы в этом направлении. В Joom мы решили начать с малого и автоматизировали выгрузку и систематизацию иконок нашего интерфейса. В этой статье мы расскажем о том, почему в нашем проекте работа с иконками вообще была проблемой. Тажке объясняем, как мы её решили и почему эта задача оказалась не так сложна, как представлялось на первый взгляд. Как и почему мы жили без управления иконками? --------------------------------------------- Иконки в графических интерфейсах существуют с самого появления таковых, и разработка веб-интерфейсов, разумеется, не обошла их стороной. Мы не будем пускаться в экскурс по истории пиктограмм, вместо этого вкратце опишем ситуацию с иконками в нашем проекте до того, как мы решили пересмотреть наш подход в сторону описанного в этом посте. ### Как обстояли дела с концептуальной точки зрения Итак, в проекте одновременно сосуществуют разные виды иконок: ![Icon types.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/52f/204/2c6/52f2042c61615e8cdce40113f64a0002.png) Логически их можно сгруппировать по требованиям (это группирование пригодится нам немного позже): * **Одноцветные** иконки – всегда монохромные. В интерфейсе допустимо их перекрашивать в любой цвет в зависимости от контекста, по необходимости можно менять их размер. Они всегда вписываются в квадратную область. * **Многоцветные** иконки имеют те же свойства, что и монохромные, но их перекрасить нельзя * **Иллюстрации** – это большие векторные изображения, которые вписываются в прямоугольную область и при изменении размера всегда сохраняют соотношение сторон (в CSS это достигается с помощью `object-fit: contain`). Все иконки, разумеется, используются в векторном формате. ### Как обстояли дела с точки зрения подключения и сборки Наш веб-интерфейс построен на [React](https://reactjs.org/) с использованием [TypeScript](https://www.typescriptlang.org/) и с [Webpack](https://webpack.js.org/) в качестве сборщика. Примерно таким образом иконки уживались в нашем проекте: * `.inline.svg` хитрым хелпером преобразовывались в base64 и вставлялись в таком виде в CSS с возможностью докидывать атрибуты иконке с помощью черной магии (*уже чувствуется нечто недоброе от этих строк, не так ли?*). * `.jsx.svg` проходили обработку через [`@svgr/webpack`](https://react-svgr.com/docs/webpack/) и позволяли вставлять себя в качестве компонентов в jsx-дерево (по сути вшиваясь в итоговый html). * `.svg` подгружались с помощью [`url-loader`](https://v4.webpack.js.org/loaders/url-loader/) и выгружались в CDN, как и полагается статическим файлам. Такая, мягко говоря, необычная система возникла вследствие обыкновенной «энтропии», которая со временем нарастает в каждом проекте (и начинает это происходить в небольших, уютных и тёмных закутках, куда редко заглядывают ☺). ### Как обстояли дела с точки зрения структуры проекта У нас не было строгого регламента о встраивании иконок. Тем не менее, какие-то попытки структурировать иконки всё же предпринимались. Один из подходов, который применялся очень давно – папка `icons` рядом с общими основными стилями, которые у нас называются `theme`. Нечто подобное токенам дизайн-системы, но без явного тому обозначения – сборник переменных для цветов, сетки, миксины `clearfix`'ов, основных брейкпоинтов для медиазапросов. Сюда же попали и svg-иконки, которые имели формат `.svg`. Эти иконки не кастомизировались и иногда имели дубликаты с дополнительными суффиксами вроде `.white.svg` и `.inverse.svg` для разных значений `fill`. Другой существующий в проекте подход – папка с иконками-компонентами `/components/Icons`, в которую иконки складывались то в формате `.jsx.svg`, то оборачивались в собственные полноценные компоненты с дополнительной логикой (например, с темизацией и собственными стилями). Третий подход куда более анархический – складывание иконок в папке `img` внутри папки компонента, в котором они используются. В любом из доступных форматов, которым с точки зрения разработчика, пишущего компонент, удобнее его использовать. Наконец, иллюстрации существовали в своем мире. Для них была отдельная папка в `/components`, в которой лежало несколько svg-файлов, `index.js` и файл со стилями. Из `index.js` экспортируется компонент, который рендерит тег `img`, добавляет к нему `className` и позволяет передать туда `src`. А также несколько компонентов-пресетов для большинства иллюстраций в папке с заранее установленным `src`. Можно охарактеризовать такое головокружительное разнообразие как гибкий подход, однако у него есть трудности. * Зачастую сложно найти и использовать уже имеющуюся в проекте иконку или иллюстрацию. Очень трудно собрать не то что витрину, а даже просто список всего имеющегося в проекте, потому что пришлось бы обойти **обе** общие папки и кучу компонентов, чтобы найти нужную иконку. * Некоторые применяемые подходы вынуждают плодить сущности. В случае с первым из описанных – это дополнительные копии одной и той же иконки, отличающиеся только значением `fill`. В случае с третьим – надо думать, как и куда выносить иконку из папки компонента для использования внутри другого компонента, причем так, чтобы не сломать поведение того модуля, где иконка лежала изначально. И при этом иконка может быть в неудобном для использования месте и формате. (Например тоже заранее покрашена с помощью `fill` и упакована в `.svg` для загрузки в качестве обычного статичного изображения. Это раздувает кодовую базу проекта, замедляет сборку, потенциально увеличивает время загрузки страниц (в зависимости от способа подключения) * Каждый способ имеет отдельный набор решаемых проблем, и недостатков, что заставляет разработчика каждый раз взвешивать свой выбор. Или, ещё проще, выбирать самый удобный способ без оглядки на его недостатки, ведь ещё одна соломинка в стоге вряд ли сломит верблюду горб. * Эта же дилемма в отсутствие жесткого закрепления в кодстайле в комбинации с разными личными предпочтениями разработчиков приводит к спорам на код-ревью, которые тратят время уже минимум двух специалистов. В результате споров и возникла идея, что стоит подумать о разрешении этих проблем. ![https://xkcd.com/927/](https://habrastorage.org/r/w1560/getpro/habr/post_images/30f/ed4/72c/30fed472c28d69114bb5ff4062943198.png) <https://xkcd.com/927> Решение, которое бы нас устроило, должно было включать: * один компонент для подключения всех видов иконок; * удобную витрину для поиска существующих иконок; * договоренность с дизайнерами придерживаться одинакового нейминга иконок как в макетах, так и в приложении; * признание единственным источником правды макетов дизайн-системы, синхронизацию которых с кодовой базой следует автоматизировать. Главный принцип, который должен соблюдаться в решении – разработчик не задумывается ни о каких деталях, если ему нужно подключить иконку! Теперь, когда мы знаем, какие задачи стоят и что мы хотим получить в итоге, можно приступить к готовке такого решения. Рецепт ====== Мы будем готовить «комплексный обед» из трёх блюд: * **Компонент** , которым можно пользоваться для каждого вида иконок. Обладает необходимыми возможностями кастомизации, ленивой загрузкой иконок, типизацией, и задаст нужные стили по умолчанию каждому виду иконок в соответствии с требованиями к ним. ![IDE Autocomplete Showcase.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/1c9/3c8/4cb/1c93c84cbc133f052faa9f31ab57c024.png) * **Скрипт для автоматической выгрузки иконок из Figma**. Такой инструмент поможет избежать ошибок, связанных с человеческим фактором, и даст необходимые для соблюдения порядка и структуры ограничения как разработчикам, так и дизайнерам. ![CLI Showcase](https://habrastorage.org/r/w1560/getpro/habr/post_images/ca3/379/97d/ca337997da68855b296357959a2840fd.png) * **Удобная витрина для поиска иконок**. Послужит и документацией, и средством быстрого поиска существующих иконок, и визуальным «десертом» для всех заинтересованных в порядке среди иконок людей. ![Storybook showcase_ multicolor.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/acb/4e9/b17/acb4e9b17d095682a1311fa80699deed.png) Нам понадобятся: * **React.js** * Рабочий аккаунт **Figma** для получения токена и походов в API за иконками * **Node.js** для сохранения иконок из Figma в файловой системе пользователя * Щепотка **TypeScript** по вкусу * **Несколько рабочих дней** одного разработчика для написания кода и обсуждения требований к иконкам с дизайнерами > ✏️ **Существуют и другие подходы и дискуссии вокруг той же проблемы.** > > > > Например, коллеги из red\_mad\_robot написали [крутую статью](https://github.com/RedMadRobot/figma-export) о похожем решении на Swift для iOS и Android-проектов. А еще, коллеги из разных крупных компаний пишут массивные инструменты вроде [Theo](https://github.com/salesforce-ux/theo) и [Style Dictionary](https://amzn.github.io/style-dictionary) для управления своими кросс-платформенными библиотеками токенов дизайн-систем. > > > > Однако эта тема за пределами рассматриваемой в этом посте проблемы. Готовим иконки к выгрузке ------------------------- Начнем с самих иконок. Чтобы приступить к их выгрузке, надо подготовить почву – договориться с дизайнерами о требованиях к ним. У нас есть документ, который содержит вот такие требования (немного адаптировал его для статьи): > Для правильной выгрузки из [макета с иконками в Figma](https://www.figma.com/file/aym1EyRNJg7lHPtoJo4Pr2), иконки должны отвечать следующим правилам: > > * Названия иконок не должны содержать заглавных букв. Вместо пробела для разделения слов следует использовать дефис. Плохой пример: `Joom Logo`. Хороший пример: `joom-logo`. > * Фреймы с иконками (либо непосредственно компонент, либо его родитель. Приоритет у компонента, т. е. компонент иконки `mono-info` лежащий внутри фрейма-контейнера `multi-service` должен парситься как монохромный) должны быть с префиксами, чтобы определять их тип. Для монохромных иконок — это `mono-`, для многоцветных это `multi-`, для иллюстраций — `illustration-` > * Основной цвет монохромной иконки (для корректной замены на необходимый) должен быть `#2D2F43` > * Названия иконок не должны повторяться как минимум в рамках одного типа > * Заглушки (шаблоны, заготовки) для иконок следует пометить префиксом `stub-`. Тогда они будут игнорироваться > * Фрейм, представляющий непосредственно иконку, должен быть обозначен как компонент > * Компоненты должны быть опубликованы в библиотеке¹ > * Компоненты должны находиться на глубине одного родительского фрейма-контейнера в документе² > * В фреймах-контейнерах нельзя хранить что-либо кроме иконок² > > > > > > --- > > > > > > ¹ только если у вас оплачена подписка для «профессиональной команды», см. пояснение ниже > > > > ² только если у вас нет такой подписки Нашим дизайнерам не составило труда подогнать существующий файл в Figma под эти правила. Мы подготовили специальный файл, который удовлетворяет всем этим требованиям, и на котором мы можем попрактиковаться в выгрузке до всяких походов к дизайнерам в целях удобства читателя. Найти и скопировать его вы можете [по ссылке](https://www.figma.com/file/yYOcOaqdNOd40vLvc29Dws/Sample-Icon-Pack). > ⚠️ Публикация компонентов в библиотеке доступна только для **профессиональных команд** внутри Figma. У Figma есть несколько статей, описывающих как работают командные механики и чем они могут быть полезны: > > * О том, как завести в Figma команду и зачем это может быть нужно, написано [здесь](https://www.figma.com/best-practices/team-file-organization/). > * О том, как дизайнеру работать с компонентами, они рассказали [здесь](https://help.figma.com/hc/en-us/articles/360038662654-Guide-to-Components-in-Figma). > * О том, как (и зачем) публиковать свои компоненты они пишут [здесь](https://help.figma.com/hc/en-us/articles/360025508373-Publish-styles-and-components). > > > > > > Далее при разработке утилиты для выгрузки мы будем считать, что никакой профессиональной команды у нас нет и компоненты в командные библиотеки не публикуются – это добавит немного препятствий на пути к цели (конкретно о них будет рассказано в отдельном примечании), но увеличит количество людей, которым этот пост может быть полезным – не во всех случаях у читателей может быть возможность или желание оплатить подписку. Для тех, кому лень ходить по ссылке, наш тренировочный набор иконок выглядит примерно так: ![Figma icons screenshot.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/089/ba2/38c/089ba238c483794e03d73f733bb0f4f7.png) У нас есть три страницы. На первой просто иконки: на одном фрейме одноцветные, на другом – разноцветные. Все вписаны в квадрат. На второй странице – эмодзи из опенсорсного набора [twemoji](https://twemoji.twitter.com/), на третьей – тоже опенсорсные иллюстрации с cайта [undraw.co](https://undraw.co/illustrations) Все иконки и иллюстрации находятся на уровне не дальше второго в дереве фреймов (будем считать, что фоновые родительские фреймы с белой заливкой группируют иконки по типу на каждой странице). Основной цвет одноцветных иконок заменен на указанный выше, именование через дефис, названия фреймов (родительских) с нужными префиксами, названия иконок не повторяются, заглушка с правильными размерностями для иллюстраций помечена как `stub-`. Другими словами, у нас всё действительно согласуется с нашим набором правил. Теперь мы можем приступать к написанию скрипта. Выгружаем иконки ---------------- Алгоритм нашего скрипта выглядит примерно так: 1. Вытаскиваем токен для Figma API из `.env` 2. Идем в ручку [`/files/${fileKey}`](https://www.figma.com/developers/api#get-files-endpoint) и получаем оттуда данные о всех фреймах в нашем файле 3. Вытаскиваем из данных о файле список фреймов, содержащих наши иконки 4. Вытаскиваем из данных названия иконок (фреймов), названия родительских фреймов, id этих фреймов в Figma, назначаем им тип (`mono`, `multi`, `illustration`, `stub` или `unknown` в зависимости от префикса названия фрейма или его родителя) 5. Запрашиваем у Figma URL'ы экспортированных фреймов в нужных форматах с помощью ручки [`/images/${fileKey}`](https://www.figma.com/developers/api#get-images-endpoint) 6. Воссоздаем структуру папок в папке нашего компонента 7. Выкачиваем файлы по полученным в п. 4 URL и сохраняем по соответствующим папкам > ⚠️ Если у вас всё же есть корпоративная подписка на «профессиональную команду», будет проще, если мы заменим п. 2 и п. 3 на вот такой: > > * Идем в ручку [`/files/${fileKey}/components`](https://www.figma.com/developers/api#get-file-components-endpoint) за данными о компонентах внутри нашего файла > > > > > > Тогда нам не придется ставить ограничение на максимальную вложенность наших иконок в дереве фреймов Figma – все иконки мы сможем получить через библиотеку, которая содержит ссылки на фреймы иконок. Принцип понятен, приступим к написанию кода. --- ### Вытаскиваем токен для Figma API Прежде чем вытащить токен из `.env` в нашем скрипте, нужно его сгенерировать. Сделать это можно, следуя [вот этому гайду](https://www.figma.com/developers/api#access-tokens). Как только у нас есть токен, обязательно необходимо его скопировать и положить в наш `.env` ``` # .env FIGMA_TOKEN=loremipsumdolorsitamet123 ``` > ✏️ В общих чертах о том, что вообще такое `.env` можно почитать [здесь](https://habr.com/ru/company/ruvds/blog/345724/). Если это первый раз, когда вы используете этот файл в проекте, во-первых, обязательно положите этот файл в `.gitignore`, чтобы ваши личные токены не попали в репозиторий. Также очень советую создать коллегам файл-заглушку `.env.example` со всеми переменными, но без настоящих значений. Это поможет им не искать упоминания переменных в README в качестве документации, а просто подставить свои токены и другие значения в заготовленный шаблон. Для того, чтобы подтянуть переменные, определяемые файлом `.env`, мы воспользуемся пакетом [`dotenv`](https://www.npmjs.com/package/dotenv). Установим его с помощью терминала: ``` $ npm install --save-dev dotenv ``` Создадим файл нашего скрипта в удобной для нас локации (например, в папке `/scripts` и сразу же инициализируем переменную: ``` // /scripts/fetch-icons.js require("dotenv").config(); const { FIGMA_TOKEN } = process.env; ``` Добавим константу с хостом Figma API, чтобы не копипастить и была возможность легко заменить его в случае переезда API на другой URL. Заодно рядом запишем в другую константу ключ нашего файла: ``` // /scripts/fetch-icons.js const FIGMA_API_HOST = "https://api.figma.com/v1"; const ICONS_FILE_KEY = "yYOcOaqdNOd40vLvc29Dws"; ``` Самое время попробовать сходить в API Figma и попросить данных об иконках. ### Ходим за деревом документа Figma Предлагаем вооружиться уже имеющейся в вашем проекте библиотекой для HTTP-запросов. Если у вас таковой не было, давайте установим. Мы пользуемся библиотекой [`superagent`](https://www.npmjs.com/package/superagent) ``` $ npm install superagent ``` После установки в самую верхушку файла, где и подобает быть импортам, напишем: ``` // /scripts/fetch-icons.js const superagent = require("superagent"); // ... const ICONS_FILE_KEY = "yYOcOaqdNOd40vLvc29Dws"; const agent = superagent.agent(); ``` Теперь давайте заведем функцию `main()`, потому что верхнеуровневые `async`/`await` наш node.js пока не поддерживает. Функция, разумеется, будет асинхронной. Первым делом в ней нужно проверить, что у нас есть токен и с ним всё в порядке. В противном случае громко выругаемся и упадем: ``` // /scripts/fetch-icons.js // ... const agent = superagent.agent(); async function main() { if (!FIGMA_TOKEN) { console.error( "No figma token found! Make sure FIGMA_TOKEN is in your .env file or is in your environment variables" ); process.exit(1); } } main(); ``` Теперь попытаемся сходить за нашим файлом. Если что-то пойдет не так – обернем поход в try/catch, чтобы была возможность сразу понять, что же случилось. После успешного получения дочерних узлов нашего документа пока просто выведем их в консоль через `console.log` . ``` // /scripts/fetch-icons.js // ... process.exit(1); } let figmaDocument; try { figmaDocument = ( await agent .get(`${FIGMA_API_HOST}/files/${ICONS_FILE_KEY}`) .set('X-FIGMA-TOKEN', FIGMA_TOKEN) ).body; } catch (error) { console.error('Something terrible happened!'); console.log(error); process.exit(1); } console.log(figmaDocument?.document?.children); } main(); ``` На верхнем уровне внутри [ноды типа](https://www.figma.com/developers/api#node-types) `DOCUMENT` есть только ноды типа `CANVAS`, которые описывают «страницы» нашего документа. В нашем случае их три. У них есть разные свойства, но нас интересуют только их дочерние элементы. ### Трансформируем данные Давайте вытащим все дочерние элементы из страниц и сложим в один большой массив (пока что так же, внутри `console.log`). Заодно откинем все элементы с типом, отличным от `FRAME` или `COMPONENT`. И сразу же вынесем эти типы в константы вверху файла: ``` // /scripts/fetch-icons.js // ... const FIGMA_API_HOST = 'https://api.figma.com/v1'; const ICONS_FILE_KEY = 'yYOcOaqdNOd40vLvc29Dws'; const CONTAINER_NODE_TYPE = 'FRAME'; const ICON_NODE_TYPE = 'COMPONENT'; // ... process.exit(1); } console.log( figmaDocument?.document?.children .map(({children}) => children) .reduce((acc, children) => [...acc, ...children]) .filter(({type}) => type === CONTAINER_NODE_TYPE || type === ICON_NODE_TYPE), ); ``` Мы должны получить данные о наших фреймах-контейнерах, в которых лежат наши иконки, а также о сиротах-иконках с типом ноды `COMPONENT`, у которых нет родительского фрейма. Дальше мы продолжим преобразовывать наше Figma-дерево в сторону плоской структуры. Предлагаю сразу дописать к нашим константам Enum с типами уже наших иконок (монохромная, многоцветная, иллюстрация и заглушка), и рядом маппинг на префиксы. Напишем и небольшую утилиту, которая поможет нам получить тип сущности в нашей ноде по её названию. ``` // /scripts/fetch-icons.js // ... const CONTAINER_NODE_TYPE = "FRAME"; const ICON_NODE_TYPE = "COMPONENT"; const Types = { Mono: "mono", Multi: "multi", Illustration: "illustration", Stub: "stub", Unknown: "unknown", }; const PREFIXES = { [Types.Mono]: "mono-", [Types.Multi]: "multi-", [Types.Illustration]: "illustration-", [Types.Stub]: "stub-", }; const getTypeByPrefix = (name) => { return Object.entries(PREFIXES).reduce((acc, [type, prefix]) => { if (acc !== Types.Unknown) { return acc; } if (name.startsWith(prefix)) { return type; } }, Types.Unknown); }; // ... ``` Теперь мы можем продолжить наше преобразование, сразу же определяя, является наш компонент родительским фреймом-контейнером или самостоятельной иконкой. По существу, из всех данных, которые дает нам Figma, полезными для выгрузки будут только `id` нод-иконок, их вид и их название (чтобы разложить сразу в нужные папки и правильно назвать файлы). С помощью одного небольшого `reduce` вместо нашей фильтрации и вспомогательной функции `transformFigmaNode`, мы сможем достичь цели: ``` // /scripts/fetch-icons.js // ... const agent = superagent.agent(); const transformFigmaNode = ( {name, id}, parentType = Types.Unknown, ) => { const iconExplicitType = getTypeByPrefix(name); return { name, id, type: iconExplicitType !== Types.Unknown ? iconExplicitType : parentType, }; }; // ... const iconNodes = figmaDocument?.document?.children .map(({children}) => children) .reduce((acc, pageNodes) => [...acc, ...pageNodes], []) .reduce((acc, node) => { if ( node.type === CONTAINER_NODE_TYPE && node?.children?.length ) { const containerType = getTypeByPrefix(node.name); return [ ...acc, ...node.children .map((childNode) => childNode.type === ICON_NODE_TYPE ? transformFigmaNode(childNode, containerType) : null, ) .filter(Boolean), ]; } else if (node.type === ICON_NODE_TYPE) { return [...acc, transformFigmaNode(node)]; } return acc; }, []); console.log(iconNodes); } main(); ``` Теперь вывод в консоль выглядит так (обрезано для краткости): ![Transformed Output.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/d9e/052/f67/d9e052f67fda291f9db5e9df38c154bd.png) Отфильтруем все типы, с которыми мы не можем или не хотим работать – `Types.Stub` и `Types.Unknown` (запишем их в константу, на случай если понадобится игнорировать больше типов в будущем): ``` // /scripts/generate-icons.js return acc; }, Types.Unknown); }; const IGNORED_TYPES = [Types.Stub, Types.Unknown]; // ... return acc; }, []) .filter(({type}) => !IGNORED_TYPES.includes(type)); console.log(iconNodes); ``` Теперь мы готовы к тому, чтобы скачивать наши иконки в проект. ### Экспортируем иконки Для экспорта иконок нам предстоит воспользоваться эндпоинтом [`/images/${fileKey}`](https://www.figma.com/developers/api#get-images-endpoint)` Соберем все `id` полученных нами нод и сходим в этот эндпоинт за ссылками на скачивание экспортированных файлов: ``` // /scripts/generate-icons.js // ... .filter(({type}) => !IGNORED_TYPES.includes(type)); try { const iconUrls = ( await agent .get(`${FIGMA_API_HOST}/images/${ICONS_FILE_KEY}`) .query({ ids: iconNodes.map(({id}) => id).join(','), format: 'svg', }) .set('X-FIGMA-TOKEN', FIGMA_TOKEN) ).body.images; console.log(iconUrls); } catch (error) { console.error('Something terrible happened!'); console.log(error); process.exit(1); } } main(); ``` Наши сообщения об ошибках пока не идеальны, но украшением будем заниматься позже, а сейчас посмотрим, что у нас получилось: ![URLs Output.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/f5e/ffc/1c7/f5effc1c710abae797bab3c9e117c0cb.png) Теперь нам нужно пройтись по этому объекту и присоединить эти URL’ы к уже имеющимся у нас данным об иконках, чтобы не потерять их типы и названия: ``` // /scripts/generate-icons.js // ... let downloadableIcons; try { const iconUrls = ( await agent // ... ).body.images; downloadableIcons = iconNodes.map((icon) => ({ ...icon, url: iconUrls[icon.id], })); console.log(downloadableIcons); } catch (error) { console.error('Something terrible happened!'); console.log(error); ``` Идем дальше. Теперь мы можем выгружать иконки. Чтобы разложить их по папкам, нам нужно разметить, куда какую иконку мы собираемся складывать. Для этого заведём ещё пару констант: одну с общим путем к нашим сохраняемым изображениям, другую – с сопоставлением типов иконок и названий соответствующих им папок. Дополнительно заведем для монохромных иконок константу базового цвета, который должен быть заменен на currentColor для удобства перекрашивания (см. [пункт про основной цвет в списке правил оформления иконок для дизайнеров](#%D0%93%D0%BE%D1%82%D0%BE%D0%B2%D0%B8%D0%BC%20%D0%B8%D0%BA%D0%BE%D0%BD%D0%BA%D0%B8%20%D0%BA%20%D0%B2%D1%8B%D0%B3%D1%80%D1%83%D0%B7%D0%BA%D0%B5): ``` // /scripts/generate-icons.js // ... [Types.Stub]: 'stub-', }; const BASE_DIR = '/src/components/Icon'; const IMG_DIR = `${BASE_DIR}/img`; const DIRECTORIES_BY_TYPES = { [Types.Mono]: 'mono/', [Types.Multi]: 'multi/', [Types.Illustration]: 'illustration/', } const MONOCHROME_BASE_COLOR = '#2D2F43'; const getTypeByPrefix = (name) => { // ... ``` Для выгрузки самих иконок нам понадобится ещё кое-что: * Модуль [`p-limit`](https://www.npmjs.com/package/p-limit), который позволит нам ограничить количество параллельных запросов к API, чтобы не попасть под rate limit. * `fs/promises` для записи загруженных нами файлов в файловую систему (встроен в стандартную библиотеку Node.js). * `path` для кросс-платформенной постройки путей к нашим файлам (встроен в стандартную библиотеку Node.js). Установим `p-limit`: ``` $ yarn add p-limit ``` Импортируем все перечисленное выше (кроме `p-limit`, он не поддерживает `require`, его импортируем позже): ``` // /scripts/generate-icons.js // ... const superagent = require("superagent"); const path = require("path"); const fs = require("fs/promises"); const { FIGMA_TOKEN } = process.env; ``` Теперь воссоздадим нужную нам структуру папок: ``` // /scripts/generate-icons.js // ... process.exit(1); } const folderPath = path.join(process.cwd(), IMG_DIR); await fs.rm(folderPath, {force: true, recursive: true}); await fs.mkdir(folderPath, {recursive: true}); await Promise.all( Object.values(DIRECTORIES_BY_TYPES).map(async (dirName) => fs.mkdir(path.join(folderPath, dirName), {recursive: true}), ), ); } main(); ``` Если мы запустим скрипт сейчас, в нашей `IMG_DIR` нас ожидает готовая к нашим иконкам структура: ![File structure.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/cb7/3af/503/cb73af503ed6add230e7b393a64a869c.png) Теперь загрузим иконки и разложим их по нашим новым полочкам, заодно не забудем поменять базовый цвет у монохромных иконок. Для этого мы импортируем модуль `p-limit` и запустим с ограничением в 100 параллельных загрузок: ``` // /scripts/generate-icons.js // ... fs.mkdir(path.join(folderPath, dirName), {recursive: true}), ), ); const pLimit = (await import('p-limit')).default; const limit = pLimit(100); await Promise.all( downloadableIcons.map(({name, url, type}) => limit(async () => { try { // Загружаем иконки. Уже без заголовка с токеном Figma, // поскольку url'ы ведут в s3 const icon = (await agent.get(url).retry(3)).body; let transformedIcon; let extension = '.svg'; // При необходимости мы можем видоизменить наши иконки перед сохранением. if (type === Types.Mono) { transformedIcon = icon .toString() .replaceAll(MONOCHROME_BASE_COLOR, 'currentColor'); extension = '.jsx.svg'; } await fs.writeFile( path.join( folderPath, DIRECTORIES_BY_TYPES[type], `${name}${extension}`, ), transformedIcon || icon, ); } catch (e) { logger.error( `Failed to fetch icon ${name} of type ${type}. Original error message/object:`, ); console.log(e?.message || e); throw e; } }), ), 100, ); } main(); ``` И после запуска нашей утилиты мы сможем увидеть, что наши иконки разложены строго по своим папкам: ![Icons settled.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/72d/f74/b7a/72df74b7a3c87c529fdf0a620e0c11d3.png) Компонент иконки ---------------- Теперь мы готовы к тому, чтобы сконструировать единый интерфейс, за которым мы скроем иконки. Выше мы уже упомянули, каким хотели бы его видеть: Приступим к его реализации. > 💡 В [репозитории примера](https://github.com/vbifonixor/icon-extractor) мы воссоздали примерно аналогичную описанной в разделе «[Как обстояли дела с точки зрения подключения и сборки](http://12%2001%20%D0%92%D1%8B%D0%B3%D1%80%208bed1.md)» этой статьи [инфраструктуру подключения svg-файлов](https://github.com/vbifonixor/icon-extractor/commit/a7cd9421002ca39dbb9a48172571bd08abbc0835). Дальше будем отталкиваться от неё. Если в вашем проекте используется другой инструментарий, это может быть даже лучше. Возможно, у вас получится сделать более простую обёртку над иконками. Да, для такого же эффекта нам бы хватило другого способа подключения, описанного, например, в [`документации svgr`](https://react-svgr.com/docs/webpack/#use-with-url-loader-or-file-loader), но мы в своём проекте оставили конфигурацию вебпака в исходном виде, дабы не ломать обратную совместимость – в проекте «по-старому» всё ещё используется множество иконок и иллюстраций. ### Заставляем иконки работать Заведём файл для нашего компонента и начнём с описания интерфейса в нём: ``` // /src/components/Icon/index.tsx import React from "react"; type Props = | { type: "mono"; name: string; fill?: string; } | { type: "multi" | "illustration"; name: string; }; export class Icon extends React.PureComponent { render() { const { type, name } = this.props; console.log(type, name); return null; } } ``` Зачем мы используем компонент-класс? Потому что пока что [нельзя ловить ошибки функциональным компонентом](https://stackoverflow.com/questions/48482619/how-can-i-make-use-of-error-boundaries-in-functional-react-components). А зачем это в принципе? Потому что одноцветные иконки, которые мы хотим раскрашивать с помощью `fill`, нам необходимо динамически загружать в качестве компонентов с помощью `svgr`, а это чревато ошибками при плохом соединении у пользователей. Для этого мы сначала переименуем наши иконки в `.jsx.svg`, как описано в конфиге Webpack. Сделаем это на уровне нашего скрипта и запустим его ещё раз, чтобы сгенерировать новые иконки: ``` // /scripts/generate-icons.js let transformedIcon; let extension = ".svg"; // При необходимости мы можем видоизменить наши иконки перед сохранением. if (type === Types.Mono) { transformedIcon = icon .toString() .replaceAll(MONOCHROME_BASE_COLOR, "currentColor"); extension = ".jsx.svg"; } await fs.writeFile( path.join(folderPath, DIRECTORIES_BY_TYPES[type], `${name}${extension}`), transformedIcon || icon ); ``` Заменим наши иконки в `/src/App.tsx` на наш компонент, чтобы наглядно видеть, что мы делаем: ``` // /src/App.tsx Hello, world! ``` Теперь страничка растеряла все свои краски: иконки не отображаются, потому что мы не рендерим их. Это надо. Наши иконки by design должны рендериться по-разному. Как мы уже установили выше, одноцветные иконки надо динамически загружать в виде компонента, а все остальные можно в виде изображения из статики. Начнем с загрузки монохромных иконок. Для этого воспользуемся библиотекой [`@loadable/component`](https://www.npmjs.com/package/@loadable/component) : ``` $ yarn add @loadable/component @types/loadable__component # вместе с тайпингами ``` > 💡 [`Документация @loadable/component`](https://loadable-components.com/docs/getting-started/) говорит, что если у вас реализован Server-Side Rendering, вам также нужно подключить ещё `@loadable/server` и `@loadable/webpack-plugin`. В этой статье мы обойдем этот момент стороной, поскольку в этом демо-приложении SSR у нас не настроен. ``` // /src/components/Icon/index.tsx import React, { SVGProps } from "react"; import loadable from "@loadable/component"; // ... const DynamicComponentIcon = loadable( (props: SVGProps & Pick) => import(`./img/${props.type}/${props.name}.jsx.svg`), { cacheKey: ({ type, name }) => `${type}-${name}` } // иначе компонент не сможет различать загружаемые файлы и отрисует одинаковые иконки ); export class Icon extends React.PureComponent { render() { const { type, name } = this.props; switch (type) { case "mono": return ; default: return null; } } } ``` Кажется, что-то из этого у нас вышло. Посмотрим на результат: ![First implemented icon.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/a62/8f0/0c7/a628f00c707c1d231fe775c08563e978.png) Неплохо, но не хватает дефолтных стилей, чтобы растянуть такую иконку по размерностям родительского контейнера. Заведём файл для стилей: ``` // /src/components/Icon/styles.css .icon { display: block; width: 100%; height: 100%; // Сразу же добавим на будущее для наших многоцветных иконок и иллюстраций object-fit: contain; } ``` И подключаем стили к компоненту (на всякий случай добавим по специфичному классу для каждого типа): ``` // /src/components/Icon/index.tsx import loadable from '@loadable/component'; import './styles.css'; // ... case 'mono': return ( ); ``` И наблюдаем улучшение на нашей странице: ![Added some inline styles.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/0ec/7e9/f1d/0ec7e9f1d345ed1adfb4a346da9e8aa5.png) На этом этапе у нас могут возникнуть ошибки при подключении. Во-первых, пока у нас поле `name` не типизировано (более точно, чем просто `string`), мы можем подключить несуществующую иконку и тогда наше приложение взорвется от неотловленных ошибок. Во-вторых, с динамической подгрузкой может что-то случиться, и мы пока что эту ситуацию тоже не обрабатываем. Тем не менее, давайте сперва добьёмся полностью работающего в идеальных «сферических в вакууме» условиях использования, а потом будем обрабатывать все возможные исключения. Так что следующим шагом мы подключим многоцветные иконки и иллюстрации. Для них нам тоже понадобится отдельный компонент. Пока что он тоже будет (почти) простейшим: ``` // /src/components/Icon/index.tsx import React, { SVGProps, useEffect, useState } from "react"; // ... const ImageIcon = ({ type, name, className, }: Pick & { className?: string }) => { const [image, setImage] = useState(null); useEffect(() => { (async function getImage() { try { const loadedImage = (await import(`./img/${type}/${name}.svg`)) as { default: string; }; setImage(loadedImage.default); } catch (error) { // Do nothing for now } })(); }, [type, name]); if (image) { return ![{name}]({image}); } return null; }; // ... ``` И подключим его к нашему `switch` по типам иконок. Сделаем это сразу же и для иллюстраций ``` // /src/components/Icon/index.tsx // ... className="icon icon-mono" /> ); case 'multi': return ( ); case 'illustration': return ( ); default: return null; } // ... ``` Перезагрузим нашу практически пустовавшую до сих пор страницу и увидим, что она вернулась к исходному состоянию: ![Icons MVP.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/48e/f9a/c04/48ef9ac0413694b0fa18bae40462cd7e.png) ### Работаем над ошибками Иконки в текущем состоянии хоть и работают, но при возникновении опечатки при использовании компонента (или невозможности загрузить картинку из-за плохого соединения) наши иконки пока что ведут себя не совсем определённо. В случае с многоцветной иконкой или иллюстрацией компонент рисует пустоту, а в случае с монохромными – выбрасывает ничем не отлавливаемую ошибку. Пора это исправить и сделать в нашем компоненте [Error Boundary](https://reactjs.org/docs/error-boundaries.html). Для этого нам хорошо бы добавить проп `fallback`, чтобы можно было в случае недоступности иконки откатиться, например, на emoji: ``` // /src/components/Icon/index.tsx // ... type Props = ( | { type: "mono"; name: string; fill?: string; } | { type: "multi" | "illustration"; name: string; } ) & { fallback?: ReactElement; }; // ... ``` Теперь добавим основному компоненту конструктор, который задаст ему state и метод `getDerivedStateFromError` для отлова ошибок и передаче информации о них в этот самый стейт. Не будем слишком сильно заморачиваться и обойдемся флажком: ``` // /src/components/Icon/index.tsx // ... type State = { hasError?: boolean; }; // ... export class Icon extends React.PureComponent { constructor(props: Props) { super(props); this.state = { hasError: false, }; } static getDerivedStateFromError(): Partial { return {hasError: true}; } // ... ``` А теперь на случай, если родителю этого компонента вдруг нужно будет поменять иконку, которую он показывает, попросим обнулять этот флажок при изменении `props`: ``` // /src/components/Icon/index.tsx // ... return {hasError: true}; } override componentDidUpdate({ name: prevName, type: prevType, }: Props) { const {name, type} = this.props; const {hasError} = this.state; if (hasError && (name !== prevName || type !== prevType)) { this.setState({hasError: false}); } } render() { // ... ``` Не забудем обработать случай с ошибкой и при рендере компонента: ``` // /src/components/Icon/index.tsx // ... render() { const {type, name, fallback = null} = this.props; const {hasError} = this.state; if (hasError) { return fallback; } switch (type) { // ... ``` Теперь неплохо бы вернуться к `try/catch` внутри нашего компонента, загружающего многоцветные иконки и иллюстрации, `ImageIcon`. Просто убрать эту конструкцию или из неё же выбросить ошибку мы не можем, поскольку тогда она не отловится нашим Error Boundary из-за своей асинхронной природы. Придется добавить аналогичный стейт и ему, чтобы ту же самую ошибку выбрасывать уже синхронно: ``` // /src/components/Icon/index.tsx // ... const ImageIcon = ({ type, name, className, }: Pick & {className?: string}) => { const [image, setImage] = useState(null); const [error, setError] = useState(null); if (error) { throw error; } useEffect(() => { (async function getImage() { try { const loadedImage = (await import( `./img/${type}/${name}.svg` )) as {default: string}; setImage(loadedImage.default); } catch (err) { setError(err); } })(); }, [type, name]); // ... ``` Обнулять этот стейт нам не придется, поскольку за этот компонент это уже должен будет сделать родитель. Вроде бы ошибки мы обработали. Теперь попробуем их симулировать, немного подпортив код нашей страницы, в которую мы уже встроили наши иконки: ``` // /src/App.tsx // ... Hello, world! // ... ``` Получится вот что: ![Broken icons.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/6c2/720/d37/6c2720d375f941fe1d4dff0f6f1193cc.png) Работает, но всё ещё чего-то не хватает. ### Прелоадер Из-за того, что наши иконки загружаются динамически, сейчас пользователь вместо них может увидеть пустоту при медленном подключении к интернету. Если в случае с простейшими одноцветными иконками это ещё терпимо, то отсутствие поясняющих иллюстраций может быть критичным для дизайна. Давайте это исправим, внедрив в компонент иконки анимацию загрузки, которую мы уже не будем подгружать динамически, а просто встроим в наш бандл. Мы взяли понравившийся прелоадер вот [отсюда](https://github.com/SamHerbert/SVG-Loaders) и сделали из него [отдельный компонент](https://github.com/vbifonixor/icon-extractor/blob/main/src/components/Preloader/index.tsx). Скорее всего в вашей кодовой базе уже есть компонент-прелоадер, он тоже вполне может подойти для этих целей. Добавим необязательный проп `loader` основному компоненту : ``` // /src/components/Icon/index.tsx // ... ) & { fallback?: ReactElement; loader?: ReactElement; }; // ... render() { const {type, name, fallback = null, loader = null} = this.props; const {hasError} = this.state; // ... ``` На текущий момент у нас используется два разных способа подгрузки наших изображений, и для каждого рендерить прелоадер нужно отдельным образом. Начнем с самого простого – передадим проп [`fallback`](https://loadable-components.com/docs/fallback/) (тут небольшая путаница с нашим неймингом, оставим комментарий об этом для будущих поколений) для наших динамически подгружаемых одноцветных иконок-компонентов. Используем проп `loader` на случай, если разработчику хочется как-то особенным образом показать загрузку своей иконки, а если его нет – нарисуем стандартный: ``` // /src/components/Icon/index.tsx // ... switch (type) { case 'mono': return ( } className="icon icon-mono" /> ); // ... ``` Убедимся, что всё работает. Замедлим с помощью DevTools сеть и посмотрим, как поведет себя иконка при загрузке страницы: ![](https://habrastorage.org/webt/v5/bo/iq/v5boiq9tqqeu6-cfm1gkqclya_a.gif) [Screen\_Recording\_2022-02-09\_at\_22.25.07.mov](https://github.com/vbifonixor/icons-article/raw/master/assets/Screen_Recording_2022-02-09_at_22.25.07.mov) Осталось проделать то же самое для наших разноцветных иконок и иллюстраций. В нашем компоненте, загружающем иконки-картинки, поддержим аналогичный проп `loader`, который и будет показываться, пока картинка не загружена: ``` // /src/components/Icon/index.tsx // ... const ImageIcon = ({ type, name, loader, className, }: Pick & {className?: string}) => { const [image, setImage] = useState(null); // ... if (image) { return ![{name}]({image}); } // поместили во фрагмент, потому что ReactNode нельзя // напрямую возвращать из компонентов return <>{lodader} }; // ... className="icon icon-mono" /> ); case 'multi': return ( } className="icon icon-multi" /> ); case 'illustration': return ( } className="icon icon-illustration" /> ); default: return null; // ... ``` Теперь нашим цветастым картинкам придется некоторое время рендериться, но пока они будут загружаться по медленному соединению, пользователю не будет так резко бросаться в глаза пустота: ![](https://habrastorage.org/webt/8m/n2/b3/8mn2b3ouxm_pa6kw1oirjsvcxdi.gif) [Screen Recording 2022-02-09 at 23.05.10.mov](https://github.com/vbifonixor/icons-article/raw/master/assets/Screen_Recording_2022-02-09_at_23.05.10.mov) Наш компонент иконки полностью готов к использованию! Полируем DX ----------- Однако пока использовать компонент просто «можно». Напишем ещё несколько строк кода, чтобы делать это было приятно. ### Выгружаем типы иконок Чтобы сделать полностью типобезопасный компонент, нам не хватает только знания о том, какие возможные названия могут быть у наших иконок, чтобы автодополнение любимого редактора кода само подсказывало, какую иконку мы хотим нарисовать. Для реализации такого дополнения нам понадобится вернуться к нашему скрипту выгрузки и после выгрузки всех иконок сохранить в отдельный файл ещё и их названия, разбитые по типам. Сперва разделим названия. ``` // /scripts/generate-icons.js // ... } } }), 100, ); const names = downloadableIcons.reduce( (acc, {name, type}) => { return {...acc, [type]: [...acc[type], name]}; }, { [Types.Mono]: [], [Types.Multi]: [], [Types.Illustration]: [], }, ); } main(); ``` Перед объявлением функции `main`, допишем небольшую функцию, которая соберет для нас строку с валидным union-типом, который можно будет выгрузить в файл: ``` // /scripts/generate-icons.js // ... ? iconExplicitType : parentType, }; }; const generateUnionString = (names) => names.length ? ["'", names.join("' | '"), "'"].join('') : 'never'; async function main() { if (!FIGMA_TOKEN) { console.error( ``` Теперь сгенерируем строку с содержимым файла типов целиком и сразу же запишем в файл: ``` // /scripts/generate-icons.js // ... const typedef = `export type MonochromeIconNames = ${generateUnionString( names[Types.Mono], )};\nexport type MulticolorIconNames = ${generateUnionString( names[Types.Multi], )};\nexport type IllustrationsNames = ${generateUnionString( names[Types.Illustration], )};\n`; await fs.writeFile( path.join(process.cwd(), `${BASE_DIR}/iconNames.ts`), typedef, ); } main(); ``` Запустим и убедимся, что всё работает как надо: ![Generated Typings.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/a5c/371/dd9/a5c371dd9c1cb0847f042fb2cac3e888.png) Похоже на правду. Используем эти типы в самом компоненте: ``` // /src/components/Icon/index.tsx // ... import { Preloader, Sizes as PreloaderSizes } from "../Preloader"; import { MonochromeIconNames, MulticolorIconNames, IllustrationsNames, } from "./iconNames"; import loadable from "@loadable/component"; import "./styles.css"; type Props = ( | { type: "mono"; name: MonochromeIconNames; fill?: string; } | { type: "multi"; name: MulticolorIconNames; } | { type: "illustration"; name: IllustrationsNames; } ) & { fallback?: ReactNode; loader?: ReactNode; }; // ... ``` Теперь наш редактор сможет направить нас в нужную сторону, а Typescript выдаст ошибку, если мы ошибемся в имени или случайно перепутаем тип иконки: ![Working Autocomplete.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/d7e/049/543/d7e049543c9b3ca9cf704d4a8843a5fa.png) ### Витрина Ещё удобнее было бы иметь под рукой витрину всех наших иконок, на которой мы увидеть их все вместе как на ладони. Для того, чтобы её построить, мы воспользуемся [Storybook](https://storybook.js.org/). Рядом с выгрузкой типов выгрузим отдельно ещё и названия в json-файл: ``` // /scripts/generate-icons.js typedef, ); await fs.writeFile( path.join(process.cwd(), `${BASE_DIR}/catalog.json`), JSON.stringify(names), ); } main(); ``` Запустим наш генератор ещё раз и получим на этот раз уже json-файл с названиями всех иконок, разбитый по категориям. Этим каталогом иконок мы теперь воспользуемся, чтобы красиво отобразить все наши иконки в нашем сторибуке. **Монохромные иконки** (с возможностью менять цвет): ![Storybook showcase_ monochrome.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/b47/b5f/e4d/b47b5fe4d95255c29efc4314aa15c8a4.png) **Многоцветные иконки**: ![Storybook showcase_ multicolor.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/acb/4e9/b17/acb4e9b17d095682a1311fa80699deed.png) **Иллюстрации**: ![Storybook showcase_ illustrations.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/220/846/c32/220846c32639531882f62def0d07f50c.png) Эти изменения мы внесли за кадром и не стал подробно описывать в посте, потому что по большей части они заключаются в вёрстке красивой витрины (с возможностью копировать код компонента по клику на название). Если всё же очень хочется посмотреть код – все изменения, связанные с красивой Story для сторибука можно найти [в этом коммите](https://github.com/vbifonixor/icon-extractor/commit/d594af95ab407fd9c5506e4018bd15107e914e43). ### Понятные логи генератора Наш генератор пока работает совершенно без какого-либо логирования процесса. Было бы намного приятнее видеть прогресс по ходу загрузки и иметь приличный вывод сообщений об ошибках. Это тоже поправимо – достаточно на всех ключевых моментах алгоритма нашей выгрузки с помощью [`chalk`](https://www.npmjs.com/package/chalk) вывести об этом сообщения: ``` // /scripts/generate-icons.js // ... const async = require('async'); const mkdirp = require('mkdirp'); const rimraf = require('rimraf'); const chalk = require('chalk'); // ... const generateUnionString = (names) => names.length ? ["'", names.join("' | '"), "'"].join('') : 'never'; const logger = { info: (text) => console.log( `${chalk.black.bgWhite(' INFO: '.padEnd(10))} ${text}`, ), success: (text) => console.log( `${chalk.black.bgGreen(' SUCCESS: '.padEnd(10))} ${text}`, ), error: (text) => console.log( `${chalk.black.bgRed(' ERROR: '.padEnd(10))} ${text}`, ), }; async function main() { if (!FIGMA_TOKEN) { logger.error( 'No figma token found! Make sure FIGMA_TOKEN is in your .env file or is in your environment variables', ); process.exit(1); } let figmaDocument; logger.info('Getting info about icons document frames...'); // ... ``` Выше мы не стали показывать все расставленные логи, но их всегда можно посмотреть [в репозитории](https://github.com/vbifonixor/icon-extractor/commit/2a23b2c72c01ae4028e403a43d2f4d8dd5a7722d#diff-9ae675467a94ffe5569456502a0d1fcd8c3b64b661fa24a39ec8978792314935R73). Выглядеть это будет так: ![CLI Showcase (1).png](https://habrastorage.org/r/w1560/getpro/habr/post_images/ca3/379/97d/ca337997da68855b296357959a2840fd.png) Заключение: что мы получили? ============================ В нашем проекте теперь есть полноценный иконочный сет, который управляется единственным источником правды – макетами дизайнеров, и обязывает нас пользоваться дизайн-системой. Из имеющихся трех вариантов подключения иконок мы оставили один, которым легко и удобно пользоваться независимо от вида иконки, которую мы хотим вставить, и кастомизаций, которые может понадобиться к ним применить. Конкретный способ подключения теперь спрятан за слоем абстракции, споров о «правильности» того или иного на кодревью больше возникнуть не должно. Иконки легко и удобно искать (а чаще всего в этом и вовсе нет необходимости, ведь названия иконок в макетах буквально являются названиями иконок в проекте). Разработчику больше не нужно задумываться обо всех этих деталях. Нет пределов совершенству ------------------------- Наш небольшой проект тоже далек от идеала. Вот несколько идей, как сделать его ещё лучше или какие проблемы можно решить дополнительно: * Написать бота, который будет с периодичностью раз в неделю открывать пулл-реквест, если поменялись иконки на макете. * Причесать код и разделить файлы на модули, чтобы код был более читаемым и изменяемым. * Предусмотреть подключение и выгрузку не только векторных иконок и иллюстраций, но и растровых. * Подбить соседей по офису из отделов разработки мобильных приложений на аналогичный проект. И много других возможных фич, которые могут оказаться полезными на ваших проектах. --- Пишите в комментариях, что думаете о проекте и делитесь своими идеями! И ещё, если вы дочитали до конца: напишите, ок ли вам такие длинные посты или нам нужно разбивать их на два и более? В этот раз не хотелось этого делать, потому что это полноценный проект. Но если будет запрос, можно делить статьи на «мини-сериал».
https://habr.com/ru/post/708286/
null
ru
null
# Создаем приложение на Node.JS, Express и Typescript с Jest, Swagger, log4js и Routing-controllers Это пошаговая инструкция создания приложение на Node.JS, с использованием typescript и express. Новое приложение создается не часто, отсюда забываются шаги по его созданию. И я решил написать некую шпаргалку, в помощь самому себе и другим разработчикам. Помимо шагов, я так же снял небольшие видео ролики для наглядности. Существуют уже готовые фреймворки для Node.JS, которые уже содержат в себе все необходимые пакеты и можно работать с ними, но это уже другой путь. Идея была в том, чтобы не зависить целиком от какого-то фреймворка и в случае необходимости менять одни пакеты на другие. Итак по шагам: 1. **Простое Web приложение** [youtu.be/7MIIcFDeSg4](https://youtu.be/7MIIcFDeSg4) Ставим в определенном порядке пакеты и Node.JS, а так же прописываем настройки. ``` 1) node.js download, 2) Create directory for your project, 3) npm init, 4) in package.json "main": "dist/index.js", "scripts": { "build": "tsc", "start": "node ." } 5) npm install --save-dev typescript, 6) in tsconfig.json { "compilerOptions": { "esModuleInterop": true, "outDir": "dist", "baseUrl": "." } } 8) npm install express, 9) npm install @types/express, 10) create src folder, 11) create src/index.ts with code below: import express from 'express' const app = express(); const port = 5000; app.get('/', (request, response) => { response.send('Hello world!'); }); app.listen(port, () => console.log(`Running on port ${port}`)); 13) npm run build, 14) npm run start, 15) localhost:5000 ``` 2. **Отладка и инициализация в Node.js** [youtu.be/hfST0e1ITGw](https://youtu.be/hfST0e1ITGw) Настраиваем режим отладки и создаем .env файл для установки входных значений. ``` 1) in tsconfig.json add: "sourceMap": true 2) int package.json add: "prestart": "npm run build", 3) In IntelliJ IDEA in Run/Debug Configurations choose: "npm" and add script 4) npm i ts-node-dev --save-dev 5) int package.json add: "server:watch": "ts-node-dev --respawn --transpile-only src/index.ts" 6) add IntelliJ IDEA npm for "server:watch" script 7) npm install dotenv 8) in index.ts add: dotenv.config(); 9) create .env file in root dir of your project and add text below in .env file: PORT = 5000 const port = process.env.PORT; ``` 3. **Добавление log4js и eslint к приложению на Node.JS** [youtu.be/qcSpd6N7ZJ8](https://youtu.be/qcSpd6N7ZJ8) ``` 1) npm install log4js 2) in index.ts file: import log4js from 'log4js'; ... const logger = log4js.getLogger(); logger.level = process.env.LOG_LEVEL; ... 4) in .env file: LOG_LEVEL=error 5) in index.ts file: ... logger.info('log4js log info'); logger.debug('log4js log debug'); logger.error('log4js log error'); ... 6) npm install eslint --save-dev 7) eslint --init 8) "prebuild": "npm run lint" 9) "lint:fix": "eslint --cache --ext .ts . --fix", 10) "lint": "eslint --cache --ext .ts .", !!! --cache (only changed), . 11) IntelliJ IDEA -- file -- setting -- eslint -- automatic 12) "rules": { "semi": ["error", "always"] } ``` 4. **Routing controllers для Node.js** [youtu.be/\_7z5Zubsdps](https://youtu.be/_7z5Zubsdps) Используем routing-controllers для более удобной работы. ``` 1) npm install routing-controllers 2) npm install reflect-metadata 3) npm install express body-parser multer 4) npm install class-transformer class-validator 5) tsconfig.json "compilerOptions": { ... "emitDecoratorMetadata": true, "experimentalDecorators": true ... } 6) in index.ts // const app = express(); // logger.info('log4js log info'); // logger.debug('log4js log debug'); // logger.error('log4js log error'); // app.get('/', (request, response) => { // response.send('Hello world2!'); // }); 7) in index.ts import { createExpressServer } from 'routing-controllers'; import { UserController } from './UserController'; const app = createExpressServer({ controllers: [UserController], // we specify controllers we want to use }); 8) controller/user-controller.ts import { Controller, Get, Param } from 'routing-controllers'; import 'reflect-metadata'; @Controller() export class UserController { @Get('/users/:id') getOne (@Param('id') id: number) { return 'This action returns user #' + id; } } 9) http://localhost:3001/users/1 ``` 5. **Node.JS middleware, interceptor, http context** [youtu.be/iWUMUa7gTTQ](https://youtu.be/iWUMUa7gTTQ) ``` 1) middleware -- middleware.ts 2) middleware.ts export function loggingBefore (request: any, response: any, next?: (err?: any) => any): any { console.log('do something Before...'); next(); } export function loggingAfter (request: any, response: any, next?: (err?: any) => any): any { console.log('do something After...'); next(); } 3) user-controller.ts in class @UseBefore(loggingBefore) @UseAfter(loggingAfter) console.log('do something in GET function...'); 4) user-controller.ts in function @UseBefore(loggingBefore) @UseAfter(loggingAfter) 5) user-controller.ts in function @UseInterceptor(function (action: Action, content: any) { console.log('change response...'); return content; }) 6) npm install express-http-context 7) index.ts const app: Express = express(); app.use(bodyParser.json()); app.use(httpContext.middleware); useExpressServer(app, { controllers: [UserController] }); app.use((req, res, next) => { httpContext.ns.bindEmitter(req); httpContext.ns.bindEmitter(res); }); 8) middleware.ts loggingBefore import httpContext from 'express-http-context'; console.log('set traceId = 123'); httpContext.set('traceId', 123); 9) middleware.ts loggingAfter console.log(`tracedId = ${httpContext.get('traceId')}`); ``` 6. **Node.JS добавляем post запрос, валидация входных данных, глобальный обработчик ошибок** [youtu.be/onBVkkLEuw4](https://youtu.be/onBVkkLEuw4) ``` 1) in user-controller.ts add: ... @Post('/users/:id') @OnUndefined(204) postOne (@Param('id') id: number, @Body() info: any) { console.log(JSON.stringify(info)); } ... 2) in postman http://localhost:3001/users/1 { "country":"Russia", "city":"SPb" } 3) model -- info.ts 4) import { IsDefined } from 'class-validator'; export class Info { @IsDefined() country: string; @IsDefined() city: string; } 8) postOne (@Param('id') id: number, @Body() info: Info) { 9) middleware -- global-error-handler.ts 10) import { ExpressErrorMiddlewareInterface, Middleware } from 'routing-controllers'; @Middleware({ type: 'after' }) export class GlobalErrorHandler implements ExpressErrorMiddlewareInterface { error (error: any, request: any, response: any, next: () => any) { response.send({ ERROR: error }); next(); } } 11) useExpressServer(app, { controllers: [UserController], // we specify controllers we want to use middlewares: [GlobalErrorHandler], defaultErrorHandler: false }); ``` 7. **Swagger документация в Node.JS приложении** [youtu.be/-uoIasCbsq8](https://youtu.be/-uoIasCbsq8) ``` 1) npm install swagger-ui-express 2) tsconfig.json -- "resolveJsonModule": true 3) src -- swagger -- openapi.json 4) index.ts import swaggerUi from 'swagger-ui-express'; import * as swaggerDocument from '../src/swagger/openapi.json'; ... app.use('/api-docs', swaggerUi.serve, swaggerUi.setup(swaggerDocument)); 5) change port to 3000 in .env file set PORT=3000 6) npm install cors 7) npm install @types/cors 8) in index.ts import cors from 'cors'; ... app.use(cors() as RequestHandler); ... 9) Swagger Editor (example for test project) openapi openapi: 3.0.1 info: title: test API version: v1 servers: - url: 'http://localhost:3000' tags: - name: API functions description: >- API functions of our application paths: /users/{id}: get: summary: returns simple answer from get tags: - API functions parameters: - name: id in: path required: true description: simple parameter schema: type : string example: '1' description: parameter id just for test responses: '200': #status code description: OK content: document: schema: type: string example: some text post: summary: returns simple answer from post tags: - API functions requestBody: required: true content: application/json: schema: $ref: '#/components/schemas/Info' example: country: Russia city: Spb parameters: - name: id in: path required: true description: simple parameter schema: type : string example: '1' description: parameter id just for test responses: '204': #status code description: OK components: schemas: Info: type: object properties: country: type: string city: type: string ``` 8. **Добавляем Unit тесты на Jest в приложение на Node.JS** [youtu.be/rCIRpTMVEMM](https://youtu.be/rCIRpTMVEMM) ``` 0) in global-error-handler.ts response.status(error.statusCode || error.httpCode).json(error); next(); 1) npm install --save-dev jest 2) npm i -D ts-jest @types/jest 3) npm i -D ts-jest 4) package.json -- { ... scripts { ... "test:unit": "jest --config=jest.config.js", }, ... } 5) create jest.config.js with code below: process.env.NODE_ENV = 'UNITTEST'; module.exports = { clearMocks: true, collectCoverage: true, collectCoverageFrom: [ './src/**/*.ts' ], coverageDirectory: '/test/coverage', testEnvironment: 'node', testMatch: ['\*\*/\*.test.ts'], preset: 'ts-jest' }; 6) .eslintignore \*.js node\_modules dist coverage } 7) .eslintrc.json { ... "env": { "jest": true } ... } 8) test -- controller -- user-controller.test.ts describe('UserController', () => { afterEach(() => { jest.restoreAllMocks(); }); it('postOne', () => { const userController = new UserController(); const testBody = { city: 'SPb' }; const res = userController.postOne(1, testBody as Info); expect(res).toBeUndefined(); }); } 9) in IDEA add script - test:unit set in environment - NODE\_ENV=UNITTEST 10) Simple variant of jest.config.js for IDEA: process.env.NODE\_ENV = 'UNITTEST'; module.exports = { clearMocks: true, collectCoverage: false, testEnvironment: 'node', testMatch: ['\*\*/\*.test.ts'], preset: 'ts-jest' }; 11) npm i -D supertest @types/supertest 12) in user-controller.test.ts ... let server; ... beforeAll(async () => { server = express(); server.use(bodyParser.json()); useExpressServer(server, { controllers: [UserController], // we specify controllers we want to use middlewares: [GlobalErrorHandler], defaultErrorHandler: false }); }); ... it('postOne with validations', done => { request(server) .post('/users/1') .send({ country: 'Russia', city: 'SPb' } as Info) .expect(204) .end((err, res) => { if (err) throw new Error(JSON.stringify(res.body)); done(); }); }); ``` 9. **Использование config для Node.JS, а так же другие полезные пакеты.** [youtu.be/8ZCHUN-JTck](https://youtu.be/8ZCHUN-JTck) Пакет config позволяет устанавливать значения констант при инициализации в зависимости от значения NODE\_ENV. ``` 1) npm install config 2) npm install @types/config 3) config 4) default.yaml PORT: 3000 DEV.yaml PORT: 3001 LOCAL.yaml PORT: 3002 5) index.ts // const port = process.env.PORT; const port = config.get('PORT'); 6) IDEA server:watch -- Environment NODE_ENV=DEV NODE_ENV=LOCAL -- packages: husky - коммиты в гит semantic-release - формат коммитов и контроль версий pretty-quick - запускает prettier на измененных файлах prettier - формат кода eslint-config-prettier - разрешает конфликты между eslint и prettier eslint-plugin-prettier - запускает prettier как правила eslint mock-socket - мок для вебсокета jest-websocket-mock - тестирование вебсокета jest-sonar-reporter - конвертр из формата jest в формат sonar jest-mock-extended - мок объектов и интерфейсов ws - вебсокет typescript-string-operations - String.format lodash - библиотека дополнительных функций для js http-status-codes - константы для HTTP статусов moment - библиотека работы со временем в js ncp - копирование файлов js-yaml - загрузка yaml файлов mongodb - функции для работы с Mongo migrate-mongo - миграция для Mongo log-timestamp - запись даты в лог axios - HTTP клиент applicationinsights - интеграция с Azure Application Insights ```
https://habr.com/ru/post/536512/
null
ru
null
# Генерация PDF для скачивания конфигов сервера Есть [замечательный проект hiqpdf](http://www.hiqpdf.com/demo/ConvertHtmlToPdf.aspx). Умеет html качественно в pdf или картинки превращать Но по дефолту не учитывает тот факт, что в html можно вставлять js/iframe, которые могут быть использованы не по назначению. Ну и я не долго думая попробовал это на их же сайте Вот так нагенерил в консоли браузера ифреймы ``` var str = ""; for (var i = 8000; i <= 9000; i++) { str += "#" + i; str += " "; } str; ``` **Получилось что-то вроде этого**![](https://habrastorage.org/r/w1560/webt/ih/dg/np/ihdgnpesa7pnov43iehlqi1nf1m.png) Вот такой самоскан портов. Нашёл плеск (конечно nmap таже спокойно находит и даже больше *-p [8000-9000] -T4 -A -v hiqpdf.com*, но вот так интереснее же). ![](https://habrastorage.org/r/w1560/webt/ms/d0/ro/msd0roue_dgs004at2mlkxdym-e.png) Но быстро с ними разобраться не вышло, потому в конце продемонстрирую на примере других ребят уязвимость, а для понимания механики процесса сделал [своё небольшое демо](https://github.com/SanSYS/FailPdfDemo). Есть апи на .net, которое отдаёт просто строку и всё + есть код, который умеет на этом сервере генерировать pdf. Код взят прямо с hiqpdf.com, без лишних телодвижений. ![](https://habrastorage.org/r/w1560/webt/jd/5l/vi/jd5lvimngzcinuu0qyfwzim99ju.png) Теперь 4 iframe [localhost/api/def/get](http://localhost/api/def/get) ![](https://habrastorage.org/r/w1560/webt/of/l1/jj/ofl1jjidmu-kc2fodynez2ojis8.png) Ок, проверим, что это точно .net на винде [localhost/api/con.aspx](http://localhost/api/con.aspx) — если не в курсе, файлы с именем con/aux и ещё какие-то для винды запрещены. Ноги растут [из древностей доса](https://blogs.msdn.microsoft.com/oldnewthing/20031022-00/?p=42073), когда это были конкретные устройства. Например — очень мне нравится [сайт](https://dotnetfiddle.net/), особенно если под рукой лишь телефон, а так хочется какой-нибудь код набрать: [dotnetfiddle.net/con1.asmx](https://dotnetfiddle.net/con1.asmx) — обработанная ошибка и соответствующая 404-страница [dotnetfiddle.net/con.asmx](https://dotnetfiddle.net/con.asmx) — вот уже не судьба до управляемого кода в пуле добраться [dotnetfiddle.net/con.txt](https://dotnetfiddle.net/con.txt) — а вот так можно и путь получить к директории (Physical Path E:\sitesroot\0\con.txt) ![](https://habrastorage.org/r/w1560/webt/mt/sz/dq/mtszdqofu2plejgba10wochovos.png) На самом деле без понятия зачем мне версия, в теории может помочь, если там старая и ты знаешь уязвимости нулевого дня для них. Лан, теперь самое интересное — узнать директорию, по локалхосту у меня ошибки 404 не закрыты и получаю их, как есть. ![](https://habrastorage.org/r/w1560/webt/0k/jy/fl/0kjyflghvw8mdshmiainhkxlzi8.png) В виду того, что это сайт на .net — конфиг файл web.config лежит в корне: ![](https://habrastorage.org/r/w1560/webt/de/hf/zf/dehfzff-yue4zaugfk__6qne0l4.png) Собственно, это было легковесное демо. А теперь на реальных данных (чей-то прод, они уже прикрыли лавочку ;) ![](https://habrastorage.org/r/w1560/webt/st/tv/cm/sttvcmzbwzswsg_gkliv6o3zff0.png) О, там секция включается из файла connections.config, удобно, нестандартно, отлично скачивается: ![](https://habrastorage.org/r/w1560/webt/7b/mv/c5/7bmvc5jcnu5nlzlordduszpovdy.png) И ещё немного данных: ![](https://habrastorage.org/r/w1560/webt/9d/sm/-c/9dsm-cwq6tvphnfdag5tu1gk_di.png) Думаю, тут уже всё понятно и продолжать сыпать скринами нет смысла. Жаль вся БД снаружи закрыта. А из JS я такого пока не умею (да, там можно не только iframe, но и js юзать). Сразу оговорюсь — именно hiqpdf тут не при чём, проблема конфигурации приложения, кода отправки на печать в pdf данных (если знаешь, что чётко будет html, то нужно делать htmlencode), а также любых других либ, например стандартный компонент WebBrowser умеет также. Собственно продолжение — оказывается некоторые любят не PDF, даже не HTML, а именно изображение, допустим png. И юзают для получения картинки компоненту WebBrowser (со мной любезно поделились куском кода, но попросили не раскрывать название продукта, где он юзается). Суть — можно написать js, который исполнялся в дефолтной System.Windows.Forms.WebBrowser компоненте: ![](https://habrastorage.org/r/w1560/webt/d-/nq/fo/d-nqfoj9smuaggwintiefednniy.png) **Вот сам исходник** ``` using (WebBrowser br = new WebBrowser()) { AutoResetEvent loadingWaiter = new AutoResetEvent(false); br.AllowNavigation = true; br.ScrollBarsEnabled = false; br.ScriptErrorsSuppressed = true; br.DocumentText = "0"; br.Width = 1024; br.Document.OpenNew(true); br.Document.Write(htmlCode); br.Refresh(); br.DocumentCompleted += (a, b) => loadingWaiter.Set(); loadingWaiter.WaitOne(590); br.Height = (int)(br.Document.Body.ScrollRectangle.Height * scale + 1); using (Bitmap bmp = new Bitmap(br.Width, br.Height)) { br.DrawToBitmap(bmp, new Rectangle(0, 0, br.Width, br.Height)); bmp.Save(stream, ImageFormat.Png); } } ``` Про его безумность ничего сказать не могу, ибо не интересовался проблемой создания произвольного изображения из html. На момент обнаружения достаточно было 1к запросов отправить в API (да, дело происходило на IIS и алерты, я так понимаю, если и были, то на том же сервере, если, конечно, войти под учёткой, от которой запущен пул). Как это править — WebBrowser это IE и необходимо для него запрещать на windows-сервере JS. По моему опыту это и так по дефолту, и мне дико повезло, что оказалось иначе. Но это отстой и по-хорошему — конечно нельзя в такие компоненты вставлять данные, как есть. Если знаешь, что юзаешь подобную компоненту, а клиент может содержать управляющие символы — их нужно экранировать. Для HTML/JS достаточно сделать [HtmlEncode](https://referencesource.microsoft.com/#System/net/System/Net/WebUtility.cs,f506deedef7bbc26). Но если что, то HiqPdf через *htmlToPdfConverter.RunJavaScript = false* отлично умеет запрещать JS. Всё это не так эффектно, [как в прошлый раз](https://habr.com/post/353504/), но, как видите, тоже может помочь в добытии конфигов сервера.
https://habr.com/ru/post/354476/
null
ru
null
# UHCI, или самый первый USB ![](https://habrastorage.org/r/w1560/webt/89/wk/ye/89wkyeuwi_jbnzlge2bawtlabum.png) Доброго времени суток, дорогой читатель! Меня просили написать про UHCI — хорошо, пишу. Возможно, вам пригодиться эта статья, если, к примеру, вы не имеете достаточных навыков написания драйверов и чтение документации к хардвейру. Простой пример: хотите написать свою ОС для мини-ПК, дабы какая-нибудь винда или очередной дистрибутив линукса не загружали железо, и вы использовали всю его мощь исключительно в своих целях. Что такое UHCI? --------------- Думаю, чтобы еще раз не распыляться на тему что и зачем, просто оставлю ссылку на мою предыдущую статью про EHCI. [Тык сюда](https://habr.com/post/426421/) UHCI — Universal Host Controller Interface, работает как PCI-устройство, но, в отличии от EHCI использует порты заместо MMIO(Memory-Mapped-IO). ![](https://habrastorage.org/r/w1560/webt/nk/bl/--/nkbl--cqrxvs21lcitfothfcw4k.png) Термины, которые будут использованы далее ----------------------------------------- * USB Driver (USBD) — сам USB драйвер * HC(Host Controller) — хост-контроллер, или же просто наш UHCI * Host Controller Driver (HCD) — драйвер, который связывает железо и USBD * USB Device — само USB-устройство Типы передачи данных -------------------- Isochronous — изосинхронная передача, которая имеет заданную частоту передачи данных. Может быть использована, к примеру, для USB-микрофонов и т.п. Interrupt — Небольшие, спонтанные передачи данных с устройства. Тип передачи прерывания поддерживает устройства, которые требуют предсказуемого интервала обслуживания, но не обязательно обеспечивают предсказуемый поток данных. Обычно используются для таких устройств, как клавиатуры и указательные устройства, которые могут не выдавать данные в течение длительных периодов времени, но требуют быстрого ответа, когда у них есть данные для отправки. Control — Тип передачи информации о состоянии устройства, состоянии и конфигурации. Тип передачи Control используется для обеспечения канала управления с устройств Host to USB. Control-передачи всегда состоят из фазы настройки и нуля или более фаз данных, за которыми следует фаза состояния. Крайне важно, чтобы передача управления в заданную конечную точку обрабатывалась в режиме FIFO. Если управление передается на одну и ту же конечную точку, чередование может привести к непредсказуемому поведению. Bulk — тип передачи массивов данных. Используется, к примеру в MassStorage-устройствах. ![](https://habrastorage.org/r/w1560/webt/j1/d5/4a/j1d54aqfs0iicr_-dfpmkwx8d_e.png) Вот так выглядит распределение 1мс времени — обработка одного фрейма. Распределение времени --------------------- Контроллер хоста поддерживает доставку данных в реальном времени, генерируя пакет Start Of Frame (SOF) каждые 1 мс. SOF-пакет генерируется, когда истекает счетчик SOF в хост-контроллере (рис. 3). Контроллер хоста инициализирует счетчик SOF для времени кадра 1 мс. Могут быть внесены небольшие изменения в это значение (и, следовательно, период времени кадра) путем программирования регистра изменения SOF. Эта функция позволяет внести незначительные изменения в период времени кадра, если это необходимо, для поддержания синхронизации в реальном времени во всей системе USB. Контроллер хоста включает в себя номер кадра в каждом SOF-пакете. Этот номер кадра однозначно определяет период кадра в реальном времени. Условие окончания кадра (EOF) возникает в конце временного интервала 1 мс, когда хост-контроллер начинает следующее время кадра, генерируя еще один SOF-пакет с соответствующим номером кадра. В течение периода кадра данные передаются в виде пакетов информации. Период времени кадра строго соблюдается хост-контроллером, а пакеты данных в текущем кадре не могут выходить за пределы EOF (см. Главу 11 в спецификации USB). Контроллер хоста поддерживает синхронизацию передачи данных между кадрами в реальном времени, привязывая номер кадра к выполнению конкретной записи в списке кадров. Счетчик кадров хост-контроллера генерирует номер кадра (11-битное значение) и включает его в каждый пакет SOF. Счетчик программируется через регистры и увеличивается каждый период кадра. Контроллер хоста использует младшие 10 бит номера кадра в качестве индекса в списке кадров с 1024 фреймами, который хранится в системной памяти. Таким образом, поскольку счетчик кадров управляет выбором записи из списка кадров, хост-контроллер обрабатывает каждую запись в списке в заданный период кадра. Контроллер хоста увеличивается до следующей записи в списке кадров для каждого нового кадра. Это гарантирует, что изохронные передачи выполняются в определенном кадре. Рисунок 3: ![](https://habrastorage.org/r/w1560/webt/d8/pj/iw/d8pjiwyjanx3yse7tmmtnyeooqe.png) UHCI структуры -------------- Тут всё точно так же, как и с EHCI. Пример запросов к HC: ![](https://habrastorage.org/r/w1560/webt/io/1d/sm/io1dsmtielklqhm84nhekufybj4.png) Настройка и доступ к UHCI ------------------------- И так, как я уже и сказал ранее, UHCI работает через порты, значит от PCI нам надо узнать базу регистров UHCI. ![](https://habrastorage.org/r/w1560/webt/gz/ql/3f/gzql3fejuar2ko92q8dnok-ehpi.png) По смещению 0x20 лежит 4 байта — IO Base. Относительно IO Base мы можем воспользоваться следующими регистрами: ![](https://habrastorage.org/r/w1560/webt/jk/a5/od/jka5odl_cbgmqxcdsix8e-1tkl0.png) Регистры UHCI ------------- * USBCMD — регистр для управления HC'ом. Биты: + Бит 6 — флаг того, что устройство сконфигурировано и инициализировано успешно. + Бит 1 — HC Reset. Устанавливается для сброса HC'а. + Бит 0 — Run/Stop. Отображает состояние HC. 1 — работает, 0 — нет. * USBSTS — Регистр статуса. Биты: + Бит 5 — HC Halted. Произошла ошибка, либо же контроллер успешно выполнил HC Reset. + Бит 4 — Host Controller Process Error. Бит устанавливается в 1 когда произошла критическая ошибка и HC не может продолжить выполнение очередей и TD. + Бит 3 — Host System Error. Ошибка PCI. + Бит 1 — Error Interrupt. Показывает то, что произошла ошибка и HC сгенерировал прерывание. + Бит 0 — Interrupt. Показывает, что HC сгенерировал прерывание. * USBINTR — Регистр настройки прерываний. Биты: + Бит 2 — IOC — Interrupt on complete — генерирует прерывание при завершении транзакции. * FRNUM — Номер текущего фрейма(Брать его & 0x3FF для правильного значения). * FLBASEADD — Frame List Base Address — адрес списка фреймов. * PORTSC — Port status and control — регистр статуса и управления портом. Биты: + Бит 9 — Port Reset — 1- порт ресетиться. + Бит 8 — показывает, что к порту подключено Low-speed устройство + Бит 3 — показывает, что состояние включенности порта изменено + Бит 2 — показывает, включен ли порт + Бит 1 — показывает, что изменено состояние подключенности устройства к порту + Бит 0 — показывает, что устройство подключено к порту. Структуры --------- ### Frame List Pointer ![](https://habrastorage.org/r/w1560/webt/oc/y8/a6/ocy8a6is-xd60i9bxmtdjjyqcdy.png) ### Transfer Descrptor ![](https://habrastorage.org/r/w1560/webt/jz/sh/bl/jzshblpig4inzxxtzkzxlmvsvq8.png) ##### TD CONTROL AND STATUS . Биты: * Биты 28-27 — счетчик ошибок, аналогично EHCI. * + Бит 26 — 1=Low-speed устройство, 0=Full-speed устройство. + Бит 25 — 1=изосинхроный TD + Бит 24 — IOC + Биты 23-16 — статус: + Бит 23 — Показывает то, что это активный TD + Бит 22 — Stalled + Бит 21 — Data Buffer Error + Бит 20 — Babble Detected + Бит 19 — NAK * Биты 10-0: количество байт, переданных хост-контроллером. ##### TD Token * Биты 31:21 — Max Packet Len, аналогично EHCI * Бит 19 — Data Toggle, аналогично EHCI * Биты 18:15 — Номер конечной точки * Биты 18:14 — адрес устройства * Биты 7:0 — PID. In=0x69, Out = 0xE1, Setup=0x2D ### Queue Head ![](https://habrastorage.org/r/w1560/webt/-4/pb/ia/-4pbiakp01iozcmkne4q1tums4i.png) Код --- Инициализация и настройка HC: ``` PciBar bar; PciGetBar(&bar, id, 4); if (~bar.flags & PCI_BAR_IO) { // Only Port I/O supported return; } unsigned int ioAddr = bar.u.port; UhciController *hc = VMAlloc(sizeof(UhciController)); hc->ioAddr = ioAddr; hc->frameList = VMAlloc(1024 * sizeof(u32) + 8292); hc->frameList = ((int)hc->frameList / 4096) * 4096 + 4096; hc->qhPool = (UhciQH *)VMAlloc(sizeof(UhciQH) * MAX_QH + 8292); hc->qhPool = ((int)hc->qhPool / 4096) * 4096 + 4096; hc->tdPool = (UhciTD *)VMAlloc(sizeof(UhciTD) * MAX_TD + 8292); hc->tdPool = ((int)hc->tdPool / 4096) * 4096 + 4096; memset(hc->qhPool, 0, sizeof(UhciQH) * MAX_QH); memset(hc->tdPool, 0, sizeof(UhciTD) * MAX_TD); memset(hc->frameList, 0, 4 * 1024); // Frame list setup UhciQH *qh = UhciAllocQH(hc); qh->head = TD_PTR_TERMINATE; qh->element = TD_PTR_TERMINATE; qh->transfer = 0; qh->qhLink.prev = &qh->qhLink; qh->qhLink.next = &qh->qhLink; hc->asyncQH = qh; for (uint i = 0; i < 1024; ++i) hc->frameList[i] = 2 | (u32)(uintptr_t)qh; IoWrite16(hc->ioAddr + REG_INTR, 0); IoWrite16(hc->ioAddr + REG_CMD, IoRead16(hc->ioAddr + REG_CMD)&(~1)); unsigned short cfg = PciRead16(id, 4); PciWrite16(id, 4, cfg & (~1)); PciWrite16(id, 0x20, (short)-1); unsigned short size = ~(PciRead16(id, 0x20)&(~3)) + 1; PciWrite16(id, 0x20, hc->ioAddr); PciWrite16(id, 4, cfg | 5); // Disable Legacy Support IoWrite16(hc->ioAddr + REG_LEGSUP, 0x8f00); // Disable interrupts IoWrite16(hc->ioAddr + REG_INTR, 0); // Assign frame list IoWrite16(hc->ioAddr + REG_FRNUM, 0); IoWrite32(hc->ioAddr + REG_FRBASEADD, (int)hc->frameList); IoWrite16(hc->ioAddr + REG_SOFMOD, 0x40); // Clear status IoWrite16(hc->ioAddr + REG_STS, 0xffff); // Enable controller IoWrite16(hc->ioAddr + REG_CMD, 0x1); // Probe devices UhciProbe(hc, size); ``` Запросы к конечным точкам и управляющие запросы: ``` // ------------------------------------------------------------------------------------------------ static void UhciDevControl(UsbDevice *dev, UsbTransfer *t) { UhciController *hc = (UhciController *)dev->hc; UsbDevReq *req = t->req; // Determine transfer properties uint speed = dev->speed; uint addr = dev->addr; uint endp = 0; uint maxSize = dev->maxPacketSize; uint type = req->type; uint len = req->len; // Create queue of transfer descriptors UhciTD *td = UhciAllocTD(hc); if (!td) { return; } UhciTD *head = td; UhciTD *prev = 0; // Setup packet uint toggle = 0; uint packetType = TD_PACKET_SETUP; uint packetSize = sizeof(UsbDevReq); UhciInitTD(td, prev, speed, addr, endp, toggle, packetType, packetSize, req); prev = td; // Data in/out packets packetType = type & RT_DEV_TO_HOST ? TD_PACKET_IN : TD_PACKET_OUT; u8 *it = (u8 *)t->data; u8 *end = it + len; while (it < end) { td = UhciAllocTD(hc); if (!td) { return; } toggle ^= 1; packetSize = end - it; if (packetSize > maxSize) { packetSize = maxSize; } UhciInitTD(td, prev, speed, addr, endp, toggle, packetType, packetSize, it); it += packetSize; prev = td; } // Status packet td = UhciAllocTD(hc); if (!td) { return; } toggle = 1; packetType = type & RT_DEV_TO_HOST ? TD_PACKET_OUT : TD_PACKET_IN; UhciInitTD(td, prev, speed, addr, endp, toggle, packetType, 0, 0); // Initialize queue head UhciQH *qh = UhciAllocQH(hc); UhciInitQH(qh, t, head); // Wait until queue has been processed UhciInsertQH(hc, qh); UhciWaitForQH(hc, qh); } // ------------------------------------------------------------------------------------------------ static void UhciDevIntr(UsbDevice *dev, UsbTransfer *t) { UhciController *hc = (UhciController *)dev->hc; // Determine transfer properties uint speed = dev->speed; uint addr = dev->addr; uint endp = t->endp->desc->addr & 0xf; // Create queue of transfer descriptors UhciTD *td = UhciAllocTD(hc); if (!td) { t->success = false; t->complete = true; return; } UhciTD *head = td; UhciTD *prev = 0; // Data in/out packets uint toggle = t->endp->toggle; uint packetType = TD_PACKET_IN; //Here for compiler, on some last expression hadn't worked if (t->endp->desc->addr & 0x80) packetType = TD_PACKET_IN; else packetType = TD_PACKET_OUT; uint packetSize = t->len; UhciInitTD(td, prev, speed, addr, endp, toggle, packetType, packetSize, t->data); // Initialize queue head UhciQH *qh = UhciAllocQH(hc); UhciInitQH(qh, t, head); // Schedule queue UhciInsertQH(hc, qh); if(t->w) UhciWaitForQH(hc, qh); } ```
https://habr.com/ru/post/429422/
null
ru
null
# Как генерировать осмысленные коммиты. Применяем стандарт Conventional Commits ![](https://habrastorage.org/r/w1560/webt/ng/mu/rl/ngmurlvjeqhxhfrhsovr_vhh5cc.png) *Привычный хаос в названиях коммитов. Знакомая картина?* Наверняка вы знаете **[git-flow](https://nvie.com/posts/a-successful-git-branching-model/)**. Это отличный набор соглашений по упорядочиванию работы с ветками в Git. Он хорошо документирован и широко распространен. Обычно мы знакомы с правильным ветвлением и много говорим об этом, но, к сожалению, уделяем слишком мало внимания вопросу наименования коммитов, поэтому часто сообщения в Git пишутся бессистемно. Меня зовут Ержан Ташбенбетов, я работаю в одной из команд Яндекс.Маркета. И сегодня я расскажу читателям Хабра, какие инструменты для создания осмысленных коммитов мы используем в команде. Приглашаю присоединиться к обсуждению этой темы. Отсутствие договоренностей при наименования коммитов затрудняет работу с историей в Git. Такое было в нашей команде. До использования общего для всех регламента и внедрения автоматизации типичные коммиты выглядели следующим образом: ``` SECRETMRKT-700: пропали логотипы партнеров Приложение падает, поправил. SECRETMRKT-701, SECRETMRKT-702: Отцентрировал картинки на всех ... ``` Во-первых, каждый разработчик писал сообщения как хотел: кто-то описывал задачу, кто-то перечислял внесенные изменения, кто-то использовал генератор случайных фраз. Всё было вразнобой. Во-вторых, номера задач, присутствовавшие в коммитах, часто укорачивали полезный текст. Всё это мешало эффективно работать с историей в Git. По этой причине мы внедрили в команде стандарт *Conventional Commits*, стали генерировать коммиты в консольной утилите *commitizen* и проверять результат с помощью *commitlint*. В результате коммиты изменились и стали выглядит так: ``` refactor(tutorial): оптимизировать работу эпиков в тултипах feat(products): добавить банер с новогодними скидками fix(products): исправить в банере формат даты ``` Читать историю и распознавать внесенные изменения стало проще. Мы не отказались от указания номеров задач, всё аккуратно перенесено внутрь коммитов согласно конвенции *Conventional Commits*. Дальше я расскажу, как добиться схожего порядка в Git. --- Лучшие практики, рекомендации и распространенные решения при наименовании коммитов ---------------------------------------------------------------------------------- Если попробовать разобраться в том, какие практики применяются в индустрии, то можно обнаружить следующие варианты: * **Статьи с общими советами по написанию коммитов.** По большей части они вполне логичны и неплохо раскрывают тему, но чувствуется беспорядочность и отсутствие комплексного решения вопроса. * **Стандарты по написанию коммитов.** Их немного. Они представляют собой документы с четким перечнем правил, довольно часто написанных специально для крупной библиотеки или фреймворка. Эти стандарты подкупают системным подходом, популярностью и поддержкой в open-source сообществе. > **Нам нужно больше порядка в коммитах!** Методология **[Conventional Commits](https://www.conventionalcommits.org)** выделяется на фоне других стандартов и заслуживает пристального изучения по ряду причин: 1. Она хорошо документирована и проработана. В её спецификации даны ответы на наиболее распространенные вопросы. 2. Создатели конвенции вдохновились требованиями к написанию коммитов, которые используются в популярном и проверенном временем фреймворке **[AngularJS](https://github.com/angular/angular.js/blob/master/DEVELOPERS.md#commits)**. 3. Правил конвенции придерживаются несколько крупных и популярных open-source библиотек (таких как **[yargs](https://github.com/yargs/yargs)** и **[lerna](https://github.com/lerna/lerna)**). 4. К плюсам отнесу подготовку к автоматическому формированию Release Notes и Change Log. **Пример коммита по этому стандарту:** ``` fix(products): поправить длину строки с ценой Часть заголовков неправильно отображается в мобильной версии из-за ошибок в проектировании универсальных компонентов. МЕТА ДАННЫЕ: SECRETMRKT-578, SECRETMRKT-602 ``` --- Основные тезисы Conventional Commits ------------------------------------ * Разработчик должен придерживаться следующей структуры коммитов: > (): > > > > > > > > * У коммита должен быть заголовок, может быть тело и нижний колонтитул. * Заголовок коммита должен начинаться с типа (*type*), указывающего на специфику внесенных в кодовую базу изменений, и завершаться описанием. * Наряду с обязательными *feat*, *fix* (использование которых строго регламентировано), допускаются и другие типы. * У коммита может быть область (*scope*). Она характеризует фрагмент кода, которую затронули изменения. Область следует за типом коммита. Стандарт не регламентирует четкий список областей. Примеры областей: eslint, git, analytics и т.д. * Описание коммита должно быть сразу после типа/области. * Тело коммита может быть использовано для детализации изменений. Тело должно быть отделено от описания пустой строкой. * Нижний колонтитул следует использовать для указания внешних ссылок, контекста коммита или другой мета информации. Нижний колонтитул должен быть отделен от тела пустой строкой. #### Кроме перечисленых в конвенции правил мы используем следущие популярные рекомендации: * В теле коммита пишем *что* было изменено и *почему*. * Используем следующие типы коммитов: | | | | --- | --- | | **build** | Сборка проекта или изменения внешних зависимостей | | **ci** | Настройка CI и работа со скриптами | | **docs** | Обновление документации | | **feat** | Добавление нового функционала | | **fix** | Исправление ошибок | | **perf** | Изменения направленные на улучшение производительности | | **refactor** | Правки кода без исправления ошибок или добавления новых функций | | **revert** | Откат на предыдущие коммиты | | **style** | Правки по кодстайлу (табы, отступы, точки, запятые и т.д.) | | **test** | Добавление тестов | * Пишем описание в повелительном наклонении (*imperative mood*), точно также как сам Git. > Merge branch 'fix/SECRETMRKT-749-fix-typos-in-titles' * Не закачиваем описание коммита знаками препинания. ![](https://habrastorage.org/r/w1560/webt/55/ad/m3/55adm3kaxsbufwkyt_ziaxcyxca.png) *Стандарт коммитов *Conventional Commits* используют котрибьюторы [**lerna**](https://github.com/lerna/lerna)* --- Как просто перейти на правильное наименование коммитов? ======================================================= Нужно добавить автоматизации и удобства. Для решения этого вопроса нам потребуется два инструмента: генератор коммитов и линтер коммитов, настроенный на проверку перед пушем в репозиторий. --- Настроим утилиту commitizen =========================== Этот инструмент позволяет генерировать коммиты при помощи встроенного визарда. Кроме того, commitizen хорошо поддерживается сообществом и, благодаря дополнительным модулям, отлично настраивается. 1. Установим утилиту **[commitizen](https://github.com/commitizen/cz-cli)** глобально (вам могут потребоваться права администратора). ``` npm i -g commitizen ``` 2. Следом установим адаптер **[cz-customizable](https://github.com/leonardoanalista/cz-customizable)**. Он нужен для настройки шаблона с вопросами, которым пользуется утилита *commitizen*. ``` npm i -D cz-customizable ``` 3. Создадим файл commitizen.js, он нужен для настройки cz-customizable. Поместим созданный файл в директорию ./config/git. Рекомендую не захламлять корень проекта конфигурационными файлами и стараться группировать файлы в подготовленной для этого папке. Содержимое: **Показать commitizen.js** ``` "use strict"; module.exports = { // Добавим описание на русском языке ко всем типам types: [ { value: "build", name: "build: Сборка проекта или изменения внешних зависимостей" }, { value: "ci", name: "ci: Настройка CI и работа со скриптами" }, { value: "docs", name: "docs: Обновление документации" }, { value: "feat", name: "feat: Добавление нового функционала" }, { value: "fix", name: "fix: Исправление ошибок" }, { value: "perf", name: "perf: Изменения направленные на улучшение производительности" }, { value: "refactor", name: "refactor: Правки кода без исправления ошибок или добавления новых функций" }, { value: "revert", name: "revert: Откат на предыдущие коммиты" }, { value: "style", name: "style: Правки по кодстайлу (табы, отступы, точки, запятые и т.д.)" }, { value: "test", name: "test: Добавление тестов" } ], // Область. Она характеризует фрагмент кода, которую затронули изменения scopes: [ { name: "components" }, { name: "tutorial" }, { name: "catalog" }, { name: "product" } ], // Возможность задать спец ОБЛАСТЬ для определенного типа коммита (пример для 'fix') /* scopeOverrides: { fix: [ {name: 'style'}, {name: 'e2eTest'}, {name: 'unitTest'} ] }, */ // Поменяем дефолтные вопросы messages: { type: "Какие изменения вы вносите?", scope: "\nВыберите ОБЛАСТЬ, которую вы изменили (опционально):", // Спросим если allowCustomScopes в true customScope: "Укажите свою ОБЛАСТЬ:", subject: "Напишите КОРОТКОЕ описание в ПОВЕЛИТЕЛЬНОМ наклонении:\n", body: 'Напишите ПОДРОБНОЕ описание (опционально). Используйте "|" для новой строки:\n', breaking: "Список BREAKING CHANGES (опционально):\n", footer: "Место для мета данных (тикетов, ссылок и остального). Например: SECRETMRKT-700, SECRETMRKT-800:\n", confirmCommit: "Вас устраивает получившийся коммит?" }, // Разрешим собственную ОБЛАСТЬ allowCustomScopes: true, // Запрет на Breaking Changes allowBreakingChanges: false, // Префикс для нижнего колонтитула footerPrefix: "МЕТА ДАННЫЕ:", // limit subject length subjectLimit: 72 }; ``` 4. Добавим в package.json ссылки на cz-customizable и созданный ранее конфигурационный файл: **Показать часть package.json** ``` { "config": { "commitizen": { "path": "node_modules/cz-customizable" }, "cz-customizable": { "config": "config/git/commitizen.js" } }, } ``` 5. Давайте проверим получившийся результат. Наберите в терминале следующую команду: ``` git cz ``` Визард commitizen сначала соберет информацию о типе, области коммита, затем последовательно запросит текст, который будет в описании, в теле, в нижнем колонтитуле и после вашего согласия создаст коммит. > Обязательно **[посмотрите](https://asciinema.org/a/212473)** на пример работы настроенной утилиты commitizen и подключенного к нему адаптера cz-cusomizable --- Настроим утилиты husky и commitlint =================================== 1. Установим в проект **[husky](https://github.com/typicode/husky)** и **[commitlint](https://github.com/marionebl/commitlint)**: ``` npm i -D husky @commitlint/cli ``` 2. С помощью husky добавим проверку коммитов. Для этого в package.json сразу после скриптов добавим следующий хук и укажем в нем ссылку на файл commitlint.js: **Показать часть package.json** ``` { "scripts": { "test": "echo \"Error: no test specified\" && exit 1" }, "husky": { "hooks": { "commit-msg": "commitlint -E HUSKY_GIT_PARAMS -g './config/git/commitlint.js'" } }, "devDependencies": { "@commitlint/cli": "^7.2.1", "husky": "^1.1.3", } ``` 3. Создадим файл commitlint.js, необходимый для корректной работы линтера. Поместим созданный файл в директорию ./config/git. Содержимое файла: **Показать commitlint.js** ``` // Файл создан на основе @commitlint/config-conventional module.exports = { rules: { // Тело коммита должно начинаться с пустой строки "body-leading-blank": [2, "always"], // Нижний колонтитул коммита должен начинаться с пустой строки "footer-leading-blank": [2, "always"], // Максимальная длина заголовка 72 символа "header-max-length": [2, "always", 72], // Область всегда только в нижнем регистре "scope-case": [2, "always", "lower-case"], // Описание не может быть пустым "subject-empty": [2, "never"], // Описание не должно заканчиваться '.' "subject-full-stop": [2, "never", "."], // Тип всегда только в нижнем регистре "type-case": [2, "always", "lower-case"], // Тип не может быть пустым "type-empty": [2, "never"], // Перечислим все возможные варианты коммитов "type-enum": [ 2, "always", [ "build", "ci", "docs", "feat", "fix", "perf", "refactor", "revert", "style", "test" ] ] } }; ``` Всё. Теперь все коммиты будут проверяться перед отправкой в репозиторий :) > Обязательно **[посмотрите](https://asciinema.org/a/212490)** на пример работы настроенной утилиты commitlint --- ### Так что выбрать commitizen или commitlint? И то, и другое! В связке они приносят отличный результат: первый генерирует коммиты, второй их проверяет. ### Почему стандарты рекомендуют использовать повелительное наклонение? Это крайне интересный вопрос. Коммит это изменение кода, сообщение в коммите можно расценивать как инструкцию по изменению этого кода. Сделать, изменить, добавить, обновить, поправить  — всё это конкретные инструкции для разработчика. Кстати, повелительное наклонение рекомендовано в самой системе версионирования **[Git](https://git.kernel.org/pub/scm/git/git.git/tree/Documentation/SubmittingPatches)**: ``` [[imperative-mood]] Describe your changes in imperative mood, e.g. "make xyzzy do frotz" instead of "[This patch] makes xyzzy do frotz" or "[I] changed xyzzy to do frotz", as if you are giving orders to the codebase to change its behavior. ``` ### Зачем придерживаться каких-либо конвенций? Стоит ли тратить на это время? Какой в этом профит? Стоит. В целом я заметил, что мы стали охотнее детализировать изменения, внесенные в кодовую базу. В теле коммита мы подробно расписываем почему пришлось использовать те или другие решения. Разбираться в истории стало объективно проще. Плюс наш продукт развивается, и мы ожидаем пополнения в команде. Уверен, что благодаря внедрению стандарта и автоматизации новичкам будет легче встроиться в процесс разработки. Попробуйте и поделитесь результатом. Полезные ссылки: ---------------- * **[Репозиторий](https://github.com/tashbenbetov/make-commit-messages-great-again)** со всем кодом из этой статьи. * Стандарт **[Conventional Commits](https://www.conventionalcommits.org)**. * **[Commitlint](https://marionebl.github.io/commitlint)** инструмент для валидации коммитов. * Онлайн **[конфигуратор](https://commitlint.io)** правильных коммитов. * Хорошие **[советы](https://chris.beams.io/posts/git-commit/)** на тему наименования коммитов.
https://habr.com/ru/post/431432/
null
ru
null
# Что нового можем делать с формами в 2022? Эта статья — перевод оригинальной статьи Ollie Williams "[What’s New With Forms in 2022?](https://css-tricks.com/whats-new-with-forms-in-2022/)" Также я веду телеграм канал “[Frontend по-флотски](https://t.me/frontend_pasta)”, где рассказываю про интересные вещи из мира разработки интерфейсов. Вступление ---------- Браузеры постоянно добавляют новые функции HTML, JavaScript и CSS. Вот несколько полезных дополнений к работе с формами, которые вы могли пропустить… ### requestSubmit() [Safari 16](https://caniuse.com/?search=requestSubmit) станет последним браузером, в котором будет добавлена поддержка *requestSubmit*. Прежде чем мы рассмотрим, как работает *.requestSubmit()*, давайте напомним себе, как программная отправка формы с помощью JavaScript работает при использовании метода *.submit()*. Отправка формы с помощью *submit()* не вызывает событие submit. Таким образом, в следующем коде форма отправляется, функция preventDefault() не запускается, и в консоль ничего не записывается: ``` const form = document.forms[0]; form.addEventListener('submit', function(event) { // code to submit the form goes here event.preventDefault(); console.log('form submitted!'); }); document.querySelector('.btn').addEventListener('click', function() { form.submit(); }) ``` *.submit()* также будет игнорировать любую валидацию HTML формы. Учитывая следующую разметку, форма будет отправлена, когда инпут пуст, даже если инпут имеет атрибут required: ``` Name ``` *.requestSubmit()* — это альтернативный способ отправки формы с использованием JavaScript, но, в отличие от *.submit()*, валидация HTML-формы предотвратит отправку формы. Если все данные, введенные в форму, проходят проверку, будет запущено событие submit, что означает «form submitted!» будет выведено в консоль в следующем примере: ``` form.addEventListener('submit', function(event) { event.preventDefault(); console.log('form submitted!'); }); document.querySelector('.btn').addEventListener('click', function() { form.requestSubmit(); }) ``` Вы можете добиться того же самого эффекта, щелкнув на кнопку отправки формы, но *requestSubmit*, возможно, является более элегантным решением. ### Свойство submitter события submit Свойство *SubmitEvent.submitter* получило [полную кросс-браузерную поддержку](https://caniuse.com/mdn-api_submitevent_submitter) с выпуском Safari 15.4. Это свойство только для чтения указывает элемент или , который вызвал отправку формы. ``` Bar Baz ``` Если у вас есть несколько кнопок отправки или входных данных, каждая из которых имеет свое значение, на сервер будет отправлено только значение кнопки или ввода, которое было нажато для отправки формы, а не оба значения. Ничего нового. Новым является то, что прослушиватель событий для события отправки теперь имеет доступ к свойству *event.submitter*. Вы можете использовать это, чтобы добавить класс к кнопке или вводу, который инициировал отправку формы, например, или чтобы получить его значение или любой другой из его HTML-атрибутов. ``` document.forms[0].addEventListener('submit', function(event) { event.preventDefault(); console.log(event.submitter.value); console.log(event.submitter.formaction); event.submitter.classList.add('spinner-animation'); }) ``` Событие formdata ---------------- В этом нет ничего нового, но [кросс-браузерная поддержка была достигнута](https://caniuse.com/mdn-api_formdataevent) только с выпуском Safari 15. Основной вариант использования события formdata — позволить кастомным элементам участвовать в отправке форм. Однако за пределами веб-компонентов он все еще может быть полезен. Вы добавляете прослушиватель событий formdata в форму, с которой хотите взаимодействовать: ``` document.querySelector('form').addEventListener('formdata', handleFormdata); ``` Событие запускается как обычной отправкой HTML-формы, так и появлением *new FormData().event.formData* содержит все отправляемые данные. ``` function handleFormdata(event) { for (const entry of event.formData.values()) { console.log(entry); } } ``` Коллбэк для прослушивания событий formdata запускается перед отправкой данных на сервер, что дает вам возможность добавить или изменить отправляемые данные. ``` function handleFormdata(event) { event.formData.append('name', 'John'); } ``` Вы могли бы изменить или добавить FormData внутри обработчика события отправки, но formdata позволяет вам отделить логику. Это также альтернатива использованию скрытых входных данных в разметке вашей формы в тех случаях, когда вы отправляете форму «по старинке», то есть полагаетесь на встроенную функциональность HTML для отправки формы, а не на собственную. #### showPicker() для input элемента *showPicker()* [поддерживается](https://caniuse.com/?search=showPicker) начиная с Chrome 99, Firefox 101 и в готовящейся к выпуску Safari 16. Для input элемента, атрибутом type которого является Date, Month, Week, Time, datetime-local, color или file, showPicker() предоставляет программный способ отображения пользовательского интерфейса выбора. Для ввода цвета и файла всегда можно было программно отобразить средство выбора, вызвав .*click* на инпуте: ``` document.querySelector('input[type="color"]').click(); ``` Этот подход не работает для ввода даты, поэтому был добавлен этот новый API. *.showPicker()* также будет работать с входными данными цвета и файла, но нет никакого реального преимущества в его использовании по сравнению с *.click()*. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/46b/0a7/5d1/46b0a75d182d8d2a239022c75b96d15b.png)### Inert атрибут Всегда можно было заблокировать несколько инпутов одновременно, заключив их в fieldset с атрибутом disabled: ``` email age Submit ``` Inert — это новый атрибут HTML. Он работает не только с формами, но формы, безусловно, являются ключевым вариантом использования. В отличие от атрибута disabled, inert можно применить к самому элементу формы. Все в форме будет недоступно для фокусировки и кликов. Когда дело доходит до вспомогательных технологий, inert аналогичен установке aria-hidden="true". В отличие от атрибута disabled, inert по умолчанию не применяет никаких стилей, но их легко добавить самостоятельно: ``` form[inert] { opacity: .2; } ``` ``` email age Submit ``` Это еще не все… --------------- Большой проблемой является стилизация элементов , о которой разработчики мечтали десятилетиями. Похоже, скоро это станет реальностью с введением [selectmenu](https://css-tricks.com/the-selectmenu-element/). Но это пока! Недавние обновления обеспечивают полную поддержку браузерами функций, которых мы так долго ждали, что делает их наиболее подходящими для использования в продакшене.
https://habr.com/ru/post/691294/
null
ru
null
# Используем MSP430-Launchpad в качестве программатора Здравствуйте! Я хочу поделиться с хабрасообществом одним необычным применением отладочной платы **MSP430-Launchpad**. Руководство предназначено тем, кто уже имеет MSP430-Launchpad, освоил микроконтроллеры MSP430-ValueLine и задумывается о том, чтобы перейти на более продвинутые МК MSP430, но пока не решился на то, чтобы приобрести профессиональный программатор MSP430-JTAG или MSP430-UIF. Но это не страшно. В качестве программатора можно пока будет использовать Launchpad. Под катом я расскажу как это сделать. Оказывается, что программатор, входящий в состав платы Launchpad может прошить любой микроконтроллер (МК) MSP430, имеющий интерфейс SpyByWire (SBW). Каких-либо ограничений на модель МК по-видимому нет. Баг ли это Launchpad'а или так и задумала Texas Instrunmets неизвестно. По интерфейсу SBW программируется в том числе МК MSP430G2553 и MSP430G2452, которые идут в комплекте с платой. Убедиться, что в микроконтроллере есть интерфейс SBW можно посмотрев его даташит. Мы в качестве подопытной платы будем использовать самодельную отладочную плату с микроконтроллером MSP430F5438A. Интерфейс SBW в этом МК есть. Плата выглядит вот так: ![](https://habrastorage.org/r/w780q1/files/871/707/31f/87170731f2a14023bbd35c1f29bfeb4f.jpg) Теперь нужно снять перемычки, которые соединяют верхнюю часть платы Launchpad с нижней и вывести провода с контактов RST,TEST,VCC,VSS. Эти провода нужно связать самодельным кабелем с ножками МК в следующем порядке (в скобках дана нумерация выводов для МК MSP430F5438A): ``` Launchpad <---------> MSP430F5438A VCC<--------->VDD(87) RST<--------->SBWTDIO(96) TEST<--------->SBWTCK(91) GND<--------->VSS(88) ``` На следующей картинке ножки MSP430F5438, к которым нужно подключится отмечены крестиком: ![](https://habrastorage.org/r/w1560/files/277/0d3/c64/2770d3c648c94c3f909101793da1843f.png) Теперь делаем самодельный кабель, подключаем его к MSP430F5438 и к Launchpad. Должно получиться примерно так: ![](https://habrastorage.org/r/w780q1/files/a34/5f8/e2f/a345f8e2f3444c32a61995c8a2bab328.jpg) МК из розетки DIP-20 нужно извлечь. При этом МК на подопытной отладочной плате будет запитан от Launchpad, который в свою очередь питается от USB. Теперь можно подключить USB кабель в Launchad и подключить его к компьютеру. Если всё сделано правильно, то на Launchpad должен гореть зелёный светодиод PWR. Если перепутаны VSS и VDD, то светодиод не горит. Теперь можно проверить опознаётся ли микроконтроллер. Далее я буду использовать ОС Linux и утилиту mspdebug. Если у вас другой toolchain для MSP430 то смотрите документацию к нему.Теперь проверим опознаётся ли наш МК. В консоли наберём: ``` mspdebug rf2500 ``` Плата должна дать такой ответ: ``` vvk@linux-bmx0:~> mspdebug rf2500 MSPDebug version 0.21 - debugging tool for MSP430 MCUs Copyright (C) 2009-2012 Daniel Beer This is free software; see the source for copying conditions. There is NO warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. Trying to open interface 1 on 004 Initializing FET... FET protocol version is 30394216 Set Vcc: 3000 mV Configured for Spy-Bi-Wire Device ID: 0x0580 Code start address: 0x5c00 Code size : 262144 byte = 256 kb RAM start address: 0x1c00 RAM end address: 0x5bff RAM size : 16384 byte = 16 kb Device: MSP430F5438A Number of breakpoints: 8 fet: FET returned NAK warning: device does not support power profiling Chip ID data: 05 80 17 Available commands: = erase isearch opt run setwatch\_w alias exit load power save\_raw simio break fill load\_raw prog set step cgraph gdb locka read setbreak sym delbreak help md regs setwatch verify dis hexout mw reset setwatch\_r verify\_raw Available options: color gdb\_loop enable\_bsl\_access gdbc\_xfer\_size enable\_locked\_flash\_access iradix fet\_block\_size quiet Type "help " for more information. Press Ctrl+D to quit. (mspdebug) exit ``` В результате мы должны попасть в консоль mspdebug. Чтобы выйти оттуда, введите exit. Если МК не ответил, то проверяйте кабель. Если получили такой ответ, то МК распознался и можно его программировать командой: ``` mspdebug rf2500 "prog имя_файла_с_прошивкой.elf" ``` Через Launchpad программирование идёт очень медленно. 8кБ прошивается несколько минут. В остальном каких-либо ограничений нет. Ещё следует отметить, что после того, как мы отключили нижнюю часть платы Launchpad, кнопка RESET более не функциональна. Если на плате такой кнопки нет, то отправить МК в ресет можно с командной строки: ``` mspdebug rf2500 reset ``` В общем, приведённый способ профессиональный программатор не заменит, но со «взрослыми» МК серии MSP430 тем не менее можно не только ознакомиться но и полноценно работать, если не обращать внимание на низкую скорость прошивки.
https://habr.com/ru/post/245425/
null
ru
null
# Грабли, эмулятор, аниматор (upd@21.06) Недавно я занялся поиском хорошего инструмента для создания прототипов и анимации своих идей. В итоге исследование рынка превратилось в пересмотр специализаций инструментов своего арсенала и шлифовкой процесса проектирования нового продукта. Чтобы понять, какой именно мне нужен инструмент, я обобщенно зафиксировал свой текущий рабочий процесс. Проектирование нового продукта проходит следующие фазы: * **Моделирование** создание статичной модели продукта: прокручиваю в голове, развиваю на бумаге, отражаю на статичных макетах; * **Простое прототипирование** простой постраничный прототип, тесты и коррекция; * **Сложное прототипирование** сложный многослойный прототип, тесты и коррекция; * **Выгрузка** подготовка и упаковка проектной документации, сдача в разработку. В парадигме такого процесса мой инструментарий приобрёл следующую классификацию: * *Архитектор* Создание функционального аспекта (информационная архитектура, структура, сценарии, механизмы и прочее). * *Визуализатор* Создание образного аспекта (айдентика, иллюстрации, семантика и прочее). * *Тестировщик* Проверка на пользователях и сбор отзывов. * *Грабли* Создание простого, чаще постраничного, прототипа, в котором прочёсываем фундамент продукта, чтобы исключить ложные и ошибочные ходы в начале пути. * *Эмулятор* Создание сложного прототипа, как можно более близкого к нативной среде. * *Аниматор* К производственному процессу такой вид инструмента зачастую редко имеет отношение, чтобы клиент не обижался на нереализованную показанную раннее красоту, а разработчик не падал в обморок от будущих мук. А вот для создания концептов, интерактивных изобретений и прочих своих экспериментов и фантазий – самое то. * *Документатор* Ведение и оформление проектной документации, создание пакета для разработчиков. Каждый может в угоду своему процессу создать свой вид инструмента, который решает определённые задачи. Например, кто-то может использовать отдельные инструменты для создания вдохновляющих досок (moodboard). Но я ими пользуюсь очень редко (и, может быть, зря), поэтому не включал в основной список инструментов. Итак, исходя из вышеописанной классификации, мне нужны были грабли, эмулятор и аниматор. Не имеет значения, будет это одно приложение от одной компании или три разных, лишь бы поставленные задачи выполнялись легко, удобно и эффективно. Определившись с категориями нужных инструментов, я уточнил точечные критерии и пожелания: * быстрое, очевидное, интуитивно понятное знакомство с продуктом: нет ни времени, ни желания долгому обучению инструмента; * лёгкий и безущербный импорт и синхронизация макетов из Ps или Sketch; * прототип можно создать для любой платформы; * аниматор должен создавать сложную анимацию как можно более простыми операциями; * дабы не городить фантазий на сложном прототипировании, эмулятор должен выдавать как можно более нативное поведение, чтобы было как можно меньше отклонений между реальным продуктом и его сложным прототипом; * гифка или видео на выходе; * кликабельным прототипом я смогу делится с коллегами и пользователями, вставлять в презентацию, щупать на разных устройствах; * разумный ценник. Выборка потенциальных инструментов к началу тестов сформировалась следующая: * [Adobe After Affects](http://www.adobe.com/ru/products/aftereffects.html) * [Adobe Expirience Design](http://www.adobe.com/products/experience-design.html) * [Marvel](https://marvelapp.com/) * [InVision](https://www.invisionapp.com/) * [Silver Flows](http://silverflows.com/) * [Principle](http://principleformac.com/) * [Flinto for Mac](https://www.flinto.com/mac) * [Proto.io](https://proto.io/) * [Atomic.io](https://atomic.io/) * [Pixate](http://www.pixate.com/) * [Framer Studio](http://framerjs.com/) * [Origami Studio](https://facebook.github.io/origami/) Еще раз уточняю, чтобы не было лишней дискуссии: в выборку попали инструменты, которые могут потенциально взять на себя спектр требуемых задач (простое и сложное прототипирование, анимация), и не попали инструменты, которые тяготеют к архитекторам и другим специализациям (Axure, UXPin, Balsamiq, WebFlow, Justinmind, Indigo Studio и другие). И еще раз напоминаю, что знакомство с инструментами сильно зависит от личного видения и понимания рабочего процесса и других профессиональных предпочтений, поэтому перед собственным вердиктом обязательно сами пробуйте продукт! Теперь мне оставалось взять на тест-драйв каждый из инструментов и сложить обобщённое впечатление, держа на руках чек-лист из особенностей своего рабочего процесса и личных пожеланий. Итак, поехали! *\*\*\* Пульс ярмарки от 22 апреля 2016 года \*\*\** **Adobe After Effects**. Инструмент, безусловно мощный, но не создавался под анимацию интерфейсов, поэтому сделав в нём банальные вещи окольными для себя путями, решил отложить в сторону. В будущем хочу детальнее познакомиться для других нужд, а пока пройду мимо до других времён. **Adobe Expirience Design**. Выглядит очень симпатично, хорош для быстрого прототипа, которым можно поделиться ссылкой или видеофайлом, поюзать на устройстве. Жаль, что не могу видеть обратную связь от прототипа. Но это только превьюшка, так что в будущем всё возможно. Вкладка Design для меня лишняя: пока не представляю как буду там проектировать, но вполне возможно это дело привычки. Благо, времени, чтобы наиграться с программой и понять нужна ли она валом (платной программа планирует стать в конце года). Не благо, что пока только на Мак-платформе. **Pixate**. Прототипы, сделанные в этом инструменте, выглядят очень достойно, но у меня не сразу заладилось взаимодействие. Было здорово поклацать простейшие механизмы на своём устройстве, сконектившись без проводов, но это всё же эмулятор, поэтому на выходе нужен прототип посложнее. Благодаря тому, что бесплатная, на досуге попытаюсь освоить, может подружимся. **Principle**. Презентационный минутный ролик – образцово показательный: быстро и без воды показан потенциал продукта, поэтому пробовал его в числе первых. Процесс покатился сразу, почти всё очень понятно для меня. Покопавшись немного в туториалах, опробовал еще большую мощь инструмента. Я почему-то ожидал от него роли эмулятора, но всё же это аниматор: полноценную прогулку по прототипу приложения я пока не представляю как в нём сделать без нервотрёпки, а вот пофантазировать о какой-нибудь механике отдельного аспекта – великолепен для этих целей. Будет здорово, если в дальнейшем, он будет совершенствоваться именно по этой дорожке аниматора, став полноценной, легковесной и заточенной вариацией After Effects. **Flinto for Mac**. В очереди на пробу стоял ближе к концу. Тем приятнее было удивление от работы с ним: знакомство сложилось просто на «ура», функционал залетел очень быстро, после прогона коротких официальных туториалов и пробы на собственных руках оставил ещё большее впечатление. Жирнючие плюсы за дизайнера трансформаций и за возможность добавления нескольких жестов на один объект: в текущем проекте это нужно было мне позарез. Если Principle я видел эмулятором, то Флинто мне почему-то казался аниматором. Оказалось ровно наоборот: создать сложный прототип вместе с нестандартными анимациями во Flinto у меня получилось легче и быстрее всех других продуктов. На досуге обязательно опробую другой инструмент этой компании – Flinto Lite. **Marvel**. Наверное, удивил больше всех, так как собирался пробовать для галочки и ничего особого не ждал. Первое знакомство прошло совершенно незаметно: через считанные минуты свой простой прототип я уже листал на мобильном, мог обсуждать с коллегами или через Lookback тестировать на пользователях, отправить ссылку почтой или смской, вставить кликабельный прототип в Behance-презентацию. Вкупе с чистой и опрятной оболочкой оставил очень приятные впечатления, сделав весомую заявку на полноценный инструмент для второй стадии моего процесса (простого прототипирования). Решающими в этом оказались именно share&feedback-возможости. Есть возможность создавать простые макеты, но для меня этот функционал лишний, как и в Adobe XD. **InVision**. Мощный инструмент с большими перспективами. Увеличил свой вес с покупкой Silver Flows, который я очень и очень хотел попробовать. И не совсем понятно когда я смогу это сделать: некоторые вкусности, как анонсированные в сентябре-августе прошлого года Inspect и Motion, до сих пор в закрытой бете и когда выйдут в свет – я так и не понял. Из минусов отмечу немного перегруженный вид: после Marvel выглядит грузным и дремучим, но это личные впечатления опять же. Поэтому для меня InVision остаётся тёмной лошадкой, за которой обязательно буду следить: у него есть все предпосылки чтобы стать хорошим комплексным инструментом в моём арсенале. **Proto.io**. Прототипы, сделанные в нём, впечатляют, но после пары заходов знакомство не сложилось. Скорее всего, мне помешала нагруженность инструмента функциями архитектора, чего мне не требовалось, а научиться сделать сложный прототип из-за 15-дневного триального периода я попросту не успел, как и понять за что я буду платить 24 доллара в месяц за 5 проектов, это самое дорогое предложение в моей выборке. Очень жаль, так как претендовал на роль эмулятора и аниматора. **Atomic.io**. Прототипы опять же впечатляют, но это скорее аниматор, хотя и задатки эмулятора были замечены. Процесс не совсем заладился, но триальный период месячный, поэтому есть еще возможность изучить его детальнее, благо есть официальные исходники. По логике напоминает Pixate. **Framer Studio**. Анонсированные возможности и прототипы оставляют очень приятное впечатление. Возможностей действительно очень много, но требует более детального изучения. Создать сложный прототип займёт больше времени, но на выходе будет действительно приближенный к боевым условиям образец. Вышедшая 12 апреля новая версия оставляет еще больше надежд на более быстрый процесс работы и знакомства. **Origami Studio**. С нетерпением хочу поиграться с визуальным программированием: логика и процесс работы выглядят очень дружественными и родными для меня. Осталось лишь дождаться новую версию, которая была анонсирована в начале апреля. Есть альтернативный Form, но по рекомендациям веса больше у Origami, поэтому думаю начать с него. *\*\*\** Нагулявшись по ярмарке, сделал для себя текущие промежуточные итоги: * Marvel практически закрывает задачи моего второго этапа (быстрого прототипирования), поэтому предварительно беру его к себе на службу в качестве граблей и одного из тестировщиков, тем более что на этапе более детального практического знакомства пока не потребуется башлять. Рядом будут маячить альтернативы в лице InVision и Flinto Lite; * Flinto опробую на первое время эмулятором, но в свою развивающую программу ставлю приоритетным процессом изучение сложного прототипирования (Framer и Origami). В этой теме хорошо зажигает Антон Карташов, с его [материалов](https://medium.com/@kartashov) и начну, как и [группы RPC](https://www.facebook.com/groups/prototypingclub/). Возможно в будущем попробую связку Flinto, если надо набросать по-быстрому прототип посложнее, и Framer (Origami), когда нужна будет более реальная эмуляция. * Principle возьму на испытательный срок аниматором, турбодизель After Effect мне сейчас не нужен. * Остальные инструменты, особенно InVision, буду держать на пульсе, чтобы при необходимости корректировать свой арсенал. Нюансы, которые я выяснил в ходе поисков: * Триальная модель помешала дальнейшему знакомству. Другое дело, если бы подсчитывали дни фактического пользования, как Principle. Но в ходе краткосрочного знакомства, когда не получилось с первого-второго раза зацепится за продукт, хочется покрутить инструмент с другой стороны и дать ему еще один шанс. Но в итоге из-за разных причин, в том числе простой рабочей занятости, я не смог уложиться в двухнедельный срок и наше знакомство не состоялось. Поэтому модель бессрочного и не сильно зажранного использования на бесплатной основе оставляет более приятные впечатления о продукте и возможности использования его при дальнейшем знакомстве на платной основе с большими мощностями. Вобщем, free-to-pay выглядит более привлекательной формой монетизации и на этом рынке. * Инструмент с сильно заточенным узкоспециализированным функционалом часто оставляет более приятные впечатления, чем «комбайн», решающий эти задачи наряду с другими: он может не только делать свою работу лучше, чем «комбайн», но и просто находится в голове именно на той полочке, на которой вы решаете свои задачи, а не занимать несколько полок подряд, путаясь с другими инструментами. Если нужен документатор – можно достать [Zeplin](https://zeplin.io/), если нужен тестировщик – можно достать [Lookback](https://www.lookback.io/) и так далее. Битва на рынке прототипировщиков в разгаре, поэтому буду держать эту тему на пульсе: в случае обновления заголовок будет менять дату (upd@день.месяц), в комментариях буду указывать что именно обновилось. В процессе этого исследования родился концепт моего инструмента, которым я спешно поделился в [этой статье](https://habrahabr.ru/post/281621/). C удовольствием познакомлюсь с вашим набором инструментов или собственной класификацией. Или можете поразгоняться и придумать альтернативные названия видов в вышеизложенной (грабли – причёска, прочёс; тестировщик – агент распространения, барыга; эмулятор – пандора, медные трубы). **upd@29.04. Дополнительные пробы и новые инструменты** *Дополнительные пробы* **Atomic**. Очень достойный продукт, обязательно попробуйте его. Я увидел в нём нечто среднее между Marvel, Principle и Flinto. И в этом, в зависимости от вашего процесса работы, он хорош или, как в моём случае, не совсем. Для моего процесса он недостаточно примитивен (в хорошем смысле этого слова) и разнобок в feedback-возможностях для «граблей» как Marvel, не совсем удобен в качестве «аниматора» как Principle и до эмулятора он не дотягивает. Поэтому пока, оставшись с приятными впечатлениями об этом продукте, я откладываю его в сторону. **Flinto Lite**. Чистые и хорошие грабли с интересным механизмом работы. Правда, я не сразу догнал, что проводок, который соединяет выделенную кликабельную зону с целевой страницей и который тут же пропадает, на самом деле соединяет :) Для этого надо было увидеть в левом сайдбаре мелким шрифтом «Target: целевая страница». В целом инструмент интересный, но если сталкивать с прямым конкурентом Marvel, то у второго побогаче всё те же feedback-возможности и приятнее ценовое предложение. **Pixate**. После более близкого знакомства работа в инструменте прояснилась, но не могу пока сказать, что подходит для меня. Однако не забываем: программа бесплатная, поэтому ничего не мешает положить её в загашник и периодически доставать. Вместе с Flinto обитают примерно на одном уровне, поэтому для ПК-шников — это удачная альтернатива. **Framer**. Некогда, больше десяти лет назад, я прочитал в одном журнале о некоем языке CoffeeScript. Немного поигравшись с ним, решил отложить до других времён. После знакомства с Framer'ом эти времени, похоже, пришли. Очень доставляет большой контроль над полотном и его объектами, который я увидел после более детального знакомства с этим замечательным инструментом и который существенно корректирует расстановку на моём поле инструментов. Претендует сразу на роль и аниматора, и эмулятора. **InVision**. Оказывается, помимо Silver Flows, они купили еще и [Macaw](http://macaw.co/), [Easee](https://easee.design/) и [Relay](https://relay.io/). Боюсь представить, что за корабль там в итоге получится, поэтому с большим интересом жду вестей с этого хутора. *Новые инструменты, которые нашел для себя* **[Floid](http://floid.io/)**. Интересный бесплатный инструмент для прототипирования и выгрузки в HTML для Mac-платформы. Много возможностей, но пока сыроват, есть некоторые банальные недочёты. Я пробовал его на прошлой неделе, сейчас сайт недоступен. Пока не знаю, что случилось, но на всякий пожарный оставляю его тут. **[Koncept](https://konceptapp.com/)**. Веб-платформа для создания прототипов и UX-анализа. Проект пока в закрытой бете. Градаций тарифного плана нет: на одного человека прототипирование будет стоит $30 в месяц, а за аналитику, которая меня интересует больше, просят $100 в месяц, причем взять только одну аналитику нельзя и придётся платить $130 в месяц. Не знаю, почему они выбрали такую финансовую модель: прототип, сделанный этим инструментом, на сайте один и ничего особенного в нём нет, а что будет в аналитике с таким ценником пока даже представить не могу. После регистрации мне выдали 1154-ый номер в очереди, так что мне пока остаётся только немножко подождать. **[Creo](http://creolabs.com/)**. Прототип, создаваемый в этом инструменте, магическим образом превращается в нативное приложение. Первые впечатления от этого продукта схожи с кивком а-ля Эйс Вентура, который делает мужичёк в конце демонстрационного видео. Действительно, очень интересно что в итоге получится на официальном релизе, сейчас продукт в открытом бета-тесте. **[Noodl](http://www.getnoodl.com/)**. Упомянутый в комменатриях со своей рецензией Noodl действительно интересен, но требует отдельного знакомства, которое я делегировал на этап знакомства с визуальным программированием. **[The Protein](http://theprotein.io/)**. Очень интересный российский сервис, который позволяет дизайнерам, разработчикам и тестировщикам вести совместную работу над проектированием интерфейсов. Более подробный [рассказ на ЦП](https://vc.ru/p/theprotein). **upd@21.06. Заключение** Вдоволь исследовав рынок, я решил поставить точку и сделать эту статью опытом вхождения в прототипирование. Всё необходимое я изучил, сделал для себя окончательные выводы по всем продуктам, которые я хотел пощупать и которые уже успели выйти. Вот впечатления и находки, которые накопились у меня на посошок. **[Fuse](https://www.fusetools.com/)**. Чумовой конструктор, схожий на Creolabs и позволяющий выгружать реальное приложение для Android и iOS. Основан на UX Markup — разновидности XML, которую несложно освоить, тем более есть [куча примеров с исходниками](https://www.fusetools.com/examples) и [активное сообщество](https://www.fusetools.com/community). Бесплатен, находится в открытой бете. **[POP](https://popapp.in/)**. Создание простого прототипа из собственных набросков от руки. Очень прост и удобен. За два прототипа на одного человека можно пользоваться бесплатно. **[CanvasFlip](http://canvasflip.com/index.php)**. Ещё одни отличные «грабли» с удобным созданием простого прототипа, который можно будет отправить пользователям для теста многими способами. Аналитика отличная: можно смотреть воронку конверсии, интерактивную теплокарту, видеозапись сессии. Оставляет очень приятные впечатления, к тому же есть простая доска для управления проектом. На бесплатном тарифе 5 прототипов. **Koncept**. Практически полный аналог Marvel c небольшой порцией аналитики, которая меня не впечатлила. И если аналогом можно пользоваться бесплатно, то Концепт по прежнему требует 130 долларов в месяц. **Noodl**. Новая версия 1.0 обрела не только свежий функционал, но и конкретную специализацию — интернет вещей. Разработчики, студия Topp, снабдила релиз [прекрасными примерами](https://www.facebook.com/groups/prototypingclub/permalink/509936749198739/) и уроками при запуске программы, которая работает, напомню, как расширение к Chrome. **Craft Prototype**. Вышедшая бета-версия долгожданного инструмента, ранее известного как SilverFlows, сопроводилась оптимистическими промо-статьями и не очень воодушевляющими [отзывами тех, кто успел попользоваться](https://www.facebook.com/groups/prototypingclub/permalink/510345365824544/). **[Qwikly](http://getqwikly.com/)**. Еще один инструмент, позволяющий генерировать не просто прототип, а реальное приложение. Находится в разработке, выпуск во второй половине 2016 года. **[uilang](http://uilang.com/)**. Очень простой фреймворк для дизайнеров, в том числе для прототипирования. Автор также [позиционирует](https://medium.com/@bdc/the-educational-side-of-uilang-92d39da94c13) его как отличный старт для дизайнера начать понимать и осваивать JS. Примечателен [транспайлером](http://transpiler.uilang.com/) (переводчиком): вводите простое предложение вроде `clicking on "#switch" toggles class "active" on "#switch"` — и получаете какой-никакой js-код. **[Blocs](http://blocsapp.com/)**. Для тех, кто ленится писать код — можно воспользоваться замечательным визуальным редактором, который превратит вёрстку в удовольствие. **[Tumult Hype](http://tumult.com/hype/pro/)**. Более продвинутые возможности вёрстки (анимация, физика и т.д.) можно исследовать в этом инструменте. **[Scratch](https://scratch.mit.edu/)**. А почему бы и не воспользоваться детской площадкой для изучения программирования? :) Самые азы никогда и никому не мешали. **[QtQuick](https://www.qt.io/ru/qt-quick/)**. А после того, когда азы будут успешно схвачены и развиты до вразумительного уровня — можно попробовать написать своё первое кроссплатформенное приложение с помощью этой библиотеки. Убедится в этом можно во [вступительном ролике](https://www.youtube.com/watch?v=_6_F6Kpjd-Q). Напомню, что руку на пульсе рынка прототипировщиков держит группа [Russian Prototyping Club](https://www.facebook.com/groups/prototypingclub/). А своё дальнейшее изучение прототипирования я буду вести у себя в [блоге на Medium](https://medium.com/@amatyukh). Всем успехов!
https://habr.com/ru/post/282103/
null
ru
null
# Рип сетевых словарей при помощи Node.js, ч. 2: динамические страницы; подключение NW.js В [предыдущей части](https://habrahabr.ru/post/274475/) были описаны базовые операции и сопутствующие задачи при копировании сетевых словарей при помощи *Node.js*. В этой части описывается использование важного дополнительного инструмента для конвертирования веб-источников особого уровня сложности. I. Зачем нам *NW.js*? ===================== **1.** Чем сложнее структура веб-страниц словаря, тем больше оснований опереться на весь спектр возможностей, предоставляемый отточенным браузерным движком. [*JSDOM*](https://github.com/tmpvar/jsdom) — довольно развитая библиотека, но даже она не сравнится с полным набором средств из *Chromium*. **2.** Люди, занимающиеся созданием и конвертированием цифровых словарей, — в значительной мере гуманитарии, которых волей судьбы занесло в сферу IT. Иногда им комфортнее работать с GUI, чем с интерфейсом командной строки, особенно если они не пишут утилиты сами, а пользуются готовыми разработками коллег. *NW.js* предоставляет простые способы создания GUI к тривиальным приложениям для анализа, обработки и конвертирования веб-страниц. Как пример для краткого описания этого инструмента я выбрал сайт [www.wordspy.com](http://www.wordspy.com/). *Word Spy* — постоянно пополняющийся словарь английских неологизмов, которые уже успели стать частью языка. То есть не были созданы и однократно употреблены авторами для частных нужд (такие слова называются «окказионализмами»), но «засветились» в нескольких печатных и сетевых источниках разного происхождения. По сравнению с *Urban Dictionary*, послужившему иллюстрацией для первой статьи, у *Word Sp*y есть два существенных отличия: содержимое страниц формируется асинхронной работой скриптов, а структура этих страниц в значительной степени непредсказуема и сложна (тогда как в *Urban Dictionary* для текста словарных статей использовался предельно малый набор тегов, а их порядок и сочетание были единообразны). Это и стало решающей причиной обратиться к *NW.js*. Я не планирую повторять здесь части [официальной документации](http://docs.nwjs.io/), уже достаточно полной и систематической, — если вы ещё не знакомы с *NW.js*, лучше начать с неё (потом можно пролистать [wiki-странички](https://github.com/nwjs/nw.js/wiki) на GitHub — хотя многие из них уже устарели, там всё ещё попадается кое-что интересное, не упомянутое в основной документации). Ограничусь лишь заметками о применении проекта к выбранной задаче. II. Подготовительный этап ========================= ### 1. Получение списка адресов словарных статей В основном, первый подготовительный скрипт будет во многом напоминать программу из первой статьи. Мы пока даже не будем подключать *NW.js*, поскольку нам нужно будет лишь повыдёргивать необходимые ссылки из страниц, а с этим успешно справится и *JSDOM*. [`Код скрипта`](https://gist.github.com/vsemozhetbyt/986e37613d921087eb53). Обозначу лишь существенные различия. **а.** Поскольку ко времени загрузки страницы и получения функцией, реагирующей на это событие, объектов `window` и `document` содержимое страницы ещё не готово, нам нужно будет ввести дополнительный цикл проверок (поскольку страница наполняется асинхронной работой скриптов, отслеживание события `load` нам ничего не даст; можно было бы повесить обработчики событий на изменения *DOM*, но в данной ситуации это кажется неоправданным усложнением). Проанализировав работу сайтовых скриптов, мы находим какой-нибудь показательный элемент страницы, наличие которого означает завершение постройки нужной нам структуры (в данном случае блока со списком ссылок на словарные статьи). Селектор этого элемента мы и определяем вдобавок к уже знакомым нам переменным (`selectorsToCheck` в начальном блоке кода; на тот будущий случай, когда для разных страниц потребуются разные проверочные элементы, мы сделаем эту переменную массивом). Вторым добавлением будет число миллисекунд, задающее периодичность проверки ключевого элемента (`checkFrequency`). **б.** *Word Spy* содержит удобное двухступенчатое содержание всего словаря: 1) список всех тегов, разбитый на несколько тематических блоков; 2) ссылка на каждый из тегов открывает список всех вокабул, относящихся к этому тегу. Мы добавим к нашему словарю как первый список тегов, так и все списки вокабул под тегами. Для этого в наш первоначальный массив адресов (`tocURLs`), который станет источником списка словарных статей, мы добавим упомянутую отправную страничку с тегами. Так же, в отличие от скрипта из первой статьи, где этот массив назывался `abc`, мы сразу превратим его в список URL, а не будем формировать его на лету из алфавита, так как адрес с тегами не вписывается в единый шаблон URL. **в.** Кое-что в нашей теперешней задаче упростится: *Word Spy* — словарь, на порядки меньший по объёму по сравнению с *Urban Dictionary*, поэтому и списки адресов, и словарные статьи у него одностраничные. Нам не придётся проверять наличие многостраничных продолжений ни в этом скрипте, ни в скрипте сохранения самого словаря, что упростит и построение URL, и соответствующие участки кода. **г.** В функции `getDoc` немного меняется библиотечный запрос `jsdom.env`: *Urban Dictionary* был статичным словарём, здесь же нам придётся потребовать загрузку и исполнение скриптов на страницах, что отображается в опциях запроса. **д.** Поскольку в нашем коде появляется ещё один асинхронный момент, мы разделим прежнюю функцию `processDoc` на две: в функции `checkDoc` мы будем проверять как возможные ошибки, так и окончание работы сайтовых скриптов, а обработку готового документа перенесём в отсроченную функцию `processDoc`. Цикл проверки совершает некоторое число итераций (скажем, пока не пройдёт 5 секунд). Если за это время появился проверочный элемент, мы переходим к функции обработки документа. Если элемента по прошествии тайм-аута нет, мы проверяем, не было ли переадресации: если нет, можно заподозрить заминку на сервере и повторить запрос, если сервер нас переадресовал куда-то, остаётся лишь выдать предупреждение пользователю и временно завершить работу программы. Опыт показал, что на отработку сайтовых скриптов в большинстве случаев требовалось 100-400 миллисекунд, хотя иногда задержка составляла и несколько секунд, и лишь изредка превышала тайм-аут (в таких случаях достаточно было одного повторного запроса). **е.** Обработка готовой страницы и извлечение нужных ссылок ничем существенным не отличается от описанных в первой статье, разве что мы позаботимся о внесении адреса с тематическим списком всех тегов также и в формируемый список URL словарных статей, чтобы это общее содержание потом сохранилось для удобства навигации в будущем словаре. ### 2. Составление списка тегов Поскольку структура страниц выбранного словаря отличается сложностью и предсказуема лишь до определённого уровня, мы попробуем добавить в процесс сохранения предварительный проход по всем нужным страницам, чтобы собрать информацию о видах и частоте используемых тегов. Для этого создадим скрипт, во многом похожий на скрипт сохранения словаря, разве что извлекать он пока будет предельно простую информацию (поэтому мы всё ещё ограничимся *JSDOM*). [`Код скрипта`](https://gist.github.com/vsemozhetbyt/e1ff91c8a18154375811). Этот скрипт можно назвать частичным гибридом скрипта, знакомого нам по сохранению *Urban Dictionary*, и скрипта, описанного чуть выше: он будет читать готовый список адресов (сначала или с того места, на котором его остановили и которое он перед остановкой обозначил в специальном логе), загружать страницу, запускать её скрипты и ждать, пока они выстроят всё необходимое содержимое словарной статьи. Обозначим лишь несколько новых деталей. **а.** При сохранении словаря мы создавали три файла: сам код словаря, лог процесса с записью сохранённых адресов и лог ошибок. В данном случае нам достаточно двух файлов: мы будем вести учёт тегов таким образом, чтобы файл с ними при необходимости мог играть и роль лога проделанной работы для восстановления после перерыва. **б.** Массив ключевых селекторов `selectorsToCheck` будет содержать теперь два элемента: для обычных страниц словаря и для страниц со списком тегов (или вокабул, объединённых одним тегом). **в.** Чтобы не перегружать анализ лишней информацией, мы по грубой предварительной оценке определим некоторые элементы, которые не будем сохранять в словарь и которые тем самым можно сейчас не разбирать на теги: селекторы этих элементов мы сохраним в переменной `selectorsToDelete`, чтобы удалить ненужное перед началом парсинга. **г.** Анализ каждой страницы будет заключаться в извлечении всех тегов из интересующего нас элемента, регистрации их имён в суммирующем объекте `tags` (с постоянным увеличением статистики по каждому тегу), записи в файл адреса страницы и списка тегов на ней. В конце работы скрипта в файл записывается также итоговый объект `tags`. Таким образом мы получаем как общую статистику тегов, так и распределение их по страницам, что даёт нам возможность посмотреть примеры употребления тега, открыв любой из адресов, под которым этот тег записан. Если работа скрипта прерывалась, по уже записанной в файл информации мы можем восстанавливать статистический объект `tags`. Эти два похожих процесса — чтение страниц и чтение выжимок из лога — мы видим в двух соответствующих местах скрипта: в начальной части (под строчкой `console.log('Reading the tag file...');`) и в функции `processDoc`. В остальном код программы не содержит ничего незнакомого. III. Сохранение словаря ======================= Программы на *NW.js* состоят как минимум из двух файлов: служебного в формате *JSON*, описывающего основные параметры программы, и странички на *HTML*, описывающей GUI и содержащей скрипты. Последние можно вынести в отдельный файл (файлы) и сослаться на них по локальному или сетевому адресу. ### 1. `package.json` Вот минимальное содержимое нашего служебного файла: ``` { "name": "NW.WordSpy.get_dic", "main": "WordSpy.get_dic.html", "window": { "title": "Save WordSpy.com" } } ``` Программы на *NW.js* при первом запуске создают в системной папке для пользовательских данных свою подпапку, и название её будет сформировано по названию программы из поля `name`. Поле `main` содержит путь к основному файлу с элементами GUI и главным скриптом программы. Необязательный подраздел `window` содержит параметры создаваемого окна программы, и мы пока ограничимся заголовком. Подробнее о формате и составляющих служебного файла можно [прочитать в справке](http://docs.nwjs.io/en/v0.13.0-beta6/References/Manifest%20Format/). ### 2. `WordSpy.get_dic.html` Окно нашей программы будет относительно простым и кое в чём даже напоминать консольное приложение. [`Код HTML-странички`](https://gist.github.com/vsemozhetbyt/d7135dac03d6dfc8967d). В заголовочную часть разметки, кроме необходимого минимума, можно добавить произвольный блок *CSS*. Здесь он носит чисто иллюстративный характер, и мы не будем на нём останавливаться. Первыми элементами нашего GUI будут два поля для параметров, которые мы раньше задавали через ключи командной строки: вводный файл с адресами словарных страниц (раньше мы задавали папку с вводным файлом, а имя файла задавали в коде, чтобы ключ был короче — теперь в этом нет необходимости, и мы можем выбирать файл содержания напрямую) и папку, в которой будут создаваться выходные файлы — сам словарь, лог сохранённых страниц и лог ошибок. Подробнее об особенностях файловых полей в *NW.js* можно почитать [здесь](http://docs.nwjs.io/en/v0.13.0-beta6/References/Changes%20to%20DOM/). Далее следует кнопка, запускающая основное действие программы, а за ней — поле для вывода информации. При помощи *CSS* и некоторых скриптовых ухищрений мы сделаем его похожим на окно вывода консоли, чтобы сохранить связь с привычными консольными вариантами наших скриптов. Невидимый элемент `audio` будет служить для привлечения пользовательского внимания — раньше мы пользовались для этого консольным плеером. Адрес звукового файла может быть любым другим, я использовал один из системных файлов стандартной звуковой схемы событий. Наконец, последний элемент будет играть ключевую роль «браузера» — в этот встроенный фрейм мы будем загружать наши странички для анализа и извлечения данных. Об особенностях фреймов в *NW.js* и некоторых связанных с ними предосторожностях можно почитать [по уже знакомой нам ссылке](http://docs.nwjs.io/en/v0.13.0-beta6/References/Changes%20to%20DOM/). Вид программы в начале и в конце процесса сохранения словаря можно оценить по скриншотам: ![](https://habrastorage.org/r/w1560/files/079/f11/f86/079f11f864cd4dbe8905c70f0ad640e3.png) ![](https://habrastorage.org/r/w1560/files/52a/442/c38/52a442c38f434c32a2e7ed0dc99b25f1.png) Скриптовую часть программы для удобства мы вынесли в отдельный файл. Ссылаться на него лучше в конце страницы, чтобы в момент запуска скрипт мог найти все необходимые элементы окна и начать с ними взаимодействовать. ### 3. `WordSpy.get_dic.js` [`Код скрипта`](https://gist.github.com/vsemozhetbyt/bfa76deac0d374b6b276). В комментариях я постараюсь остановиться только на отличиях и нововведениях по сравнению с консольным скриптом из предыдущей статьи, потому что и основная структура, и множество участков кода будут общими. **а.** Первое отличие мы видим в начале вводной части. Появляются переменные для окна и документа самой программы (так нам будет легче не путать их с переменными окна и документа загружаемых страниц), а потом и для каждого элемента GUI. Поскольку пути к файлам будут строиться динамически (не раз и навсегда по ключам командной строки, а в ответ на действия пользователя), мы будем хранить их как изменяемые свойства объекта `io`, а не как разрозненный набор констант. Ещё одно отличие — наборы селекторов разного назначения для более удобных манипуляций со сложной структурой документа (они нам уже знакомы по предыдущему скрипту для анализа тегов). Наконец, поскольку интерактивность возрастает, в конце вводной части мы создадим несколько переменных-индикаторов для текущего состояния программы и пользовательских команд. **б.** При работе с GUI искушение не вовремя закрыть окно больше, чем при работе с консолью. Поэтому мы создадим чуть большую систему предохранителей от некорректного завершения программы. Для начала назначим обработчиком закрытия окна функцию `onExit()`, о действиях которой скажем позже. **в.** Как мы могли видеть из справки, стандартные предосторожности *HTML 5* остались в силе, и мы не можем задавать конечные адреса файлов при помощи атрибутов или свойств наших файловых полей — это можно сделать только пользовательским действием через диалоговое окно. Но мы можем сократить время и усилия пользователя, сохраняя путь к папке, в которой пользователю предлагается выбрать файл (а если файл и есть папка, предварительный и конечный адрес чудом совпадут). Для этого мы воспользуемся ещё одним служебным файлом в формате *JSON* — `config.json`, в котором будем хранить объект с двумя свойствами, по числу нужных нам путей. В начале работы программа будет проверять наличие этого файла: если он есть, она прочитает содержимое в объект `config` и запишет в свойства `nwworkingdir` для обоих полей нужные пути. Если файла нет, объект будет пустым и начальный каталог будет определён обычным для браузера образом. **г.** После проверки файла сохранённых настроек мы задаём обработчики событий для всех интерактивных элементов и запускаем первый из них принудительно, чтобы привести элементы в правильное начальное состояние. **д.** Функция `checkDirs()` проверяет определение всех нужных путей: если хотя бы один из них не определён, она выводит сообщение в информационный блок, в противном случае записывает данные в файл сохраняемых настроек и снимает блокировку с кнопки запуска основного процесса. **е.** Функция `onStop()` реагирует на команду прерывания основного процесса: она всего лишь переводит индикатор этой команды во включённое положение, чтобы процесс мог потом быть прерван в удобный момент. **ё.** Функция `onExit()` реагирует на попытку закрыть окно программы. Если в это время происходит сохранение словаря, она задаёт проверочный вопрос. При подтверждении индикаторы прерывания процесса и выхода из программы переводятся во включённое положение для последующих действий в удобное время. Если пользователь не подтверждает действие, оно игнорируется. Если сохранение не производится, программа закрывается без лишних вопросов. **ж.** В функции `setSpeedInfo()` значительное изменение коснулось лишь звукового сигнала. Я пока оставил частоту обновления и формат информации о скорости работы на прежнем уровне (раз в час), но при необходимости их можно подкорректировать (ведь *Urban Dictionary* сохранялся много дней, а *Word Spy* — около полутора часов, так что частоту пересчёта и единицы измерения можно повысить до минут). **з.** Функция `updateInfo(str)` отвечает за уподобление информационного блока консоли. Мы задаём размер буфера в 10 строк и обрубаем лишние строки сначала (там самая старая информация), прокручивая блок до последней строчки. Через эту функцию мы выводим постоянно текущую информацию в процессе сохранения. При небольших словарях такое поведение можно отключить (тогда сохранится весь протокол рипа), но при длинном процессе подобные ограничения экономят память и удаляют избыточность (тем более что всё нужное пишется в логи). **и.** Функция `logError(evt)` призвана реагировать на событие `error` внутри окна встроенного фрейма. У меня она пока ни разу не сработала. **й.** Функция `secureLow(str)` служит низкоуровневой обработке текста загружаемых страниц для приведения его к требованиям DSL, а именно для экранирования спецсимволов. Тогда как `secureHigh` служит для обработки текстовых блоков (удаление лишних пробелов, вставка отступов перед телом словарных статей DSL, специальная вставка для сохранения пустых строк). В консольном варианте из первой статьи мы обходились одной функцией, но здесь наш порядок извлечения и оформления информации несколько изменится, и нам придётся эту обработку разделить. **к.** `saveDic()` — основная функция программы, запускаемая при нажатии на кнопку сохранения словаря. Она во многом отвечает начальной, процедурной части нашего консольного скрипта из первой статьи, но есть и ряд отличий. Первым делом мы включаем переменную-индикатор процесса сохранения и изменяем вид и поведение главной кнопки: теперь она будет отвечать за прерывание процесса. Также отключаем исполнившие свою роль файловые поля. Затем производим уже знакомые манипуляции с файлами: проверяем наличие списка адресов, создаём заготовки словаря и отчётов, читаем список адресов, читаем информацию об уже сохранённых страницах при её наличии в логе сохранения и по необходимости сокращаем задачу, наконец начинаем цикл сохранения, запрашивая первую страницу в списке. Новым на этом отрезке кода будет задание обработчиков событий `load` и `error` для окна встроенного фрейма, необходимых для работы нашего цикла. **л.** `getDoc(url)` — отправное звено круговой цепочки сохранения. Эту функцию мы вызываем в начале цикла и после обработки каждой страницы. Начинается она с проверки индикатора прерывания: если он был включён, цикл прерывается и запускается остановка процесса. Если он выключен, после знакомых нам операций мы меняем адрес фрейма, заставляя его загрузить новую страницу. **м.** Функция `checkDoc()` запускается автоматически в ответ на полную загрузку страницы в наш встроенный браузер. Она частично знакома нам по предыдущим скриптам этой статьи. Только теперь мы начинаем её с создания переменных, позволяющих нам не путать главные объекты окна программы и окна загруженной страницы. Затем следует знакомый нам цикл проверок на готовность содержимого страницы. В зависимости от его результатов мы или переходим к обработке информации, или перезагружаем страницу, или завершаем работу с сообщением о неведомой ошибке. **н.** В функции `processDoc(iWin, iDoc, iLoc, iter)` содержится извлечение, обработка и сохранение словарных данных страницы. Она наиболее отличается от соответствующей консольной части кода — и в силу отличий словаря, и по причине особенностей нового инструмента. Начинаем мы с чистки ненужных частей словарной статьи. Затем мы определяем ключевой её элемент, получаем список всех его текстовых частей (возможности *XPath* позволят нам получить именно чистые конечные текстовые узлы, без вложенных HTML-элементов, так что мы сможем изменять их содержимое без риска повредить структуру документа), а затем подвергаем все эти элементы упомянутой выше низкоуровневой чистке — таким образом мы с самого начала получаем экранирование спецсимволов во всём тексте статьи, и дальнейшее добавление DSL-тегов можно будет совершать уже безболезненно поверх этого текста. Затем мы формируем заголовок будущей словарной статьи. Если это обычная страница словаря, мы извлекаем из нужного элемента основной заголовок, а потом добавляем к нему варианты написания, формы и дериваты (мы сочли это необходимым, поскольку моделирование морфологии неологизмов в оболочке словаря может быть затруднено, лучше облегчить словарю эту работу). Здесь мы впервые встречаемся с одной из главных причин подключения *NW.js*: свойством элементов `innerText`. Оно не было доступным для *JSDOM* ([объяснение причин](https://github.com/tmpvar/jsdom/issues/1245)), в распоряжении библиотеки было лишь свойство `textContent`, очень неудобное для извлечения текста из сложных элементов (из-за смешения текста разметки (кода HTML) и отображаемого текста). Свойство `innerText` обеспечивает нам необходимую для сложных страниц уверенность: каково бы ни было строение словарной статьи или её частей, мы извлечём именно полезный читабельный текст (который мы бы получили, копируй мы информацию из окна страницы системными средствами через буфер обмена). Это же свойство позволяет нам временно исключать лишний текст перед извлечением (так мы, например, убираем грамматические пометы перед помещением форм слова в список заголовков): стоит нам скрыть ненужные элементы, и их текст не попадает в состав свойства (потом мы включаем отображение, и пометы остаются в составе тела статьи). Если же мы обрабатываем одну из страниц тегов, задача упрощается — мы сохраняем только основной заголовок, предваряя его сочетанием «# ». Таким образом, общий список тегов можно будет найти под вокабулой «# Tags by Category», а списки заголовков, объединённых одним тегом, — под вокабулами типа «# acronyms and abbreviations» и т.д. Далее мы приступаем к извлечению и переоформлению основной части статьи. Список тегов, полученный на предварительном этапе, позволил нам набросать приблизительный план обработки, так чтобы мы могли свести неожиданности к минимуму. Эта обработка будет некоторым рискованным компромиссом: часть структуры статей можно предвидеть и уверенно использовать, от остальных сюрпризов можно лишь грубо перестраховаться. При наших вставках и заменах мы будем пользоваться методом `insertAdjacentHTML()`, потому что он наиболее щадящий по отношению к структуре разметки. Итак, сперва мы работаем с большими блоками статьи, так сказать, с макроструктурой: вставляем пустые строки между блоковыми элементами, чтобы после запроса свойства `innerText` мы получили более читабельный текст; заменяем теги `hr` на символьные псевдолинии; заменяем встроенные фреймы (с видео или, например, твитами) на предупреждения с приглашением ознакомиться с ними на сайте. Затем спускаемся чуть ниже по структуре. Заключаем цитаты в кавычки. Расставляем маркеры списков. Исправляем случайные ошибки разметки (например, в одной из статей псевдотеги `smirk` и `flame` случайно превращаются из части цитируемого кода в разметку и исчезают из отображаемого текста). Вставляем в текст содержимое, добавляемое на страницу при помощи `CSS` и тем самым не включаемое в свойство `innerText`. После этого мы начинаем облекать подходящие элементы в теги *DSL*. Выделяем цветом и толщиной шрифта заголовки и подзаголовки. Выделяем курсивом и толщиной шрифта элементы, которые выделяются так на странице или по свойству самих тегов, или через *CSS*. При этом что-то мы можем предусмотреть заранее (и запросить при помощи селекторов с названиями тегов или их классов), а что-то нам придётся выяснять на лету: для этого мы будем запрашивать все элементы `span` внутри статьи, проверять их вычисляемые стилистические параметры и при необходимости добавлять теги. При этом мы постараемся не дублировать одни и те же оформляющие теги внутри друг друга (в отличие от HTML, в DSL такое не допускается) — для этого мы станем помечать обработанные элементы специальным атрибутом, а потом проверяем его наличие вверх по дереву *DOM*. Следующий шаг — и мы пометили все верхние и нижние индексы. Потом обработали ссылки: сохранили, как есть, автоссылки на текущую страницу; внутрисайтовые ссылки превратили во внутрисловарные в формате *DSL*; внешние ссылки оформили как сетевые URL (при этом старались сохранить перед ссылкой и пометить подчёркиванием её читабельный текст, так как формат *DSL* не позволяет прятать за текстом сетевые адреса, объединяя всё в одно целое). Также мы заменили изображения на их внешние ссылки (изображения на сайте попадаются довольно большие, поэтому мы не стали встраивать их в словарь — при необходимости пользователь сможет перейти по адресу на сайт). Наконец, мы вставили дополнительные отступы для выделения цитат (т.е. примеров употребления для каждого неологизма). В результате мы получили два в одном: полностью сохранённую разметку *HTML*, а внутри неё — разметку *DSL*, при этом без всякого конфликта между ними. И когда мы запросим свойство `innerText`, от HTML останется лишь структурированный читабельный текст, облечённый в теги DSL, готовый для непосредственного сохранения в качестве словарного кода. Его мы и записываем в файл словаря после списка заголовков, не забывая подвергнуть окончательной обработке функцией `secureHigh`. Затем мы обновляем лог сохранения и блок информации в окне программы (мы решили добавлять в него отладочную информацию о том, как скоро формируется содержимое страницы асинхронными скриптами), очищаем список заголовков перед следующей итерацией, проверяем массив адресов и либо запрашиваем следующую страницу, либо переходим к завершению цикла. **о.** Функция `endSaving()` вызывается или в конце цикла сохранения, или в результате его прерывания по требованию пользователя либо после ошибки. В ней мы закрываем дескрипторы файлов, очищаем переменные путей ввода/вывода, отменяем ставшие ненужными обработчики событий, возвращаем начальный вид элементам интерфейса. Если включён флаг выхода из программы, в конце функции мы принудительно закрываем основное окно. ### 4. Ресурсы Программа на *NW.js*, как уже говорилось, создаёт в системной папке пользовательских данных свою подпапку, в чём-то подобную папке профиля браузера. Можно предположить, что в ней, в числе прочего, хранятся файлы кеша, ускоряющего загрузку однотипных страниц. В моём случае эта подпапка после сохранения словаря занимала 138 мегабайт. В конце работы её можно безболезненно удалить — следующий раз программа создаст её автоматически (разве что на это уйдёт какое-то время при первом запуске). Скрипт сохранял словарь полтора часа, обработал за это время почти три с половиной тысячи страниц со всеми их ресурсами, при этом процессор ощутимо не нагружал. Расход памяти, а также объёмы чтения/записи к самому концу работы программы можно оценить [по этому скриншоту](https://habrastorage.org/files/638/3b0/3fd/6383b03fd4df479a997ccb64635e3c3c.png). Словарь (по состоянию сайта на 16.02.2016) выложен на [rghost.net](http://rghost.net/6gp6RGsmJ) и [drive.google.com](https://drive.google.com/open?id=0B494lZkk4eqIY0w5RTdWOU5hSXc). Архив включает DSL-исходники в кодировках UTF-8 и UTF-16, а также скомпилированные в LSD словари под три последние версии ABBYY Lingvo. Заголовков: 5827; карточек: 3419; примеров употребления: 9311. Спасибо за внимание.
https://habr.com/ru/post/277513/
null
ru
null
# Nano: И всё-таки его придётся выучить [1] *Речь идёт о текстовом редакторе nano в Linux.* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/eaa/a9e/888/eaaa9e88891f4bddf5930fc94874db18.png)Я не люблю nano и предпочитаю vim. Однако, в отсутствии vim, выбирая между vi и nano, я всё-таки предпочту nano, ибо как говорится в старой поговорке, «у vi есть два режима: бибикать и всё портить». Кроме того, идёт активная замена vi на nano во многих дистрибутивах. Например, в новых версиях Debian и Ubuntu по-умолчанию vi устанавливается в самом куцем виде. А главное, его больше нет в busybox install/initrd этих ОС, что однозначно заставляет задуматься об изучении nano, не из любви к нему, а по необходимости. Я понимаю, что сидеть и зубрить список комбинаций кнопок бесполезно, так что вместо этого я думаю сделать маленькие nano-уроки — по 8 комбинаций или фич за урок (я и сам их планирую изучать по мере публикации). Nano не имеет «режима команд» как vim, и этим похож на oldschool-редакторы из консоли DOS/Windows (NC, Far Manager, DN, hiew/biew, внезапно втесавшегося в список mcedit и т.д.). Все команды отдаются нажатием комбинаций клавиш — функциональными кнопками или комбинацией Ctrl-буква, Alt-буква. Важное отличие от 'generic editor' — это поддержка эмуляции Ctrl'а и Alt'а. Alt эмулируется одинарным нажатием на Esc, Ctrl — двойным. Вместо `Alt-X` можно набрать `Esc X`, вместо `Ctrl K` можно набрать `Esc Esc K`. Сначала очевидные комбинации (не зачитываем из за «выученные») Стрелки вверх-влево-вправо-вниз делают ровно то, что должны. Начало строки — `Home` Конец строки — `End` Страница вниз — `PgDn` Страниц вверх — `PgUp` На этом очевидности заканчиваются и, собственно, начинаются наши сегодняшние 8 комбинаций: На слово вперёд — **`Ctrl-Space`** На слово назад — **`Alt-Space`** (курсор встаёт в начале слова) В начало файла — **`Alt-|`** или `Alt-\` (короче, Alt- и «эта» кнопка) В конец файла — **`Alt-/`** или `Alt-?` (аналогично, Alt «эта» кнопка) До первой пустой строки вниз — **`Alt-0`** (или Alt-)) До первой пустой строки вверх — **`Alt-9`** (или Alt-() (в терминах nano текст, отделённый пустыми строками называется «параграф», так что последние две команды называются «предыдущий параграф», «следующий параграф») Включить выключить перенос строк — **`Alt-L`** Переход на строку с указанным номером — **`Alt-G`** Завтра будет [продолжение [2]](http://habrahabr.ru/blogs/linux/106554/), [[3]](https://habrahabr.ru/post/106748/).
https://habr.com/ru/post/106471/
null
ru
null
# Mooha — нодовый интерфейс для PHP ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/960/cea/191/960cea19135575bf8dd64f0cd620a9cc.png) Мне часто приходилось сталкиваться с нодовыми интерфейсами в программах. Начиная с музыкальных модульных приложений, заканчивая пакетами для создания трехмерной графики. Идея графического управления логикой программы мне всегда казалась очень элегантным, а в некоторых случаях, единственным удачным решением. Позже, когда помимо музыки и видео я увлекся программированием (в основном PHP, так уж сложилось), мне захотелось попробовать, пусть даже в качестве эксперимента, создать графическую оболочку для выполнения тех нехитрых задач, с которыми я сталкивался в своей работе. Мое знакомство с нодовым интерфейсом (или графическим программированием) началось с программы [Plogue Bidule](http://www.plogue.com/products/bidule/). Это приложение относится к семейству модульных программ для управления звуком в реальном времени. В свое время эта программа помогала мне решать достаточно нетривиальные задачи, касающиеся обработки звука и синхронизации сценического оборудования на живых выступлениях нескольких моих музыкальных проектов. Интерфейс программы Plogue Bidule выглядит следующим образом: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/0cf/4a2/66f/0cf4a266fa17ff442d481fc24df4b3f5.png) В основе работы — создание логических цепочек. Как мне кажется, такой подход вполне естественно вписывается в работу со звуком, хотя кому-то может показаться сложным с первого взгляда. Звук в программе — это непрерывный поток, который появляется из источника (входящий канал звуковой карты, аудио файл или генератор сигнала), и после определенной обработки чаще всего отправляется на выход звуковой карты или на запись в файл. Главные управляющие конструкции интерфейса — ноды (или модули, блоки, узлы и т.д.), которые по сути являются функциями. По аналогии с музыкальным оборудованием — это приборы, соединенные между собой проводами. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ec8/833/400/ec8833400a0e3b4932c0ece07da54243.jpg) Plogue Bidule включает в себя много интересных возможностей, которые не ограничены только работой со звуком, но для данной статьи этого описания будет достаточно. Мне повезло впервые познакомиться с нодовым интерфейсом именно в музыкальной программе, поскольку поток звука, на мой взгляд, отличная аналогия для потока выполнения процедурной программы. Нодовые редакторы широко используются в графических пакетах для создания 3D графики. В таких программах «черные ящики» описывают сложнейшие структуры и функции, а интерфейс позволяет сохранить свободу и гибкость в построении логики выполнения. Самая интересная, на мой взгляд, реализация нодовой системы в программе [Houdini](http://www.sidefx.com/). ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/cec/2fc/061/cec2fc06129b0b0e3933781dae06a194.jpg) Так а что же с веб-программированием? Поиск похожих систем не дал результатов. Я подумал, что, возможно, в такой технологии просто отсутствует необходимость. И что идея моя родилась скорее от некомпетентности и наивности. Но желание попробовать создать такой инструмент оказалось сильнее моих сомнений. Так родился проект [Mooha](http://mooha.net). #### PHP, MySQL, HTML Каким же образом можно соединить эти три технологии в одной нодовой системе, чтобы получить удобный графический инструмент? В программах для создания 3D графики в нодовых редакторах часто используется разделение на контексты, которые обычно плохо совместимы друг с другом. Но в нашем случае структуры данных не настолько сложны и разнородны, чтобы плодить отдельные редакторы. Поэтому я решил создать единое пространство, разделив ноды на категории по технологиям: * HTML/XML ноды (для вывода HTML/XML тэгов) * PHP ноды (управление логикой) * Ноды запросов к базе данных MySQL Идея состояла в том, чтобы переход между технологиями был незаметен для пользователя. Чтобы соединение нод разных категорий между собой создавало единый поток выполнения программы. Рассмотрим по порядку все три категории нод. #### HTML/XML ноды ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/5a4/e73/b23/5a4e73b23fc8bf4a807908e005846796.png) Соединяя такие ноды между собой мы получаем простейшую структуру HTML документа. По-умолчанию HTML/XML нода имеет по одному входу и одному выходу. Вход (IN) — то, что помещается внутрь тэга, выход (OUT) — результирующая строка. Таким образом из последнего выхода ноды «HTML» мы получим строку: ``` ``` Служебная нода «Merge» используется для возможности повлиять на сортировку входящих соединений. Сортировка доступна в свойствах самой ноды. В последней ноде «HTML» два входящих соединения конкатенируются в том порядке, в котором произошло соединение. Т.е. если сначала подключили «HEAD», а потом «BODY», то в такой последовательности они и появятся в конечной строке. Атрибуты тэга мы можем прописать в свойствах ноды, но при желании можем выводить их в виде коннекторов для входящих соединений. Например, добавив ноде «my div» коннекторы для атрибутов id и class мы получим такой вид: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/635/59d/1b5/63559d1b5b91145cd137c72fd268e75c.png) ``` my text ``` Переменные со строковыми значениями «my-id» и «my-class» попадают в наши атрибуты. Переменная «my text» становится содержимым первого тэга div. Переменные — это уже PHP ноды, о которых речь пойдет чуть ниже. В качестве коннекторов мы можем выводить и шаблоны для замены текста внутри тэга. Например, если у нас имеется следующий тэг с прописанным содержимым: ``` Hello, %user% ============= ``` И если шаблон %user% выведен как коннектор, то теперь мы можем заменить этот шаблон переменной следующим образом: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/654/47f/5ed/65447f5ed28b72198d6e60b29cec2a19.png) В первом случае текст внутри ноды прописан в ее свойствах и коннектор для данных выключен, а выведен только коннектор для замены шаблона. Во втором случае текст с шаблоном тоже приходит из переменной. И в том и в другом случае на выходе мы получим: ``` Hello, Mooha ============ ``` Конечно, нет особого смысла заниматься построением HTML кода именно таким образом. В редакторе есть возможность использовать ноды не только с отдельными тэгами, а с целыми кусками кода и даже подключать внешние файлы. Например, у нас есть файл template.tpl, который содержит два шаблона для замены: %title% и %content%. Содержимое файла следующее: ``` %title% ======= %content% ``` Чтобы подключить файл и заменить шаблоны переменными, достаточно построить вот такую схему: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f69/b7b/2d4/f69b7b2d47718ecf5373bc3d17dc9731.png) В результате получим: ``` My article title ================ My article content ``` Так как мы уже вышли за рамки описания только HTML нод, перейдем к следующему типу — к PHP нодам. #### PHP ноды ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/006/b51/7c9/006b517c9fb97625480d1b6ffda43857.png) Это простейший пример арифметических вычислений и вызова встроенной функции abs() с помощью PHP нод. Названия нод произвольные и могут меняться в свойствах каждой ноды. Для удобства я переименовал их так, чтобы были видны значения переменных и названия арифметических операций. Первые три ноды «1», «2» и «5» — это переменные, значения которых соответствуют названиям. Т.е. в результате мы получим такой скрипт: ``` php print abs((1+2)-5); ? ``` А на выходе просто число 2. Я постарался реализовать необходимые логические конструкции, обычно используемые в нодовых системах. Например, вот так выглядит сравнение двух переменных (или результатов двух потоков): ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e82/3b7/0f7/e823b70f7eed9af232b43d02a896abb9.png) Результат будет true (1!=2). А вот так можно делать выбор потока, исходя из условий: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/509/1fe/caf/5091fecaf018abc94e78c81620a4aa09.png) Здесь каждому красному коннектору в свойствах ноды присвоены значения, с которыми сравнивается значение, поступившее в коннектор оранжевого цвета. Если значения совпадают, то переключатель Switch пропускает соответствующий поток. В этом примере красные коннекторы имеют значения 1, 2 и 3. То есть результат такой конструкции будет «it was 2». Во всех цепочках в соединениях передаются конечные значения всех предыдущих вычислений потока. Таким образом в следующем примере у нас результат будет тоже «it was 2», но результирующая строка собирается из нескольких действий: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d5b/07e/a27/d5b07ea27ecb5aa4a97e6f67d4339d65.png) Генерируется примерно следующий код: ``` $data = 2; switch ($data) { case "1": // заданное в первом коннекторе значение для сравнения $result = "it was 1"; break; case "2":// заданное во втором коннекторе значение для сравнения $result = str_replace("foo", "2", "in was foo"); break; case "3": // заданное в третьем коннекторе значение для сравнения $result = "it was 3"; break; default: $result=false; } var_dump($result); ``` Отдельного внимания заслуживает нода Copy, которая по значениям из первого соединения размножает шаблон из второго. Это полезно, например, в том случае, когда нам необходимо размножить HTML код и заменить в нем шаблоны значениями из массива. В самом простом случае с одномерным массивом такая схема выглядит следующим образом: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ee2/f94/c44/ee2f94c44ddbe9b6956934938572b703.png) Для наглядности я назвал ноды значениями их переменных. В первый коннектор (для значений) мы запускаем JSON массив, во второй — HTML код с шаблоном для замены. Все ноды (или цепочки нод), подключенные к коннектору шаблона будут скопированы столько раз, сколько имеется элементов в массиве, подключенному к первому коннектору. При этом у каждой ноды слева от такого соединения появится специальная настройка, какие именно данные в ней заменять элементом из массива. В нашем случае в ноде с параграфом настроена замена шаблона %number%. Т.е. результатом этой схемы будет следующий код: ``` first paragraph second paragraph third paragraph ``` Вот пример сложнее, с массивом объектов и с несколькими нодами: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/234/86c/be8/23486cbe8e4d3e0b7ee1e3b11d09e2e7.png) В переменной «JSON» следующий массив объектов: ``` [ {"title":"first title","content":"first content"}, {"title":"second title","content":"second content"} ] ``` В ноде c тэгом ````` шаблону %title% в качестве источника для копирования указан объект "title" массива. В ноде с тэгом шаблону %content% в качестве источника для копирования указан объект "content" массива. В результате генерируется следующий код: first title =========== first content second title ============ second content ``` По умолчанию нода Copy имеет тип foreach и работает так, как я описал в двух примерах выше. Но мы можем выбрать тип for, после чего появится возможность настроить стартовое значение счетчика, конечное значение, шаг и тип инкремента (возрастающий или убывающий). #### Ноды запросов к таблицам базы данных MySQL ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/a47/2e3/ac8/a472e3ac8a08647e4d372dd709631f52.png) Базовая нода для запросов — это таблица, а точнее — оператор SELECT, который выполняется по-умолчанию при подключении к любому полю. Присоединившись к последнему выходу, обозначенному символом "*", мы выполним запрос: ``` SELECT * FROM `authors` ``` Результат получим в виде массива объектов в формате JSON. Это подключение "поймает" следующий набор: ``` [ { "id": "1", "Name": "Iain Menzies Banks", "Birthday": "1954-02-16" }, { "id": "2", "Name": "Charles Michael Palahniuk", "Birthday": "1962-02-21" } ] ``` Чтобы получить массив только имен авторов, соединение будет выглядеть следующим образом: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/72d/d56/011/72dd56011ce65ff2fdbe40892aa730ee.png) На выходе мы получим обычный одномерный массив: ``` ["Iain Menzies Banks", "Charles Michael Palahniuk"] ``` На данный момент в редакторе есть несколько служебных SQL нод, с помощью которых можно выполнять несложные выборки. Например: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/51c/bfa/dcb/51cbfadcb755f9183017166786bfc221.png) В первом случае (слева) мы выполним запрос: ``` SELECT * FROM `authors` WHERE id=1 ``` И получим массив с одним объектом: ``` [ { "id": "1", "Name": "Iain Menzies Banks", "Birthday": "1954-02-16" } ] ``` Во втором случае (справа) запрос будет таким: ``` SELECT * FROM `authors` WHERE Name LIKE '%Banks%' ``` А вот запрос с несколькими условиями и сортировкой: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ba3/fd0/896/ba3fd0896c77c773a9cacb423768a272.png) ``` SELECT * FROM `authors` WHERE (`Birthday` < '1990-01-01' AND `Birthday` > '1920-01-01') ORDER BY `Name` ASC ``` Служебная нода AND выступает здесь не только в качестве логического оператора в условии WHERE, но и в качестве соединения команд в одном запросе (в нашем случае, добавление к запросу команды ORDER BY) Запросы INSERT, UPDATE и DELETE вызываются подключениями к таким же нодам-таблицам, но только с соответствующими настройками. Простой INSERT выглядит так: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f73/80a/f98/f7380af9868646a540d8bb6313c7fb34.png) ``` INSERT INTO `authors` (`id`, `Name`, `Birthday`) VALUES ('1', 'Iain Menzies Banks', '1954-02-16') ``` UPDATE: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/7df/30e/335/7df30e335eaf0df7eeaf8d33bfa8e73e.png) ``` UPDATE `authors` SET `Name`='Iain Banks', `Birthday`='1954-02-17' WHERE `id`='1' ``` DELETE: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f20/b29/742/f20b2974249e1046267e8b45a2efc4e3.png) ``` DELETE FROM `authors` WHERE `Birthday`<'1954-02-17' ``` В процессе построения генерируются запросы с использованием PDO. С помощью нодовых соединений можно построить почти любые типы запросов, в том числе организовать JOIN объединения. Однако не для всех сложных запросов я нашел идеальные графические решения, поэтому оставил возможность вписать текст SQL инструкции в специальную ноду. Немного забегая вперед, скажу, что работу с базой данных можно построить в системе и другими способами, не только с помощью MySQL нод. #### "А теперь вместе!" И, наконец, пример объединения всех трех технологий (MySQL, PHP и HTML) в одной цепочке, может выглядеть следующим образом: ![](http://habrastorage.org/r/w1560/storage3/fae/e62/2ca/faee622ca8e04764ccd67ca9ef8accae.png) Здесь у нас имеется заготовленный шаблон library.tpl для вывода книг из домашней библиотеки. Содержимое примерно следующее: ``` all authors %author-list% %book-list% ``` У нас есть два шаблона для замены: %author-list% и %book-list%. В первый нам нужно вывести тэги option, соответствующие всем авторам. Во второй — все книги, а именно — размножить блок "book block", в котором содержится HTML код вывода одной книги. Первый список нам нужен для того, чтобы фильтровать книги по автору (для этого действия мы будем использовать функцию jquery в шаблоне library.tpl). Для первого шаблона %author-list% мы добавляем ноду Copy ("Author Copy"), которая по данным из таблицы "authors" клонирует тэг "option", при этом внутрь тэга помещает имя автора, а атрибуту "value" присваивает значение id. На выходе ноды "Author Copy" мы получим следующий код: ``` Iain Menzies Banks Charles Michael Palahniuk Mikhail Bulgakov ``` Нода "book block" содержит следующий код: ``` ![](images/%image%) **%title%** by **%author%** ISBN: %isbn% %description% ``` Шаблоны в этом блоке заменяются данными книги из объединенной выборки двух таблиц "books" и "authors". Таблица "authors" здесь нужна для вывода в книге имени ее автора. Сам блок клонируется столько раз, сколько у нас записей в таблице "books". Вот что у нас получится в результате: #### Заключение В этой статье я постарался описать основную идею работы системы. В проекте реализовано много других возможностей. Некоторые из них — типичные для нодовых интерфейсов, некоторые мне пришлось изобретать самому, с учетом специфики редактора. Вот неполный список доступных на данный момент инструментов: * Создание групп — специальных нод, внутрь которых можно прятать целые схемы и выводить только необходимые входящие и выходящие коннекторы. Глубина вложенности групп неограниченна. * Возможность выводить переменные из любой вложенной схемы в качестве параметров для группы-родителя. * Сохранение логических схем или их частей в качестве сниппетов, для повторного использования в других скриптах. * Возможность написания своих функций, которые можно выводить в редакторе в виде нод. * Создание своих или подключение готовых классов, возможность вывода методов классов в качестве нод. * Подключение скриптов (include), как созданных в самой системе, так и скриптов из других файлов. * Возможность редактирования файлов, используя встроенный редактор. * Инструменты для создания и редактирования таблиц MySQL. Результат работы редактора — набор генерированных PHP файлов. Каждая сцена — это отдельный скрипт, сохраненный в специальной папке. Такой скрипт может выполняться без помощи самого редактора. Кроме того, в настройках системы можно выбрать стартовый сценарий, который будет включать в себя главную логику работы всего проекта, исходя из полученных данных (строка запроса или передаваемые параметры). Цель написания этой статьи — понять, насколько такая система может быть интересна для разработчиков. Я слишком долго и увлеченно занимался этим проектом и у меня изменилось отношение к нему с того момента, как я начал над ним работу. Поэтому я буду крайне признателен за отзывы и комментарии, за вопросы и предложения, а также за участие в тестировании. На данный момент проект почти закончен и идет процесс отладки. Совсем скоро я буду готов выложить бета-версию. Для того, чтобы быть в курсе процесса разработки и узнать о выходе проекта — нужно просто подписаться на получение новостей любым удобным способом на сайте [Mooha.net](http://mooha.net). --- #### Техническая информация В проекте использованы следующие инструменты: * HTML5 Canvas и Javascript (нодовый редактор) * [JQuery 2.0](http://jquery.com/) (панели свойств и настроек) * [Codemirror](http://codemirror.net/) (встроенный редактор файлов) * [CKEditor](http://ckeditor.com/) (расширенный редактор полей таблиц базы данных) * [Spectrum Colorpicker](http://plugins.jquery.com/spectrum/) (изменение цвета элементов нод) * [jQuery File Tree Plugin](http://www.abeautifulsite.net/blog/2008/03/jquery-file-tree/) (браузер файловой системы) Серверная часть тестировалась в таких условиях: * Apache 2.2.22 * PHP 5.4.3 * MySQL 5.5.24``
https://habr.com/ru/post/201646/
null
ru
null
# Сборка приложения среды arduino средствами CI github ![image](https://habrastorage.org/r/w1560/webt/p3/zh/wj/p3zhwjh1o9xgd2jttequbmqufsg.png) Немного имея по работе дело с CI/CD (gitlab ce), не так давно на github наткнулся на actions, и решил попробовать, что же это за зверь такой. Собирать JS или какие то другие решения не очень интересно было, поэтому решил протестировать сборку Arduino скетча для esp8266, получить в качестве результата скомпилированный бинарник, готовый для загрузки напрямую в микроконтроллер без необходимости установки локальной Arduino IDE. **Actions, или pipeline**Последовательность команд и действий, запускающаяся после определенных событий — например, push в git ветку репозитория, то есть она будет запускаться после изменения какого либо файла. Можно изменить файл напрямую редактором github, и проект автоматически соберется и скомпилируется. Pipeline используется не только для компилирования, но и для различного тестирования кода. Делать docker образ для всего этого я не стал, это дополнительно усложнило бы процесс организации ci/cd, опять же, под каждую библиотеку не сделать образ. Чем это может быть полезным? Допустим, есть какой то открытый проект, под разные версии контроллеров с разными количеством памяти, и на то, чтобы скомпилировать код под все платформы — требуется немало времени. В actions же можно один раз настроить платформы, под которые требуется сборка — и с каждым изменением кода в репозитории под каждую версию платформы будет готовая прошивка. Код самого action скрипта: ``` on: [push] jobs: build: runs-on: ubuntu-18.04 steps: - uses: actions/checkout@v1 - name: install arduino cli run: curl -fsSL https://raw.githubusercontent.com/arduino/arduino-cli/master/install.sh | sh - name: MakeSketch run: ./bin/arduino-cli sketch new MyFirstSketch - name: create dir run: mkdir -p /home/runner/.arduino15/packages - name: lib init run: sudo ./bin/arduino-cli core update-index --additional-urls http://arduino.esp8266.com/stable/package_esp8266com_index.json - name: install esp8266 run: sudo ./bin/arduino-cli core install esp8266:esp8266 --additional-urls http://arduino.esp8266.com/stable/package_esp8266com_index.json - name: install python3 run: sudo apt-get install -yq python3 - name: compile run: sudo ./bin/arduino-cli compile --fqbn esp8266:esp8266:d1 MyFirstSketch - uses: actions/upload-artifact@v1 with: name: esp8266-d1-mini-4m.bin path: MyFirstSketch/MyFirstSketch.esp8266.esp8266.d1.bin - uses: ncipollo/release-action@v1 with: artifacts: "MyFirstSketch/MyFirstSketch.esp8266.esp8266.d1.bin" tag: "release" token: ${{ secrets.GITHUB_TOKEN }} ``` По факту — * На чистую систему с ubuntu 18.04 мы устанавливаем arduino-cli * Добавляем поддержку esp8266 * Компилируем arduino код, размещенный в репозитории, * Создаем релиз, в который добавляем скомпилированный бинарник ![image](https://habrastorage.org/r/w1560/webt/3e/jy/ew/3ejyewlesm76l07lt4q1ylwemsi.png) Actions на github — бесплатны для open source проектов, для закрытых репозиториев сейчас они тоже доступны, но вроде как, через некоторое время станут недоступны. На devops не претендую, некоторые вещи можно было бы сделать проще, но, во всяком случае, это работает.
https://habr.com/ru/post/479718/
null
ru
null
# Проблемы релиз-менеджмента maven проектов при CI подходе к разработке ПО Прочитав статью [«Простой релиз-менеджмент средствами Git»](http://habrahabr.ru/post/159107/) захотелось поделиться парой своих мыслей по поводу релиз-менеджмента maven проектов. В этой заметке я не столько предложу решение проблем, сколько хочу правильнее их сформулировать. В кратце: главная проблема релиз-менеджмента maven проектов — это сам maven, который, не был разработан с учетом требований CI (Continuous Integration) подхода к разработке ПО. Парадигма SNAPSHOT версий устарела с тех пор, как CI стало стандартным подходом к разработке ПО. Более подробно далее. Современный взгляд на CI изложенный например в книге [«Continuous Delivery»](http://continuousdelivery.com/) исходит из того, что любая branch — это зло. В идеале разработка должна вестись в единственной ветке trunk. Следует избегать создания любой новой ветки разработки настолько, насколько это возможно. Особенно вредны так называемые "*feature branches*", ветки, единственное предназначение которых — отложить трудности интеграции новых feature до последнего момента, что полностью противоречит приципу Continuous Integration («постоянная интеграция»). Единственно, где с моей точки зрения, могут использоваться ветви — это случай "*release branch*", т.е. ветки созданные для исправления ошибок в production версии в то время, когда разработка идет параллельно в транке. Причем даже их не стоит торопиться создавать. В случае крайней необходимости release branch всегда можно создать позже, когда понадобится, на основе tag'a или ревизии системы контроля версий. Branch следует рассматривать как «линию параллельной разработки». Если вам надо вести параллельную разработку одновременно нескольких линий кода, значит вам нужно создавать новый branch. На практике такое встречается [должно встречаться] исключительно редко. Единственный случай — багфиксы и сервис релизы предыдущих версий, для чего используются release ветки. Повторюсь: комфорт разработчика, получающего «кажущееся спокойствие» при работе в feature branch, не является достаточным аргументом для создания новой ветки. Поэтому, с моей точки зрения, упомянутое в статье наличие единственного trunk'a во многих open source проектах — это хороший пример для подражания. Другой принцип в рамках методологии Continuous Delivery заключается в том, что каждый build artifact генерируемый CI системой должный получать уникальный номер версии. Это необходимо для того, чтобы не строить проект по-новой, тратя время и рискуя внести ненамеренные изменения, каждый раз, когда надо передать определенную версию кода на следующую стадию (stage) конвейера разработки. Например на Staging после того, как прошли UAT (User Acceptance Test) тесты определенной версии в Test среде. Вместо этого артефакт с уникальной версией следует сохранять в репозитории артефактов (например Nexus, и ни в коем случае не в VCS (version control system) вместе с кодом). Если Ваш проект использует maven для управления зависимостями, то настоящая проблема с релиз-менеджментом заключается в том, что maven не расчитан на то, что каждый новый билд получает новую уникальную версию. Классическая последовательность действий по выпуску новой версии с использованием maven заключается в ручном создании новой release branch, обновлении pom.xml, построении проекта и, в случае успеха, коммита изменений в VCS. Неразбериха с версиями происходит уже на этом этапе, поскольку одному и тому же артефакту теперь соответствуют две ревизии в VCS. Тему транзакциональности этих изменений поднимать здесь не будем. Для автоматизации этих действий можно использовать maven release плагин, который тем не менее не решает проблему по сути и не делает maven проект более пригодным для CI и Continuous Delivery/Deployment. Использование SNAPSHOT версий, на первый взгляд, может сделать возможным CI билды. На самом деле, SNAPSHOT версии еще более усугубляют неразбериху и требуют дополнительных трудозатрат по обновлению pom-файлов, поскольку при релизе теперь надо не забыть вручную обновить не только версию проекта, но и все SNAPSHOT зависимости данного проекта, а также всех проектов, которые на него ссылаются. А если сюда еще приплюсовать version ranges из Maven 3, то сложность согласования всех частей головоломки быстро превышает целесообразную. В идеале, CI билд-система должна сама генерировать номер версии артефакта и передавать его во все билды конвейерной цепочки Continuous Delivery. Hudson/Jenkins, например, не умеют этого делать и обладают двумя основополагающими недостатками, которые исключают их из серьезного рассмотрения при выборе CI системы: 1. Отсутствие поддержки Expression Language в настройках Job'ов 2. Отсутствие возможности иерархического построения конфигураций с наследованием настроек плагинов (существующие плагины, решающие похожую проблему, имеют весьма незначительную практическую пользу). Приличная CI-билд система с легкостью справляется с задачей генерации и передачи версий билдов. Например мой любимый [Quickbuild](http://www.pmease.com/), который по соотношению цена-качество, пожалуй, лучший выбор на сегодняшний день (сравнение я проводил, правда, пару лет назад; интересно, куда продвинулся за это время [Thoughtworks Go](http://www.thoughtworks-studios.com/go-agile-release-management)). К сожалению, передать версию в maven билд без побочных эффектов (было?) нельзя. Максимум что можно сделать: ``` 4.0.0 org.xxx xxx ${ciVersion} jar 0.0.0 mvn -DciVersion=1.1.1 deploy ``` Но в таком случае в pom.xml сохраненный в maven репозитории после деплоймента будет хранить `${ciVersion}` без изменений, что станет проблемой при постройке проектов, зависящих от данного. Итак, проблемы на пути эффективного CI maven проекта грубо говоря две: 1. Сложность генерации и передачи по цепочки связанных джобов уникальной версии средствами CI системы. 2. Невозможность передать сгенерированную версию в maven билд. Первая проблема решается правильным выбором CI системы или дополнительными трудозатратами на кастомизацию существующей. Вторая проблема может решиться например переходом на использование Ant+Ivy. Ivy изначально не страдает детскими болезнями maven, однако требует существенно более длительной подготовки, а также более сложен в настройке (хотя сделать это придется, пожалуй, всего один раз). В качестве компромисса мы используем сейчас следующий подход. 1. Все разработка ведется в trunk, который настроен на SNAPSHOT версию 2. CI строит trunk как только видит новый чекин в VCS. 3. Когда trunk готов к UAT, вручную запускается другая конфигурация/job CI системы, которая: 1. генерирует уникальную версию билда (например на основе VCS ревизии) 2. забриает строющуюся ветку из VCS 3. использует maven versions плагин для обновления версии проекта и всех под-проектов на relase-версию, сгенерированную на шаге 1 (опционально можно обновить SNAPSHOT зависимотей на релиз версии на этом шагу) 4. строит проект 5. деплоит построенные артефакты с релиз-версией в Nexus (замечу, что после этого изменения в pom файлах не коммитятся в VCS) 6. VCS ревизия запоминается или создается tag 4. В случае успешного выполнения предыдущего шага, следом автоматически запускается связанная конфигурация/job, ответственная за развертывание приложения в целевой среде (например тестовой среде), которой с помощью EL выражений, среди прочих параметров, передается версия артефакта, построенного на предыдущем шагу. Эта работа запускается прямо на целевой машине через удаленного агента CI системы, или же все развертывание можно сделать через ssh соединение. Скрипт развертывания также хранится в VCS. 5. В случае необходимости выпсука хотфикса или подготовки сервис-пака мы брэнчим желаемую ревизию (или tag) и меняем параметры release джоба CI системы чтобы он использовал новую ветку и генерировал подходящие major/minor версии построенным артефактам. В случае использования Quickbuild данная процедура сводится буквально к исправлению двух трех значений параметров существующей конфигурации без необходимости создавать новый джоб из шаблона. В реальности конфигурация наших CI джобов несколько сложнее, поскольку для важных интерфейсов, которые совместно используются нашими подсистемами, ведется собственное версионирование и ветвление. Соответственно, для каждого такого под-проекта сконфигурированы свои CI и release джобы. Если CI-билд система хорошо поддерживает иерархичную структуру джобов, то управление многчисленными конфигурациями не представляет проблем, поскольку все совместно используемые настройки следуют DRY принципу и хранятся только в одном месте. Возвращаясь к заметке «Простой релиз-менеджмент средствами Git», хочу заметить, что отказ от relase веток для многих станет непреодолимым препятствием для внедрения описанного подхода. Каждая новая ветвь — зло. Намерение минимизировать количество ветвей раз и навсегда весьма похвально, но при попытке поддержать более сложные варианты использования (как, например, независимый выпуск хотфиксов) растет количество нестандартно исползуемых живых ветвей а также сложность их использования. А реальная проблема, решение которой предлагается в статье — не проблема организации веток/порядка работы с VCS, а проблема неприспособленности maven для Continuous Integration подхода к разработке ПО. --- По итогам комментариев, немного подумав о том, что же можно предложить взамен SNAPSHOT-ам, пришел к выводу, что поприветствовал бы развитие maven (или другой билд системы и системы контроля зависимостей) в следующих направлениях: * Поддержка «стратегий» автоматической генерации версий. Что-то вроде: «при постройке присвоить артефакту версию по таком образцу, используя генератор случайных чисел, ревизию VCS, или что угодно по вкусу» (вот где сегодня приходят на помощь гибкие EL выражения Quickbuild) * Вместо SNAPSHOT-ов ввести понятие release-билда, чтобы maven знал, что это построенные и референциремые именно в этом билде артефакты более нельзя убирать из репозитория. Зато другие, номера версий которых не отличаются в общем случае от версий release артефактов, можно удалять со временем безболезненно. В отличие от существющей системы, по умолчанию все артефакты получают уникальную версию и являются кандидатами на удаление из репозитория. Если вдруг какой-либо из них был референцирован из «release»-билда, то он автоматически переходит в статус release-артефакта
https://habr.com/ru/post/160145/
null
ru
null
# Подключение датчиков KELLER к среде MATLAB ### Введение Компания KELLER производит высокоточные датчики с цифровым выходом, которые подключаются к фирменному программному обеспечению для отображения и накопления показаний. Зачастую, пользователю необходимо интегрировать датчики в собственные системы мониторинга и управления. В этой работе на примере высокоточного датчика давления PR-33X показано подключение датчиков KELLER к интегрированной среде MATLAB, первоначально разработанной для анализа и синтеза систем управления, имеющей мощные средства обработки и отображения сигнальных данных. #### Краткая спецификация преобразователя давления KELLER PR 33X Стандартный диапазон давлений (ВПИ), бар 30 Точность измерения давления, суммарная (10…40 °C) 0,025 % ВПИ Выходной сигнал RS 485 Скорость передачи данных 9600 или 115200 бод Напряжение питания (U) 8…28 V Срок службы 10 млн. циклов 0…100 %ВПИ Преобразователь давления содержит и встроенный датчик температуры. #### Интерфейс Все продукты компании KELLER с индексом X имеют цифровой интерфейс (RS485 полудуплекс), который поддерживает протоколы MODBUS RTU и Keller Bus. Подключение к ПК осуществляется посредством RS485-USB конвертера. Для обеспечения наилучшей совместимости, компания рекомендует использовать конвертер K-114 от Keller. #### Программное обеспечение Для настройки и записи показаний датчика используется бесплатное ПО CCS30, интерфейс которого показан на Рисунок 1. ![image](https://habrastorage.org/r/w1560/webt/qd/ca/ww/qdcawwuuj6n5zteyx9qs_-etfw0.png) *Рисунок 1. Накопление и отображение графических и табличных данных программой CCS30 [3].* #### Подключение к ПК Подключение датчика давления PR-33X к ПК выполнено с использованием преобразователя USB в RS-232/422/485 MOXA USB Serial Port по схеме Рисунок 2. ![image](https://habrastorage.org/r/w1560/webt/wj/k2/8k/wjk28kdvauynmdd1mt2bxydhaug.png) *Рисунок 2. Схема подключения преобразователя давления PR-33X к ПК и источнику питания 12 В. При питании ниже 5,69 В (до 4.95В) показания датчика растут. При питании ниже 4.95В данные не передаются (датчик не работает).* После установки драйвера и присоединении преобразователя МОХА к ПК в списке диспетчера устройств появляются СОМ порт ![image](https://habrastorage.org/r/w1560/webt/db/ap/gb/dbapgbkmdsirmyl28bf9id2e_me.png) и адаптер ![image](https://habrastorage.org/r/w1560/webt/mp/e7/o9/mpe7o9-ma6cn4t9joga00ad_p4a.png). В закладке (Рисунок 3) последнего устройства для нашего варианта выбран интерфейс RS-485 с двухпроводной схемой подключения. ![image](https://habrastorage.org/r/w1560/webt/e9/su/ts/e9sutsxhtioee0cqdw3rpb7sbx8.png) *Рисунок 3. Настройка преобразователя MOXA на интерфейс RS-485 2W.* #### Форматы передаваемых данных Обмен данными между компьютером (управляющее устройство) и датчиком (подчиненное устройство) осуществляется по протоколу Modbus сообщениями, содержащими следующие поля [2]. ![image](https://habrastorage.org/r/w1560/webt/ma/db/p2/madbp2igvgcyyvmssrwpamy5m0o.png) Сначала компьютер посылает запрос-сообщение датчику, затем датчик в ответ высылает собственное сообщение с собственной контрольной суммой при успешном выполнении запрашиваемого действия или высылает функцию с кодом 1 при возникновении ошибки (недопустимая функция или адрес данных и др.). Ответ (отклик) датчика выдается только после получения им запроса управляющего устройства. Передаваемое датчику сообщение содержит один из следующих кодов функций. ![image](https://habrastorage.org/r/w1560/webt/sv/sb/6g/svsb6gtzunibtama_gdsekxawmk.png) ![image](https://habrastorage.org/r/w1560/webt/lu/en/tx/luentxuvrnxv2-7qqmxqqeynsv4.png) *Рисунок 4. Формат передаваемых и принимаемых сообщений по стандарту Modbus RTU [1].* #### Адреса используемых регистров датчика PR-33X ![image](https://habrastorage.org/r/w1560/webt/8g/q7/9m/8gq79mcfhuhovo-kiv28pqgsnri.png) #### Примеры сообщений Modbus (чтение показаний встроенного датчика давления и температуры) [2] ![image](https://habrastorage.org/r/w1560/webt/md/xn/8y/mdxn8y7cfqgzcncf4jfqd61sno8.png) #### Преобразование показаний датчика в формат с плавающей точкой IEEE754 Рекомендуемый порядок перевода четырех принятых байт показаний датчика в число в формате с плавающей точкой показан на Рисунок 5. В примере используются данные [2] приведенные в таблице выше. ![image](https://habrastorage.org/r/w1560/webt/z5/y8/fr/z5y8frjr3loceltk8uyyxaq0qtk.png) *Рисунок 5. Правила перевода четырехбайтных показаний датчика в число с плавающей точкой.* #### Программа MATLAB чтения и отображения показаний датчиков давления и температуры преобразователя PR-33X Программа чтения и отображения показаний датчика PR-33X включает основной модуль и три подпрограммы. Преобразователь работает на частоте 115200 бод. Данные давления и температуры считываются по собственным запросам. Входными данными программы являются адрес СОМ порта вашего устройства (переменная Com\_Port =) и адрес вашего преобразователя. Если подключен только один преобразователь то, как правило, Device\_Addr = 1. Количество считываемых показаний задается константой Loop (в примере Loop = 1000;). Основной модуль: ``` clear all; %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Input data %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Com_Port = 'COM9'; Device_Addr = 1; % Address of Sensor, 8 bit: 1..255 Function = 3; % 3 or 4 is read; Pr_Rg_Addr = 2; % First address of two pressure data registers (4 bytes) Temp_Rg_Addr = 8; % First address of two temperature data registers Address_Range = 2; % Range of data address %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % End of Input data %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Make COM port connection s=serial(Com_Port,'Baudrate',115200); % 9600 115200 fopen (s); pause(0.1); Loop = 1000; pr(1:Loop) = 0; temp(1:Loop) = 0; for i = 1:Loop %%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Read pressure %%%%%%%%%%%%%%%%%%%%%%%%%%%%% RTU_request = RTU_code(Device_Addr,Function,Pr_Rg_Addr,Address_Range); fwrite(s, RTU_request); %pause(0.01); % >=0.001s for PR-33X, for 115200 Baudrate while ~(get(s,'BytesAvailable')>8) end BytesAvailable = get(s,'BytesAvailable'); Rx = fread(s,BytesAvailable)'; pr(i) = sensorOUT_to_float(Rx); % in bar %%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Read temperature %%%%%%%%%%%%%%%%%%%%%%%%%%%%% RTU_request = RTU_code(Device_Addr,Function,Temp_Rg_Addr,Address_Range); fwrite(s, RTU_request); while ~(get(s,'BytesAvailable')>8) end BytesAvailable = get(s,'BytesAvailable'); % if BytesAvailable > 0 Rx = fread(s,BytesAvailable)'; temp(i) = sensorOUT_to_float(Rx); % in bar end % Close COM port fclose (s); delete (s); figure (3) clf('reset'); % Clear current figure window [AX,H1,H2] = plotyy (1:length(pr),pr,1:length(temp),temp); hold(AX(1)); hold(AX(2)); set(H1,'LineWidth',2); grid(AX(2),'on'); xlabel('Sampling, num'); % Y1_max = max(get(AX(1),'ytick')); % set(AX(1),'ytick',[0:Y1_max/10:Y1_max]); % set(AX(2),'ytick',[0:0.2:2]); set(get(AX(1),'Ylabel'),'String','Давление, бар'); set(get(AX(2),'Ylabel'),'String','Температура, град. С'); title(sprintf('Изменение давления и температуры')); % End of m file ``` #### Подпрограмма формирования Modbus RTU запроса ``` function RTU_request = RTU_code(Device_Addr,Function,Data_First_Address,Address_Range) % Device_Addr == Device Address 8 bit: 1..255 % Function == % 3 or 4 is read; 6 is write in one register; 16 - write in two registers, % Data_First_Address == Address of first register data (2 bytes) % Addrress_Range == Range of Addreses; % Data_First_Address_Bytes = [floor(Data_First_Address/256) rem(Data_First_Address,256)]; Address_Range_Bytes = [floor(Address_Range/256) rem(Address_Range,256)]; % Master's Tx data without Check sum Code = [Device_Addr Function Data_First_Address_Bytes Address_Range_Bytes]; Code_Char = dec2hex(Code); if size(Code_Char,2)==1 Code_Char(:,2)=Code_Char(:,1); Code_Char(:,1)='0'; end Code_Char_line = []; for I = 1:length(Code) Code_Char_line = [Code_Char_line Code_Char(I,1:2)]; end % Check sum calculation Check_Sum = crc_calculator(Code_Char_line); % Master's Tx data with Check sum RTU_request = [Code hex2dec(Check_Sum(1:2)) hex2dec(Check_Sum(3:4))]; % End of m file ``` #### Подпрограмма вычисления контрольной суммы Modbus RTU последовательности ``` function output_hex_string = crc_calculator (Input_hex); %Input_hex = 'F70302640008'; % <= 2 * 16 Char F = [1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1]; xor_constant = [1 0 1 0 0 0 0 0 0 0 0 0 0 0 0 1]; for i = 1 : length (Input_hex) / 2; A = [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0]; if ~(i > length (Input_hex)/2) A_hex = Input_hex ((i-1)*2+1:i*2); % Two HEX bytes A_bin = dec2bin (hex2dec (A_hex)); length_A_bin = length (A_bin); for j = 0 : length_A_bin - 1 A (16 - j) = str2num(A_bin (length_A_bin - j)); end end F = xor (F,A); for ii = 1 : 8 if F(16) ==1 if xor_constant (1) == 0 F_shift (1) = 0; else F_shift (1) = 1; end for j = 2 : 16; if xor_constant (j) == F (j-1); F_shift (j) = 0; else F_shift (j) = 1; end end else F_shift = circshift(F',1)'; end F = F_shift; end end h = num2str(F); h = h(1:3:length(h)); output_hex_string = num2str([dec2hex(bin2dec(h(9:12))) dec2hex(bin2dec(h(13:16))) dec2hex(bin2dec(h(1:4))) dec2hex(bin2dec(h(5:8)))]); % End of m file ``` #### Подпрограмма перевода четырех байт показаний датчика в число с плавающей точкой ``` % Transmission Sensor’s output bytes to float value function val = sensorOUT_to_float(Rx) B(1) = Rx(4); B(2) = Rx(5); B(3) = Rx(6); B(4) = Rx(7); %1 bit of sign + 8 bits of exponent + 23 bits of mantis ( = 32 bits or 4x8 bytes) v_res = []; for i = 1:4 v_bit = dec2bin(B(i)); if length(v_bit)<8 % add zeros to get 8 bits for j = 1:(8-length(v_bit)) v_bit = ['0' v_bit]; end end v_res = [v_res v_bit]; end % Checking % v_res = ['0' '10000010' '01010010000001011011110'] == 10.5631999969482421875 бар s_mnt = bin2dec(v_res(1)); %sign of mantis E = bin2dec(v_res(2:9)); %exponent M = bin2dec(v_res(10:32)); % mantis if s_mnt==0 val = (1+M/8388608)*2^(E-127); % 8388608 = 2^23 else val = -(1+M/8388608)*2^(E-127); end % End of m file ``` Примеры графического отображения давления и температуры преобразователя PR-33X, считываемые вышеприведенной программой, показаны на Рисунок 6. ![image](https://habrastorage.org/r/w1560/webt/gn/ka/dg/gnkadggonbqacsoh735yjlaiz5m.png) *Рисунок 6. Выходные данные преобразователя PR-33X полученные программой, разработанной в MATLAB. Программа считывает 1000 показаний давления на скорости 115200 бод за 9 секунд. Программа считывает 1000 показаний давления и 1000 показаний температуры (отдельно) на скорости 115200 бод за 17 секунд.* #### Программа MATLAB переключения скорости передачи данных преобразователя Для перехода на новую частоту необходимо в программе установить адрес СОМ порта вашего устройства (переменная Com\_Port =) и требуемую частоту преобразователя (BR\_Rate = 9600; или BR\_Rate = 115200;) ВНИМАНИЕ. Для перехода на новую частоту передачи данных после установки нулевого бита регистра преобразователя UART необходимо ВЫКЛЮЧИТЬ (обесточить) и, затем, снова ВКЛЮЧИТЬ преобразователь. ``` % ПЕРЕХОД НА НОВУ СКОРОСТЬ ОБМЕНА (9600 ИЛИ 115200 БОД) ВЫПОЛНЯЕТСЯ ПОСЛЕ УСТАНОВКИ UART РЕГИСТРА И ВЫКЛЮЧЕНИЯ-ВКЛЮЧЕНИЯ ПРЕОБРАЗОВАТЕЛЯ clear all; % Input data Com_Port = 'COM9'; BR_Rate = 115200; % 9600 or 115200 % End of Input data % Device_Addr = 1; % Address of Sensor, 8 bit: 1..255 % Function = 6; % Write; % UART_Rg_Addr = 512; % First address of UART Rg (2 bytes) % Data = 0 0; % Rate 9600 bod % Data = 0 1; % Rate 115200 bod % RTU_request = [Device_Addr Function UART_Rg_Addr Data Check_sum] % RTU_request = [ 1 6 2 0 0 0 136 114]; % 9600 bod request in hex % RTU_request = [ 1 6 2 0 0 1 73 178]; % 115200 bod request in hex if BR_Rate == 9600 % 115200 s=serial(Com_Port,'Baudrate',115200); fopen (s); pause(0.1); RTU_request =[ 1 6 2 0 0 0 136 114]; else s=serial(Com_Port,'Baudrate',9600); fopen (s); pause(0.1); RTU_request = [ 1 6 2 0 0 1 73 178]; end fwrite(s, RTU_request); pause(0.004); % >=0.001s for PR-33X, for 115200 Baudrate BytesAvailable = get(s,'BytesAvailable'); if BytesAvailable > 0 Rx = fread(s,BytesAvailable)' end % close COM port fclose (s); delete (s); % End of m file ``` #### Библиографический список 1. Dr. Bob Davidov. Связь с устройствами промышленных сетей. [portalnp.ru/wp-content/uploads/2013/08/12.02\_Discrete-IO-unit\_-MK110-\_RS-485-ModBus-RTU-\_-ASCII-DCON-OVEN\_\_Ed3.pdf](http://portalnp.ru/wp-content/uploads/2013/08/12.02_Discrete-IO-unit_-MK110-_RS-485-ModBus-RTU-_-ASCII-DCON-OVEN__Ed3.pdf) 2. Описание коммуникационных протоколов. Для преобразователей давления KELLER 30-й и 40-й серий. Класс.Группа = 5.20 Класс.Группа = 5.21. Версия 3.2 (на русском). [www.izmerkon.ru](http://www.izmerkon.ru/). 3. Control Center Series 30. Руководство пользователя. Für CCS30 Version 1.1. [www.izmerkon.ru](http://www.izmerkon.ru/) 4. Dr. Bob Davidov. Компьютерные технологии управления в технических системах [portalnp.ru/author/bobdavidov](http://portalnp.ru/author/bobdavidov)
https://habr.com/ru/post/440966/
null
ru
null
# Я вам графония принес! Как нейросеть может улучшить разрешение в старых играх до HD ![](https://miro.medium.com/max/794/1*8dcKTJv3IwKOZZTHa0SLqw.png) UPDATE: нашел баг при обучении, исправил, результаты стали существенно лучше, поэтому заменил картинки Данная статья является вольным переводом [моей статьи на Medium](https://medium.com/@alexankhar/i-brought-you-some-hd-grphics-how-neural-net-can-improve-old-games-7a8b97dffd61). В детстве я любил играть на компьютере. Совсем маленьким я застал несколько игр на кассетном ZS Spectrum, однако настоящим открытием стали красочные DOS игры 90x годов. Тогда же и зародилось большинство существующих жанров. Немного поностальгировав, я решил вспомнить молодость и запустить одну из старых игр на эмуляторе Dosbox и был неприятно поражен гигантскими пикселями и низким разрешением. Хотя в крупнопиксельной старой графике может быть свое очарование, многих сейчас не устраивает такое качество. Для повышения разрешения и избавления от угловатости в играх в настоящее время используются различные алгоритмы постпроцессинга и сглаживания (подробно можно почитать, например тут [zen.yandex.ru/media/id/5c993c6021b68f00b3fe919c/kak-rabotaet-sglajivanie-v-kompiuternyh-igrah-5c9b3e76d82a083cc9a0f1a7](https://zen.yandex.ru/media/id/5c993c6021b68f00b3fe919c/kak-rabotaet-sglajivanie-v-kompiuternyh-igrah-5c9b3e76d82a083cc9a0f1a7) ), но алгоритмы сглаживания приводят ко всем ненавистной «мыльной» картинке, которая часто еще менее предпочтительна, чем угловатость больших пикселей. При этом улучшение качества графики часто критично для геймеров. Перерисовка текстур для hd игре Heroes 3 заняла около полугода в 2014 году у компании Ubisoft и вызвало всплеск интереса к данной игре. Из недавних новостей — переиздание первой CNC в hd графике. [Подробно можно увидеть рост интереса к переизданным в hd графике на google trends](https://trends.google.com/trends/explore?date=2012-06-01%202020-06-25&q=%2Fm%2F056_97,%2Fm%2F065pfn). Не для каждой игры имеет смысл заморачиваться и переиздавать в высоком качестве — перерисовка текстур — занятие затратное. Но можно попробовать улучшить качество графики используя технологию суперразрешения (superresolution). Идея superresolution лежит в улучшении разрешения изображения путем дорисовки недостающих пикселей нейросетью на основании имеющихся данных. Сейчас достигнуты впечатляющие результаты, вызывающие ассоциацию с разобранной на мемы сценой улучшения изображения из фильма bladerunner Технология superresolution улучшает визуальное восприятие картинки, например вот [github.com/tg-bomze/Face-Depixelizer](https://github.com/tg-bomze/Face-Depixelizer), однако привносит новую информацию в изображение. И может быть использована для улучшения качества фильмов: Однако большинство алгоритмов ресурсоемки, а мне хотелось создать скрипт для улучшения игры в реальном времени. Стоит отметить, что схожая идея улучшения графики используется в технологии DLSS от Nvidia. #### Немного теории Все нижесказанное будет относиться к [сверточным нейросетям](https://ru.wikipedia.org/wiki/%D0%A1%D0%B2%D1%91%D1%80%D1%82%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C)— подтипу нейросетей, использумому для работы с изображениями. Для начала рассмотрим, как работает нейросеть для решения задачи superresolution. Задача очень похожа на решение задачи [автоэнкодера](https://ru.wikipedia.org/wiki/%D0%90%D0%B2%D1%82%D0%BE%D0%BA%D0%BE%D0%B4%D0%B8%D1%80%D0%BE%D0%B2%D1%89%D0%B8%D0%BA) . На вход сети необходимо подать изображение, на выходе получить такое же изображение. Однако автоэнкодеры обычно используют для решения задачи эффективного сжатия данных, поэтом особенностью их архитектуры является Bottleneck — бутылочное горлышко, то есть слой сети с небольшим количеством нейронов. Наличие такого слоя заставляет оставшиеся части обучаться для эффективного кодирования и раскодирования информации. Для обучения сетей superresolution разрешение высококачественного изображения сначала намеренно уменьшается и подается на вход нейросети. На выходе ожидается исходное изображение в высоком качестве. Задача superresolution определяет архитектуру используемых сетей: обычно в них присутствует связь между входными и выходными данными (skip-connection), сильно ускоряющая обучение. Размер пикселя входных данных увеличивается и прибавляется к выходу сверточной сети. Таким образом, фактически не нужно обучать сеть превращать изображение в почти такое же. Нужно лишь обучить ее дорисовывать разницу между увеличенным при помощи увеличения размера пикселя и реальным изображением. Идея наличия skip connections различного уровня и через разное количество слоев чрезвычайно эффективна и привела к появлению класса сетей Residual Networks. Сейчас подобные связи используются почти во всех популярных архитектурах. Неплохой обзор state-of-art архитектур для решения задач superresolution можно [посмотреть тут](https://github.com/krasserm/super-resolution). Моей же задачей было создать нейросеть для решения задачи superresolution в реальном времени. Сначала мной была выбрана архитектура edsr с 4 блоками (обычно используют более 16 слоев из блоков) ResNet c увеличением разрешения в 4 раза. Тут я частично воспользовался наработками из [github.com/krasserm/super-resolution](https://github.com/krasserm/super-resolution) и генератором данных из этого же проекта. Общая архитектура сети показана на схеме. Каждый блок – изображение X\*Y\*N, где ширина соответствует числу каналов. Переходы – соответствуют сверткам 3x3 (в случае res блоков с последующей активацией ReLU для нелинейности). Шаг Upscaling – увеличение размерности за счет уплощения каналов. ![](https://habrastorage.org/r/w1560/webt/_6/xm/yr/_6xmyrgyv_wl8abvnmcfjx3nbqc.png) Если приглядеться к такой небольшой сети, то можно заметить, что последние блоки — линейные и наличие нескольких шагов upscaling неоправданно. Можно без потери качества заменить их на один слой с гораздо меньшим количеством фильтров без потери качества работы сети: ![](https://habrastorage.org/r/w1560/webt/ya/fg/pa/yafgpa9bq6j2wcxijrdgzjyjgjq.png) Оказалось, что такая сеть практически так же справляется с задачей superresolution, но гораздо быстрее и может быть запущена для обработки небольшого по разрешению **видео в реальном времени**. Высококачественные фото были скачаны из [data.vision.ee.ethz.ch/cvl/DIV2K](https://data.vision.ee.ethz.ch/cvl/DIV2K/). В принципе можно использовать любые фото для обучения. ``` import tensorflow as tf import numpy as np from utils import load_image, plot_sample from data import DIV2K from tensorflow.keras.optimizers.schedules import PiecewiseConstantDecay import PIL from PIL import Image import os import tqdm # Model creation rgb_mean = np.array([0.4488, 0.4371, 0.4040]) * 255 def normalize(x, rgb_mean=rgb_mean): return (x - rgb_mean) / 127.5 def denormalize(x, rgb_mean=rgb_mean): return x * 127.5 + rgb_mean inp=tf.keras.layers.Input((None,None,3)) x=tf.keras.layers.Lambda(normalize)(inp) x0=tf.keras.layers.Conv2D(64,3,padding='same')(x) x=x0 for i in range(4): y=tf.keras.layers.Conv2D(64,3,activation='relu',padding='same')(x) y=tf.keras.layers.Conv2D(64,3,padding='same')(y) x=tf.keras.layers.Add()([x,y]) x=tf.keras.layers.Conv2D(64,3,padding='same')(x) x=tf.keras.layers.Add()([x0,x]) x=tf.keras.layers.Conv2D(48,3,padding='same')(x) x=tf.keras.layers.Lambda (lambda z: tf.nn.depth_to_space(z, 4))(x) out=tf.keras.layers.Lambda(denormalize)(x) rtsrn=tf.keras.models.Model(inputs=inp, outputs=out) train_loader = DIV2K(scale=4, downgrade='unknown', subset='train') train_ds = train_loader.dataset(batch_size=16, random_transform=True, repeat_count=None) valid_loader = DIV2K(scale=4, downgrade='unknown', subset='valid') valid_ds = valid_loader.dataset(batch_size=16, # use batch size of 1 as DIV2K images have different size random_transform=True, # use DIV2K images in original size repeat_count=40) # 1 epoch #OUR resize method trainhrpath='.div2k/images/DIV2K_train_HR/' validhrpath='.div2k/images/DIV2K_valid_HR/' trainlrpath='.div2k/images/DIV2K_train_LR_unknown/X4/' validlrpath='.div2k/images/DIV2K_valid_LR_unknown/X4/' for imagename in tqdm.tqdm(os.listdir(trainhrpath)): imgtest=Image.open(trainhrpath+imagename) imgtest.resize((imgtest.size[0]//4,imgtest.size[1]//4), Image.NEAREST).save(trainlrpath+imagename[:-4]+'x4'+'.png') for imagename in tqdm.tqdm(os.listdir(validhrpath)): imgtest=Image.open(validhrpath+imagename) imgtest.resize((imgtest.size[0]//4,imgtest.size[1]//4), Image.NEAREST).save(validlrpath+imagename[:-4]+'x4'+'.png') ``` После этого удалим данные кэша, в папке ./cahes, перезапустим генераторы данных и начнем обучение: ``` train_loader = DIV2K(scale=4, downgrade='unknown', subset='train') train_ds = train_loader.dataset(batch_size=16, random_transform=True, repeat_count=None) valid_loader = DIV2K(scale=4, downgrade='unknown', subset='valid') valid_ds = valid_loader.dataset(batch_size=16, # use batch size of 1 as DIV2K images have different size random_transform=True, # use DIV2K images in original size repeat_count=40) # 1 epoch cbcks=tf.keras.callbacks.ModelCheckpoint('myedsr_smaller_callback_x4{epoch:02d}-{loss:.2f}', monitor='loss', verbose=0, save_best_only=False) learning_rate=PiecewiseConstantDecay(boundaries=[20000], values=[1e-4, 5e-5]) rtsrn.compile(loss='mae', optimizer=tf.keras.optimizers.Adam(learning_rate=learning_rate)) rtsrn.fit(train_ds,validation_data=valid_ds, steps_per_epoch=3000, epochs=100, validation_steps=10,callbacks=[cbcks]) rtsrn.save'RTSRN.h5') ``` На выходе получаем относительно небольшую (2.6 МБ) нейросеть с простой архитектурой. При этом проверка дает малозаметное отличие от предобученной 16 блочной сети: ![](https://habrastorage.org/r/w1560/webt/cw/ew/mu/cwewmuxtpnipjvhmss54qqaudlo.png) Изображение слева — исходное, справа — улучшенное при помощи 16 слойной edsr, в середине — с помощью rtsr. Разница между 2 и 3 с моей точки зрения несущественна. #### Инференс [github.com/Alexankharin/RTSR](https://github.com/Alexankharin/RTSR) Полученную сеть запустим на видеокарте (у меня GTX 1060) с поддержкой cudnn (https://developer.nvidia.com/cudnn) для высокой производительности. Pipeline для инференса выглядит следующим образом: 1. Захват изображения из области или из окна 2. Улучшение изображения 3. Отрисовка улучшенного изображения в новом окне При тестировании я обнаружил, хотя при запуске большинства игр в эмуляторе dosbox разрешение составляет 640x480 пикселей, однако чаще всего это просто увеличенные в размере пиксели разрешения 320x240(и позже нашел подробности [www.dosgamers.com/dos/dosbox-dos-emulator/screen-resolution](https://www.dosgamers.com/dos/dosbox-dos-emulator/screen-resolution) ), что приводит ук необходимости в некоторых случаях делать downscale в 2 раза перед обработкой. Захват скриншотов производится с использованием библиотеки mss (для OS ubuntu) или d3dshot (быстрее для windows). Отображение — с использованием opencv-python. Для закрытия окна необходимо сделать его активным и нажать на клавишу «q». Управлением захватом улучшаемой области при помощи клавиш WSAD и IKJL. Скрипт написан в файле superres\_win.py **Результаты:** на ноутбуке с GTX 1060 (3Gb) и OS Windows10 скрипт выдает 14-15 FPS, что достаточно для квестов или стратегий, но немного маловато для платформеров. Кроме того, при запуске RTSR на стационарном ПК с OS Ubuntu и такой же видеокартой падал до 10-12 (почему — пока не разбирался). Судя по бенчмаркам [ai-benchmark.com/ranking\_deeplearning\_detailed.html](http://ai-benchmark.com/ranking_deeplearning_detailed.html) 1080 на схожих задачах должна дать FPS около 25, что близко к оригинальным значениям и достаточно для комфортной игры. Пример улучшения графики можно увидеть на видео: Примеры улучшения: MegaManX ![](https://miro.medium.com/max/832/1*g4NqbZI4FNVB-yPcSzClyQ.png) Legend of Kyrandia ![](https://miro.medium.com/max/1058/1*ji_d47nKzHuOzUmNKQOsvQ.png) Wolf3d ![](https://habrastorage.org/r/w1560/webt/fn/ey/ti/fneytikigfcazxzu1dnxsfc2rp4.png) Heroes of might and magic ![](https://miro.medium.com/max/1400/1*sXKhor62mYYUs3UyKUbHew.png) Больше примеров можете попробовать сами #### Как запустить? Для быстрой работы необходима видеокарта с поддержкой cuda и cudnn (https://developer.nvidia.com/cuda-gpus ) и установленными библиотеками cuda/cudnn. Нужен установленный python 3.7 и tensorflow (версия выше 2.0 с поддержкой gpu). Это может быть сложной задачей, и могут [возникнуть проблемы совместимости](https://www.tensorflow.org/install/source_windows). Простейшим способом может быть установка дистрибутива Anaconda (https://www.anaconda.com/products/individual ), а затем в установка tensorflow-gpu При помощи conda: ``` conda install tensorflow-gpu ``` Если не получится из-за конфликтов, то можно попробовать ``` conda install cudnn pip install tensorflow-gpu ``` должно сработать. Остальные библиотеки можно установить при помощи pip: ``` pip install opencv-python pip install pywin32 pip install mss ``` Далее необходимо запустить скрипт командой: ``` python superres.py ``` Управление окном захвата проводится при помощи клавиш wsad и ijkl (изменение размера). q- закрытие окна. 0 -включение и выключение режима superresolution. Цифры 1 и 2 — режим изображения (2 по умолчанию означает, что в игре используется увеличение за счет увеличения пикселя в 2 раза).
https://habr.com/ru/post/508236/
null
ru
null
# Яндекс.Виджет + adjustIFrameHeight + MooTools ![image](http://turometr.s3.amazonaws.com/images/other/aymoo.gif) Многие знают о такой клёвой штуке как [Яндекс.Виджет](http://www.yandex.ru/catalog/). Сделать свой функциональный виджет проще простого, достаточно написать серверный виджет и подключить его к Яндекс.Виджет через **iframe**. Для управления виджетом Яндекс предоставляет API в виде JS объекта **widget**, в частности с помощью него можно изменять высоту фрейма под динамический контент (adjustIFrameHeight), это позволяет избавиться от вертикальной полосы прокрутки. Но у этого API есть существенный минус — он написан с использованием **jQuery**, что лишает разработчиков виджетов на **MooTools** использовать Widget API. Ниже я покажу, как довольно просто можно в обход Widget API управлять высотой фрейма, используя MooTools на стороне виджета. Как известно из содержимого фрейма нельзя получить доступ к объекту самого фрейма, если они находятся на разных доменах. Для обхода этого ограничения Widget API использует проксирующий iframe, через hash (содержимое после # в src фрейма) которого осуществляется обмен командами. В итоге нам необходимо на стороне виджета написать функционал взаимодействия с этим проксирующим iframe. Сразу приведу весь код виджета, благо он совсем небольшой: > `<script type="text/javascript" src="mootools-1.2.js">script>`
https://habr.com/ru/post/83083/
null
ru
null
# Машинное стереозрение для новичков: две камеры Raspberry Pi и Python ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/dab/aa9/ab5/dabaa9ab5d20bb5d4280e3f087c2bb27.png)Стажируясь в правительственном технологическом агентстве Сингапура, автор работал над экспериментом по созданию альтернативы камере Intel Relsence. Оказалось, что учебных материалов на тему машинного зрения мало, поэтому он решил помочь новичкам. К старту флагманского [курса по Data Science](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_210222&utm_term=lead) приглашаем под кат за подробностями. --- Вы когда-нибудь задумывались, как на самом деле видят мир Терминаторы? Как узнаю́т о приближении врага? Ответ — в двух демонических глазах на картинке выше. Глаза терминатора способны смотреть в одном направлении, что даёт ему бинокулярное зрение. На самом деле эти научно-фантастические роботы, включая их глаза, основаны на человеческом теле почти полностью. Каждый глаз фиксирует отдельные двухмерные изображения, а магия восприятия глубины на самом деле происходит в мозге, который экстраполирует сходства и различия двух изображений. Простой [стеноп](https://ru.wikipedia.org/wiki/%D0%A1%D1%82%D0%B5%D0%BD%D0%BE%D0%BF) основан на физике человеческого глаза и, подобно глазу, из-за перспективной проекции теряет информацию о глубине. Но как же мы будем измерять глубину с помощью камер? Мы используем две камеры. Почему это важно? ----------------- До погружения в ответ на вопрос «как», давайте разберёмся с вопросом «почему». Представьте, что вам нужен робот — уборщик мусора, но вы не хотите вкладываться в тяжёлую технологию лидаров, чтобы определять, насколько далеко расположена мусорная корзина. Здесь и вступает в игру стереоскопическое зрение. Использование двух обычных стенопов не только для определения глубины, но и для задач машинного обучения, таких как обнаружение объектов, может сэкономить значительные средства. Более того, эта технология может достигать результатов, похожих на результаты других технологий, если не лучших результатов. Даже такая организация, как Tesla, сказала нет использованию лидаров в своих автономных автомобилях и полагается на концепцию объёмного зрения радаров. Посмотрите это видео от Tesla: Очевидно, вместо 2 камер Тесла используют 8, также как другие сенсоры, например радары. Погружение в стереозрение — отличный способ начать работу с компьютерным зрением и проектами, которые связаны с изображениями, поэтому продолжим, чтобы узнать об объёмном зрении больше. Основы многоракурсной геометрии ------------------------------- Эпиполярная геометрия: ![OpenCV](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/986/0f7/e7d/9860f7e7d49581a2488b864f07cb73aa.jpeg "OpenCV")OpenCVРассмотрим две камеры с отверстиями — О и О′. Каждая из них видит только двухмерную плоскость. Если сфокусироваться на камере O, то x проецируется только в одну точку на плоскости изображения. Однако на изображении от O′ видно, как различные точки X соответствуют точкам X′. В этих обстоятельствах через выравнивание слева направо возможно триангулировать корректные точки данных в трёхмерном пространстве — и ощутить глубину. Чтобы изучить полярную геометрию глубже, ознакомьтесь с этой статьёй из [Университета Торонто](http://www.cs.toronto.edu/~jepson/csc420/notes/epiPolarGeom.pdf). Что приведёт нас к объёмному зрению? ------------------------------------ Добиться объёмного зрения можно в 4 этапа. 1. Коррекция искажений. Она подразумевает удаление радиальных и тангенциальных искажений, возникающих в изображениях из-за объективов камер. 2. Ректификация двух камер — это трансформация для проекции изображений на общую плоскость. ![Rodriguez Florez, Sergio. (2010). Contributions by Vision Systems to Multi-sensor Object Localization and Tracking for Intelligent Vehicles.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/da0/96a/648/da096a648d73dc98156145d1b6534f83.png "Rodriguez Florez, Sergio. (2010). Contributions by Vision Systems to Multi-sensor Object Localization and Tracking for Intelligent Vehicles.")Rodriguez Florez, Sergio. (2010). Contributions by Vision Systems to Multi-sensor Object Localization and Tracking for Intelligent Vehicles.3. Сопоставление точек, где мы находим соответствующие друг другу точки камер, выпрямляя левое и правое изображения. Обычно для выпрямления используется изображение шахматной доски. ![Сопоставление точек](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/2e9/de1/516/2e9de15162ac6b370a5cfa41a7af5771.jpeg "Сопоставление точек")Сопоставление точек4. Создание карты глубины. Можно ли сделать такой проект самостоятельно? --------------------------------------------- Определённо да. Чтобы начать проект, потребуется всего несколько вещей. 1. Jetson Nano Developer Kit B01 (с двумя слотами камер CSI). 2. Две камеры Raspberry Pi. 3. Интерес! Я понял, что учебных материалов по теме не так много, поэтому написал серию статей, чтобы поделиться с такими же, как я, новичками и энтузиастами, помочь им ускорить обучение и реализацию проектов. Чтобы начать разработку собственной машины отображение глубины, просто читайте дальше. Этот проект — хороший способ для новичков шагнуть не только в область компьютерного зрения, но и в компьютерные науки в целом, приобретая навыки работы с Python и OpenCV. --- Карта глубины ------------- ![Результат](https://habrastorage.org/r/w1560/getpro/habr/upload_files/479/281/0c5/4792810c549d066f51b4b2cfdf633dbf.png "Результат")РезультатТеперь, когда мы понимаем концепцию объёмного зрения, приступим к созданию карты глубины. ### Запустим камеру Все используемые в этом уроке скрипты написаны на Python. Чтобы начать, клонируйте [репозиторий](https://github.com/aryanvij02/StereoVision.git) StereoVision. ### Требования Если у вас нет Jetson Nano, пожалуйста, посетите [этот сайт](https://developer.nvidia.com/embedded/learn/get-started-jetson-nano-devkit). Предполагая, что Jetson Nano у вас уже установлена, установим зависимости Python 3.6: ``` sudo apt-get install python3-pip ``` Пакет разработки Python 3.6: ``` sudo apt-get install libpython3-dev ``` И зависимости: ``` pip3 install -r requirements.txt ``` Если вы хотите установить зависимости вручную, выполните этот код: ``` pip3 install cython # Install cython pip3 install numpy # Install numpy pip3 install StereoVision # Install StereoVision library ``` Если во время работы над проектом вы столкнулись с какими-то ошибками, пожалуйста, обратитесь к этому разделу моего [репозитория](https://github.com/aryanvij02/StereoVision/blob/master/TROUBLESHOOT.md). ### Тестируем камеры Прежде чем создавать корпус или подставку для стереокамеры, проверим, подключаются ли камеры. Подключить две камеры Raspberry Pi и проверить, запускаются ли они, можно этой командой: ``` # sensor_id selects the camera: 0 or 1 on Jetson Nano B01 $ gst-launch-1.0 nvarguscamerasrc sensor_id=0 ! nvoverlaysink ``` Попробуйте её с `sensor_id=0`, чтобы проверить, работают ли обе камеры. Если вы столкнулись с ошибкой GStreamer вроде этой: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bdf/975/3b6/bdf9753b69983e8528c1eea8795b3e98.png)то введите в терминале команду ниже и попробуйте снова. ``` sudo service nvargus-daemon restart ``` Иногда при завершении работы программы пайплайн GStreamer не закрывается должным образом. Поэтому команда очень полезна, её следует запомнить. Если проблема постоянная, убедитесь, что камера подключена правильно, и перезапустите Jetson Nano. ### Розовый оттенок Если вы видите розовый оттенок, чтобы убрать его, пожалуйста, следуйте [рекомендациям](https://jonathantse.medium.com/fix-pink-tint-on-jetson-nano-wide-angle-camera-a8ce5fbd797f) из этой статьи. ### Подготовка железа До того как продолжить, у вас должна быть стабильная стереокамера с двумя объективами Raspberry Pi, расположенными на фиксированном расстоянии друг от друга, — это базовая линия. Важно, чтобы она всегда оставалась неподвижной. Моя оптимальная базовая линия — 5 см, но вы можете попробовать разные расстояния разделения и оставить комментарий о результатах. Есть много способов сделать это, включите воображение! ![Мой корпус до и после](https://habrastorage.org/r/w1560/getpro/habr/upload_files/474/3a5/727/4743a5727959e8e71b3362b5b9ffe014.png "Мой корпус до и после")Мой корпус до и послеСначала я воспользовался BluTac, чтобы приклеить камеры к старому iPhone и коробке Jetson Nano. И решил использовать onShape, чтобы спроектировать простую 3D-модель в CAD, лазерным резаком вырезал детали из акрила — и получился корпус вроде вольера, который вы видите справа. Если вам интересно, вы можете посмотреть [мой дизайн](https://cad.onshape.com/documents/7aeddf5889fd6bfdc7079b51/w/1a42e3836ac1d3923a56fadd/e/36f50dd4d2464144682a21eb). А если хотите разработать собственную модель, то можете загрузить основу модели 3D STEP [здесь](https://developer.nvidia.com/jetson-nano-developer-kit-b01-3d-cad-step-model). ### Запускаем камеры Убедившись, что камеры подключены правильно, запустим их. В терминале перейдите в каталог `/StereoVision/main_scripts/`, запустите команду python3 start\_cameras.py. Вы должны увидеть прямую трансляцию с двух камер слева и справа. Если при запуске камеры возникли ошибки, посетите [эту](https://github.com/aryanvij02/StereoVision/blob/master/TROUBLESHOOT.md) страницу. ### Подготовка шахматной доски ![Доска. Источник: OpenCV](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e47/8a3/8f8/e478a38f8c51ff8d220813fe26521a80.png "Доска. Источник: OpenCV")Доска. Источник: OpenCVРаспечатайте изображение. Убедитесь, что оно не вписывается в страницу и не изменяет масштаб и наклейте его на твёрдую поверхность. Самый простой способ — использовать изображение шахматной доски. Но, если хотите использовать свою доску, измените скрипт 3\_calibration.py в строках 16 и 19. Получим 30 изображений с интервалами в 5 секунд. ### Вот что ещё я предлагаю * не стойте слишком далеко. Убедитесь, что доска занимает бо́льшую часть кадра камеры; * покрыты все углы кадра; * обязательно перемещайте и поворачивайте доску между снимками, чтобы получить фотографии с разных ракурсов. Понемногу перемещайте доску между изображениями и следите за тем, чтобы не обрезать часть: изображения с обеих камер будут сшиты и сохранены как один файл. Чтобы сделать снимки, выполните этот код: ``` python3 1_taking_pictures.py ``` Если при запуске камер вы столкнулись с ошибкой `Failed to load module "canberra-gtk-module"`, попробуйте выполнить эту команду: ``` sudo apt-get install libcanberra-gtk-module ``` Если захочется увеличить временно́й промежуток или общее количество снимков, измените скрипт 1\_taking\_pictures.py. Настройки фотосъёмки вы найдёте в самом верху файла. Измените его: ``` #These are the first few lines from 1_take_pictures.py import cv2 import numpy as np from start_cameras import Start_Cameras from datetime import datetime import time import os from os import path #Photo Taking presets total_photos = 30 # Number of images to take countdown = 5 # Interval for count-down timer, seconds font = cv2.FONT_HERSHEY_SIMPLEX # Cowntdown timer font ``` А если захочется остановить любую программу из этой серии статей, нажмите клавишу Q. Вы получите папку images со всеми сохранёнными изображениями. ### Работа с изображениями Для гарантии, что изображения калибровки качественные, будем просматривать каждую сделанную фотографию и принимать или отклонять её. Для этого запустим команду python3 2\_image\_selection.py. Пробегитесь по всем изображениям: Y — принять изображение, N — отклонить его. Изображения от левой и правой камер сохраним отдельно, в папке pairs. ### Калибровка Это самый важный шаг всей серии статей. Чтобы получить карту неравенства, нужно выпрямить и откалибровать камеры. [Подробнее](https://en.wikipedia.org/wiki/Image_rectification) о ректификации камеры. Благодаря [библиотеке](https://github.com/erget/StereoVision) для стереозрения Дэниэла Ли нам не нужно много работать в плане кода. Чтобы выполнить калибровку, пройдём по всем сохранённым на предыдущем шаге изображениям шахматной доски и рассчитаем матрицы коррекции. Программа сопоставит точки и попытается найти края шахматной доски точка. Если вам кажется, что результаты неточны, попробуйте сделать повторные снимки. ![Процесс сопоставления точек](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/b13/26f/5d8/b1326f5d8e0fa4f745df2ec91e76b733.jpeg "Процесс сопоставления точек")Процесс сопоставления точекЧтобы выполнить калибровку, запустим команду `python3 calibration.py`. ![rectified_left.png](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/801/0c2/69c/8010c269cdde4a154c925f44a81fe0d8.jpeg "rectified_left.png")rectified\_left.png![rectified_right.png](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/f1e/af0/d84/f1eaf0d84ef362ccc294b838014d5439.jpeg "rectified_right.png")rectified\_right.pngЕсли результаты калибровки выглядят немного странно, как показано выше, вы можете попробовать повторить шаги 1–3. Ваши ректификационные изображения никогда не будут выглядеть идеально, поэтому не бойтесь результатов и переходите к следующему шагу. Вы всегда сможете вернуться. ### Настройка карты глубины ![Настройка графического интерфейса](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2ac/fb1/3ed/2acfb13ed3c169fa5be4559fcf47b875.png "Настройка графического интерфейса")Настройка графического интерфейсаТеперь, когда камера готова работать, начнём настройку карты глубины. Выполните скрипт 4\_tuning\_depthmap.py. Чтобы разобраться с переменными этого скрипта, посмотрите README в репозитории. Диапазоны настроек могут немного отличаться от указанных в пояснениях: из-за ограничений в трекбарах мне пришлось изменить отображаемые в графическом интерфейсе параметры. В окне настройки вы увидите ректифицированные левое и правое изображения в градациях серого. ### Карта глубины Вот и всё. Можно запустить скрипт 5\_depthmap.py: `python3 5_depthmap.py`. Вот она, полнофункциональная карта глубины, которую мы создали c нуля. ### Расстояния до объектов Карта глубины, которую вы видите выше, — это двухмерная матрица. Почему бы не получить из неё информацию о глубине? Чтобы узнать расстояние до конкретного объекта в кадре, щёлкните по этому объекту — и вы увидите относительное расстояние до терминала в сантиметрах. Оно определяет, насколько пиксель удалён от камеры. ### Что это значит? Нужно понимать одну вещь: измеряемое расстояние — это не точное расстояние от центра системы камер, а расстояние от системы камер по оси Z. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/938/742/0d3/9387420d34d59be8ef256af3457f53ed.png)Значит, измеряемое расстояние на самом деле равно расстоянию Y, а не X. ### Другие туториалы 1. [StereoPi — создание карты глубины.](https://stereopi.com/blog/opencv-and-depth-map-stereopi-tutorial) 2. [JetsonHacks и камеры Raspberry Pi.](https://www.jetsonhacks.com/2020/04/08/jetson-nano-b01-dual-raspberry-pi-cameras/) Продолжить изучение машинного зрения и Python с самого начала или прокачать ваши навыки вы сможете на наших курсах: * [Профессия Data Scientist](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_210222&utm_term=conc) * [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_210222&utm_term=conc) Выбрать другую [востребованную профессию](https://skillfactory.ru/catalogue?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=sf_allcourses_210222&utm_term=conc). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c3d/5a4/e60/c3d5a4e603cc9394faef2c25dc1a7950.png)Краткий каталог курсов и профессий**Data Science и Machine Learning** * [Профессия Data Scientist](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_210222&utm_term=cat) * [Профессия Data Analyst](https://skillfactory.ru/data-analyst-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=analytics_dapr_210222&utm_term=cat) * [Курс «Математика для Data Science»](https://skillfactory.ru/matematika-dlya-data-science#syllabus?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mat_210222&utm_term=cat) * [Курс «Математика и Machine Learning для Data Science»](https://skillfactory.ru/matematika-i-machine-learning-dlya-data-science?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_matml_210222&utm_term=cat) * [Курс по Data Engineering](https://skillfactory.ru/data-engineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dea_210222&utm_term=cat) * [Курс «Machine Learning и Deep Learning»](https://skillfactory.ru/machine-learning-i-deep-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mldl_210222&utm_term=cat) * [Курс по Machine Learning](https://skillfactory.ru/machine-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_ml_210222&utm_term=cat) **Python, веб-разработка** * [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_210222&utm_term=cat) * [Курс «Python для веб-разработки»](https://skillfactory.ru/python-for-web-developers?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_pws_210222&utm_term=cat) * [Профессия Frontend-разработчик](https://skillfactory.ru/frontend-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fr_210222&utm_term=cat) * [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_webdev_210222&utm_term=cat) **Мобильная разработка** * [Профессия iOS-разработчик](https://skillfactory.ru/ios-razrabotchik-s-nulya?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_ios_210222&utm_term=cat) * [Профессия Android-разработчик](https://skillfactory.ru/android-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_andr_210222&utm_term=cat) **Java и C#** * [Профессия Java-разработчик](https://skillfactory.ru/java-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_java_210222&utm_term=cat) * [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer-testirovshik-po?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_qaja_210222&utm_term=cat) * [Профессия C#-разработчик](https://skillfactory.ru/c-sharp-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cdev_210222&utm_term=cat) * [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-razrabotchik-na-unity-i-c-sharp?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_gamedev_210222&utm_term=cat) **От основ — в глубину** * [Курс «Алгоритмы и структуры данных»](https://skillfactory.ru/algoritmy-i-struktury-dannyh?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_algo_210222&utm_term=cat) * [Профессия C++ разработчик](https://skillfactory.ru/c-plus-plus-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cplus_210222&utm_term=cat) * [Профессия Этичный хакер](https://skillfactory.ru/cyber-security-etichnij-haker?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_hacker_210222&utm_term=cat) **А также** * [Курс по DevOps](https://skillfactory.ru/devops-ingineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_devops_210222&utm_term=cat) * [Все курсы](https://skillfactory.ru/catalogue?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=sf_allcourses_210222&utm_term=cat)
https://habr.com/ru/post/652599/
null
ru
null
# Патчим всё, что ни попадя или Open source в действии Возможно, многие сталкивались с ситуацией, когда программа или библиотека из дистрибутива не содержит некоторой (нужной вам) функциональности, которая была добавлена в следующей версии. Или содержит баг, который был исправлен в следующей версии (или его исправление не было включено в основную ветку), а в репозитории вашего дистрибутива всё ещё содержится старая версия. Именно с таким багом столкнулся я, а также все пользователи редактора JuffEd (новая версия которого, кстати, вышла на днях), использующие в качестве рабочего окружения среду GNOME под Linux. Баг этот заключается в том, что при использовании автокомплита его окошко появляется на мгновение, после чего пропадает, «унося» за собой фокус. На данном примере я покажу, как можно самостоятельно патчить программы из дистрибутива. Описанный баг — это баг библиотеки QScintilla, который проявляется во всех программах, использующих данный компонент (например, аналогичное поведение наблюдается в Eric4). Если вы не пользуетесь ни одной из перечисленных программ, но руки чешутся попробовать — можете установить одну из них чисто в экспериментальных целях. Но, повторяю, баг проявляется только под GNOME, а под KDE всё работает. Я отправил патч разработчикам и провёл некоторое его тестирование, но если они и включат этот патч, то в следующей версии. А что делать тем, кто использует не самые новые дистрибутивы? В данном случае ситуация ещё осложняется тем, что новая версия библиотеки (2.4) бинарно несовместима с предыдущей (2.3, которая содержится, например, в Ubuntu 9.04), поэтому просто собрать и установить версию 2.4 после того, как они решат данную проблему, будет нельзя — программы, собранные с использованием «родной» версии 2.3, при использовании версии 2.4 падают в 100% случаев. Ну что, напугал? :) А теперь меньше слов, больше дела! ### Готовим ингредиенты Будем собирать «родную» версию, но с нужным нам патчем. Я опишу весь процесс на случай, когда мы правим что-то с нуля, а также расскажу о более коротких путях, на случай, когда патч уже существует. Итак, создадим каталог для экспериментов и перейдём в него: > `$ mkdir -p experiments/qscintilla > > $ cd experiments/qscintilla` Для начала нам понадобятся исходники ровно той версии, которая установлена у Вас в системе. Это делается не просто, а очень просто: > `$ apt-get source libqscintilla2-3` Но для этого у вас наравне с основными репозиториями должны быть подключены репозитории с исходниками: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/1e7/f4a/c54/1e7f4ac5415e5bb1016e4da08b9828b9.png) Итак, получили ровно те исходники, из которых был собран тот пакет, который находится репозитории. Большинство (если не все) пакетов имеют дистро-специфичные патчи, которые в случае Debian-based дистрибутивов лежат в подкаталоге debian/patches. Эти патчи применяются перед самой сборкой, и наша задача — положить туда деб-патч с нужным нам исправлением. Для этого нам понадобится утилита dpatch. Устанавливаем её (а также несколько других утилит, которые понадобятся нам при сборке) и переходим в основной каталог с программой: > `$ sudo aptitude install dpatch cdbs fakeroot build-essential patch > > $ cd qscintilla2-2.3.2/` ### Добавляем основную изюминку Мы видим, что в каталоге debian/patch находятся 3 файла: файл 00list и 2 файла с расширением .dpatch. Как нетрудно догадатся, файл 00list содержит список патчей, а оставшиеся файлы — это патчи и есть. Чтобы не возникало путаницы, те патчи, которые находятся в каталоге debian/patches и которые предназначены для программы dpatch, я буду называть деб-патчами, а просто патчами будут называться обычные исправления, которые могут быть созданны программой diff и которые обычно используются программой patch для внесения изменений. Те, кого интересует результат, а сам процесс — не особо, могут скачать готовый деб-патч [тут](http://juffed.googlecode.com/files/03_autocomplete.dpatch), положить его в каталог debian/patches и перейти к абзацу в конце данного раздела, который начинается словами «Если теперь мы заглянем в каталог debian/patches....» Те же, кого интересует сам процесс, читают дальше инструкцию, как изготовить такой деб-патч самостоятельно. Чтобы создать свой собственный деб-патч, находясь в основном каталоге программы выполним команду dpatch-edit-patch , где — имя нового деб-патча. При этом будет создана временная копия всего каталога исходных текстов, и наш шелл будет автоматически перенаправлен в неё. Тут мы можем править исходники так, как считаем нужным, после чего просто выходим из этого «вложенного шелла» командой exit, и результатом всех этих действий будет нужный нам деб-патч, содержащий все сделанные изменения. Править можно как вручную, так и при помощи команды patch (обычной patch, не dpatch), накладывая патчи, созданные кем-то другим. Итак, правку вручную я оставляю за кадром, т.к. у каждого она может быть индивидуальна (можно убрать что-нибудь ненужное, а можно просто добавить в About-диалог «Мир, Труд, Май!» или что-нибудь ещё), а покажу как использовать готовые патчи на примере рассматриваемого случая, а именно для исправления автодополнения в QScintilla. Вот патч, который я послал разработчикам QScintilla. Сохраните его себе на диск. > `**--- Qt4/SciClasses.cpp  2009-10-16 10:09:48.000000000 -0400** > > **+++ Qt4/SciClasses.cpp  2009-10-16 10:11:01.000000000 -0400** > > **@@ -128,7 +128,7 @@** > >  SciListBox::SciListBox(QWidget *parent, ListBoxQt *lbx_) > >      : QListWidget(parent), lbx(lbx_) > >  { > > -    setWindowFlags(Qt::Tool|Qt::FramelessWindowHint); > > +    setWindowFlags(Qt::ToolTip|Qt::WindowStaysOnTopHint); > >      setAttribute(Qt::WA_StaticContents); > > > >      setFocusProxy(parent);` [Скачать патч](http://juffed.googlecode.com/files/qscintilla_autocomplete.patch) Итак, теперь всё то, что я рассказал выше многими непонятными словами, проделаем при помощи коротких и понятных команд :) Мы находимся в основном каталоге исходников qscintilla2-2.3.2: > `$ dpatch-edit-patch 03_autocomplete (создаём новый деб-патч и попадаем в каталог с копией исходников) > > $ patch -p0 < /path/to/our/qscintilla_autocomplete.patch (патчим исходники существующим патчем) > > $ exit (выходим из "виртуального шелла")` Если теперь мы заглянем в каталог debian/patches, то увидим, что там появился ещё один файл с именем 03\_autocomplete.dpatch. Всё, что нам осталось сделать — это добавить его имя (без расширения .dpatch) в файл 00list. Если вы забудете это сделать, то пакет соберётся без наших изменений и ничем не будет отличаться от того, что лежит в репозитории. > `$ echo "03_autocomplete" >> debian/patches/00list` ### Варим! То есть собираем Находясь всё так же в основном каталоге исходников, выполняем > `$ dpkg-buildpackage -rfakeroot` Он обязательно ругнётся, что удовлетворены не все зависимости для сборки. Устанавливаем всё, что он просит. На совершенно чистой машине для этого потребуется скачать 46.7 МБ архивов, после распаковки которых будет занято 181 МБ на диске. Если что-то из этого у вас уже установлено — то качать придётся меньше. Львиную долю составляют девелоперские библиотеки Qt4 (30.6 МБ и 124 МБ соответственно). > `$ sudo aptitude install libqt4-dev python-all-dev sip4 python-sip4 python-sip4-dev python-qt4-dev python-qt4` В комментариях ниже хабраюзер [arty](https://habrahabr.ru/users/arty/) совершенно справедливо [заметил](http://habrahabr.ru/blogs/ubuntu/72609/#comment_2083706), что зависимости можно установить при помощи > `apt-get build-dep [package name]` и таким образом не придётся руками перечислять все требуемые пакеты. После установки всего требуемого запускаем сборку ещё раз: > `$ dpkg-buildpackage -rfakeroot` Теперь всё должно пойти без вопросов. Если вы всё сделали правильно на предыдущих этапах, то через некоторе время сборка окончится (ругнувшись на отсутствие цифровой подписи, но это можно проигнорировать), и в каталоге уровнем выше появится несколько deb-пакетов. Нас интересует один из них: libqscintilla2-3\_2.3.2-0ubuntu2\_i386.deb. Устанавливаем его > `$ sudo dpkg -i ../libqscintilla2-3_2.3.2-0ubuntu2_i386.deb` и [пере]запускаем программы, которые используют данную библиотеку (например, JuffEd). Вуаля! Автокомплит работает! Если есть дополнения или замечания — добро пожаловать в комментарии. Для самых ленивых — [уже собранный и пропатченный пакет для Ubuntu 9.04 (i386)](http://juffed.googlecode.com/files/libqscintilla2-3_2.3.2-patched-1ubuntu2_i386.deb) **UPD1:** прошу прощения, залил не тот пакет. Если скачали deb, установили и ничего по-прежнему не работает — скачайте ещё раз: $ md5sum libqscintilla2-3\_2.3.2-patched-1ubuntu2\_i386.deb e5047bb52011d80b06e82fafe5063a73 libqscintilla2-3\_2.3.2-patched-1ubuntu2\_i386.deb **UPD2:** пропатченый [пакет для Ubuntu 9.10 (i386)](http://juffed.googlecode.com/files/libqscintilla2-5_2.4-3-patched-build1_i386.deb)
https://habr.com/ru/post/72609/
null
ru
null
# Как уменьшить размерность метрик в Prometheus, если вы не DevOps Иногда команда разработки сталкивается с задачей, в которой у неё мало экспертного опыта, и через пробы и ошибки она находит неочевидное решение. Так произошло и с нами, когда понадобилось перенести сбор метрик из Infux в Prometheus. Их итоговая размерность оказалась 1,5 миллиона, и мы решили ее уменьшать. Инфраструктуру по сбору метрик (Prometheus, k8s, деплой через Helm) создавали DevOps-инженеры из другой команды, у которых не было ресурсов для нашей задачи. Поэтому мы заручились их советами, изучили документацию и решили снижать размерность метрик силами разработки. Эта статья не подойдет опытным DevOps-инженерам, но будет полезна разработчикам, которые хотят уменьшить размерность метрик и не желают погружаться в документацию. Или тем, кто намеренно отказывается от иерархической федерации и ищет обходное решение, но не хочет наступить на наши грабли. Расскажем: * как в два шага уменьшить размерность метрик с помощью двух ServiceMonitor, * какой есть эталонный способ уменьшить размерность метрик без «костылей», * почему не стоит тратить время на снижение размерности метрик с помощью Pushgateway. Почему понадобилось уменьшать размерность метрик ------------------------------------------------ Наша команда отвечает за один из продуктов Mindbox — [рекомендации товаров на сайте и в рассылках.](https://mindbox.ru/products/personalization/) Мы собирали время обработки рекомендаций в реальном времени в Influx, и чтобы помочь бизнесу оценить работу продукта, понадобилось считать еще и Apdex (Application Performance Index). Компания постепенно переносит метрики из Influx в Prometheus, поэтому решили обе метрики собирать сразу в Prometheus [с помощью гистограмм.](https://mindbox.ru/products/personalization/) ![](https://habrastorage.org/r/w1560/webt/ry/sj/yl/rysjyldfgloiq8g19ujdvaq4xn0.png) *Гистограмма с метриками, которую хотели создать, чтобы оценивать работу продуктов* Наши сервисы развернуты в Kubernetes. Метрики в Prometheus мы собираем с помощью [ServiceMonitor.](https://github.com/prometheus-community/helm-charts/blob/main/charts/kube-prometheus-stack/crds/crd-servicemonitors.yaml) В приложении используем [Prometheus.NET.](https://github.com/prometheus-net/prometheus-net) В дефолтной конфигурации к каждой метрике, которую экспортирует pod, добавляется лейбл pod с соответствующим значением. **Сбор метрик в Prometheus с помощью ServiceMonitor** ![](https://habrastorage.org/r/w1560/webt/bp/bn/mh/bpbnmhqj6tm3y7r3sud91-trdhw.png) Чтобы показать среднее время обработки, перцентили (p50, p95, p99) и Apdex, планировали использовать гистограмму с 20 бакетами. С учетом того, что информацию мы хотели получать относительно каждой из 2,5 тысячи механик рекомендаций, суммарная размерность метрик была 50 тысяч. Имена pod’ов меняются на каждой выкладке, а лейбл pod приписывается к каждой метрике, поэтому с ретеншеном в 30 дней и ежедневной выкладкой размерность вырастает до 1,5 миллиона. Метрика с такой размерностью занимала гораздо больше места в Prometheus, чем нам хотелось. *2500 \* 20 \* 30 = 1 500 000 (число механик) \* (число бакетов гистограммы) \* (ретеншен) = (итоговая размерность)* Мы решили избавиться от лейбла pod и instance, чтобы размерность не увеличивалась на выкладках. При этом старались найти простое и дешевое решение, которое можно реализовать и поддерживать без привлечения DevOps-инженера. *Важное допущение:* метрика, для которой мы хотели снижать размерность, собирается в каждый момент времени только с одного pod’а. Поменяться pod может только при перезапуске приложения, например при выкладке. Какие варианты решения рассматривали ------------------------------------ Сразу оговоримся, что больше всего для решения проблем с размерностью подходит [иерархическая федерация,](https://prometheus.io/docs/prometheus/latest/federation/#hierarchical-federation) в документации к ней подробно описаны примеры использования. Мы могли бы развернуть Prometheus с низким ретеншеном метрик и собирать туда исходные метрики. Потом через [recording rules](https://prometheus.io/docs/prometheus/latest/configuration/recording_rules/#recording-rules) высчитывать агрегаты и собирать в другой Prometheus с высоким ретеншеном данных. Мы не рассматривали федерацию, потому что хотели найти решение проще, дешевле и быстрее в исполнении. Кроме того, работать над задачей предстояло разработчикам, а не DevOps, поэтому хотелось использовать знакомые инструменты и приемы. Хотя практика показала, что на поиски такого решения мы потратили время, за которое можно было сделать федерацию, а наша реализация оказалась «костылем». Сформулировали два равнозначных решения: **1. Поднять Pushgateway и пушить туда метрики без лейблов.** В компании уже был helm chart для мониторинга стека, в том числе и для Pushgateway. *Плюсы:* код и чарты можно переиспользовать, в поднятый Pushgateway можно перенести метрики с других серверов команды, которые находятся вне Kubernetes и еще не успели переехать из Influx в Prometheus. *Минусы:* дороже поддержка. **Сбор метрик в Prometheus с помощью Pushgateway** ![](https://habrastorage.org/r/w1560/webt/em/hy/hc/emhyhczkf6rg-wxwd_wjguv2nme.png) **2. Поднять второй ServiceMonitor и настроить роутинг метрик между ними.** В одном через релейблинг убирать лейблы pod/instance, а в другом оставлять как есть. *Плюсы:* дешевле — надо только развернуть ServiceMonitor, проще в поддержке. *Минусы:* ops-реализация, с которой не были знакомы разработчики. **Сбор метрик в Prometheus с помощью второго ServiceMonitor** ![](https://habrastorage.org/r/w1560/webt/95/tj/m1/95tjm1_g6njs5sqqd1vusftdd3q.png) Как провалилось решение c Pushgateway ------------------------------------- **Первое решение.** Для начала выбрали очевидную реализацию через Pushgateway. Подняли Pushgateway, запушили туда метрики и использовали в качестве лейбла instance константу. Запрос выглядел примерно так: ``` curl -i -X POST \ -d 'some_metric{bar=\"fooo\"} 3.22' \ 'https://pushgateway:9091/metrics/instance/constant/' ``` Мы быстро справились с задачей и первое время результат радовал — метрики собирались, а размерность не росла. Но скоро мы стали замечать крупные провалы в метриках у некоторых механик. При этом прослеживалась странная закономерность — когда у одних механик метрика передавалась корректно и непрерывно, у других начинались провалы. Из-за этого складывалось впечатление, что в единый момент времени репортится только одна группа механик. Таких групп было несколько, и они менялись в произвольном порядке. **Почему не сработало.** Тот, кто знаком с устройством Pushgateway, вероятно, сразу понял, что наше решение нерабочее. В Pushgateway лейблы передаются двумя способами: через путь запроса или в теле запроса. При этом набор лейблов и их значений, которые передаются через путь, работают как ключ для словаря, где хранятся метрики. Все, что передалось через тело запроса, попадает в значение по этому ключу. То есть в нашем случае каждый запрос с pod’а перезаписывал все метрики, которые пушились с других pod’ов. Поскольку Prometheus собирает метрики с интервалом, то в него попадали метрики только с того pod’а, который последним успел запушить. Чтобы корректно отправлять метрики в Pushgateway, пришлось бы написать кастомный С# код. Но такое решение не были ни простым, ни дешевым, поэтому от него отказались. **Второе решение.** Мы решили снова уцепиться за Pushgateway: собирать исходные метрики и пушить со всеми лейблами, а потом убирать лейбл pod с помощью ServiceMonitor, который собирает метрики с Pushgateway. Но уже на старте поняли, что идея не сработает. **Почему не реализовали.** У Pushgateway есть несколько особенностей, которые делают такое решение невозможным. Главная — данные не очищаются автоматически, по ретеншену. Значит, нужно отслеживать размер диска и писать код очистки вручную. Другая проблема в том, что после релейблинга метрики с одинаковым набором лейблов, но с разным лейблом pod, будут конфликтовать. В итоге останется только последняя метрика в порядке Pushgateway. При этом метрики отсортированы не по дате последнего изменения, а в алфавитном порядке. Так при выкладке значения с новых pod’ов могут не попасть в Prometheus. Как сработало решение со вторым ServiceMonitor ---------------------------------------------- Мы вернулись ко второму исходному варианту и сделали два ServiceMonitor. Дополнительно в коде проставили специальный лейбл (в нашем случае — business) для тех метрик, чью размерность снижаем: * на одном ServiceMonitor отбросили все метрики со специальным лейблом, а остальные оставили как есть; * на другом оставили только метрики со специальным лейблом и убрали с них лейблы pod и instance. Сделали все через релейблинг, в конфигурацию первого ServiceMonitor добавили код: ``` metricRelabelings: - action: drop sourceLabels: - business regex: "[Tt]rue" ``` В конфигурацию второго ServiceMonitor прописали: ``` metricRelabelings: - action: keep sourceLabels: - business regex: "[Tt]rue" - action: labeldrop regex: instance|pod|business ``` Что мы вынесли из истории с поиском решений ------------------------------------------- 1. Ни Pushgateway напрямую, ни релейблинг в нем не подходят для снижения размерности метрик. 2. Если использовать релейблинг, то метрики с одинаковыми наборами лейблов не должны одновременно репортиться с разных pod’ов. 3. Второй ServiceMonitor — «костыль», который просто и быстро реализовать, если не хочется тратить ресурсы на федерацию. 4. Лучшее решение для снижения размерности метрик — федерация: * Prometheus с низким ретеншеном, * собирают агрегаты (recording rules), * отправляют в Prometheus с высоким ретеншеном. Юрий Соколов, разработчик
https://habr.com/ru/post/564686/
null
ru
null
# Переменные в CSS Если вы разработчик, то вы точно хорошо знакомы с переменными, и возможно, они одни из ваших лучших друзей. По определению, переменная — это временное хранилище, которое содержит некое значение величины или информации. Но каким образом это относится к тому CSS, который мы все знаем? Год назад на Хабре [был пост](http://habrahabr.ru/post/112101/) о планируемых новшествах в CSS, которые были оглашены членом рабочей группы CSS и команды Google Chrome. Среди этих новшеств было введение поддержки переменных. И вот, буквально на днях, поступили новости о выходе первого релиза рабочего черновика [CSS Переменных (CSS Variables)](http://www.w3.org/TR/css-variables/). ![](https://habrastorage.org/r/w780q1/storage2/bfd/579/20c/bfd57920c7874c8eedffed582ae42ffb.jpg) ### Почему CSS переменные? Переменные в CSS — эта та штука, о которой народ спрашивал и хотел довольно [долгое время](http://disruptive-innovations.com/zoo/cssvariables/). Подумайте обо всех этих цветах (colors), высотах (heights), ширинах (widths) и размерах (sizes): как бы было прекрасно объявить их всего лишь один раз. И наконец, пришло время того, чего мы так долго ждали: **писать меньше, но делать больше**. ### Установившиеся практики в CSS Когда люди просят об объявлении переменных цвета в css (color), добавление комментариев в верней части CSS-файла было чем-то вроде симуляции поведения переменных: ``` /*-------------------------- link color: #99D1FF (light blue) box color: #555 (dark gray) --------------------------*/ ``` *Позже, чтобы обновить значения, приходилось делать поиск и замену.* ### Как это делается в LESS/Sass Идея использовать переменные для таблицы стилей было одной из тех причин, по которым появились [LESS](http://lesscss.org/) и [Sass](http://sass-lang.com/). #### LESS ![](https://habrastorage.org/r/w1560/storage2/a62/843/986/a628439869e1c3c0cd255ee45c7c9388.png) #### Sass ![](https://habrastorage.org/r/w1560/storage2/08b/317/f7b/08b317f7b6c4b0c7708e15f82e54ede3.png) ### Как это будет работать теперь Прежде всего, не забывайте, что это ни один из браузеров пока не поддерживает. Но это то, как оно будет работать в будущем: **var-foo** для определения, **var(foo)** для использования. Следуя черновикам: > Любое имя свойства, начинающееся с префикса “var-” является свойством переменной. (Any property name starting with the prefix “var-” is a variable property) #### Пример Следующее правило декларирует имя свойства “var-header-color” для элемента root и присваивает для него значение “#99D1FF”: ``` :root { var-header-color: #99D1FF; } ``` Далее, его значение может передаваться с помощью переменной “header-color”: ``` h1 { color: var(header-color); } ``` Использование переменных цвета в определении градиентов также может быть очень полезным. Вам всего лишь нужно будет заменить значение переменных, и вуаля: все градиенты обновились. Звучит довольно круто, как по мне. Также, при создании макета, применив переменные и функцию [calc()](http://www.w3.org/TR/css3-values/#calc0) можно сделать интересные вычисления. ### Вывод CSS не является языком программирования, но он и не должен быть сложным. Однако, я думаю вы согласитесь, что использование CSS переменных поможет избежать дублирования и позволит создавать более гибкие таблицы стилей. Теперь, когда вышел в свет первый модуль CSS переменных, мы с нетерпением ждем поддержку их браузерами в ближайшем будущем.
https://habr.com/ru/post/141920/
null
ru
null
# Надёжный JavaScript: в погоне за мифом JavaScript нередко называют «самым популярным языком», но, кажется, никто не отзывается о JS-разработке как о «самой безопасной», и количество подстерегающих проблем в экосистеме велико. Как эффективно их обходить? ![](https://habrastorage.org/r/w780q1/webt/pu/ak/kc/puakkce57lpd32kkdbinlj8ydoy.jpeg) **Илья Климов** задумался об этом, когда ошибка обошлась очень дорого (в буквальном смысле) — и в итоге сделал доклад на HolyJS. А поскольку зрительские отзывы оказались отличными, мы теперь подготовили для Хабра текстовую версию этого доклада. Под катом — и текст, и видеозапись. Всем привет. Меня зовут Илья Климов, я из Харькова, Украина. У меня собственная небольшая, до десяти человек, аутсорсинговая компания. Мы делаем всё, за что платят деньги… в смысле, программируем на JavaScript во всех отраслях. Сегодня, разговаривая о надёжном JavaScript, я хочу поделиться своими наработками где-то за последний год, с тех пор как меня эта тема начала достаточно жёстко и серьёзно беспокоить. Те, кто работает в аутсорсе, прекрасно поймут содержимое следующего слайда: ![](https://habrastorage.org/r/w1560/webt/ku/mi/7u/kumi7ucbxrai_oqdxwhwtqj84jk.png) Всё, о чем мы будем говорить, конечно же, не имеет никакого отношения к реальности. Как говорят в South Park, все персонажи спародированы, причём убого. Естественно, те места, где есть подозрение на нарушение NDA, были согласованы с представителями заказчиков. Ничто так не повлияло на мои мысли о надёжности и тому подобном, как основание собственной компании. Когда ты заводишь собственную компанию, внезапно оказывается, что ты можешь быть очень крутым программистом, у тебя могут быть очень крутые ребята, но иногда происходят совершенно невероятные вещи, парочка невозможных и совершенно безумная. У меня есть образовательный проект JavaScript Ninja. Иногда я даю обещания. Иногда я даже их выполняю. Я пообещал в 2017 году в рамках образовательного проекта записать видео про Kubernetes. Я осознал, что дал это обещание и хорошо бы его выполнить, 31 декабря. И я сел записывать ([вот результат](https://www.youtube.com/watch?v=L3tgJXsMUTU)). Поскольку я люблю записывать видео, максимально приближенные к реальности, я воспользовался примерами реального проекта. В итоге в демонстрационном кластере я развернул штуку, которая забирала реальные заказы с реального продакшена и клала их в отдельную Kubernetes базу в моем демонстрационном кластере. Поскольку это было 31 декабря, часть заказов пропала вникуда. Списали на сезонность: все ушли пить чай. Когда заказчик очнулся, примерно 12-13 января, суммарная стоимость видео составила порядка $500 000. Такого дорогого продакшена у меня ещё не было. ![](https://habrastorage.org/r/w1560/webt/lx/dd/rt/lxddrthxihl5_vzoqeadrnlrf60.png) Пример номер два: очередной кластер Kubernetes. Новомодная экосистема Infrastructure as a Сode: всё, что можно, описано кодом и конфигами, Kubernetes дёргается программно из JavaScript-оболочек и так далее. Классно, всем нравится. Немножечко изменяют процедуру развёртывания, и наступает момент, когда необходимо развёртывать новый кластер. Возникает следующая ситуация: ``` const config = { // … mysql: process.env.MYSQL_URI || ‘mysql://localhost:3306/foo’ // ... } ``` У многих из вас наверняка тоже есть такая строчка кода в ваших конфигах. То есть забираем конфиг из mysql-переменной или берём локальную базу. Из-за опечатки в системе деплоймента получилось так, что система опять сконфигурировалась в качестве продакшна, а вот MySQL-базу использовала тестовую — локальную, которая лежала для тестов. В этот раз денег было потрачено поменьше — всего $300 000. К счастью, это уже была не моя компания, а место, где я работал как привлечённый консультант. ![](https://habrastorage.org/r/w1560/webt/iv/r3/v8/ivr3v8a9frcey26kfj4czqpd4um.png) Вы могли подумать, что вас как фронтендеров всё это не касается, ведь я рассказывал о DevOps (кстати, я восхищён названием конференции [DevOops](https://devoops.ru), отлично описывает суть). Но расскажу про ещё одну ситуацию. Есть система, которая осуществляет контроль ветеринарных эпидемий в Эфиопии, разрабатывалась под эгидой ООН. Она содержит в себе один из элементов интерфейса, когда к человеку приходят, и он вручную вводит координаты: когда и где были вспышки определённой болезни. Происходит вспышка какого-то очередного ящура (я не силён в коровьих болезнях), и в спешке оператор случайно два раза нажимает кнопку «добавить», оставив поля пустыми. Поскольку у нас JavaScript, а JavaScript и типы — это очень хорошо, пустые поля широты и долготы радостно приводятся к нулевым координатам. Нет, мы не отправили врача далеко в океан, но оказалось, что для отображения на карте, построения отчётов, аналитики, анализа размещения людей на бэкенде всё это предварительно просчитывается с точки зрения кластеризации. Мы пытаемся объединить точки возникновения эпидемий. В итоге система парализована в течение дня, потому что бэкенд пытается рассчитать кластер с включением этой точки, все данные становятся неактуальными, врачам приходят совершенно невменяемые приказы из серии «езжайте за 400 километров». 400 километров по Эфиопии — это сомнительное удовольствие. Суммарная оценка потерь — порядка миллиона долларов. В отчёте об этой ситуации было написано «Мы стали жертвой неудачного стечения обстоятельств». Но мы-то знаем, что дело в JavaScript! ![](https://habrastorage.org/r/w1560/webt/95/kt/wn/95ktwn6hubs5azwja9vopnkwydc.png) И последний пример. К сожалению, хотя эта история была достаточно давно, я до сих пор не могу называть компанию. Но это компания, у которой своя собственная авиалиния, собственные отели и так далее. Она очень интерактивно работает с бизнесами, то есть предоставляет им отдельный интерфейс для бронирования билетов и так далее. Однажды по нелепой случайности приходит заказ на бронирование билетов из Нью-Йорка в Лос-Анджелес в количестве 999 999 штук. Система компании радостно выкупила все рейсы собственной авиакомпании, обнаружила, что мест не хватает, и отправила данные в международную систему бронирования, чтобы компенсировать нехватку. Международная система бронирования, увидев запрос в приблизительно 950 000 билетов, радостно отключила эту авиакомпанию от своей системы. Поскольку отключение — это из ряда вон выходящее событие, после этого проблема была решена в течение семи минут. Однако за эти семь минут стоимость штрафов, которые пришлось заплатить, составила всего-навсего $100 000. ![](https://habrastorage.org/r/w1560/webt/my/_b/eg/my_beg6zrauwag69rbbangiojgw.png) К счастью, это всё происходило не в один год. Но эти случаи заставили меня задуматься о вопросах обеспечения надёжности и задать два исконно русских вопроса: кто виноват и что с этим делать? Почему так происходит: юность экосистемы ---------------------------------------- Если вы проанализируете много историй, вы обнаружите, что историй о подобных проблемах, связанных с JavaScript, гораздо больше, чем с другим языком программирования. Это не моё субъективное впечатление, а результаты интеллектуального анализа новостей на Hacker News. С одной стороны, это хипстерский и субъективный источник, но, с другой стороны, найти какой-нибудь вменяемый источник по факапам в области программирования достаточно сложно. Более того, год назад я проходил соревнование, где надо было каждый день решать алгоритмические задачки. Поскольку мне было скучно, я их решал на JavaScript с помощью функционального программирования. Я написал абсолютно чистую функцию, и она в актуальном Chrome 1197 раз работала правильно, а 3 раза выдавала другой результат. Это была всего лишь небольшая ошибка в оптимизаторе TurboFan, который только-только попадал в основной Chrome. Конечно, она была поправлена, но вы же понимаете: такое означает, например, что если ваши юнит-тесты один раз прошли, это совершенно не означает, что они будут работать в системе. То есть мы выполняли код порядка 1197 раз, потом приходил оптимизатор и говорил: «Ух ты! Горячая функция! Давайте её соптимизируем». И в процессе оптимизации приводил к неправильному результату. Другими словами, одной из первых причин, почему так происходит, мы можем называть юность экосистемы. JavaScript — достаточно молодая отрасль именно в области серьёзного программирования, тех дел, где вращаются миллионы, где стоимость ошибки измеряется пятью-шестью знаками. Долгое время JavaScript воспринимался как игрушка. Из-за этого (не потому что мы не воспринимаем это серьёзно) у нас всё ещё проблемы с тем, что не хватает инструментария. Поэтому, чтобы бороться с этой причиной, которая является фундаментальной первоосновой всего, о чем буду сегодня говорить, я попытался сформулировать правила надёжности, которые мог бы навязать в своей компании или передать в качестве консалтера в другие. Как говорится, «правило номер один — не говорить о надёжности». А если серьёзнее, то… Правило надёжности #1: всё, что может быть автоматизировано, должно быть автаматизировано ----------------------------------------------------------------------------------------- Включая, кстати, и проверку орфографии: **Скрытый текст**Правило надёжности #1: всё, что может быть автоматизировано, должно быть авт**О**матизировано Всё начинается с самых простых вещей. Казалось бы, все давно пишут на Prettier. Но только в 2018 году эта штука, которую мы все используем, хорошая и здравая, научилась работать с git add -p, когда мы частично выполняем добавление файлов в git репозиторий, и нам хочется красиво отформатировать код, допустим, перед отправкой в основной репозиторий. Абсолютно той же проблемой обладает достаточно известная утилита realinstaged, которая позволяет проверять только те файлы, которые были изменены. ![](https://habrastorage.org/r/w1560/webt/w4/oh/q_/w4ohq_h-hjm5l_hna1d616e86ne.png) Продолжим играть в Капитана Очевидность: ESLint. Я не буду спрашивать, кто тут его использует, потому что нет смысла в том, чтобы весь зал поднимал руки (ну, я надеюсь на это и не хочу разочаровываться). Лучше поднимите руки, у кого в ESLint есть собственные кастомно написанные правила. Такие правила — один из очень мощных способов автоматизации того бардака, который происходит в проектах, где пишут люди уровня junior и тому подобного. Мы все хотим определённого уровня изоляции, однако рано или поздно возникает ситуация: «Смотри, вот этот helper Вася реализовал где-то в директории своего компонента совсем рядышком. Я не буду его выносить в common, потом сделаю». Волшебное слово «потом». Это приводит к тому, что в проекте начинают появляться не вертикальные зависимости (когда верхние элементы подключают нижние, нижние никогда не лезут за верхними), а компонент A зависит от компонента B, который находится совершенно в другой ветке. В итоге компонент A становится не так просто переносимым в другие компоненты. Кстати, выражаю респект «Альфа-банку», у них очень хорошо и красиво написана библиотека компонентов на React, ей пользоваться одно удовольствие именно в плане оформления качества кода. Банальное ESLint-правило, которое следит, откуда вы импортируете сущности, позволяет существенно увеличить качество кода и сохранить ментальную модель при code review. Я уже с точки зрения мира фронтенда старый. У нас недавно в Харьковской области большая серьезная компания PricewaterhouseCoopers закончила исследование, и средний возраст фронтендера составил порядка 24–25 лет. Мне уже тяжело думать обо всём этом, я хочу при ревью пулл-реквеста сосредотачиваться на бизнес-логике. Поэтому я с удовольствием пишу ESLint-правила, чтобы не думать о таких вещах. Казалось бы, под это можно подстроить обычные правила, но реальность обычно расстраивает куда больше, потому что, оказывается из реактовского компонента нужны какие-нибудь селекторы Redux (он, к сожалению, всё ещё жив). И эти селекторы лежат где-то в совершенно другой иерархии, поэтому «../../../..». Или, ещё хуже, webpack alias, который ломает приблизительно 20% другого инструментария, потому что не все понимают, как с ним работать. К примеру, мой горячо любимый Flow. Поэтому в следующий раз перед тем, как вам захочется нарычать на джуниора (а у программиста есть такое любимое занятие), задумайтесь, можете ли вы как-то автоматизировать это, чтобы не допускать ошибки в дальнейшем. В идеальном мире вы, конечно, напишете инструкцию, которую всё равно никто не прочитает. Вот спикеры HolyJS — талантливые специалисты с большим опытом, но когда на внутреннем митинге было предложено составить инструкцию для спикеров, на это сказали «да они ж её не прочитают». А это те люди, с которых надо брать пример! Последнее из банальщины, и перейдём к жести. Это любые инструменты для запуска прекоммит-хуков. Мы используем [husky](https://github.com/typicode/husky), и я не мог не вставить эту красивую фотографию хаски, но вы можете использовать что-то другое. ![](https://habrastorage.org/r/w780q1/webt/ko/88/la/ko88la3d2ueau_frtyqrgaxxwia.jpeg) Если вы думаете, что это всё очень просто — как говорится, hold my beer, скоро разберёмся, что всё бывает сложнее, чем вам кажется. Ещё несколько пунктов: Типизация --------- Если вы не пишете на TypeScript, возможно, вам стоит об этом задуматься. Я TypeScript не люблю, я традиционно хайплю Flow, но об этом мы можем похоливарить позже, а здесь со сцены я буду с отвращением продвигать мейнстримное решение. Почему так? У программного комитета TC39 недавно было очень большое обсуждение, куда вообще идёт язык. Очень забавный вывод, к которому они пришли: в TC39 вечно «лебедь, рак и щука», которые тащат язык в разных направлениях, но есть одна вещь, которую хотят все и всегда, — это перформанс. TC39 неофициально, во внутреннем обсуждении, выдал такую тираду: «мы всегда будем делать JavaScript так, чтобы он оставался производительным, а те, кому не нравится, возьмут какой-нибудь язык, который компилируется в JavaScript». TypeScript достаточно неплохая альтернатива со взрослой экосистемой. Не могу не упомянуть о своей любви к GraphQL. Он действительно хорош, к сожалению, его никто не даст внедрять на огромном количестве существующих проектов, где нам уже приходится работать. ![](https://habrastorage.org/r/w1560/webt/nd/rw/6w/ndrw6w8uthgi8ypqykbofmf7ez4.png) На конференции уже были доклады по GraphQL, поэтому всего один штрих именно к вопросу о надёжности: если вы используете, допустим, Express GraphQL, то каждый раз в дополнение к определенному резолверу вы можете навешивать определённые валидаторы, которые позволяют ужесточить требования к значению по сравнению со стандартными типами GraphQL. К примеру, хотелось бы, чтобы сумма перевода между двумя представителями каких-нибудь банков была положительной. Потому что не далее как вчера поп-ап в моем интернет-банкинге радостно возвещал, что у меня -2 непрочитанных сообщения от банка. И это вроде как лидирующий банк моей страны. Что касается этих валидаторов, накладывающих дополнительную строгость: использовать их — хорошая и здравая идея, только не используете их так, как предлагает, допустим, GraphQL. Вы оказываетесь очень сильно привязаны к GraphQL как к платформе. В то же время валидация, которую вы делаете, нужна одновременно в двух местах: на фронтенде перед тем, как мы отправляем и получаем данные, и на бэкенде. Мне регулярно приходится объяснять заказчику, почему мы взяли в качестве бэкенда JavaScript, а не язык X. Причем язык X — это обычно какой-нибудь PHP, а не красивые Go и тому подобные. Мне приходится объяснять, что мы способны максимально эффективно переиспользовать код, в том числе между клиентом и бэкендом, за счет того, что они написаны на одном языке программирования. К сожалению, как показывает практика, часто этот тезис остается всего лишь фразой на конференции и не находит воплощения в реальной жизни. Контракты --------- Я уже говорил о юности экосистемы. Контрактное программирование существует более 25 лет как основной подход. Если вы пишете на TypeScript, возьмите io-ts, если вы пишете на Flow, как я, возьмите typed-contract, и получите очень важную вещь: возможность описывать runtime-контракты, из которых выводить статические типы. ![](https://habrastorage.org/r/w1560/webt/jl/fg/bj/jlfgbj0bbassazt6sztrtulh4qq.png) Хуже нет для программиста, чем наличие более чем одного источника правды. Я знаю людей, которые потеряли пятизначные суммы в долларах просто из-за того, что их тип, описанный на языке со статической типизацией (они использовали TypeScript — ну, конечно, это просто совпадение), и runtime-тип (вроде бы использовали [tcomb](https://github.com/gcanti/tcomb)) немного различались. Поэтому в compile-time ошибка не было поймана, просто потому что зачем её проверять? Юнит-тестов на неё не было, потому что нам же проверил это статический типизатор. Нет смысла проверять вещи, которые были проверены слоем ниже, все помнят иерархию тестирования. Из-за того, что с течением времени нарушилась синхронизация между этими двумя контрактами, однажды выполнился неправильный перевод по адресу, который ушёл на неправильный адрес. Поскольку это была криптовалюта, откатить транзакцию невозможно чуть более, чем в принципе. Форкать эфир ради вас ещё раз никто не будет. Поэтому контракты и взаимодействия на контрактном программировании — первое, что вы должны начать делать прямо завтра. Почему так происходит: изоляция ------------------------------- Следующая проблема — изоляция. Она многогранна и многолика. Когда я работал для компании, связанной с отелями и авиаперелетами, у них было приложение на Angular 1. Это было достаточно давно, так что простительно. Над этим приложением работала команда из 80 человек. Все было покрыто тестами. все было хорошо, пока я один прекрасный день не сделал свою фичу, не замерджил ее и обнаружил, что я сломал в рамках тестирования совершенно невероятные места системы, которых я даже не касался. Оказалось, у меня проблемы с креативностью. Оказалось, что я чисто случайно назвал сервис точно так же, как другой сервис, который существовал в системе. Поскольку это был Angular 1, а система сервисов там была не strictly typed, a stringly typed — строкотипизированная, Angular совершенно спокойно начал подсовывать мой сервис в совершенно другие места и по иронии судьбы парочка методов в именовании совпала. Это, естественно не было совпадением: вы же понимаете, что если два сервиса названы одинаково, с большой вероятностью они делают плюс-минус одинаковые вещи. Это был сервис, связанный с расчётом скидок. Только один модуль был занят обсчётом скидок для корпоративных клиентов, а второй модуль с моим названием был связан с расчётом скидок по акциям. Очевидно, когда приложение пилят 80 человек, это значит, что оно большое. В приложении был реализован code splitting, и это означает, что последовательность подключения модулей напрямую зависело от путешествия пользователя по сайту. Чтобы было ещё интереснее, так сложилось, что ни один end-to-end тест, который тестировал поведение и проход пользователя по сайту, то есть определённый бизнес-сценарий, не поймал эту ошибку. Потому что вроде бы никому никогда не понадобится одновременно связываться с обоими модулями скидок. Правда, это полностью парализовало работу админов сайта, но с кем не бывает. Проблема изоляции очень хорошо иллюстрируется логотипом одного из проектов, которые эту проблему частично решают. Это Lerna. ![](https://habrastorage.org/r/w1560/webt/jz/nn/op/jznnopsczu0lbelfdl7o7py3hdu.png) Lerna — это превосходный инструмент для управления несколькими npm-пакетами в репозитории. Когда у вас в руках молоток, все становится подозрительно похожим на гвоздь. Когда у вас есть unix-подобная система с правильной философией, всё становится подозрительно похоже на файл. Все знают, что в unix-системах всё есть файл. Есть системы, где это доведено до высшей степени (чуть не сказал «до абсурда»), вроде [Plan 9](https://en.wikipedia.org/wiki/Plan_9_from_Bell_Labs). Я знаю организации, которые, настрадавшись с обеспечением надёжности гигантского приложения, пришли к одной простой идее: всё есть пакет. ![](https://habrastorage.org/r/w1560/webt/kj/xn/wb/kjxnwb2hkwnuqpxrpfjwmjysdde.png) Когда вы выносите какой-то элемент функциональности, будь это компонент или ещё что-то, в отдельный пакет, вы автоматически обеспечиваете слой изоляции. Просто потому что вы не можете из одного пакета нормально дотянуться до другого. И ещё потому, что система работы с пакетами, которые собраны в монорепозитории через npm-link или Yarn Workspaces, устроена настолько ужасно и непредсказуемо с точки зрения того, как это организовано внутри, что вы даже не можете прибегнуть к хаку и подключить какой-нибудь файл через «node\_modules что-то», просто потому, что у разных людей это всё собирается в разную структуру. Особенно это зависит напрямую от версии Yarn. Там в одной из версий втихаря полностью поменяли механизм, как Yarn Workspaces с организует работу с пакетами. Вторым примером изоляции, чтобы показать, что проблема многогранна, является пакет, который я стараюсь сейчас повсеместно использовать, — это [cls-hooked](https://github.com/Jeff-Lewis/cls-hooked). Вам может быть известен другой пакет, который реализует то же самое, — это [continuation-local-storage](https://github.com/othiym23/node-continuation-local-storage). Он решает очень важную проблему, с которой, к примеру, не сталкиваются, например, разработчики на PHP. Речь об изоляции каждого конкретного запроса. В PHP у нас, в среднем по больнице, все запросы изолированы, взаимодействовать между ними, только если вы не используете какие-нибудь извращения типа Shared Memory, мы не можем, все хорошо, мирно, красиво. По сути, cls-hooked добавляет то же самое, позволяя создавать контексты выполнения, класть в них локальные переменные и потом, что самое важное, автоматически уничтожать эти контексты, чтобы они не продолжали поедать вашу память. Этот cls-hooked построен на async\_hooks, которые в node.js всё ещё в экспериментальном статусе, но я знаю не одну и не две компании, которые используют их в достаточно суровом продакшене и счастливы. Есть небольшое падение по производительности, но возможность автоматической сборки мусора бесценна. Когда мы начинаем говорить о вопросах изоляции, о том, чтобы пихать разные вещи в разные node-модули. Правило надёжности #2: плохой и «неправильный» код должен выглядеть неправильно ------------------------------------------------------------------------------- С первым критерием, который я для себя вывел, десять лет назад бы сам не согласился. Потому что пищал бы, что JavaScript — динамический язык, а вы лишаете меня всей красоты и выразительности языка. Это grep-тест. Что это такое? Многие пишут в vim. Это означает, что если вы не используете какие-нибудь относительно новомодные навороты типа Language Server, единственный способ найти упоминание какого-нибудь атома — это, грубо говоря, grep. Конечно, есть вариации на тему, но общая идея понятна. Идея grep-теста в том, что вы должны найти все вызовы функций и их определение путём обычного grep. Вы скажете, все так делают, ничего странного. Возьмем [Sequelize](https://github.com/sequelize/sequelize). Это самая популярная ORM для реляционных баз данных. И возьмем совершенно простой код user.getProjects(). Как вы думаете, откуда появляется метод getProjects? Он появляется благодаря магии. ![](https://habrastorage.org/r/w1560/webt/6l/fd/lr/6lfdlr9jixqedmscjsbh-0oow9k.png) Каждый раз, когда мне надо описывать связи между таблицами в Sequelize, на меня накатывает депрессия, потому что я все время путаю hasMany, belongsToMany. Это не то что бы сложно, но я каждый раз чувствую, как мой мозг заставляют напрягаться, и рано или поздно всё равно допускаю в этом ошибку. Что самое плохое в подобном подходе, эти штуки очень легко пропустить на ревью. Я очень много говорю о code review, потому что мы можем автоматизировать что угодно, но мы никогда не можем предусмотреть всего. Последним оплотом в обеспечении надёжности всегда будет человек. Наша задача — максимально упростить работу этому человеку, чтобы ему пришлось думать о минимальном количестве вещей. Я уже несколько раз повторял эту фразу, но она мне всё ещё нравится: «merge request на 20 строчек — 30 замечаний, merge request на 5000 строк — looks good to me». Это абсолютная правда, я сам такой. У нас в чатике JavaScript Ninja есть человек, которого, похоже, взяли на позицию junior-разработчика, и против нашей воли делится с нами успехами своего рефакторинга. Вчера запостил скриншот «перевёл половину проекта на react и redux», там было 8000 строк добавлено, 10 000 удалено» Я с нетерпением предвкушаю, как его будут реьювить, с нетерпением жду «выхода нового сезона». При этом, по его словам, ему сказали «всё в порядке», и он искренне уверен, что этот merge request никак нельзя разбить на отдельные части. Тем, кто считает, что такие merge request оправданы, и их действительно нельзя разбить на новые части, советую взять пример с ядра Linux. Это превосходный пример репозитория, где все работают не с коммитами, а с патч-сетами. То есть по почте вам присылают патчи, который вы должны накатить на свой git. Вы знаете, почта не лучшая среда для работы с патчами. Ревьювить большой код в почте неудобно, в частности, вам сложно оставить комментарий к конкретной строчке. В почте очень быстро начинает теряться контекст. А в итоге пользователь вынужден разбивать свои патч-сеты на отдельные изолированные куски. И эти отдельные куски должны ревьювиться отдельно. В итоге даже какой-нибудь сложный рефакторинг начинается с того, что в начале мы вкатываем новую функциональность в самую основу, потом вкатываем какую-нибудь инфраструктуру поверх этой функциональности и только в конце начинаем подсистема за подсистемой переводить это на новую основу. Я знаю, о чем говорю. Мой ноутбук Microsoft Surface почти идеально работает под Linux, но там не отображается статус батарейки. И я очень внимательно наблюдаю за тем, как люди реверсят протокол и как они постепенно готовят патчи для включения в основную ветку ядра, это очень сложно. И навык разбивать большой код на отдельные мелкие патч-сеты фундаментально важен для обеспечения надёжности. Почему так происходит: магия ---------------------------- ![](https://habrastorage.org/r/w1560/webt/5j/ll/p6/5jllp6invsz_lu02znea6kcsutu.png) Магия бывает не только «запрещённой за пределами Хогвартса», но и «вредной и полезной». К примеру, большинство из вас вряд ли представляют всю магию реконсилера React. Потому что если мы говорим о шестнадцатом React, Fiber — это мегасложно. По сути, разработчики Fiber полностью с нуля реализовали стековую машину для вызовов (которая была почти полностью содрана из OCaml) внутри JavaScript, чтобы иметь возможность асинхронно обрабатывать рендеры компонентов. Дальше они внедрили планировщик, который очень сильно напоминает код первых примитивных планировщиков операционных систем. Дальше они поняли, что планировщик — это очень сложно, поэтому они создали proposal, чтобы внедрить это прямо в JavaScript. Scheduler — это proposal stage 0. Но тем не менее, магия React в том, как он делает что-то максимально быстро. То есть что он делает, понятно: мы отрендерили, он применяет виртуальный DOM. Но как он это делает быстро — это уже магия. Это полезная магия, потому что она управляема. ![](https://habrastorage.org/r/w1560/webt/ow/x8/sg/owx8sgozgwsoqtfq7xwu9sfj0cs.png) Приведу пример другого фреймворка — Vue.js. Кому из вас нравится Vue? Я рад, что вас становится меньше. Я долго восхищался Vue, теперь период большого разочарования, сейчас объясню, почему. Абстрактный проект на Vue работает гораздо быстрее абстрактного проекта на React. Проект, написанный джуниором на Vue, абсолютно точно работает гораздо быстрее проекта, написанного джуниором на React. Дело в магии реактивности. Vue способен отслеживать, какие элементы state, причем неважно, где этот state был размещен, зависят от каких компонентов и каждый раз перерендивает только нужные компоненты. Очень крутая идея, которая позволяет вам не думать о производительности. Vue меня в свое время этим покорила. Вторая классная идея. Наверняка многие из вас, если не все, знакомы с философией Web Components и c философией трансклюзии, когда у нас есть слоты, и контент из дочернего объекта вставляется в дыру в другом компоненте. Простейший пример применения слота: допустим, у нас есть pop-up, который содержит оверлеи, крестик и так далее, и нам надо передавать туда какой-то контент. Просто передаём кусок — здраво. Во Vue есть слоты на стероидах — scoped slots. Они нужны, когда нам надо в слот передать еще какие-то данные. Простейший пример применения scoped slot — это когда есть таблица, и вы хотите кастомизировать каждую строку. То есть вам нужен кастомный рендер для каждой строки. В React умные хипстеры сейчас бы использовать для этого Render Proper: красиво, декларативно. Во Vue вы просто вставляете кусок шаблона и не задумываетесь, что на самом деле это тоже компилируется в рендер-функцию. Как только у вас в компоненте появляются рендер-слоты, ваша хвалёная система реактивности Vue превращается в тыкву. Прям в исходниках Vue написано: проверить, если у child-компонента, который мы обновляем, есть scoped slots, сделать forceUpdate. Как только родитель обновляется, child тоже перерисовывается. Это становится катастрофой для производительности в отдельных ситуациях. В React со всей его магией мы можем этой магией управлять. У нас есть, допустим, shouldComponentUpdate(), который запретит компоненту перерисовываться. С Vue нам остаётся долгий пристальный взгляд, чтобы на это посмотреть, у нас нет механизма, например, чтобы запретить компоненту перрерисоваться. Приходится изобретать совершенно феноменальные костыли для этого. Это поправлено в третьем Vue. Это отдельная история, когда-нибудь он точно выйдет. ![](https://habrastorage.org/r/w1560/webt/9s/rz/j8/9srzj89ltostquesk9tsfal2lhu.png) Последний пункт — это [Jest](https://jestjs.io). Превосходный фреймворк тестирования от Facebook. Я абсолютно честно считаю его на данный момент лидирующим фреймворком в мире тестирования JavaScript: красивый, выразительный, эффективный. Он прекрасно умеет мокать импорты. Это работает превосходно до тех пор, пока это работает. Проблема в том, что импорты по определению по спецификации к ECMAScript 2015 являются статическими. Вы не можете подменять реализацию импортов, вы не можете объявить импорт в if, в зависимости от require. Require вы можете применить, а импорт нет. Импорты, в принципе, не могут быть подменяемы, они должны быть вычислены ещё до процесса вычисления компонента. Jest компилирует с помощью Babel импорты в Require и дальше их подменяет. В один прекрасный день вы решаете побыть совсем хипстером и воспользоваться NGS-модулями в Node, которые являются proposal, но совсем скоро станут стандартом. Потому что это противоестественно иметь в мире JavaScript две системы управления модулями: одну с Require, вторую с импортами. Хочется везде писать импорты. И тут вы обнаруживаете, что Jest c NGS-модулями бессилен, потому что нодовцы решили строго следовать спецификации, и подменять импорты нельзя в принципе. То есть результат вычисления импорта является замороженным объектом, который разморозить нельзя. В итоге, после боли и страданий вы приходите к тому, к чему пришли другие языки программирования много-много лет назад. Вы понимаете, что вам нужен паттерн Inversion of Control и желательно какой-нибудь Dependency Injection-контейнер. IoC/DI ------ Причём, как вы понимаете, эта философия уже давно есть на фронтенде. Angular целиком построен вокруг философии IoC/DI. В React сам господин Абрамов… кстати, знаете, почему React круче Vue? Потому что сайт [dan.church](https://dan.church) зареган, а сайта evan.church пока нет. Так вот, Абрамов говорил, что контекст в React является по сути реализацией паттерна Dependency Injection, позволяет вам добавлять в контекст какие-то зависимости и вытягивать их на уровни ниже. В самом Vue даже слова называются inject и provide. То есть на фронте этот паттерн уже давно присутствует в неявном виде. Что касается бэкенда, у нас тоже начинают появляться вещи, которые реализуют это. К примеру, [NestJS](https://nestjs.com). Я использую [InversifyJS](http://inversify.io). Он построен с любовью к TypeScript, что, впрочем, не мешает ему работать с использованием обычного JavaScript. И тут мы упираемся в то, что наша экосистема все еще недостаточно взрослая. ![](https://habrastorage.org/r/w1560/webt/h1/vv/vo/h1vvvodkm_2eaql6jpp3gvkucom.png) Код на Typescript, взят из документации Inversify. Посмотрим на конструктор кода, в котором мы говорим: [inject](https://habr.com/ru/users/inject/)(TYPES.Weapon) katana: Weapon. Как вы думаете, на каком этапе будет проверяться, что объект типа TYPES.Weapon удовлетворяет классу Weapon? Ответ — никогда. Грубо говоря, если вы опечатаетесь в том, что вы вставляете в объект, хвалёный TypeScript (хваленый Flow поведет себя точно так же) не сможет никак это проверить, потому что процедура inject и весь dependency injection работает в runtime, а там информации о типах почти нет. Что значит «почти нет»? Если вы будете использовать Weapon не как интерфейс, а как абстрактный класс, TypeScript сможет это проверить, потому что у нас есть абстрактные классы. Абстрактные классы в TypeScript компилируются в классы, а классы являются first-class citizen в JavaScript, они остаются после компиляции. А вот интерфейсы являются эфемерными сущностями, которые испаряются, и в runtime у вас уже не будет никакой информации о том, что элемент katana должен удовлетворять интерфейсу Weapon. И это проблема. В каком-нибудь C++, который существует больше лет, чем я живу, существует RTTI: run-time type information, позволяющий во время выполнения получать информацию о том, как это работает. В C# и Java есть reflection, тоже позволяющий получать необходимую информацию. Разработчики TypeScript, у которых есть отдельный раздел «что мы НЕ будем реализовывать», сказали, что не намерены предоставлять никакие инструменты для RTTI. Доходит до смешного. Пятнадцать секунд инсайдов. Разработчики Vue переписывают Vue 3 на TypeScript, и обнаружили, что подход Vue несовместим с философией TypeScript настолько, что они попросили Microsoft: «А можно, мы напишем свой плагин к TypeScript, чтобы это работало?» Те, кто пишет на Vue, поймут: когда вы в компонент передаёте props, они магически появляются на this. Очевидно, что тип передаваемых props и тип объектов, появляющихся на this, должен быть одинаковым. Но в TypeScript вы не можете это ни проверить, ни описать. Сюрприз. Разработчики Microsoft отказали, а то знаем мы вас: сейчас разрешим Vue это сделать, потом потянется Angular, у которых очень давно болит от этого. Им же свой компилятор пришлось дописывать, чтобы нормально обойти ограничения TypeScript. Потом подтянется React, и у нас получится не система типизации, а непонятно что. Но тем не менее, проблема все еще остается. Как ни странно, мне в этом плане импонирует Dart, который имеет mirrors, работающие везде, кроме Flutter. Даже если не доступны mirrors, есть инструменты, с которыми можно через кодогенерацию на этапе компиляции вытащить всю необходимую информацию, сохранить её и всё ещё получить получить доступ в рантайме. Такое же решение я сейчас пилю для Inversify, чтобы использовать Babel-плагин, который в процессе компиляции, когда ещё есть типы, вытягивает информацию, генерит определенные runtime-проверки, чтобы гарантировать, что всё хорошо работает. Последняя ремарка о незрелости экосистемы: вообще с типами у нас всё очень плохо и странно. Вот у нас типизированный код. Он содержит информацию, с какими параметрами будет вызываться функция, с какими аргументами, какие типы возвращаемых значений. И всё это мы выкидываем для того, чтобы V8 после запуска начал делать то же самое. V8 начинает собирать информацию о типах, потому что она фундаментально важна для работы оптимизирующего компилятора. Более того, есть определённые инструменты, которые позволяют вытащить из V8, если собрать его с определёнными патчами, информацию о типах, которую он собрал. Очень забавно сравнивать выводы в типах, которые получились в V8 и выводы, которые были у вас в TypeScript. Но с точки зрения любого нормального языка программирования это дико. Мы выкидываем информацию, которая у нас есть, чтобы потом героически её собирать. Правило надежности #3: должно быть проще писать «правильный» код, чем «неправильный» ------------------------------------------------------------------------------------ Когда я говорю о словах «правильный» или «неправильный» код, в данном контексте, «правильный» — это код, который устраивает команду. В каждой команде есть определённые конвенции и соглашения, особенно это важно во фреймворках типа Vue, где одну задачу можно решить множеством путей. Кто-то использует слоты, кто-то передаёт props’ами функцию и так далее. Здесь всеми красками сияет кодогенерация. Кто использует typed-css-modules? О чём идёт речь: вы пишете CSS, потом подключаете его в CSS Modules, а потом обращаетесь к конкретным полям полученного объекта. ![](https://habrastorage.org/r/w1560/webt/18/h9/fq/18h9fqupckf_zd2eiolcp5hp2iq.png) Существует готовое решение [typed-css-modules](https://github.com/Quramy/typed-css-modules), которое с помощью кодогенерации позволит проверить, что вы обращаетесь классом css-файла, который там точно есть. Я за последний год участвовал в 12 проектах в качестве консультанта, которые использовали CSS-модули и существовали по крайней мере, полгода. И в 11 из 12 я нашел на сгенерированной странице класс undefined, потому что CSS-стили развивались, изменялись и так далее, а в итоге радостно подключается из объекта стилей класс, которого не существует, и получается undefined, бывает. ![](https://habrastorage.org/r/w1560/webt/ye/6z/ce/ye6zceducqaloagkziotyb0imj8.png) Yeoman хорошо известен всем, но проблема его и всего подобного инструментария в том, что попытка построить слишком общий инструмент для кодогенерации приводят к тому, что он почти бесполезен в частных случаях. Чтобы применить его для конкретного проекта, приходится очень много думать, страдать и пытаться. Поэтому мне гораздо больше импонирует инициатива Angular CLI, которая называет Blueprints (чёрт, я два года хаял Angular, а через два дня на GDG SPB буду рассказывать, какой он классный, и как я его полюбил). ![](https://habrastorage.org/r/w1560/webt/tw/jg/do/twjgdowdxvmve9mg3atzsjybwyu.png) Эта инициатива позволяет вам эффективно в контексте Anguar описать для того, как должны выглядеть ваши сервисы, компоненты и прочее. Всё это целиком позволяет эффективно построить работу команды с минимальным количеством усилий со стороны тимлида на старте проекта. Ещё один пример, когда «правильный» код проще писать, чем «неправильный» — это хорошие, большие фреймворки. Вообще эталонный пример, когда «правильный» код писать проще — функциональное программирование. Как только вы познали дао функционального программирования, поняли, что такое монада, попутно лишившись возможности объяснить это остальным, вы понимаете, что в функциональном стиле вы или пишете правильный код, или он у вас не получается вовсе. Другое дело, что там порог входа — проще повеситься. У меня в команде есть junior’ы, и они важны мне для того, чтобы не терять отрыв от реальности, понимать, как вообще в реальном мире люди пишут код. Поэтому, к примеру, React-хуки не стали брать концепцию чистого функционального программирования. Они долго и мучительно искали компромисс, который, с одной стороны был бы близок к функциональному программированию, и мы могли бы использовать какой-нибудь ESLInt, чтобы кое-что допроверить, а с другой стороны, которые были бы понятны большинству простых смертных. Когда фреймворк навязывает вам, как делать задачи, это очень круто. Когда мы говорим о бэкенде, примерами таких фреймворков являются [NestJS](https://nestjs.com) и [Sails.js](https://sailsjs.com). ![](https://habrastorage.org/r/w1560/webt/nf/2i/lb/nf2ilb8j60ed9k2dcamrhrplpfo.png) Казалось бы, и тот и другой фреймворк, решают одну и ту же задачу, они навязывают конкретную архитектуру, и описывают, как вы должны решать то-то и то-то. Я не буду сейчас критиковать Sails за совершенно убогую ORM, которая идет в комплекте. Waterline — это первая штука, которую все выбрасывают. Но проблема в том, что при всем этом Sails.js обеспечивает слишком много магии. Вы можете делать blueprint контроллеров, из которых потом генерируется куча магических свойств и вещей. Это не просто работает медленно, а архимедленно, причем это дико сложно отлаживать другим. ![](https://habrastorage.org/r/w1560/webt/nt/ub/pg/ntubpgyvn13wei3p33cghdvswn0.png) А вот если мы говорим о Nest, то здесь отличный компромисс — фреймворк просто дает компоненты, каждый из которых необязательно использовать. У вас есть Dependency Injection, который лежит в основе всего, и есть правило описания контроллеров middleweight и так далее. Но при случае каждый элемент является легко заменяемым. Каждый раз, когда вы хотите понять, является ли система достаточно безопасной, для того, чтобы играться с ней вдолгую, задайте себе один простой вопрос: «Смогу ли я заменить какой-то компонент системы в случае надобности?» Если мы говорим об Angular, то — да, у нас есть огромное количество хорошо подогнанных компонентов друг к другу, но если мы не берем механизм dependency injection, который является фундаментом, всё абсолютно взаимозаменяемо. Если мы берём какой-нибудь Vue (извините, сегодня получается лёгкий хейт в его сторону), то обнаружим, что за пределами экосистемы мейнстрима Vue начинается выжженная земля. Никто не пилит ничего за пределами экосистемы Vue, поэтому если вы будете выбирать что-то из этих двух вещей, вывод достаточно очевиден — берите Nest. Он крутой, мне очень нравится, куда он развивается, несмотря на то, что TypeScript. ![](https://habrastorage.org/r/w1560/webt/ea/ua/3b/eaua3b85i-gqubkacbxmnezw1li.png) Почему так: общее ----------------- Парочка общих актуальных вещей, которые актуальны не только для JavaScript. Если вы пришли в наш мир из другого, нормального языка программирования, вам всё это очевидно, но пробежимся, потому что об этом не стоит забывать, а на фундаментальном уровне постоянно забывают. Первое — кроме тестирования, о котором я специально почти ничего не сказал, потому что все понимают, что нужно писать тесты, и все понимают, что делать это некогда: хренак-хренак и в продакшн. Когда у вас есть хоть сколько-нибудь серьёзный продакшн, связанный с потерей денег — нужно мерить метрики. ![](https://habrastorage.org/r/w1560/webt/tj/xo/lb/tjxolbyxbbbo3wkoc1uatgymvum.png) Мы используем Grafana, мне очень нравится, но что вы выберете — абсолютно неважно. Я был свидетелем, когда платформа для создания чат-ботов не учла один интересный сценарий, который позволял зациклить бота. Поскольку каждая его фраза обращалась к speech recognition API от Microsoft, к тому моменту, когда обнаружили ошибку, счёт составлял порядка 20 тысяч долларов. Бот пытался распознать фразу, распознавал, уходил в ошибку, начинал заново пытаться сделать что-то. ![](https://habrastorage.org/r/w1560/webt/x9/ei/qi/x9eiqij5bshqlbginz5mhljvvs8.png) Следующий важный пункт: CI/CD. Нам нравится GitLab, но это дело вкуса, у каждого свои впечатления. Но сейчас GitLab, по моим ощущениям, это наиболее JavaScript-friendly environment с точки зрения понимания, как это работает, что с этим делать и так далее. В первых рядах начали смотреть часы. Знаете, при задержавшихся гостях взгляд будет гораздо красноречивее, если перевести его с часов на висящее рядом ружьё… Не переживайте, осталось чуть-чуть. ![](https://habrastorage.org/r/w1560/webt/mh/em/4t/mhem4twe6k_mqbnbzr56yak2cjw.png) Blue/Green deployment: Если у вас хоть сколько-нибудь важный сервис или микросервис, задумайтесь о том, чтобы держать в облаке два инстанса. Если эти слова вам незнакомы, загуглите, потом сможете продать себя подороже! Что мы имеем в итоге -------------------- * Экосистема JavaScript очень юная, и это открывает очень большие возможности тем, кто хочет круто хайпануть. Вы берете любой другой язык программирования, ищете, как та или иная проблема решена в нём, перекладываете решение на JavaScript и гребёте звездочки на GitHub. Рецепт рабочий — я так сам, конечно, не делал, но тем не менее. * Обеспечение надёжности JavaScript упирается в то, что разработчики не хотят переучиваться (особенно актуально для аутсорсинговых компаний, где мотивация разработчиков ниже продуктовых). Есть отличная фраза Андрея Листочкина «Хорошо не жили, нечего и начинать». Необходимость построения надёжного кода требует полного изменения подхода к тому, как этот код пишется. Одно внедрение DI требует кардинального изменения в философии, вида «Где же мои уютненькие импорты?» * Язык и низлежащая экосистема не готовы полностью к написанию надёжного кода, что бы вы не выбрали. Выберите TypeScript, Flow, даже если выберете Rizen — вы столкнётесь с тем, что рано или поздно настигнет runtime exception, который вы не сумеете обработать, и так далее. Чтобы этого не происходило, ваша задача — максимально облегчить работу ревьювера на пулл-реквестах, потому что последним звеном в обеспечении надёжности всегда будет оставаться человек. > Если вам понравился этот доклад с HolyJS, обратите внимание: в следующий раз HolyJS состоится **24-25 мая в Петербурге**. Среди спикеров — например, Мишель Вестстрате (создатель MobX) и Алексей Козятинский (работает в команде Chrome DevTools). Вся актуальная информация и билеты — [на сайте](http://holyjs-piter.ru/?utm_source=habr&utm_medium=439612).
https://habr.com/ru/post/439612/
null
ru
null
# Протокольно ориентированное программирование, часть 3 Завершающая статья на тему протокольно ориентированного программирования. В этой части мы рассмотрим как переменные обобщенного типа хранятся и копируются и как с ними работает метод dispatch. Необобщенная версия ------------------- ``` protocol Drawable { func draw() } func drawACopy(local: Drawable) { local.draw() } let line = Line() drawACopy(line) let point = Point() drawACopy(point) ``` Очень простой код. `drawACopy` принимает параметр типа Drawable и вызывает его метод draw — это все. Обобщенная версия ----------------- Давайте рассмотрим обобщенную версию кода выше: ``` func drawACopy(local: T) { local.draw() } ... ``` Кажется, ничего не изменилось. Мы все еще можем просто вызвать функцию `drawACopy`, как ее необобщенную версию, и ничего больше, но самое интересное как обычно под капотом. Обобщенный код имеет две важные особенности: 1. статический полиморфизм (также известный как параметрический) 2. определенный и единственный тип в контексте вызова (обобщенный тип Т определен во время компиляции) Рассмотрим это на примере: ``` func foo(local: T) { bar(local) } func bar(local: T) { ... } let point = Point(...) foo(point) ``` Самая интересная часть начинается, когда мы вызываем функцию `foo`. Компилятор точно знает тип переменной `point` — это просто Point. Более того, тип T: Drawable в функции `foo` может свободно выводиться компилятором с того момента, как мы передаем переменную известного типа Point этой функции: T = Point. Все типы известны во времени компиляции и компилятор может выполнить все его замечательные оптимизации — самое важное — это встроить(inline) вызов `foo`. ``` This: ```swift let point = Point(...) foo(point) Becomes this: ```swift bar(point) ``` Компилятор просто встраивает вызов `foo` его реализацией и выводит обобщенный тип T: Drawable bar'а тоже. Иными словами, сперва компилятор встраивает вызов метода foo с типом T = Point, затем уже встраивает результат прошлого встраивания — метод bar с типом T = Point. Реализация обобщенных методов ----------------------------- ``` func drawACopy(local: T) { local.draw() } drawACopy(Point(...)) ``` Внутри `drawACopy` Swift использует протокольно-методную таблицу (которая содержит все реализации метода Т) и таблицу жизненного цикла (которая содержит все методы жизненного цикла для экземпляра Т). В псевдокоде это смотрится так: ``` func drawACopy(local: T, pwt: T.PWT, vwt: T.VWT) {...} drawACopy(Point(...), Point.pwt, Point.vwt) ``` VWT и PWT являются ассоциированными типами (associatedtype) у T — как псевдонимы типов (typealias), только лучше. Point.pwt и Point.vwt — статические свойства. Так как в нашем пример Т — это Point, то Т хорошо определена, следовательно, не требуется создание контейнера. В предыдущей необобщенной версии `drawACopy`(local: Drawable) создание экзистенциального контейнера было осуществлено по необходимости — это мы изучили во второй части статьи. Таблица жизненного цикла требуется в функциях из-за создания аргумента. Как мы знаем, аргументы в Swift передаются через значения, а не через ссылки, следовательно, они должны быть скопированы, и метод copy для этого аргумента принадлежит таблице жизненного цикла типа этого аргумента. Также там находятся другие методы жизненного цикла: allocate, destruct и deallocated. Таблица жизненного цикла требуется в обобщенных функциях из-за использования методов для параметров обобщенного кода. Обобщенный или необобщенный? ---------------------------- Правда ли, что использование обобщенных типов делает выполнение кода быстрее чем использование только протокольных типов? Быстрее ли обобщенная функция `func foo(arg: T)` чем ее "протокольный" аналог `fun foo(arg: Drawable)`? Мы заметили, что обобщенный код дает более статическую форму полиморфизма. Также это включает оптимизацию компилятора, называемую "Специализация обобщенного кода". Давайте посмотрим: Опять мы имеем тот же код: ``` func drawACopy(local: T) { local.draw() } drawACopy(Point(...)) drawACopt(Line(...)) ``` Специализация обобщенной функции создает копию со специализированными обобщенными типами этой функции. К примеру, если мы вызываем `drawACopy` с переменной типа Point, то компилятор создаст специализированную версию этой функции — `drawACopyOfPoint`(local: Point), и мы получаем: ``` func drawACopyOfPoint(local: Point) { local.draw() } func drawACopyOfLine(local: Line) { local.draw() } drawACopy(Point(...)) drawACopt(Line(...)) ``` Что может быть сокращено грубой оптимизацией компилятора до этого: ``` Point(...).draw() Line(...).draw() ``` Все эти ухищрения доступны потому что обобщенные функции могут быть вызваны только если все обобщенные типы определены — в методе `drawACopy` обобщенный тип (T) отлично определен. Обобщенные хранимые свойства ---------------------------- Рассмотрим простую struct Pair: ``` struct Pair { let fst: Drawable let snd: Drawable } let pair = Pair(fst: Line(...), snd: Line(...)) ``` Когда мы используем это таким способом, мы получаем 2 аллокации на куче (точное состояния памяти при таком сценарии были описаны во второй части), но мы можем избежать этого с помощью обобщенного кода. Обобщенная версия Pair выглядит так: ``` struct Pair { let fst: T let snd: T } ``` С момента, когда тип Т определен в обобщенной версии, типы свойств `fst` и `snd` одинаковы и тоже определены. Так как тип определен, компилятор может распределить специализированное количество памяти этих двух свойств — `fst` и `snd`. Более детально о специализированном количестве памяти: когда мы работаем с необобщенной версией `Pair`, типы свойств `fst` и `snd` есть Drawable. Любой тип может соответствовать Drawable, даже если это занимает 10 Kб памяти. То есть Swift не сможет сделать вывод о размере этого типа и будет использовать универсальное расположение памяти, например экзистенциальный контейнер. Любой тип может хранится в этом контейнере. В случае обобщенного кода тип хорошо узнаваем, действительный размер свойств тоже узнаваем, и Swift может создать специализированное расположение памяти. Например (обобщенная версия): ``` let pair = Pair(Point(...), Point(...)) ``` Тип Т сейчас — Point. Point берет N байтов памяти и в Pair мы получаем два из них. Swift выделит 2 \* N количество памяти и поместит `pair`туда. Итак, с обобщенной версией Pair мы избавляемся от лишних аллокаций на куче, потому что типы легко узнаваемы и могут располагаться конкретно — без необходимости создания универсальных шаблонов памяти, так как все известно. Заключение ---------- ### 1. Специализированный обобщенный код — Типы значений имеет лучшую скорость выполнения, так как: * нет размещения на куче при копировании * обобщенный код — вы пишете функцию для специализированного типа * нет подсчета ссылок * статическая отправка методов ### 2. Специализированный обобщенный код — ссылочные типы имеет среднюю скорость выполнения, так как: * аллокации на кучу при создании экземпляра * есть подсчет ссылок * динамическая отправка методов через виртуальную таблицу ### 3. Неспециализированный обобщенный код — маленькие значения * нет размещения на куче — значение помещается в буферу значений экзистенциального контейнера * нет подсчета ссылок (так как ничего не размещается на куче) * динамическая отправка методов через протокольно-методную таблицу ### 4. Неспециализированный обобщенный код — большие значения * размещение на heap — значение помещается в буфер значений * есть подсчет ссылок * динамический dispatch через протокольно-методную таблицу Данный материал не говорит о том, что классы плохие, структуры хорошие, а структуры в сочетании с обобщенным кодом — лучшие. Мы хотим сказать, что как у программиста, у вас есть ответственность выбора инструмента для ваших задач. Классы действительно хороши, когда вам нужно сохранить большие значения и чтобы была семантика ссылок. Структуры — лучшие для маленьких значений и когда вам нужна их семантика. Протоколы лучше всего подходят к обобщенному коду и структурам, и так далее. Все инструменты специфичны для задачи, которую вы решаете, и имеют положительные и отрицательные стороны. А также **не платите за динамизм, когда он вам не нужен**. Подберите подходящую абстракцию с наименьшими требованиями к времени выполнения. * структурные типы — семантика значений * классовые типы — идентичность * обобщенный код — статический полиморфизм * протокольные типы — динамический полиморфизм Используйте непрямое хранение, чтобы работать с большими значениями. И не забывайте — это ваша ответственность — выбирать правильный инструмент. Спасибо за внимание к данной теме. Надеемся, что эти статьи вам помогли и были интересны. **Удачи!**
https://habr.com/ru/post/474830/
null
ru
null
# Введение в GitOps для OpenShift Сегодня мы расскажем о принципах и моделях GitOps, а также о том, как эти модели реализуются на платформе OpenShift. Интерактивное руководство на эту тему доступно [по ссылке](https://learn.openshift.com/introduction/gitops-introduction/?extIdCarryOver=true&sc_cid=701f2000001OH74AAG). ![](https://habrastorage.org/r/w780q1/webt/sk/g4/vk/skg4vkilbd51gs_dk6vk3-emy2o.jpeg) Если вкратце, то GitOps – это набор практических методов использования pull-запросов Git для управления конфигурациями инфраструктуры и приложений. Git-репозиторий в рамках GitOps рассматривается как один единственный источник сведений о состоянии системы, причем любые изменения этого состояния полностью отслеживаются и поддаются аудиту. Идея с отслеживаемостью изменений в GitOps отнюдь не нова, такой подход уже давно и практически повсеместно применяется при работе с исходным кодом приложений. GitOps просто реализует аналогичные функции (review-проверки, pull-запросы, теги и т. д.) при управлении конфигурациями инфраструктуры и приложений и дает аналогичные преимущества, как в случае управления исходным кодом. Для GitOps нет какого-то академического определения или утвержденного свода правил, лишь свод принципов, на которых строится эта практика: * Декларативное описание системы хранится в репозитории Git (конфиги, мониторинг и т. д). * Изменения состояния выполняются через pull-запросы. * Состояние работающих систем приводится в соответствие с данными в репозитории с помощью push-запросов Git. ### Принципы GitOps * **Определения систем описываются как исходный код** Конфигурация систем рассматривается как код, поэтому ее можно хранить и автоматически версионировать в репозитории Git, который служит единственным источником истины. Такой подход позволяет легко накатывать (rollout) и откатывать (rollback) изменения в системах. * **Желаемое состояние и конфигурация систем задаются и версионируются в Git** Храня и версионируя в Git желаемое состояние систем, мы получаем возможность легко накатывать и откатывать изменения в системах и приложениях. Также мы можем использовать Git'овские механизмы безопасности для контроля владения кодом и подтверждения его подлинности. * **Изменения в конфигурациях могут автоматически применяться с помощью pull-запросов** Используя Git’овские pull-запросы, мы можем легко управлять тем, как изменения применяются к конфигурациям в репозитории. Например, их можно отдать на проверку другим участникам команды или прогнать через тесты CI и пр. И при этом не нужно раздавать админские полномочия направо и налево. Чтобы выполнить commit изменений в конфигурации, пользователи достаточно соответствующих полномочий в репозитории Git, где хранятся эти конфигурации. * **Устранение проблемы неконтролируемого дрифта конфигураций** Когда желаемое состояние системы хранится в репозитории Git, нам остается только найти софт, который бы контролировал, что текущее состояние системы соответствует ее желаемому состоянию. Если это не так, то этот софт должен – в зависимости от настроек – либо самостоятельно устранить несоответствие, либо уведомить нас о дрифте конфигураций. ### Модели GitOps для OpenShift #### On-Cluster Resource Reconciller Согласно этой модели в кластере есть контроллер, который отвечает за сравнение Kubernetes-ресурсов (файлов YAML) в Git-репозитории с реальными ресурсами кластера. При выявлении расхождений контроллер рассылает уведомления и, возможно, принимает меры для устранения несоответствий. Эта модель GitOps используется в Anthos Config Management и Weaveworks Flux. ![](https://habrastorage.org/r/w1560/webt/lh/c9/p2/lhc9p2tphyarqpe6jrsh10fgo7e.png) #### External Resource Reconciler (Push) Эту модель можно рассматривать как разновидность предыдущей, когда у нас есть один или несколько контроллеров, отвечающих за синхронизацию ресурсов в парах «репозиторий Git – кластер Kubernetes». Отличие же здесь в том, что в каждом управляемом кластере необязательно должен быть свой отдельный контроллер. Пары «Git – кластер k8s» часто определяются как CRD-описания (custom resources definition), в которых можно описать, как контроллер должен выполнять синхронизацию. В рамках этой модели контроллеры сравнивают Git-репозиторий, заданный в CRD, с ресурсами кластера Kubernetes, которые тоже заданы в CRD, и выполняют соответствующие действия по результатам сравнения. В частности, такая модель GitOpsиспользуется в ArgoCD. ![](https://habrastorage.org/r/w1560/webt/zw/51/ip/zw51ipo5hqcn8ccnc8vfqkqbc88.png) ### GitOps на платформе OpenShift #### Администрирование мультикластерной Kubernetes-инфраструктуры С распространением Kubernetes и ростом популярности мультиоблачных стратегий и периферийных вычислений (edge computing) увеличивается и среднее количество кластеров OpenShift в расчете на одного заказчика. Например, при использовании периферийных вычислений кластеры одного заказчика могут развертываться сотнями и даже тысячами. В результате он вынужден управлять несколькими независимыми или согласованными кластерами OpenShift в публичном облаке и on-premise. При этом приходится решать массу проблем, в частности: * Контролировать, что кластеры находятся в идентичном состоянии (конфиги, мониторинг, хранилища и т. д.) * Повторно создавать (или восстанавливать) кластеры по известному состоянию. * Создавать новые кластеры по известному состоянию. * Накатывать изменения на нескольких кластерах OpenShift. * Откатывать изменений на нескольких кластерах OpenShift. * Увязывать шаблонизированные конфигураций с различными средами. #### Конфигурации приложения В ходе своего жизненного цикла приложения часто проходят через цепочку кластеров (dev, stage и т. д.), прежде чем попасть в продакшн-кластер. Кроме того, из-за требований доступности и масштабируемости заказчики часто развертывают приложения сразу на нескольких кластерах on-premise или в нескольких регионах публичной облачной платформы. При этом приходится решать следующие задачи: * Обеспечивать движение приложений (бинарники, конфиги и т. д) между кластерам (dev, stage и т. д.). * Накатывать изменения в приложениях (бинарники, конфиги и т. д) в нескольких кластерах OpenShift. * Откатывать изменения в приложениях до уровня предыдущей известного состояния. ### Сценарии использования OpenShift GitOps #### 1. Применение изменений из Git-репозитория Администратор кластера может хранить конфигурации кластера OpenShift в Git-репозитории и автоматически применять их, чтобы без лишних усилий создавать новые кластеры и приводить их в состояние, идентичное известному состоянию, которое хранится в Git-репозитории. #### 2. Синхронизация с Secret Manager Админу также пригодится возможность синхронизировать secret-объекты OpenShift с соответствующим ПО наподобие Vault, чтобы управлять ими с помощью специально созданных для этого инструментов. #### 3. Контроль дрифта конфигураций Админ будет только за, если OpenShift GitOps будет сам выявлять и предупреждать о расхождениях между реальными конфигурациями и теми, что заданы в репозитории, чтобы можно было оперативно реагировать на дрифт. #### 4. Уведомления о дрифте конфигураций Пригодятся в том случае, когда админ хочет оперативно узнавать о случаях дрифта конфигураций, чтобы быстро принимать соответствующие меры самостоятельно. #### 5. Ручная синхронизация конфигураций при дрифте Позволяет админу синхронизировать кластер OpenShift с репозиторием Git в случае дрифта конфигураций, чтобы быстро вернуть кластер к предыдущему известному состоянию. #### 6.Автосихронизация конфигураций при дрифте Админ также может настроить кластер OpenShift на автоматическую синхронизацию с репозиторием при обнаружении дрифта, чтобы конфигурация кластера всегда соответствовала конфигами в Git’е. #### 7. Несколько кластеров – один репозиторий Админ может хранить в одном репозитории Git конфигурации сразу нескольких различных кластеров OpenShift и выборочно применять их по мере надобности. #### 8. Иерархия кластерных конфигураций (наследование) Админ может задать иерархию кластерных конфигураций в репозитории (stage, prod, app portfolio и т. д с наследованием). Иначе говоря, он может определять, как должны применяться конфигурации – к одному или к нескольким кластерам. Например, если админ задает в Git репозитории иерархию «Продакшн кластеры (prod) → Кластеры системы X → Продакшн кластеры системы X», то к продакшн-кластерам системы X применяется объединение следующих конфигов: * Конфиги, общие для всех продакшн-кластеров. * Конфиги для кластера системы X. * Конфиги для продакшн-кластера системы X. #### 9. Шаблоны и переопределение конфигураций Админ может переопределить набор унаследованных конфигов и их значений, например, чтобы тоньше настроить конфигурацию для определенных кластеров, к котором они будут применяться. #### 10. Избирательные include’ы и exclude’ы для конфигураций, конфигурации приложений Админ может задать условия применения или неприменения тех или иных конфигураций к кластерам с определенными характеристиками. #### 11. Поддержка шаблонов Разработчикам пригодится возможность выбирать, как будут определяться ресурсы приложения (Helm Chart, чистый Kubernetes’овский yaml и т. д), чтобы использовать наиболее подходящий формат для каждого конкретного приложения. ### Инструменты GitOps на платфомре OpenShift #### ArgoCD ArgoCD реализует модель External Resource Reconcile и предлагает централизованный UI для оркестрации отношений между кластерами и Git-репозиториями по схеме «один ко многим». К недостаткам этой программы можно отнести невозможность управлять приложениями при неработающем ArgoCD. [Официальный сайт](https://argoproj.github.io/argo-cd/) #### Flux Flux реализует модель On-Cluster Resource Reconcile, и, как следствие, здесь нет централизованного управления репозиторием определений, что является слабым местом. С другой стороны, именно из-за отсутствия централизации возможность управлять приложениями сохраняется и при выходе из строя одного кластера. [Официальный сайт](https://fluxcd.io/) ### Установка ArgoCD на OpenShift ArgoCD предлагает отличный интерфейс командной строки и веб-консоль, поэтому здесь мы не будем рассматривать Flux и другие альтернативы. Чтобы развернуть ArgoCD на платформе OpenShift 4, выполните следующие шаги в качестве администратора кластера: #### Развертывание компонентов ArgoCD на платформе OpenShift ``` # Create a new namespace for ArgoCD components oc create namespace argocd # Apply the ArgoCD Install Manifest oc -n argocd apply -f https://raw.githubusercontent.com/argoproj/argo-cd/v1.2.2/manifests/install.yaml # Get the ArgoCD Server password ARGOCD_SERVER_PASSWORD=$(oc -n argocd get pod -l "app.kubernetes.io/name=argocd-server" -o jsonpath='{.items[*].metadata.name}') ``` #### Доработка ArgoCD Server, чтобы его видел OpenShift Route ``` # Patch ArgoCD Server so no TLS is configured on the server (--insecure) PATCH='{"spec":{"template":{"spec":{"$setElementOrder/containers":[{"name":"argocd-server"}],"containers":[{"command":["argocd-server","--insecure","--staticassets","/shared/app"],"name":"argocd-server"}]}}}}' oc -n argocd patch deployment argocd-server -p $PATCH # Expose the ArgoCD Server using an Edge OpenShift Route so TLS is used for incoming connections oc -n argocd create route edge argocd-server --service=argocd-server --port=http --insecure-policy=Redirect ``` #### Развертывание ArgoCD Cli Tool ``` # Download the argocd binary, place it under /usr/local/bin and give it execution permissions curl -L https://github.com/argoproj/argo-cd/releases/download/v1.2.2/argocd-linux-amd64 -o /usr/local/bin/argocd chmod +x /usr/local/bin/argocd ``` #### Смена админского пароля ArgoCD Server ``` # Get ArgoCD Server Route Hostname ARGOCD_ROUTE=$(oc -n argocd get route argocd-server -o jsonpath='{.spec.host}') # Login with the current admin password argocd --insecure --grpc-web login ${ARGOCD_ROUTE}:443 --username admin --password ${ARGOCD_SERVER_PASSWORD} # Update admin's password argocd --insecure --grpc-web --server ${ARGOCD_ROUTE}:443 account update-password --current-password ${ARGOCD_SERVER_PASSWORD} --new-password ``` После выполнения этих шагов с ArgoCD Server можно работать через веб-консоль ArgoCD WebUI или инструментарий командной строки ArgoCD Cli. <https://blog.openshift.com/is-it-too-late-to-integrate-gitops/> ### GitOps – никогда не поздно «Поезд ушел» – так говорят о ситуации, когда возможность что-то сделать упущена. В случае с OpenShift желание тут же начать использовать эту новую классную платформу часто создает именно такую ситуацию с управлением и обслуживанием маршрутов, deployment’ов и других объектов OpenShift. Но всегда ли шанс окончательно упущен? Продолжая серию статей о [GitOps](https://blog.openshift.com/introduction-to-gitops-with-openshift/), сегодня мы покажем, как преобразовать созданное вручную приложение и его ресурсы в некий процесс, где всем управляет инструментарий GitOps. Для этого мы сначала руками развернем приложение httpd. На скрине ниже показано, как мы создаем пространство имен, deployment и сервис, а потом делаем expose для этого сервиса, чтобы создать маршрут. ``` oc create -f https://raw.githubusercontent.com/openshift/federation-dev/master/labs/lab-4-assets/namespace.yaml oc create -f https://raw.githubusercontent.com/openshift/federation-dev/master/labs/lab-4-assets/deployment.yaml oc create -f https://raw.githubusercontent.com/openshift/federation-dev/master/labs/lab-4-assets/service.yaml oc expose svc/httpd -n simple-app ``` Итак, у нас есть созданное вручную приложение. Теперь его надо перевести под управление GitOps без потери доступности. Вкратце, это делает так: * Создаем Git-репозиторий для кода. * Экспортируем наши текущие объекты и загружаем их в репозиторий Git. * Выбираем и развертываем инструментарий GitOps. * Добавляем в этот инструментарий наш репозиторий. * Определяем приложение в нашем инструментарии GitOps. * Выполняем пробный запуск приложения, используя инструментарий GitOps. * Синхронизируем объекты с помощью инструментария GitOps. * Включаем очистку (pruning) и автосинхронизацию объектов. Как уже говорилось в предыдущей [статье](https://blog.openshift.com/introduction-to-gitops-with-openshift/), в GitOps есть один и только один источник сведений обо всех объектах в кластере(ах) Kubernetes – репозиторий Git. Далее мы исходим из предпосылки, что у вас в организации уже используется Git-репозиторий. Он может быть публичным или частным, но он в обязательном порядке должен быть доступен кластерам Kubernetes. Это может быть тот же самый репозиторий, что и для кода приложений, или же отдельный репозиторий, созданный специально для deployment’ов. В репозитории рекомендуется иметь строгие разрешения, поскольку там будут храниться объекты secret, маршруты и другие чувствительные по безопасности вещи. В нашем примере мы создадим новый публичный репозиторий на GitHub. Назвать его можно как угодно, мы используем имя blogpost. Если YAML-файлы объектов не хранились локально или в Git'е, то придется воспользоваться бинарниками oc или kubectl. На скрине ниже мы запрашиваем YAML для нашего пространства имен, deployment’а, сервиса и маршрута. Перед этим мы клонировали только что созданный репозиторий и перешли в него командой cd. ``` oc get namespace simple-app -o yaml --export > namespace.yaml oc get deployment httpd -o yaml -n simple-app --export > deployment.yaml oc get service httpd -o yaml -n simple-app --export > service.yaml oc get route httpd -o yaml -n simple-app --export > route.yaml ``` Теперь поправим файл deployment.yaml, чтобы удалить из него поле, которое Argo CD не может синхронизировать. ``` sed -i '/\sgeneration: .*/d' deployment.yaml ``` Кроме того, надо изменить маршрут. Сначала мы зададим многострочную переменную, а затем заменим ingress: null на содержимое этой переменной. ``` export ROUTE=" ingress:\\ - conditions:\\ - status: 'True'\\ type: Admitted" sed -i "s/ ingress: null/$ROUTE/g" route.yaml ``` Так, с файлами разобрались, осталось сохранить их в Git-репозиторий. После чего этот репозиторий становится одним-единственным источником сведений, и любые ручные изменения объектов должны быть строго запрещены. ``` git commit -am ‘initial commit of objects’ git push origin master ``` Далее мы исходим из того, что ArgoCD у вас уже развернут (как это сделать – см. предыдущий [пост](https://blog.openshift.com/introduction-to-gitops-with-openshift/)). Поэтому добавим в Argo CD созданный нами репозиторий, содержащий код приложения из нашего примера. Только убедитесь, что указываете именно тот репозиторий, который создали ранее. ``` argocd repo add https://github.com/cooktheryan/blogpost ``` Теперь создаем приложение. Приложение задает значения, чтобы инструментарий GitOps понимал, какой репозиторий и пути использовать, какой OpenShift необходим для управления объектами, а также какая конкретная ветвь репозитория нужна, и должна ли выполняться автосихронизация ресурсов. ``` argocd app create --project default \ --name simple-app --repo https://github.com/cooktheryan/blogpost.git \ --path . --dest-server https://kubernetes.default.svc \ --dest-namespace simple-app --revision master --sync-policy none ``` После того, как приложение задано в Argo CD, этот инструментарий начинает проверять уже развернутые объекты на соответствие определениям в репозитории. В нашем примере автосинхронизация и очистка отключены, поэтому элементы пока не меняются. Обратите внимание, что в интерфейсе Argo CD наше приложение будет иметь статус «Out of Sync» (Не синхронизировано), поскольку нет label-метки, которую проставляет ArgoCD. Именно поэтому, когда мы чуть позднее запустим синхронизацию, повторное развертывание объектов выполняться не будет. Теперь выполним пробный запуск, чтобы убедиться, что в наших файлах нет ошибок. ``` argocd app sync simple-app --dry-run ``` Если ошибок нет, то можно переходить к синхронизации. ``` argocd app sync simple-app ``` После выполнения команды argocd get над нашим приложением, мы должны увидеть, что статус приложения изменился на Healthy (Исправно) или Synced (Синхронизировано). Это будет означать, что все ресурсы в репозитории Git теперь соответствует тем ресурсам, что уже развернуты. ``` argocd app get simple-app Name: simple-app Project: default Server: https://kubernetes.default.svc Namespace: simple-app URL: https://argocd-server-route-argocd.apps.example.com/applications/simple-app Repo: https://github.com/cooktheryan/blogpost.git Target: master Path: . Sync Policy: Sync Status: Synced to master (60e1678) Health Status: Healthy ... ``` А вот теперь уже можно включать автосинхронизацию и очистку, чтобы гарантировать, что ничего не будет создаваться вручную и что каждый раз, когда объект создается или обновляется в репозиторий, будет выполняться развертывание. ``` argocd app set simple-app --sync-policy automated --auto-prune ``` Итак, мы успешно перевели под управление GitOps приложение, которое изначально никак не использовало GitOps.
https://habr.com/ru/post/478852/
null
ru
null
# Как использовать Axios в React ![](https://habrastorage.org/r/w1560/webt/z1/bu/fm/z1bufmx1tce1wxwjm92w7wz_7lq.png) В этой статье вы узнаете как использовать библиотеку **Axios** в React. Рассмотрим все на примере запросов на сервер, отобразим полученные данные в таблице, сдалаем компонент проверки загрузки и все это используя React Hooks. ### Что такое Axios? Axios это один из самых популярных HTTP клиентов для браузеров и node.js, основанный на промисах. В Axios есть поддержка запросов, получение ответов от сервера, их трансформация и автоматическая конвертация в JSON. Перед тем как начать, создадим новый React проект: ``` npx create-react-app react-axios-table ``` Зайдем в него: ``` cd react-axios-table ``` #### Данные для проекта В качестве данных для нашего проекта будем использовать массив объектов: ``` [ { id: 101, firstName: 'Sue', lastName: 'Corson', email: 'DWhalley@in.gov', phone: '(612)211-6296', address: { streetAddress: '9792 Mattis Ct', city: 'Waukesha', state: 'WI', zip: '22178' }, description: 'et lacus magna dolor...', } ] ``` [Ссылка на данные](http://www.filltext.com/?rows=32&id=%7Bnumber%7C1000%7D&firstName=%7BfirstName%7D&lastName=%7BlastName%7D&email=%7Bemail%7D&phone=%7Bphone%7C(xxx)xxx-xx-xx%7D&address=%7BaddressObject%7D&description=%7Blorem%7C32%7D) ### Настройка компонента для работы с Axios Загружаем библиотеку Axios: ``` npm i axios ``` Импортируем axios в компонент из которого будем отправлять запросы на сервер: ``` import axios from 'axios' ``` Т.к. в проекте мы используем React Hooks, импортируем useState и useEffect (подробнее про хуки в реакте читаем по [ссылке](https://reactjs.org/docs/hooks-intro.html)): ``` import React, { useEffect, useState } from 'react'; ``` Далее в компонент добавляем следующий код: ``` function App() { const [appState, setAppState] = useState(); useEffect(() => { const apiUrl = 'http://www.filltext.com/?rows=32&id={number|1000}&firstName={firstName}&lastName={lastName}&email={email}☎={phone|(xxx)xxx-xx-xx}&address={addressObject}&description={lorem|32}'; axios.get(apiUrl).then((resp) => { const allPersons = resp.data; setAppState(allPersons); }); }, [setAppState]); return ( ); } export default App; ``` Рассмотрим код поближе: ``` const [appState, setAppState] = useState(); ``` Отвечает за состояние стейта в компоненте: ``` useEffect(() => {}, [setAppState]) ``` useEffect будет следить за изменением setAppState и производить ререндер если это необходимо ``` const apiUrl='' ``` сюда подставляем нашу ссылку ``` axios.get(apiUrl).then((resp) => { const allPersons = resp.data; setAppState(allPersons); }); ``` отправляем **get** запрос на сервер, затем полученные **JSON** данные сохраняем в стейт ### Компонент проверки загрузки В **src** создадим папку **components**. В ней создаем компонент **UserData.js** и добавляем следующий код: ``` function UserData(props) { const { persons } = props if (!persons || persons.length === 0) return Нет данных. return ( | id | firstName | lastName | email | phone | | --- | --- | --- | --- | --- | { persons.map((person) => | {person.id} | {person.firstName} | {person.lastName} | {person.email} | {person.phone} | ) } ) } export default UserData ``` В пропсы компонента мы будем передавать данные полученные с сервера ``` if (!persons || persons.length === 0) return Нет данных. ``` делаем проверку, есть ли данные с сервера ``` { persons.map((person) => | {person.id} | {person.firstName} | {person.lastName} | {person.email} | {person.phone} | ) } ``` Методом **map** проходим по массиву с людьми, для каждого человека создаем строку. Не забываем про **key**. В папке **components** создаем **LoadingPersonsData.js** и вставляем следующий код: ``` function OnLoadingUserData(Component) { return function LoadingPersonsData({ isLoading, ...props }) { if (!isLoading) return else return ( Подождите, данные загружаются! ============================== ) } } export default LoadingPersonsData ``` Код выше это higher-order component в React. В качестве пропсов он принимает другой компонент и затем возвращает какую-либо логику. В нашем случае компонент проверяет **isLoading**. Пока данные загружаются, мы отображаем сообщение о загрузке, как только **isLoading** станет **false** мы возвращаем компонент с данными. Внесем изменения в наш **App.js** для возможности проверки загрузки данных. Импортируем наши компоненты в **App.js**: ``` import UserData from './components/UserData' import OnLoadingUserData from './components/OnLoadingUserData' ``` Добавляем следующий код: ``` function App() { const DataLoading = LoadingPersonsData(UserData); const [appState, setAppState] = useState( { loading: false, persons: null, } ) useEffect(() => { setAppState({loading: true}) const apiUrl = 'http://www.filltext.com/?rows=32&id={number|1000}&firstName={firstName}&lastName={lastName}&email={email}☎={phone|(xxx)xxx-xx-xx}&address={addressObject}&description={lorem|32}'; axios.get(apiUrl).then((resp) => { const allPersons = resp.data; setAppState({ loading: false, persons: allPersons }); }); }, [setAppState]); return ( ); } export default App; ``` ``` const DataLoading = LoadingPersonsData(UserData); ``` Мы создаем новый компонент, приравниваем его к нашему higher-order компоненту и обворачиваем им **UserData** (компонент отображения данных). В стейт мы добавляем новое свойство **loading: false**, по нему мы будем определять загрузку данных с сервера. Рендерим компонент и передаем пропсы в наш higher-order компонент. Добавим немного **css** и при загрузки данных увидим следующее окно: ![image](https://habrastorage.org/r/w780q1/webt/gi/7b/hw/gi7bhwcr63elmlxh256izmuruhs.jpeg) А теперь, когда get запрос на сервер завершен успешно, данные получены: ![image](https://habrastorage.org/r/w780q1/webt/pj/yt/we/pjytwemuewgigis3w4wltktjtiw.jpeg) **Теперь мы знаем как использовать Axios get с REST API.** Если у вас есть вопросы или пожелания, оставляйте их в комментариях. Буду рад ответить.
https://habr.com/ru/post/521902/
null
ru
null
# Картинки в теле страницы с помощью data: URL *Примечание: ниже расположен перевод статьи [«Inline Images with Data URLs»](http://www.websiteoptimization.com/speed/tweak/inline-images/), в которой рассматривается вопрос о внедрении картинки на веб-страницы при помощи `data:URI`. Эта схема позволяет вставить код картинок прямо в (X)HTML-страницу без обращений к внешним файлам, что уменьшает общее количество HTTP-обращений к серверу. Мои комментарии далее курсивом.* Встроенные (*inline*) изображения используют схему `data:URI` для внедрения прямо в тело веб-страницы. Как было определено в RFC 2397, такие URI предназначены для вставки небольших объектов как «непосредственные» данные. Такие объекты должны рассматриваться так же, как и любые другие внешние файлы. Использование встроенных изображений позволяет сэкономить HTTP-запросы к внешних ресурсах. Поддержка браузерами data:URL ----------------------------- Хотя Opera 7.2+, Firefox, Safari, Netscape и Mozilla поддерживают `data:URI`, Internet Explorer 5–7 совсем нет. Однако, сообщается, что Internet Explorer 8 будет поддерживать эту схему, так как [проходит Acid2 тест](http://www.webstandards.org/2007/12/19/ie8-passes-acid2-test-2/), что позволяет использовать `data:URL` как реальную альтернативу для внедрения небольших декоративных изображений. Существует также несколько приемов для поддержки старых версий Internet Explorer. [читать дальше на webo.in →](http://webo.in/articles/habrahabr/29-all-about-data-url-images/ "полный текст")
https://habr.com/ru/post/31500/
null
ru
null
# Новый вид развода — помоги девушке Недавно обнаружил новый способ, которым мошенники [при содействии](http://habrahabr.ru/blogs/infosecurity/71257/) операторов зарабатывают себе на жизнь. Суть в следующем: вам в аську/личку приходит сообщение от симпатичной девушки (для девушек думаю, сообщения приходят от парней) с предложением познакомиться / встретиться / созвониться. Девушка сетует, что она не очень дружит с интернетом, и предлагает созвониться, чтобы пообщаться или договориться о встрече. Сама спрашивает ваш телефончик и с фразой «я пойду положу себе денег на телефон чтобы тебе позвонить» исчезает… Тем временем на ваш телефон приходит SMS с короткого номера примерно такого содержания: `Код для активации вашего доступа - 12345. Справки по tel 8-800-3339008` Вы как человек, привыкший к спаму недоуменно пожимаете плечами и на время забываете… но тут появляется Она! Она страшно извиняется за свою невнимательность и рассказывает вам, что она перепутала ваш номер телефона со своим (они так похожи!) когда пополняла счёт через терминал и теперь ей нужно код подтверждения чтобы платёж был зачислен на телефон, иначе всё пропало! И только вы как истинный джентльмен можете спасти её, сказав код доступа. Ну разумеется вы как истинный джентльмен спасаете даму и после непродолжительной беседы она исчезает… а через сутки с вашего счёта внезапно списывают 300 рублей. **Что же происходит на самом деле** На самом деле никакой невнимательной девушки нет. Есть мошенник, который создал свой сервис, оплачиваемый на условиях подписки, когда номер телефона вводится на сайте, а затем на основании кода доступа вы подтверждаете своё согласие и подписываетесь на платную услугу, где [деньги с вас будут снимать автоматически без отправки каких-либо SMS](http://habrahabr.ru/blogs/social_networks/77975/#comment_2273719). Он любезно введёт на сайте сначала ваш номер телефона, а потом и код подтверждения — всё что угодно за ваши деньги. В тексте SMS, которая приходит вам, нет какого-либо указания на стоимость, на факт подписки, даже на сайт, название которого могло бы вас насторожить — всё сделано для того, чтобы вы ничего не заподозрили! Будьте внимательны.
https://habr.com/ru/post/82485/
null
ru
null
# Самостоятельная сборка cURL для iOS и Android Добрый день! Я занимаюсь разработкой приложения под iOS/Android, в котором используется библиотека cURL. До недавнего времени мы использовали готовую сборку libcurl: * для iOS с официального сайта * для Android с пространств Интернета При этом версии библиотеки были разные, а заголовочные файлы одни. С целью наведения порядка было решено собрать библиотеку самостоятельно. Предполагается поддержка следующих версий мобильных платформ: * iOS5.0 и выше * Android4.0 и выше ##### Сборка под iOS На странице загрузок cURL имеется ссылка на версию библиотеки для iOS. Перейдя по ней мы оказываемся на странице, где автор детально описывает как можно собрать cURL для iOS. Сборка под iOS сводится к простым шагам: ``` export CC="путь_до_llvm-gcc" export CFLAGS="-arch armv7 -arch armv7s -pipe -Os -gdwarf-2 -isysroot путь_до_iPhoneOS.sdk" export LDFLAGS="-arch armv7 -arch armv7s -isysroot путь_до_iPhoneOS.sdk" curl -O http://curl.haxx.se/download/curl-7.31.0.tar.gz tar -xzf curl-7.31.0.tar.gz cd curl-7.31.0 ./configure --disable-shared --enable-static --disable-dependency-tracking --host=armv7-apple-darwin make ``` Для поддержки HTTPS на iOS достаточно сконфигурировать cURL с ключем --with-darwinssl (только для iOS5 и выше). Для более ранних версий прийдется использовать OpenSSL. ##### Сборка под Android В документации cURL предлагается два способа сборки под Android: * используя сценарий Android.mk, но в этом случае прийдется использовать исходники Android; * используя «standalone toolchain» из Android NDK. Собирать под Android было решено вторым способом. Для этого сначала нужно сгенерировать toolchain, запустив сценарий make-standalone-toolchain.sh Более подробно об этом можно прочитать в документации Android NDK STANDALONE-TOOLCHAIN.html В моем случае сборка тулчейна выглядела так (MAC OS X, Android NDK r8e, android-14, gcc4.7): ``` $NDK_ROOT/build/tools/make-standalone-toolchain.sh \ --platform=android-14 \ --install-dir=android-toolchain-gcc4.7 \ --toolchain=arm-linux-androideabi-4.7 \ --system=darwin-x86_64 # в переменной NDK_ROOT содержится полный путь до корневой папки Android NDK ``` В результате будет содан каталог android-toolchain-gcc4.7, содержащий копию sysroot для arm android-14 и toolchain gcc4.7. Данным тулчейном можно собирать под Android проекты с системой сборки Autotools. Примерно так будет выглядеть сборка cURL: ``` $NDK_ROOT/build/tools/make-standalone-toolchain.sh --install-dir=toolchain bla-bla-bla export PATH=`pwd`/toolchain/bin:$PATH export CC=arm-linux-androideabi-gcc curl -O http://curl.haxx.se/download/curl-7.31.0.tar.gz tar -xzf curl-7.31.0.tar.gz cd curl-7.31.0 ./configure --disable-shared --enable-static --host=arm-linux-androideabi make ``` Для поддержки HTTPS прийдется дополнительно собрать из исходников OpenSSL. Здесь мой скрипт для сборки libcurl под iOS и Android с поддержкой протоколов HTTP, HTTPS (MAC OS X, Xcode 4.6.3, iOS SDK 6.1): **build.sh** ``` #!/bin/bash mkdir -p include mkdir -p prebuilt/ios/device mkdir -p prebuilt/ios/simulator mkdir -p prebuilt/android/armeabi-v7a # 0. Make "standalone toolchain" for android if [ ! -d android-toolchain-gcc4.7 ] then $NDK_ROOT/build/tools/make-standalone-toolchain.sh --platform=android-14 --install-dir=android-toolchain-gcc4.7 --toolchain=arm-linux-androideabi-4.7 --system=darwin-x86_64 fi # 1. Get sources LIBCURL_SRC=curl-7.31.0 OPENSSL_SRC=openssl-1.0.1e LIBCURL_PAGE=http://curl.haxx.se/download OPENSSL_PAGE=http://www.openssl.org/source LIBCURL_ROOT=curl OPENSSL_ROOT=openssl # param 1: lib name # param 2: download page # param 3: symlink to source dir # exit with status 1 if downloading failed function download_and_unpack() { TARBALL=$1.tar.gz echo $TARBALL if [ ! -f $TARBALL ] then curl -O $2/$TARBALL || exit 1 rm -rf $1 tar -xzf $TARBALL rm $3 ln -s $1 $3 fi } download_and_unpack $LIBCURL_SRC $LIBCURL_PAGE $LIBCURL_ROOT download_and_unpack $OPENSSL_SRC $OPENSSL_PAGE $OPENSSL_ROOT # 2. Build sources CURL_EXTRA="--enable-ipv6 --disable-ftp --disable-file --disable-ldap --disable-ldaps --disable-rtsp --disable-proxy --disable-dict --disable-telnet --disable-tftp --disable-pop3 --disable-imap --disable-smtp --disable-gopher --disable-sspi --disable-manual" LIBCURL_BINARY=lib/.libs/libcurl.a CPU_COUNT=`sysctl -n hw.logicalcpu_max` export IPHONEOS_DEPLOYMENT_TARGET="5.0" # 2.1 Build cURL for iOS device (armv7, armv7s) pushd $LIBCURL_ROOT export CC="/Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/llvm-gcc-4.2" export CFLAGS="-arch armv7 -arch armv7s -pipe -Os -gdwarf-2 -isysroot /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/SDKs/iPhoneOS6.1.sdk" export LDFLAGS="-arch armv7 -arch armv7s -isysroot /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/SDKs/iPhoneOS6.1.sdk" ./configure --disable-shared --enable-static --disable-dependency-tracking --host=armv7-apple-darwin --with-darwinssl $CURL_EXTRA || exit 1 make clean && make -j $CPU_COUNT || exit 1 cp -f $LIBCURL_BINARY ../prebuilt/ios/device popd # 2.2 Build cURL for iOS simulator (i386) pushd $LIBCURL_ROOT export CC="/Applications/Xcode.app/Contents/Developer/Platforms/iPhoneSimulator.platform/Developer/usr/bin/llvm-gcc-4.2" export CFLAGS="-arch i386 -pipe -Os -gdwarf-2 -isysroot /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneSimulator.platform/Developer/SDKs/iPhoneSimulator6.1.sdk" export CPPFLAGS="-D__IPHONE_OS_VERSION_MIN_REQUIRED=${IPHONEOS_DEPLOYMENT_TARGET%%.*}0000" export LDFLAGS="-arch i386 -isysroot /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneSimulator.platform/Developer/SDKs/iPhoneSimulator6.1.sdk" ./configure --disable-shared --enable-static --disable-dependency-tracking --host=i386-apple-darwin --with-darwinssl $CURL_EXTRA || exit 1 make clean && make -j $CPU_COUNT || exit 1 cp -f $LIBCURL_BINARY ../prebuilt/ios/simulator popd # 2.3.1 Build OpenSSL for Android pushd $OPENSSL_ROOT # See 0 above export PATH=`pwd`/../android-toolchain-gcc4.7/bin:$PATH export CC=arm-linux-androideabi-gcc export CXX=arm-linux-androideabi-g++ export AR=arm-linux-androideabi-ar export RANLIB=arm-linux-androideabi-ranlib ./Configure android-armv7 no-shared || exit 1 make clean && make build_crypto build_ssl -j $CPU_COUNT || exit 1 cp -f libcrypto.a ../prebuilt/android/armeabi-v7a cp -f libssl.a ../prebuilt/android/armeabi-v7a popd # 2.3.2 Build CURL for Android pushd $LIBCURL_ROOT OPENSSL=`pwd`/../openssl export CFLAGS="-march=armv7-a -mfloat-abi=softfp -mfpu=vfpv3-d16" export CPPFLAGS=-DANDROID export LDFLAGS="-march=armv7-a -Wl,--fix-cortex-a8 -L$OPENSSL" ./configure --disable-shared --enable-static --host=arm-linux-androideabi --with-random=/dev/urandom --with-ssl=$OPENSSL --without-ca-bundle --without-ca-path --with-zlib $CURL_EXTRA || exit 1 make clean && make -j $CPU_COUNT || exit 1 cp -f $LIBCURL_BINARY ../prebuilt/android/armeabi-v7a popd # 3 Copy headers cp -f ./curl/include/curl/*.h ./include ``` Основные шаги: * Сгенерировать Standalone toolchain * Скачать и распаковать исходники cURL и OpenSSL * Собрать cURL для iOS device (armv7, armv7s) * Собрать cURL для iOS simulator (i386) * Собрать OpenSSL для Android (armv7) * Собрать cURL для Android (armv7) Собранные библиотеки копируются в директорию prebuilt, заголовочные файлы в include. Для поддержки более ранних версий Android нужно будет собрать соответствующий standalone toolchain. Ссылки по теме: [Офциальная документаци по сборке cURL](http://curl.haxx.se/docs/install.html) [Инструкция по сборке cURL для iOS](http://home.comcast.net/~seiryu/libcurl-ios.html) [Android NDK Standalone toolchain](http://www.kandroid.org/ndk/docs/STANDALONE-TOOLCHAIN.html)
https://habr.com/ru/post/184960/
null
ru
null
# Как линуксовый админ управлял детским хором с помощью системы распознавания нот под Ubuntu 16.04. Микрофон и аккорды Что нужно, чтобы лето проходило весело? Нужна музыка! Но если музыка записана нотами на бумаге, а вы — обыкновенный системный администратор, и вам поручили задачу создать детский хор, то в качестве одного из вариантов решения этой проблемы представляю несколько полезных программ. Они написаны на Java и доступны как в репозитарии Ubuntu 16.04, так и на Гитхабе для решения задачи машинного распознавания нот, создания музыкальных партий, выгрузки и редактирования получившегося музыкального продукта в популярные форматы и раздачи файлов (а также и подзатыльников) отдельным исполнителям. Тема, я надеюсь, будет интересна читателям нашего блога.(**UPD1. Есть добавление по системе оптического распознавания TESSERACT 5.0.0-alpha для быстрой работы системы на современных процессорах.**) ![image](https://habrastorage.org/r/w1560/webt/c-/jl/fs/c-jlfszq6yvnmiarbizau371nzg.png) ![image](https://habrastorage.org/webt/27/n5/3y/27n53yztnsootkmmrlkx4eosvq0.gif) Представим себе реальную ситуацию детского лагеря. Надо было быстро собрать хор и обучить детей новой песне, но на предусмотренную штатным расписанием должность музыкального руководителя не нашлось желающего. Попросили местного системного администратора. И дело пошло! Располагая одним ноутбуком с установленной Ubuntu 16.04, админ решил задачу следующим образом. 1. Установка мощного [бесплатного редактора нот MuseScore](https://launchpad.net/~mscore-ubuntu/+archive/ubuntu/mscore-stablehttp://). Общий вид с открытой детской песней «Моя Россия». ![image](https://habrastorage.org/r/w1560/webt/xg/ea/ll/xgealljvbqqzyup8qxcuh4ovb7c.png) Можно открыть и MIDI файл: ![image](https://habrastorage.org/r/w1560/webt/qd/9j/vl/qd9jvli6wbigxzqx5knxiwigocu.png) Работает и с файлами караоке. ![image](https://habrastorage.org/r/w1560/webt/ff/lw/vh/fflwvhkmpn9oxdaeeikjc2-bz3g.png) Если у кого есть MIDI-клавиатура, то и ее можно подцепить к программе для редактирования и ввода нот. 2. Было взято несколько популярных партитур. Примеры — на скриншотах. Песни, разумеется, популярные, поэтому и так уже набили оскомину, хоть хором, хоть соло! 3. Но мы-то в 21 веке живем. Решено было попробовать спеть что-нибудь новенькое. Но выяснилось, что весело подпевая программе, никто не знает нот. Что в таком случае делает линуксовый администратор? А. Ставит систему распознавания OCR TESSERACT. Например, отсюда: <https://github.com/tesseract-ocr/tesseract/wiki>. Будьте внимательны, нужно поставить не 4.0, а предыдущую версию — 3.5. Обязательно проверить установку языков, которые точно используются в музыкальных произведениях и нотах (английский, итальянский, немецкий, французский, русский). **UPD1.** `sudo apt-get install libleptonica-dev` <https://github.com/DanBloomberg/leptonica> **Leptonica 1.74.4** `git clone --recursive https://github.com/DanBloomberg/leptonica cd leptonica ./autobuild ./configure ./make-for-auto sudo make sudo make install` Прим. Лептоника хочет быть разделяемой библиотекой. **Tesseract 4.0** `git clone --depth 1 https://github.com/tesseract-ocr/tesseract.git tesseract cd tesseract ./autogen.sh ./configure --enable-debug LDFLAGS="-L/usr/local/lib" CFLAGS="-I/usr/local/include" make sudo make install sudo ldconfig` **test Tesseract** `$ tesseract imagename outputbase [-l lang] [--psm pagesegmode] [configfiles...] $ tesseract 1.jpg 1.txt -l chi_sim` Если `$ tesseract -v` вернет `tesseract 5.0.0-alpha leptonica-1.80.0 libjpeg 8d (libjpeg-turbo 1.4.2) : libpng 1.2.54 : libtiff 4.0.6 : zlib 1.2.8 Found AVX Found SSE Found OpenMP 201307 Found libcurl/7.47.0 OpenSSL/1.0.2g zlib/1.2.8 libidn/1.32 librtmp/2.3` Значит, вы добились нужного результата! <https://github.com/tesseract-ocr/tessdata/blob/master/eng.traineddata> <https://github.com/tesseract-ocr/tessdata/blob/master/rus.traineddata> <https://github.com/tesseract-ocr/tessdata/blob/master/fra.traineddata> <https://github.com/tesseract-ocr/tessdata/blob/master/deu.traineddata> И еще два действия: <https://github.com/tesseract-ocr/tessdata> #These language data files only work with Tesseract 4.0 `sudo mv eng.traineddata /usr/share/tesseract-ocr/tessdata export TESSDATA_PREFIX=/usr/share/tesseract-ocr/tessdata` или `sudo mv /usr/local/share/tessdata /usr/local/share/tessdata.bak sudo ln -s /usr/share/tesseract-ocr/tessdata /usr/local/share/` Перед запуском системы распознавания проверяем: 1. Наличие всех требуемых языков. 2. export TESSDATA\_PREFIX=/usr/share/tesseract-ocr/tessdata Б. Устанавливает потрясающую систему распознавания нот! Единственно, ограничение — 300DPI сканирование, не более 3,5 МБ одна страница в PDF. Ставить надо отсюда: ``` $> git clone https://github.com/Audiveris/audiveris.git cd audiveris gradlew.bat clean build ./gradlew clean build ./gradlew run ./gradlew run -PcmdLineArgs="your,arguments,here" ``` Для работы с одним-двумя листом партитур конфигурации по-дефолту хватает, но для оркестровых вещей рекомендую билдить и запускать не менее, чем -Xmx=11G. Если все правильно установлено, то запуск надо осуществлять из директории, куда отработала команда git clone. Интерфейс выглядит так: ![image](https://habrastorage.org/r/w1560/webt/gy/ib/je/gyibje2dghnw7ur9dr5witwakfs.png) Пользоваться надо так: 1. Открыть файл PDF. 2. Book -> Trancribe book 3. Дождаться распознавания нот. Начало работы: ![image](https://habrastorage.org/r/w1560/webt/sk/4_/he/sk4_hejwjyn0-rfddmdsp2bicoo.png) 4. Экспортируем получившийся Music XML 3.0 через Book->Export. 5. Открываем файл в MuseScore и экспортируем из него в формат MP3. Слушаем и наслаждаемся. ![image](https://habrastorage.org/r/w1560/webt/ts/8_/v7/ts8_v7ixrj0a7ng1scfhisnyifg.png) **UPD1. Оригинал для сравнения.** ![image](https://habrastorage.org/r/w1560/webt/8w/9y/hy/8w9yhyvmbdqdli-62eitektlx3e.png) ![image](https://habrastorage.org/r/w1560/webt/gu/dr/sz/gudrszglcqicclxfg1mazeivbew.png) 6. Если не терпится записывать микрофонные пассажи местных «соловьев» с фальцетной распевкой, то на этот случай тоже есть прикладная микрофонная программа Nootka. Это хороший вокальный тренажер. Может заставить петь гаммы по нотам, может проверить слух, может помочь настроить инструмент. Графически показывает, насколько точно вы попадаете в ноту, и если попадаете, то он рисует ее на нотоносце. Например, эта же мелодия в моем исполнении. ![image](https://habrastorage.org/r/w1560/webt/6q/xw/i0/6qxwi0emk7lxmambrxt_8y-yg5y.png) 7. Еще одна жизненная ситуация. Нет под рукой гитары, а гитарные соло хочется послушать. Или накидать аранжировку. Сравнить качество разных аранжировок. Представляю программу TuxGuitar. Бесплатная, идет в репозитарии Ubuntu. ![image](https://habrastorage.org/r/w1560/webt/kv/by/qp/kvbyqp4r7zibma48hholih3ak2g.png) Для работы с нею необходимо экспортировать полученный ранее файл Music XML 3.0 в формат Guitar Pro, Tux Guitar или PowerTab. К сожалению, в новой версии MuseScore прямой экспорт был отключен. Привожу пример с ранее сделанным экспортом. ![image](https://habrastorage.org/r/w1560/webt/-z/xw/1a/-zxw1afe6apymp3afrxbxnlnlag.png) **UPD2. В комментариях подняли вопрос многологосья.** Уважаемые друзья, привожу еще несколько скриншотов музыкального редактора, связанного с созданием многоголосой (оркестровой) партитуры. Главное меню -> Файл -> Создать партитуру. ![image](https://habrastorage.org/r/w1560/webt/nb/mo/jt/nbmojtze6flfwwtce9mtyhaot8s.png) В партитуре -> Выбор инструментов оркестра (голосов). ![image](https://habrastorage.org/r/w1560/webt/o8/5l/x-/o85lx-tbfd7ln4nhe--ldusmy7u.png) Выбор тональности. ![image](https://habrastorage.org/r/w1560/webt/3-/ql/qh/3-qlqhjgh3-mkvtyqfhlhfvsvyu.png) Полученная готовая пустая многоголосая партитура. ![image](https://habrastorage.org/r/w1560/webt/y6/91/cb/y691cbedvj8bjwd7kl7iypnwgzi.png) Краткое заключение. Заметка написана для людей, которые очень-очень хотят услышать незнакомые ноты, владеют администрированием, но не играют на музыкальных инструментах. А хор администрировать тоже надо. **Посвящаю эту заметку моим незабвенным преподавателям: Надежде Николаевне Кулепётовой и Валентину Анатольевичу Лапушкину.**
https://habr.com/ru/post/460207/
null
ru
null
# Сбалансированное слияние сверху-вниз и снизу-вверх [![](https://habrastorage.org/r/w780q1/webt/bz/ui/ql/bzuiqlq2xxxwrhtzczv00qlzihm.jpeg)](https://habr.com/company/edison/blog/432646/) В прошлой статье мы ознакомились [с реликтовыми сортировками слияния](https://habr.com/company/edison/blog/431964/) (вызывающих прежде всего исторический интерес). А что в тренде сегодня? Для ознакомления с концепцией упорядочивания через слияния обычно используются алгоритмы сбалансированного слияния. Термин «сбалансированность» означает, что алгоритм рекурсивно разбивает массив и его подмассивы на примерно равные части. Сегодня мы рассмотрим как это выглядит на практике. Пара функций одинакова для обоих методов. Да и вообще, что «вниз-вверх», что «вверх-вниз» — это практически один и тот же алгоритм, просто показанный с разных ракурсов. Нам, понадобится, собственно, слияние двух половинок отрезка в один подмассив. Половинки одновременно перебираются в одном массиве, сравниваются текущие элементы в обоих переборах и меньший элемент уходит во второй массив: ``` //Левая половина источника A[iBegin: iMiddle - 1] //Правая половина источника A[iMiddle: iEnd - 1] //Результат: слияние в B[iBegin: iEnd - 1] void Merge(A[], iBegin, iMiddle, iEnd, B[]) { i = iBegin, j = iMiddle; //Пока есть элементы в левом или правом прогоне... for (k = iBegin; k < iEnd; k++) { //Если левый указатель ещё существует //и он <= существующего правого указателя if (i < iMiddle && (j >= iEnd || A[i] <= A[j])) { B[k] = A[i]; i++; } else { B[k] = A[j]; j++; } } } ``` Копирование отрезка из одного массива в другой. Обе реализации оперируют двумя массивами, данные приходится постоянно гонять из основного во вспомогательный и обратно: ``` //Копируем из основного массива A[] //во вспомогательный массив B[] void CopyArray(A[], iBegin, iEnd, B[]) { for(k = iBegin; k < iEnd; k++) B[k] = A[k]; } ``` Нисходящее сбалансированное слияние =================================== ![](https://habrastorage.org/webt/hm/ew/up/hmewupmaf-d1bkexhw5sryss5sc.gif) Сначала берётся весь массив целиком, после чего начинается рекурсивный спуск. Массив дихотомируется до тех пор, пока не дойдём до подмассивов из одного элемента (которые являются отсортированными сами по себе). Затем рекурсия начинает обратный подъём, производя по пути слияние подмассивов (размер которых на каждом уровне удваивается). ``` //Основной массив A[] содержит элементы для сортировки //Массив B[] является вспомогательным void TopDownMergeSort(A[], B[], n) { CopyArray(A, 0, n, B); //Дублируем A[] в B[] TopDownSplitMerge(B, 0, n, A);//Сортируем B[] и возвращаем в A[] } //Сортировка заданного прогона для A[], используя B[] в качестве источника //Границы диапазона: iBegin включительно; iEnd не включая void TopDownSplitMerge(B[], iBegin, iEnd, A[]) { //Если size == 1, то такой подмассив отсортирован if(iEnd - iBegin < 2) return; //Если size > 1, такие массивы делим пополам iMiddle = (iEnd + iBegin) / 2;//iMiddle - середина отрезка //Рекурсивно сортируем обе половины из A[] в B[] TopDownSplitMerge(A, iBegin, iMiddle, B);//Сортируем левую половину TopDownSplitMerge(A, iMiddle, iEnd, B);//Сортируем правую половину //Объединяем полученные прогоны из B[] в A[] Merge(B, iBegin, iMiddle, iEnd, A); } ``` Восходящее сбалансированное слияние =================================== ![](https://habrastorage.org/webt/yr/lo/nx/yrlonxspake444flhweydu96wb4.gif) Здесь происходит итерация по массиву, по пути сначала берём соседние минимальные массивы (из одного элемента) и попарно производим их слияние. Получая на каждом шаге удвоенные отсортированные подмассивы, снова производим слияние соседей и так продолжаем до тех пор, пока на выходе не получим весь массив, уже в отсортированном виде. ``` //Основной массив A[] содержит элементы для сортировки //Массив B[] является вспомогательным void BottomUpMergeSort(A[], B[], n) { //Каждый подмассив из одного элемента в A[] уже «отсортирован». //Последовательные отсортированные прогоны удваивающейся длины: //× 2, 4, 8, 16, ... - до тех пор, пока не будет отсортирован весь массив for (width = 1; width < n; width = 2 * width) { //Массив А заполнен прогонами длиной width for (i = 0; i < n; i = i + 2 * width) { // Объединение двух прогонов: //A [i: i + width - 1] и A [i + width: i + 2 * width - 1] в B[] //или копирование A[i: n - 1] в B[] (если i + width > = n) Merge(A, i, min(i + width, n), min(i + 2 * width, n), B); } //Теперь вспомогательный массив B[] заполнен прогонами длиной 2 * width //Копируем массив B[] в массив A[] для следующей итерации //Более эффективная реализация меняет роли A[] и B[] CopyArray(B, 0, n, A); //Возвращаем B[] в A[] //Теперь массив А заполнен прогонами длиной 2 * width } } ``` В целом предпочтительнее нисходящая реализация, так как в ней эффективнее используются два массива, которые просто постоянно меняются ролями «основной/вспомогательный». В восходящем варианте массив A всегда основной, а массив B всегда вспомогательный. В результате, после каждой итерации данные из B нужно в полном составе возвращать в A, что не способствует улучшению алгоритмической сложности. С другой стороны, реализация восходящей проще, в ней даже нет рекурсии. Несбалансированное слияние ========================== От самого слова «сбалансированность» веет какой-то надёжностью, устойчивостью. Может даже создаться впечатление, что хороший алгоритм должен быть непременно сбалансированным. А «несбалансированность» ассоциируется с какой-то расшатанностью и перекосами. Ну действительно, разве *сбалансированное* не должно быть во всех отношениях лучше чем *несбалансированное*? На самом деле, бывает что и хуже. Само собой, разделение подмассивов на равные половины (что и подразумеваются под сбалансированностью для сортировок слиянием) гораздо проще реализовать. Дели себе массив напополам и к каждой половине применяй рекурсию. Собственно, в этой лёгкости и заключается основное достоинство сбалансированного слияния перед несбалансированным. В следующих публикациях мы ознакомимся с несбалансированными способами. Они заметно сложнее в понимании и реализации. Данные для последующего слияния будут распределяться по вспомогательным массивам не равномерно да поровну, а в соответствии с рядом обобщённых чисел Фибоначчи. И это позволит достигать мощных результатов, которые недостижимы для упрощённых сбалансированных методов. Ссылки ------ ![](https://habrastorage.org/r/w1560/webt/3y/wq/mh/3ywqmhuo7fv68jggkc416kbzuw4.png) [Merge](https://en.wikipedia.org/wiki/Merge_sort) ([Google-translate](https://translate.google.ru/translate?hl=ru&sl=en&tl=ru&u=https%3A%2F%2Fen.wikipedia.org%2Fwiki%2FMerge_sort)), [Слияние](https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D1%80%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%BA%D0%B0_%D1%81%D0%BB%D0%B8%D1%8F%D0%BD%D0%B8%D0%B5%D0%BC) ### Статьи серии: * [Excel-приложение AlgoLab.xlsm](https://habr.com/post/414447/) * [Сортировки обменами](https://habr.com/post/414653/) * [Сортировки вставками](https://habr.com/post/415935/) * [Сортировки выбором](https://habr.com/post/422085/) * [Сортировки слиянием](https://habr.com/company/edison/blog/431964/) + **Сбалансированное слияние сверху-вниз и снизу-вверх** + Многофазная сортировка слиянием + Каскадная сортировка слиянием + Осциллирующая сортировка слиянием + Нитевидная и несмешиваемая сортировки + Сравнение сортировок слиянием * [Сортировки распределением](https://habr.com/ru/post/472466/) * [Гибридные сортировки](https://habr.com/ru/post/483786/) Очередные слиятельные сортировки теперь доступны в приложении AlgoLab (кто изучает алгоритмы с помощью этого Excel-приложения — обновите файл). Временно на массивы поставлено ограничение — их размер должен быть степенью двойки (связано с некоторыми сложностями, возникшими при программировании визуализации). Чуть позже можно будет сортировать любые массивы. > [![EDISON Software - web-development](https://habrastorage.org/r/w1560/webt/w0/zl/to/w0zltoxvysbr0yeinstkfvw1wbg.png)](https://www.edsd.com/ "EDISON Software - web-development") > > Статья написана при поддержке компании EDISON Software, которая с помощью облачных сервисов [создаёт встроенное программное обеспечение](https://www.edsd.com/portfolio/embedded-software) и [разрабатывает мобильные приложения на JAVA](https://www.edsd.com/cloud-services-and-mobile-applications-in-java).
https://habr.com/ru/post/432646/
null
ru
null
# Настройка BGP для обхода блокировок, или «Как я перестал бояться и полюбил РКН» Ну ладно, про «полюбил» — это преувеличение. Скорее «смог сосуществовать с». Как вы все знаете, с 16 апреля 2018 года Роскомнадзор крайне широкими мазками блокирует доступ к ресурсам в сети, добавляя в "Единый реестр доменных имен, указателей страниц сайтов в сети «Интернет» и сетевых адресов, позволяющих идентифицировать сайты в сети «Интернет», содержащие информацию, распространение которой в Российской Федерации запрещено" (по тексту — просто реестр) по /10 иногда. В результате граждане Российской Федерации и бизнес страдают, потеряв доступ к необходимым им совершенно легальным ресурсам. После того, как в комментариях к одной из статей на Хабре я сказал, что готов помочь пострадавшим с настройкой схемы обхода, ко мне обратились несколько человек с просьбой о такой помощи. Когда у них всё заработало, один из них порекомендовал описать методику в статье. Поразмыслив, решил нарушить свое молчание на сайте и попробовать в кои-то веки написать что-то промежуточное между проектом и постом в Facebook, т.е. хабрапост. Результат — перед вами. Disclaimer ---------- Поскольку публиковать способы обхода блокировок доступа к информации, запрещенной на территории Российской Федерации, не очень законно, целью этой статьи будет рассказать о методе, позволяющем автоматизировать получение доступа к ресурсам, разрешенным на территории Российской Федерации, но из-за чьих-то действий недоступным напрямую через вашего провайдера. А доступ к другим ресурсам, получаемый в результате действий из статьи, является досадным побочным эффектом и целью статьи ни в коем случае не является. Также, поскольку я по профессии, призванию и жизненному пути прежде всего сетевой архитектор, программирование и линуксы не являются моими сильными сторонами. Поэтому, безусловно, скрипты можно написать лучше, вопросы безопасности в VPS можно проработать глубже и т.д. Ваши предложения будут приняты с благодарностью, если они будут достаточно детальны — с удовольствием добавлю их в текст статьи. TL;DR ----- Автоматизируем доступ к ресурсам через существующий у вас туннель, используя копию реестра и протокол BGP. Цель — убрать весь трафик, адресованный заблокированным ресурсам, в туннель. Минимум объяснений, в основном пошаговая инструкция. Что вам для этого потребуется ----------------------------- К сожалению, этот пост не для каждого. Для того, чтобы воспользоваться этой методикой, вам нужно будет собрать вместе несколько элементов: 1. У вас должен быть linux-сервер где-то за пределами поля блокировок. Или хотя бы желание такой сервер завести — благо это сейчас стоит от $9/год, а возможно и меньше. Метод также подходит, если у вас есть отдельный VPN-туннель, тогда сервер может располагаться и внутри поля блокировок. 2. Ваш роутер должен быть достаточно умным, чтобы уметь * любой нравящийся вам VPN-клиент (я предпочитаю OpenVPN, но это может быть PPTP, L2TP, GRE+IPSec и любой другой вариант, создающий туннельный интерфейс); * протокол BGPv4. Что означает, что для SOHO это может быть Mikrotik или любой роутер с OpenWRT/LEDE/аналогичными кастомными прошивками, позволяющими установить Quagga или Bird. Использование PC-роутера также не возбраняется. В случае энтерпрайза смотрите поддержку BGP в документации к вашему бордер-роутеру. 3. Вы должны иметь представление о использовании Linux и сетевых технологиях, в том числе о протоколе BGP. Или хотя бы хотеть получить такое представление. Поскольку объять необъятное в этот раз я не готов, некоторые непонятные для вас моменты вам придется изучить самостоятельно. Впрочем, на конкретные вопросы, конечно же, отвечу в комментариях и вряд ли окажусь единственным отвечающим, так что не стесняйтесь спрашивать. Что используется в примере -------------------------- * Копия реестра — из <https://github.com/zapret-info/z-i> * [VPS — Ubuntu 16.04](https://www.ubuntu.com/) * Сервис маршрутизации — [bird 1.6.3](http://bird.network.cz/) * Маршрутизатор — [Mikrotik hAP ac](https://mikrotik.com/product/RB962UiGS-5HacT2HnT) * Рабочие папки — поскольку работаем от рута, бОльшая часть всего будет размещаться в домашней папке рута. Соответственно: + /root/blacklist — рабочая папка со скриптом компиляции + /root/z-i — копия реестра с github + /etc/bird — стандартная папка настроек сервиса bird * Внешним IP-адресом VPS с сервером маршрутизации и точкой терминации туннеля принимаем 194.165.22.146, ASN 64998; внешним IP-адресом роутера — 81.177.103.94, ASN 64999 * IP адреса внутри туннеля — 172.30.1.1 и 172.30.1.2 соответственно. ![image](https://habrastorage.org/r/w1560/webt/bl/dp/iq/bldpiqe7mg7qgikqpodxl1udykg.png) Безусловно, вы можете использовать любые другие роутеры, операционные системы и программные продукты, корректируя решение под их логику. Кратко — логика решения ----------------------- 1. Подготовительные действия 1. Получаем VPS 2. Поднимаем туннель от маршрутизатора к VPS 2. Получаем и регулярно обновляем копию реестра 3. Устанавливаем и настраиваем сервис маршрутизации 4. Создаем на основании реестра список статических маршрутов для сервиса маршрутизации 5. Подключаем роутер к сервису и настраиваем отправку всего трафика через туннель. Собственно решение ------------------ ### Подготовительные действия На просторах сети есть множество сервисов, предоставляющих VPS за крайне умеренные деньги. Пока я нашел и пользуюсь вариантом за $9/год, но даже если не особо заморачиваться — вариантов за 1E/месяц много на каждом углу. Вопрос выбора VPS лежит далеко за пределами этой статьи, поэтому если кому-то что-то непонятно в этом — спросите в комментариях. Если вы будете использовать VPS не только для сервиса маршрутизации, но и для терминации на нем туннеля — вам нужно поднять этот туннель и, практически однозначно, настроить NAT для него. В сети большое количество инструкций по этим действиям, здесь я их повторять не буду. Основное требование к такому туннелю — он должен создавать на вашем роутере, поддерживающем туннель в сторону VPS, отдельный интерфейс. Этому требованию соответствует большинство используемых технологий VPN — например, OpenVPN в tun режиме прекрасно подходит. ### Получение копии реестра Как говорил Джабраил, "Тот, кто нам мешает, тот нам поможет". Раз уж РКН создает реестр запрещенных ресурсов, грешно было бы не воспользоваться этим реестром для решения нашей задачи. Копию реестра мы будем получать с github. Заходим на ваш линукс-сервер, проваливаемся в контекст root'а (*sudo su -*) и устанавливаем git, если он еще не установлен. ``` apt install git ``` Переходим в домашнюю директорию и вытягиваем копию реестра. ``` cd ~ && git clone --depth=1 https://github.com/zapret-info/z-i  ``` Настраиваем обновление по крону (у меня раз в 20 минут, но вы можете выбрать любой интересный вам интервал). Для этого запускаем *crontab -e* и добавляем в него следующую строку: ``` */20 * * * * cd ~/z-i && git pull && git gc ``` Подключаем хук, который будет создавать файлы для сервиса маршрутизации после обновления реестра. Для этого создаем файл */root/z-i/.git/hooks/post-merge* со следующим содержимым: ``` #!/usr/bin/env bash changed_files="$(git diff-tree -r --name-only --no-commit-id ORIG_HEAD HEAD)" check_run() { echo "$changed_files" | grep --quiet "$1" && eval "$2" } check_run dump.csv "/root/blacklist/makebgp" ``` и не забываем сделать его исполняемым ``` chmod +x /root/z-i/.git/hooks/post-merge ``` Скрипт makebgp, на который ссылается хук, мы создадим чуть позже. ### Установка и настройка сервиса маршрутизации Устанавливаем bird. К сожалению, выложенная в репозиториях Ubuntu на данный момент версия bird по свежести сопоставима с фекалиями археоптерикса, поэтому нам необходимо предварительно добавить в систему официальный PPA разработчиков ПО. ``` add-apt-repository ppa:cz.nic-labs/bird apt update apt install bird ``` После этого сразу отключаем bird для IPv6 — в этой инсталляции он для нас не потребуется. ``` systemctl stop bird6 systemctl disable bird6 ``` Ниже приведен минималистичный файл конфигурации сервиса bird (*/etc/bird/bird.conf*), которого нам вполне хватит (и еще раз напоминаю, что никто не запрещает развивать и дотюнивать идею под ваши собственные потребности) ``` log syslog all; router id 172.30.1.1; protocol kernel { scan time 60; import none; # export all; # Actually insert routes into the kernel routing table } protocol device { scan time 60; } protocol direct { interface "venet*", "tun*"; # Restrict network interfaces it works with } protocol static static_bgp { import all; include "pfxlist.txt"; #include "iplist.txt"; } protocol bgp OurRouter { description "Our Router"; neighbor 81.177.103.94 as 64999; import none; export where proto = "static_bgp"; local as 64998; passive off; multihop; } ``` router id — идентификатор роутера, визуально выглядящий как IPv4-адрес, но им не являющийся. В нашем случае может быть вообще любым 32-битным числом в формате IPv4-адреса, но хорошим тоном является указывать там именно IPv4-адрес вашего устройства (в данном случае VPS). protocol direct определяет, какие интерфейсы будут работать с процессом маршрутизации. В примере дана пара примеров имен, можно добавлять и другие. Можно и просто удалить строку, в этом случае сервер будет слушать все доступные интерфейсы с IPv4-адресом. protocol static — наше волшебство, которое подгружает из файлов списки префиксов и ip-адресов (которые на самом деле, конечно, префиксы по /32) для последующего анонса. Откуда появляются эти списки — будет рассмотрено ниже. Обратите внимание, что загрузка ip-адресов по умолчанию закомментирована, причина этого — большой объем выгрузки. Для сравнения, в списке префиксов на момент написания статьи 78 строк, а в списке ip-адресов — 85898. Настоятельно рекомендую запускаться и отлаживаться только на списке префиксов, а включать или не включать в дальнейшем подгрузку ip — решать после экспериментов со своим роутером. Далеко не каждый из них легко переварит 85 тысяч записей в таблице маршрутизации. protocol bgp, собственно, настраивает bgp-пиринг с вашим роутером. ip-адрес — это адрес внешнего интерфейса роутера (либо адрес интерфейса туннеля со стороны роутера), 64998 и 64999 — номера автономных систем. Их в данном случае можно назначить в виде любых 16-битных чисел, но хорошим тоном является использование номеров AS из приватного диапазона, определенного RFC6996 — 64512-65534 включительно (существует формат 32-битных ASN, но в нашем случае это точно излишество). Описанная конфигурация использует eBGP пиринг, при котором номера автономных систем сервиса маршрутизации и роутера должны различаться. Как вы можете заметить, сервису нужно знать IP-адрес роутера, поэтому если у вас динамический или немаршрутизируемый private (RFC1918) или shared (RFC6598) адрес, варианта поднимать пиринг на внешнем интерфейсе у вас нет, но внутри туннеля сервис все равно будет работать. Достаточно прозрачно также, что с одного сервиса вы можете обеспечивать маршрутами несколько разных роутеров — достаточно продублировать настройки для них копированием секции protocol bgp со сменой IP-адреса соседа. Именно поэтому в примере показаны настройки для пиринга вне туннеля, как наиболее универсальные. Убрать их в туннель несложно, поменяв соответственно IP-адреса в настройках. ### Обработка реестра для сервиса маршрутизации Сейчас нам надо, собственно, создать списки префиксов и ip-адресов, которые на предыдущем этапе упомянуты в protocol static. Для этого мы берем файл реестра и делаем из него нужные нам файлы следующим скриптом, размещаемым в */root/blacklist/makebgp* ``` #!/bin/bash cut -d";" -f1 /root/z-i/dump.csv| tr '|' '\n' | tr -d ' ' > /root/blacklist/tmpaddr.txt cat /root/blacklist/tmpaddr.txt | grep / | sed 's_.*_route & reject;_' > /etc/bird/pfxlist.txt cat /root/blacklist/tmpaddr.txt | sort | uniq | grep -Eo "([0-9]{1,3}[\.]){3}[0-9]{1,3}" | sed 's_.*_route &/32 reject;_' > /etc/bird/iplist.txt /etc/init.d/bird reload logger 'bgp list compiled' ``` Не забываем сделать его исполняемым ``` chmod +x /root/blacklist/makebgp ``` Теперь можно запустить его вручную и пронаблюдать появление файлов в /etc/bird. Вероятнее всего, в этот момент bird у вас не работает, поскольку на предыдущем этапе вы ему предложили поискать файлы, которых еще не было. Поэтому запускаем его и контролируем, что он запустился: ``` systemctl start bird birdc show route ``` Вывод второй команды должен показать около 80 записей (это на данный момент, а когда будете настраивать, всё будет зависеть от рьяности РКН в блокировках сетями) вида приблизительно такого: ``` 54.160.0.0/12 unreachable [static_bgp 2018-04-19] * (200) ``` Команда ``` birdc show protocol ``` покажет состояние протоколов внутри сервиса. Пока вы не настроили роутер (см. следующий пункт), протокол OurRouter будет в состоянии start (фазы Connect или Active), а после успешного подключения перейдет в состояние up (фаза Established). Например, в моей системе вывод этой команды выглядит следующим образом: ``` BIRD 1.6.3 ready. name proto table state since info kernel1 Kernel master up 2018-04-19 device1 Device master up 2018-04-19 static_bgp Static master up 2018-04-19 direct1 Direct master up 2018-04-19 RXXXXXx1 BGP master up 13:10:22 Established RXXXXXx2 BGP master up 2018-04-24 Established RXXXXXx3 BGP master start 2018-04-22 Connect Socket: Connection timed out RXXXXXx4 BGP master up 2018-04-24 Established RXXXXXx5 BGP master start 2018-04-24 Passive ``` ### Подключение роутера Все уже, наверное, устали читать эту портянку, но мужайтесь — конец близок. Тем более, что в этом разделе я не смогу дать пошаговую инструкцию — для каждого производителя она будет своя. Однако могу показать пару примеров. Основная логика — поднять BGP-пиринг и на все получаемые префиксы навесить nexthop, указывающий на наш туннель (если нужно выводить трафик через p2p интерфейс) или ip-адрес некстхопа, если трафик будет уходить в ethernet). Например, на Mikrotik в RouterOS это решается следующим образом ``` /routing bgp instance set default as=64999 ignore-as-path-len=yes router-id=172.30.1.2 /routing bgp peer add in-filter=dynamic-in multihop=yes name=VPS remote-address=194.165.22.146 remote-as=64998 ttl=default /routing filter add action=accept chain=dynamic-in protocol=bgp comment="Set nexthop" set-in-nexthop=172.30.1.1 ``` а в Cisco IOS — вот так ``` router bgp 64999 neighbor 194.165.22.146 remote-as 64998 neighbor 194.165.22.146 route-map BGP_NEXT_HOP in neighbor 194.165.22.146 ebgp-multihop 250 ! route-map BGP_NEXT_HOP permit 10 set ip next-hop 172.30.1.1 ``` В том случае, если один и тот же туннель используется и для BGP-пиринга, и для передачи полезного трафика, выставлять nexthop не обязательно, он выставится правильно средствами протокола. Но если выставите вручную — хуже от этого тоже не будет. На других платформах вам придется разбираться в конфигурировании самостоятельно, но если возникнут затруднения — пишите в комментариях, попробую помочь. После того, как у вас поднялась BGP-сессия, прилетели и установились в таблицу маршруты на крупные сети, трафик на адреса из них пошел и счастье близко, вы можете вернуться к сервису bird и попробовать раскомментировать там запись, подключающую список ip-адресов, выполнить после этого ``` systemctl reload bird ``` и посмотреть, как ваш роутер перенес эти 85 тысяч маршрутов. Будьте готовы отключать и думать, что с этим делать :) Итого ----- Чисто теоретически после выполнения вышеописанных действий у вас появился сервис, который автоматически перенаправляет трафик к забаненным в РФ IP-адресам мимо системы фильтрации. Его, конечно, можно дорабатывать. Например, достаточно легко сделать суммаризацию списка ip-адресов через решения на perl или python. Простой скрипт на perl, делающий это с помощью Net::CIDR::Lite, превращает 85 тысяч префиксов в 60 (не тысяч), но, естественно, перекрывает гораздо бОльший диапазон адресов, чем заблокировано. Поскольку сервис работает на третьем уровне модели ISO/OSI, он не спасет от блокировок по сайту/странице, если оно резолвится не в тот адрес, который записан в реестре. Но вместе с реестром из github прилетает файл nxdomain.txt, который несколькими штрихами скрипта легко превращается в источник адресов для, например, плагина SwitchyOmega в Chrome. Необходимо также упомянуть, что решение требует дополнительной заточки, если вы не просто пользователь интернета, но и публикуете какие-то ресурсы от себя (например, на этом подключении работает веб-сайт или почтовый сервер). Средствами роутера необходимо жестко привязать исходящий трафик от этого сервиса в ваш публичный адрес, иначе вы потеряете связность с теми ресурсами, которые покрываются получаемым роутером списком префиксов. При возникновении вопросов — задавайте, готов отвечать. UPD. Спасибо [navion](https://habr.com/users/navion/) и [TerAnYu](https://habr.com/users/teranyu/) за параметры для git, позволяющие уменьшить объемы скачиваемого. UPD2. Коллеги, похоже, я совершил ошибку, не добавив в статью инструкцию по настройке туннеля между VPS и роутером. Очень много вопросов вызваны этим. На всякий случай еще раз отмечу — подразумевается, что перед началом действий по этому руководству вы уже настроили VPN-туннель в нужном вам направлении и проверили его работоспособность (например, завернув туда трафик по дефолту или статикой). Если эта фаза у вас еще не выполнена, выполнять действия из статьи не очень имеет смысл. Пока у меня своего текста на этот счет нет, но если погуглить "настройка сервера OpenVPN" вместе с именем операционной системы, установленной на VPS, и "настройка клиента OpenVPN" с именем вашего маршрутизатора — вероятнее всего, вы найдете некоторое количество статей на этот счет, в том числе и на хабре. UPD3. [Unsacrificed](https://habr.com/users/unsacrificed/) написал код, который делает из dump.csv результирующий файл для bird с опциональной суммаризацией ip-адресов. Поэтому раздел "Обработка реестра для сервиса маршрутизации" можно заменить на вызов его программы. <https://habr.com/post/354282/#comment_10782712> UPD4. Небольшая работа над ошибками (не вносил по тексту): 1) вместо *systemctl reload bird* имеет смысл использовать команду *birdc configure*. 2) в маршрутизаторе Mikrotik вместо смены некстхопа на IP второй стороны туннеля */routing filter add action=accept chain=dynamic-in protocol=bgp comment="Set nexthop" set-in-nexthop=172.30.1.1* имеет смысл указывать маршрут прямо в интерфейс туннеля, без адреса */routing filter add action=accept chain=dynamic-in protocol=bgp comment="Set nexthop" set-in-nexthop-direct=<имя интерфейса>* UPD5. Появился новый сервис <https://antifilter.download>, откуда можно забирать уже готовые списки ip-адресов. Обновляются раз в полчаса. На клиентской стороне при этом остается только обрамить записи соответствующими "route… reject". И на этом, наверное, уже хватит лохматить бабушку и обновлять статью. UPD6. Переработанная версия статьи для тех, кому не хочется разбираться, а хочется запуститься — [здесь](https://habr.com/post/359268/).
https://habr.com/ru/post/354282/
null
ru
null
# Псевдо 3D эффект В последнее время обратил внимание на ролики программ, в которых реализован так называемый псевдо 3D эффект: когда картинка приложения изменяется в зависимости от положения пользователя относительно телефона. Или телефона относительно пользователя: смотря с какой стороны вы находитесь :). Для достижения этого эффекта можно использовать либо сенсоры либо отслеживать положение глаз пользователя (т.н. head tracking). Второй способ несколько сложнее, хотя даёт более правдоподобный результат. В качестве эксперимента мы решили попробовать сделать такой 3Д фон в программе [Deluxe Moon Pro](https://itunes.apple.com/us/app/deluxe-moon-pro-moon-phases/id482361332?mt=8) (В версии на маркете пока этот эффект не реализован!). Вот пример того, что у нас получилось: Итак начнем. Для того, чтобы достичь 3Д эффекта необходимо изображение разбить на «слои» и в зависимости от показаний акселерометра смещать каждый слой на определённую величину. Казалось бы всё просто, но есть несколько проблем. 1. Дрожание рук вызывает мерцание картинки 2. Телефон держится под наклоном. Поэтому, при запуске программы лучше считать, что в этом положении взгляд пользователя был направлен по нормали к плоскости телефона, а все изменения сенсоров отсчитывать от этого начального значения. Таким образом, общий подход к решению данной задачи такой: 1. Разбить фон на несколько слоёв, которые будут двигаться друг относительно друга. Это может быть текст, фоновые изображения или же специальные элементы созданные для придания «глубины» 2. Подписаться на события акселерометра. 3. При изменении акселерометра: 4. Подкоректировать показатели сенсоров относительно начальных значений. 5. Сгладить колебания от дрожания рук 6. Сдвигать каждый слой на свою величину. 7. Сделать сенсоры опциональными: не всем пользователям может понравится такой сюрприз. Итак, в нашем случае у нас есть изображение фона, + 2 слоя звезд, + слои различных элементов экрана. Для нужд фильтрации устанавливаем некоторые константы: ``` #define kUpdateFrequency 240.0 //частота обновления фильтра #define kCutoffFrequency 5.0 //частота фильтрации #define kAccDataScale 2.2 //масштаб данных ``` При запуске программы мы инициализируем низкочастотный фильтр для того чтобы убрать дребезжание фона, вызванное дрожанием рук. про него можно почитать вот [здесь](http://en.wikipedia.org/wiki/Low-pass_filter) и скачать пример реализации у Apple [здесь](https://developer.apple.com/library/ios/#samplecode/AccelerometerGraph/Introduction/Intro.html) ``` -(void)awakeFromNib { filter = [[LowpassFilter alloc] initWithSampleRate:kUpdateFrequency/10 cutoffFrequency:kCutoffFrequency]; //собственно фильтр низких частот if ([Options instance].useSensors) { [self performSelector:@selector(startAcc) withObject:nil afterDelay:4]; // стартуем с запаздыванием чтобы программа успела запуститься и заполнить нормальные начальные значения акселерометра } [[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(didGoToBG:) name:UIApplicationDidEnterBackgroundNotification object:nil]; //программа ушла в фон [[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(didResume:) name:UIApplicationDidBecomeActiveNotification object:nil]; //Программа стала активна [[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(useSensorsChanged) name:@"useSensors" object:nil]; //подписываемся на изменения опции } ``` Реакцию на изменение опции по вкл/выкл 3д эффекта фона и на сворачивание программы в фон описывать думаю не стоит, там все банально Теперь рассмотрим функцию которая запускает всю эту красоту P.S. Используется ARC потому, никаких retain или release ``` -(void)startAcc { @try { if (!acc) { startY = 100; //это стартовое положение сенсоров по Y чтобы не приходилось постоянно держать устройство в горизонтальном положении acc = [UIAccelerometer sharedAccelerometer]; acc.updateInterval = 1/kUpdateFrequency; acc.delegate = self; } } @catch (NSException *exception) { NSLog(@"startAcc %@",exception); } } ``` Чтобы остановить все это дело ``` -(void)stopAcc { @try { if (acc) { acc.delegate = nil; acc = nil; [self resetState]; } } @catch (NSException *exception) { NSLog(@"stopAcc %@",exception); } } ``` Дальше нам остается только ловить событие обновления акселерометра ``` - (void)accelerometer:(UIAccelerometer *)accelerometer didAccelerate:(UIAcceleration *)acceleration { @try { [filter addAcceleration:acceleration]; //фильтруем данные чтобы избежать «тряски» фона double x = filter.x*kAccDataScale; //масштабируем данные double y = filter.y*kAccDataScale; if (startY == 100) { startY = acceleration.y*kAccDataScale; // запоминаем начальные данные по Y } // убираем лишнее по X if (x > 1) { x = 1; } else if (x < -1) { x = -1; } // убираем лишнее по Y if (y > 1) { y = 1; } else if (y < -1) { y = -1; } // учитываем начальное значение y = (y - startY); //Сдвигаем необходимые элементы [self setOffsetElementForX:x Y:y]; } @catch (NSException *exception) { NSLog(@"accelerometer %@",exception); } } @end ``` И, наконец, в функции сдвига мы передвигаем разные слои на разную фиксированную величину. Поэтому, верхние элементы двигаются с меньшей скоростью чем фон что и создает эффект 3Д. При этом, все элементы должны сдвигаться в сторону поворота устройства. ``` -(void)setOffsetElementForX:(double)x Y:(double)y { @try { allEll.transform = CGAffineTransformMakeTranslation(-8.5*x, 11.5*y); movingButtonsView.transform = CGAffineTransformMakeTranslation(-8.5*x, 11.5*y); arcView.transform = CGAffineTransformMakeTranslation(-8.5*x, 11.5*y); bgView.transform = CGAffineTransformMakeTranslation(-17*x, 23*y); bgStar1View.transform = CGAffineTransformMakeTranslation(-13*x, 18*y); bgStar2View.transform = CGAffineTransformMakeTranslation(-10*x, 13*y); allEll2.transform = CGAffineTransformMakeTranslation(-17*x, 21*y); } @catch (NSException *exception) { NSLog(@"offsetElementForX %@",exception); } } ``` Эти 4 простых шага позволят сделать программы привлекательнее, интереснее и инновационее. 21-й век всё-таки. Помните, что эффектный и стильный дизайн может положительно повлиять на оценку вашего приложения ревьюверами, а также выделить их из сотен тысяч конкурентов. Мы в Lifeware Solutions (http://www.lifewaresolutions.com/) активно занимаемся исследованиями и будем рады, если наш опыт будет вам полезен. Буду очень благодарен за ваши отзывы.
https://habr.com/ru/post/162081/
null
ru
null
# Как сделать BTC-транзакцию без сдачи из мелких монет ![Задача: уложить как можно большее число ценных вещей в рюкзак при условии, что вместимость рюкзака ограничена](https://habrastorage.org/r/w1560/webt/fn/ez/kn/fnezknn373mov5izqcr1u0nppfk.png) Многие кошельки биткоина при выборе монет для отправки предпочитают использовать крупную монету, баланс которой больше отправляемой суммы. После каждой такой транзакции образуется монета-сдача. Через какое-то время весь кошелёк зарастает такими монетами порядка 0.001 (~10 долларов на текущий момент), которые уже и не на что потратить. Когда в очередной раз мне понадобилось сделать транзакцию, мне пришла в голову мысль, а нельзя ли собрать транзакцию так, чтобы сдачи не было. Кошелёк упрямо предлагал «распилить» ещё одну более крупную монету, так что я решил руками выбрать монеты, чтобы насобирать необходимую сумму. Однако это оказалось не так просто: сумма или получалась меньше нужного значения или слишком сильно его превосходила. В итоге я решил, что должен быть алгоритм, с помощью которого из монет можно собрать нужную сумму или чуть больше. Оказалось, что это не только возможно, но работает настолько хорошо, что сподвигло меня написать эту статью. Но обо всём по порядку. Задача о рюкзаке ---------------- Широко известна [задача о рюкзаке](https://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%B4%D0%B0%D1%87%D0%B0_%D0%BE_%D1%80%D1%8E%D0%BA%D0%B7%D0%B0%D0%BA%D0%B5): уложить как можно большее число ценных вещей в рюкзак при условии, что вместимость рюкзака ограничена. В данном случае мы имеем случай [задачи о рюкзаке 0-1](https://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%B4%D0%B0%D1%87%D0%B0_%D0%BE_%D1%80%D1%8E%D0%BA%D0%B7%D0%B0%D0%BA%D0%B5#%D0%97%D0%B0%D0%B4%D0%B0%D1%87%D0%B0_%D0%BE_%D1%80%D1%8E%D0%BA%D0%B7%D0%B0%D0%BA%D0%B5_0-1), так как каждый предмет (монета) доступен для укладки в рюкзак всего один раз. Кроме того, вес каждого «предмета» совпадает с его стоимостью, поэтому мы имеем дело с ещё более частным случаем, [задачей о сумме подмножеств](https://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%B4%D0%B0%D1%87%D0%B0_%D0%BE_%D1%80%D1%8E%D0%BA%D0%B7%D0%B0%D0%BA%D0%B5#%D0%A0%D0%B5%D1%88%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B7%D0%B0%D0%B4%D0%B0%D1%87%D0%B8_%D0%BE_%D1%81%D1%83%D0%BC%D0%BC%D0%B5_%D0%BF%D0%BE%D0%B4%D0%BC%D0%BD%D0%BE%D0%B6%D0%B5%D1%81%D1%82%D0%B2). В википедии предлагается использовать генетический алгоритм, однако я решил искать точное решение с помощью динамического программирования, так как это вполне достижимо по ресурсам и выглядит просто. Чтобы свести задачу о выборе монет к задаче о рюкзаке, надо совершить небольшое преобразование входных данных. Дело в том, что решение задачи о ранце (точнее, о сумме подмножеств) даст нам подмножество исходного множества, обладающее максимальной суммой, не превосходящей параметр (грузоподъёмность рюкзака). А нас не устраивают комбинации монет, дающие сумму меньше того количества, которое мы хотим отправить. Однако нас устраивают комбинации, слегка превосходящие. К примеру, если нам нужно отправить 0.005 биткоина, а мы нашли комбинацию, дающую 0.00499, то нам она бесполезна, так как меньше суммы, которую хочет продавец. А вот если мы найдём 0.005001, это подходит. Лишние сатошики можно использовать в качестве комиссии (о ней подробно поговорим ниже) или подарить продавцу, если он допускает отправку большей суммы. Поэтому нам надо с помощью задачи о рюкзаке выбирать не те монеты, которые надо **отправить**, а те, которые надо **оставить**. Тогда «недобор» до максимума превратится в «перебор» в терминах исходной задачи. ![Автоматический и ручной выбор монет для отправки](https://habrastorage.org/r/w1560/webt/ew/3q/su/ew3qsuzkpbzdy68chuyleel8vrm.png) Пример. Допустим, у нас есть такие монеты: 0.1 BTC, 0.002 BTC, 0.00832423 BTC. А отправить нам надо 0.01 BTC. Найдём такие монеты, сумма которых будет будет максимальна, но меньше или равна общей сумме наших монет минус отправляемая сумма, то есть вот такого числа: 0.1 + 0.002 + 0.00832423 — 0.01 = 0.10032423. В данном случае простым перебором находим, что это монета 0.1. Её мы оставляем, а значит отправляем остальные: 0.002 BTC и 0.00832423 BTC, которые в сумме дают 0.01032423 BTC, что больше 0.01 BTC и нас устраивает. (Правда, комиссия вышла примерно 3 доллара, но, допустим, что сеть загружена и мы хотим сделать отправку как можно быстрее.) Комиссии -------- Чтобы учесть комиссии за транзакцию, я модифицировал каждую входную монету, уменьшив её баланс на сумму, которую придётся выложить за её включение в транзакцию в качестве входа. Это можно сделать, зная размер входа и комиссию (например 2 сатоши за байт). Кроме того, я модифировал отправляемую сумму, приплюсовав к ней цену части транзакции, не зависящей от выбранных монет: заголовка и выхода(ов). Все эти параметры пользователь может указывать с помощью флагов. Также можно отключить поправку на комиссии вообще, указав комиссию 0 сатоши за байт. Информацию о размерах входов и выходов в разных версиях адресов (классические, обёрнутый segwit и нативный segwit) я взял отсюда: <https://bitcoin.stackexchange.com/a/84006> Алгоритмы и реализация ---------------------- Генетический алгоритм я сразу отбросил, может и зря. Сосредоточился на точных алгоритмах. Первой моей попыткой была реализация через полный перебор всех комбинаций, но даже на 40 монетах он работал часами и пришлось отказаться от него. Затем я попробовал динамическое программирование, [предложенное в википедии](https://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%B4%D0%B0%D1%87%D0%B0_%D0%BE_%D1%80%D1%8E%D0%BA%D0%B7%D0%B0%D0%BA%D0%B5#%D0%97%D0%B0%D0%B4%D0%B0%D1%87%D0%B0_%D0%BE_%D1%80%D1%8E%D0%BA%D0%B7%D0%B0%D0%BA%D0%B5_0-1). В нём можно не держать в памяти всю матрицу, а только текущий и предыдущий ряды. Кроме того, нам не нужно хранить ценность, так как она совпадает с весом и является номером столбца. Зато нам нужно помнить комбинацию — её я решил хранить в виде битсета. Кроме того, можно хранить всего один ряд, строя из него следующий ряд in-place. Каждая ненулевая запись ряда остаётся на своём месте и копируется (с добавлением соответствующего бита) в другую ячейку на определённое число ячеек правее (если там до этого было пусто). Если идти в обратном порядке, перебирая ячейку, в которую идёт «прыжок», то можно всё правильно заполнить: ![Иллюстрация перехода к следующему ряду, то есть добавление ещё одной монеты к динамическому программированию](https://habrastorage.org/r/w1560/webt/fa/qb/ts/faqbtspntkfkjgzwy6koiubabvi.png) *Каждая ненулевая ячейка в текущем ряду порождает в следующем ряду себя же и ещё одну ячейку на определённое число ячеек (равное достоинству добавляемой монеты) правее. Если в той ячейке уже есть значение, то «побеждает» вариант с наибольшим количеством выбранных (то есть не включённых в транзакцию) монет, так как мы хотим при прочих равных отправить как можно меньше монет.* На одну ячейку я трачу 8 байт под битсет, а число ячеек равно возможному количеству балансов от 0 до суммы монет минус отправляемая сумма. К примеру если в кошельке всего 1 биткоин, а отправляется 0.1, то будет 100'000'000-10'000'000 = 90'000'000 ячеек, каждая по 8 байт, то есть 720 мегабайт — немного для современного компьютера. Если число монет меньше 32, то можно было бы использовать по 4 байта на монету, но я не стал это оптимизировать. Кроме того, если монет больше, чем 64, то программа не работает — это тоже надо бы исправить, сделав битсет произвольной длины. Наконец можно отбросить последний знак в балансах, потеряв немного в точности, но выиграв в 10 раз в памяти. Но пока и так сойдёт. Программу я назвал **changeless** и разместил на гитлабе: [gitlab.com/starius/changeless](https://gitlab.com/starius/changeless/). Написана она на Go, собирается с помощью `go get`, как обычно. Доступны [бинарники для Linux, Windows, Mac](https://gitlab.com/starius/changeless/-/releases), собранные в CI. Когда я запустил программу с реальными монетами, я был поражён, как точно она подобрала необходимую комбинацию. Когда число монет большое, практически любую сумму, соразмерную балансам монет, можно подобрать с точностью вплоть до сатоши! Меняешь требуемую сумму на 1 сатоши и программы выдаёт совершенно другую комбинацию монет точно под эту сумму. Ниже пример работы на 50 случайных монетах с балансами от 0 до 1 биткоина. ``` $ cat coins50.txt 0.01331611 0.03906237 0.04847086 0.08453118 0.09748168 0.10395389 0.10619825 0.12156721 0.12923149 0.13587973 0.14798976 0.16053788 0.19011834 0.21570038 0.21946913 0.31861430 0.33435508 0.33718842 0.33789473 0.35976748 0.37360122 0.44944553 0.47572926 0.49927495 0.50992142 0.53062326 0.53079433 0.53542072 0.54715225 0.55019714 0.55313907 0.56656642 0.56673333 0.65879650 0.66228482 0.68424322 0.70436496 0.75638055 0.79095597 0.82438005 0.83684407 0.85151564 0.86862948 0.90054250 0.90239402 0.91636213 0.93087757 0.93579251 0.97207439 0.98248384 $ changeless -amount 10.00000000 -coins coins50.txt Processing item 50/50. 0.09748168 + 0.33435508 + 0.47572926 + 0.53542072 + 0.66228482 + 0.70436496 + 0.75638055 + 0.82438005 + 0.9005425 + 0.90239402 + 0.91636213 + 0.93579251 + 0.97207439 + 0.98248384 = 10.00004651 Tx size: 2118 vBytes. Total fees: 0.00004651 BTC (2.2 sats/vByte). $ changeless -amount 10.00000001 -coins coins50.txt Processing item 50/50. 0.01331611 + 0.09748168 + 0.53079433 + 0.56656642 + 0.70436496 + 0.75638055 + 0.82438005 + 0.86862948 + 0.9005425 + 0.91636213 + 0.93087757 + 0.93579251 + 0.97207439 + 0.98248384 = 10.00004652 Tx size: 2118 vBytes. Total fees: 0.00004651 BTC (2.2 sats/vByte). ``` Программа сумела подобрать комбинации монет для отправки ровно 10 биткоинов и ровно 10.00000001 биткоинов (10 биткоинов и 1 сатоши). Чтобы это увидеть, надо вычесть из суммы монет комиссии: 10.00004651 — 0.00004651 = 10, 10.00004652 — 0.00004651 = 10.00000001. Как получить список балансов монет ---------------------------------- Для программы Electrum я нашёл такой способ (команда консоли): ``` ' '.join((x["value"]) for x in listunspent()) ``` Если хочется исключить определённые монеты, например на определённом адресе, то это можно сделать так: ``` ' '.join((x["value"]) for x in listunspent() if x["address"] != "bad address") ``` Для других кошельков я такого простого способа не нашёл и пришлось перепечатывать руками.
https://habr.com/ru/post/465041/
null
ru
null
# Управление производительностью с Python 3.12 В Python 3.12 появилась поддержка perf profiling. В этой статье увидим, как это помогает сократить время выполнения Python-скрипта с 36 секунд до 0,8. Мы рассмотрим Linux-инструмент `perf`, графики Flame Graph, посмотрим на  дизассемблированный код и займемся поиском ошибок. Код из статьи можно посмотреть [здесь](https://github.com/peter-mcconnell/petermcconnell.com/tree/main/assets/dummy/perf_py_proj). Загляните на соответствующую [страницу](https://docs.python.org/3.12/howto/perf_profiling.html) официальной документации Python и в [список изменений](https://www.python.org/downloads/release/python-3120a3/). Для этой статьи из документов по ссылкам выше важно следующее: Профилировщик perf для Linux является мощным инструментом, который позволяет профилировать и получать информацию о производительности приложения. У perf богатая экосистема инструментов, которые помогают с анализом данных, которые он производит. Основная проблема при использовании профилировщика perf с приложениями Python состоит в том, что perf позволяет получить информацию только о нативных символах, то есть об именах функций и процедур, написанных на C. Это значит, что имена и названия файлов функций Python в вашем коде в выводе perf не появятся. Начиная с Python 3.12, интерпретатор может работать в специальном режиме, который позволяет функциям Python появляться в выводе профилировщика perf. При включенном режиме интерпретатор вставляет небольшой фрагмент кода, скомпилированный на лету, перед выполнением каждой функции Python и обучает perf взаимосвязи между этим фрагментом кода и связанной с ним функцией Python с помощью файлов perf map. ### Написание «плохой» программы Давайте приступим. Для начала создадим Python-скрипт для профилирования. Я делаю это до установки Python 3.12, поскольку хочу визуализировать и сравнить с помощью Flame Graph то, как этот процесс выглядит в версиях 3.10 и 3.12. Вот скрипт, который выполняет поиск в большом списке: ``` import time def run_dummy(numbers): for findme in range(100000): if findme in numbers: print("found", findme) else: print("missed", findme) if __name__ == "__main__": # создать входные данные большого размера, чтобы продемонстрировать неэффективность numbers = [i for i in range(20000000)] start_time = time.time() # текущее время [начало] run_dummy(numbers) # запустить наш неэффективный метод end_time = time.time() # текущее время [конец] duration = end_time - start_time # вычислить продолжительность print(f"Duration: {duration} seconds") # вывести продолжительность на экран ``` Запуск скрипта дает следующий результат: ``` python3.10 assets/dummy/perf_py_proj/before.py ... found 99992 found 99993 found 99994 found 99995 found 99996 found 99997 found 99998 found 99999 Duration: 36.06884431838989 seconds ``` 36 секунд недостаточно для того, чтобы собрать необходимое количество сэмплов. ### Flame Graph Теперь создадим [Flame Graph](https://github.com/brendangregg/FlameGraph): ``` # запись профиля производительности в файл "perf.data" (вывод по умолчанию) perf record -F 99 -g -- python3.10 assets/dummy/perf_py_proj/before.py # прочтение perf.data (созданного выше) и отображение вывода трассировки perf script > out.perf # сложим стеки в одну линию  # здесь я ссылаюсь на ~/FlameGraph/ - лежит по адресу https://github.com/brendangregg/FlameGraph ~/FlameGraph/stackcollapse-perf.pl out.perf > out.folded # генерация flamegraph ~/FlameGraph/flamegraph.pl out.folded > ./assets/perf_example_python3.10.svg ``` Получаем красивый SVG с визуализацией данных: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b6b/72c/d86/b6b72cd869bced9c4f4fe3bb3bf19f4f.png)Я вижу, что большая часть времени была потрачена на «new\_keys\_object.lto\_priv.0», но это не несет смысла в контексте кода. ### Настало время для Python 3.12 Для начала установим. Шаги установки различаются в зависимости от ОС. Следуйте [инструкциям](https://github.com/python/cpython/tree/v3.12.0a3#build-instructions) по сборке для вашей среды. ``` # для ubuntu:22.04 # убедимся, что я установил python3-dbg  sudo apt-get install python3-dbg # сборка python export CFLAGS="-fno-omit-frame-pointer -mno-omit-leaf-frame-pointer" ./configure --enable-optimizations make make test sudo make install unset CFLAGS # после этого я сбросил символьную ссылку python3 на 3.10, так как 3.12 еще не стабилен # для тестирования python3.12 я буду называть «python3.12» вместо «python3» ln -sf /usr/local/bin/python3.10 /usr/local/bin/python3 ``` После установки нужно включить поддержку perf. В [документации](https://docs.python.org/3.12/howto/perf_profiling.html) предлагается три возможных варианта: 1) переменная среды, 2) параметр -X или 3) динамическое использование `sys`. Я выберу подход с переменной среды, поскольку я за то, чтобы все было профилировано с помощью небольшого скрипта: ``` export PYTHONPERFSUPPORT=1 ``` Теперь мы просто повторяем описанный выше процесс, используя вместо этого собранный `python3.12`: ``` # записать профиль производительности в файл "perf.data" (вывод по умолчанию) perf record -F 99 -g -- python3.12 assets/dummy/perf_py_proj/before.py # прочитать perf.data (созданный выше) и отобразить вывод трассировки perf script > out.perf # сложим стеки в одну линию # здесь я ссылаюсь на ~/FlameGraph/ - который можно найти по адресу https://github.com/brendangregg/FlameGraph ~/FlameGraph/stackcollapse-perf.pl out.perf > out.folded # генерация flamegraph ~/FlameGraph/flamegraph.pl out.folded > ./assets/perf_example_python3.12.before.svg ``` Взглянем на отчет с помощью `perf report -g -i perf.data`. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f69/ca7/897/f69ca7897cd8ad9d51ff601ed21a84ea.png)Отлично, мы видим имена функций Python и имена скриптов. Давайте посмотрим на обновленный SVG, который визуализирует трассировки с Python 3.12: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f27/032/1c7/f270321c715408b9043c6dee139ba0d1.png)Это уже выглядит гораздо полезнее. Отсюда мы узнали, что большая часть времени уходит на сравнения и на метод `list_contains`. Также видим конкретный файл [before.py](http://before.py) и вызывающий его метод `run_dummy`. ### Время расследования / исправление Теперь, когда мы знаем, где в нашем коде проблема, давайте посмотрим [на исходный код](https://github.com/python/cpython/blob/199507b81a302ea19f93593965b1e5088195a6c5/Objects/listobject.c#L440) на CPython, чтобы понять, почему метод `list_contains` работает так медленно. *Примечание*: если нет доступа к исходному коду, можно просмотреть дизассемблированный код непосредственно в результатах perf. Ближе к концу статьи я добавлю краткое описание того, как это выглядит. ``` // Я нашел это, зайдя на https://github.com/python/cpython/ и выполнив поиск "list_contains" static int list_contains(PyListObject *a, PyObject *el) { PyObject *item; Py_ssize_t i; int cmp; for (i = 0, cmp = 0 ; cmp == 0 && i < Py_SIZE(a); ++i) { item = PyList_GET_ITEM(a, i); Py_INCREF(item); cmp = PyObject_RichCompareBool(item, el, Py_EQ); Py_DECREF(item); } return cmp; } ``` Отвратительно… Каждый раз при вызове этого кода выполняется итерация по массиву и сравнение с каждым элементом. Это не лучший вариант для нашей ситуации, поэтому давайте вернемся к написанному коду на Python. Flame Graph показывает, что проблема кроется в методе `run_dummy`: ``` def run_dummy(numbers): for findme in range(100000): if findme in numbers: # <- это запускает list_contains print("found", findme) else: print("missed", findme) ``` Эту строку мы изменить не можем, так как она делает то, что нам нужно — определяет, является ли integer числом. Возможно, мы можем изменить тип данных чисел на более подходящий для поиска. В нашем коде есть: ``` numbers = [i for i in range(20000000)] start_time = time.time() # получить текущее время [начало] run_dummy(numbers) # запустить наш неэффективный метод ``` Здесь мы использовали тип данных LIST для наших «чисел», которые под капотом (в CPython) реализованы в виде массивов с динамическим размером и, как таковые, далеко не так эффективны (O (N)), как Hashtable для поиска вверх по элементу (это O (1)). С другой стороны, SET (другой тип данных Python) реализован как Hashtable и даст нам быстрый поиск, который как раз нам и нужен. Давайте изменим тип данных в коде на Python и посмотрим, на что это повлияет: ``` # мы просто изменим эту строку, приведя числа к набору перед запуском run_dummy run_dummy(set(numbers))  # передача set() для быстрого поиска ``` Теперь мы можем повторить шаги, описанные выше, чтобы сгенерировать новый Flame Graph: ``` # запись профиля производительности в файл "perf.data" (вывод по умолчанию) perf record -F 99 -g -- python3.12 assets/dummy/perf_py_proj/after.py ... found 99998 found 99999 Duration: 0.8350753784179688 seconds [ perf record: Woken up 1 times to write data ] [ perf record: Captured and wrote 0.039 MB perf.data (134 samples) ] ``` Ситуация значительно улучшилась. Если раньше выполнение скрипта занимало 36 секунд, то теперь всего 0,8 секунды. Давайте создадим Flame Graph для нового улучшенного кода: ``` # читать perf.data (создан выше) и отображать вывод трассировки  perf script > out.perf # сложим стеки в одну линию  # здесь я ссылаюсь на ~/FlameGraph/ - который можно найти по адресу https://github.com/brendangregg/FlameGraph ~/FlameGraph/stackcollapse-perf.pl out.perf > out.folded # генерация flamegraph ~/FlameGraph/flamegraph.pl out.folded > ./assets/perf_example_python3.12.after.svg ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/123/26d/35a/12326d35ae9d541ec40f3425adb2173d.png)Вот это гораздо более здоровый вид Flame Graph, и в результате приложение теперь работает намного быстрее. Поддержка профилирования производительности в Python 3.12 представляет собой чрезвычайно полезный инструмент для разработчиков программного обеспечения, которые хотят создавать быстрые программы. ### Бонусный раунд: что делать, если у вас нет доступа к исходному коду? Иногда к базовому коду может не быть доступа, что затрудняет понимание происходящего. К счастью, `perf report` позволяет просматривать дизассемблированный код, что помогает обрисовать картину того, что на самом деле делает машина. Я предпочитаю исходный код, если его можно заполучить, поскольку он позволяет мне просмотреть связанные коммиты и пул-реквесты. Для просмотра нужно сделать следующее: Открываем отчет о производительности и выбираем интересующую нас строку: ``` # это предполагает, что мы уже запустили «запись производительности» для создания perf.data... perf report -g -i perf.data ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1f1/454/e59/1f1454e59c1cd5b015556aad4412f9f3.png)Нажмите Enter и выберите вариант аннотации: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d88/c14/884/d88c14884caa2e83f86faed2c87c1814.png)Здесь мы можем видеть как код на C, так и машинные инструкции. Супер удобно! Можно [сравнить](https://github.com/python/cpython/blob/199507b81a302ea19f93593965b1e5088195a6c5/Objects/l) скриншот ниже с интересующим нас фрагментом кода. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/892/9ff/cc4/8929ffcc484887eeb455525cf3b0deb1.png)Надеюсь, эта статья дала представление об управлении производительностью, для дальнейшего же изучения темы я могу порекомендовать [вот эту книгу](https://www.amazon.com/Systems-Performance-Brendan-Gregg/dp/0136820158?crid=2J7NSUPP1LBQ2&keywords=systems+performance+enterprise+and+the+cloud&qid=1672315747&sprefix=systems+performance%2Caps%2C167&sr=8-1&linkCode=li2&tag=mobile052c67f-20&linkId=042c48313bcd6eae20ae98499600e515&language=en_US&ref_=as_li_ss_il) о производительности систем.  --- Приглашаем всех желающих на открытый урок, на котором познакомимся с Декораторами в Python, узнаем, как они работают, а также научимся создавать их самостоятельно. Записаться можно [здесь.](https://otus.pw/GAn4/)
https://habr.com/ru/post/712578/
null
ru
null
# Программирование игровых приложений на Corona SDK: часть 1 ![](https://habrastorage.org/r/w1560/files/c03/dd2/f6c/c03dd2f6caac4713993bb4fa5ac85a5d.png) **Важно**Этот туториал рассчитан на людей, у которых есть опыт программирования на Lua, если нет, то отправляйтесь исправлять ситуацию. Но он отлично подойдет и для тех, кто никогда не программировал на Lua. ### Что такое Corona SDK? Corona SDK — это кроссплатформенный игровой движок, использующий Lua для описания игровой логики. Позволяет экспортировать приложения под различные платформы, в том числе и мобильные. **Возможность экспорта под такие платформы:** * Windows * Mac OS * iPhone/iPad * Android * tvOS Начнем! ------- Регистрируемся на [официальном сайте](https://coronalabs.com), скачиваем Corona SDK, с установкой проблем возникнуть не должно. После установки, запускаем ярлык «Corona Simulator», который должен появиться на рабочем столе. Откроется менеджер проектов и специальная консоль. ![](https://habrastorage.org/r/w780q1/files/c5e/8fb/3f5/c5e8fb3f5ba34e52af44715afbbf5b13.jpg) Нажимаем «New project». Вводим название проекта, остальное оставляем, как есть, нажимаем на «OK». ![](https://habrastorage.org/r/w780q1/files/79a/5fb/1db/79a5fb1db96b47de839b595cb8d07033.jpg) Должно открыться такое окно. ![](https://habrastorage.org/r/w780q1/files/4e2/8b0/a7d/4e28b0a7d91c4422baa93b0250d8a901.jpg) И папка проекта в проводнике. ![](https://habrastorage.org/r/w780q1/files/539/64c/81e/53964c81e27a422da8607a8fcc977fe3.jpg) Приступаем к программированию ----------------------------- Я использую «Notepad++» для редактирования кода, но подойдет любой, другой текстовый редактор. Открываем файл «main.lua». После открытия, вы увидите, что-то вроде этого. ![](https://habrastorage.org/r/w780q1/files/729/b93/784/729b93784423451da294256ec03a033c.jpg) Я буду использовать эти изображения, которые я нарисовал в программе «Graphics Gale». Нужно закинуть их в корень папки проекта. Игрок. ![](https://habrastorage.org/r/w1560/files/219/76f/682/21976f6820794c568dd6cbf78ec32c87.png) Трава. ![](https://habrastorage.org/r/w1560/files/921/7a0/be1/9217a0be1a6d4c90bb9802542cff32f3.png) Для начала, подключим физику, загрузим изображения и назначим координаты для игрока. ``` local physics = require("physics") physics.start() -- запускаем физику. player = display.newImage("player.png") -- загружаем изображение. player.x = 100 player.y = 100 -- меняем координаты игрока. physics.addBody(player,"dynamic") -- включаем физику для игрока, "dynamic" объекты - действуют за законами гравитации. ``` Нажимаем Ctrl + S, если вы все сделали правильно, игрок начнет падать вниз. ![](https://habrastorage.org/r/w780q1/files/dd8/b78/cc0/dd8b78cc0a76432abf25ed423df41f31.jpg) Добавим землю ------------- ``` grass_block={} -- массив блоков for i=0,5 do grass_block[i]=display.newImage("grass.png") grass_block[i].x=grass_block[i].x+i*64 grass_block[i].y=player.y+100 physics.addBody(grass_block[i],"static") -- "static" объекты - игнорируют гравитацию. end ``` Результат: ![](https://habrastorage.org/r/w780q1/files/ad6/06c/ee4/ad606cee4aa246c29994cfae2746e63f.jpg) Заключение ---------- Вот такой вот получился краткий урок. В следующем уроке, я расскажу, как сделать управление игроком, добавлю фон, и расскажу тонкости настроек для мобильных платформ.
https://habr.com/ru/post/318256/
null
ru
null
# Основы Linux от основателя Gentoo. Часть 2 (5/5): Модули ядра В заключительном отрывке второй части описаны основы управление модулями ядра Linux. Этот минимум неплохо знать всякому пользователю, однако, не стоит надеяться обнаружить в этом руководстве для начинающих информацию по сборке и конфигурированию модулей ядра. > > > [![](https://habrastorage.org/r/w1560/storage/habraeffect/e0/d8/e0d82146fe87b40c693a8662cf7637ae.png)](http://www.gnu.org/graphics/3dbabygnutux.html) > > ##### **Навигация по основам Linux от основателя Gentoo:** > > > > ###### Часть I > > 1. [BASH: основы навигации](/post/99041/) (вступление) > 2. [Управление файлами и директориями](/post/99291/) > 3. [Ссылки, а также удаление файлов и директорий](/post/99653/) > 4. [Glob-подстановки](/post/99827/) (итоги и ссылки) > > ###### Часть II > > 1. [Регулярные выражения](/post/102442/) (вступление) > 2. [Назначения папок, поиск файлов](/post/105495/) > 3. [Управление процессами](/post/105657/) > 4. [Обработка текста и перенаправления](/post/105926/) > 5. **Модули ядра** (итоги и ссылки) > > ###### Часть III: [1](/post/108764/ "Документация (вступление)"), [2](/post/109392/ "Модель прав доступа"), [3](/post/110012/ "Управление аккаунтами"), [4](/post/110697/ "Настройка окружения (итоги и ссылки)") > > > > Модули ядра ----------- ### Знакомьтесь, «uname» Команда uname дает множество интересной информации о вашей системе. Вот пример вывода на моей рабочей машине, после того, как я набрал uname -a, что говорит команде uname напечатать всю имеющуюся информацию: `$ **uname -a** Linux inventor 2.4.20-gaming-r1 #1 Fri Apr 11 18:33:35 MDT 2003 i686 AMD Athlon(tm) XP 2100+ AuthenticAMD GNU/Linux` ### Подробнее о uname Теперь, давайте посмотрим, какую же информацию о системе может дать uname ```` тип информации аргумент пример имя ядра -s "Linux" имя хоста -n "inventor" релиз ядра -r "2.4.20-gaming-r1" версия ядра -v "#1 Fri Apr 11 18:33:35 MDT 2003" архитектура -m "i686" процессор -p "AMD Athlon(tm) XP 2100+" платформа -i "AuthenticAMD" операционная система -o "GNU/Linux" ```` Интригующе! А что напечатает uname -a у вас? ### Релиз ядра А теперь небольшой трюк. Для начала выполните uname -r чтобы программа напечатала релиз ядра, которое работает в данный момент. Теперь посмотрите в директорию */lib/modules* и — опа! — Я уверен, что вы обнаружили каталог с точно таким же именем! OK, никакой магии, теперь самое время поговорить о значении каталогов в */lib/modules*, а также объяснить, что такое модули ядра. ### Ядро Ядро Linux это сердце того, что обычно называют «Linux» — это кусок кода, который напрямую взаимодействует с вашим железом и абстрагирует от него обычные программы. Благодаря ядру, вашему текстовому редактору не нужно беспокоиться на какой диск, SCSI или IDE, а может даже в RAM, он производит запись. Редактор просто записывает в файловую систему, а ядро заботится обо всем остальном. ### Введение в модули ядра Итак, что такое модули ядра? Они представляют собой часть ядра, которая сохраняется на диске в специальном формате. По вашей команде, они подгружаются в работающее ядро и добавляют в него новую функциональность. Поскольку модули ядра загружаются по требованию, вы можете иметь ядро поддерживающее дополнительную функциональность, которая в обычном состоянии будет выключена и недоступна. Но «раз в сто лет», эти модули окажутся очень полезными и смогут быть загружены — часто автоматически — для поддержки диковинной файловой системы или устройства, которое вы редко используете. ### Модули ядра вкратце В общем, модули ядра позволяют по требованию добавить возможностей в работающее ядро. Без модулей, вам бы пришлось компилировать новое ядро и перезагружаться для того, чтобы добавить поддержку чего-нибудь нового. ### lsmod Для просмотра загруженных модулей на вашей системе используйте команду lsmod: ```` # **lsmod** Module Size Used by Tainted: PF vmnet 20520 5 vmmon 22484 11 nvidia 1547648 10 mousedev 3860 2 hid 16772 0 (unused) usbmouse 1848 0 (unused) input 3136 0 [mousedev hid usbmouse] usb-ohci 15976 0 (unused) ehci-hcd 13288 0 (unused) emu10k1 64264 2 ac97_codec 9000 0 [emu10k1] sound 51508 0 [emu10k1] usbcore 55168 1 [hid usbmouse usb-ohci ehci-hcd] ```` ### Список модулей Как видите, на моей системе загружено достаточно немного модулей. vmnet и vmmon модули, обеспечиваю необходимую функциональность для [VMWare Workstation](http://www.vmware.com/), которая позволяет мне запускать виртуальные машины в окне рабочего стола. Модуль nvidia выпущен [NVIDIA corporation](http://www.nvidia.com/) и позволяет использовать 3D-ускорение в Linux. Дальше у меня есть набор модулей, которые используются для поддержки USB устройств ввода — mousedev, hid, usbmouse, input, usb-ohci, ehci-hcd и usbcore. Имеет смысл сконфигурировать ваше ядро для поддержки USB модулей. Почему? Потому что USB девайсы это «plug and play» (подключай и работай) девайсы и если у вас есть поддержка USB в модулях, вы можете спокойно пойти и купить новое USB устройство, подключить его, и ваша система автоматически загрузит соответствующие модули для этого устройства. Это удобный способ сделать что-то. ### Сторонние модули Завершают этот список модули: emu10k1, ac97\_codec и sound, которые вместе обеспечиваю поддержку моей звуковой карты Audigy. Следует отметить, некоторые из моих модулей доступны прямо в исходниках ядра. Например, все USB-модули были скомпилированы из стандартных исходных текстов ядра Linux. Однако, nvidia, emu10k1 и VMWare-модули были получены из других источников. Это подчеркивает другую важную особенность модулей ядра — возможность сторонних производителей добавлять необходимую функциональность в ядро и включать ее прямо в запущенное ядро. Без перезагрузки. ### depmod и компания В моей папке */lib/modules/2.4.20-gaming-r1/*, есть несколько файлов которые начинаются со строки «modules.»: `$ **ls /lib/modules/2.4.20-gaming-r1/modules.\*** /lib/modules/2.4.20-gaming-r1/modules.dep /lib/modules/2.4.20-gaming-r1/modules.generic_string /lib/modules/2.4.20-gaming-r1/modules.ieee1394map /lib/modules/2.4.20-gaming-r1/modules.isapnpmap /lib/modules/2.4.20-gaming-r1/modules.parportmap /lib/modules/2.4.20-gaming-r1/modules.pcimap /lib/modules/2.4.20-gaming-r1/modules.pnpbiosmap /lib/modules/2.4.20-gaming-r1/modules.usbmap` Эти файлы содержат множество информации о различных зависимостях. В том числе, они содержат информацию о зависимостях для модулей — некоторые модули требуют загрузки других модулей перед тем как быть запущенными. ### Как получить модули Некоторые модули ядра разработаны для работы со специальными устройствами, как например emu10k1 — модуль для поддержки моей звуковой карты. Для этого типа модулей, приведенные выше файлы включают также информацию о PCI IDs и прочие идентификационные метки оборудования, которое они поддерживают. Эта информация может быть использована различными скриптами, например «hotplug» (который мы рассмотрим в следующих руководствах) для автоматического определения оборудования и загрузки соответствующих модулей. ### Использование depmod Информация о зависимостях может становиться не актуальной, особенно в случае установки новых модулей. Чтобы ее обновить, просто введите depmod -a. Программа depmod просканирует модули из вашей папки */lib/modules* и обновит информацию о зависимостях. Она делает это сканируя модули в */lib/modules* и проверяя так называемые «symbols» внутри модулей. ### Расположение модулей ядра Итак, как выглядят модули ядра? Для ядра 2.4, все файлы модулей обычно находятся в */lib/modules* и имеют имя оканчивающееся на ".o" (для 2.6 ".ko" — прим. ред.). Чтобы увидеть все модули из */lib/modules*, введите следующее: `# **find /lib/modules -name '\*.o'** /lib/modules/2.4.20-gaming-r1/misc/vmmon.o /lib/modules/2.4.20-gaming-r1/misc/vmnet.o /lib/modules/2.4.20-gaming-r1/video/nvidia.o /lib/modules/2.4.20-gaming-r1/kernel/fs/fat/fat.o /lib/modules/2.4.20-gaming-r1/kernel/fs/vfat/vfat.o /lib/modules/2.4.20-gaming-r1/kernel/fs/minix/minix.o [список обрезан для краткости]` ### insmod vs. modprobe Итак, как же подгрузить модуль в работающее ядро? Один из вариантов, использовать команду insmod и указать ей полный путь к модулю, который вы хотите загрузить: ```` # **insmod /lib/modules/2.4.20-gaming-r1/kernel/fs/fat/fat.o** # **lsmod | grep fat** fat 29272 0 (unused) ```` Хотя, обычно модули загружают используя команду modprobe. Одна из приятных вещей, которую делает modprobe это автоматическая загрузка всех необходимых зависимостей для данного модуля. Кроме того, вам не нужно указывать полный путь и расширение загружаемого модуля. ### rmmod и modprobe в действии Давайте выгрузим наш модуль fat.o и загрузим его обратно используя modprobe: ```` # **rmmod fat** # **lsmod | grep fat** # **modprobe fat** # **lsmod | grep fat** fat 29272 0 (unused) ```` Как видите, работа команды rmmod очень похожа на работу modprobe, но имеет противоположный эффект — она выгружает указанный модуль. ### Ваши помощники modinfo и modules.conf Можете воспользоваться командой modinfo, чтобы узнать пару интересных вещей о своих любимых модулях: ```` # **modinfo fat** filename: /lib/modules/2.4.20-gaming-r1/kernel/fs/fat/fat.o description: author: license: "GPL" ```` Также обратите внимание на файл */etc/modules.conf*. Он содержит настройки для modprobe и позволяет изменять поведение modprobe. Например, указывать какие модули загруть до/после загрузки остальных, запускать скрипты до и после загрузки модуля, и многое другое. ### Структура modules.conf Синтаксис и функциональность *modules.conf* достаточно сложны, и мы не будем в них сейчас углубляться (наберите man modules.conf чтобы узнать все подробности), но есть несколько вещей, которые вы должны знать об этом файле. Во-первых, многие дистрибутивы генерируют этот файл автоматически из набора файлов в других директориях, таких как */etc/modules.d/*. Например, в Gentoo Linux есть такая папка, и запуск команды update-modules прочитает все файлы из */etc/modules.d/* и объединит их в новый */etc/modules.conf*. Поэтому, сделав свои изменения в файлах из */etc/modules.d/* запустите update-modules, если вы используете Gentoo. В Debian, процедура очень похожа, за исключением того, что папка называется */etc/modutils/*. > Для ядер версии 2.6 аналогичные по функциональности файл и папка из каталога etc называются modprobe.conf и modprobe.d соответственно. Синтаксис там упрощен, смотрите man modprobe.conf > > *— Примечание редактора.* Итоги и ресурсы --------------- ### Итоги Мои поздравления; вы дошли до конца этого учебника по основам администрирования Linux! Надеюсь он помог вам немного систематизировать ваши знания о Linux. Пожалуйста присоединяйтесь к нам в следующем руководстве раскрывающем более продвинутые аспекты администрирования, такие как права доступа, управление пользователями, файловую систему, монтирование и многое другое. В следующем руководстве мы будем опираться на фундамент, заложенный здесь. И помните, продолжая изучать эту серию руководств, вы уже совсем скоро будете готовы сдаче экзаменов на получение сертификата LPIC Level 1 от Linux Professional Institute. ### Ресурсы Говоря о сертификации LPIC, если вы действительно в ней заинтересованы, то я настоятельно рекомендую вам изучить следующие источники, которые были тщательно выбраны для расширения знаний полученных в этом руководстве. В сети есть множество хороших руководств по регулярным выражениям. Вот парочка: * **[Regular Expressions Reference](http://www.zvon.org/other/reReference/Output/)** * **[Regular Expressions Explained](http://zez.org/article/articleview/11/)** Можете прочитать стандарт иерархии файловой системы (Filesystem Hierarchy Standard) на **<http://www.pathname.com/fhs/>**. В серии **[Bash в примерах](http://www.funtoo.org/en/articles/linux/bash/1)** (будет перевод), я покажу вам как использовать инструкции bash для написания ваших собственных скриптов. Это серия (особенно первая и вторая части) будет хорошей подготовкой к экзамену LPIC Level 1: Вы можете узнать больше о sed в серии руководств **[Sed в примерах](http://www.funtoo.org/en/articles/linux/sed/1)** (будет переведено). Если вы планируете сдавать LPI экзамен, убедитесь что прочитали первые две части этой серии. Чтобы узнать больше об awk, обратитесь к серии **[Awk в примерах](http://www.funtoo.org/en/articles/linux/awk/1)** (перевод будет). Если вы не знакомы с редактором vi, Я настоятельно рекомендую вам посмотреть мое руководство **[Vi - the cheat sheet method](http://www-106.ibm.com/developerworks/edu/l-dw-linuxvi-i.html)**. Этот учебник станет легким, но и стремительным введением в этот мощный текстовый редактор. Считайте, что это материал необходимый к прочтению, если вы не знаете как пользоваться vi. *Спасибо **Dmitry Minsky** (Dmitry.Minsky@gmail.com) за перевод.* **[Продолжение...](/post/108764/)** --- Об авторах ---------- ### Daniel Robbins Дэниэль Роббинс — основатель сообщества Gentoo и создатель операционной системы Gentoo Linux. Дэниэль проживает в Нью-Мехико со свой женой Мэри и двумя энергичными дочерьми. Он также основатель и глава [Funtoo](http://www.funtoo.org/), написал множество технических статей для [IBM developerWorks](http://www.ibm.com/developerworks/), Intel Developer Services и C/C++ Users Journal. ### Chris Houser Крис Хаусер был сторонником UNIX c 1994 года, когда присоединился к команде администраторов университета Тэйлора (Индиана, США), где получил степень бакалавра в компьютерных науках и математике. После он работал во множестве областей, включая веб-приложения, редактирование видео, драйвера для UNIX и криптографическую защиту. В настоящий момент работает в Sentry Data Systems. Крис также сделал вклад во множество свободных проектов, таких как Gentoo Linux и Clojure, стал соавтором книги [The Joy of Clojure](http://joyofclojure.com). ### Aron Griffis Эйрон Гриффис живет на территории Бостона, где провел последнее десятилетие работая в Hewlett-Packard над такими проектами, как сетевые UNIX-драйвера для Tru64, сертификация безопасности Linux, Xen и KVM виртуализация, и самое последнее — платформа [HP ePrint](http://hpeprint.com/). В свободное от программирования время Эйрон предпочитает размыщлять над проблемами программирования катаясь на своем велосипеде, жонглируя битами, или болея за бостонскую профессиональную бейсбольную команду «Красные Носки».
https://habr.com/ru/post/107981/
null
ru
null
# Пишем платформер на Python, используя pygame ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/4b2/eb8/663/4b2eb8663b347bdddeb4c09b144743eb.png) Сразу оговорюсь, что здесь написано для ~~самых маленьких~~начинающих. Давно хотел попробовать себя в качестве игродела, и недавно выпал случай изучить Python и исполнить давнюю мечту. #### Что такое платформер? Платформер(platformer)— жанр компьютерных игр, в которых основной чертой игрового процесса является прыгание по платформам, лазанье по лестницам, собирание предметов, обычно необходимых для завершения уровня. [Вики](http://ru.wikipedia.org/wiki/%D0%9F%D0%BB%D0%B0%D1%82%D1%84%D0%BE%D1%80%D0%BC%D0%B5%D1%80) Одними из моих любимых игр данного жанра являются «Super Mario Brothers» и «Super Meat Boy». Давайте попробуем создать нечто среднее между ними. #### Самое — самое начало. *Внимание! Используем python ветки 2.х, с 3.х обнаружены проблемы запуска нижеописанных скриптов!* Наверное, не только игры, да и все приложения, использующие pygame начинаются примерно так: ``` #!/usr/bin/env python # -*- coding: utf-8 -*- # Импортируем библиотеку pygame import pygame from pygame import * #Объявляем переменные WIN_WIDTH = 800 #Ширина создаваемого окна WIN_HEIGHT = 640 # Высота DISPLAY = (WIN_WIDTH, WIN_HEIGHT) # Группируем ширину и высоту в одну переменную BACKGROUND_COLOR = "#004400" def main(): pygame.init() # Инициация PyGame, обязательная строчка screen = pygame.display.set_mode(DISPLAY) # Создаем окошко pygame.display.set_caption("Super Mario Boy") # Пишем в шапку bg = Surface((WIN_WIDTH,WIN_HEIGHT)) # Создание видимой поверхности # будем использовать как фон bg.fill(Color(BACKGROUND_COLOR)) # Заливаем поверхность сплошным цветом while 1: # Основной цикл программы for e in pygame.event.get(): # Обрабатываем события if e.type == QUIT: raise SystemExit, "QUIT" screen.blit(bg, (0,0)) # Каждую итерацию необходимо всё перерисовывать pygame.display.update() # обновление и вывод всех изменений на экран if __name__ == "__main__": main() ``` Игра будет «крутиться» в цикле ( while 1), каждую итерацию необходимо перерисовывать всё (фон, платформы, монстров, цифровые сообщения и т.д). Важно заметить, что рисование идет последовательно, т.е. если сперва нарисовать героя, а потом залить фон, то героя видно не будет, учтите это на будущее. Запустив этот код, мы увидим окно, залитое зелененьким цветом. [![](https://habrastorage.org/r/w1560/getpro/habr/post_images/2d2/091/d73/2d2091d737c241e7ad8b0fe75d09db8f.png)](http://img.tatfisher.ru/?v=1sts.png) (Картинка кликабельна) Ну что же, начало положено, идём дальше. #### Уровень. А как без него? Под словом «уровень» будем подразумевать ограниченную область виртуального двумерного пространства, заполненную всякой — всячиной, и по которой будет передвигаться наш персонаж. Для построения уровня создадим двумерный массив m на n. Каждая ячейка (m,n) будет представлять из себя прямоугольник. Прямоугольник может в себе что-то содержать, а может и быть пустым. Мы в прямоугольниках будем рисовать платформы. Добавим еще константы ``` PLATFORM_WIDTH = 32 PLATFORM_HEIGHT = 32 PLATFORM_COLOR = "#FF6262" ``` Затем добавим объявление уровня в функцию **main** ``` level = [ "-------------------------", "- -", "- -", "- -", "- -- -", "- -", "-- -", "- -", "- --- -", "- -", "- -", "- --- -", "- -", "- ----------- -", "- -", "- - -", "- -- -", "- -", "- -", "-------------------------"] ``` И в основной цикл добавим следующее: ``` x=y=0 # координаты for row in level: # вся строка for col in row: # каждый символ if col == "-": #создаем блок, заливаем его цветом и рисеум его pf = Surface((PLATFORM_WIDTH,PLATFORM_HEIGHT)) pf.fill(Color(PLATFORM_COLOR)) screen.blit(pf,(x,y)) x += PLATFORM_WIDTH #блоки платформы ставятся на ширине блоков y += PLATFORM_HEIGHT #то же самое и с высотой x = 0 #на каждой новой строчке начинаем с нуля ``` Т.е. Мы перебираем двумерный массив level, и, если находим символ «-», то по координатам (x \* PLATFORM\_WIDTH, y \* PLATFORM\_HEIGHT), где x,y — индекс в массиве level Запустив, мы увидим следующее: [![](https://habrastorage.org/r/w1560/getpro/habr/post_images/753/e15/838/753e158382b8b9ff53d14943a9dec4b0.png)](http://img.tatfisher.ru/?v=2joj.png) #### Персонаж Просто кубики на фоне — это очень скучно. Нам нужен наш персонаж, который будет бегать и прыгать по платформам. Создаём класс нашего героя. Для удобства, будем держать нашего персонажа в отдельном файле **player.py** ``` #!/usr/bin/env python # -*- coding: utf-8 -*- from pygame import * MOVE_SPEED = 7 WIDTH = 22 HEIGHT = 32 COLOR = "#888888" class Player(sprite.Sprite): def __init__(self, x, y): sprite.Sprite.__init__(self) self.xvel = 0 #скорость перемещения. 0 - стоять на месте self.startX = x # Начальная позиция Х, пригодится когда будем переигрывать уровень self.startY = y self.image = Surface((WIDTH,HEIGHT)) self.image.fill(Color(COLOR)) self.rect = Rect(x, y, WIDTH, HEIGHT) # прямоугольный объект def update(self, left, right): if left: self.xvel = -MOVE_SPEED # Лево = x- n if right: self.xvel = MOVE_SPEED # Право = x + n if not(left or right): # стоим, когда нет указаний идти self.xvel = 0 self.rect.x += self.xvel # переносим свои положение на xvel def draw(self, screen): # Выводим себя на экран screen.blit(self.image, (self.rect.x,self.rect.y)) ``` Что тут интересного? Начнём с того, что мы создаём новый класс, наследуясь от класса **pygame.sprite.Sprite**, тем самым наследую все характеристики спрайта. [Cпрайт](http://ru.wikipedia.org/wiki/%D0%A1%D0%BF%D1%80%D0%B0%D0%B9%D1%82_(%D0%BA%D0%BE%D0%BC%D0%BF%D1%8C%D1%8E%D1%82%D0%B5%D1%80%D0%BD%D0%B0%D1%8F_%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D0%BA%D0%B0)) — это движущееся растровое изображение. Имеет ряд полезных методов и свойств. **self.rect = Rect(x, y, WIDTH, HEIGHT)**, в этой строчке мы создаем фактические границы нашего персонажа, прямоугольник, по которому мы будем не только перемещать героя, но и проверять его на столкновения. Но об этом чуть ниже. Метод **update(self, left, right))** используется для описания поведения объекта. Переопределяет родительский **update(\*args) → None**. Может вызываться в группах спрайтов. Метод **draw(self, screen)** используется для вывода персонажа на экран. Далее мы уберем этот метод и будем использовать более интересный способ отображения героя. Добавим нашего героя в основную часть программы. Перед определением уровня добавим определение героя и переменные его перемещения. ``` hero = Player(55,55) # создаем героя по (x,y) координатам left = right = False # по умолчанию — стоим ``` В проверку событий добавим следующее: ``` if e.type == KEYDOWN and e.key == K_LEFT: left = True if e.type == KEYDOWN and e.key == K_RIGHT: right = True if e.type == KEYUP and e.key == K_RIGHT: right = False if e.type == KEYUP and e.key == K_LEFT: left = False ``` Т.е. Если нажали на клавишу «лево», то идём влево. Если отпустили — останавливаемся. Так же с кнопкой «право» Само передвижение вызывается так: (добавляем после перерисовки фона и платформ) ``` hero.update(left, right) # передвижение hero.draw(screen) # отображение ``` ![image](https://habrastorage.org/getpro/habr/post_images/6db/eda/a65/6dbedaa65c00e3d026a8145424e058be.gif) Но, как мы видим, наш серый блок слишком быстро перемещается, добавим ограничение в количестве кадров в секунду. Для этого после определения уровня добавим таймер ``` timer = pygame.time.Clock() ``` И в начало основного цикла добавим следующее: ``` timer.tick(60) ``` #### Завис в воздухе Да, наш герой в безвыходном положении, он завис в воздухе. Добавим гравитации и возможности прыгать. И так, работаем в файле **player.py** Добавим еще констант ``` JUMP_POWER = 10 GRAVITY = 0.35 # Сила, которая будет тянуть нас вниз ``` В метод **\_init\_** добавляем строки: ``` self.yvel = 0 # скорость вертикального перемещения self.onGround = False # На земле ли я? ``` Добавляем входной аргумент в метод **update** def update(self, left, right, up): И в начало метода добавляем: ``` if up: if self.onGround: # прыгаем, только когда можем оттолкнуться от земли self.yvel = -JUMP_POWER ``` И перед строчкой **self.rect.x += self.xvel** Добавляем ``` if not self.onGround: self.yvel += GRAVITY self.onGround = False; # Мы не знаем, когда мы на земле(( self.rect.y += self.yvel ``` И добавим в основную часть программы: После строчки **left = right = False** Добавим переменную up ``` up = false ``` В проверку событий добавим ``` if e.type == KEYDOWN and e.key == K_UP: up = True if e.type == KEYUP and e.key == K_UP: up = False ``` И изменим вызов метода **update**, добавив новый аргумент **up**: **hero.update(left, right**) на ``` hero.update(left, right, up) ``` Здесь мы создали силу гравитации, которая будет тянуть нас вниз, постоянно наращивая скорость, если мы не стоим на земле, и прыгать в полете мы не умеем. А мы пока не можем твердо встать на что-то, поэтому на следующей анимации наш герой падает далеко за границы видимости. ![image](https://habrastorage.org/getpro/habr/post_images/9c6/b95/487/9c6b9548711e66011042aab3b4d277bc.gif) #### Встань обеими ногами на землю свою. Как узнать, что мы на земле или другой твердой поверхности? Ответ очевиден — использовать проверку на пересечение, но для этого изменим создание платформ. Создадим еще один файл **blocks.py**, и перенесем в него описание платформы. ``` PLATFORM_WIDTH = 32 PLATFORM_HEIGHT = 32 PLATFORM_COLOR = "#FF6262" ``` Дальше создадим класс, наследуясь от **pygame.sprite.Sprite** ``` class Platform(sprite.Sprite): def __init__(self, x, y): sprite.Sprite.__init__(self) self.image = Surface((PLATFORM_WIDTH, PLATFORM_HEIGHT)) self.image.fill(Color(PLATFORM_COLOR)) self.rect = Rect(x, y, PLATFORM_WIDTH, PLATFORM_HEIGHT) ``` Тут нет ни чего нам уже не знакомого, идём дальше. В основной файле произведем изменения, перед описанием массива **level** добавим ``` entities = pygame.sprite.Group() # Все объекты platforms = [] # то, во что мы будем врезаться или опираться entities.add(hero) ``` Группа спрайтов **entities** будем использовать для отображения всех элементов этой группы. Массив **platforms** будем использовать для проверки на пересечение с платформой. Далее, блок ``` if col == "-": #создаем блок, заливаем его цветом и рисеум его pf = Surface((PLATFORM_WIDTH,PLATFORM_HEIGHT)) pf.fill(Color(PLATFORM_COLOR)) screen.blit(pf,(x,y)) ``` Заменим на ``` if col == "-": pf = Platform(x,y) entities.add(pf) platforms.append(pf) ``` Т.е. создаём экземплр класса **Platform**, добавляем его в группу спрайтов **entities** и массив **platforms**. В **entities**, чтобы для каждого блока не писать логику отображения. В **platforms** добавили, чтобы потом проверить массив блоков на пересечение с игроком. Дальше, весь код генерации уровня выносим из цикла. И так же строчку **hero.draw(screen) # отображение** Заменим на ``` entities.draw(screen) # отображение всего ``` Запустив, мы увидим, что ни чего не изменилось. Верно. Ведь мы не проверяем нашего героя на столкновения. Начнём это исправлять. Работаем в файле **player.py** Удаляем метод **draw**, он нам больше не нужен. И добавляем новый метод **collide** ``` def collide(self, xvel, yvel, platforms): for p in platforms: if sprite.collide_rect(self, p): # если есть пересечение платформы с игроком if xvel > 0: # если движется вправо self.rect.right = p.rect.left # то не движется вправо if xvel < 0: # если движется влево self.rect.left = p.rect.right # то не движется влево if yvel > 0: # если падает вниз self.rect.bottom = p.rect.top # то не падает вниз self.onGround = True # и становится на что-то твердое self.yvel = 0 # и энергия падения пропадает if yvel < 0: # если движется вверх self.rect.top = p.rect.bottom # то не движется вверх self.yvel = 0 # и энергия прыжка пропадает ``` В этом методе происходит проверка на пересечение координат героя и платформ, если таковое имеется, то выше описанной логике происходит действие. Ну, и для того, что бы это всё происходило, необходимо вызывать этот метод. Изменим число аргументов для метода **update**, теперь он выглядит так: ``` update(self, left, right, up, platforms) ``` И не забудьте изменить его вызов в основном файле. И строчки ``` self.rect.y += self.yvel self.rect.x += self.xvel # переносим свои положение на xvel ``` Заменям на: ``` self.rect.y += self.yvel self.collide(0, self.yvel, platforms) self.rect.x += self.xvel # переносим свои положение на xvel self.collide(self.xvel, 0, platforms) ``` Т.е. передвинули героя вертикально, проверили на пересечение по вертикали, передвинули горизонтально, снова проверили на пересечение по горизонтали. Вот, что получится, когда запустим. ![image](http://habrastorage.org/getpro/habr/post_images/547/415/6d7/5474156d7eadb5ce39003f8605ae0834.gif) #### Фу[у]! Движущийся прямоугольник — не красиво! Давайте немного приукрасим нашего *МариоБоя*. Начнем с платформ. Для этого в файле **blocks.py** сделаем небольшие изменения. Заменим заливку цветом на картинку, для этого строчку **self.image.fill(Color(PLATFORM\_COLOR))** Заменим на ``` self.image = image.load("blocks/platform.png") ``` Мы загружаем картинку вместо сплошного цвета. Разумеется, файл **«platform.png»** должен находиться в папке **«blocks»**, которая должна располагаться *в каталоге с исходными кодами*. Вот, что получилось [![](http://habrastorage.org/r/w1560/getpro/habr/post_images/ae9/1ae/31a/ae91ae31af0ca24756bd7bf34ae97b4d.png)](http://img.tatfisher.ru/?v=6nln.png) Теперь переходим к нашему герою. Для движущегося объекта нужна не статическая картинка, а анимация. Дабы облегчить себе эту задачу, воспользуемся замечательной библиотекой [pyganim](http://inventwithpython.com/pyganim/index.html) . Приступим. Сперва добавим в блок констант. ``` ANIMATION_DELAY = 0.1 # скорость смены кадров ANIMATION_RIGHT = [('mario/r1.png'), ('mario/r2.png'), ('mario/r3.png'), ('mario/r4.png'), ('mario/r5.png')] ANIMATION_LEFT = [('mario/l1.png'), ('mario/l2.png'), ('mario/l3.png'), ('mario/l4.png'), ('mario/l5.png')] ANIMATION_JUMP_LEFT = [('mario/jl.png', 0.1)] ANIMATION_JUMP_RIGHT = [('mario/jr.png', 0.1)] ANIMATION_JUMP = [('mario/j.png', 0.1)] ANIMATION_STAY = [('mario/0.png', 0.1)] ``` Тут, думаю, понятно, анимация разных действий героя. Теперь добавим следующее в метод **\_\_init\_\_** ``` self.image.set_colorkey(Color(COLOR)) # делаем фон прозрачным # Анимация движения вправо boltAnim = [] for anim in ANIMATION_RIGHT: boltAnim.append((anim, ANIMATION_DELAY)) self.boltAnimRight = pyganim.PygAnimation(boltAnim) self.boltAnimRight.play() # Анимация движения влево boltAnim = [] for anim in ANIMATION_LEFT: boltAnim.append((anim, ANIMATION_DELAY)) self.boltAnimLeft = pyganim.PygAnimation(boltAnim) self.boltAnimLeft.play() self.boltAnimStay = pyganim.PygAnimation(ANIMATION_STAY) self.boltAnimStay.play() self.boltAnimStay.blit(self.image, (0, 0)) # По-умолчанию, стоим self.boltAnimJumpLeft= pyganim.PygAnimation(ANIMATION_JUMP_LEFT) self.boltAnimJumpLeft.play() self.boltAnimJumpRight= pyganim.PygAnimation(ANIMATION_JUMP_RIGHT) self.boltAnimJumpRight.play() self.boltAnimJump= pyganim.PygAnimation(ANIMATION_JUMP) self.boltAnimJump.play() ``` Здесь для каждого действия мы создаем набор анимаций, и включаем их(т.е. Включаем смену кадров). ``` for anim in ANIMATION_LEFT: boltAnim.append((anim, ANIMATION_DELAY ``` )) Каждый кадр имеет картинку и время показа. ###### Осталось в нужный момент показать нужную анимацию. Добавим смену анимаций в метод **update.** ``` if up: if self.onGround: # прыгаем, только когда можем оттолкнуться от земли self.yvel = -JUMP_POWER self.image.fill(Color(COLOR)) self.boltAnimJump.blit(self.image, (0, 0)) if left: self.xvel = -MOVE_SPEED # Лево = x- n self.image.fill(Color(COLOR)) if up: # для прыжка влево есть отдельная анимация self.boltAnimJumpLeft.blit(self.image, (0, 0)) else: self.boltAnimLeft.blit(self.image, (0, 0)) if right: self.xvel = MOVE_SPEED # Право = x + n self.image.fill(Color(COLOR)) if up: self.boltAnimJumpRight.blit(self.image, (0, 0)) else: self.boltAnimRight.blit(self.image, (0, 0)) if not(left or right): # стоим, когда нет указаний идти self.xvel = 0 if not up: self.image.fill(Color(COLOR)) self.boltAnimStay.blit(self.image, (0, 0)) ``` Вуаля! ![image](http://habrastorage.org/getpro/habr/post_images/611/191/578/6111915784c55c702621f13ecf35890c.gif) #### Больше, нужно больше места Ограничение в размере окна мы преодолеем созданием *динамической камеры*. Для этого создадим класс **Camera** ``` class Camera(object): def __init__(self, camera_func, width, height): self.camera_func = camera_func self.state = Rect(0, 0, width, height) def apply(self, target): return target.rect.move(self.state.topleft) def update(self, target): self.state = self.camera_func(self.state, target.rect) ``` Далее, добавим начальное конфигурирование камеры ``` def camera_configure(camera, target_rect): l, t, _, _ = target_rect _, _, w, h = camera l, t = -l+WIN_WIDTH / 2, -t+WIN_HEIGHT / 2 l = min(0, l) # Не движемся дальше левой границы l = max(-(camera.width-WIN_WIDTH), l) # Не движемся дальше правой границы t = max(-(camera.height-WIN_HEIGHT), t) # Не движемся дальше нижней границы t = min(0, t) # Не движемся дальше верхней границы return Rect(l, t, w, h) ``` Создадим экземпляр камеры, добавим перед основным циклом: ``` total_level_width = len(level[0])*PLATFORM_WIDTH # Высчитываем фактическую ширину уровня total_level_height = len(level)*PLATFORM_HEIGHT # высоту camera = Camera(camera_configure, total_level_width, total_level_height) ``` Что мы сделали? Мы создали внутри большого прямоугольника, размеры которого вычисляются так: ``` total_level_width = len(level[0])*PLATFORM_WIDTH # Высчитываем фактическую ширину уровня total_level_height = len(level)*PLATFORM_HEIGHT # высоту ``` меньший прямоугольник, размером, идентичным размеру окна. Меньший прямоугольник центрируется относительно главного персонажа(метод **update**), и все объекты рисуются в меньшем прямоугольнике (метод **apply**), за счет чего создаётся впечатление движения камеры. Для работы вышеописанного, нужно изменить рисование объектов. Заменим строчку **entities.draw(screen) # отображение** На ``` for e in entities: screen.blit(e.image, camera.apply(e)) ``` И перед ней добавим ``` camera.update(hero) # центризируем камеру относительно персонажа ``` Теперь можем изменить уровень. ``` level = [ "----------------------------------", "- -", "- -- -", "- -", "- -- -", "- -", "-- -", "- -", "- ---- --- -", "- -", "-- -", "- -", "- --- -", "- -", "- -", "- --- -", "- -", "- ------- ---- -", "- -", "- - -", "- -- -", "- -", "- -", "----------------------------------"] ``` Вот, собственно, и результат ![image](http://habrastorage.org/getpro/habr/post_images/6e9/a79/82a/6e9a7982ab06d9df8874625bfb0a261f.gif) Результат можно скачать, [ссылка на GitHub](https://github.com/Velesey/SuperMarioBoy/releases/tag/0.11) В следующей части, если будет востребовано сообществом, мы создадим свой генератор уровней ~~с блэкджеком и шлюхами~~ с разными типами платформ, монстрами, телепортами, и конечно же, принцессой. **upd** pygame можно скачать [отсюда](http://pygame.info/downloads/), спасибо, [Chris\_Griffin](http://habrahabr.ru/users/chris_griffin/) за замечание **upd1** [Вторая часть](http://habrahabr.ru/post/196432/)
https://habr.com/ru/post/193888/
null
ru
null
# Применение МЭМС гироскопов и акселерометров для отслеживания движений тела человека ![](https://habrastorage.org/r/w780q1/files/7fe/fd4/5dc/7fefd45dc81945fba4b9e8d590653a7a.jpg) Отслеживание движений тела человека — это задача, которая с переменным успехом решается уже не одну тысячу лет. Когда-то я читал историю об одном древнегреческом ораторе Демосфене, у которого была нехорошая привычка поднимать плечо до уха, если он нервничал. Чтобы избавиться от этого, во время ежедневных тренировок он вешал над плечом свой меч, который очень неприятно колол, если плечо поднималось. В итоге оратор стал настолько знаменитым, что про него даже есть статья в Википедии. Другой хороший пример многие видели в фильмах про китайские боевые искусства. Например, кунг-фу панда сильно растопыривал локти во время выполнения приемов. Чтобы отследить этот момент он подкладывал лопухи в зону подмышек. Лопух падает — ученик получает нагоняй от мастера. Наверняка некоторым из нас родители обещали прикрутить палку к спине, если мы сутулились. Правда, эти угрозы никогда не выполнялись и поэтому действовали не очень убедительно. Очень часто отслеживание движений требуется во время спортивных тренировок. Например, можно найти патент [US3820783](http://www.google.co.in/patents/US3820783), в котором описывается тренажерное устройство, которое одновременно направляет спортсмена и не дает ему двигаться неправильно. ![](https://habrastorage.org/r/w780q1/files/e7e/30e/173/e7e30e173a8c4214a09c0559eaa14d9d.jpg) *Схема установки из патента US 3820783* #### Регистрация движения с помощью видеосъемки В середине 70-х годов появились системы, которые обрабатывали видеозапись движений, сделанную с нескольких точек. В результате появлялась математическая модель того или иного движения. Если посмотреть видео о том, как снимался фильм «Властелин колец», можно увидеть интересные эпизоды съемок движений Горлума. Двигался на самом деле человек в специальном костюме, а потом с помощью умного математического аппарата и программного обеспечения получился симпатичный лысенький персонаж. Видеофиксация движений имеет очевидные достоинства, но так как я хочу в этой статье описать альтернативное решение, то позволю себе немного покритиковать и приведу недостатки: * видеосъемку нужно вести с нескольких ракурсов; * зачастую требуется размещение маркеров на теле; * необходимо дорогостоящее аппаратное обеспечение (видеокамеры); * нужны хорошие вычислительные мощности и соответствующий программный продукт для преобразования видео в модель движения человека; * человек не может двигаться свободно на большие расстояния, иначе он неминуемо выйдет за пределы зоны видеосъемки; * кроме объекта измерения нужен коллектив специалистов, то есть записать движение тела на утренней пробежке рядовому пользователю наврядли удастся. Измерение движений очень полезная штука не только в спорте. Применяется она также в промышленном проектировании — при разработке автомобилей, конвейеров, швейных машинок и многого другого. Такие системы уже существуют, например у фирмы Siemens — Jack ([Human Simulation and Ergonomics](http://www.plm.automation.siemens.com/en_us/products/tecnomatix/manufacturing-simulation/human-ergonomics/index.shtml)). Как узнать, будет ли удобно водителю наживать кнопку включения кондиционера в проектируемом автомобиле? Можно, конечно, изготовить автомобиль, посадить человека и проверить. Но гораздо проще посадить виртуального человека в виртуальный автомобиль. Виртуальный автомобиль уже есть, так как все современные чертежные системы предусматривают разработку 3D моделей. Осталось только привязать движения модели человека к движениям его реального прототипа. Это можно сделать с помощью все той же видеофиксации движений или с помощью способа, о котором речь пойдет ниже. #### Умная одежда В этой статье хочу рассказать от том, как было бы замечательно, если бы можно было измерять движения, не ограничивая себя рамками съемочной площадки. Например, если бы измерительные функции были встроены в одежду. Вы ходите, бегаете, прыгаете, а одежда все записывает и потом воспроизводит ваши движения на экране смартфона, дает рекомендации и подсказывает, как бегать и не травмировать колени, сидеть и не сутулится, как правильно и без травм крутить педали на велосипеде. Оказывается, наука и техника уже предоставляют такие возможности. Конечно, речь пока не идет об умной повседневной одежде, но уже есть специальные костюмы, состоящие из носимых датчиков, которые на весьма неплохом уровне записывают движения тела. Такие костюмы делает фирма [XSENS](https://www.xsens.com/). Стоят они недешево, но по мере того как в каждой семье появляются десятки единиц вычислительной техники, дешевеют микросхемы и все больше становится интеллектуальных портативных систем. Мы семимильными шагами идем к светлому будущему. Не вдаваясь глубоко в технические подробности попробую рассказать, как же происходит запись движений, опишу работу и принцип действия основных узлов системы измерения движений на основе электронно-механических датчиков. #### МЭМС По мере развития микроэлектроники появляются различные миниатюрные датчики. Отдельная группа таких датчиков называется МЭМС – микро электромеханические сенсоры. Для измерения движений применяются датчики ускорения – акселерометры и датчики угловой скорости – гироскопы. Акселерометр представляет собой миниатюрный чувствительный элемент изменяющий свои свойства под действием ускорения. Это может быть пьезоэлектрический сенсор или элемент переменной емкости – конденсатор с подвижной обкладкой. Пьезоэлектрический сенсор вырабатывает небольшое напряжение на своих электродах, которое может быть измерено и пересчитано в ускорение. Похожим образом обстоят дела с емкостью переменного конденсатора. МЭМС гироскоп чаще всего использует в конструкции действие силы Кориолиса, которая отклоняет вибрирующую пластинку, величина отклонения регистрируется и преобразуется в угловую скорость. Как мы знаем из курса физики и математики, любой вектор может быть разложен на составляющие вектора. Так, например, ускорение и скорость раскладываются на взаимно-перпендикулярные составляющие: X, Y, Z. Чувствительные элементы МЭМС измеряют ускорение и скорость отдельно вдоль каждого из этих векторов. Важно отметить, что сейчас встречаются микросхемы, которые содержат в себе сразу несколько МЭМС датчиков. Например, микросхема МЭМС акселерометра производит измерение ускорения сразу по трем осям x, y, z. Это же касается и микросхем гироскопов, которые могут измерять угловую скорость сразу по всем трем осям. Встречаются даже микросхемы, которые одновременно измеряют и ускорение и скорость. Такие датчики называют шестикоординатными. ##### *МЭМС — контроллер* МЭМС датчики, как правило, оснащаются встроенным контроллером, который производит расчет ускорения или угловой скорости, обеспечивает цифровую фильтрацию и конфигурирование микросхемы. Данные внутри контроллера хранятся в специальных ячейках памяти, называемых регистрами. Они представлены в формате integer со знаком. Единица измерения, как правило, g [ускорение свободного падения – 9,8 м/c2] для акселерометров и рад/с [радиан в секунду] для гироскопов. Описание формата данных, адреса регистров, единицы измерения, диапазоны измерения и другие параметры всегда приведены в документации на соответствующую микросхему. Также контроллер обеспечивает связь МЭМС датчика с внешним миром по одному из распространенных интерфейсов. Как правило, это SPI или I2C. SPI — это интерфейс с двумя линиями данных и одной линией тактирования. I2C — это интерфейс с одной линией данных и одной линией тактирования. Нам в принципе нужно знать только, что передавать данные от МЭМС датчика легко и приятно, для этого есть стандартизованные распространённые интерфейсы и готовые библиотеки. Компьютер, планшет или смартфон не имеют доступных для пользователя интерфейсов SPI или I2C, поэтому, чтобы подключить датчик к ним, необходимо еще какое-нибудь согласующее устройство. Это может быть, например, микроконтроллер, соединенный с радиопередатчиком стандарта Bluetooth. На буферный микроконтроллер, как правило, возлагаются обязанности по предварительной обработке данных, для того чтобы снизить нагрузку на канал связи. Вообще говоря, выбор канала связи — это отдельная большая задача. Конечно, этот канал желательно должен быть беспроводным, но какую из беспроводных технологий выбрать? Стандарты связи диапазона 2,4ГГц, такие как Bluetooth или WiFi, хороши тем, что поддерживаются большинством пользовательских устройств. Но с другой стороны они ограничивают дальность связи из-за малой длины волны. Конечно, есть радиомодули Bluetooth с заявленной дальностью около километра, но не будем обольщаться, ведь законы физики никто не отменял, и такую дальность можно получить только при условиях прямой видимости и достаточной высоты датчики над поверхностью земли. Важно определиться с моделью измерения и обработки данных. Одно дело, когда все вычисления производятся на смартфоне, который лежит в кармане у человека, и совсем другое дело, когда вычислительная машина стоит на расстоянии десятков метров на столе у тренера/оператора. Это больше вопрос маркетинга и выбора целевой аудитории комплекса измерения движений. Отмечу только, что в любом случае задача передать данные по назначению может быть решена и для этого есть специализированные аппаратно — программные решения. ##### *Модель тела человека* Пусть данные все-таки дошли по назначению и начинается их обработка. Для проведения расчетов и визуализации движений нам просто необходима математическая модель тела человека. Такая модель должна безусловно учитывать различные длины рук, ног, обхваты талии, груди, то есть различные антропометрические особенности людей. Возможно, такая модель должна также учитывать внутреннее строение организма. Чем сложнее модель, тем труднее, дороже и дольше ее создание. Я лично считаю что модель должна содержать только те элементы, на которые можно надеть чувствительный элемент. То есть если речь идет о руке, то целесообразно составлять ее модель из следующих частей: * плечо; * предплечье; * кисть; * пальцы; Строить модель с учетом всего множества косточек, мышц и сухожилий нецелесообразно. В качестве простейшей модели одной части тела может выступить конус. Это простая геометрическая фигура, которую без проблем можно реализовать в любой графической среде и которая не потребует много ресурсов, что особенно актуально для мобильных платформ. Собственно, объемная форма конуса используется для визуализации модели, а вектор, совпадающий с продольной осью симметрии, используется для различных расчетов. Различные длины нижней и верхней окружностей конуса легко моделируют отличия в диаметрах, например, бедра сверху и в районе колена. ![](https://habrastorage.org/r/w780q1/files/eb0/93e/8a6/eb093e8a6c1b491a800462f97a4efa8f.jpg) *Конус, как элемент модели тела человека* ![](https://habrastorage.org/r/w780q1/files/1a5/c45/043/1a5c45043fe048ec93e6b6d2e1ebfef9.jpg) *Полная модель тела человека составленная из конусов* Согласитесь, что модель выглядит довольно узнаваемо. Эта модель была построена в среде Microsoft XNA, для отрисовки конуса использованы библиотеки [Primitives3D](http://xbox.create.msdn.com/en-US/education/catalog/sample/primitives_3d), найденные на просторах интернета. Для расстановки элементов модели используется математический аппарат матричных вычислений среды XNA. ##### *Немного о вычислениях* Пространство, в котором расположена модель, называется мировым пространством. Чтобы перемещать элементы модели в мировом пространстве необходимо составлять матрицы перемещения, чтобы поворачивать необходимы матрицы поворота. Вообще говоря, это одни и те же матрицы, только для различных целей в них используются различные ячейки. ![](https://habrastorage.org/r/w780q1/files/7de/4c6/dbf/7de4c6dbf5af4157b7226400be8dc25e.jpg) *Структура матрицы в среде XNA* Элементы, выделенные красным цветом, отвечают за поворот, элементы выделенные синим за перемещение, а черные элементы нужны для соблюдения размерности 4х4. Чтобы создать матрицу перемещения, используется метод: ``` Matrix.CreateTranslation(vector3) ``` Который в качестве параметра принимает радиус-вектор требуемого положения точки. Чтобы разместить все элементы тела, нужно для каждого из них составить матрицу перемещения, назовем такую матрицу fBaseWorldi. Все, что касается движения 3D моделей, прекрасно известно разработчикам компьютерных игр и другим специалистам, работающим в области компьютерной 3D графики. Мы же перейдем к самому интересному, а именно как же связать измерения угловой скорости и ускорения с положением модели на экране. Положение тела в пространстве может быть задано с помощью углов Эйлера, матриц перемещения и поворота, или с помощью кватернионов. Немало копий сломано в спорах о том, какой же из способов выбрать. Я пользуюсь представлением положения в виде [кватернионов](http://habrahabr.ru/post/183908/). От одного способа к другому легко можно перейти с помощью известных математических преобразований. Кватернион — это набор из четырех чисел, задающих в пространстве ось, вокруг которой нужно повернуть тело и угол поворота. Кватернион записывается в виде: q = [W,X,Y,Z], где W – это косинус половинного угла поворота; X,Y,Z – координаты оси поворота. Кватернион предпочтительнее матриц поворота, так как матрица содержит 16 чисел, а кватернион только 4, что очевидно экономит время передачи данных и не так сильно загружает канал связи. Внимательный читатель справедливо может возразить, что кватернион позволяет описать только вращательное движение, а как же быть с поступательным? Дело в том, что предлагаемый метод предназначен для регистрации движений без привязки к окружающей местности. А все движения человека можно построить за счет одних только вращений. Действительно, наше тело практически не подвержено чистым (без вращения) растяжениям и сжатиям. Например, чтобы линейно переместить кисть вперед или назад, вверх или вниз, придется совершить вращательное движения предплечья в локтевом суставе или плеча в плечевом. Осталось дело за малым, преобразовать ускорение и угловую скорость в кватернионы. Математический аппарат, который производит такие преобразования составляет святую святых фирм производящих системы измерения движений. Этот аппарат в целом известен, в интернете можно найти даже исходные коды ([Open source IMU and AHRS algorithms](http://www.x-io.co.uk/open-source-imu-and-ahrs-algorithms/)), но как обычно все сложности кроются в деталях. Поэтому не удивляйтесь, если измерения движения будут содержать ошибки положения. Это связано с ошибками в показаниях датчиков, которые интегрируются и значительно влияют на результат. Также свою долю неточностей вносят ошибки расположения датчиков на теле человека. Неплохое решение предоставляет фирма производитель МЭМС-чипов Invensense, они производят микросхемы, в которые можно загрузить ими же поставляемую библиотеку производящую вычисления. В ранних версиях библиотека представляла собой коды, написанные на С, которые выполнялись на стороннем микроконтроллере. Теперь библиотека – это массив шестнадцатеричных чисел, которые нужно загрузить в микросхему МЭМС после подачи на нее питания. Подобное решение предоставляют и другие фирмы, например [Microchip](http://www.microchip.com/pagehandler/en-us/technology/sensorhub/home.html). После того, как мы рассчитали положение части тела и выразили его в виде кватерниона, необходимо из показаний, относящихся к отдельным частям тела, составить общую модель. Тут-то и пригодится среда XNA и код Primitives3D. Используемая библиотека Primitives3D для перемещения или поворота использует данные в матричном представлении. Поэтому чтобы преобразовать полученные от датчиков кватернионы необходимо воспользоваться встроенной в XNA функцией: ``` Matrix.CreateFromQuaternion(qi) ``` где qi – это кватернион от датчика. Затем нужно обязательно перенести повернутую часть тела из начала координат в соответствующую точку, где она должна находится, предплечье например «крепится» к локтю. Хотя вы уже видели на картинке полностью «собранное» тело, чтобы оно всегда было в правильном положении после прихода каждого нового кватерниона положение тела нужно рассчитывать заново. Это связано с тем, что библиотека расчета кватернионов выдает кватернион, который связывает положение тела в нулевой момент времени с текущим моментом. Чтобы произвести перенос части тела нужно всего лишь перемножить две матрицы: ``` Matrix.CreateFromQuaternion(qi)* fBaseWorldi ``` Матрица fBaseWorldi постоянно корректируется, потому что если переместилось плечо, то соответственно переместится и локоть. Поэтому в программе после прихода кватерниона для какой-либо части тела следует произвести расчет матриц fBaseWorldi для всех других связанных с нею частей тела. < На видео записано движение человека, полученное с использованием семи датчиков, по три датчика на каждой руке и один на туловище в районе поясницы. Теперь, когда мы получили запись движений тела, можно на основании этих данных произвести расчеты различных интересных величин. Например, помочь Демосфену и прикрепить к его плечу датчик, который будет контролировать правильное положение и выдавать какой-либо сигнал при отклонении от этого положения, точно также если запустить приложение на смартфоне, а несколько датчиков разместить на спине у ребенка, то это поможет ему контролировать свою осанку. А сколько еще разных полезных применений для МЭМС датчиков. #### Заключение В этой статье я постарался обзорно рассмотреть основные моменты, связанные с использованием МЭМС датчиков применительно к измерению движений тела человека. Конечно, многие из упомянутых здесь вопросов требуют более подробного объяснения, кроме того, некоторые нюансы я не упомянул специально, чтобы не загромождать статью деталями.
https://habr.com/ru/post/253781/
null
ru
null
# Connecting to xxx.xxx.xx.xxx:443… failed: Unknown error или предупрежден — значит вооружен ![](https://habrastorage.org/r/w780q1/web/f5d/360/b2d/f5d360b2d2db4f9cb6cdde3669643302.jpg) В этом скриншоте, на первый взгляд, нет ничего необычного — просто упал сайт. Но это не так… Скриншот сделан вчера в далеком от Москвы офисе, который подключен к интернету через одного федерального провайдера. Обратите внимание, что доступ по 80 порту есть, проблема начинается только после переадресации на HTTPS. В этот момент у меня была открыта консоль виртуального сервера от московского хостинг-провайдера: сайт был недоступен с другой ошибкой: ``` Connecting to www.nic.ru (www.nic.ru)|31.177.76.4|:443... failed: Unknown error. ``` Тем не менее сайт был доступен при использовании VPN в браузера Opera, а также при подключении через других провайдеров. Видимо, можно говорить о том, что мне повезло сразу обнаружить двух провайдеров, у которых была общая проблема. Но, гарантий, что они полностью независимы друг от друга — нет. По крайней мере можно говорить о том, что это не локальная проблема провайдера, услугами которого я пользуюсь и дома, и на работе. Она может проявиться в любом населенном пункте и, возможно, у любого провайдера. А владельцы сайта узнать об этом могут только случайно. **И началось это не вчера** Поскольку я достаточно давно так или иначе связан с веб-разработкой, то меня не беспокоят упавшие сайты. Есть много причин, из-за которых сайт может не отвечать. Но в прошлом месяце, при поиске решения какой-то проблемы, полезных ссылок было так мало, что мне очень захотелось попасть на статью в каком-то англоязычном блоге. Долго разбираться не пришлось — достаточно было включить VPN в браузере Opera. *Прошу обратить внимание, что никакой информации о том, что ресурс заблокирован не было.* В итоге за последний месяц мне пришлось воспользоваться VPN еще несколько раз. В основном это были малоизвестные (для меня) англоязычные IT-ресурсы. Но также среди них были: * bitbucket.com — не сам сайт, только CDN, с которого загружалась пара каких-то файлов. Проблема продолжалась около двух часов. * deb.nodesource.com — проблема была в один из праздничных дней в начале мая, продолжительность неизвестна. **Итого:** Информация была доведена до заинтересованных сторон, в одном из ответов была такая фраза: > В настоящее время в связи с некорректной работой системы блокировок сайтов Роскомнадзора, возможна недоступность сайта <https://nic.ru> ... К сожалению, я сомневаюсь, что это можно считать официальным ответом, так как никаких пресс-релизов по этому поводу не обнаружено.
https://habr.com/ru/post/328768/
null
ru
null
# Уроки по SDL 2: Урок 15 Многопоточность и Тиллинг В этом уроке мы научимся запускать программу в несколько потоков, создавать полноценные уровни из мини изображения, так же научимся открывать несколько окон, скрывать и выводить вперед. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c06/334/3f3/c063343f32fb55992d9e669beeb919c4.png)Приступим к коду: ``` static int TestThread(void *ptr) { SDL_Window *gWindow = SDL_CreateWindow("gamesBond",0,0,300,300,SDL_WINDOW_SHOWN); ; SDL_Surface *imageThreadSurface = SDL_LoadBMP("hw.bmp"); int cnt; SDL_Surface *windowSurface = SDL_GetWindowSurface(gWindow); SDL_BlitSurface(imageThreadSurface,NULL, windowSurface,NULL); SDL_UpdateWindowSurface( gWindow ); for (cnt = 0; cnt < 10; ++cnt) { printf("Thread counter: %d\n", cnt); SDL_Delay(50); } SDL_Delay(4000); SDL_FreeSurface(windowSurface); SDL_FreeSurface(imageThreadSurface); SDL_DestroyWindow(gWindow); return cnt; } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d86/718/a8f/d86718a8fbeab18ca6dd47339ca55c42.png)Эта функция будет нашим вторым потоком, она создает окно(**gWindow**), подгружает изображения в(**imageThreadSurface**), подключаем **windowSurface** к нашему окну, и в него выводим изображение. После этого выводим в консоль числа от 1 до 9, и добавляем 4 секунды ожидания, и закрываем окно. ``` void writeMap(int *i,SDL_Renderer* gRenderer, SDL_Surface* mapSurface) { int yMap = 0;int xMap = 0; int xSize = 80; int ySize = 80; SDL_Rect coubPositionRect = {xMap,yMap,xSize,ySize}; SDL_Rect coubColorRect = {xMap,yMap,xSize,ySize }; SDL_Texture* mapTexture = SDL_CreateTextureFromSurface(gRenderer,mapSurface); SDL_RenderClear; while (xMap < 640) { if ( *i == REDSQUARE ) { coubColorRect.x = 0; coubColorRect.y = 0; }else if ( *i == GREENSQUARE ) { coubColorRect.y = 80; coubColorRect.x = 0; }else if ( *i == BLUESQUARE ) { coubColorRect.y = 160; coubColorRect.x = 0; }else if ( *i == BLACKLEFTMID ) { coubColorRect.y = 80; coubColorRect.x = xSize; }else if ( *i == BLACKLEFTTOP ) { coubColorRect.y = 0; coubColorRect.x = 80; }else if ( *i == BLACKLEFTBOT ) { coubColorRect.x = 80; coubColorRect.y = 160; }else if (*i == BLACKRIGHTTOP) { coubColorRect.x = 240; coubColorRect.y = 0; }else if (*i == BLACKRIGHTMID) { coubColorRect.x = 240; coubColorRect.y = 80; }else if (*i == BLACKRIGHTBOT) { coubColorRect.x = 240; coubColorRect.y = 160; } coubPositionRect.x = xMap; coubPositionRect.y = yMap; SDL_RenderCopy(gRenderer,mapTexture,&coubColorRect,&coubPositionRect); yMap+=ySize; if (yMap>=480) { xMap+=xSize; yMap = 0; } i++; } SDL_RenderPresent(gRenderer); return; } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/84d/671/19f/84d67119f9e19a5688e6175635f36306.png)Из этого маленького изображения и массива чисел от 0 до 8, мы отрисуем полноценную карту, через функцию, описанную выше, хоть она и большая, в ней нет ничего сложного, она принимает массив, переменную отображения, и изображение, находит соответствие между числом и квадратом на картинке, и отрисовывает его последовательно. ``` int main(void) { int mWidth = 640, mHeight = 480; SDL_Init(SDL_INIT_VIDEO); SDL_Window* window = SDL_CreateWindow("tilling",SDL_WINDOWPOS_UNDEFINED,SDL_WINDOWPOS_UNDEFINED,mWidth,mHeight,SDL_WINDOW_SHOWN); SDL_Renderer* gRenderer = SDL_CreateRenderer(window,-1,SDL_RENDERER_ACCELERATED); SDL_Surface* imageSurface = IMG_Load("tiles.png"); SDL_Texture* imageTexture = SDL_CreateTextureFromSurface(gRenderer,imageSurface); SDL_Rect imageRect = {0,0,80,80}; SDL_Event e; SDL_RenderCopy(gRenderer,imageTexture,&imageRect,&imageRect); SDL_RenderPresent(gRenderer); int quit = 0; int *k; k =(int*)calloc(50,4); int threadReturnValue; readData(k); ``` Стандартно задаем окно, подгружаем мини изображение, объявляем массив **k.** И заполняем этот массив цифрами из файла r**eadData(k)**, которые будут эквивалентом цвета квадратов на карте. ``` writeMap( k, gRenderer, imageSurface); free(k); ``` Отображаем в окне(**window**). нашу карту через функцию(**writeMap**) освобождаем память массива **k** ``` SDL_Thread *thread; thread = SDL_CreateThread(TestThread,"testMultiThread",(void *)NULL); SDL_WaitThread(thread, &threadReturnValue); ``` Создаем второй поток, SDL\_CreateThread принимает три переменные, первая это функция(TestThread), вторая это имя потока, и третья данные подставляемые в функцию, в нашем случае это NULL. Запускаем наш поток через **SDL\_WaitThread** и результат функции записываем в переменную **threadReturnValue** ``` SDL_RaiseWindow(window); SDL_ShowWindow(window); SDL_RenderPresent(gRenderer); untilPressKey (quit, e); ``` Первая функция **SDL\_RaiseWindow** выводит окно поверх всех окон, вторая функция **SDL\_ShowWindow**, показывает окно, если оно скрыто отображаем изображение и запускаем функцию выхода из приложения **untilPressKey:** ``` SDL_FreeSurface(imageSurface); SDL_DestroyTexture(imageTexture); SDL_RenderClear(gRenderer); SDL_DestroyWindow(window); SDL_Quit(); ``` [предыдущие уроки 1-7](https://habr.com/ru/users/LLEMOON/posts/) [предыдущие уроки > 7](https://habr.com/ru/users/scorpka/posts/) [ссылка на файлы](https://www.dropbox.com/sh/q7zp5pe1lw3s7jv/AADppyJpDb32g53Hw0IZ6UFva?dl=0)
https://habr.com/ru/post/584846/
null
ru
null
# Coin Keeper. iPhone приложение на C# ![](https://habrastorage.org/r/w780q1/storage1/0e836c4d/b575b39a/a38c9a01/3189bcdc.jpg) Вчера разработанное нами приложение [Coin Keeper](http://coinkeeper.me/ru) заняло третье место в топе платных приложений русского AppStore. Интересно то, что мы разрабатывали его не на привычном Objective C, а на C#, используя фреймворки Monotouch и Monodroid. Внутри я бы хотел рассказать про архитектуру приложения, хитрости и удачные моменты. Кроме того я раздам *5 промокодов*, тому кто сможет дать ценные комментарии по проекту. Coin Keeper это приложение для учета личных финансов. Главный экран приложения похож на большой [держатель монет](http://www.staraya-moneta.ru/bitrix/components/bitrix/forum.interface/show_file.php?fid=28331). Доходы, кошельки и расходы представлены как стопки. Чтобы зафиксировать трату, достаточно перенести монетку из стопки в стопку. Подробнее вы можете узнать на сайте приложения [CoinKeeper.me](http://coinkeeper.me/ru/). Пользователям идея очень понравилась: ![](https://habrastorage.org/r/w1560/storage1/46bec9b3/dabeccad/14b44e5e/b9865fba.png) Что за зверь Monotouch? ======================= [Мы](http://touchin.ru) при разработке проектов отдаем предпочтение фреймворкам [MonoTouch](http://xamarin.com/monotouch) и [MonoDroid](http://android.xamarin.com/). Эти продукты создала и развивает компания [Xamarin](http://xamarin.com/) во главе с Miguel de Icaza, основателем проектов Mono, Gnome, Ximian и Midnight Commander. С их помощью можно разрабатывать мобильные приложения для iPhone и Android на C#, при этом код компилируется в нативный машинный код и используются родные UI библиотеки платформ. Многие скептически относятся к любой кросс-платформенной разработке под мобильные платформы, но по-моему наш случай доказывает, что кросс-платформенные приложения ничем не отличаются от нативных и нравятся пользователям. Ну приступим к самому интересному, к грязным техническим подробностям :) Общая архитектура ================= ![](https://habrastorage.org/r/w1560/storage1/e3507f27/a6b0f245/494e0ea5/905045ee.png) Общая архитектура приложения выглядит примерно так ↑ Причем, DAL и BL можно брать и без изменений копировать в Android и Windows Phone 7 версии, а это около 50% исходного кода! DAL --- Классический для веб-приложений Data Access Layer. Бизнес-логика (BL) для доступа к данным использует только функции этого слоя. Возможно, вы подумаете, что это через чур и лишняя трата времени. Но, например, в WP7 используется SQL Compact Edition и другой ORM, поэтому в целях кросс-платформенности мы и сделали тонкую обертку над ORM. BL -- Business Logic или бизнес-логика приложения, слой отвечает за: — создание транзакций, повторяющиеся транзакции, историю транзакций; — категории и автобюджет (приложение само определяет сколько нужно тратить :) подробнее в разделе Автоматика); — статистику и отчеты; — логику накопления на цели; — транзакции между счетами в разных валютах. Пользовательский интерфейс использует исключительно объекты бизнес-логики, представленные как статические классы. В целом и все про архитектуру, если что осталось непонятным — задавайте вопросы, расскажу подробнее. «Фишки» ======= Автоматика ---------- Как известно, пользователи iPhone очень капризны и не любят разные кропотливые действия, поэтому мы постарались максимально избавить их от лишней работы. ### Автобюджет При первом запуске пользователя мы предлагаем ему автоматически сформировать бюджет на месяц, в зависимости от зарплаты. Данные основываются на публичной статистике, вот например предложение по расходам россиянина с зарплатой 30 000 рублей. ![](https://habrastorage.org/r/w1560/storage1/2e97e987/cf4df663/795a2d9c/1717279e.png)![](https://habrastorage.org/r/w1560/storage1/2925fa5f/033db6f4/6fb04d1a/94bad4eb.png) ### Предустановленные категории Вторая удобная мелочь — база категорий. Мы собрали в приложении 100 типовых категорий расходов и привязали их к иконкам. Создание статей расходов стало проще некуда :) ![](https://habrastorage.org/r/w1560/storage1/0366e924/1341e2ff/54677502/206804db.png) ### Перевод валют Счета и траты в Coin Keeper могут храниться в разных валютах. Изначально при переводах между разными валютами мы предлагали пользователю ввести оба значения. Потом поняли, что это грустно и теперь каждый день обновляем актуальные курсы валют с зарубежной биржи. Пользователь, если захочет, может скорректировать значение. ![](https://habrastorage.org/r/w1560/storage1/e3ada0c1/ae36f3e7/7a78ae2e/fd9a1505.png) Инкрементальная статистика -------------------------- Вернемся все же к удачным техническим решениям. В приложении есть два графика: столбчатая диаграмма доходов и расходов по месяцам и круговая диаграмма расходов за месяц. Казалось бы, что можно оригинального придумать при построение диаграмм? Но есть вот какая проблема, если пользователь зайдет посмотреть статистику доходов/расходов за год и мы начнем ее считать по всем транзакциям, это может затянуться на пару секунд, что недопустимо для мобильных приложений. Мы применили простой прием проектирования баз данных — денормализацию. Каждая добавленная пользователем транзакция *обновляет* записи в двух специальных таблицах: ![](https://habrastorage.org/r/w1560/storage1/21c24c6a/8610f66a/b1868849/31b86f56.png) ![](https://habrastorage.org/r/w1560/storage1/3f8513f8/2b0833a8/f468dfbc/37f10ed0.png) При заходе в статистику мы просто выводим строчки из этих таблиц. Unit тесты ---------- Когда мы начинали разработку приложения замечательной библиотеки [Touch Unit](https://github.com/spouliot/Touch.Unit) еще не было, поэтому пришлось написать свой маленький тестовый фремворк. Идея простая: был метод TestAll, который запускал все тесты, создавал новый объект интерфейса прямо внутри приложения и выводил результаты. Запускалось это все на эмуляторе или телефоне при помощи специальной цели для сборки. ![](https://habrastorage.org/r/w1560/storage1/76eaf864/6f5851f8/00daf442/1afdddcd.png) Анимация -------- Тут было 2 сложных момента. ### Cкрывание и раскрывание верхней и нижней плашек. ![](https://habrastorage.org/r/w1560/storage1/11fae844/a826287c/0a7b1c88/30de7998.png)![](https://habrastorage.org/r/w1560/storage1/5c5e6850/a890befa/92777858/608f0409.png) Сначала мы просто подписывались на события TouchesBegan, TouchesMoved, TouchesEnded у соответсвующих view и при начале прикосновения к нижней/верхней части плашки начинали ее двигать. Однако после первых тестов данный подход оказался сильно неудобен для пользователей: они часто начинали двигать пальцем выше или ниже области «захвата» плашки. Явно напрашивалось какое-то другое решение. Задача еще усложнялась тем, что внутри плашек есть UIScrollView, который перехватывал тачи внутри себя, а также есть категории при нажатии на которые должна вытаскиваться монета. После ряда экспериментов стало понятно что нам нужен глобальный обработчик всех жестов. Но вместо того чтобы использовать UIGestureRecognizer, мы решили вручную отлавливать все прикосновения на экране и на основе этой информации двигать плашки. Для этого мы сделали свой класс CustomWindow унаследованный от UIWindow, в котором переопределили метод SendEvent (код как раз на C#, но Objective-C девелоперы должны легко его понять): ``` public override void SendEvent (UIEvent evt) { base.SendEvent (evt); if (PanelsDragger.TrackTouches) { var touch = evt.AllTouches.AnyObject as UITouch; if (touch == null) return; PanelsDragger.TouchAction(touch, touch.LocationInView(this)); } } ``` И уже на основании информации о месте тача, мы соответствующим образом двигаем нужные плашки. В итоге сейчас можно начать жест в любой части экрана и когда палец дойдет до нужной плашки — она подцепится и начнет скрываться. При этом тач события доходят и до других контролов, что позволяет работать UIScrollView и механизму перетягивания монет. Да, в iOS 5 с введением нотификаций, которые вытаскиваются сверху, зеленую плашку доставать стало труднее, но в новой версии мы постараемся избавиться от этой проблемы. ### Анимация и отображение категорий ![](https://habrastorage.org/r/w1560/storage1/1014b3df/dbd90811/ca48166c/a2cccbf7.png) В приложении красочно показывается уровень текущих расходов: в виде наполняющегося цветом круга. При этом цвет зависит от интенсивности расходов в этой категории и того насколько вы вписываетесь в бюджет в рамках месяца. Для реализации этой идеи мы придумали 2 разных подхода, один из которых опишем здесь. Первой рисуется статичная картинка фона, тут все понятно. Далее нам нужно каким-то образом «отрезать» верхнюю часть круга у картинки с цветным кругом. Для этого мы создаем view внутрь которой помещаем картинку круга и задаем у этой view свойство ClipToBounds. Далее мы двигаем картинку круга вверх таким образом, чтобы часть круга вылезала за границы родительской view и обрезалась. Правильно позиционируем эту clipper view и вуаля у нас есть наполнение :) Заключение ---------- Если вам интересна тема разработки на MonoTouch/MonoDroid, подписывайтесь на [наш блог](http://habrahabr.ru/company/touchinstinct/blog/), где [AndreyBaskov](http://habrahabr.ru/users/andreybaskov/) будет постепенно выкладывать цикл статей по разработке на основе этих фреймворков, а также различные решения из практики, упрощающие мобильную кросс-платформенную разработку. Спасибо что дочитали! Напомню про 5 промокодов, которые вышлю тому, кто сможет дать ценный совет по приложению :) **UPD: с промокодами мы какую-то ерунду придумали :) Отдам первым 5 людям, которые попросят.** **UPD2: промокоды закончились :(**
https://habr.com/ru/post/132725/
null
ru
null
# Использование API Fmp Cloud для отбора акций по дивидендам на Nasdaq с помощью Python > Акции с высокой дивидендной доходностью часто являются отличной инвестиционной стратегией для инвесторов, стремящихся получать приток денежных средств каждый год. В данной статье буден создан скрипт на Python для отбора их на бирже NASDAQ. > > ### Что такое дивидендная доходность? Возьму определение из [Википедии](https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D0%B2%D0%B8%D0%B4%D0%B5%D0%BD%D0%B4%D0%BD%D0%B0%D1%8F_%D0%B4%D0%BE%D1%85%D0%BE%D0%B4%D0%BD%D0%BE%D1%81%D1%82%D1%8C). Дивидендная доходность (англ. dividend yield) — это отношение величины годового дивиденда на акцию к цене акции. Данная величина выражается чаще всего в процентах. *Пример* При цене акции ОАО «Лукойл» 1124,37 рублей и дивиденде 28 рублей на акцию дивидендная доходность будет равна: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a21/c0a/961/a21c0a96170c17c0b2797d3ac3f43555.png)Так же необходимо обратить внимание, что многие растущие компании, такие как для примера Amazon и Yandex, не выплачивают дивиденды, поскольку они реинвестируют всю прибыль в развитие бизнеса. Поэтому дивидендная доходность для этих фирм будет равна нулю. ### Расчет дивидендной доходности с помощью Python Расчет дивидендной доходности является простой задачей, которую можно выполнить с помощью финансового API под названием fmpcloud и Python. Этот API предлагает несколько бесплатных запросов в день после регистрации. Первым делом нужно извлечь список тикеров для всех акций, торгующихся на Nasdaq, по которым собираемся рассчитать дивидендную доходность. ``` import requests demo = 'Ваш API CODE' tickers = requests.get(f'https://fmpcloud.io/api/v3/symbol/available-nasdaq?apikey={demo}') tickers = tickers.json() symbols = [] for ticker in tickers: symbols.append(ticker['symbol']) ``` После необходимо пройтись по полученному списку акций и получить финансовую информацию по компании. Так же необходимо понимать, что получаем только последние данные, а не за все время существование компании. ``` DivYield = {} for company in symbols: try: companydata = requests.get(f'https://fmpcloud.io/api/v3/profile/{company}?apikey={demo}') companydata = companydata.json() latest_Annual_Dividend = companydata[0]['lastDiv'] price = companydata[0]['price'] market_Capitalization = companydata[0]['mktCap'] name = companydata[0]['companyName'] exchange = companydata[0]['exchange'] dividend_Yield= latest_Annual_Dividend/price DivYield[company] = {} DivYield[company]['Dividend_Yield'] = dividend_Yield DivYield[company]['latest_Price'] = price DivYield[company]['latest_Dividend'] = latest_Annual_Dividend DivYield[company]['market_Capit_in_M'] = market_Capitalization/1000000 DivYield[company]['company_Name'] = name DivYield[company]['exchange'] = exchange except: pass ``` Сбор данных может занять значительное по продолжительности время. После их можно представить в виде отсортированного DataFrame, где сверху будут акций с высокой дивидендной доходностью. ``` import pandas as pd DivYield_dataframe = pd.DataFrame.from_dict(DivYield, orient='index') DivYield_dataframe = DivYield_dataframe.sort_values(['Dividend_Yield'], ascending=[False]) DivYield_dataframe.head(15) ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8bc/25f/5d3/8bc25f5d34a408e4ae2c0b70b0289fd7.png)**Анализ полученного результата и заключение** Предварительно проведем расчет средней дивидендной доходности по акциям которые платят дивиденды: ``` meanDivNasdaq = DivYield_dataframe[DivYield_dataframe['Dividend_Yield']>0]['Dividend_Yield'].mean() print("Средняя дивидендная доходность по рынку Nasdaq равна ", "{:.2%}".format(meanDivNasdaq)) ``` *Средняя дивидендная доходность по рынку Nasdaq равна  2.80%* Самой высокой дивидендной доходностью в полученных результатах у акций компании Triumph Bancorp Inc — 21,57%. Правда по ним никогда не платили дивиденды. Так что в системе похоже сидит баг. Так же по другим рынкам заметил, что в список могут включаться акции по которым перестали платить дивиденды давно. А так, как подписка Free ограничена по количеству запросов, то подстроить ее не удалось. Так же в том случае, если при проверке выясняется, что дивиденды платили недавно, то все равно необходимо быть осторожным при выборе компаний по данному показателю, так как он может являться результатом падения цены акций и как следствия ростом дивидендной доходности. Так же выплата высоких дивидендов может не сохраниться в будущем, тем более если у компании возникнут финансовые проблемы. Основной смысл в следующем — анализ дивидендной доходности не должен быть единственным критерием. Я для одного из своих портфелей так же смотрю: EPS, EBITDA, FCF, срок выплаты дивидендов, капитализация компании, чистая рентабельность (отношение выручки к прибыли) и коэффициент Net Debt/EBITDA. Но как говориться — все вышеприведенное не является инвестиционной рекомендацией и выбор остается за каждым самостоятельно.
https://habr.com/ru/post/549598/
null
ru
null
# Как посчитать синус быстро и точно. Точнее, с заданной точностью, простите за каламбур. Под катом я расскажу, как сделать это с использованием школьного курса алгебры и целочисленной арифметики, при чём здесь [полиномы Чебышёва](https://ru.wikipedia.org/wiki/%D0%9C%D0%BD%D0%BE%D0%B3%D0%BE%D1%87%D0%BB%D0%B5%D0%BD%D1%8B_%D0%A7%D0%B5%D0%B1%D1%8B%D1%88%D1%91%D0%B2%D0%B0) I-го рода, и дам ссылки на примеры реализаций для ПК и Cortex-M3. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/aea/3c1/788/aea3c1788b1cabd3df3fbc71e4a7af10.png)Если вам лень вникать в теорию, и нужны только примеры реализации - сразу переходите в конец статьи. Поехали. Если нужно найти синус, или другую тригонометрическую функцию на ПК, это делается просто - сейчас в процессоры семейства x86/x64 встроен FPU, а он знает инструкцию *fsin*, при помощи которой вычисляется искомое. Вычисляется, если говорить с натяжкой, быстро. Если это надо сделать это на МК без плавающей точки - то возникают проблемы. Можно использовать функцию из поставляемой вместе с компилятором библиотеки, будет точно, но очень медленно. Если надо быстрее - то первое, что приходит в голову, заранее посчитать таблицу со значениями, но точность при этом сильно упадёт, и будет зависеть от шага аргумента между смежными значениями. Следующий интуитивно понятный шаг - использовать интерполяцию по двум соседним точкам таблицы. Это поможет поднять точность, но несильно. Иногда для достижения нужной точности размер таблицы всё равно превосходит разумные пределы. Что же тогда делать? Увеличивать степень аппроксимации. Это позволит увеличить точность вычислений и (или) уменьшить размер таблиц. И сделать это совсем несложно. Аппроксимация полиномами ------------------------ Кусочно-линейная аппроксимация - это, по сути, аппроксимация полиномом первой степени. Выходное значение вычисляется по формуле `y = A1·x + A0`, где x - это входной аргумент, A0, A1 - некие коэффициенты. Для примера разобьём весь период от 0 до 2π на 8 равных интервалов, и для каждого подберём такие коэффициенты A0 и A1, что бы максимум ошибки при любом аргументе был минимален (как это сделать, я расскажу ниже). Если мы построим график этого "синуса", он будет выглядеть примерно так (сплошная линия): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/42b/a2c/05b/42ba2c05bbec83e4b7eb5e99b0a04e73.png)Штриховой линией нарисовано более точное значение синуса. А график ошибки (разницы между "настоящим" и аппроксимированным значениями будет таким: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ca8/118/07f/ca811807ffc3e4871e422cdbad0055d9.png)На нём, если приглядеться, не выполняется условие "максимум ошибки при любом аргументе был минимален", но сейчас это неважно. Максимальная ошибка составляет 0.03684497. Небольшое отступление. Числа вроде *0.03684497* или *2.448728e-0*9 слишком абстрактны для понимания, их трудно сравнивать. Мне, как человеку, долгое время работающему в двоичной системе, гораздо ближе биты. Поэтому к ним я и буду приводить величину ошибки, беря от неё минус логарифм по основанию 2, тогда она превращаются соответственно в *4.76* или *28.6* [*бит*](https://www.liveinternet.ru/users/optical_race/post70179418/)*.* По мне, такие логарифмические "попугаи" проще для восприятия и нагляднее. По итогам предыдущего абзаца можно сказать, что "значение синуса вычислено с точностью 4.76239 бита". Теперь давайте разобьём один период (от 0 до 2π) не на 8, а на 64 интервала, по 16 на каждый квадрант. И рассмотрим один интервал в районе, например, 45°. График ошибки (сплошная чёрная линия) выглядит так: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9c2/b66/8ea/9c2b668eac123edf7589d381b335de69.png)Он очень похож на график параболы y = x², который нарисован там же красным штрих-пунктиром. Так же, как парабола, выглядит график полинома Чебышёва I-рода 2-й степени (более того, он ей и является). На КДПВ, он изображён голубой линией. А что если мы учтём это, и попробуем на этом же отрезке вычислять синус по формуле `y = A2·x² + A1·x + A0`? Считаем тройку коэффициентов А0, А1, А2 (как - об этом ниже), по ним считаем целевой синус, и находим ошибку (сплошная чёрная линия): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5e3/0d7/b3e/5e30d7b3e254576407901f06373e7980.png)Красным штрих-пунктиром нарисован полином Чебышёва3-й степени, и снова оба графика очень похожи. Здесь я открою маленький секрет. График синуса, найденный аппроксимацией функцией 2-степени по 8 интервалам, с точностью до долей пикселя совпадает с "настоящим", и, будучи нарисованными вместе, они полностью перекрывали бы друг друга. Тремя картинками выше, где нарисованы графики, сиреневым пунктиром изображён не "настоящий" синус, а полученный функцией 2-й степени. Как сильно увеличилась точность при переходе от 1-й ко 2-й степени? Для 64 интервалов на период она возросла с *10.7* до *17.63* бит. Откуда взялись эти числа, я расскажу ниже. Если мы дальше продолжим увеличивать степень полинома, то ошибки будут ещё меньше, и будут приобретать формы полиномов Чебышёва разных степеней: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/123/9c9/3b2/1239c93b2fff76600bb26c7d2c646c33.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5e0/040/206/5e0040206fba81427a1eedb1a05a78ae.png)Точность аппроксимации на 64 отрезках при этом возрастёт до *24.980* бит (3-я степень) и *32.651* бит (4-я степень). Если дальше повышать степень - тенденции сохранятся. Думаю, смысл применения полиномов для аппроксимации синуса понятен. Как считать коэффициенты ------------------------ В википедии, в [статье](https://ru.wikipedia.org/wiki/%D0%9C%D0%BD%D0%BE%D0%B3%D0%BE%D1%87%D0%BB%D0%B5%D0%BD%D1%8B_%D0%A7%D0%B5%D0%B1%D1%8B%D1%88%D1%91%D0%B2%D0%B0) про полиномы Чебышёва есть фраза: "*Многочлены Чебышёва играют важную роль в теории приближений, поскольку корни многочленов Чебышёва первого рода используются в качестве узлов в интерполяции алгебраическими многочленами*". Это как раз наш случай. Посмотрим ещё раз на их графики: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/14f/0cc/a53/14f0cca53f46a27cd0d327f71e8dec9b.png)Голубая линия (полином 2-й степени) пересекает ось абсцисс (y=0) в двух точках `x = ±0.7071`. Оранжевая (3-й степени) - в трёх точках: `x = 0 и x = ±0.866`. Это и есть корни полиномов, они будут использованы "в качестве узлов в интерполяции". Ещё небольшое отступление, как представлять аргументы. На 32-битных процессорах полный период (круг) удобно представить как 232 (0x100000000), а угол, соответственно, в диапазоне от `0` до `0xffffffff`. Если количество интервалов аппроксимации, на которые разбит круг, равно 2n, то угол можно интерпретировать как двоичное число с фиксированной точкой. Например, при разбиении на 64 интервала (26), угол будет интерпретироваться как число размерности *6.26*. Здесь старшие 6 бит - это номер интервала (считая от нуля), а младшие 26 бит - смещение внутри него. Возьмём, для примера, угол 15°. Если вычислить 15°/360° · 232, то получим `0000_1010_1010_1010_1010_1010_1010_1011` в двоичном виде. В размерности 6.26 будет выглядеть как `000010.10101010101010101010101011`. Здесь первые 6 бит `000010` - это десятичное 2 (2-й интервал), а оставшиеся 26 `10101010101010101010101011`, будучи поделены на 226, дадут 0.66666667 - это смещение внутри интервала. То же самое получим: 2.66666667 = 64 \* 15/360. Смещение внутри интервала лежит в диапазоне `0.0 ≤ x < 1.0`. К нему же надо привести корни многочленов Чебышёва, которые находятся между `-1` и `+1`. Корни полинома 2-й степени превратятся *0.14645* и *0.85355*, 3-й степени - *0.066987*, *0.5* и *0.933013*. Теперь давайте найдём коэффициенты A0, A1 и т.д. При аппроксимации полиномом 1-й степени `y = A1·x + A0` нам нужно, что бы на заданном интервале с номером *N* в точке со смещением 0.14645 целевое значение было равно `y=sin((N + 0.14645)/64 * 2π)`, а в точке 0.85355 - `y=sin((N + 0.85355)/64 * 2π)`. Это делается при помощи системы из двух линейных уравнений с 2 неизвестными A1 и A0: `A1·0.14645 + A0 = sin((N + 0.14645)/64 * 2π) A1·0.85355 + A0 = sin((N + 0.85355)/64 * 2π)` Для интервала N=2 (где находится 15°), получаем: `A1 = 0.09521` и `A0 = 0.19523`. Пройдясь по всем N, от 0 до 63, получим таблицу с наборами коэффициентов A1 и A0. С ней уже можно считать синус с точностью 10.7 бит. Как это делать, расскажу ниже (если кто до сих пор не понял сам). Перейдём ко 2-й степени y = A2·x² + A1·x + A0. В качестве аргумента *x* подставим, соответственно, корни полинома 3-й степени *0.066987*, *0.5* и *0.933013*. Напишем систему из 3 уравнений с 3 неизвестными A2, A1 и A0: `A2·0.066987² + A1·0.066987 + A0 = sin((N + 0.066987)/64 * 2π) A2·0.5² + A1·0.5 + A0 = sin((N + 0.5)/64 * 2π) A2·0.933013² + A1·0.933013 + A0 = sin((N + 0.933013)/64 * 2π)` Решения для интервала N=15 будут следующие: `A2 = -0.004812613 A1 = +0.009628370 A0 = +0.995184425` Обратите внимание на A2 и A1. Если их умножить 27 и 26 соответственно, то их значения всё равно будет лежать в пределах от -1 до +1. Интервал №15 я выбрал не случайно - на нём значение A0 максимально и близко к 1. Вообще, в большинстве случаев коэффициенты при больших степенях можно увеличить на некий коэффициент. При целочисленных операциях это уменьшит погрешность вычислений, а на Cortex-M3 к тому же сократит их время - об этом я расскажу ниже. Для вычисления таблиц других размеров в предыдущую систему уравнений вместо 64 нужно подставить нужный размер. Для аппроксимации полиномом степени P нужно найти корни полинома Чебышёва степени P+1, и записать систему из P+1 уравнений с P+1 неизвестными, не забывая возводить корень многочлена в нужную степень 'n' при каждом An. (Если предыдущее предложение непонятно, то ничего страшного. Ближе к концу статьи будет ссылка на готовый генератор таблиц и краткая инструкция к нему.) Точность вычислений ------------------- Разные комбинации размера таблицы и степени полинома дают разную погрешность. Не имея представления, как определить её аналитически, я решил считать "в лоб", перебирая все возможные комбинации, и прогоняя через каждую все углы от 0 до 0xffffffff. Для этого был создан проект [accuracy\_test](https://github.com/VictorAgarkov/sine_approx_04/tree/master/accuracy_test). Суть в следующем: * в проект включены таблицы, степенью полинома от 1 до 6 и размером от 4 до 65536, всего 90 штук. Какие таблицы проверяем, указывается в аргументах при запуске. Можно указать набор или диапазон проверяемых таблиц; * с помощью заданной таблицы производится аппроксимация синуса по всем возможным 4294967296 аргументам. Результат аппроксимации сравнивается со значением, полученным стандартной функцией *sinl()*, получается разница-ошибка; * находится самая большая в абсолютном значении ошибка - это самый худший случай аппроксимации. Можно утверждать, что заданным методом точность вычисления не хуже, чем эта самая ошибка. Количество аргументов от 0 до 232-1 велико, но не бесконечно, и их перебор занимает какое-то конечное время. Ноутбук с Intel Core-I7 перебирает их примерно за 6, а [одноплатный](http://wiki.banana-pi.org/Banana_Pi_BPI-M1%2B) компьютер на Allwinner A20 за 25 минут. Причём на ПК, как показал один эксперимент, львиную часть времени занимает вычисление "эталонного" значения функцией *sinl*. Результаты проверок всех 90 таблиц в конечном итоге сводятся в одну небольшую [табличку](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_FLOAT80_0x00000001.csv), на основании которой строится диаграмма: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/108/6f0/a94/1086f0a943336430af7fc0acad9f2dc9.png)На ней видно, что с увеличением размера таблицы точность растёт, и тем быстрее, чем выше степень полинома, при этом не поднимаясь выше 54 бит. Это самая большая точность, которую мне удалось достичь, при этом вычисления производились на ПК, с помощью 80-битных чисел с плавающей точкой (long double). Почему я заострил внимание "на ПК", будет чуть дальше. При использовании 32-битных целочисленных вычислений [результаты](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_INT32_0x7f000000.csv) скромнее: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/baf/472/1ef/baf4721ef78a56cb3672c237cfa36972.png)Здесь точность не превышает 30.36 бит. Но с учётом того, что старший бит отведён под знак числа, ошибка получается менее самого младшего бита. На этой диаграмме, как видно, присутствуютне все комбинации размера таблицы и степени полинома. Это связано с тем, что некоторые коэффициенты при малом количестве интервалов превышают 1, и при умножении на 0x7f000000 выходят за пределы знакового 32-битного числа. Компилятор предупреждает об этом, а попытки определить точность дают результат в районе 0 бит. Максимальная точность на 32-битных целых числах, которую я получил, составляет 30.37 бит при множителе [0x7fffff00](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_INT32_0x7fffff00.png). **Несколько слов о вычислениях на ARM** со встроенным АРМовским FPU (armhf) Результаты неприятно удивили. Во-первых, выяснилось, что он может работать только с 64-битными числами с плавющей точкой (в отличии от 80-битных long double на x86/x64), и нет разницы, переменные какого типа пытаться использовать - double или long double, компилятор всё сводит к double. Во-вторых, вычисления на ARM по точности немного отличаются от таких на x86 в худшую сторону - при долгой работе с числами набегают ошибки округления. Это можно увидеть, если посмотреть на соответствующие диаграммы для 64-битных float (файл формата [ods](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_FLOAT_ALL.ods), [xls](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_FLOAT_ALL.xls)). ARM хуже вычисляет как и сами таблицы, так и аппроксимацию синуса на их основе. Причём худший вариант - когда он вычисляет на таблицах, созданных им же. Использование таблиц от x86 дают немного лучший результат, значит таблицы лучше не создавать на ARMах. Результаты всех проверок сведены в несколько файлов, в каждом из них есть несколько листов: - для чисел с плавающей точкой - [ods](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_FLOAT_ALL.ods), [xls](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_FLOAT_ALL.xls); - для целых 32-битных чисел - [ods](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_INT32_ALL.ods), [xls](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_INT32_ALL.xls); - для чисел с плавающей точкой ([ods](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_FLOAT_E8_ALL.ods), [xls](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_FLOAT_E8_ALL.xls)), когда в качестве эталона использована не *sinl*, а аппроксимация теми же таблицами. О последнем надо сказать особо. Сравним числа с плавающей точкой и какие точности на них достигнуты: - float 32-бит, мантисса 23+1 бит, точность аппроксимации - **24** бита. - float 64-бит, мантисса 52+1 бит, точность аппроксимации - **53** бита. - float 80-бит, мантисса 63+1 бит, точность аппроксимации - почти **54** бита, хотя можно было ожидать 64. Куда делись 10 бит? Возникло предположение, что неточно вычисляется "эталонный" синус функцией *sinl*. Для проверки был проведён эксперимент, где сравнивались результаты аппроксимации двумя разными таблицами. В качестве эталона использовались несколько таблиц длиной 215, 216, разных степеней полинома, а сами вычисления производились 80-битными long double. Предположение не подтвердилось, зато было замечено, что время проверки уменьшилось в несколько раз! Проверка таблицы 65536\_p^1 функцией *sinl* заняла 279с, а аппроксимацией - 56с. Получается, что более 80% времени процессор был занят вычислением функции *sinl*. В свете этого можно рекомендовать использовать на ПК аппроксимацию вместо *sinl*, можно получить выигрыш во времени. А куда же делись 10 бит, я так и не понял. Есть подозрение, что точность, равная разрядности мантиссы на 32- и 64-битных float получалась за счёт запаса 80-битных вычислений, результаты которых потом огрублялись до заданных 32 и 64, а без огрубления она как раз составляла те самые 54 бита. При вычислениях на ARMах с 64-битным FPU точность вычисления упала до 50.8 бита против 53 на x86/x64. Таблицы с коэффициентами ------------------------ Их можно получить программой [make\_table](https://github.com/VictorAgarkov/sine_approx_04/tree/master/make_table). Там есть файл проекта на [code::blocks](https://www.codeblocks.org/), исходные тексты + скрипт для самостоятельной сборки с помощью gcc, а так же готовый .exe. В качестве аргументов программа принимает: - размер таблицы, равный 2n; - степень полинома; - множитель для коэффициентов для приведения их к целочисленным значениям; - параметр AC\_SHIFT, показывающий, на сколько бит множитель при коэффициенте, например, 3-й степени будет "весомее" множителя предыдущей 2-й. Результатом работы программы является исходный код на языке С. Программа выводит его непосредственно на экран, и его можно перенаправить в файл. Например: `.\make_table.exe 64 3 0x40000000LL 3 > ..\tables\sine_approx_64_3_3.c` создаст файл sine\_approx\_64\_3\_3.c. Этот файл содержит таблицу коэффициентов для аппроксимации полиномами 3-й степени по 64 отрезкам, чего достаточно для получения 25-битной точности. Множитель при коэффициенте A0 = 0x40000000, а множители при коэффициентах более высоких степеней будут отличаться от соседних в 2³ = 8 раз. В начале файла есть набор директив препроцессора, с помощью которых можно настраивать некоторые параметры таблицы: **TABLE\_TYPE** - тип данных таблицы, по умолчанию int32\_t. Его можно "перебить", указав компилятору другой. **Q1\_ONLY** - указание использовать только первый квадрант, позволяет уменьшить объём таблицы в 4 раза. **DC** - "добавка" к ко всем коэффициентам перед превращением их в целочисленный вид, позволяет делать арифметическое округление. По умолчанию равно 0.5 (для int32\_t), для чисел с плавающей точной следует задать его равным 0. **AC0** - множитель для коэффициента 0-й степени, по умолчанию 0x40000000LL. Может быть задан другой, для таблицы типа float можно задать 1. **AC\_SHIFT** - на сколько бит будет сдвинут влево множитель AC0 для каждой последующей степени (механизм этого понятен при формировании множителей AC1, AC2 и так далее). Для таблицы длиной 64 строки оптимальное значение 3, для таблиц другой длины оптимальные значения лежат в районе от 1 до 5. Каждая строка полученной таблицы выглядит примерно так: `-0.00015749713825 * AC3 + DC, -0.000000170942 * AC2 + DC, +0.098174807817 * AC1 + DC, -0.000000001187 * AC0 + DC, // 0` где -0.00015749713825096520473455514 \* AC3 - коэффициент для x³, -0.00000017094269773828251637917 \* AC2 - для x², и так далее. В конце файла, после таблицы, сформирован отчёт, какой "запас по битам" имеется у каждого коэффициента. В процессе расчёта множителей находятся таковые с максимальными абсолютными значениями. В таблице из примера для множителя 0 степени это 0.999999969786949, что почти рано 1.0, и запаса по битам нет. А максимальный коэффициент 3-го порядка равен 0.00015749713825, его можно безболезненно умножить на 212, и результат будет всё ещё меньше 1. С помощью запаса по битам при желании можно скорректировать сомножители AC1 ... ACn. Если есть желание повторить проверки точности, то в папке проекта есть скрипт на lua, который может сформировать необходимые исходные файлы, и сформирует cmd-файл, запустив который получится 90 файлов с таблицами на 22 ... 216 строк и степенями от 1 до 6. Впрочем, все они и так присутствуют Как это использовать на практике -------------------------------- Для использования аппроксимации в своём проекте для начала нужно определиться, с какой точностью нужно вычислять синус. Потом нужно оценить ресурсы (объём памяти и быстродействие вычислителя), которые у вас есть. К примеру, вы хотите, используя 32-битные целочисленные операции, сделать генератор с 24-битным ЦАП. Старший бит отведён на знак, поэтому точность аппроксимации должна быть не меньше 23 бит. На [диаграмме](https://github.com/VictorAgarkov/sine_approx_04/blob/master/accuracy_test/result/bit_accuracy_INT32_0x40000000.png) видно, что заданная точность достигается при использовании: - таблицы на 8192 строки при использовании аппроксимации 1-й степени, - 512 строк при 2-й степени, - 64 строки при 3-й степени, - 32 при 4-й степени, - 16 при 5-й степени, и - 8 при 6-й степени. При желании степень полинома можно увеличить ещё, длина таблицы при этом уменьшится. Теперь следует определиться с ресурсами и приоритетами их использования. Если вы хотите получить максимальное быстродействие, нужно использовать аппроксимацию 1-й степени, при этом таблица на 8192 строки займёт 64к. Если вы используете какой-нибудь STM32 на Cortex-M3, то размещение таблицы в ОЗУ уменьшит время вычисления в отличии от размещения её в памяти программ, и у ST можно найти контроллеры с объёмом ОЗУ больше 64к. Если у вас очень мало памяти и есть запас по быстродействию (FPGA например) , можно использовать аппроксимацию с высокими степенями. Таблицы 5-й и 6-й степеней займут, соответственно, 16 \* (5+1) \* 4 = 384 и 8 \* (6+1) \* 4 = 224 байт. Уменьшить объём ещё в 4 раза можно, используя симметричность функции синуса. Точность при этом может упасть, т.к. при аргументе функции `0x40000000`, что равно 90°, будет использован `0x3fffffff`, вместо`0x40000001` - `0x3ffffffe`, и т.д. Для использования этого фокуса, при сборке проекта в опциях компилятора нужно добавить **Q1\_ONLY** - это уменьшит размер таблицы и добавит лишние вычисления в функции *get\_sine\_int32()* и *get\_sine\_float()*. Примеры использования --------------------- Есть 2 готовых примера - для [ПК](https://github.com/VictorAgarkov/sine_approx_04/tree/master/example/PC) и для популярного [STM32F103C8](https://github.com/VictorAgarkov/sine_approx_04/tree/master/example/STM32). Что бы избавиться от лишних умножений для возведения в степень, формула `y = A2·x² + A1·x + A0` преобразована к виду `y = ((0 + A2)·x + A1)·x + A0` В упрощённом виде код выглядит так: `// angle - угол (доля полного периода в диапазоне от 0.0 до 1.0, фикс.точка 0.32) // pN - двоичная степень количества интервалов; N = 2^pN // ac_shift - двоичная степень отношения "весов" смежных коэффициентов // pw - степень полинома // table - таблица коэффициентов, одномерный массив размером 2^pN * (pw + 1) int idx = angle >> (32 - pN); // индекс строки в таблице uint32_t X = (angle << pN); // X = дробная часть угла * 2^32 (фикс. точка 0.32) X >>= ac_shift; // уменьшая X, корректируем "веса" коэффициентов const int32_t* A = table + idx * (pw + 1); // указатель на первый коэфф (при степени pw) в строке таблицы int64_t sum = A[0]; for(int i = 1; i <= pw; i++) { sum *= (int32_t)X; // sum - промежуточный результат, фикс. точ. размерности 32.32 sum >>= 32; // приводим sum к размерности 64.0 sum += A[i]; // прибавляем очередной коэфф. } // теперь sum содержит искомое значение` **ПК** [Там](https://github.com/VictorAgarkov/sine_approx_04/tree/master/example/PC) есть 2 функции на выбор - для целочисленных вычислений *get\_sine\_int32* и для вычисления с плавающей точкой *get\_sine\_float*. Каждая оформлена в отдельной паре файлов (.h / .c), которые нужно включить в свой проект. Так же в проект надо включить нужную таблицу с коэффициентами. Использование таблиц и функций с плавающей точкой на ПК оправдано, т.к. это позволяет ускорить вычисления. **Cortex-M3** Проект на [embitz](https://www.embitz.org/%5D) для STM32F103C8. Вычисления синуса полиномами от 1-й до 6-й степеней оформлены в виде ассемблерных вставок в [код](https://github.com/VictorAgarkov/sine_approx_04/blob/master/example/STM32/src/main.c) на С. Перед каждой вставкой в комментариях есть примерно измеренное кол-во тактов на 1 цикл вычислений, когда таблица находится во flash и когда в RAM, время получается разное. Размешение таблиц в оперативной памяти позволяет немного поднять быстродействие. Я не считаю себя знатоком ARMовского ассемблера, возможно кому-то удасться вычисления ускорить. Здесь надо рассказать о том, почему использование коэффициента AC\_SHIFT ускоряет вычисление. У Cortex-M3 есть инструкции умножения двух 32-битных чисел с получением 64-битного результата: UMULL и SMULL. Первая умножает два беззнаковых числа, и нам не подходит, потому коэффициенты есть положительные и отрицательные. Вторая, которую мы используем, умножает знаковые числа: одно из них - это коэффициент из таблицы, знаковое число, второе - это смещение угла внутри интервала, число беззнаковое. Если второе число превысит 0x7fffffff, то оно блоком умножения будет интерпретировано как отрицательное и результат будет не тот, который мы ожидаем. Но инструкции, которая перемножала бы знаковое и беззнаковое число, в наборе команд нет. Мы будем использовать SMULL и позаботимся о том, что бы второе число не превышало 0x7fffffff, уменьшив его минимум в 2 раза. При этом надо будет после каждого умножения корректировать результат. Сделать это можно двумя способами: - каждый раз удваивать результат, на что уйдут машинные такты; - сделать в два раза больше то число, которое на него умножаем. Более экономичным является второй способ. Если x уменьшен в 2 раза, то из формулы `y = (((0 + A3)·x + A2)·x + A1)·x + A0` понятно, что в 2 раза должен быть увеличен коэффициент A1, в 4 раза A2, и в 8 раз A3. Если же x уменьшен в 4 раза, то множители становятся соответственно 4, 16 и 64. За это при компиляции таблиц отвечает параметр AC\_SHIFT. Кроме того, его использование убивает второго зайца - коэффициенты, содержащие много нулей после запятой - а они относятся к высоким степеням полиномов, не так сильно теряют точность при округлении. Вот и всё. Буду рад вашим замечаниям, уточнениям и предложениям.
https://habr.com/ru/post/577256/
null
ru
null
# Знакомство с Go, часть 2: пишем граббер изображений с балансировщиком и извращениями #### Задание Недавно я рассказывал, как выполнял секретную миссию и [с помощью Go загружал дамп цитат с «пустоты»](http://habrahabr.ru/post/197598/). Пришло время снова вступить в бой, на этот раз дело касается «Ататы», и не только потому что в рифму с пустотой. Для тех кто пропустил — в свое время [«Тематические Медиа»](http://tmtm.ru/projects.html) (да-да, хозяева хабра) запустили проект «Респектива» ( этакую гламурную имиджборду\тумблр с одним разделом), хитроумными баннерами заманили туда девушек и программистов и стали ждать, видимо надеясь что срастется. Не срослось, и через некоторое время «Респективу» мутировали в [«Атату»](http://atata.com/hubs#_lists/popular), которая уже имела функционал для создания пользовательских ~~борд~~потоков, хабов для объединения тематических потоков и так далее. Какое-то время проект развивался, но Девушки ушли, остались программисты, да и их стало куда меньше. Сейчас это место почти покинуто, там чумные ветра, брошенные поезда, темнота и только редкие вопли нескольких выживших старожилов изредка прорезают хтмл в ночи. И ладно, атата с ней, с этой ататой. Но отличного контента в виде картинок там осталось немало, один тред с обоями чего стоит! Поэтому неудивительно, что следующее задание из штаба выглядело следующим образом: **«Срочно сохранить для потомков все изображения из потока ~~#949~~ [#291](http://home.atata.com/streams#291). ps. Извращенно.»** Ну, что же, есть задание — нужно работать. Вообще-то по извращенным структурам у нас уже есть некий кофейный чемпион, но и на Go тоже можно что-нибудь сообразить! После 9 часов работы в Paint у меня родился следующий план атаки: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/167/521/f9b/167521f9b392c45594e33f659165bdbb.png) Степень изврата поражает, начальство будет довольно! Рассмотрим что тут и как: *«Генератор»* будет загружать с ататы хтмл код страниц, выдергивать урлы картинок и передавать их *«Балансировщику»*, который раскидывает эти урлы некоторому количеству *«Рабочих»* (каждый из которых имеет свою небольшую очередь заданий) следя за тем, чтобы все рабочие были равномерно нагружены. Ну а «рабочие» загружают картинки и радуют глаз умиленного балансировщика. Выглядит избыточно, но зато про войну! Поехали: #### Генератор Это будет самое простое, в цикле загружаем страницы, разбираем их и скармливаем вытянутые урлы картинок в канал (про каналы, гоурутины и некоторые другие штуки я поверхностно рассказал в прошлой статье, поэтому тут повторяться не буду). Атата разбита на разделы (которые там зовутся «потоками»), одна страница каждого «потока» содержит 20 постов. Ссылки выглядят следующим образом: «[home.atata.com/streams/291?order=date&from=40](http://home.atata.com/streams/291?order=date&from=40)», где *291* это айди потока, а *40* — отступ в постах с конца (то есть чем больше тем раньше). Интересующий нас код шаблона поста выглядит так: ``` ![]() ``` Будем идти по страницам увеличивая "*from*" в url, дергать ссылки с классом *image* и отдавать их в канал. Только вот до каких пор? Оказывается, что на последней странице потока есть опознавательный знак в виде скрытой кнопки загрузки следующей партии постов (```` ), вот за ним и будем следить. Есть много вариантов как оповестить программу о том что достигнута последняя страница и ссылок больше не будет. Мы же, для простоты, дойдя до конца отправим в поток некую кодовую фразу, чтобы на другом конце поняли что пора закругляться. Парсинг страниц, как и в прошлый раз, возложим на пакет **goquery** (http://github.com/opesun/goquery). Итак, ближе к коду: // atatagrab project main.go package main import ( "fmt" //Добавим пакеты: "github.com/opesun/goquery" "strconv" ) const ( //Зададим кодовую фразу на случай конца потока: ENDMESSAGE = "TooLateToDieYoung" ) //Генератор загружает страницы и достает из них ссылки на картинки func generator(out chan string, stream, start int) { for pos := start; ; pos += 20 { //Разбираем страницу: x, err := goquery.ParseUrl("http://home.atata.com/streams/" + strconv.Itoa(stream) + "?order=date&from=" + strconv.Itoa(pos)) if err == nil { //Отправляем все найденные ссылки в поток: for _, url := range x.Find("figure a.image").Attrs("href") { out <- "http://atata.com/" + url } //А если встретили признак последней страницы - отправляем кодовую фразу.. if len(x.Find("li.last.hide")) > 0 { out <- ENDMESSAGE //..и прекращаем работу генератора return } } } } ``` #### Балансировщик и Рабочие Балансировщик и Рабочие плотно связаны друг с другом, поэтому мы и будем рассматривать их вместе Итак, мы получаем из канала от генератора ссылки, и отдаем их рабочим следя за тем чтобы все были равномерно загружены (потому как каждый рабочий у нас имеет свою собственную конечную очередь заданий). Вроде все просто - крутись себе в бесконечном цикле, бери из одних каналов, клади в другие и радуйся. Дьявол, как обычно, сидит в мелочах, спросим себя: *"Что будет, если все рабочие уже заняты по-максимуму а пришли еще задания?"* Логично будет притормозить генератор, до тех пор пока не появится свободное место. Для этого предусмотрим в балансировщике реализацию технологии PMFC (Poor Man's Flow Control или "регулятор потока для бедных". Для бедных, потому что это будет ну очень топорный (но очень эффективный) регулятор). *"Если генератор имеет конечное количество работы, то и балансировщик должен иметь конечный цикл работы, да?"* Да! У нас работа может прекращаться в двух случаях - "кончились задания" и "пользователь запросил остановку". Почему так важно обработать эти ситуации? Потому что и там и там у нас есть некая работа, которую нужно завершить: * В случае окончания заданий (последняя страница потока достигнута и разобрана) - нужно подождать пока все рабочие не завершат свои очереди заданий. * В случае запроса остановки - подождать пока рабочие не закончат свои **текущие** задания (то есть докачают файл который уже начат - зачем нам огрызки?). Будем иметь эти моменты в виду и приступим к коду. Объявим "рабочего": ``` //Рабочий type Worker struct { urls chan string // канал для заданий pending int // кол-во оставшихся задач index int // позиция в куче wg *sync.WaitGroup //указатель на группу ожидания } ``` Что это все значит: мы объявили новый тип *Worker*, который представляет собой структуру [struct](http://golang.org/ref/spec#Struct_types) - этакий отдаленный аналог record из паскаля. "А почему не класс?" - спросят некоторые? Потому что в Go немного другой подход: у нас есть типы данных к которым мы можем объявить необходимые методы. Этим мы сегодня будем часто заниматься, а пока пробежимся по полям - с первыми все понятно, с индексом станет понятно чуть позже, а вот про последний стоит сказать отдельно: Так как нам необходимо будет ждать завершения заданий нужно каким-то образом отслеживать статус каждого рабочего чтобы знать - делает он что-то или уже отдыхает. Для этого мы воспользуемся "группой ожидания" ([WaitGroup](http://golang.org/pkg/sync/#WaitGroup)) из пакета *sync*. В чем ее суть: *WaitGroup* реализует некий счетчик, который мы можем увеличивать в начале работы и уменьшать, когда работа будет сделана. А также предлагает инструмент позволяющий затормозить выполнение подпрограммы до того момента, пока счетчик не будет равен нулю. Ждать у нас будет балансировщик, а вот работать со счетчиком мы будем в экземплярах Worker'a. Напишем для "рабочего" метод *work* (синтаксически метод отличается от обычной функции тем, что в объявлении задается "получатель", этакий this. В самом теле метода им можно пользоваться чтобы получить доступ данным объекта для которого он был вызван): ``` //В качестве аргумента получаем указатель на канал завершения func (w *Worker) work(done chan *Worker) { for { url := <-w.urls //читаем следующее задание w.wg.Add(1) //инкриминируем счетчик группы ожидания download(url) //загружаем файл w.wg.Done() //сигнализируем группе ожидания что закончили done <- w //показываем что завершили работу } } ``` И не забудем добавить пакет sync в список импорта: ``` import ( "sync" ) ``` Тут есть интересный момент: после завершения задания рабочий отправляет указатель на себя в канал *done*, полученный из аргументов метода *work()*. Таким образом он не только сигнализирует об окончании работы, но и удобно предоставляет доступ к своим полям для манипуляций (позднее это будет использоваться в балансировщике). Функция *download()* не является стандартной - мы напишем ее чуть позже, чтобы не отвлекаться. С рабочим почти все. Теперь реализуем Worker Pool для нашего балансировщика, но не простой, а на базе кучи ([Wikipedia:Куча (структура данных)](http://ru.wikipedia.org/wiki/%D0%9A%D1%83%D1%87%D0%B0_(%D1%81%D1%82%D1%80%D1%83%D0%BA%D1%82%D1%83%D1%80%D0%B0_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85))), чтобы было просто и удобно получать наименее загруженного рабочего для распределения задачи. Реализация кучи есть в стандартном пакете "[container/heap](http://golang.org/pkg/container/heap/)", и чтобы использовать ее с нашими типами данных необходимо реализовать ее интерфейс (это что-то вроде абстрактного класса). Как это выглядит: есть объявление неких функций составляющих интерфейс и чтобы его реализовать для какого-либо типа достаточно чтобы они присутствовали в качестве его методов, например: ``` package main import ("fmt") //Общий интерфейс type Animal interface { Say() string } type Cat struct{} func (c Cat) Say() string { return "Мяу!" } type Parrot struct { name string } func (p Parrot) Say() string { return p.name + " дурак!" } func main() { kitty := Cat{} popka := Parrot{name: "Попка"} animals := []Animal{kitty, popka} for _, animal := range animals { fmt.Println(animal.Say()) } } ``` Посмотрим в документации, какие методы нужно реализовать для использования *container.Heap* (<http://golang.org/pkg/container/heap/#Interface>) : ``` type Interface interface { sort.Interface Push(x interface{}) // add x as element Len() Pop() interface{} // remove and return element Len() - 1. } ``` Так, помимо *Push* и *Pop* нужно еще полностью удовлетворить *sort.Interface* (<http://golang.org/pkg/sort/#Interface>), а это: ``` type Interface interface { // Len is the number of elements in the collection. Len() int // Less returns whether the element with index i should sort // before the element with index j. Less(i, j int) bool // Swap swaps the elements with indexes i and j. Swap(i, j int) } ``` Примеры кода для обоих интерфейсов есть в документации, поэтому нам несложно будет написать свой: ``` //Это будет наша "куча": type Pool []*Worker //Проверка кто меньше - в нашем случае меньше тот у кого меньше заданий: func (p Pool) Less(i, j int) bool { return p[i].pending < p[j].pending } //Вернем количество рабочих в пуле: func (p Pool) Len() int { return len(p) } //Реализуем обмен местами: func (p Pool) Swap(i, j int) { if i >= 0 && i < len(p) && j >= 0 && j < len(p) { p[i], p[j] = p[j], p[i] p[i].index, p[j].index = i, j } } //Заталкивание элемента: func (p *Pool) Push(x interface{}) { n := len(*p) worker := x.(*Worker) worker.index = n *p = append(*p, worker) } //И выталкивание: func (p *Pool) Pop() interface{} { old := *p n := len(old) item := old[n-1] item.index = -1 *p = old[0 : n-1] return item } ``` Пара слов о том, что такое interface{} - это *минимальный интерфейс, которому удовлетворяют все типы* (потому что любой тип реализует как минимум ноль методов, а значит подходит под требования interface{}). Таким образом это некий *any*, использовав который в качестве аргумента мы можем передать любой тип. Подробнее хорошо написано тут: <http://research.swtch.com/interfaces> Вот и все, теперь мы можем пользоваться функциями heap.* к нашему Pool, и всю работу по представлению нашей плоской структуры в "кучу" они возьмут на себя. Осталось добавить пакет *"container/heap"* в список импорта: ``` import ( "container/heap" ) ``` Теперь приступим к балансировщику. Принцип работы мы уже обсудили, инструменты подготовили, о подводных камнях подумали, поэтому я в основном буду просто давать код с очень подробными комментариями: ``` //Балансировщик type Balancer struct { pool Pool //Наша "куча" рабочих done chan *Worker //Канал уведомления о завершении для рабочих requests chan string //Канал для получения новых заданий flowctrl chan bool //Канал для PMFC queue int //Количество незавершенных заданий переданных рабочим wg *sync.WaitGroup //Группа ожидания для рабочих } ``` У нас много всего требующего инициализации перед началом работы, поэтому приготовим функцию *init()*: ``` //Инициализируем балансировщик. Аргументом получаем канал по которому приходят задания func (b *Balancer) init(in chan string) { b.requests = make(chan string) b.flowctrl = make(chan bool) b.done = make(chan *Worker) b.wg = new(sync.WaitGroup) //Запускаем наш Flow Control: go func() { for { b.requests <- <-in //получаем новое задание и пересылаем его на внутренний канал <-b.flowctrl //а потом ждем получения подтверждения } }() //Инициализируем кучу и создаем рабочих: heap.Init(&b.pool) for i := 0; i < WORKERS; i++ { w := &Worker{ urls: make(chan string, WORKERSCAP), index: 0, pending: 0, wg: b.wg, } go w.work(b.done) //запускаем рабочего heap.Push(&b.pool, w) //и заталкиваем его в кучу } } ``` Здесь заслуживает упоминания наш регулятор потока - он "врезается" в канал между генератором и балансировщиком и согласует его исходя из подтверждения команд балансировщиком. А генератор послушно тормозит, и даже и знать не знает что кто-то искусственно держит его в узде - еще один шаг на пути к мировому господству и тирании! Обратите внимание, как создается канал для рабочего: функции *make()* дается еще один аргумент, который задает размер буфера канала. Это забавная возможность, которая делает запись в такой канал асинхронной - подпрограммы больше не будут прерываться для ожидания доступности получателя "на другом конце" канала; таким образом можно посылать несколько сообщений, которые будут дожидаться обработки в буфере. В init() мы использовали переменные WORKERS и WORKERSCAP которые планируется задавать в аргументах командной строки, объявим их: ``` var ( WORKERS = 5 //количество рабочих WORKERSCAP = 5 //размер очереди каждого рабочего ) ``` Теперь напишем саму рабочую функцию балансировщика. Не забудем, что она должна поддерживать остановку по требованию и по истечению заданий, ожидая завершения различных операций *(Тут много чего происходит и все важное, но понятное. Поэтому либо комментировать почти все либо, либо вообще ничего. Я выбрал первый вариант, так что комментариев будет больше чем кода, простите)*: ``` //Рабочая функция балансировщика получает аргументом канал уведомлений от главного цикла func (b *Balancer) balance(quit chan bool) { lastjobs := false //Флаг завершения, поднимаем когда кончились задания for { select { //В цикле ожидаем коммуникации по каналам: case <-quit: //пришло указание на остановку работы b.wg.Wait() //ждем завершения текущих загрузок рабочими.. quit <- true //..и отправляем сигнал что закончили case url := <-b.requests: //Получено новое задание (от flow controller) if url != ENDMESSAGE { //Проверяем - а не кодовая ли это фраза? b.dispatch(url) // если нет, то отправляем рабочим } else { lastjobs = true //иначе поднимаем флаг завершения } case w := <-b.done: //пришло уведомление, что рабочий закончил загрузку b.completed(w) //обновляем его данные if lastjobs { if w.pending == 0 { //если у рабочего кончились задания.. heap.Remove(&b.pool, w.index) //то удаляем его из кучи } if len(b.pool) == 0 { //а если куча стала пуста //значит все рабочие закончили свои очереди quit <- true //и можно отправлять сигнал подтверждения готовности к останову } } } } } ``` Реализуем функцию отправки: ``` // Функция отправки задания func (b *Balancer) dispatch(url string) { w := heap.Pop(&b.pool).(*Worker) //Берем из кучи самого незагруженного рабочего.. w.urls <- url //..и отправляем ему задание. w.pending++ //Добавляем ему "весу".. heap.Push(&b.pool, w) //..и отправляем назад в кучу if b.queue++; b.queue < WORKERS*WORKERSCAP { b.flowctrl <- true } } ``` ..в которой отдаем задание рабочему. В условии мы проверяем: есть ли хоть одно свободное место в очередях рабочих, и, если да, отправляем регулятору потока сигнал о том что можно продолжать получение заданий от генератора. Еще мы использовали метод *completed* на рабочем завершившем задание, вот что там происходит: ``` //Обработка завершения задания func (b *Balancer) completed(w *Worker) { w.pending-- heap.Remove(&b.pool, w.index) heap.Push(&b.pool, w) if b.queue--; b.queue == WORKERS*WORKERSCAP-1 { b.flowctrl <- true } } ``` Рабочий после завершения очередной загрузки возвращает в канале указатель на себя, а мы, пользуясь этим, актуализируем информацию о его загруженности и обновляем позицию в куче на ее основе. Условие служит следующей цели: как вы помните, в *dispatch* мы не отправляли сигнала на продолжение если все очереди были полны, теперь же, после завершения очередного задания, самое время проверить - может кризис миновал и пора возобновить работу? Основной функционал готов, остались мелочи. Во-первых напишем функцию download(), которую наши рабочие используют для загрузки картинки: ``` //Загрузка изображения func download(url string) { fileName := IMGDIR + "/" + url[strings.LastIndex(url, "/")+1:] output, err := os.Create(fileName) defer output.Close() response, err := http.Get(url) if err != nil { fmt.Println("Error while downloading", url, "-", err) return } defer response.Body.Close() io.Copy(output, response.Body) } ``` Во-вторых у нас был ряд переменных которые мы собирались брать из командной строки - объявим их (а также пару новых про запас) и подготовим указания для разбора флагов (такие фокусы мы уже делали в прошлой серии, поэтому подробно останавливаться не буду): ``` //Вот так у нас теперь выглядит объявление переменных: var ( WORKERS = 5 //количество рабочих WORKERSCAP = 5 //размер очереди каждого рабочего ATATASTREAM = 291 //id потока ататы ATATAPOS = 0 //стартовая позиция в потоке ататы IMGDIR = "img" //директория для сохранения картинок ) //Назначим флаги командной строки: func init() { flag.IntVar(&WORKERS, "w", WORKERS, "количество рабочих") flag.IntVar(&ATATASTREAM, "s", ATATASTREAM, "id потока ататы") flag.IntVar(&ATATAPOS, "p", ATATAPOS, "стартовая позиция") flag.StringVar(&IMGDIR, "d", IMGDIR, "директория для картинок") } ``` В-третьих приведем в порядок секцию импорта добавив туда все использованные пакеты. И еще, заодно, добавим *os/signal*, с помощью которого будем ловить ctrl-c в основном цикле: ``` import ( "io" "os" "os/signal" "sync" "flag" "fmt" "container/heap" "strconv" "strings" "github.com/opesun/goquery" "net/http" ) ``` Теперь все готово к финальному аккорду! #### Основная функция ``` func main() { //разберем флаги flag.Parse() //создадим директорию для загрузки, если её еще нет if err := os.MkdirAll(IMGDIR, 666); err != nil { panic(err) } //Подготовим каналы и балансировщик links := make(chan string) quit := make(chan bool) b := new(Balancer) b.init(links) //Приготовимся перехватывать сигнал останова в канал keys keys := make(chan os.Signal, 1) signal.Notify(keys, os.Interrupt) //Запускаем балансировщик и генератор go b.balance(quit) go generator(links, ATATASTREAM, ATATAPOS) fmt.Println("Начинаем загрузку изображений") //Основной цикл программы: for { select { case <-keys: //пришла информация от нотификатора сигналов: fmt.Println("CTRL-C: Ожидаю завершения активных загрузок") quit <- true //посылаем сигнал останова балансировщику case <-quit: //пришло подтверждение о завершении от балансировщика fmt.Println("Загрузки завершены!") return } } } ``` Запускаем.. (для пробного запуска взял первый попавшийся поток покороче) ![](http://habrastorage.org/r/w1560/storage3/831/2e7/3a5/8312e73a5696b64cfb6b8f3e7f1b3e53.png) ..и видим что все работает. Очередное задание штаба выполнено, и извращенно-то как! Все как было заказано. ~~Осталось только вставить time.Sleep в воркер потому что я уверен, что сервер ататы не будет спокойно смотреть как его мучают выливая гигабайты картинок и начнет огрызаться. А потом запустить работать на ночь, спасая с тонущей ататы потоки с обоями и "тупичок" с тысячами и тысячами постов.~~ **UPD.** Беру свои слова обратно - без проблем вылил все обои ( 3 744 файла, 3.07Gb ) без всяких там задержек. На досуге можно прикрутить к программе отчеты о процессе загрузки, продолжение с места окончания и прочие чисто технические и совсем не интересные для разбора в статье вещи. [Код примера целиком на pastbin.com](http://pastebin.com/zx9MGpXe) P.S. Если будете тестировать программу с параметрами по умолчанию, то она будет выкачивать поток #291 (Обои) а там как раз в начале некий "фотограф" набросал своих фото по 10 метров вместо обоев, так что или указываете точку старта подальше ( например "-p=200" ) или не удивляйтесь почему так долго и ползет одна фигня. **UPD2:** P.P.S. Для тех кто не буквально понял слово "извращенно" в задании напоминаю: суть всей этой избыточной конструкции - поиграться с Go, попробовать и показать разные инструменты, подергать за всякие манящие ручки и понажимать красивые гладкие кнопки. Если говорить о эффективном решении задачи то, очевидно, что большая часть схемы вообще не нужна - генератор + воркеры состоящие из одной гоурутины решат дело быстрее и проще. Но это скучно и быстро, все равно что поехать на ознакомительную экскурсию по Москве и не выходить из метро: да, вы очень быстро попадете из одного конца в другой но при этом ничего интересного кроме темных тоннелей и пролетающих станций не посмотрите. #### Для тех, кому хочется еще [vimeo.com/49718712](http://vimeo.com/49718712) - Rob Pike - 'Concurrency Is Not Parallelism' [sites.google.com/site/gopatterns](https://sites.google.com/site/gopatterns/) - Go Language Patterns [golangtutorials.blogspot.ru/2011/05/table-of-contents.html](http://golangtutorials.blogspot.ru/2011/05/table-of-contents.html) - GoLang Tutorials [talks.golang.org](http://talks.golang.org/) - интерактивные слайды к лекциям по Go На этом я прощаюсь, удачи!`
https://habr.com/ru/post/198150/
null
ru
null
# UFOCTF 2017: декомпилируем Python в задании King Arthur (PPC600) ![](https://habrastorage.org/r/w1560/files/9ea/6ce/d68/9ea6ced680854d2d9697763a380d8047.png) Приветствую тебя хабраюзер! Недавно, закончилась ежегодная олимпиада по информационной безопасности UFO CTF 2017. В этой статье будет райтап одного задания из раздела *PPC*, под названием *«King Arthur»*, за который можно было получить максимальное количество очков — 600. ### Начнём В описании к заданию было следующее: > Мы получили какое-то странное вложение в e-mail от фаната рыцарей. Помогите разобраться, что имел в виду автор. И был доступен для скачивания файл: **sword.py** ``` #!/usr/bin/python import serpent """ ___ { _ } |/| {___} |_| |/| . |/| . (\________|w|________/) ( ___________________ ) v | | | v | | | | | | | | |PO0.HN7 | | | * TP0~~~< z| | |ON4.YH1 OP6| | | ON2| | |PO3| | |PY0 | | PY0 | | |PY0 z| | |PY0 PY0 | |z PY0| | | PY0| | |PY0| | |PH0 | | PY0 | | |PY0 z| | |PY0 PY0 | |z PY0| | | PY0| | |PY0| | |HN3 | | PY1 | | |PY0 z| | |PY0 PY0 | |z PN3| | | PT0| | |PY0| | |PN3 | | PY0 | | |PY0 z| | |TH3 PY0 | |z PY0| | | NY2| | |PY0| | |PY0 | | PN3 | | |PH0 z| | |PY0 PN4 | |z PY0| | | PY0| | |NY2| | |PT0 | | PY0 | | |YP3 z| | |PT0 PY0 | |z PO4| | | PY0| | |PY0| | |PT0 | | PN3 | | |PY0 z| | |PY0 HN2 | |z YO1| | | PO0| | |PY0| | |PY0 | | PY0 | | |TN2 z| | |YN3 YY7 | |z YY7| | | YY7| | |YY7| | |PO3 | | PY0 | | |PY0 z| | |PY0 PY0 | |z PH0| | | PY0| | |PY0| | |PY0 | | HO0 | | |PY0 z| | |PY0 PY0 | |z PO0| | | PY0| | |PY0| | |PY0 | | HN3 | | |YY4 z| | |PY0 PY0 | |z PY0| | | OP3| | |PY0| | |PY0 | | PN3 | | |PT0 z| | |PY0 PO4 | |z PT0| | | PY0| | |NO3| | |PT0 | | PY0 | | |NH3 z| | |PT0 PY0 | |z PN3| | | PY0| | |PY0| | |PN3 | | PH0 | | |PY0 z| | |PN3 PO0 | |z PY0| | | YP4| | |PO0| | |PY0 | | NP0 | | |PN3 z| | |PN0 PY0 | |z TY3| | | PO0| | |PY0| | |HO3 | | TO1 | | |PY0 z| | |PN3 YP0 | |z PY0| | | YH2| | |YO2| | |TN3 | | TN3 | | |PY0 z| | |NH3 PT0 | |z PY0| | | PN3| | |PH0| | |PY0 | | PN3 | | |PY0 z| | |PY0 PN3 | |z PO0| | | PY0| | |YP4| | |PO0 | | PY0 | | |NP0 z| | |PN3 YT0 | |z PY0| | | TY3| | |PO0| | |PY0 | | HO3 | | |HO3 z| | |PY0 PN3 | |z YP0| | | PY0| | |YH2| | |YO2 | | TN3 | | |TO2 z| | |PY0 NH3 | |z PT0| | | PY0| | |PN3| | |YH0 | | PY0 | | |TY0 z| | |PN3 YO0 | |z PY0| | | TY0| | |PN3| | |PO0 | | PY0 | | |TY0 z| | |YP4 PO0 | |z PY0| | | NP0| | |PN3| | |YN0 | | PY0 | | |TY3 z| | |PO0 PY0 | |z HO3| | | OT4| | |PY0| | |PN3 | | YP0 | | |PY0 z| | |YH2 YO2 | |z TN3| | | YN1| | |PY0| | |NH3 | | PT0 | | |PY0 z| | |PN3 TP0 | |z PY0| | | TY0| | |PN3| | |PH0 | | PY0 | | |TY0 z| | |PN3 PO0 | |z PY0| | | TY0| | |YP4| | |PO0 | | PY0 | | |NP0 z| | |PN3 TY0 | |z PY0| | | TY3| | |PO0| | |PY0 | | HO3 | | |TN2 z| | |PY0 PN3 | |z YP0| | | PY0| | |YH2| | |YO2 | | TN3 | | |YP0 z| | |PY0 PN3 | |z TH0| | | PY0| | |YH2| | |YO2 | | PN3 | | |PY0 z| | |PY0 HN2 | |z YO1| | | TO0| | |PY0| | |PY0 | | PY0 | | |TN2 z| | |HN3 TO0 | |z PY0| | | PY0| | |PY0| | |YP2 | | TN3 | | |OP3 z| | |YP3 HO3 | |z PY1| | | TH3| | |YN3| | |TN3 | | YP3 | | |NY1 z| | |PY1 TP0 | |z YN3| | | TN0| | |PY0| | |PY0 | | PY0 | | |YN3 z| | |PH0 PY0 | |z PY0| | | PY0| | |OP3| | |YH0 | | PY0 | | |PY0 z| | |PY0 ON2 | |z TO2| | | YH3| | |NP1| | |OT3 | | OT1 | | |OT1 z| | |HN3 YP0 | |z PY0| | | PY0| | |PY0| | |YT2 | | PT3 | | |YN3 z| | |TH3 PT1 | |z OP3| | | YO0| | |PY0| | |PY0 | | PY0 | | |NP3 z| | |PH2 YT3 | |z PH2| | | YH3| | |NP1| | |OT3 | | PT3 | | |YN3 z| | |HP0 PY0 | |z PY0| | | PY0| | |YN3| | |PP0 | | PY0 | | |PY0 z| | |PY0 OP3 | |z YO0| | | PY0| | |PY0| | |PY0 | | NP2 | | |HT1 z| | |HY2 ON2 | |z HT3| | | YH3| | |YH3| | |PH2 | | YN3 | | |PT0 z| | |PY0 PY0 | |z PY0| | | OP3| | |YH0| | |PY0 | | PY0 | | |PY0 z| | |HN1 OH2 | |z OH1| | | OP1| | |TY3| | |YO3 | | OH3 | | |HN3 z| | |YO0 PY0 | |z PY0| | | PY0| | |HN2| | |OY3 | | PO3 | | |PO3 z| | |YP3 HN3 | |z HN3| | | PT1| | |YO1| | |PH0 | | PY0 | | |PY0 z| | |PY0 OP3 | |z YN0| | | PY0| | |PY0| | |PY0 | | HO3 | | |PT3 z| | |OH3 YY2 | |z YN3| | | TN3| | |HY3| | |OY3 | | OP3 | | |OP3 z| | |PN0 PY0 | |z PY0| | | PY0| | |TH3| | |YN3 | | TN3 | | |YP3 z| | |YO1 PH0 | |z PY0| | | PY0| | |PY0| | |HO2 | | PN0 | | |PY0 z| | |PY0 PY0 | |z HO2| | | YP0| | |PY0| | |PY0 | | PY0 | | |YO1 z| | |PY0 PY0 | |z PY0| | | PY0| | |YO1| | |PY0 | | PY0 | | |PY0 z| | |PY0 HN3 | |z HP2| | | PY0| | |PY0| | |PY0 | | PN2 | | |NY1 z| | |NH2 PN2 | |z HP3| | | OH3| | |TN3| | |TH3 | | HP3 | | |PT3 z| | |PN3 HN3 | |z NH2| | | OY2| | |YT2| | |HP2 | | PO2 | | |OP2 z| | |YT2 NH2 | |z OP2| | | PT2| | |HN2| | |TY2 | | HN2 | | |NH2 z| | |HN3 YP3 | |z HO3| | | HY3| | |YP3| | |TN3 | | OP3 | | |NH2 z| | |HN3 HP3 | |z OY3| | | HO3| | |PO3| | |YP3 | | HN3 | | |NH2 z| | |HN2 YP3 | |z HO3| | | HY3| | |YP3| | |TN3 | | OP3 | | |TO1 z| | |TO3 PT3 | |z HN3| | | OP3| | |YP3| | |HO3 | | NH2 | | |HN2 z| | |YP3 HO3 | |z HY3| | | YP3| | |TN3| | |OP3 | | TO1 | | |TO3 z| | |PT3 HN3 | |z OP3| | | YP3| | |HO3| | |NH2 | | OP3 | | |YP3 z| | |HN3 OP3 | |z TN1| | | HY3| | |NP3| | |HN3 | | PN0 | | |PY0 z| | |PY0 PY0 | |z OP3| | | PT3| | |HN3| | |TY3 | | PN0 | | |PY0 z| | |PY0 PY0 | |z HN3| | | HY0| | |PY0| | |PY0 | | PY0 | | |PY0 z| | |PT0 TH0 | |z PT0| | | NP0| | |PT0| | |YO0 | | PT0 | | |NP0 z| | |PT0 YO0 | |z PO0| | | NH0| | |PT0| | |TH1 | | PH0 | | |YO1 z| | |PH0 PY0 | |z PY0| | | PY0| | |OP3| | |YH0 | | PY0 | | |PY0 z| | |PY0 HN3 | |z YP3| | | HO3| | |HY3| | |YP3 | | TN3 | | |OP3 z| | |OP3 PN0 | |z PY0| | | PY0| | |PY0| | |OP3 | | PT3 | | |HN3 z| | |TY3 YO1 | |z PH0| | | PY0| | |PY0| | |PY0 | | HO2 | | |YT0 z| | |PY0 PY0 | |z PY0| | | HO2| | |YH0| | |PY0 | | PY0 | | |PY0 z| | |YO1 PY0 | |z PY0| | | PY0| | |PY0| | |YO1 | | PY0 | | |PY0 z| | |PY0 PY0 | |z HN3| | | HP2| | |PY0| | |PY0 | | PY0 | | |PN2 z| | |NY1 NH2 | |z PN2| | | HP3| | |OH3| | |TN3 | | TH3 | | |HP3 z| | |PT3 PN3 | |z HN3| | | NH2| | |OY2| | |YT2 | | HP2 | | |PO2 z| | |OP2 YT2 | |z NH2| | | OP2| | |PT2| | |HN2 | | TY2 | | |HN2 z| | |NH2 HN3 | |z YP3| | | HO3| | |HY3| | |YP3 | | TN3 | | |OP3 z| | |NH2 HN3 | |z HP3| | | OY3| | |HO3| | |PO3 | | YP3 | | |HN3 z| | |NH2 HN2 | |z YP3| | | HO3| | |HY3| | |YP3 | | TN3 | | |OP3 z| | |TO1 TO3 | |z PT3| | | HN3| | |OP3| | |YP3 | | HO3 | | |NH2 z| | |HN2 YP3 | |z HO3| | | HY3| | |YP3| | |TN3 | | OP3 | | |TO1 z| | |TO3 PT3 | |z HN3| | | OP3| | |YP3| | |HO3 | | NH2 | | |OP3 z| | |YP3 HN3 | |z OP3| | | TN1| | |HY3| | |NP3 | | HN3 | | |YO0 z| | |PY0 PY0 | |z PY0| | | NH1| | |TO3| | |HP3 | | PN3 | | |OY3 z| | |TH3 YP3 | |z PP1| | | PT0| | |PY0| | |PY0 | | PY0 | | |HN3 z| | |PN0 PY0 | |z PY0| | | PY0| | |TH0| | |PO0 | | YN0 | | |TO0 z| | |zz z | | z | | | | | | | | \|/ v """ ``` Сразу привлекает внимание строка *import serpent*. По запросу *«python serpent sword»* в гугл можно наткнуться на [git-репозиторий](https://github.com/kharland/Serpent), который судя по описанию — как раз то что нам нужно. Изучив код *serpent.py* находим там описание принципа «превращения» кода в меч: > Given the hex digit 65: > > 65 % 32 = 1 > > floor( 65 / 32 ) = 2 > > so the alphabet symbol for 65 is the symbol at index 1: 'PT'. > > 65 is also the 3rd occurrence of a 32-modulus of 1 (with 1 > > being the first occurrence and 33 being the second of course.) > > so the code for this hex symbol is PT2 Но самое интересное расположено ниже: ``` elif scriptType is _SERPENT: pyc = _serpent_sword_alphabet_to_hex(_lex_hex(sys.argv[0])) pycout = ".".join(sys.argv[0].split(".")[0:-1])+".pyc" with open(pycout, "wb") as f: for val in pyc: f.write(chr(val)) ``` Этот код, считывает преобразованный файл, и переводит его обратно в *.pyc*. Переименуем файл *sword.py* в *sword.ss.py* и попробуем его обратить: ``` redihi@kali:KingArthur$ python sword.ss.py RuntimeError: Bad magic number in .pyc file ``` Немного изменив код, таким образом чтобы файл *sword.ss.pyc* не удалялся обнаруживаем, что у полученного файла поврежден заголовок. После долгих поисков, находим примерное [описание](https://github.com/Risto-Stevcev/python-bytecode/blob/master/README.md) заголовка *.pyc* файла. Но все попытки изменить его на верный не увенчались успехом. Там же в статье, есть пример компиляции не всего файла, а отдельного участка кода. Вероятно таким же образом получится минуя заголовок, восстановить оставшуюся часть кода. Накидаем для этих целей небольшой скрипт: **unserpent.py** ``` #!/usr/bin/python import re import sys import marshal alphabet = [ "PY", "PT", "PH", "PO", "PN", "YP", "YT", "YH", "YO", "YN", "TP", "TY", "TH", "TO", "TN", "HP", "HY", "HT", "HO", "HN", "OP", "OY", "OT", "OH", "ON", "NP", "NY", "NT", "NH", "NO", "PP", "YY" ] def _serpent_sword_alphabet_to_hex(sentence): "Convert the serpent alphabet string back to python bytecode" return [alphabet.index(symbol[0:-1]) + int(symbol[-1]) * 32 for symbol in sentence] def _lex_hex(infile): "Extract the serpent string from the ss file" with open(infile, 'r') as source: regex = re.compile(r'[PYTHON][PYTHON][0-9]') tokens = [] for line in source: pos = 0 while(pos < len(line)): match = regex.match(line, pos) if match: tokens.append(match.group(0)) pos += 1 return tokens def convert_to_pyc(fname): pyc = _serpent_sword_alphabet_to_hex(_lex_hex(fname)) pycout = ".".join(fname.split(".")[0:-1]) + ".pyc" with open(pycout, "wb") as f: for val in pyc: f.write(chr(val)) f.close() return pycout fname = sys.argv[1] pycout = convert_to_pyc(fname) f = open(pycout, "rb").read() for x in range(len(f)): try: code = marshal.loads(f[x:]) print('Offset found: %d' % x) print('\targcount: %s' % code.co_argcount) print('\tcode: %s' % code.co_code.encode('hex')) print('\tconsts count: %d' % len(code.co_consts)) for item in code.co_consts: print('\t\t%s: %r' % (type(item), item)) print('\tfilename: %s' % code.co_filename) print('\tfirstlineno: %s' % code.co_firstlineno) print('\tflags: %s' % code.co_flags) print('\tname: %s' % code.co_name) print('\tnlocals: %s' % code.co_nlocals) print('\tstacksize: %s' % code.co_stacksize) print('\tvarnames count: %d' % len(code.co_varnames)) for item in code.co_varnames: print('\t\t%r' % item) break except ValueError: continue ``` После запуска получаем вывод: ``` redihi@kali:KingArthur$ ./unserpent.py sword.ss.py Offset found: 7 argcount: 0 code: 6401006400006c00005a00006402008400005a01006501008300000164000053 consts count: 3 : None : -1 : `filename: D:\Downloads\UFOCTF\TASKS\serpent\sources\Serpent-master\Serpent-master\test.py firstlineno: 1 flags: 0 name: nlocals: 0 stacksize: 2 varnames count: 2 'serpent' 'task'` ``` Как можно заметить, тут есть ещё 1 объект *code*, он то нам и нужен. Добавим ещё пару строк, для его декомпиляции: ``` import uncompyle6 ... uncompyle6.main.uncompyle(2.7, code.co_consts[2], sys.stdout) ``` Снова запускаем и получаем готовый скрипт: ``` # uncompyle6 version 2.9.10 # Python bytecode 2.7 # Decompiled from: Python 2.7.6 (default, Oct 26 2016, 20:30:19) # [GCC 4.8.4] # Embedded file name: D:\Downloads\UFOCTF\TASKS\serpent\sources\Serpent-master\Serpent-master\test.py line = raw_input('Enter line: \n') if line[:14:2] != 'XMg9v66': print 'Fail!' elif line[14::2] != 'yBfBg9va': print 'Fail!' elif line[-15:-30:-2] != 'Y1PXqggB': print 'Fail!' elif line[-1:-14:-2] != '3W74khw': print 'Fail!' else: print 'Success!' ``` Осталось дело за малым, по полученному коду восстанавливаем флаг: > ufoctf{XBMggg9qvX6P61yYBwfhBkg497vWa3} Задание пройдено! +600 к рейтингу!
https://habr.com/ru/post/325580/
null
ru
null