text stringlengths 20 1.01M | url stringlengths 14 1.25k | dump stringlengths 9 15 ⌀ | lang stringclasses 4
values | source stringclasses 4
values |
|---|---|---|---|---|
# Grid Layout как основа современной раскладки
В темные века верстальщики строили сайты на таблицах. Потом они освоили float и flexbox, и тьма отступила. В 2017-м наступила эпоха Просвещения с приходом CSS Grid Layout.
Grid учитывает горизонтальное и вертикальное пространство, с ним можно менять раскладку, не трогая разметку, и все это без медиазапросов. С Grid можно забыть про магические числа, хаки, обходные пути и CSS-фреймворки.

Несмотря на всю мощь, есть маленький нюанс, который портит картину — его все еще редко используют верстальщики. Спецификация Grid есть, браузеры поддерживают, а реальных проектов мало.
Об этом расшифровка доклада **Сергея Попова** на [Frontend Conf](http://frontendconf.ru/): про спецификацию, про то, почему верстальщики боятся Grid и как решиться применять сетку в своих проектах, чтобы «Make your website great again!».
**О спикере**: Сергей Попов ([popovsergey](https://habr.com/ru/users/popovsergey/)) — Генеральный директор аутсорса по фронтенд-разработке Лига А. от HTML Академии, фронтенд-разработчик, организатор сообщества moscowcss, соорганизатор WSD и [pitercss\_conf](https://pitercss.com/). Пока не стал руководителем в компании, много лет занимался версткой.
За последний год появилось много курсов и докладов про Grid, про то, как их использовать и писать. Если технические доклады вам надоели, то добавлю еще один в ваш список. *Шутка — поговорим про комиксы. Или нет?*
**Примечание**: вместо длинного «CSS Grid Layout» дальше будет просто «Grid».
Что сейчас с CSS Grid Layout?
-----------------------------
Технически, Grid — это простая двухмерная сетка.

Нарисовать и использовать Grid достаточно просто, но разработчики все еще его сторонятся. Я вижу две причины для этого.
* Многие просто не понимают, что происходит с Grid. Большое количество мифов про этот инструмент мешают разобраться в нем.
* Мы, как верстальщики и фронтендеры, не понимаем, как и где применять Grid в повседневных задачах.
Начнем разбор с первого пункта.
### Спецификация
Первая версия спецификации вышла в 2012 году, много менялась, переписывалась, и, спустя пять лет, начала активно внедряться. В 2017 случился тот самый бум, когда за полгода Grid из состояния первого опубликованного черновика пришел к тому, что сначала Chrome внедрил его без флага, а потом и все остальные браузеры. Из-за того, что внедрение происходило в спешке, спецификация не утряслась и некоторые спорные моменты пришлось оставить, чтобы браузерам не пришлось переписывать половину движка.
Спецификация стабильна, хотя до сих пор в статусе Candidate Recommendation. Если бы я мог, то давно бы уже зарелизил, но разработчики спецификации пока не спешат, а дополняют и меняют формулировки.
> Давайте применять нерекомендованную спецификацию Grid Layout — в этом нет противоречия, потому что Grid сначала была реализован, а потом описан.
>
>
Второе неверное утверждение — это то, что Grid не имеет смысла без второго уровня.
### Второй уровень спецификации
Когда писали спецификацию, она оказалась слишком большой, поэтому какую-то часть выделили во второй уровень. **На 2018 год спецификация второго уровня в состоянии First Public Working Draft** — первая публикация рабочего черновика.
Над спецификацией активно работают и в ближайшее время она перейдет в состояние Working Draft — рабочий черновик. Разработчики ждут, пока зарелизят Grid, но это долгий процесс, который может затянуться лет на 5.
По легенде спецификация второго уровня решает проблемы первого уровня. На самом деле она добавляет фичи, без которых можно обойтись, и ничего не мешает использовать первый уровень без второго.
### display: subgrid;
Не успели мы понять, что такое grid, как появился subgrid. Давайте разбираться, что это такое.
Представим такую разметку.

Все довольно просто: у нас есть сетка, в нее вложено три несемантических и один семантический элемент. Grid работает как flexbox: когда вы применяете `display: grid;` к обертке, он применяется только к элементам на первом уровне вложенности.

В примере 1, 2 и 3 займут место в сетке, а все, что находится внутри списка, — схлопнется. Вы потеряете все эти элементы, потому что так работает Grid.
Если хотите, чтобы эти элементы остались частью вашей сетки, то есть два варианта:
* Первый вариант — **избавиться от обертки**. Удалим , а `*` заменим на . Мы убьем семантику, но оставим сетку.

* Второй вариант — **использовать** `display: subgrid;`.

Если применить `display: subgrid;` к списку, то элементы `-` станут частью этой сетки, , как обертка, будет игнорироваться. Вы получите полноценную сетку и останется полноценная семантика — и HTML хорошо, и CSS хорошо.
Одна проблема — **subgrid не поддерживается**, он где-то там за флагами, а релиза можно ждать еще долго.
### display: contents;
Вообще **ждать не обязательно**, потому что есть `display: contents;` — замечательное свойство, которое работает так же, как `display: subgrid;`. Если для элементов списка применить `display: contents;`, то элементы `-` станут частью сетки.
Есть нюанс — `display: contents;` поддерживается не во всех браузерах.

### CSS Subgrid Emulation
Пока у `display: contents;` решают проблему поддержки, верстальщики придумали выход — сделали эмуляцию subgrid.
На слайде [пример](https://codepen.io/lautsevich/pen/NpYobE) [Паши Ловцевича](https://twitter.com/zigzag_mcquack).

В примере выше есть поведение subgrid, но его поведение эмулируется не посредством `display: subgrid;` или `display: contents;`, а за счёт кастомных выражений, которые пересчитываются в переменные.
*Свойства с дефисом — это кастомные свойства в CSS.*
### Второй уровень не нужен
Если кто-нибудь скажет не использовать Grid, пока не выйдет второй уровень — не слушайте его. Второй уровень решает определенные проблемы, которые уже решены другими способами.
> Не везде нужны subgrid. Grid в связке с Flexbox иногда получается куда круче, чем с subgrid.
>
>
Поэтому не надо ждать второй уровень, смело занимайтесь первым. Тем более, что он уже есть.
### Поддержка Grid в браузерах
Эту картинку можно показывать, если кто-то скажет вам, что Grid не поддерживается.

Глобально поддерживается **87% браузеров**, кроме Opera Mini — она ничего не поддерживает. *Я писал в* [*CanIuse*](https://caniuse.com/)*, просил убрать ее из колонки, чтобы не портить картину, но пока безрезультатно ;)*
Если добавить `@supports`, то работает вообще все, даже Opera Mini. Я не знаю, поддерживает ли Opera Mini flexbox, но там можно сделать fallback.
Остается проблема с IE. Как всегда, он здесь, с нами, и никуда не делся.
### IE и Grid
Если ваше приложение поддерживает IE, вы возможно скажете, что не можете использовать Grid. Это не так — **Grid работает в IE**, так как спецификация была рождена в Microsoft, и впервые появилась именно в IE. Просто ее никто не использовал, пока не пришли нормальные люди и не переписали спецификацию.
IE справляется с Grid, но ему нужно объяснить, как это делать. **IE поддерживает Grid в старой версии спецификации**, в которой не все свойства поддерживаются, а часть называется по-другому.
Версию спецификаций для IE учить не нужно, потому что большую часть работы за вас сделает [Autoprefixer](https://autoprefixer.github.io/ru/) — плагин, который переводит новую версию спецификации в старую. Поэтому, чтобы обеспечить поддержку Grid в IE, достаточно использовать Autoprefixer.
Остальное надо просто знать и помнить. Достаточно открыть статью [«Supporting CSS Grid in Internet Explorer»](https://medium.com/@elad/supporting-css-grid-in-internet-explorer-b38669e75d66), прочитать какие свойства поддерживаются в IE, а какие нет, и решить, что из них вы будете использовать.
Помните про «graceful degradation», когда в старых версиях браузера пропадают элементы из новых. Например, в браузерах, в которых не поддерживается border-radius, у форм будут квадратные уголки. Верстальщиков заставляли вырезать картинки форм, вместо CSS, и в некоторых ситуациях это считалось нормальным.
> Почему бы в старых версиях браузеров не переводить Grid в обычные колонки? Если вы разрабатываете под старый браузер, либо не используйте современные технологии, либо смиритесь с тем, что контент в них будет выглядеть по-другому.
>
>
Internet Explorer вместе с Grid работает неплохо, просто надо немного практики. Если вы не используете Grid, потому что боитесь IE, то я вынужден вас удивить — это не прокатит.
### Баги и Grid
Вы можете сказать, что в Grid много багов, но это не так. [Rachel Andrew](https://twitter.com/rachelandrew) нашла [все ошибки в CSS Grid](https://github.com/rachelandrew/gridbugs) — **всего их 14**, и это все что есть. Никто не занимается Grid Layout CSS больше, чем Рейчел, поэтому ей можно доверять.
Баги довольно специфические. Мы помним, когда пришли flexbox, в них тоже были баги, но нас это не остановило. Баги в Grid нас тоже не останавливают, тем более, такие.

«Некоторые HTML элементы не могут быть Grid-контейнером». Сразу идет уточнение, что кнопка не может быть Grid-контейнером, *но мы и не хотели этого*.

«Textarea, когда она является элементом Grid, схлопывается». Проблема легко решается, если поставить ширину и высоту в процентах.
Эти баги довольно специфические и проявляются не во всех браузерах. Если ты знаешь, что баг может проявиться, то просто берешь и исправляешь — это несложно.
> Технических причин не использовать Grid не так уж много. Браузеры поддерживают, а в старых браузерах применяйте «graceful degradation». Теоретических причин тоже мало, потому что материалов больше, чем по flexbox.
>
>
Теория, или маленький ликбез
----------------------------
* Выжимка спецификации — [«A complete guide to Grid»](https://css-tricks.com/snippets/css/complete-guide-grid/) от СSS-Tricks настолько же хороша, как и по [flexbox](https://css-tricks.com/snippets/css/a-guide-to-flexbox/).
* Курс [Learn CSS Grid](https://learncssgrid.com/) или видеокурсы, например, от [Wes Bos](https://cssgrid.io/), записанные и спонсированные Mozilla.
* Полное погружение на сайте [Gridbvexample.com](https://gridbyexample.com/): сам сайт написан на Grid, там есть информация по всем спецификациям, примеры, сниппеты кода.
* [Игра с морковками](http://cssgridgarden.com/#ru) — полная геймификация, даже дети разберутся.
* [Интерактивный курс HTML Academy](https://htmlacademy.ru/courses/269). Академия внедрила Grid в учебный процесс.
**Grid уже здесь!** Мы можем долго говорить почему не используем Grid, но пока вы читаете статью, Grid уже задеплоили в продакшен.
Сайты уже используют Grid. Например, я зашел на сайт Russian Internet Week, и это последнее место, где я ожидал увидеть Grid. Обычно сайты бизнес-конференций собираются на Тильде.

Причем они более-менее правильно используют сетку. RIW попробовали, и у них получилось, причем без fallbacks. Они явно ориентируются на пользователей современных браузеров.

Конференции, которые рассказывают про CSS, в любом случае, пытаются применять новые инструменты. Мы на сайте pitercss\_conf сделали бейджики, а у ребят из Минска половина сайта на Grid.
Russian Internet Week — это довольно узкая аудитория посетителей. New York Times читает больше людей.

Я уверен, что среди читателей есть владельцы устройств даже с IE 9, 10, 11, но половина сайта на Grid.
Я был удивлен, когда увидел, что такие крупные проекты используют Grid.
Почему Grid не используют повсеместно?
--------------------------------------
Мы поняли, что спецификация есть, ее можно использовать и никакие отговорки не сработают. Так в чем же дело?
Есть определенные причины не применять сетки:
* Дизайнеры не ставят перед верстальщиками неразрешимых задач.
* Верстальщики не понимают, как приложить Grid к реальным проектам. Скорее всего ваш дизайнер не нарисовал сложную сетку, и вы не понимаете, как приложить Grid к макету.
### С точки зрения дизайна
*Сейчас я буду защищать дизайнеров.*
Дизайн развивается медленно, по своим трендам, никак не связанным с развитием веб-технологий. Скорее наоборот — веб-технологам приходится подстраиваться под тренды дизайна. Маловероятно, чтобы верстальщики сказали: «Дизайнеры, а у нас есть Grid, можно с ним работать», а они бы ответили: «О, да!» и начали рисовать под них макеты.
Поэтому большинство сайтов выглядит так.

Абстрактный пример с простой сеткой и колонками, ничего необычного. Сайт легко собирается без flexbox, на float, даже можно обойтись табличной версткой.
Дизайнеры перестали ставить перед верстальщиками сложные задачи, потому что когда-то мы сами загнали их в угол тем, что перестали делать то, что они хотят.
Приходит к нам дизайнер и говорит:
— *Я хочу сложную сетку!*
— *Я не могу. Она сложная**.*
— *Нет, делай**.*
— *Я не могу!*
Потом мы идем к менеджеру, жалуемся, и дизайнер получает по голове.
Все, дизайнер больше не рисует сложные сетки. Раньше мы действительно не могли строить сложные интерфейсы, а сейчас можем — у нас полно инструментов. Теперь дизайнер не хочет, он перестал просить сложные макеты. Дизайнер рисует интерфейс, чтобы верстальщик смог его реализовать, и часто максимально примитивно.
#### Блог
Приведу распространенный пример из нашего аутсорса. Дизайнер получил задачу нарисовать блог и дает волю всем своим сеточным порывам. Рисует большой блок, широкий, 3 маленьких, средний, фантазирует. Выглядит круто и современно.

Верстальщик видит макет, пишет на flexbox одну обертку, вторую, третью и получает вот такую картинку.

Верстка идет в бэкенд.Бэкендер говорит верстальщику, что у него есть вывод из базы данных, а там карточки идут друг за другом, разложить их не получится.
На этом счастливая история заканчивается и мы возвращаемся к дизайнеру.
Когда дизайнер рисовал макет, то представлял и другие варианты. В вариантах был полет фантазии, а бэкендер сломал порывы в один момент. План сделать красивый блог, провалился.
Здесь есть разные варианты выхода:
* Дизайнера отправляют в дальний угол и говорят: «У нас будет все просто друг за другом, обойдемся без твоих выпендрежей, сделай — то, что можно реализовать на flexbox». **Дизайнер будет страдать**, но выложит на Behance портфолио с красивой сеткой. В макете будет ссылка на продакшен, а там просто квадратики.
* Верстальщик навешивает jQuery-плагин, который автоматом расставляет элементы по сетке с абсолютным позиционированием — все прекрасно! Кроме того, что плагин будет дополнительно нагружать страницу и безбожно лагать в IE. Однако, **дизайнер и бэкендер будут довольны**.
* Дизайнер и верстальщик договорятся и реализуют невероятную историю и **приведут к компромиссу дизайн, бэкенд и верстку**.
#### Реальный кейс
На главной странице журнала «The Village» сложная сетка. Она выполнена намеренно для разных типов материалов. Я знаю про это, так как работал в издании.

«The Village» написали огромный алгоритм, который на бэкенде генерирует сетку. Это смесь float, абсолютного позиционирования и других страшных вещей, но она работает!
Иногда ломается, но, когда это происходит, блоки просто переставляются местами и снова все работает.
Не представляю, сколько часов ушло на то, чтобы спроектировать эту систему, отладить и добиться, чтобы она работала практически без ошибок. Сколько времени бы ушло на реализацию этой же сетки, если использовать `display: grid;` или `grid-auto-flow: dense;`? Внутри Grid есть отдельная спецификация, которая автоматом расставляет элементы по странице, сама забивает свободные места и реализует подобную сетку. Не надо десяти тысяч строк кода бэкенда — все работает только одним свойством.
На момент создания алгоритма этой технологии еще не было, но когда речь пошла о редизайне, я предложил сразу использовать Grid.
В «The Village» заморочились, чтобы сделать как хотят, но большинство этого не делает. Поэтому мы видим заурядный веб, стандартизацию, все сводится к одному Layout. Раньше у нас был Bootstrap, который описывает большую часть кода. Сейчас уже у дизайнеров есть свои инструменты, наподобие Bootstrap, которыми они собирают сайты. **Что за ерунда — где креатив?!**
> Наша задача состоит не в том, чтобы внутри сообщества договориться использовать Grid, а в том, чтобы мы рассказали об этом дизайнерам.
>
>
Я мечтаю выступить на конференции дизайна и сказать: «Привет! Мы стали лучше! Мы теперь снова умные», но верстальщика не пускают на дизайнерские конференции. Рассказать дизайнерам, что мы стали лучше — это не так уж сложно. Вам пришла простая сетка, вы спрашиваете: «Почему она простая, а не сложная? Я могу сделать любую!»
### С точки зрения реализации
Кажется, что Grid сложно найти. Когда мне говорят: «У меня 3 колонки и я могу сделать это на flexbox. Зачем мне Grid?», то я отвечаю: «Действительно, не надо». Поэтому возникают сложности с тем, где вообще прикладывать Grid.
#### Grid — это не только сложная сетка

Это и простая раскладка, которую можно сделать на Grid, причем проще, чем на flexbox, потому что не нужна дополнительная обертка. Ниже есть один пример на Grid, его тоже можно сделать на flexbox, но надо много дополнительных оберток или flow, и получится настоящая мешанина.
**Grid — не для мелких элементов**: либо для очень сложных мелких, либо для крупных.
#### Grid для раскладки
Я не знаю ни одного сайта, у которого нельзя переписать раскладку на Grid и сэкономить на этом кучу бесполезных дополнительных оберток.
* **Grid можно применить к глобальной раскладке.**
* **Grid можно применить к элементам интерфейса**
Это бейджик pitercss\_conf-2, он сделан на сетке.

Самое сложное в Grid Layout — это начертить сетку, которая вам подходит. В данном случае это не просто 6\*6, а 5\*8, но у каждого блока разная высота и ширина.
Мы видим задачу и компонуем контент, очень похоже на направляющие в Photoshop. Дизайнер отрисовал, а мы перевели макет на сетку. Здесь нет ни одной дополнительной обертки — только семантические элементы, которые выстраиваются в сетку с помощью Grid.
Посадочный талон можно сделать на flexbox.

А можно на Grid, и в мобильной версии талон выглядит по-другому.

#### Grid для структуры
Вторая важная вещь, которую нужно запомнить: **с помощью Grid просто менять структуру**.
Есть order во flexbox, который позволяет поменять порядок всех элементов. Это сложная технология, и как с Z-индексами можно выстрелить себе в ногу, если не знать, как ей пользоваться.
С Grid все просто. В этом примере, если бы не было сетки, нам бы пришлось правую часть с QR-кодом вынести в абсолютное позиционирование. А на Grid это 13 строк кода в мобильной версии.

**Чтобы начать использовать Grid, надо начать использовать Grid**. Попробуйте сверстать на сетке некоторые элементы вашего интерфейса. Можно начать с маленьких, можно — с глобальных, чтобы понять, насколько это упрощает жизнь.
Никто не скажет вам: «Вот здесь используй Grid, а здесь — нет!» Вы должны сами понять и научиться, но для этого нужно набивать шишки. Если реализация задачи на Grid заняла в два раза больше времени, чем на flexbox, значит, такие задачи не надо решать на Grid.

Вот для комиксов Grid идеален.
Рассмотрим нетривиальную задачу.

Если покопаться в коде, становится понятно, как все устроено. Ребята программируют на CSS и выстраивают Grid Areas. В зависимости того амплуа игрока, он автоматически встает в нужную Area. Вертикальное и горизонтальное выравнивание создает построение. Это целое программирование на CSS. Задача решается 50 строчками CSS-кода, что гораздо проще, чем через бэкенд или JS.
Я хочу, чтобы дизайны и раскладки были прикольными, такие как эта.

Это слишком сложная верстка на Grid, потому что задача была сложная. Верстальщик не мог отрисовать раскладку на простых flexbox, только Grid. Можно было сделать меньше ячеек, но учитывая, что ячейки строит repeat, на это много времени не ушло. Главное, что они сделали это.
Сверстано замудренно, но интерфейс очень круто перестраивается в дальнейшем.
Что дальше?
-----------
**Давайте перестанем говорить себе: «Я не могу» в плане Grid**. Вы можете — просто не хотите. Нет ни одной объективной причины не использовать сетку, кроме лени и нежелания попробовать.
**Grid — это настолько универсальная система, что для нее даже невозможно сделать фреймворк**. Если вы видите, что какой-то фреймворк использует Grid Layout — это бред, потому что Grid сам по себе фреймворк для построения сеток. Bootstrap вряд ли перейдет на Grid. Представьте, что там будет 20 миллионов классов — извращение!
Поэтому у вас никогда не будет готового решения. Возможно, будут шаблоны, но правил, где применять Grid, а где нет — не будет.
**Учитесь, смотрите примеры, развивайтесь**. Нет ничего плохого в том, чтобы смотреть на примеры других людей. Я, например, так и делаю.
**Несите знания в команду**. Говорите, что знаете Grid, предлагайте его использовать.
Подойдите к дизайнеру и скажите: «Давай ты будешь рисовать интереснее, а я буду твои задумки реализовывать!»
Скажите менеджеру: «Мы теперь можем больше с Grid!»
Делитесь знаниями внутри команды и двигайте веб вперед. В конечном счете у нас простая цель — **делать веб лучше и круче**!

Если в какой-то момент у нас все уходило в упрощение, то сейчас есть новые технологии. Не только Grid — это SVG-маски, анимации, трансформации. Проблема не в технологиях, а в том, что большинство до сих пор не использует на полную и половины из них. Мы не знаем всего или не хотим использовать, а дизайнеры не догадываются, что мы можем.
**Контакты Сергея Попова:** [e-mail](mailto:sergey@htmlacademy.ru), [Fb](https://www.facebook.com/sergeytovarov), [twitter](https://twitter.com/sergeytovarov)
> Это доклад — один из лучших на [Frontend Conf](https://frontendconf.ru/). Понравилось, и хотите больше — подпишитесь на [рассылку](http://eepurl.com/bb99tn), в которой мы собираем новые материалы и даем доступ к видео, и приходите на [Frontend Conf РИТ++](https://frontendconf.ru/moscow-rit/2019) в мае.
>
>
>
> Знаете больше и готовы делиться опытом — отлично! [Присылайте тезисы](https://conf.ontico.ru/lectures/propose/?conference=fc2019-rit), прием докладов уже открыт и будет продолжаться до 27 февраля.
>
> | https://habr.com/ru/post/433320/ | null | ru | null |
# MongoDB — варим хороший кофе
##### Введение
Друзья, в первую очередь хочу поблагодарить вас за высокую оценку моего труда, это приятно, и мотивирует меня продолжать. Итак, почему надо покупать наших слонов я думаю вы уже поняли из [первой статьи](http://habrahabr.ru/blogs/webdev/74144/), кто-то уже скачал и попробовал на вкус, а кто-то только собирается. Как бы там ни было, начнем.
Сегодня мы поставим MongoDB, ниже рассмотрим свежеиспеченный [ХабраЛоггер](http://root.loopback.su/habralogger/) и [пошпионим](http://root.loopback.su/habralogger/?url=http%3A%2F%2Fhabrahabr.ru%2F) за главной страницей Хабра в реальном времени.
##### Засыпаем кофе и заливаем кипяток
Сначала, выбираем себе релиз по душе и качаем — [Downloads](http://mongodb.org/display/DOCS/Downloads).
Вы можете выбрать любой релиз, я использую 1.1.1. Если не боитесь падений, ставьте последний — 1.1.2 (вовсе не обещаю что будет падать, просто это возможно).
Если для вашей ОС есть сборка, советую ставить сборку, если же нет, придётся собрать из исходников. Простейшая установка сборки хорошо дана тут — [Quickstart](http://www.mongodb.org/display/DOCS/Quickstart). При сборке из исходников придется работать со Scons, и под FreeBSD возникнет ошибка «shell/dbshell.cpp:77: error: 'sigrelse' was not declared in this scope» — просто закомментируйте эту строчку.
Итак, будем считать что поставили. Если планируется репликация, советую запускать `mongod --master`, с этим ключом MongoDB ведёт лог операций (oplog). Поиграться можно уже сейчас с помощью `mongo test` (test — название БД):
`> db.habratest.save({abra: "foo", ka: true, da: 123, bra: {foo: "bar"}}); # коллекция создана и в нее вставлен ряд.
> db.habratest.find({ka: true}); # ищем ряды где ka == true, поиск будет без индекса
{"_id" : ObjectId( "4af18c86977fd21033ca67f8") , "abra" : "foo" , "ka" : true , "da" : 123 , "bra" : {"foo ar"}}`
А теперь давайте создадим индекс — вернее удостоверимся в его наличии:
`> db.habratest.ensureIndex({"da": 1});
true
> db.habratest.find({da: 123}); # поиск ведется уже по индексу.
{"_id" : ObjectId( "4af18c86977fd21033ca67f8") , "abra" : "foo" , "ka" : true , "da" : 123 , "bra" : {"foo" : "bar"}}
> db.habratest.update({da: 123},{"$set": {pi: 3.14159265}}); # атомарная операция задания свойства
> db.habratest.find({da: 123});
{"_id" : ObjectId( "4af18c86977fd21033ca67f8") , "abra" : "foo" , "ka" : true , "da" : 123 , "bra" : {"foo" : "bar"} , "pi" : 3.14159265}
> db.habratest.update({da: 123},{"$set": {"bra.pi": 3.14159265}}); # задание вложенного свойства
> db.habratest.find();
{"_id" : ObjectId( "4af190176ca438316825ddef") , "abra" : "foo" , "ka" : true , "da" : 123 , "pi" : 3.14159265 , "bra" : {"foo" : "bar" , "pi" : 3.14159265}}
> db.habratest.remove({ka: true});
> db.habratest.find();
> db.habratest.drop();
{"nIndexesWas" : 2 , "msg" : "all indexes deleted for collection" , "ns" : "test.habratest" , "ok" : 1}`
Свойство \_id генерируется клиентом автоматически, и присуще каждому объекту, при желании, ID можно формировать самостоятельно, вкладывая в него полезные данные.
Думаю, всё понятно. За пикантными подробностями работы функций советую обратиться к документации.
Теперь давайте подключим драйвер к нашему средству разработки, список доступных драйверов — [mongodb.org/display/DOCS/Drivers](http://mongodb.org/display/DOCS/Drivers). В статье я буду ориентироваться на PHP, однако и с любым другим языком всё будет вполне аналогично. В PHP драйвер представлен расширением 'mongo' в PECL.
##### Пьем первую чашку
Я подготовил небольшое приложение-пример — [ХабраЛоггер](http://root.loopback.su/habralogger/).
Думаю, из кода и комментариев к нему всё понятно, если нет, я с радостью отвечу на вопросы. Возможно вы заметили, что в начале скрипта пара классов наследуется от оригиналов, это не обязательно и лишь дает синтаксический сахар в виде $mongo->mydb->mycollection. Время выполнения мотивирует (0.411 миллисекунды).
Наверняка кто-то из вас заметил операцию group() в куске кода:
`$stat['hostsHours'] = $db->hosts->group(
array('hour' => true) // keys
,array('count' => 0) // initial object
,'function (obj, prev) {++prev.count;}' // reduce function
,array('url' => $url) // condition
);`
В первом аргументе задаются ключи (поля) для группировки — GROUP BY hour.
В втором — исходное состояние объекта, которое будет перед первой итерацией.
В третьем — функция, которая применяется для редукции (уменьшения) множества.
Ну а в четвертом — фильтр исходя из которого будет сформировано множество для уменьшения.
SQL'ный аналог сего действа — SELECT hour, COUNT(\*) count FROM hosts GROUP BY hour.
Алгоритм ХабраЛоггера довольно прост, лог пишется в коллекцию hits и hosts, hosts содержит уникальный индекс по IP и дню, таким образом туда попадают лишь уникалы в рамках суток, а при выводе графика проводится несложная группировка.
Подчеркиваю, это лишь пример, и конечно же, более оптимальным решением было бы ротировать лог и проводить агрегацию раз в n минут. Но оптимизацию мы рассмотрим в следующий раз.
##### Кластеризация? Я ждал этого вопроса!
Для начала определимся с терминами:
Sharding — дробление базы данных на несколько шардов.
Shard — один или несколько равнозначных серверов, которые хранят одну и ту же часть данных.
Config-server — сервер, хранящий мета-информацию в первую очередь о том на каком shard'е какой chunk лежит.
Chunk — диапазон документов по индексу, например коллекцию hosts можно разбивать по индекс на свойстве url.
mongos — демон который принимает запросы от клиентов, взаимодействует с нужными shard'ами и config-серверами, и передает готовый ответ клиенту.
Выглядит это вот так:

Не стану вдаваться в пересказ документации, и в описание поведения mongos на каждом типе запроса. Шардинг подробно описан в официальный англоязычной документации — [Sharding Introduction](http://www.mongodb.org/display/DOCS/Sharding Introduction).
Скажу лишь — папаша Google использует сходную схему.
##### Тушим свет, спускаем воду
На сегодня всё. Учтите, что тема следующей статьи будет по заявкам радиослушателей. Могу рассказать о GridFS (файловой системе на MongoDB) и рассмотреть другие примеры.
Спасибо за внимание, друзья! Жду ваших отзывов.
P.S. Статистику посещений этой статьи можно посмотреть [тут](http://root.loopback.su/habralogger/?url=http://habrahabr.ru/blogs/webdev/74273/), а статистику другой статьи, которая шпионится с ночи — [тут](http://root.loopback.su/habralogger/?url=http://habrahabr.ru/blogs/android/74298/).
**UPD:** [Шпионим](http://root.loopback.su/habralogger/?url=http%3A%2F%2Fhabrahabr.ru%2F) за главной страницей Хабра в реальном времени. | https://habr.com/ru/post/74273/ | null | ru | null |
# Запросы в PostgreSQL: 1. Этапы выполнения
Привет, Хабр! Начинаю еще один цикл статей об устройстве PostgreSQL, на этот раз о том, как планируются и выполняются запросы.
> Предыдущие циклы были посвящены [индексам](https://habr.com/ru/company/postgrespro/blog/326096/), [изоляции и многоверсионности](https://habr.com/ru/company/postgrespro/blog/442804/), [журналированию](https://habr.com/ru/company/postgrespro/blog/458186/) и [блокировкам](https://habr.com/ru/company/postgrespro/blog/462877/).
>
>
В этом цикле я собираюсь рассмотреть:
1. этапы выполнения запросов (эта статья);
2. [статистику](https://habr.com/ru/post/576100/);
3. [последовательное сканирование](https://habr.com/ru/post/576980/);
4. [индексное сканирование](https://habr.com/ru/post/578196/);
5. [соединение вложенным циклом](https://habr.com/ru/post/579024/);
6. [соединение хешированием](https://habr.com/ru/post/581174/);
7. [сортировку и соединение слиянием](https://habr.com/ru/post/582058/).
Материал перекликается с нашим учебным курсом [QPT «Оптимизация запросов»](https://postgrespro.ru/education/courses/QPT), но ограничивается только подробностями внутреннего устройства и не затрагивает оптимизацию как таковую. Кроме того, я ориентируюсь на еще не вышедшую версию PostgreSQL 14. А курс мы тоже скоро обновим (правда, на версию 13; приходится бежать со всех ног, чтобы только оставаться на месте).
Протокол простых запросов
-------------------------
Клиент-серверный протокол PostgreSQL позволяет в простом случае выполнять запросы SQL, отправляя их текст и получая в ответ сразу весь результат выполнения. Запрос, поступающий серверу на выполнение, проходит несколько этапов.
**Разбор**
Во-первых, текст запроса необходимо *разобрать* (parse), чтобы понять, что именно требуется выполнить.
**Лексический и синтаксический разбор.** *Лексический анализатор* разбирает текст запроса на *лексемы* (такие как ключевые слова, строковые и числовые литералы и т. п.), а *синтаксический анализатор* убеждается, что полученный набор лексем соответствует грамматике языка. PostgreSQL использует для разбора стандартные инструменты — утилиты Flex и Bison.
Разобранный запрос представляется в виде абстрактного синтаксического дерева.
Возьмем для примера следующий запрос:
```
SELECT schemaname, tablename
FROM pg_tables
WHERE tableowner = 'postgres'
ORDER BY tablename;
```
Для него в памяти обслуживающего процесса будет построено дерево, показанное на рисунке в сильно упрощенном виде. Рядом с узлами дерева подписаны части запроса, которые им соответствуют:
RTE — неочевидное сокращение от Range Table Entry. Именем range table в исходном коде PostgreSQL называются таблицы, подзапросы, результаты соединений — иными словами, наборы строк, над которыми работают операторы SQL.
**Семантический разбор.** Задача *семантического анализа* — определить, есть ли в базе данных таблицы и другие объекты, на которые запрос ссылается по имени, и есть ли у пользователя право обращаться к этим объектам. Вся необходимая для семантического анализа информация хранится в системном каталоге.
Семантический анализатор получает от синтаксического анализатора дерево разбора и перестраивает его, дополняя ссылками на конкретные объекты базы данных, информацией о типах данных и т. п.
Полное дерево можно получить в журнале сообщений сервера, установив параметр *debug\_print\_parse*, хотя практического смысла в этом немного.
**Трансформация**
Далее запрос может *трансформироваться* (*переписываться*).
Трансформации используются ядром для нескольких целей. Одна из них — заменять в дереве разбора имя представления на поддерево, соответствующее запросу этого представления.
В примере выше pg\_tables — представление, и после трансформации дерево разбора примет следующий вид:
Это дерево разбора соответствует такому запросу (хотя все манипуляции производятся только над деревом, а не над текстом):
```
SELECT schemaname, tablename
FROM (
-- pg_tables
SELECT n.nspname AS schemaname,
c.relname AS tablename,
pg_get_userbyid(c.relowner) AS tableowner,
...
FROM pg_class c
LEFT JOIN pg_namespace n ON n.oid = c.relnamespace
LEFT JOIN pg_tablespace t ON t.oid = c.reltablespace
WHERE c.relkind = ANY (ARRAY['r'::char, 'p'::char])
)
WHERE tableowner = 'postgres'
ORDER BY tablename;
```
Дерево разбора отражает синтаксическую структуру запроса, но ничего не говорит о том, в каком порядке будут выполнены операции.
Разграничение доступа на уровне строк (row-level security) реализовано на этапе трансформации.
Еще один пример использования трансформаций ядром системы — реализация предложений SEARCH и CYCLE для рекурсивных запросов в версии 14.
PostgreSQL дает пользователю возможность написать свои собственные трансформации. Для этого используется система *правил перезаписи* (rules).
> Поддержка правил была заявлена как [одна из целей](https://dsf.berkeley.edu/papers/ERL-M85-95.pdf) разработки Postgres, так что правила существовали изначально и неоднократно переосмысливались на начальном этапе университетского проекта. Это мощный, но сложный в отладке и понимании механизм. Поступало даже предложение убрать правила из PostgreSQL, но оно не нашло общей поддержки. В большинстве случаев вместо правил удобнее и безопаснее использовать триггеры.
>
>
Полное дерево разбора после трансформации можно получить в журнале сообщений сервера, установив параметр *debug\_print\_rewritten*.
**Планирование**
SQL — декларативный язык: запрос определяет, *какие* данные надо получить, но не говорит, *как именно* их получать.
Любой запрос можно выполнить разными способами. Для каждой операции, представленной в дереве разбора, могут существовать разные способы ее выполнения: например, данные из таблицы можно получить, прочитав всю таблицу (и отбросив ненужное), а можно найти подходящие строки с помощью индекса. Наборы данных всегда соединяются попарно, что приводит к огромному количеству вариантов, отличающихся порядком соединений. Кроме того, существуют разные способы выполнить соединение двух наборов строк: например, можно перебирать строки одного набора и находить для них соответствие во втором наборе, а можно предварительно отсортировать оба набора и затем слить их вместе. Разные способы показывают себя лучше в одних ситуациях и хуже — в других.
Разница во времени выполнения между неоптимальным и оптимальным планами может составлять многие и многие порядки, поэтому *планировщик*, выполняющий *оптимизацию* разобранного запроса, является одним из самых сложных компонентов системы.
**Дерево плана.** План выполнения также представляется в виде дерева, но его узлы содержат не логические, а физические операции над данными.
Для исследовательских целей полное дерево плана можно получить в журнале сообщений сервера, установив параметр *debug\_print\_plan*. А на практике текстовое представление плана выводит команда EXPLAIN:
```
EXPLAIN
SELECT schemaname, tablename
FROM pg_tables
WHERE tableowner = 'postgres'
ORDER BY tablename;
```
```
QUERY PLAN
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Sort (cost=21.03..21.04 rows=1 width=128)
Sort Key: c.relname
−> Nested Loop Left Join (cost=0.00..21.02 rows=1 width=128)
Join Filter: (n.oid = c.relnamespace)
−> Seq Scan on pg_class c (cost=0.00..19.93 rows=1 width=72)
Filter: ((relkind = ANY ('{r,p}'::"char"[])) AND (pg_g...
−> Seq Scan on pg_namespace n (cost=0.00..1.04 rows=4 wid...
(7 rows)
```
На рисунке выделены основные узлы дерева. В выводе команды EXPLAIN они отмечены стрелочками.
Узел Seq Scan в плане запроса соответствует чтению таблиц, а узел Nested Loop — соединению. Пока стоит обратить внимание на два момента:
* из трех таблиц запроса в дереве осталось только две: планировщик понял, что одна из таблиц не нужна для получения результата и ее можно удалить из дерева плана;
* каждый узел дерева снабжен информацией о предполагаемом числе обрабатываемых строк (rows) и о стоимости (cost).
**Перебор планов.** PostgreSQL использует *стоимостной оптимизатор*. Оптимизатор рассматривает всевозможные планы и оценивает предполагаемое количество ресурсов, необходимых для выполнения (таких как операции ввода-вывода и такты процессора). Такая оценка, приведенная к числовому виду, называется *стоимостью* плана. Из всех просмотренных планов выбирается план с наименьшей стоимостью.
Проблема в том, что количество возможных планов экспоненциально зависит от количества соединяемых таблиц, и просто перебрать один за другим все возможные варианты невозможно даже для относительно простых запросов. Для сокращения пространства перебора традиционно используется алгоритм динамического программирования в сочетании с некоторыми эвристиками. Это позволяет увеличить количество таблиц в запросе, для которых может быть найдено математически точное решение за приемлемое время.
> Точное решение задачи оптимизации не гарантирует, что найденный план *действительно* будет лучшим, поскольку планировщик использует упрощенные математические модели и может действовать на основе не вполне точной входной информации.
>
>
**Управление порядком соединений.** Автор запроса может в известной степени сократить количество вариантов для перебора (взяв на себя ответственность за возможность упустить оптимальный план).
* Общие табличные выражения обычно оптимизируются отдельно от основного запроса; в версии 12 такое поведение гарантирует предложение MATERIALIZE.
* Запросы внутри функций, написанных на любом языке, кроме SQL, оптимизируются отдельно от основного запроса. (Тело функции на SQL в некоторых случаях может подставляться в запрос.)
* Значение параметра *join\_collapse\_limit* в сочетании с явными предложениями JOIN, а также значение параметра *from\_collapse\_limit* в сочетании с подзапросами могут зафиксировать порядок некоторых соединений в соответствии с синтаксической структурой запроса.
Последний пункт нуждается в пояснении. Рассмотрим запрос, в котором таблицы перечислены через запятую в предложении FROM без явного указания JOIN:
```
SELECT ...
FROM a, b, c, d, e
WHERE ...
```
Ему соответствует следующий (схематично показанный) фрагмент дерева разбора:
Для такого запроса планировщик будет рассматривать все возможные порядки соединения.
В другом примере соединения имеют определенную структуру, определяемую предложением JOIN:
```
SELECT ...
FROM a, b JOIN c ON ..., d, e
WHERE ...
```
Дерево разбора отражает эту структуру:
Обычно планировщик уплощает дерево соединений, преобразуя его к тому же виду, что в первом примере. Алгоритм рекурсивно обходит дерево, заменяя узлы JOINEXPR плоским списком низлежащих элементов.
Но уплощение выполняется только если оно не приведет к появлению в плоском списке более *join\_collapse\_limit* элементов (значение параметра по умолчанию — 8). В данном примере при любых значениях параметра, меньших 5, узел JOINEXPR не будет уплощен. Для планировщика это означает, что
1. таблица B должна быть соединена с таблицей C (или наоборот, C с B — ограничение не накладывается на порядок соединения в паре),
2. таблицы A, D, E и результат соединения B с C могут быть соединены в любом порядке.
При значении параметра *join\_collapse\_limit*, равном 1, порядок любых явных соединений JOIN будет сохранен.
Кроме того, операция FULL OUTER JOIN *никогда* не уплощается независимо от значения параметра *join\_collapse\_limit*.
Точно так же и параметр *from\_collapse\_limit* (с тем же значеним 8 по умолчанию) ограничивает уплощение подзапросов. Хотя внешне подзапросы не похожи на соединения JOIN, но на уровне дерева разбора аналогия становится очевидной.
Вот пример запроса:
```
SELECT ...
FROM a, (SELECT ... FROM b, c WHERE ...) bc, d, e
WHERE ...
```
Ему соответствует дерево соединений:
По сути, разница только в том, что вместо узла JOINEXPR стоит узел FROMEXPR (отсюда и не совсем очевидное название параметра).
**Генетический алгоритм.** Если в дереве соединений (после процедуры уплощения) на одном уровне оказывается слишком много элементов — таблиц или результатов соединений, которые оптимизируются отдельно, — планирование может занять слишком много времени. При включенном (по умолчанию) параметре *geqo* PostgreSQL переключается на использование *генетического алоритма*1 при числе элементов, большем или равном значению параметра *geqo\_threshold* (значение по умолчанию — 12).
Генетический алгоритм работает существенно быстрее алгоритма динамического программирования, но не гарантирует нахождение оптимального плана. Алгоритм имеет ряд настроек, которые я не буду рассматривать.
**Выбор лучшего плана.** Для клиента оптимальность плана зависит от того, как предполагается использовать результат. Если результат нужен целиком (например, для построения отчета), то план должен оптимизировать получения всех строк выборки. Если же важно как можно быстрее получить первые строки (например, для вывода на экран), то оптимальный план может оказаться совсем другим.
PostgreSQL решает эту задачу, вычисляя две компоненты стоимости. В плане запроса два эти числа следуют за словом cost, как в этой строке:
```
Sort (cost=21.03..21.04 rows=1 width=128)
```
Первая компонента (начальная стоимость, startup cost) представляет затраты, которые требуется понести для подготовки к началу выполнения узла, а вторая (полная стоимость, total cost) — полные затраты на выполнение узла.
Чтобы решить, каким планам отдавать предпочтение, планировщик смотрит, используется ли курсор (команда SQL DECLARE или *явное* объявление курсора в PL/pgSQL). Если нет, то предполагается немедленное получение всех результирующих строк клиентом, и из просмотренных планов оптимизатор выбирает план с наименьшей полной стоимостью.
Для запроса, который выполняется с помощью курсора, выбирается план, оптимизирующий получение не всех строк, а только доли, равной значению параметра *cursor\_tuple\_fraction* (значение по умолчанию — 0.1). Говоря точнее, выбирается план с наименьшим значением выражения
startup cost + *cursor\_tuple\_fraction* (total cost − startup cost).
**Общая схема вычисления оценки.** Чтобы получить общую оценку плана, необходимо оценить каждый из его узлов. Стоимость узла зависит от типа этого узла (очевидно, что стоимость чтения данных из таблицы и стоимость сортировки отличаются) и от объема обрабатываемых этим узлом данных (обычно чем меньше, тем дешевле). Тип узла известен, а для оценки объема данных необходимо оценить *кардинальность* (количество строк) входных наборов данных и *селективность* (долю строк, которая останется на выходе) данного узла. А для этого надо иметь *статистическую информацию* о данных: размер таблиц, распределение данных по столбцам.
Таким образом, оптимизация зависит от корректной статистики, собираемой и обновляемой процессом автоанализа.
Если в каждом узле плана кардинальность оценена правильно, то и стоимость обычно адекватно отражает реальные затраты. Основные ошибки планировщика связаны именно с неправильной оценкой кардинальностей и селективностей. Это может происходить из-за некорректной или устаревшей статистики, невозможности ее использования или — в меньшей степени — из-за несовершенства моделей, лежащих в основе планировщика.
**Оценка кардинальности.** Оценка кардинальности — рекурсивный процесс. Чтобы оценить кардинальность узла плана, надо:
1. оценить кардинальности дочерних узлов и получить количество строк, поступающих узлу на вход;
2. оценить селективность самого узла, то есть долю входящих строк, которая останется на выходе.
Произведение одного на другое и даст кардинальность узла.
> Селективность представляется числом от 0 до 1. Селективность, близкая к нулю, называется *высокой*, а близкая к единице — *низкой*. Это может показаться нелогичным, но селективность здесь понимается как *избирательность*: условие, выбирающее малую долю строк, обладает высокой селективностью (избирательностью), а условие, оставляющее почти все строки — низкой.
>
>
Сначала рассчитываются кардинальности листовых узлов, в которых находятся методы доступа к данным. Для этого используется статистика, в частности, общий размер таблицы.
Селективность условий, наложенных на таблицу, зависит от вида этих условий. В простейшем случае можно принять за селективность какую-то константу, хотя, конечно, планировщик старается использовать всю доступную информацию для уточнения оценки. Достаточно уметь оценивать селективность только простых условий, а селективность условий, составленных с помощью логических операций, рассчитывается по простым формулам:
*selx* and *y* = *selx sely
selx* or *y* = 1−(1−*selx*)(1−*sely*) = *selx* + *sely* − *selx sely*.
К сожалению, эти формулы предполагают независимость предикатов *x* и *y*. В случае коррелированных предикатов такая оценка будет неточной.
Для оценки кардинальности соединений вычисляется кардинальность декартова произведения (равная произведению кардинальностей двух наборов данных) и оценивается селективность условий соединения, которая опять же зависит от типа условий.
Аналогично оценивается кардинальность и других узлов, таких как сортировка или агрегация.
Важно отметить, что ошибка расчета кардинальности, возникшая в нижних узлах плана, распространяется выше, приводя в итоге к неверной оценке и выбору неудачного плана. Этот неприятный эффект усугубляется тем, что планировщик располагает статистической информацией только о таблицах, но не о результатах соединений.
**Оценка стоимости.** Процесс оценки стоимости также рекурсивен. Чтобы рассчитать стоимость поддерева плана, надо рассчитать стоимости дочерних узлов, сложить их, и добавить стоимость самого узла.
Стоимость работы узла рассчитывается на основе математической модели операции, которую выполняет данный узел. Входными данными для оценки служит кардинальность, которая уже рассчитана. Отдельно оцениваются начальная и полная стоимость.
Некоторые операции не требуют никакой подготовки и начинают выполняться немедленно; у таких узлов начальная стоимость будет равна нулю.
Некоторые операции, наоборот, требуют выполнения предварительных действий. Например, узел сортировки обычно должен получить от дочернего узла *все* данные, чтобы начать работу. У таких узлов начальная стоимость будет отлична от нуля — эту цену придется заплатить, даже если вышестоящему узлу (или клиенту) потребуется только одна строка из всей результирующей выборки.
Стоимость отражает оценку планировщика и, если планировщик ошибается, может не коррелировать с реальным временем выполнения. Стоимость нужна лишь для того, чтобы планировщик мог сравнивать разные планы *одного и того же* запроса в *одних и тех же* условиях. В остальных случаях сравнивать запросы (тем более разные) по стоимости — неправильно и бессмысленно. Например, стоимость могла быть недооценена из-за неправильной статистики; после актуализации статистики стоимость может вырасти, но стать более адекватной, и план на самом деле улучшится.
**Выполнение**
Оптимизированный запрос *выполняется* в соответствии с планом.
В памяти обслуживающего процесса создается *портал* — объект, хранящий состояние выполняющегося запроса. Состояние представляется в виде дерева, повторяющего структуру дерева плана.
Фактически узлы дерева работают как конвейер, запрашивая и передавая друг другу строки.
Выполнение начинается с корня. Корневой узел (в примере это операция сортировки SORT) обращается за данными к дочернему узлу. Получив все строки, узел выполняет сортировку и отдает данные выше, то есть клиенту.
Некоторые узлы (как NESTLOOP на рисунке) соединяют данные, полученные из разных источников. Такой узел обращается за данными к двум дочерним узлам. Получив две строки, удовлетворяющие условию соединения, узел сразу же передает результирующую строку наверх (в отличие от сортировки, которая сначала вынуждена получить *все* строки). На этом выполнение узла прерывается до тех пор, пока вышестоящий узел не затребует следующую строку. Таким образом, если нужен только частичный результат (например, из-за ограничения LIMIT), то операция не будет выполняться полностью.
Два листовых узла дерева SEQSCAN представляют обращение к таблицам. Когда вышестоящий узел обращается за данными, листовой узел читает очередную строку из соответствующей таблицы и возвращает ее.
Таким образом, часть узлов не хранит строки, а немедленно передает их выше и тут же забывает, но некоторым узлам (например, сортировке) требуется сохранять потенциально большой объем данных. Для этого в памяти обслуживающего процесса выделяется фрагмент размером *work\_mem* (значение по умолчанию очень консервативно — 4MB); если этой памяти не хватает, данные сбрасываются на диск во временный файл.
В одном плане может быть несколько узлов, которым необходимо хранилище данных, поэтому для запроса может быть выделено несколько фрагментов памяти, каждый размером *work\_mem*. Общий объем оперативной памяти, который может задействовать запрос, никак не ограничен.
Протокол расширенных запросов
-----------------------------
При использовании протокола простых запросов каждая команда, даже если она повторяется из раза в раз, проходит все перечисленные выше этапы:
1. разбор;
2. трансформацию;
3. планирование;
4. выполнение.
Но нет никакого смысла разбирать один и тот же запрос заново. Нет смысла разбирать и запросы, отличающиеся только константами: структура дерева разбора не изменится.
Еще одно неудобство простого способа выполнения запросов состоит в том, что клиент получает всю выборку сразу, сколько бы строк она не содержала.
В принципе, оба ограничения можно преодолеть, используя команды SQL: первое — подготавливая запрос командой PREPARE и выполняя с помощью EXECUTE, второе – создавая курсор командой DECLARE с последующей выборкой с помощью FETCH. Но для клиента это означает заботу об именовании создаваемых объектов, а для сервера — лишнюю работу по разбору дополнительных команд.
Поэтому расширенный клиент-серверный протокол позволяет детально управлять отдельными этапами выполнения операторов на уровне команд самого протокола.
**Подготовка**
На этапе *подготовки* запрос разбирается и трансформируется обычным образом, но полученное дерево разбора сохраняется в памяти обслуживающего процесса.
В PostgreSQL отсутствует глобальный кеш разобранных запросов. Поэтому даже если запрос уже был разобран одним обслуживающим процессом, другой будет вынужден разобрать его заново. Но у такого решения есть и плюсы. Под нагрузкой кеш в общей памяти легко становится узким местом из-за необходимости блокировок, и один клиент, выполняющий множество мелких команд, может повлиять на производительность всего экземпляра. В PostgreSQL разбор запросов обходится дешево и не влияет на другие процессы.
При подготовке запроса его можно параметризовать. Вот простой пример на уровне SQL-команд (повторюсь, что это не совсем то же самое, что подготовка на уровне команд протокола, но в конечном счете эффект тот же):
```
PREPARE plane(text) AS
SELECT * FROM aircrafts WHERE aircraft_code = $1;
```
> Почти все примеры в этой серии статей используют [демобазу «Авиаперевозки»](https://postgrespro.ru/education/demodb).
>
>
Посмотреть именованные подготовленные операторы можно в представлении:
```
SELECT name, statement, parameter_types
FROM pg_prepared_statements \gx
```
```
−[ RECORD 1 ]−−−+−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
name | plane
statement | PREPARE plane(text) AS +
| SELECT * FROM aircrafts WHERE aircraft_code = $1;
parameter_types | {text}
```
Увидеть таким образом безымянные операторы (которые использует расширенный протокол или PL/pgSQL) не получится. И, конечно, сеанс может увидеть только собственные подготовленные операторы; заглянуть в память другого сеанса невозможно.
**Привязка параметров**
Перед выполнением подготовленного запроса выполняется привязка фактических значений параметров.
```
EXECUTE plane('733');
```
```
aircraft_code | model | range
−−−−−−−−−−−−−−−+−−−−−−−−−−−−−−−+−−−−−−−
733 | Боинг 737−300 | 4200
(1 row)
```
Преимущество параметров подготовленных операторов перед конкатенацией литералов со строкой запроса — принципиальная невозможность внедрения SQL-кода, поскольку любое значение параметра не сможет изменить уже построенное дерево разбора. Чтобы достичь того же уровня безопасности без подготовленных операторов, требуется аккуратно экранировать каждое значение, полученное из ненадежного источника.
**Планирование и выполнение**
Когда дело доходит до выполнения подготовленного оператора, происходит планирование с учетом значений фактических параметров, после чего план передается на выполнение.
Учитывать значения параметров важно, поскольку оптимальные планы для разных значений могут не совпадать. Например, поиск очень дорогих бронирований использует индекс (о чем говорят слова Index Scan), поскольку планировщик предполагает, что подходящих строк не очень много (rows):
```
CREATE INDEX ON bookings(total_amount);
EXPLAIN SELECT * FROM bookings WHERE total_amount > 1000000;
```
```
QUERY PLAN
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Bitmap Heap Scan on bookings (cost=86.38..9227.74 rows=4380 wid...
Recheck Cond: (total_amount > '1000000'::numeric)
−> Bitmap Index Scan on bookings_total_amount_idx (cost=0.00....
Index Cond: (total_amount > '1000000'::numeric)
(4 rows)
```
Однако под следующее условие попадают вообще все бронирования, поэтому индекс бесполезен и таблица просматривается целиком (Seq Scan):
```
EXPLAIN SELECT * FROM bookings WHERE total_amount > 100;
```
```
QUERY PLAN
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Seq Scan on bookings (cost=0.00..39835.88 rows=2111110 width=21)
Filter: (total_amount > '100'::numeric)
(2 rows)
```
В некоторых случаях планировщик запоминает не только дерево разбора, но и план запроса, чтобы не выполнять планирование повторно. Такой план, построенный без учета значения параметров, называется *общим планом* (в отличие от *частного плана*, учитывающего фактические значения). Очевидный случай, когда можно перейти на общий план без ущерба для эффективности —запрос без параметров.
Подготовленные операторы с параметрами первые 4 раза всегда оптимизируются с учетом фактических значений; при этом вычисляется средняя стоимость получающихся планов. Начиная с пятого раза, если общий план оказывается в среднем дешевле, чем частные (с учетом того, что частные планы необходимо каждый раз строить заново), планировщик запоминает общий план и дальше использует его, уже не повторяя оптимизацию.
Подготовленный оператор `plane` уже был один раз выполнен. После еще двух выполнений по-прежнему используются частные планы, что видно по значению параметра в плане запроса:
```
EXECUTE plane('763');
EXECUTE plane('773');
EXPLAIN EXECUTE plane('319');
```
```
QUERY PLAN
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Seq Scan on aircrafts_data ml (cost=0.00..1.39 rows=1 width=52)
Filter: ((aircraft_code)::text = '319'::text)
(2 rows)
```
После еще одного, четвертого, выполнения планировщик переключится на использование общего плана — он совпадает с частными планами, имеет ту же стоимость, и поэтому предпочтителен. Команда EXPLAIN показывает теперь не значение параметра, а его номер:
```
EXECUTE plane('320');
EXPLAIN EXECUTE plane('321');
```
```
QUERY PLAN
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Seq Scan on aircrafts_data ml (cost=0.00..1.39 rows=1 width=52)
Filter: ((aircraft_code)::text = '$1'::text)
(2 rows)
```
Несложно представить ситуацию, в которой по неудачному стечению обстоятельств первые несколько частных планов будут более дорогими, чем общий план, а последующие оказались бы эффективнее общего — но планировщик уже не будет их рассматривать. Кроме того, планировщик сравнивает *оценки* стоимостей, а не фактические ресурсы, и это также может служить источником ошибок.
Поэтому (начиная с версии 12) при неправильном автоматическом решении можно принудиительно выбрать общий либо частный план, установив значение параметра *plan\_cache\_mode*:
```
SET plan_cache_mode = 'force_custom_plan';
EXPLAIN EXECUTE plane('CN1');
```
```
QUERY PLAN
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Seq Scan on aircrafts_data ml (cost=0.00..1.39 rows=1 width=52)
Filter: ((aircraft_code)::text = 'CN1'::text)
(2 rows)
```
Начиная с версии 14 представление `pg_prepared_statements` показывает в том числе и статистику выборов планов:
```
SELECT name, generic_plans, custom_plans
FROM pg_prepared_statements;
```
```
name | generic_plans | custom_plans
−−−−−−−+−−−−−−−−−−−−−−−+−−−−−−−−−−−−−−
plane | 1 | 6
(1 row)
```
**Получение результатов**
Протокол расширенных запросов позволяет клиенту получать не все результирующие строки сразу, а выбирать данные по несколько строк за раз. Почти тот же эффект дает использование SQL-курсоров (за исключением лишней работы для сервера и того факта, что планировщик оптимизирует получение не всей выборки, а первых *cursor\_tuple\_fraction* строк):
```
BEGIN;
DECLARE cur CURSOR FOR
SELECT * FROM aircrafts ORDER BY aircraft_code;
FETCH 3 FROM cur;
```
```
aircraft_code | model | range
−−−−−−−−−−−−−−−+−−−−−−−−−−−−−−−−−−+−−−−−−−
319 | Аэробус A319−100 | 6700
320 | Аэробус A320−200 | 5700
321 | Аэробус A321−200 | 5600
(3 rows)
```
```
FETCH 2 FROM cur;
```
```
aircraft_code | model | range
−−−−−−−−−−−−−−−+−−−−−−−−−−−−−−−+−−−−−−−
733 | Боинг 737−300 | 4200
763 | Боинг 767−300 | 7900
(2 rows)
```
```
COMMIT;
```
Если запрос возвращает много строк, и клиенту они нужны все, то огромное значение для скорости передачи данных играет размер выборки, получаемой за один раз. Чем больше выборка, тем меньше коммуникационных издержек на обращение к серверу и получение ответа. Но с ростом выборки эффект сокращения издержек уменьшается: разница между одной строкой и десятью может быть колоссальной, а между сотней и тысячей уже почти незаметной.
[Продолжение](https://habr.com/ru/post/576100/). | https://habr.com/ru/post/574702/ | null | ru | null |
# Советы для профессионального использования RecyclerView. Часть 1

Я решил написать эту статью, т.к. заметил, что многие разработчики допускают ошибки при использовании `RecyclerView`, даже несмотря на то, что Google уже довольно давно его выпустила.
Описанные здесь пункты упоминались в различных докладах и материалах на Google Devs.
В этой статье я буду кратко описывать ключевые пункты из [этого видео](https://www.youtube.com/watch?v=KhLVD6iiZQs), и вам не обязательно смотреть его прямо сейчас. Но рекомендую посмотреть его целиком после прочтения статьи.
1. Атрибут setHasFixedSize
--------------------------
Установите атрибут `recyclerView.setHasFixedSize(true)`, когда `recyclerView` не планирует изменять размеры своих дочерних элементов динамически.
В результате `recyclerView` не будет перерисовываться каждый раз, когда в элементе списка обновятся данные, этот элемент перерисуется самостоятельно.
2. Click listener
-----------------
Устанавливайте обработчик кликов в `onCreateViewHolder(...)`.
Всякий раз, когда пользователь кликает по элементу списка, `viewHolder` сообщает позицию адаптера, где этот клик произошёл (`vh.getAdapterPosition()`). Это важно, потому что элементы могут перемещаться внутри адаптера, и связанные с ними `view`-компоненты не будут пересоздаваться.
В результате к тому времени, когда `view`-компонент будет создан, может произойти следующее: элемент списка будет находиться, допустим, на позиции 2, но когда пользователь кликнет на него, элемент будет уже на позиции 5. Таким образом, использование метода `vh.getAdapterPosition()` гарантирует получение корректного индекса списка.
3. Использование различных типов view-компонентов
-------------------------------------------------
Возвращайте напрямую `layout` в случае использования различных типов `view`-компонентов (например, `R.layout.view_one`).
Если ваш адаптер поддерживает различные типы `view`-компонентов, то метод `getItemViewType` и `onCreateViewHolder` будут выглядеть приблизительно так, как изображено ниже. Вам необходимо написать оператор `switch` внутри метода `onCreateViewHolder` для реализации нужной логики для соответствующих типов `view`-компонентов.

Но вместо этих типов, вы можете вернуть сразу `layout`. Это избавит вас от шаблонного кода в `onCreateViewHolder`:

Этот приём нельзя использовать постоянно, т.к. иногда вам может потребоваться более сложная логика внутри каждого выбранного `layout` для разных случаев. Но если это не ваш случай, то возвращаемые `layout` — это верный путь для работы с различными типами `view`-компонентов.
4. DiffUtil
-----------
Используйте `DiffUtil` для добавления новых данных в `RecyclerView`.
Всякий раз, когда данные в `recyclerView` меняются, большинство разработчиков вызывают метод `notifyDataSetChanged()` для отображения обновлённых данных на UI. Они просто не знают, что данный метод ресурсозатратен, и что именно здесь `DiffUtil` справляется куда эффективнее.
`DiffUtil` — это класс-утилита, который может вычислять разницу между двумя списками в виде списка обновлений, который затем конвертирует первый список во второй. Его можно использовать для вычисления обновлений в адаптере `recyclerView`. Чтобы использовать `DiffUtil`, вы должны реализовать `DiffUtil.Callback`, в котором есть несколько обязательных методов, необходимых для реализации логики `DiffUtil`:

Самое большое преимущество `DiffUtil` заключается в том, что в `RecyclerView` вы можете обновить конкретный текст в `TextView` определённого элемента, вместо того, чтобы перерисовывать весь список. Для этого вам необходимо реализовать метод `onChangePayload` в `DiffUtil.Callback`. Есть [очень хорошая статья](https://medium.com/@iammert/using-diffutil-in-android-recyclerview-bdca8e4fbb00) на эту тему.
Во [второй части](https://habr.com/post/426773/) рассмотрим другие советы качественного использования `RecyclerView`.
[→ Советы для профессионального использования RecyclerView. Часть 2](https://habr.com/post/426773/) | https://habr.com/ru/post/425945/ | null | ru | null |
# Пошаговая инструкция по настройке Wireguard VPN + DNSCrypt + DNS server (Unbound) + Pihole
Давно была идея сделать свой VPN сервер, для того чтобы "ходить" на ресурсы типа [Linkedin](https://www.linkedin.com/). Со временем подумал, что неплохо было бы сделать еще и блокировку рекламы, а потом и DNS сервер. Простых инструкций в интернете я не нашел, поэтому со временем написал ее для себя. Возможно кому-то еще поможет.
Оглавление:
1. Подготовка системы
2. Установка Wireguard
3. Установка DNS-proxy
4. Установка Pihole
5. Установка Unbound
6. Проверка и итоги
Суть задачи в том, чтобы сделать свой VPN и DNS сервер с шифрованным трафиком DNS и блокировкой рекламы через Pihole.
В качестве VPN сервера был выбран Wireguard, а DNS сервера - Unbound. По моему мнению, они одни из самых простых в настройке.
Для начала арендуем какой-нибудь VPS сервер, с хостингом за границей (к примеру [https://fornex.com/)](https://fornex.com/).Достаточно сервера с 1 ядром, 2 Гигами оперативки и 15 Гб SSD диска. Я выбирал операционку Debian 11 без графической оболочки.
***1. Первым делом меняем список репозиториев, на дефолтные для Debian 11.***
**nano /etc/apt/sources.list**
Удаляем там все и вставляем эти строки:
deb <http://ftp.debian.org/debian> bullseye main contrib non-free deb-src <http://ftp.debian.org/debian> bullseye main contrib non-free
deb <http://ftp.debian.org/debian> bullseye-updates main contrib non-free deb-src <http://ftp.debian.org/debian> bullseye-updates main contrib non-free
deb <http://security.debian.org/debian-security/> bullseye-security main deb-src <http://security.debian.org/debian-security/> bullseye-security main deb <http://ftp.debian.org/debian> bullseye-backports main contrib non-free
Если у вас Ubuntu 20.04, то вот список репозиториев:
deb <http://archive.ubuntu.com/ubuntu/> focal main restricted universe multiversedeb-src <http://archive.ubuntu.com/ubuntu/> focal main restricted universe multiversedeb
<http://archive.ubuntu.com/ubuntu/> focal-updates main restricted universe multiversedeb-src <http://archive.ubuntu.com/ubuntu/> focal-updates main restricted universe multiversedeb
<http://archive.ubuntu.com/ubuntu/> focal-security main restricted universe multiversedeb-src <http://archive.ubuntu.com/ubuntu/> focal-security main restricted universe multiversedeb
<http://archive.ubuntu.com/ubuntu/> focal-backports main restricted universe multiversedeb-src <http://archive.ubuntu.com/ubuntu/> focal-backports main restricted universe multiversedeb <http://archive.canonical.com/ubuntu> focal partnerdeb-src <http://archive.canonical.com/ubuntu> focal partner
Далее обновляем систему:
**apt update -y**
**apt upgrade -y**
Если система не обновляется, то проблема возможно в файле /etc/resolv.conf
Нужно добавить там строку **nameserver 8.8.8.8.**
***2. Ставим сначала VPN сервер.*** По моему опыту, самый быстрый и простой в настройке VPN сервер - это Wireguard. Для простоты и скорости, качаем скрипт:
**curl -O https://raw.githubusercontent.com/angristan/wireguard-install/master/wireguard-install.sh**
Если нет curl, то ставим командой **apt install curl**
Даем права:
**chmod +x** [**wireguard-install.sh**](http://wireguard-install.sh/)
Запускаем:
**./wireguard-install.sh**
Дальше все время нажимаем Enter и придумываем название для клиента. В конце будет QR код для настройки VPN с клиента на телефоне. Клиент на телефонах, к слову, так и называется - Wireguard. При повторном запуске скрипта создается второй клиент VPN. По умолчанию он сохраняется в корневую директорию и имеет формат .conf.
Проверяем работоспособность VPN сервера, перейдя на [2ip.ru](http://2ip.ru/). IP адрес на сайте 2ip должен совпадать с белым адресом нашего VPS сервера.
Для шифрования DNS трафика установим службу DNS-proxy.
Для работы службы шифрования DNS-proxy необходимо установить язык go (минимум версии 1.15):
```
sudo apt install wget software-properties-common apt-transport-https
wget https://golang.org/dl/go1.17.linux-amd64.tar.gz
sudo tar -zxvf go1.17.linux-amd64.tar.gz -C /usr/local/
echo "export PATH=/usr/local/go/bin:${PATH}" | sudo tee /etc/profile.d/go.sh
source /etc/profile.d/go.sh
echo "export PATH=/usr/local/go/bin:${PATH}" | sudo tee -a $HOME/.profile source
source $HOME/.profile
echo $PATH
```
Если в конце такой вывод с версией языка, значит все верно.
***3. Далее качаем файлы для установки DNS-proxy:***
**git clone https://github.com/AdguardTeam/dnsproxy.git**
если в системе нет утилиты git, то устанавливаем ее командой **sudo apt install git**
и компилируем программу:
**cd dnsproxy**
**go build -mod=vendor**
Можно выбрать различные варианты протоколов шифрования трафика, например DNS-over-TLS, DNS-over-QUIC, DNS-over-HTTPS и другие. Я выбрал DNS-over-HTTPS, т.к. этот вид шифрования не виден для провайдера.
Запуск службы:
**./dnsproxy -u sdns://AgcAAAAAAAAABzEuMC4wLjGgENk8mGSlIfMGXMOlIlCcKvq7AVgcrZxtjon911-ep0cg63Ul-I8NlFj4GplQGb\_TTLiczclX57DvMV8Q-JdjgRgSZG5zLmNsb3VkZmxhcmUuY29tCi9kbnMtcXVlcnk**
Этот ключ берется с инструкции проекта dnsproxy на [github.com](http://github.com/) <https://github.com/AdguardTeam/dnsproxy> при желании можно указать другие виды шифрования, примеры указаны там же.
Затем правила для рекурсивного DNS:
```
sudo iptables -A INPUT -s 10.20.20.0/24 -p tcp -m tcp --dport 53 -m conntrack --ctstate NEW -j ACCEPT
sudo iptables -A INPUT -s 10.20.20.0/24 -p udp -m udp --dport 53 -m conntrack --ctstate NEW -j ACCEPT
```
**Виртуальные ip адреса 10.20.20.0/24 меняем, на адрес вашей подсети Wirguard.**
Чтобы сохранить маршруты ставим и настраиваем iptables-persistent
**sudo apt-get install iptables-persistent**
```
echo iptables-persistent iptables-persistent/autosave_v4 boolean true | sudo debconf-set-selections
echo iptables-persistent iptables-persistent/autosave_v6 boolean true | sudo debconf-set-selections
sudo apt install iptables-persistent -y
sudo systemctl enable netfilter-persistent
sudo netfilter-persistent save
```
***4. Ставим Pihole для блокировки рекламы*.**
**curl -sSL https://install.pi-hole.net | bash**
После запуска скрипта выбираем виртуальный интерфейс нашего wireguard - wg0. Далее жмем Enter и в конце сохраняем пароль для веб интерфейса программы.
***5. Переходим к установке и настройке своего DNS сервера.***
#### Установим Unbound DNS:
```
sudo apt install unbound unbound-host -y
Скопируем DNS записи:
curl -o /var/lib/unbound/root.hints https://www.internic.net/domain/named.cache
```
Создаем конфиг /etc/unbound/unbound.conf.d/pi-hole.conf
```
nano /etc/unbound/unbound.conf.d/pi-hole.conf
```
Туда копируем эту конфигурацию:
```
server:
# if no logfile is specified, syslog is used
# logfile: "/var/log/unbound/unbound.log"
verbosity: 1
port: 5353
do-ip4: yes
do-udp: yes
do-tcp: yes
# may be set to yes if you have IPv6 connectivity
do-ip6: no
# use this only when you downloaded the list of primary root servers
root-hints: "/var/lib/unbound/root.hints"
# respond to DNS requests on all interfaces
interface: 0.0.0.0
max-udp-size: 3072
# IPs authorised to access the DNS Server
access-control: 0.0.0.0/0 refuse
access-control: 127.0.0.1 allow
access-control: 10.20.20.0/24 allow
# hide DNS Server info
hide-identity: yes
hide-version: yes
# limit DNS fraud and use DNSSEC
harden-glue: yes
harden-dnssec-stripped: yes
harden-referral-path: yes
# add an unwanted reply threshold to clean the cache and avoid, when possible, DNS poisoning
unwanted-reply-threshold: 10000000
# have the validator print validation failures to the log val-log-level: 1
# don't use Capitalisation randomisation as it known to cause DNSSEC issues sometimes
# see https://discourse.pi-hole.net/t/unbound-stubby-or-dnscrypt-proxy/9378 for further details
use-caps-for-id: no
# reduce EDNS reassembly buffer size
# suggested by the unbound man page to reduce fragmentation reassembly problems
edns-buffer-size: 1472
# TTL bounds for cache
cache-min-ttl: 3600
cache-max-ttl: 86400
# perform prefetching of close to expired message cache entries
# this only applies to domains that have been frequently queried
prefetch: yes
prefetch-key: yes
# one thread should be sufficient, can be increased on beefy machines
num-threads: 1
# ensure kernel buffer is large enough to not lose messages in traffic spikes
so-rcvbuf: 1m
# ensure privacy of local IP ranges
private-address: 192.168.0.0/16
private-address: 169.254.0.0/16
private-address: 172.16.0.0/12
private-address: 10.0.0.0/8
private-address: fd00::/8
private-address: fe80::/10
```
**Виртуальный адрес** **access-control: 10.20.20.0/24 меняем на адрес своей подсети!**
Ребутим сервер командой **reboot** и проверяем работу DNS сервера командами:
**dig pi-hole.net @127.0.0.1 -p 5353**
**dig sigfail.verteiltesysteme.net @127.0.0.1 -p 5353**
**dig sigok.verteiltesysteme.net @127.0.0.1 -p 5353**
В первом и третьем случае должен выдаваться статус **NOERROR**, во втором **SERFAIL**. Если выводы такие - то все супер.
#### Далее в браузере открываем веб интерфейс Pihole. Адрес будет такой же, как и адрес VPS сервера и /admin (пример http://185.18.55.137/admin). Переходим на вкладку настроек и делаем как на картинке:
Внизу еще можно поставить галочку **Use DNSSEC и сохранить.**
**Ну и хорошо бы закрыть веб интерфейс Pihole чтобы его не брутили. Оставим доступ только из внутренней подсети:**
```
iptables -A INPUT -s 10.55.55.0/24 -p tcp --dport 80 -j ACCEPT
iptables -A INPUT -p tcp --dport 80 -j DROP
```
**Также не забывает тут подставить свою виртуальную сеть вместо 10.55.55.0/24.**
***6. Чтобы протестировать все настраиваемые сервисы, переходим по ссылкам***:
Тест на утечку DNS трафика <https://dnsleak.com/>
и <https://www.dnsleaktest.com/> тут адрес DNS сервера должен совпадать с белым IP адресом нашего VPS сервера.
P.S.
Для большей эффективности Pihole, можно добавить дополнительные источники с адресами для фильтрации мусорного трафика. Я добавлял эти:
<http://sysctl.org/cameleon/hosts>
<https://s3.amazonaws.com/lists.disconnect.me/simple_tracking.txt>
<https://s3.amazonaws.com/lists.disconnect.me/simple_ad.txt>
<https://easylist-downloads.adblockplus.org/easyprivacy.txt>
<https://easylist-downloads.adblockplus.org/easylist.txt>
<http://www.fanboy.co.nz/adblock/opera/urlfilter.ini>
<http://www.fanboy.co.nz/adblock/fanboy-tracking.txt>
<http://phishing.mailscanner.info/phishing.bad.sites.conf>
<https://zeltser.com/malicious-ip-blocklists/>
Дополнительные списки можно скачать от сюда <https://firebog.net/>
Добавляется через веб интерфейс.
По итогу мы имеем свой VPN сервер за границей, соответственно и возможность посещать желаемые ресурсы, свой DNS сервер, с шифрованием трафика, а также блокировщик рекламы, что является приятным дополнением. Эффективность блокировки конечно не 100%, но почти вдвое больше чем изначально. Реклама блокируется не только в браузере, но и в приложениях телефона (например Avito).
ДО и ПОСЛЕ
 | https://habr.com/ru/post/594877/ | null | ru | null |
# Решения разработки баз данных
Добрый день! В процессе развития проекта приходится сталкиваться с проблемой производительности баз данных, т.к. объём данных растёт, и волей неволей выплывают проблемные участки.
В данном посте описаны не очень удачные решения, которые незаметны на ранних стадиях проекта. И решения, которые могут в дальнейшем в разы повысить производительность.
Пост больше рассчитан на более опытных разработчиков, которые уже возможно ищут решения, поэтому буду краток.
#### Select в результирующих полях
Многие разработчики при написании запросов применяют следующую конструкцию
```
SELECT
T.Column1,
(SELECT MAX(Column) FROM Table2) as Column3,
T.Column2
FROM Table1 T
```
Дело в том, что на каждую строку из таблицы Table1 производится выборка «SELECT MAX(Column) FROM Table2», что требует дополнительных ресурсов для новой выборки. В данном случае производительность будет падать как при увеличении количества данных в Table1 так и Table2.
Приемлемый вариант.
```
SELECT
T.Column1,
T2.Column3,
T.Column2
FROM Table1 T
JOIN (SELECT Max(Column) as Column3 FROM Table2) T2 ON 1 = 1
```
В таком случае выборка из таблицы Table2 выполнится один раз, и результат подставится для каждой строки из таблицы Table1.
#### Замена Left Join на Union
Возникаю ситуации, когда нужно собрать данные из нескольких однотипных по смыслу таблиц и за частую прибегают к следующему решению
```
SELECT
M.Id, COALESCE(P1.Sum, 0) + COALESCE(P2.Sum, 0) + COALESCE(P3.Sum, 0) + ... + COALESCE(PN.Sum, 0) as Sum
FROM MainTable M
LEFT JOIN PayTable1 P1 ON P1.Id = M.Id
LEFT JOIN PayTable2 P2 ON P2.Id = M.Id
LEFT JOIN PayTable3 P3 ON P3.Id = M.Id
.
.
.
LEFT JOIN PayTableN PN ON PN.Id = M.Id
```
У данного подхода несколько проблем:
1. Производятся, перемножения таблиц PayTableN и с увеличением таблиц производительность будет падать, даже если данных немного.
2. Необходимость использования LEFT JOIN, что во многих СУБД не работают индексы.
Повысить производительность можно путём отказа от операции перемножения в пользу объединения и использования JOIN вместо LEFT JOIN.
```
SELECT R.Id, SUM(R.Sum) as Sum
FROM
(
SELECT M.Id, P1.Sum
FROM MainTable M
JOIN PayTable1 P1 ON P1.Id = M.Id
UNION ALL
SELECT M.Id, P2.Sum
FROM MainTable M
JOIN PayTable2 P2 ON P2.Id = M.Id
UNION ALL
SELECT M.Id, P3.Sum
FROM MainTable M
JOIN PayTable3 P3 ON P3.Id = M.Id
.
.
.
UNION ALL
SELECT M.Id, PN.Sum
FROM MainTable M
JOIN PayTableN PN ON PN.Id = M.Id
) R
GROUP BY R.Id
```
К тому же такую конструкцию проще сопровождать, т.е. при добавлении новых таблиц PayTableN нужно добавить соответствующий блок только в одном месть.
#### Использование скалярных операций в условии объединения Join
Есть ситуации, когда в условии объединения необходимо использовать дополнительные операции над полем, в таком случае индекс не используется
```
SELECT
T1.*, T2.*
FROM Table1 T1
JOIN Table2 T2 ON T2.Id = T1.Id AND COALESCE(T2.Column, 0) = COALESCE(T1.Column, 0)
```
Возможные варианты решения:
1. Вынести в условие WHERE, но этот вариант не всегда даст положительный результат, т.к. за вас это мог сделать оптимизатор.
```
SELECT
T1.*, T2.*
FROM Table1 T1
JOIN Table2 T2 ON T2.Id = T1.Id
WHERE COALESCE(T2.Column, 0) = COALESCE(T1.Column, 0)
```
2. Разделить запрос на два.
```
SELECT
T1.*, T2.*
FROM Table1 T1
JOIN Table2 T2 ON T2.Id = T1.Id AND T2.Column = T1.Column
UNION
SELECT
T1.*, T2.*
FROM Table1 T1
JOIN Table2 T2 ON T2.Id = T1.Id AND T2.Column IS NULL AND T1.Column IS NULL
```
#### Запросы с использованием With
Оператор WITH конечно помогает сделать запрос болле понятным и структурированным, но многие не совсем понимают, как он работает и делают следующие ошибки.
```
WITH
MainSubQuery AS (
SELECT * FROM Table1
),
SubQuery AS (
--Здесь на самом деле, какой либо сложный запрос, требующий больших ресурсов
SELECT * FROM Table2
)
SELECT *
FROM MainSubQuery M
LEFT JOIN SubQuery Q1 ON Q1.id = M.id AND Q1.Param = 1
LEFT JOIN SubQuery Q2 ON Q2.id = M.id AND Q2.Param = 2
LEFT JOIN SubQuery Q3 ON Q3.id = M.id AND Q3.Param = 3
LEFT JOIN SubQuery Q4 ON Q4.id = M.id AND Q4.Param = 4
```
Проблема в том, что многие думают, что подзапрос SubQuery выполнится один раз, и далее будет браться только результат и подставляется там, где он далее потребуется.
Но на деле получается следующее:
```
SELECT *
FROM (SELECT * FROM Table1) M
LEFT JOIN (SELECT * FROM Table2) Q1 ON Q1.id = M.id AND Q1.Param = 1
LEFT JOIN (SELECT * FROM Table2) Q2 ON Q2.id = M.id AND Q2.Param = 2
LEFT JOIN (SELECT * FROM Table2) Q3 ON Q3.id = M.id AND Q3.Param = 3
LEFT JOIN (SELECT * FROM Table2) Q4 ON Q4.id = M.id AND Q4.Param = 4
```
Проблему можно решить, прибегая к временным таблицам, т.е. результат тяжелого запроса предварительно положить во временную таблицу и далее использовать. Также данный метод эффективен, если в качестве исходного набора данных используются NICKNAME из мира IBM DB2.
```
INSERT Session.MainSubQuery
SELECT * FROM Table1;
INSERT Session.SubQuery
SELECT * FROM Table2;
SELECT *
FROM Session.MainSubQuery M
LEFT JOIN Session.SubQuery Q1 ON Q1.id = M.id AND Q1.Param = 1
LEFT JOIN Session.SubQuery Q2 ON Q2.id = M.id AND Q2.Param = 2
LEFT JOIN Session.SubQuery Q3 ON Q3.id = M.id AND Q3.Param = 3
LEFT JOIN Session.SubQuery Q4 ON Q4.id = M.id AND Q4.Param = 4;
```
#### Сопровождение
Далее от машинной производительности перейдём к производительности человеческого труда. Речь пойдёт о том, как облегчить рутинную работу поддержки и сопровождения баз данных.
В процессе развития проекта приходится пересоздавать процедуры, функции, таблицы и другие объекты баз данных, но
не в каждой СУБД есть конструкция CREATE OR REPLACE PROCEDURE[FUNCTION, TABLE, VIEW, TRIGER, ...] и приходится
в обновлениях постоянно контролировать DROP-ы, ALTER-ы и т.д. в каждой СУБД по разному.
Решением данного вопроса может стать ввод собственных сервисных процедур, например:
```
CALL[EXECUTE] DropProcedure(SchemaName, ProcedureName)
CALL[EXECUTE] DropTable(TableName, TableName)
CALL[EXECUTE] DropView(SchemaView, ProcedureView)
```
и т.д.
А далее уже производим создание соответствующих объектов не зависимо от того созданы были ранее или нет.
Но при данном подходе также остаётся проблема, связанная с правами доступа к объектам, т.е. при удалении и создании объекта слетают права групп на объекты, т.к. это уже новый объект для СУБД.
Решения могут быть разные, например:
Поддерживать скрипт выдачи прав в актуальном состоянии и загружать после каждого обновления (неудобно).
Вообще не использовать групповую политику (нехорошо).
Довольно удобным и эффективным решением является ввод пары сервисных процедур, где одна будет запускаться в начале обновления, а вторая в конце.
```
--Сохранение всех прав
CALL[EXECUTE] StoreRights
--Удаление и создание объектов
--Восстановление прав
CALL[EXECUTE] RestoreRights
```
Следующий вопрос касается сопровождения структуры БД СУБД MS SQL, а именно в связи с крайне неудобным методом комментирования таблиц, колонок. Что в свою очередь делается редко либо совсем не делается.
Пример:
```
EXEC sys.sp_addextendedproperty @name=N'MS_Description', @value=N'Идентификатор' , @level0type=N'SCHEMA',@level0name=N'main', @level1type=N'TABLE',@level1name=N'TextTable', @level2type=N'COLUMN',@level2name=N'id';
```
Также можно создать набор сервисных процедуру обёрток
```
EXEC Service.CommentOnTable N'SchemaName', N'TableName', N'TableComment';
EXEC Service.CommentOnColumn N'SchemaName', N'TableName', N'ColumnName', N'ColumnComment';
EXEC Service.CommentOnProcedure N'SchemaName', N'TableName', N'ProcedureComment';
```
Так уже короче, информативней и приятней работать.
Этим набор сервисных процедур, конечно, не ограничивается, можно много чего придумать.
Всего доброго приятной работы! | https://habr.com/ru/post/234721/ | null | ru | null |
# Использование игрового ПК с Windows в качестве (Linux) Docker-хоста
[](https://habr.com/ru/company/ruvds/blog/694968/)
Docker Desktop – это прекрасный обслуживаемый способ использования Docker в MacOS или Windows, но для нестандартных сценариев он оставляет желать лучшего.
И недавно я столкнулся с одним таким сценарием, который для вас может показаться относительно типичным. Я занимаюсь разработкой под MacOS, но поскольку у моего MacBook Pro всего 16ГБ оперативной памяти, мне захотелось использовать свой игровой ПК, у которого её 32ГБ, в качестве удалённого Docker-хоста. Сколько нас хакеров, нердов и гиков в течение дня трудится (обычно) на ноутбуках MacBook, а после работы садится за кастомные ПК с Windows, чтобы пострелять пришельцев?
Тут вы можете подумать, что всё это довольно знакомо, а значит и поставленную цель достичь будет несложно. Как бы не так. Оказалось, что заставить Docker работать в качестве хоста локальной сети в Windows весьма проблематично – для этого придётся прибегнуть к ряду специфических приёмов.
> Дисклеймер: я отнюдь не являюсь администратором Windows. Мне хорошо известно, что сегодня эта ОС позволяет реализовывать почти всё то же, что системы семейства \*nix в плане конфигурации, настройки сервисов и так далее. Но я полностью признаю, что не знаком с современными лучшими техниками для реализации этого.
Я также не рекомендую использовать описываемую мной далее конфигурацию в любых критически важных проектах или продакшене.
▍ В двух словах
---------------
1. Установите WSL 2, затем в нём установите в качестве демона Docker.
2. Настройте этого демона на прослушивание `0.0.0.0:2375`.
3. Тут вы поймёте, что WSL принудительно привязывает его к `localhost`, а не к `0.0.0.0`, что бы вы ни делали.
4. Подключите TCP-прокси, выполняющийся в пользовательском пространстве Windows, чтобы привязаться к `0.0.0.0:2375` и использовать его для переброса трафика на `localhost:2375`.
5. Проверьте возможность подключения с внешнего хоста.
▍ Docker Desktop: чего делать нельзя
------------------------------------
Docker Desktop предлагает элементарный способ сделать вашу машину Windows хостом Docker (по крайней мере, так может показаться): простая галочка в пункте конфигурации. Можно подумать, что этого вполне достаточно, но здесь есть подвох: Docker будет привязан только к `Localhost:2375`, а не к `0.0.0.0:2375`. То есть использование данной опции сделает Docker доступным только на локальной машине, но никак не для других узлов вашей сети.
> *Примечание*: Docker Desktop содержит эту функциональность для того, чтобы делать текущие версии демона доступными для легаси CLI-клиентов `docker`. Вот только для наших целей это оказывается бесполезным.
Поначалу я этого не понимал и использовал вышеназванную галочку, безуспешно пытаясь обратиться к Docker с другой машины сети. В стремлении понять, что я делаю не так, я заглянул в Windows Resource Monitor. Там я обнаружил, что приложение Docker Desktop прослушивает порт `2375`, но привязано только к `localhost`, в связи с чем не может получать трафик из других узлов сети.
После этого я сделал то, что сделал бы любой рассудительный человек – спросил Google. В одной из найденных мной статей по настройке Docker говорилось, что можно управлять этим поведением, изменяя конфигурацию JSON, представленную в приложении Docker Desktop. Так что я добавил в конфигурацию Docker следующее:
```
{ "hosts": ["tcp://0.0.0.0:2375"]
}
```
Затем я отключил фаервол в Windows и антивирусном ПО, просто чтобы исключить этот элемент как возможную причину в случае неудачи. После перезапуска Docker я снова зашёл во вкладку Network в Resource Monitor и посмотрел, что привязано к порту `2375`. Да, это Docker Desktop, всё хорошо, но он всё равно привязан только к `Localhost`! Даже при правильной конфигурации, описанной в документации, это приложение в Windows просто отказывается привязываться ко всем сетевым интерфейсам, становясь, по сути, бесполезным во всех случаях, за исключением самых тривиальных.
▍ Использование подсистемы Windows для Linux
--------------------------------------------
После провала ещё нескольких попыток я из досады решил полностью снести Docker в Windows и повторно установить только его демона в WSL. После установки и настройки я подумал, что мог бы раскрыть этого демона из WSL для сетевого доступа, получив, наконец, хоть какие-то возможности.
Как же я ошибался.
> Кто не в курсе, “WSL” означает “Windows Subsystem for Linux” и, возможно, является самым удивительным решением, какое разработчики из Misrosoft встраивали в свой флагманский продукт. Первая версия WSL добавляла хуки/оболочки непосредственно в ядро Windows, чтобы при выполнении скомпилированным бинарником Linux системных вызовов к тому, что он считает ядром Linux, ядро Windows принимало эти вызовы и перенаправляло или повторно реализовывало их логику «в стиле Windows», создавая для бинарника Linux иллюзию выполнения в родной среде. Представьте себе виртуализацию без необходимости использования гипервизора или установки другой ОС.
>
>
>
> Как обычно, это решение оказалось не идеальным. Через какое-то время в Microsoft решили исправить ряд обнаруженных недочётов, выпустив WSL v2, чрезвычайно легковесную и полностью прозрачную виртуальную машину Windows, которая предоставляла всё те же возможности, но реализованные иначе. У второй версии были некоторые свои недочёты относительно первой, но на сегодня рекомендуемым выбором чаще является именно она.
>
>
>
> Для использования WSL вам понадобится Windows 10, желательно последней сборки. При этом вам может потребоваться Pro Edition или более продвинутая версия (не уверен, поддерживается ли WSL в версии Home). Подробнее об установке этой оболочки читайте [здесь](https://docs.microsoft.com/en-us/windows/wsl/install-win10).
Установка демона под Linux проблем не вызывает. Docker предоставляет [прекрасную документацию для этого процесса](https://docs.docker.com/engine/install/ubuntu/) и [руководство по дальнейшим действиям](https://docs.docker.com/engine/install/linux-postinstall/). Обоим этим гайдам я следовал при установке Ubuntu 20.04 в WSL 2. Получилось довольно просто. Однако, поскольку запуск WSL несколько отличается от запуска типичного дистрибутива Linux, у вас не будет рабочего `systemd`, поэтому для автозапуска демона Docker потребуется найти другой способ.
Разобравшись с установкой и настройкой, вы сможете запускать демона Docker вручную выполнением `dockerd` от имени корневого пользователя.
Однако, если вы загляните во вкладку Network в Windows Resource Monitor, то `dockerd` там не увидите. Вместо этого он будет находиться под процессом `wslhost`, привязанном только к локальной петле. Что бы вы ни делали, WSL не позволит вам раскрыть находящиеся внутри него процессы напрямую для сети. То есть мы всё равно ограничены локальным loopback.
Так что для реализации задуманного нам потребуется дополнительная магия. Как насчет TCP-прокси?
▍ Установка прокси перед Docker: перебор безумных решений
---------------------------------------------------------
Тогда стало понятно, что просто нет способа, который бы позволил мне раскрыть Docker для всей сети напрямую, поэтому я решил организовать перед ним TCP-прокси. Я рассуждал так: «Если docker CLI будет просто слепо передавать трафик туда-сюда, то никакой разницы не заметит».
Какой же тогда нужно организовать прокси? У меня был опыт работы с [HAProxy](https://www.haproxy.org/), но у этого проекта нет версии для Windows. Мне же нужно было что-то, работающее в пользовательском пространстве Windows, так что этот вариант отпадал.
Единственным другим знакомым мне прокси-сервером был [Envoy](https://www.envoyproxy.io/), поэтому я посетил их сайт в поиске доступной сборки для Windows. Оказалось, что «документация» предписывает для запуска Envoy в Windows компилировать его из исходного кода (так было на тот момент; надеюсь, в будущем это изменится), а у меня не было ни времени, ни терпения для установки среды разработки Windows только ради одной сборки Envoy. Эта идея казалась безумной.
Порывшись на их сайте, я нашёл соответствующий вопрос в [FAQ](https://www.envoyproxy.io/docs/envoy/latest/faq/build/binaries), ведущий на [эту страницу](https://www.envoyproxy.io/docs/envoy/latest/start/install#install-binaries) с исполняемыми файлами для скачивания. Но тут есть проблема: все файлы представлены в виде образов Docker. То есть мне для запуска Docker нужен Docker?
Полная бессмыслица. Тогда я решил заглянуть в релизы на GitHub – безуспешно. Затем я начал читать раздел “issues” проекта, надеясь, что кто-то уже обращался с вопросом о получении скомпилированного релиза для Windows.
К сожалению, самым полезным ответом на запрос о предоставлении скомпилированных бинарников Envoy для Windows оказался [этот](https://github.com/envoyproxy/envoy/issues/5668#issuecomment-456129910):
> Смотрите раздел envoyproxy. Мы не предоставляем исполняемые файлы, но вы можете извлечь их из контейнера docker.
Эта тема продолжалась, и ниже были даны ссылки на документацию и инструмент для скачивания Envoy на машины Linux. Однако ни в одной документации не нашлось каких-либо упоминаний Windows (на момент написания статьи), что делало все эти ответы полностью бессмысленными.
Так что мне оставалось лишь идти и дербанить образ Docker.
▍ Нечестивые действия над образами Docker
-----------------------------------------
На мой взгляд, использование Windows для разработки и просто работы в терминале по-прежнему представляет боль. Это очень неудобный процесс, не говоря уже о том, что мне пришлось бы переустановить кучу всяких программ и настроить тонну других, просто чтобы добиться достойного рабочего потока.
Так что я решил вытащить официальный [Envoy Docker Image for Windows](https://hub.docker.com/r/envoyproxy/envoy-windows) из Docker Hub со своего Mac (используя Docker Desktop, который задействовал более 80% памяти, только чтобы достать образы):
```
$ docker pull envoyproxy/envoy-windows
Using default tag: latest
Error response from daemon: manifest for envoyproxy/envoy-windows:latest not found: manifest unknown: manifest unknown
```
Ну хорошо, Docker, пусть будет сложно. Попробуем просто прописать в качестве тега последнюю вышедшую версию:
```
$ docker pull envoyproxy/envoy-windows:v1.18.2
v1.18.2: Pulling from envoyproxy/envoy-windows
4612f6d0b889: Downloading
5ff1512f88ec: Downloading
ecaafce5c67e: Pulling fs layer
d507bef22a1e: Waiting
9bdb36426121: Waiting
e5b3f220cc68: Waiting
e5410c30e7a9: Waiting
4b47829da3b1: Waiting
35eb096aecb4: Waiting
68a2a4ec685d: Waiting
9c1c360fc8b3: Waiting
a08a596feca8: Waiting
image operating system "windows" cannot be used on this platform
```
И-и-и-и, облом. Docker не позволяет даже вытащить образ, если между операционными системами хоста и контейнера есть разночтения.
Разразившись рядом проклятий, я всё же решил не сдаваться. Я вспомнил, что образы Docker – это просто большие tar-архивы, поэтому у меня должно получиться скачать простой образ tar с Docker Hub и, теоретически, куда-нибудь его распаковать для просмотра файловой системы того, что, в ином случае, являлось бы образом Windows.
Оказалось, это не так уж просто. В извлечении образа Docker задействованы многие кастомные заголовки и токены, так что вручную делать это проблематично. К счастью, в ходе поисков мне попался [скрипт](https://github.com/moby/moby/blob/master/contrib/download-frozen-image-v2.sh) из проекта Moby, который делал именно то, что было нужно. Я извлёк этот скрипт и выполнил его для получения образа Envoy под Windows:
```
$ ./script.sh win envoyproxy/envoy-windows:v1.18.2
Downloading 'envoyproxy/envoy-windows:v1.18.2@v1.18.2' (12 layers)...
Download of images into 'win' complete.
Use something like the following to load the result into a Docker daemon:
tar -cC 'win' . | docker load
```
> *Примечание*: если вы получите ошибку, утверждающую `‘mapfile’ not found`, возможно, нужно обновить версию Bash. MacOS по умолчанию поставляется со старой версией, отстающей на два старших релиза. Альтернативный вариант – выполнить этот скрипт на машине WSL, где может быть установлена более новая версия Bash.
Теперь можно просмотреть созданный скриптом каталог `win/`:
```
$ ls win
Permissions Size User Date Modified Name
drwxr-xr-x - jah 4 May 15:42 1a5606bb70dc20fb56456b2583d295bdd2e847c0617da3da68d152bdd6a10b78
drwxr-xr-x - jah 4 May 15:42 4e6cb5497aca4d83d2b91ef129fa823c225b0c76cefd88f5a96dd6c0fccdd6c7
drwxr-xr-x - jah 4 May 15:42 6bfb8784732bcc28ef5c20996dbe6f15d3a004bf241ba59575b8af65de0a0aaf
drwxr-xr-x - jah 4 May 15:42 3712aa599c08d0fb31285318af13e44d988391806d2460167643340c4f3a7123
drwxr-xr-x - jah 4 May 15:42 698765937dc05ffcc458d8c2653563450bc169a724c62ed6a2c58f23c054b0ff
drwxr-xr-x - jah 4 May 15:42 a4c3f3e7cef6cd7492338a26b7b307c0cd26e29379655f681d402c1eeaf595b6
drwxr-xr-x - jah 4 May 15:42 b93d56fb00e644574bb7c2df769bb383d7fa351730393d46239078026bbc8efc
.rw-r--r-- 3.7k jah 4 May 15:42 b775d72f61762e116864ab49adc8de32045e001efd1565c7ed3afe984d6e07f0.json
drwxr-xr-x - jah 4 May 15:42 c42480d1b057b159309c4e55553ba75d84c21dc6c870f7ed77b0744c72e755f5
.rw-r--r-- 3.7k jah 4 May 15:40 d00ba7ba582355550f5e42f453d99450754df890dec22fc86adb2520f3f81da2.json
drwxr-xr-x - jah 4 May 15:42 d59df72a9d52b10ca049b2b6b1ce5b94f6ebb8a100ec71cea71ec7d8c0369383
drwxr-xr-x - jah 4 May 15:43 d8067d34f431844ea7a3068d31cdb9254f1fcb93bcaf1c182ceebdec17c8d1fc
drwxr-xr-x - jah 4 May 15:42 ea8955ac8603cc8dbb34e70e0922b59271522839db7d626e0f79f45b954c0d12
drwxr-xr-x - jah 4 May 15:42 ec233e633fbbcbaf9d6f7ba3496ebc676f9b70ac4b95ba1127c466723976f55a
.rw-r--r-- 1.2k jah 4 May 15:43 manifest.json
.rw-r--r-- 51 jah 4 May 15:43 repositories
```
Повозившись немного с каждым каталогом и распаковав в каждом из них *layer.tar*, я, наконец, нашёл то, что искал:
```
$ cd 3712aa599c08d0fb31285318af13e44d988391806d2460167643340c4f3a7123
$ tar xf layer.tar && chmod -R 777 * && tree .
tree .
.
├── Files
│ ├── Documents\ and\ Settings -> [Error\ reading\ symbolic\ link\ information]
│ └── Program\ Files
│ └── envoy
│ └── envoy.exe
├── Hives
│ ├── DefaultUser_Delta
│ ├── Sam_Delta
│ ├── Security_Delta
│ ├── Software_Delta
│ └── System_Delta
├── VERSION
├── json
└── layer.tar
4 directories, 10 files
```
Вот оно! Мы нашли *envoy.exe*!
Скопировав *envoy.exe* из контейнера архива tar, теперь я мог написать файл конфигурации для проксирования TCP-трафика с `0.0.0.0:2375` в локальный loopback на одном порту. Конфигурация получилась такой:
```
static_resources:
listeners:
- name: docker-proxy
address:
socket_address:
address: 0.0.0.0
port_value: 2375
protocol: TCP
filter_chains:
filters:
- name: envoy.filters.network.tcp_proxy
typed_config:
"@type": type.googleapis.com/envoy.extensions.filters.network.tcp_proxy.v3.TcpProxy
cluster: docker-actual
stat_prefix: docker-proxy
clusters:
- name: docker-actual
connect_timeout: 1s
type: STATIC
load_assignment:
cluster_name: docker-actual
endpoints:
- lb_endpoints:
- endpoint:
address:
socket_address:
address: 172.25.65.236
port_value: 2375
protocol: TCP
admin:
address:
socket_address:
address: 0.0.0.0
port_value: 9901
```
> *Важно*: при каждом запуске WSL присваивает себе новый адрес IPv4. Я пока не выяснил, как заставить её всегда использовать одинаковый адрес. Так что вам потребуется получать IP-адрес WSL через выполнение `ifconfig eth0` из оболочки WSL и подставлять свой вместо того, что приведён в моём примере конфигурации. Это нужно будет делать каждый раз при перезагрузке машины или остановке и старте WSL.
▍ Запускаем
-----------
Подготовив Envoy, можно всё запускать и приступать к тестированию. На своей машине с Windows я открыл в WSL оболочку, откуда вручную запустил Docker:
```
$ sudo dockerd --tls=false &
```
После в другом окне терминала я запустил сеанс Powershell и Envoy:
```
PS J:\envoy> .\envoy.exe -c .\envoy.yaml
```
Если всё сработает должным образом, то вы увидите, что `wslhost` привязан к локальной петле на порту `2375`, а *envoy.exe* привязан к `“IPv4 unspecified”` также на порту 2375.

Теперь я, наконец-то, мог задействовать в качестве Docker-хоста компьютер с мощным оборудованием. Оставалось лишь экспортировать переменную среды и использовать её.
```
$ export DOCKER_HOST=
$ docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
```
Работает!
▍ Выводы
--------
На всякий случай повторюсь, что всё проделанное мной никогда не следует делать в продакшене. Это был мой отдельный случай в собственной сети. Меня интересовало исключительно удобство разработки и тестирования.
Описанная здесь настройка требует немало ручной работы. При каждой перезагрузке хоста вам потребуется выяснять внутренний IPv4 адрес для WSL, изменять эту запись в конфигурации Envoy, запускать `dockerd` в WSL и снова запускать *envoy.exe* для подключения. Сейчас я делаю всё это сам, так как машину с Windows перезагружать мне приходится нечасто. И всё же я хочу найти способ автоматизировать выполнение всего этого процесса при загрузке компьютера. Думаю, что это можно реализовать с помощью файла `.BAT`, вызываемого через “Запланированную задачу” (см. «Планировщик задач») при каждом запуске компьютера до стадии авторизации.
Весь проделанный путь оказался сложнее, чем должен был. Здесь мы столкнулись и с отказом Windows Docker Desktop признавать конфигурацию `host`, и с заявлением проекта Envoy о том, что у них есть релиз под Windows, который оказалось столь сложно извлечь, а также с тем, что Microsoft по умолчанию не позволяет раскрывать для сети процессы в WSL, привязанные к портам. Есть объективный повод критиковать все три причастные компании за излишнее усложнение вещей, которые должны быть простыми. При этом также нужно признать, что всё проделанное мной оказалось бы невозможным, если бы не прекрасная работа, которую люди из вышеупомянутых компаний проделали для создания превосходных инструментов, позволяющих таким как я реализовывать подобные «безумные» приёмы.
Однако признаю, что удалять Docker Desktop из Windows было необязательно, поскольку установленный в WSL демон всё равно оказался привязан только к локальной петле. Теоретически должна быть возможность проделать всё это без использования WSL (минус извлечение образа Envoy, для чего необходима последняя версия Bash). Но ключевое слово здесь «теоретически» — я не пробовал сделать это с помощью Docker Desktop для Windows и понятия не имею, какие ещё проблемы могут возникнуть, если пойти этим путём.
Закончу тем, что всего этого можно было избежать, если бы:
* Apple ставили в свои MacBook Pro больше 16ГБ ОЗУ или;
* Docker не требовал целую виртуальную машину с выделенными ресурсами для «имитации» контейнеров в MacOS.
Но мы ведь живём не в идеальном мире.
> **[Telegram-канал с полезностями](https://inlnk.ru/dn6PzK) и [уютный чат](https://inlnk.ru/ZZMz0Y)**
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=article&utm_campaign=Bright_Translate&utm_content=ispolzovanie_igrovogo_pk_s_windows_v_kachestve_docker-xosta) | https://habr.com/ru/post/694968/ | null | ru | null |
# Автоматизация снятия показаний со счетчиков воды
Все знают, что лень двигатель прогресса. Так случилось и в моем случае.

В квартире присутствует 6 точек раздачи воды (3 холодные и 3 горячие). На каждой из точек стоит счетчик.
Каждые 2 счетчика спрятаны за люками скрытого монтажа, один из люков находится за зеркалом, которое нужно снять, чтобы до него добраться.
Раз в месяц с 20 по 25 число необходимо снимать показания со всех счетчиков и отправлять данные в Управляющую Компанию на бланке определенного образца.
В какой-то момент мне надоело открывать люки, снимать зеркало и было решено автоматизировать снятие показаний.
Вот, для примера, пара люков (открытый и закрытый):

Сначала перерыл интернет на предмет существующих устройств автоматизации. Нашел только один для меня подходящий — *Счетчик импульсов-регистратор «Пульсар» 6-ти канальный*. Надо сказать, что стоит он почти 6000 рублей! На самом деле в розницу нигде я его не видел, так как слишком специфический продукт и предполагается, что закупать их будут ТСЖ на все квартиры в доме. Попытался его заказать через интернет в разных местах, но каждый раз, как только доходило до доставки, продавец пропадал. Как я понял, они не любят работать с «физиками», либо был не слишком настойчив.
Ну, нет, так нет — сделаем сами, да еще и дешевле.
Тут то и пригодилась Arduino Mega 2580 с Ethernet модулем, которая была когда-то куплена для различных экспериментов.
Когда делали ремонт в квартире, от каждой точки, где имеются счетчики, до щитка на лестничной клетке, были проложены кабели типа UTP cat 5e. Это было одно из требований контролирующей организации, чтобы в будущем снимать все показания централизованно. Будущее все никак не наступает, а провода пригодились.
Дополнительно из слаботочного щитка квартиры до щитка на лестничной клетке, было проложено много витых пар (для нескольких каналов интернета, телефон, домофон, резерв и прочее), и как раз нашлась парочка свободных, чтобы сигналы от счетчиков завести в назад в квартиру, а оттуда в шкаф с домашним сетевым оборудованием.
В итоге, что мы имеем:
* Счетчики воды
* Arduino Mega 2580
* Arduino Ethernet 3.0
* Бокс для Arduino
* Блок питания
* Шлейф для протягивания из слаботочного щитка в шкаф к Arduino.
* Домашний сервер на Debian с Lighttpd и Mysql
Сами счетчики такие:

Экспериментальным путем было определено, что счетчики работают не просто, а очень просто. Когда последний разряд меняет свое значение с 9 на 0, замыкается геркон внутри счетчика и это значит, что утекло еще 10 литров воды. В таком состоянии он находится до того, пока значение последнего разряда не станет равным 3. Т.е. фактически нам надо фиксировать момент перехода из состояния «разомкнуто» в состояние «замкнуто». Заострю внимание, что мы фиксируем ТОЛЬКО факт перехода из одного состояния в другое, потому что система может обесточиться, да и вообще, мало ли какие могут быть коллизии.
В момент замыкания геркона, Arduino по HTTP вызывает простенький perl-скрипт на сервере, где крутится lighttpd. Скрипт записывает в базу данных этот момент. Другой скрипт позволяет смотреть текущее состояние счетчиков.
**Скетч Arduino с комментариями:**
```
#include
#include
#include // Эту библиотеку необходимо скачать тут: https://github.com/thomasfredericks/Bounce-Arduino-Wiring
byte mac[] = {0x90,0xA2,0xDA,0x0E,0xF1,0x92}; // MAC-адрес нашего устройства (написан на наклейке платы Ethernet shield)
IPAddress ip(192,168,1,11); // IP адрес, если вдруг не получится получить его через DHCP
//IPAddress server(192,168,1,10); // ip-адрес удалённого сервера (использовался, пока не было имени)
char server[] = "smarthome.mydomain.ru"; // Имя удалённого сервера
char request[40]; // Переменная для формирования ссылок
int CounterPin[6] = {22,23,24,25,26,27}; // Объявляем массив пинов, на которых висят счетчики
char \*CounterName[6] = {"0300181","0293594","0300125","0295451","0301008","0293848"}; // Объявляем массив имен счетчиков, которые мы будем передавать на сервер
Bounce CounterBouncer[6] = {}; // Формируем для счетчиков Bounce объекты
EthernetClient rclient; // Объект для соединения с сервером
void setup() {
//Serial.begin(9600);
for (int i=0; i<6; i++) {
pinMode(CounterPin[i], INPUT); // Инициализируем пин
digitalWrite(CounterPin[i], HIGH); // Включаем подтягивающий резистор
CounterBouncer[i].attach(CounterPin[i]); // Настраиваем Bouncer
CounterBouncer[i].interval(10); // и прописываем ему интервал дребезга
}
// Инициализируем сеть
if (Ethernet.begin(mac) == 0) {
Ethernet.begin(mac, ip); // Если не получилось подключиться по DHCP, пробуем еще раз с явно указанным IP адресом
}
delay(1000); // даем время для инициализации Ethernet shield
}
void loop() {
delay(1000); // Задержка в 1 сек, пусть будет. Мы уверены, что два раза в секунду счетчик не может сработать ни при каких обстоятельствах, потому что одно срабатывание - 10 литров.
// Проверяем состояние всех счетчиков
for (int i=0; i<6; i++) {
boolean changed = CounterBouncer[i].update();
if ( changed ) {
int value = CounterBouncer[i].read();
// Если значение датчика стало ЗАМКНУТО
if ( value == LOW) {
//Serial.println(CounterPin[i]);
sprintf(request, "GET /input.pl?object=%s HTTP/1.0", CounterName[i]); // Формируем ссылку запроса, куда вставляем имя счетчика
sendHTTPRequest(); // Отправляем HTTP запрос
}
}
}
}
// Функция отправки HTTP-запроса на сервер
void sendHTTPRequest() {
if (rclient.connect(server,80)) {
rclient.println(request);
rclient.print("Host: ");
rclient.println(server);
rclient.println("Authorization: Basic UmI9dlPnaJI2S0f="); // Base64 строка, полученная со значения "user:password"
rclient.println("User-Agent: Arduino Sketch/1.0");
rclient.println();
rclient.stop();
}
}
```
На сервере крутится: Debian, Lighttpd, Mysql. В свою очередь на нем имеется два perl-скрипта: один для записи состояний счетчиков в базу, второй для вывода текущих показаний.
**input.pl**
```
#!/usr/bin/perl -w
use strict;
use CGI::Fast;
use DBI;
while(my $q = CGI::Fast->new)
{
main($q);
}
sub main
{
my $q = shift;
my $dbh = DBI->connect( "dbi:mysql:database=smart_home;mysql_client_found_rows=1;mysql_enable_utf8=1;mysql_socket=/var/run/mysqld/mysqld.sock", 'dbname', 'password',
{
RaiseError => 1,
AutoCommit => 1,
mysql_multi_statements => 1,
mysql_init_command => q{SET NAMES 'utf8';SET CHARACTER SET 'utf8'}
} ) or die "Cannot connect";
$dbh->{mysql_auto_reconnect} = 1;
print "Content-Type: text/html; charset=UTF-8\n\n";
print "OK\n";
my $object = $q->param("object");
if ($object)
{
$dbh->do(q{INSERT INTO water_count (object) VALUES(?)},undef,$object) or die $dbh->errstr;
}
}
```
**result.pl**
```
#!/usr/bin/perl -w
use strict;
use CGI::Fast;
use DBI;
# массив стартовых показаний счетчиков
my $start = {
"0300125" => 102.53,
"0301008" => 75.31,
"0300181" => 65.92,
"0293594" => 54.51,
"0293848" => 55.04,
"0295451" => 87.43
};
while(my $q = CGI::Fast->new)
{
main($q);
}
sub main
{
my $dbh = DBI->connect( "dbi:mysql:database=smart_home;mysql_client_found_rows=1;mysql_enable_utf8=1;mysql_socket=/var/run/mysqld/mysqld.sock", 'dbname', 'password',
{
RaiseError => 1,
AutoCommit => 1,
mysql_multi_statements => 1,
mysql_init_command => q{SET NAMES 'utf8';SET CHARACTER SET 'utf8'}
} ) or die "Cannot connect";
$dbh->{mysql_auto_reconnect} = 1;
print "Content-Type: text/html; charset=UTF-8\n\n";
print "Текущие показания счетчиков:
";
my $sql = "SELECT count(*) as c,object FROM water_count group by object";
my $sth = $dbh->prepare($sql);
$sth->execute;
while (my ($count, $object) = $sth->fetchrow_array())
{
$start->{$object} = sprintf("%.2f",$start->{$object}+$count/100);
}
$sth->finish;
foreach my $object (keys $start) {
my ($intcurrent,$fine) = split(/\./,$start->{$object});
print "$object **$intcurrent**.$fine
\n";
}
}
``` | https://habr.com/ru/post/232903/ | null | ru | null |
# mac: Как и почему стоит хранить свой домашний каталог на другой партиции
Почему стоит хранить свой домашний каталог на другой партиции? Среди макпользователей ведется спор о том, разбивать ли предустановленный Macintoch HD на 2 и более разделов (в терминах винды — дисков) или нет. Для себя я однозначно решил, что стоит. Во-первых, один раздел можно отдать Time Machine. Во-вторых, мне лично удобно, по опыту винды и независимо от Виндовз и Мак-way хранить данные отдельно от оси. В-третьих, эта информация может быть полезна для счастливых обладателей Eeepc с установленной Mac OS X (т.к. после установки мак ос, на ееерс 4g остаётся 100мб места, via [SilverTH](https://geektimes.ru/users/silverth/))

Объем моего ЖД 80GB. Под Mac OS X выделено 15GB. После [чистки определенными инструментами всякого мусора](http://pudovkin.com/2008/02/macsoft-delocalizer-ili-kak-udalit-musor-s-maka/) свежеустановленную ось, свободным осталось около 5-ти. Сейчас свободно на системном диске 2,5ГБ — сказывается установленный софт. Да, он безболезненно ставится на этот раздел.
Моя домашняя папка, впрочем как и теоретические папки других пользователей, хранятся на втором разделе (50GB). В личой папке, как известно, находится и каталог Desktop и прочие. Быстродействие системы не страдает, а может и наоборот. ошибок в файловой системе не возникает.
 
Третий раздел (10GB), как и было сказано, отдан Машине Времени. Гипотетически:), т.к. живу под Tiger, а диск занят софтом для Windows. своеобразная флэшка.
Как это сделать? Читаем ниже:
Как перенести ваш домашний каталог на другой раздел
---------------------------------------------------
Отмазка: Пожалуйста, прочтите страницу до конца перед тем как что-либо делать!
Перемещение вашей домашней директории на отдельный раздел будет полезно, если вам когда-либо нужно будет переустановить OS X, можно просто отформатировать раздел с OS X, переустановить OS X, и меньше чем через час быть готовым к работе, без необходимости проводить время за бэкапом ваших персональных данных и файлов. Вся задача может быть произведена несколькими терминальными коммандами и да, это легче, ем объяснять куда тыкать в Finder и NetInfo Manager (*в котором я-таки лазил и делал все ручками*).
### Автоматический способ
В Terminal пишем, заменяя «username» на имя своего профйла, а «OtherPartition» на имя партиции, куда необходимо перенестись:
`sudo ditto -rsrcFork /Users /Volumes/OtherPartition/Users`
`sudo niutil -createprop / /users/username home \
/Volumes/OtherPartition/Users/username`
Не продолжайте, не убедившись, что новые пользовательские дирректории нормально работают!
Теперь нужно сделать log out и зайти обратно в системы. Потом использовать комманду rm -dr, чтобы удалить оригинальные пользовательские директории. Вот так:
`sudo rm -dr /Users`
Ну и, конечно же, создание symlink на нашу директорию:
`sudo ln -s /Volumes/OtherPartition/Users /Users`
### ручной способ
будем считать, что ваши данные уже скопированы на новое место
Как и было сказано, можно использовать NetInfoManager и получить те же результаты.

лежит программа в applications/utilities/ и требует пароля администратора для работы. далее просто заменяем имена переменных.
второй шаг — прописываем alias
`sudo ln -s /Volumes/OtherPartition/Users /Users`
вуаля
Источник: <http://www.bombich.com/mactips/homedir.html> [eng]
А вообще много полезных вещей можно найти на <http://www.bombich.com/mactips/>. | https://habr.com/ru/post/23547/ | null | ru | null |
# Как я сделал кастомный прерыватель Okhttp через котлиновские корутины
Начнём с постановки задачи.
1. Надо в каждом запросе в header’s отправлять токен и id юзера
2. Надо из каждого ответа вытаскивать из headers новый токен и id юзера
3. Полученные данные надо сохранять
Библиотека для серверного взаимодействия – Retrofit. За многопоточность отвечают корутины.
Задача не сложная, надо просто добавить прерыватель Okhttp client в каждый запрос. Полчаса и всё готово, всё работает, все рады. Но мне стало интересно, а нельзя ли сделать прерыватель без Okhttp клиента?
Начнём решать задачи по порядку. Если с добавлением header нет проблем (надо только в запрос добавить @HeaderMap), то как получить headers которые приходят в ответе? Очень просто, надо наш ответ обернуть в класс Response, у которого есть метод headers().
Вот такой был интерфейс запросов:
```
@FormUrlEncoded
@POST("someurl/")
suspend fun request1(@Field("idLast") idLastFeed: Long,
@Field("autoview") autoView: Boolean,
@HeaderMap headers: Map): Answer1
@FormUrlEncoded
@POST("someurl/")
suspend fun request2(@Field("ransom") ransom: Long,
@HeaderMap headers: Map): Answer2
```
А вот такой стал:
```
@FormUrlEncoded
@POST("someurl")
suspend fun request1(@Field("idLast") idLastFeed: Long,
@Field("autoview") autoView: Boolean,
@HeaderMap headers: Map?): Response
@FormUrlEncoded
@POST("someurl")
suspend fun request2(@Field("ransom") ransom: Long,
@HeaderMap headers: Map?): Response
```
Теперь для каждого запроса надо добавлять параметр headersMap. Создадим отдельный класс RestClient для оболочки запросов, чтобы постоянно в презентере не вытаскивать из sharedPreferences токен и id. Вот так получается:
```
class RestClient(private val api: Api, private val prefs: SharedPreferences) {
suspend fun request1(last: Long, autoView: Boolean): Answer1 {
return api.request1(last, autoView, headers())
}
suspend fun request2(id: Long): Answer2 {
return api.request2(id, headers())
}
private val TOKEN_KEY = "Token"
private val ID_KEY = "ID"
fun headers(): Map {
return mapOf(
TOKEN\_KEY to prefs.getString(Constants.Preferences.SP\_TOKEN\_KEY, ""),
ID\_KEY to prefs.getLong(Constants.Preferences.SP\_ID, -1).toString()
)
}
}
```
Видно, что мы делаем одно и тоже:
1. Получаем какие-то параметры для запроса.
2. Добавляем к запросу headers.
3. Вызываем метод.
4. Вытаскиваем новые значения из headers.
5. Возвращаем результат.
Почему бы нам не сделать одну функцию для всех запросов? Для этого изменим запросы. Вместо отдельных переменных с типом @Field, теперь мы будем использовать @FieldMap. Это будет первый параметр для нашей функции – перывателя. Вторым параметром у нас будет сам запрос. Здесь я использовал Kotlin DSL (мне так захотелось). Я создал класс Request, в котором сделал функцию send для вызова запроса.
Вот так выглядит интерфейс запросов:
```
@FormUrlEncoded
@POST("someurl/")
suspend fun feedListMap(@FieldMap map: HashMap?,
@HeaderMap headers: Map?): Response
@FormUrlEncoded
@POST("someurl/")
suspend fun feedListMap(@FieldMap map: HashMap?,
@HeaderMap headers: Map?): Response
```
А вот так выглядит класс Request:
```
class Request(
var fieldHashMap: java.util.HashMap = hashMapOf(),
var headersHashMap: Map? = mapOf(),
var req: suspend (HashMap?, Map?) -> Response? = { \_,\_ -> null}
){
fun send(): Response? {
return runBlocking {
try {
req.invoke(fieldHashMap, headersHashMap)
} catch (e: Exception) {
throw Exception(e.message ?: "Ошибка запроса")
} catch (t: Throwable) {
throw Exception(t.message ?: "Ошибка запроса")
}
}
}
}
```
Теперь же класс RestClient выглядит так:
```
class RestClient(private val api: Api, private val prefs: SharedPreferences) {
private val TOKEN_KEY = "Token"
private val ID_KEY = "ID"
fun headers(): Map {
return mapOf(
TOKEN\_KEY to prefs.getString(Constants.Preferences.SP\_TOKEN\_KEY, ""),
ID\_KEY to prefs.getLong(Constants.Preferences.SP\_ID, -1).toString()
)
}
fun buildRequest(request: Request.() -> Unit): T? {
val req = Request()
request(req)
val res = req.send()
val newToken = res?.headers()?.get(TOKEN\_KEY)
val newID = res?.headers()?.get(ID\_KEY)?.toLong()
if (newToken.notNull() && newID.notNull()) {
prefs.edit()
.putString(TOKEN\_KEY, newToken)
.putLong(ID\_KEY, newID)
.apply()
}
return res?.body()
}
fun fiedsMapForRequest1(last: Long, autoView: Boolean) = hashMapOf("idLast" to last, "autoview" to autoView)
fun fiedsMapForRequest2(ransom: Long, autoView: Boolean) = hashMapOf("ransom" to ransom)
}
```
И, наконец, вот так мы в презентере вызываем наши запросы:
```
try {
val answer1 = restClient.buildRequest {
fieldHashMap = restClient.fiedsMapForRequest1(1, false)
headersHashMap = restClient.headers()
req = api::request1
}
val answer2 = restClient.buildRequest {
fieldHashMap = restClient.fiedsMapForRequest2(1234)
headersHashMap = restClient.headers()
req = api::request2
}
// do something with answer
} catch (e: Exception) {
viewState.showError(e.message.toString())
} finally {
viewState.hideProgress()
}
```
Вот такой я сделал с помощью котлина кастомный прерыватель.
P.S. Решение этой задачи было очень увлекательно, но, к сожалению, в проекте используется Okhttp прерыватель. | https://habr.com/ru/post/465781/ | null | ru | null |
# Коротко об архитектуре компонента Symfony Config

Компонент Symfony 2 Config предназначен для работы с конфигурационными файлами и предоставляет следующие возможности:
* Поддержка древовидной структуры конфигурации
* Абстракция составных частей конфигурации, из которых производится ее загрузка (ресурсы, загрузчики ресурсов и т.д.)
* Поддержка произвольного количества составных частей конфигурации и некоторых правил по сборке и объединению
* Кеширование прочитанной конфигурации и автоматическая ее пересборка при изменении одного из исходных файлов
* Валидация конфигурации по различным правилам и подробная информация об ошибках парсинга
[Официальная документация](http://symfony.com/doc/current/components/config/index.html) по этому компоненту содержит подробную информацию по его использованию. А мы давайте посмотрим на то, как устроен этот компонент внутри.
Определение структуры конфигурации
==================================
### Типы ключей конфигурации
Вот так выглядит диаграмма классов, которые описывают структуру конфигурации.

Назначение практически всех классов понятно из их названия. Отмечу только, что для построения дерева конфигурации используется нода [`ArrayNode`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/ArrayNode.php). Если требуется, чтобы внутри [`ArrayNode`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/ArrayNode.php) размещались не просто предпоределенные ноды, а несколько других [`ArrayNode`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/ArrayNode.php), но с четко одинаковой предопределенной внутренней структурой, можно использовать [`PrototypedArrayNode`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/PrototypedArrayNode.php).
Для построения описания конфигурации используется класс [`Symfony\Component\Config\Definition\Builder\TreeBuilder`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Builder/TreeBuilder.php) примерно вот таким способом:
```
php
use Symfony\Component\Config\Definition\Builder\TreeBuilder;
use Symfony\Component\Config\Definition\ConfigurationInterface;
class Configuration implements ConfigurationInterface
{
public function getConfigTreeBuilder()
{
$treeBuilder = new TreeBuilder();
$rootNode = $treeBuilder-root('acme_demo');
$rootNode
->children()
->arrayNode('entities')
->addDefaultsIfNotSet()
->prototype('scalar')->end()
->defaultValue(
array(
'Acme\BaseBundle\Entity\DefaultEntity1',
'Acme\BaseBundle\Entity\DefaultEntity2',
)
)
->end();
return $rootNode;
}
}
```
Структуру конфигурации не обязательно объявлять всю целиком в одном месте. Можно сделать это частями, а затем объединить части при помощи метода `append` у [`NodeBuilder`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Builder/NodeBuilder.php).
### Нормализация
Нормализацией называется приведение имен ключей нод и их значений, если потребуется, к каноническому виду. Фактически, сейчас нормализация используется только для того, чтобы привести ноды, описанные в xml в виде
```
Значение потомка
```
к виду
```
"children" => Array(
[0] => "Значение потомка"
)
```
Для нормализации нод вызывается метод `normalize()` из [`Symfony\Component\Config\Definition\NodeInterface`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/NodeInterface.php). А кроме того, у [`Symfony\Component\Config\Definition\BaseNode`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/BaseNode.php) есть еще метод `preNormalize`. Последний используется для приведения к общему виду ключей типа `foo_bar` и `foo-bar`.
### Финализация
Процесс финализации ноды выполняет действия, по подготовке ноды к чтению внутри конфигурации и проверки на соответствие заявленому типу и его правилам. Финализация выполянется методом `finalizeValue` потомков [`BaseNode`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/BaseNode.php)
Валидация данных выполняется как с помощью предопределенных методов [`NodeDefinition`](https://github.com/symfony/symfony/blob/master/src/Symfony/Component/Config/Definition/Builder/NodeDefinition.php) и его потомков вроде `isRequired`, так и с помощью расширенной валидации, делегированной классу [`Symfony\Component\Config\Definition\Builder\ValidationBuilder`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Builder/ValidationBuilder.php).
Правила объединения данных из нескольких частей содержатся в классе [`Symfony\Component\Config\Definition\Builder\MergeBuilder`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Builder/MergeBuilder.php). Делегирование ему проверок выполняется методом merge() класса [`NodeDefinition`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Builder/NodeDefinition.php). Например, можно запретить переопределять значение выбранного ключа конфигурации другими конфигурационными файлами после того, как он был прочитан в первый раз.
Сам процесс валидации / нормализации / финализации конфигурации выглядит так:
```
$configs = array($config1, $config2); //Загруженные любым способом части конфигурации
$processor = new Processor(); // Процессор конфигурации
$configuration = new Configuration(); // Класс Configuration c правилами проверки (см. выше).
$processedConfiguration = $processor->processConfiguration(
$configuration,
$configs
);
```
### Билдер
Как нетрудно заметить, для самого процесса построения описания конфигурации [`TreeBuilder`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Builder/TreeBuilder.php) использует экземпляр класса [`Symfony\Component\Config\Definition\Builder\NodeBuilder`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Builder/NodeBuilder.php). Поэтому вы вполне можете определять свои типы нод для конфигурации. Для этого необходимо создать свой вариант реализации [`NodeInterface`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/NodeInterface.php) и своего потомка [`\Symfony\Component\Config\Definition\Builder\NodeDefinition`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Builder/NodeDefinition.php). После чего просто вызвать метод `setNodeClass` у [`NodeBuilder`](https://github.com/symfony/symfony/blob/master/src/Symfony/Component/Config/Definition/Builder/NodeBuilder.php).
Во всех подробностях процесс определения структуры конфигурации описан [тут](http://symfony.com/doc/current/components/config/definition.html).
### Дампер
После того, как структура конфигурации построена, ее можно сдампить с помощью различных дамперов из пространства имен [`Symfony\Component\Config\Definition\Dumper`](https://github.com/symfony/symfony/tree/2.8/src/Symfony/Component/Config/Definition/Dumper). Сейчас там есть два варианта: [`YamlReferenceDumper`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Dumper/YamlReferenceDumper.php) и [`XmlReferenceDumper`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Definition/Dumper/XmlReferenceDumper.php). Эти дамперы используются, например, когда вы вызываете с консоли `./bin/symfony config:dump-reference` (см. [`Symfony\Bundle\FrameworkBundle\Command\ConfigDumpReferenceCommand`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Bundle/FrameworkBundle/Command/ConfigDumpReferenceCommand.php))
Загрузка конфигурации
=====================
### Ресурсы и загрузчики
* Части конфигурации в Symfony описываются ресурсами ([`Symfony\Component\Config\Resource\ResourceInterface`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Resource/ResourceInterface.php)). Понятие ресурса достаточно абстрактно. Им может быть как файл, так и любой другой источник данных. Например, таблица БД или поле в ней.
* Мониторинг ресурсов на наличие изменений в них ведут инспекторы ресурсов ([`Symfony\Component\Config\ResourceCheckerInterface`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/ResourceCheckerInterface.php)).
* Загрузку конфигурации из ресурсов выполняют загрузчики ([`Symfony\Component\Config\Loader\LoaderInterface`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Loader/LoaderInterface.php)).
* Поиск подходящего загрузчика для ресурса выполняют ресолверы ([`Symfony\Component\Config\Loader\LoaderResolverInterface`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Loader/LoaderResolverInterface.php)).
* [`Symfony\Component\Config\Loader\DelegatingLoader`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/Loader/DelegatingLoader.php) позволяет загрузить ресурс, автоматически найдя необходимый загрузчик, перебирая массив переданных ресолверов.
* Размещать конфигурационные файлы можно в различных папках. Поиск файлов в них можно вести с помощью [`Symfony\Component\Config\FileLocator`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/FileLocator.php)
Нужно сказать, что сам компонент Config не содержит конкретных реализаций загрузчиков. Он лишь предоставляет необходимые интерфейсы для их реализации. Причем способ загрузки и целевой контейнер для загруженных данных тоже не регламентирован. Если посмотреть на реализацию [`Symfony\Component\DependencyInjection\Loader\YamlFileLoader`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/DependencyInjection/Loader/YamlFileLoader.php), то видно, что конфигурация загружается прямо в контейнер.
### Кеширование конфигурации
Symfony Config позволяет кешировать загруженную конфигурацию с помощью класса [`Symfony\Component\Config\ConfigCache`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/ConfigCache.php):
```
php
use Symfony\Component\Config\ConfigCache;
use Symfony\Component\Config\Resource\FileResource;
$cachePath = __DIR__.'/cache/appSomeCacheFile.php';
// Режим отладки определяет, будут ли проверяться на изменения ресурсы, из которых строился кеш
$cacheFile = new ConfigCache($cachePath, true);
if (!$cacheFile-isFresh()) {
$configFiles = []; // Здесь имена файлов, из которых состоит конфигурация
$resources = array();
foreach ($configFiles as $cfgFile) {
// Здесь загружаем конфигурацию
// .....
// И добавляем ресурс в массив
$resources[] = new FileResource($cfgFile);
}
$code = '...'; //Здесь строим кэш из загруженных данных
//Пишем кеш. Рядом с файлом кеша запишется файл с метаданными со списком исходных ресурсов
$cacheFile->write($code, $resources);
}
// Подключаем файл кеша
require $cachePath;
```
Можно инкапсулировать алгоритм перестройки кеша, например, в класс, а затем воспользоваться [`Symfony\Component\Config\ConfigCacheFactory`](https://github.com/symfony/symfony/blob/2.8/src/Symfony/Component/Config/ConfigCacheFactory.php) вместо `ConfigCache` для дальнейшей работы. `ConfigCacheFactory` принимает в конструкторе `callable`, который будет перестраивать кеш.
Пример использования компонента
===============================
Компонент Symfony Config вполне можно использовать и без фреймворка. В качестве примера приведу небольшой кусочек кода, написанный уважаемым [magickatt](https://gist.github.com/magickatt/bb7108d276bce430cf35#file-gistfile1-php):
```
php
// Загружаем специфичную для приложения конфигурацию
try {
$basepath = __DIR__ . '/config';
$configuration = Yaml::parse($basepath . '/config.yml');
} catch (\InvalidArgumentException $exception) {
exit("Кажется, конфигурационный файл отсутствует");
}
// Используем ConfigurationInterface для работы с *.yml форматом
$yamlConfiguration = new \Configuration();
// Обрабатываем конфигурационные файлы (объединяем один или больше файлов *.yml)
$processor = new Processor();
$configuration = $processor-processConfiguration(
$yamlConfiguration,
array($configuration) // Здесь может быть любое количество *.yml файлов
);
use Symfony\Component\Config\Definition\ConfigurationInterface;
use Symfony\Component\Config\Definition\Builder\TreeBuilder;
class Configuration
{
/**
* @return TreeBuilder
*/
public function getConfigTreeBuilder()
{
$treeBuilder = new TreeBuilder();
$rootNode = $treeBuilder->root('arbitary');
$rootNode->children()
->scalarNode('host')
->isRequired()
->cannotBeEmpty()
->end()
->scalarNode('username')
->isRequired()
->cannotBeEmpty()
->end()
->scalarNode('password')
->isRequired()
->cannotBeEmpty()
->end()
->booleanNode('bindRequiresDn')
->defaultTrue()
->end();
return $treeBuilder;
}
}
``` | https://habr.com/ru/post/271417/ | null | ru | null |
# Что нового в .NET 6?
На момент написания этих строк вышло уже семь превью-версий .NET 6. Дальше — только релиз-кандидаты. Все основные фичи уже добавлены во фреймворк, идёт отладка, тестирование и оптимизация. Ожидать чего-то кардинально нового в RC-версиях, пожалуй, уже не стоит. Пришла пора рассмотреть .NET 6 поближе.
Пресс-релиз для каждой версии содержит огромное количество восхвалений и убеждений в том, что теперь-то всем станет ещё лучше, и как мы вообще жили раньше — уму непостижимо. Где-то авторы не врут, где-то не договаривают, где-то преувеличивают. Пришлось тщательно прочитать все семь пресс-релизов, изучить массу смежных материалов и просмотреть огромное количество тикетов на Гитхабе. Всё для того, чтобы понять, чем они там занимаются и что выкатывают нам посмотреть.
Поговорим об этом.
Производительность
------------------
Разработчики .NET всегда делали упор на производительность. С одной стороны, в язык и фреймворк постоянно добавляются новый функционал — [`ref struct`](https://docs.microsoft.com/ru-ru/dotnet/csharp/language-reference/builtin-types/struct#ref-struct), [`stackalloc`](https://docs.microsoft.com/ru-ru/dotnet/csharp/language-reference/operators/stackalloc), [`System.Span`](https://docs.microsoft.com/dotnet/api/system.span-1) и всё такое прочее. С другой стороны, с каждой новой версией .NET добавляются новые оптимизации — [многопроходная (tiered) компиляция](https://devblogs.microsoft.com/dotnet/tiered-compilation-preview-in-net-core-2-1/), [компиляция в нативный код](https://docs.microsoft.com/ru-ru/windows/uwp/dotnet-native/) и, разумеется, огромное количество оптимизаций, которые делает JIT-компилятор. Грамотное использование этих средств даёт свой эффект, который хорошо видно в реальных боевых условиях на графиках производительности.
В NET 6 представлены три инструмента, которые дают ещё большие возможности для повышения эффективности. Причём, не только для самих приложений, работающих в продакшне, но и для разработчиков. Речь идёт о прокачаной предварительной компиляции (через утилиту Crossgen2), оптимизации на основе профилирования (PGO) и горячей перезагрузке приложений во время отладки.
> Строго говоря, некоторые из представленных инструментов — это кардинальная переработка уже существующих. Но эта переработка открывает массу новых интересных возможностей.
### Предварительная компиляция
Как известно, преимущества JIT-компиляции имеют свою цену. В частности, повышенное время «прогрева» приложения во время старта, поскольку JIT-компилятору требуется перемолоть разом слишком много IL-кода. Эту проблему уже пытались решить компиляцией приложений сразу в нативный код, такая технология уже есть и называется [Ready To Run](https://docs.microsoft.com/dotnet/core/deploying/ready-to-run). Но в новой версии фреймворка её значительно переработали.
> Справка: предварительной компиляцией в этой статье называется аббревиатура AOT (Ahead Of Time), используемая в англоязычных источниках.
Старая технология предварительной компиляции была слишком примитивна и позволяла только генерировать нативный код для той платформы, на которой была запущена старая утилита crossgen. Разработчики полностью переписали её с нуля на управляемом коде и назвали Crossgen2. Теперь она предоставляет новые возможности: авторы делают упор на оптимизации, а также использование различных стратегий компиляции для разных платформ (Windows/Linux/macOS/x64/Arm). Всё это достигается новой архитектурой утилиты.
Вкратце это работает так: Crossgen2 разбирает IL-код, составляя некий граф приложения. Затем он запускет внутри себя JIT-компилятор для необходимой платформы, а этот компилятор, анализируя составленный граф, уже создаёт нативный код, применяя при необходимости различные оптимизации. Другими словами, утилита Crossgen2 может быть запущена на платформе x64, но она сгенерирует нативный и даже оптимизтированный код для Arm64. И, разумеется, наоборот это тоже работает.
В настоящий момент код .NET SDK скомпилирован уже с помощью Crossgen2, а старая утилита crossgen отправлена на пенсию.
### Оптимизация на основе профилирования
Ещё одна новая старая фишка в .NET 6 — это Profile-Guided Optimization (PGO). Ни для кого не секрет, что обычно в приложении никогда не исполняется вообще весь написанный код. Какой-то код работает чаще других, какой-то вызывается в крайне редких случаях, а какой-то вообще никогда. Но компилятор обычно ничего об этом не знает, а лучше бы знал. Чтобы научить этому компилятор используется PGO-оптимизация. Её смысл заключается в том, что приложение просто прогоняется на разных стандартных кейсах, а заодно профилируется. Итоги профилирования анализируются компилятором, и он начинает распознавать самые часто используемые места кода, уделяя им особое внимание и оптимизируя их более тщательно.
Такое обучение компилятора похоже на обучение нейронной сети. К слову, в некоторых других распространённых языках программирования технология PGO реализована уже давно, но в .NET до этого добрались только сейчас. Эта тема довольно замороченная, и ребята занялись ей очень серьёзно, реализовав несколько различных подходов к компиляции итогового нативного кода.
Один из подходов — разделение на часто и редко используемый код (hot-cold splitting). Те части кода, которые используются наиболее часто (hot code), группируются и помещаются рядом в итоговом бинарнике. Если сильно повезёт, то такой сгруппированный код полностью поместится в кеш процессора, и вызовы различных часто используемых методов будут практически бесплатными и очень быстрыми. Напротив, некий крайне редко используемый код (very cold code) может вообще не быть скомпилирован в нативный. Например, `else`-ветки, в которых просто выбрасывается исключение. Такой код остаётся в виде IL-кода и будет скомпилирован в нативный уже после запуска приложения и только в том случае, если это будет необходимо. Такое разделение позволяет не только добиться более высокой производительности при старте, но и генерировать бинарники меньшего размера.
Другой подход — динамическая PGO. То есть, все этапы предварительного обучения JIT-компилятора пропускаются, а вместо этого он внимательно смотрит на то, как приложение работает в реальной среде и при необходимости заново компилирует какой-либо участок кода в более оптимальный. Если вы помните, то подобная технология уже существует — это многопроходная (tiered) компиляция (упоминается в начале статьи). Но разработчики JIT-компилятора просто серьёзно её прокачали.
Третий подход — сочетание динамического и статического профилирования для генерации нативного кода. Обе эти техники реализуются одновременно, и итоговый бинарник может частично содержать нативный код для быстрого запуска, который затем может быть оптимизирован ещё больше. В качестве примера приводится ситуация, когда некий интерфейс в программе реализован только в одном классе. В этом случае JIT-компилятор может девиртуализировать вызовы методов интерфейса и сгенерировать код для прямых вызовов методов класса, а также допустить встраивание этих методов прямо в код (inlining), если это будет необходимо.
Техника PGO работает в тесной связке с утилитой Crossgen2 и позволяет генерировать оптимизированный нативный код, а также экономить на размере итоговых бинарников. Но нужно отдавать себе отчёт в том, что статическая PGO — это довольно сложно для обычного разработчика. Ведь ему придётся заниматься многократным профилированием своего кода, результаты которого (а это очень много информации) нужно будет специальным образом подавать на вход при компиляции через Crossgen2. И хорошо, если результаты профилирования в тестовой среде будут пригодны и для продуктивной среды — тогда итоговый профит получить можно. Скажем, приложение будет гораздо быстрее запускаться и прогреваться. Это важный фактор, но надо помнить, что цена такой оптимизации — ресурсы, затраченные на предварительное профилирование, которое должно быть проведено очень аккуратно. Если при прогоне приложения на тестовой среде вы сделаете упор на редкие кейсы (например, тестировщики будут прогонять только негативные сценарии, пытаясь всё сломать), то данные профилирования у вас будут сильно отличаться от боевых. А значит, в итоговом бинарнике у вас предкомпилированным и оптимизированным может оказаться вообще не тот код.
Но, слава богу, есть ещё динамическая PGO, которая не требует предварительных ресурсозатрат и может повышать производительность вашего приложения прямо на лету, причём, делать это более эффективно, чем уже реализовано в существующей многопроходной компиляции. Правда, как вы понимаете, каждый новый рестарт приложения — это всякий раз оптимизация заново.
В общем, выбор у вас есть. Делайте его по ситуации.
### Горячая перезагрузка приложений
Эта новая возможность действительно впечатляет. Любому разработчику хочется при отладке быстро пофиксить какой-то мелкий кусок кода без последующей перезагрузки приложения и прохождения заново всего пути к месту отладки. Такая возможность была и раньше, но в очень сильно упрощённом варианте и только в мощной IDE, вроде Visual Studio. Теперь же её прокачали настолько, что она реально позволит сэкономить уйму времени, избавившись от постоянных действий остановка-правка-ребилд-деплой-запуск-достижение точки отладки, причём, в любой IDE, даже в VS Code.
Это работает ещё интереснее, чем вы можете себе представить. Не нужно устанавливать брейкпойнт или ставить приложение на паузу во время отладки. Достаточно просто внести изменения в код и применить их прямо к работающему приложению. В последних билдах Visual Studio это поддерживается легко и просто:

Но даже если вы пользуетесь не студией, а VS Code, то вы не будете ущемлены. Вам нужно просто запустить ваш проект с помощью новой команды `dotnet watch`. После этого любые изменения в исходных файлах будут автоматически обнаружены, скомпилированы и подгружены в работающее приложение без каких-либо телодвижений с вашей стороны. Вы увидите изменения без его перезагрузки. Проще некуда, и это работает.
> Совет: при использовании горячей перезагрузки лучше выключить автосохранение файлов при редактировании. Иначе вы можете случайно автосохранить неработающий код, который не сможет быть скомпилирован. Горячая перезагрузка при этом не перестанет работать, но будет ждать новых изменений файлов, а в это время ваше запущенное приложение уже будет поставлено на паузу.
В случаях посерьёзнее (например, при отладке приложений ASP.NET) вам придётся добавить настройку в `launchSettings.json`, разрешающую горячую перезагрузку, что вряд ли станет большой проблемой.
Ложкой дёгтя во всём этом является тот факт, что не всякое изменение можно применить с помощью горячей перезагрузки. Полный список тех действий, которые можно и нельзя перезагрузить по-горячему, можно увидеть [здесь](https://github.com/dotnet/roslyn/blob/main/docs/wiki/EnC-Supported-Edits.md).
Ах, да: в F# горячая перезагрузка не поддерживается в принципе. Может, когда-нибудь позже. Просто попросите разработчиков об этом.
Более подробно о горячей перезагрузке написано в [переводе на Хабре](https://habr.com/ru/company/otus/blog/569094/).
### Прочие производительные плюшки
Кроме упомянутых трёх очень важных нововведений в обычном цикле разработки удалось найти массу других мест для оптимизации, ускорив тем самым процесс билда и запуска приложений: ликвидировали причины оверхедов, оптимизировали MSBuild, перевели Razor-компилятор на Roslyn source generator и даже позаботились о том, чтобы пореже трогать файлы и зря беспокоить антивирусное ПО.
В общем, производительность труда разработчиков должна вырасти. По крайней мере, на это намекает диаграмма снижения времени билдов.

Поддержка ОC и платформ
-----------------------
.NET 6 будет поддерживать ещё больше операционок и платформ. Полный список доступен по [этой ссылке](https://github.com/dotnet/core/blob/main/release-notes/6.0/supported-os.md). Большое внимание уделяется платформе Arm64 в целом: улучшена поддержка Windows Arm64 и добавлена поддержка Arm64-чипов Apple. Что касается последних, то, как известно, эти чипы умеют работать как в нативном режиме, так и в режиме эмуляции x64. .NET 6 будет поддерживать оба режима и будет уметь создавать как обычный x64, так и нативный для Arm64 код. Для разработки под macOS теперь будут два типа проектов: `net6.0-macos` для x64 и `net6.0-maccatalyst` для Arm64 архитектур.
Полный список новых Target Framework'ов теперь выглядит так:
* `net6.0`
* `net6.0-android`
* `net6.0-ios`
* `net6.0-maccatalyst`
* `net6.0-macos`
* `net6.0-tvos`
* `net6.0-windows`
Однако, с программированием для Apple-устройств есть один нюанс: существует требование, которые предъявляется к приложениям, публикуемым в App Store. Если разработчик приложения хочет, чтобы приложение запускалось как на x64, так и на Arm64 архитектурах, то оно должно быть скомпилировано как [Universal Binaries](https://developer.apple.com/documentation/apple-silicon/building-a-universal-macos-binary). Вот с этим требованием пока всё плохо: оно просто не поддерживается в .NET 6. В следующей версии .NET 7 разработчики посмотрят, что можно сделать. Впрочем, это не самое критичное требование, пока можно прожить и без него.
В общем, теперь можно брать новые Макбуки.
Также .NET 6 теперь существует для нескольких новых Linux-дистрибутивов: Alpine 3.13, Debian 11 и Ubuntu 20.04 — соответствующие docker-образы создаются с первого превью .NET 6.
Унификация, поглощение Xamarin, "optional workloads" и MAUI
-----------------------------------------------------------
Ещё пару лет назад разработчики .NET [объявили](https://devblogs.microsoft.com/dotnet/introducing-net-5/), что собираются объединить в одном .NET-флаконе разработку для всего сразу. Ну, то есть, ничего не будет, а будет ~~одно сплошное телевидение~~ один фреймворк для всего, что только есть на свете — и для мобильной, и для серверной, и для веб-разработки, и для IoT, и для… не знаю, что там ещё появится в будущем. И они назвали это .NET 5, перескочив, во-первых, через версию, чтобы не было путаницы с классическим .NET Framework 4.x, а во-вторых, объединив классический фреймворк с Core, к чему стремились с самого начала, просто осторожно шли окольными путями.
В качестве профита от такого объединения упоминались две ключевые фишки:
* вы пишете на одном языке с использованием одного API;
* вы не используете то, что вам не надо: новый фреймворк достаточно раздробленный, и вам не нужно устанавливать кучу ненужных библиотек.
> Люди, знающие .NET, когда он ещё пешком под стол ходил, в этом месте начинали припоминать, что примерно такие же обещания раздавались налево и направо двадцать лет назад (а потом повторялись с появлением Silverlight и UWP). Классический фреймворк, вроде как, преследовал эти же самые цели, но только был неделимым, как атом, монолитом, заточенным под одну ОС. Однако, мир менялся быстрее и не в ту сторону. Но в MS вовремя опомнились и умудрились запрыгнуть в уходящий поезд, выпустив первую версию Core, да ещё и выведя разработку в Open Source.
>
>
>
> Сейчас .NET далеко не в последнем вагоне этого поезда, и, похоже, тотальная унификация действительно не за горами.
Так вот. Пятую версию .NET выпустили, но унификация продолжается: добрались до Xamarin и ~~поглотили его~~ подружили его с .NET 6. Речь идёт, конечно же, о разработке под Android, iOS и macOS. Вообще, вы теперь и без Xamarin имеете возможность набрать команду `dotnet new android` и начать разрабатывать под Андроид. А запускать разработанное вы будете командой `dotnet run`. Но я попробовал — это не работает. Такого шаблона проекта даже нет в последней превью-версии .NET 6. Это потому, что соответствующие библиотеки для разработки под Андроид (а также iOS и macOS) — ну, то есть, то, что раньше было частью Xamarin — не являются частью стандартного .NET SDK. Их нужно скачивать отдельно. В первую очередь, это объясняется тем, что не хочется снова создать огромный монолит. В общем, всё постороннее, что пришло вместе с Xamarin, вынесено в "Optional SDK Workloads" — некие дополнительные части фреймворка, не входящие в стандартный SDK. Иначе размер SDK станет неприличным, а сам он начнёт противоречить одной из заявленных целей: не устанавливать кучу ненужного.
Вот этот вот новый "Optional SDK Workloads" теперь является частью .NET 6 и будет продолжать развиваться в .NET 7. Таким образом происходит слияние Xamarin с .NET. Но Xamarin в данном случае не только что-то отдаёт, но и получает взамен: разработка теперь будет вестись с использованием единой BCL, в едином стиле и с едиными подходами, а также можно будет использовать единую систему всех .NET-утилит, начиная с уже упомянутой `dotnet new android`. Разумеется, делается акцент и на сокращённом времени билда, уменьшении размеров итогового приложения, а таже улучшенной производительности.
Это ещё не всё, что происходит с Xamarin. Анонсировали новый .NET Multiplatform App UI (MAUI) — «эволюция» Xamarin Forms. С этого момента, думаю, про название "Xamarin Forms" можно уже начать забывать. Отныне вся кроссплатформенная UI-разработка будет называться MAUI. Разумеется, по своей сути MAUI — это мультиплатформенная абстракция над различными UI, родными для каждой конкретной платформы. На MAUI можно разработать интерфейсы, которые будут работать и на Blazor, и на мобильных платформах и даже в десктопных приложениях.
> Также, скорее всего, можно начать забывать и про Mono, и про сам Xamarin. В шестой версии .NET они пока ещё живы как самостоятельные продукты, но есть подозрение, что седьмая поглотит их окончательно.
>
>
>
> А пока разработчики на Xamarin получают возможность полноценно использовать родной .NET 6.0 SDK для кроссплатформенной мобильной разработки.
Как же теперь с этим всем работать, если не получается выполнить команду `dotnet new android`? Ну, утилиту `dotnet`, вообще-то, доработали: для работы с "optional SDK workloads" теперь есть команда `dotnet workload`. Интересно, что она *пока* не выводится как доступная при вызове `dotnet --help`, но пользоваться уже можно:
```
>dotnet workload search android
Workload ID Description
----------------------------------------------------------------
microsoft-android-sdk-full Android SDK
maui-android .NET MAUI SDK for Android
microsoft-net-runtime-android Android Mono Runtime
microsoft-net-runtime-android-aot Android Mono AOT Workload
```
Никто не мешает вам уже сейчас загрузить нужный дополнительный SDK и попробовать написать небольшой "Hello World" для вашей мобилки. И даже, наверное, без установки Xamarin. Самое приятное: обещают, что можно будет работать с этим в VS Code, не надо будет ставить могучую и неповоротливую полноценную Студию. Желающие могут это сделать прямо сейчас, скачав готовые примеры из [репозитория](https://github.com/dotnet/maui-samples).

Ждём в .NET-разработку притока мобильщиков?
> Опытные разработчики под iOS с интересом ждут выхода релиза .NET 6 и хотят посмотреть как будет выглядеть .NET-разработка под iOS *без* Apple-устройств и Xcode. Обещается, что с машин на Windows можно будет подключаться к устройствам Apple для отладки приложения в симуляторах. Посмотрим.
Blazor на десктопе
------------------
Оказывается, Blazor стал достаточно популярным (по заверениям разработчиков .NET), причём, настолько, что было решено сделать десктоп-версию Blazor-приложений. Модель разработки это позволяет.
В общем, теперь вы можете написать Blazor-приложение, которое запустится не только в браузере как WebAssembly, но и на Windows и macOS как нативное десктопное.
Улучшения в `System.Text.Json`
------------------------------
Вот и добрались до изменений в SDK. А их достаточно много, очень сложно пройти мимо. Начнём с `System.Text.Json` — эту библиотеку очень сильно прокачали.
> Все примеры далее взяты из официальных пресс-релизов команды разработки .NET.
### Игнор цикличных ссылок
В сериализатор добавили опцию игнорирования цикличных ссылок.
```
class Node
{
public string Description { get; set; }
public object Next { get; set; }
}
void Test()
{
var node = new Node { Description = "Node 1" };
node.Next = node;
var opts = new JsonSerializerOptions { ReferenceHandler = ReferenceHandler.IgnoreCycles };
string json = JsonSerializer.Serialize(node, opts);
Console.WriteLine(json); // Prints {"Description":"Node 1","Next":null}
}
```
Обратите внимание на то, что сериализатор заменяет ссылку на `null`, а не игнорирует свойство полностью.
> Если честно, то сложно представить себе ситуацию, продемонстрированную в примере. Но будем иметь в виду.
### Поддержка `IAsyncEnumerable`
Сериализатор `System.Text.Json` теперь поддерживает `IAsyncEnumerable`-объекты. При сериализации он их превращает в массивы:
```
using System;
using System.Collections.Generic;
using System.IO;
using System.Text.Json;
static async IAsyncEnumerable PrintNumbers(int n)
{
for (int i = 0; i < n; i++) yield return i;
}
using Stream stream = Console.OpenStandardOutput();
var data = new { Data = PrintNumbers(3) };
await JsonSerializer.SerializeAsync(stream, data); // prints {"Data":[0,1,2]}
```
Для десериализации JSON-документов, которые представляют собой просто массив на корневом уровне, добавили новый удобный метод `JsonSerializer.DeserializeAsyncEnumerable`:
```
using System;
using System.IO;
using System.Text;
using System.Text.Json;
var stream = new MemoryStream(Encoding.UTF8.GetBytes("[0,1,2,3,4]"));
await foreach (int item in JsonSerializer.DeserializeAsyncEnumerable(stream))
{
Console.WriteLine(item);
}
```
### JSON DOM
Самое интересное нововведение — это возможность работать с JSON-документом как с DOM. Эта особенность довольно полезна, поскольку часто просто не хочется плодить POCO-объекты для простых операций. Вот пример того, как это теперь работает:
```
// Parse a JSON object
JsonNode jNode = JsonNode.Parse("{"MyProperty":42}");
int value = (int)jNode["MyProperty"];
Debug.Assert(value == 42);
// or
value = jNode["MyProperty"].GetValue();
Debug.Assert(value == 42);
// Parse a JSON array
jNode = JsonNode.Parse("[10,11,12]");
value = (int)jNode[1];
Debug.Assert(value == 11);
// or
value = jNode[1].GetValue();
Debug.Assert(value == 11);
// Create a new JsonObject using object initializers and array params
var jObject = new JsonObject
{
["MyChildObject"] = new JsonObject
{
["MyProperty"] = "Hello",
["MyArray"] = new JsonArray(10, 11, 12)
}
};
// Obtain the JSON from the new JsonObject
string json = jObject.ToJsonString();
Console.WriteLine(json); // {"MyChildObject":{"MyProperty":"Hello","MyArray":[10,11,12]}}
// Indexers for property names and array elements are supported and can be chained
Debug.Assert(jObject["MyChildObject"]["MyArray"][1].GetValue() == 11);
```
До сих пор в подобных случаях нужно было пользоваться классами `Utf8JsonWriter`/`Utf8JsonReader`, но DOM-подход тоже неплох.
> Надо отдавать себе отчёт в том, что DOM-подход к работе с JSON неизбежно ведёт к падению производительности и перерасходу ресурсов. Разработчики утверждают, что это не так, и что Writable DOM Feature на самом деле высокопроизводительна, но нас легко рассудят бенчмарки, которые обязательно кем-нибудь будут сделаны в ближайшем будущем.
### Поддержка source generators для сериализации
В плане перерасхода ресурсов от DOM-модели не сильно отстаёт обычная сериализация и десериализация. Она основана на рефлексии, а это заведомо медленно. Поэтому там, где реально нужна производительность, всегда лучше было работать с `...Writer` и `...Reader` классами (это правило касается не только работы с JSON, но также и с XML). Такая работа занимает больше времени, но окупается максимальной производительностью на продакшне.
Однако разработчики .NET 6 и тут придумали обходной манёвр для облегчения жизни разработчиков: source generators. Эту новую технологию завезли в `System.Text.Json`, и она решает все основные проблемы, связанные с низкой производительностью обычных сериализаторов: уменьшает время старта приложения и количество используемой памяти, увеличивает скорость работы, не использует рефлексию. Что же тогда используется взамен, если не рефлексия? Именно тот самый класс `Utf8JsonWriter`, через который и происходит работа с JSON.
Выглядит такая техника точно так же, как и при любой другой работе с source generators. Сначала вы создаёте тип для сериализации/десериализации:
```
namespace Test
{
internal class JsonMessage
{
public string Message { get; set; }
}
}
```
Как видите, он слишком простой, но для иллюстрации работы этого достаточно. Затем вы создаёте `partial`-класс и сопровождаете его соответствующим атрибутом:
```
using System.Text.Json.Serialization;
namespace Test
{
[JsonSerializable(typeof(JsonMessage)]
internal partial class JsonContext : JsonSerializerContext
{
}
}
```
После этого на этапе компиляции ваш частичный класс будет расширен несколькими методами и свойствами:
```
internal partial class JsonContext : JsonSerializerContext
{
public static JsonContext Default { get; }
public JsonTypeInfo JsonMessage { get; }
public JsonContext(JsonSerializerOptions options) { }
public override JsonTypeInfo GetTypeInfo(Type type) => ...;
}
```
Через одно из этих свойств — `JsonMessage` вы получите доступ к сгенерированному сериализатору, работа с которым будет выглядеть как-то так:
```
using MemoryStream ms = new();
using Utf8JsonWriter writer = new(ms);
JsonContext.Default.JsonMessage.Serialize(writer, new JsonMessage { "Hello, world!" });
writer.Flush();
// Writer contains:
// {"Message":"Hello, world!"}
```
Стандартный сериализатор также прокачан и может принимать на вход сгенерированный с помощью source generator код:
```
// Способ 1
JsonSerializer.Serialize(jsonMessage, JsonContext.Default.JsonMessage);
// Способ 2
JsonSerializer.Serialize(jsonMessage, typeof(JsonMessage), JsonContext.Default);
```
Второй способ будет работать чуть-чуть медленнее, но всё равно такая сериализация через генерацию кода будет работать куда быстрее, чем старая сериализация через рефлексию.
Разумеется, сериализация через генерацию кода поддерживает не только примитивные типы, но и объекты (в том числе, вложенные), коллекции и всё остальное.
К сожалению, десериализация через source generators *пока* не поддерживается. Единственное, что разработчики добавили, — это поддержку в стандартном десериализаторе сгенерированных типов:
```
// Способ 1
JsonSerializer.Deserialize(json, JsonContext.Default.JsonMessage);
// Способ 2
JsonSerializer.Deserialize(json, typeof(JsonMessage), JsonContext.Default);
```
Но даже в этом случае никаких `Utf8JsonReader` не будет. Только рефлексия, только хардкор.
### Поддержка нотификаций при (де)сериализации
В специальный неймспейс `System.Text.Json.Serialization` добавили четыре интерфейса: `IJsonOnDeserialized`, `IJsonOnDeserializing`, `IJsonOnSerialized` и `IJsonOnSerializing`. Они нужны для вызова методов в процессе (де)сериализации. Как правило, в целях валидации:
```
public class Person : IJsonOnDeserialized, IJsonOnSerializing
{
public string FirstName{ get; set; }
void IJsonOnDeserialized.OnDeserialized() => Validate(); // Call after deserialization
void IJsonOnSerializing.OnSerializing() => Validate(); // Call before serialization
private void Validate()
{
if (FirstName is null)
{
throw new InvalidOperationException("The 'FirstName' property cannot be 'null'.");
}
}
}
```
Но вы можете придумать и какое-нибудь своё применение.
### Порядок следования полей при сериализации
С помощью специального атрибута `JsonPropertyOrder` теперь можно управлять порядком, в котором сериализованные поля будут помещаться в итоговый JSON:
```
public class Person
{
public string City { get; set; } // No order defined (has the default ordering value of 0)
[JsonPropertyOrder(1)] // Serialize after other properties that have default ordering
public string FirstName { get; set; }
[JsonPropertyOrder(2)] // Serialize after FirstName
public string LastName { get; set; }
[JsonPropertyOrder(-1)] // Serialize before other properties that have default ordering
public int Id { get; set; }
}
```
Ранее порядок, в котором поля попадали в итоговый JSON, был, скажем так, не совсем предсказуем.
### `Utf8JsonWriter`: возможность вывести напрямую JSON-текст
В класс `System.Text.Json.Utf8JsonWriter` добавили метод `WtiteRawValue`, и теперь в JSON можно писать raw-текст:
```
JsonWriterOptions writerOptions = new() { WriteIndented = true, };
using MemoryStream ms = new();
using UtfJsonWriter writer = new(ms, writerOptions);
writer.WriteStartObject();
writer.WriteString("dataType", "CalculationResults");
writer.WriteStartArray("data");
foreach (CalculationResult result in results)
{
writer.WriteStartObject();
writer.WriteString("measurement", result.Measurement);
writer.WritePropertyName("value");
// Write raw JSON numeric value using FormatNumberValue (not defined in the example)
byte[] formattedValue = FormatNumberValue(result.Value);
writer.WriteRawValue(formattedValue, skipValidation: true);
writer.WriteEndObject();
}
writer.WriteEndArray();
writer.WriteEndObject();
```
В данном примере решается одна известная проблема сериализатора: он не пишет дробную часть вещественного числа, если она равна нулю. То есть, число 1.1 будет выведено с вещественной частью, а число 1.0 будет выведено как целое. В ряде случаев такое поведение неприемлемо, и теперь вы можете управлять им с помощью нового метода.
> На момент написания этих строк метод `WriteRawValue` готов, но ещё не добавлен в основную ветку кода и болтается в одном из пулл-реквестов. Но сама фича заппрувлена в итоговый релиз. Просто ещё не дошёл ход до неё.
### Десериализация из `Stream`
Оказывается, раньше не было возможности десериализовать поток. Теперь есть:
```
using MemoryStream ms = GetMyStream();
MyPoco poco = JsonSerializer.Deserialize(ms);
```
> И эта фича тоже пока болтается в пулл-реквесте.
Новая коллекция `PriorityQueue`
-------------------------------
Она представляет собой ту же самую очередь, но каждый элемент которой теперь имеет приоритет. При помещении элемента в очередь вы этот приоритет указываете. При извлечении элемента из очереди сначала извлекаются те элементы, приоритет которых имеет минимальное значение:
```
// creates a priority queue of strings with integer priorities
var pq = new PriorityQueue();
// enqueue elements with associated priorities
pq.Enqueue("A", 3);
pq.Enqueue("B", 1);
pq.Enqueue("C", 2);
pq.Enqueue("D", 3);
pq.Dequeue(); // returns "B"
pq.Dequeue(); // returns "C"
pq.Dequeue(); // either "A" or "D", stability is not guaranteed.
```
Как видно из примера, в случае равенства приоритетов порядок извлечения элементов не гарантирован.
Очень интересная коллекция, вполне подойдёт для некоторых случаев.
Source Generator для `ILogger`
------------------------------
Новая фича .NET 5 — Source Generators — добралась до логгера. Теперь можно писать меньше кода для логгинга, потому что недостающий код будет создан автоматически. Вам достаточно лишь пометить специальные методы специальным атрибутом `LoggerMessageAttribute`, и весь недостающий код будет скомпилирован за вас, причём, он будет более оптимальным и производительным.
```
public static partial class Log
{
[LoggerMessage(EventId = 0, Level = LogLevel.Critical, Message = "Could not open socket to `{hostName}`")]
public static partial void CouldNotOpenSocket(ILogger logger, string hostName);
}
```
Только не забудьте пометить и метод, и содержащий его класс ключевым словом `partial`.
Детали уже можно почитать в [документации](https://docs.microsoft.com/ru-ru/dotnet/core/extensions/logger-message-generator).
Улучшения в `System.Linq`
-------------------------
В LinqExtensions добавили массу полезных методов и фич. Например, поддержку диапазонов и индексов. Теперь можно попросить вернуть второй с конца элемент коллекции:
```
Enumerable.Range(1, 10).ElementAt(^2); // returns 9
```
А в метод `Take()` добавили классную перегрузку:
```
source.Take(..3); // instead of source.Take(3)
source.Take(3..); // instead of source.Skip(3)
source.Take(2..7); // instead of source.Take(7).Skip(2)
source.Take(^3..); // instead of source.TakeLast(3)
source.Take(..^3); // instead of source.SkipLast(3)
source.Take(^7..^3); // instead of source.TakeLast(7).SkipLast(3)
```
Новый метод `TryGetNonEnumeratedCount()` сильно помогает в случаях, когда надо узнать количество элементов коллекции без её перебора:
```
List buffer = source.TryGetNonEnumeratedCount(out int count) ? new List(capacity: count) : new List();
foreach (T item in source)
{
buffer.Add(item);
}
```
Если `source` — это просто переменная типа `IEnumerable`, то попытка получить количество элементов коллекции может вызывать полный перебор коллекции раньше времени. А с помощью `TryGetNonEnumeratedCount()` можно и ~~рыбку съесть~~ узнать количество элементов для аллокации соответствующего массива, и полный перебор отложить на более подходящее время.
Четыре новых метода `DistinctBy`/`UnionBy`/`IntersectBy`/`ExceptBy` теперь позволяют явно указывать поле-селектор:
```
Enumerable.Range(1, 20).DistinctBy(x => x % 3); // {1, 2, 3}
var first = new (string Name, int Age)[] { ("Francis", 20), ("Lindsey", 30), ("Ashley", 40) };
var second = new (string Name, int Age)[] { ("Claire", 30), ("Pat", 30), ("Drew", 33) };
first.UnionBy(second, person => person.Age); // { ("Francis", 20), ("Lindsey", 30), ("Ashley", 40), ("Drew", 33) }
```
А в дополнение к ним завезли ещё два аналогичных метода: `MaxBy`/`MinBy`.
```
var people = new (string Name, int Age)[] { ("Francis", 20), ("Lindsey", 30), ("Ashley", 40) };
people.MaxBy(person => person.Age); // ("Ashley", 40)
```
> А этого иногда сильно не хватало.
Странно, что до этого не додумались раньше, но теперь это есть. Методы `FirstOrDefault`/`LastOrDefault`/`SingleOrDefault` позволяют указывать дефолтное значение, как это делается в методе nullable-типов `GetValueOrDefault`:
```
Enumerable.Empty().SingleOrDefault(-1); // returns -1
```
Ну и напоследок. Метод `Zip` теперь имеет перегрузку для итерации по трём коллекциям:
```
var xs = Enumerable.Range(1, 10);
var ys = xs.Select(x => x.ToString());
var zs = xs.Select(x => x % 2 == 0);
foreach ((int x, string y, bool z) in Enumerable.Zip(xs,ys,zs))
{
}
```
> Кто-то вообще в курсе, что так можно было?
Дата и время
------------
Борьба со временем — это не только метафора из жизни, это ещё и вполне себе реальное явление в мире разработки ПО. Довольно большая часть разработчиков просто не умеет правильно работать с датой и временем. Дополнительного масла в огонь невежества подливают фреймворки, предоставляя вместо правильных инструментов универсальные.
Разработчики .NET решили немного то ли облегчить, то ли усугубить страдания и добавили пару новых структур: `DateOnly` и `TimeOnly`, а также немного подшаманили с поддержкой временных зон и ещё по мелочи. Достаточно подробный обзор этих нововведений уже есть в [этой](https://habr.com/ru/company/otus/blog/567338/) переводной статье. И он обязателен к прочтению и глубокому осмыслению.
Preview Features и сразу Generic Math
-------------------------------------
Выпуск новых версий .NET уже давно встал на поток: в год — по LTS-версии. Это значительно быстрее, чем было раньше с классическим фреймворком, и это хорошо с одной стороны: можно оперативнее реагировать на запросы пользователей, быстрее выкатывать полезные фичи и вообще — не тормозить.
Но внезапно это породило и проблемы с некоторым особенно сложным в разработке функционалом. Разработчики .NET столкнулись с тем, что некоторые полезные новые фичи они физически не успевают выпустить, протестировать и внедрить во всех библиотеках за год. Не говоря уже о том, чтобы собрать фидбек по ним.
И они придумали механизм Preview Features. Теперь LTS-версию .NET можно будет поставлять с ~~недоделанными~~ превью-фичами. То, что раньше было доступно только в превью- и RC-версиях фреймворка, отныне может совершенно легально попасть в библиотеки, компиляторы и продакшн. В целях безопасности это всё обвешано атрибутами и настройками, чтобы по умолчанию быть выключенным. То есть, вы не сможете это использовать, специально не заморочившись. А вот захотите вы заморачиваться или нет — дело ваше.
Возможно, вам понравится первая превью-фича, для которой разработали весь этот механизм: статические абстрактные методы интерфейсов. Эта фича как раз из тех, что довольно сложно внедрить *быстро*. Её не успели обкатать в превью-версиях .NET 6 и решили выпустить в LTS-версии в том виде, в каком успеют реализовать к релизу. Поскольку это превью-фича, то нет никаких гарантий, что она не изменится даже в ближайших двух RC-выпусках .NET 6. Более того: нет никаких гарантий, что она не изменится в апдейтах .NET 6 после релиза. На этой новой фиче построен механизм арифметики в обобщениях. Детально об этом можно почитать в [статье](https://habr.com/ru/post/572902/), и звучит это неплохо.
Итого, с помощью нового механизма превью-фич и разработчики .NET, и разработчики на .NET получают лишнее время на обкатку интересных идей. Вопрос: а не выльется ли это в конце концов в то же самое, во что превратились HTML и CSS? Ну, то есть, когда нумерация версий уже не имеет значения, а регулярно добавляемые фичи сначала какое-то время находятся в превью-стадии, а затем, после тестирования и доработок, просто переходят в спецификацию?
Больше анализаторов богу анализа!
---------------------------------
С компилятором Roslyn наступила эра Roslyn-анализаторов, которые, вообще-то, здорово помогают в разработке. В .NET 5 в компилятор уже было встроено порядка 250 различных анализаторов, и ещё больше можно было скачать в виде nuget-пакетов. С какого-то момента команда `dotnet build` выводит дикое количество уведомлений от анализаторов о том, что разработчик ~~говнокодит~~ пишет что-то не то. С одной стороны, эти предупреждения, генерируемые анализаторами, помогают заметить косяки и сделать код чище. С другой стороны, всё равно есть много ложных срабатываний, в которых теряются действительно важные замечания. Это всё [можно настроить](https://docs.microsoft.com/ru-ru/dotnet/fundamentals/code-analysis/overview#enable-additional-rules), но на это нужно время.
В .NET 6 решили не останавливаться на достигнутом, и теперь встроенных анализаторов ещё больше (правда, среди них есть и те, что ранее поставлялись отдельно). Окинув беглым взглядом [список](https://github.com/dotnet/runtime/issues/43617) новых анализаторов, нельзя не признать, что среди них, безусловно, много полезных.
В общем, читайте портянки компилятора во время вывода и настраивайте свою среду разработки так, чтобы не игнорировать подсказки анализаторов.
API для выделения памяти
------------------------
Лёгким движением руки C# можно превратить в C. И это почти не шутка: в .NET 6 завезли нативное выделение памяти. За это дело отвечают специальные методы в новом классе `System.Runtime.InteropServices.NativeMemory`.
```
namespace System.Runtime.InteropServices
{
public static class NativeMemory
{
public static unsafe void* Alloc(nuint byteCount);
public static unsafe void* Alloc(nuint elementCount, nuint elementSize);
public static unsafe void* AllocZeroed(nuint byteCount);
public static unsafe void* AllocZeroed(nuint elementCount, nuint elementSize);
public static unsafe void* Realloc(void* ptr, nuint byteCount);
public static unsafe void Free(void* ptr);
public static unsafe void* AlignedAlloc(nuint byteCount, nuint alignment);
public static unsafe void AlignedFree(void* ptr);
public static unsafe void* AlignedRealloc(void* ptr, nuint byteCount, nuint alignment);
}
}
```
К чёрту управляемые ресурсы, к чёрту сборщик мусора. Да здравствуют `alloc` и `free` методы! Разумеется, всячески подчёркивается, что это для низкоуровневого кода и алгоритмов. Но мы как-то упустили упустили момент, когда C# стал позиционироваться как язык для таких вещей.
Разработчики очень серьёзно заигрались в оптимизацию. Пока нет единого мнения насчёт того, хорошо это или плохо. Фанаты оптимизаций приветствуют такие возможности. Но людей с определённым профессиональным опытом настораживает попытка создать *универсальную* платформу для всего сразу.
Что будет дальше? Добавление возможности писать прямые ассемблерные инструкции в коде? Или движение в сторону C++? Подождём .NET 7.
И так далее
-----------
Список нововведений в .NET куда больше, чем описано в этой статье. Но надо когда-нибудь остановиться, потому что описать все детали в одном посте — это перебор. Просто быстренько пройдёмся по оставшемуся:
* пул потоков полностью переписан с нативного на управляемый код;
* оптимизация работы со структурами: они теперь могут целиком передаваться как параметры через регистры процессора;
* ускорено приведение и проверка интерфейсных типов (будет быстрее работать Pattern Matching);
* с помощью прекрасной новой команды `dotnet sdk check` вы можете проверить актуальность ваших SDK;
* вебсокеты поддерживают компрессию;
* `BigInteger` теперь парсит строки почти на 90% быстрее;
* `Vector` теперь поддерживает примитивы `nint` и `nuint`;
* добавлена поддержка OpenTelemetry.
Но даже это не окончательный список.
А самое главное — за кадром остались нововведения в языке C# 10. Об этом — в другой раз. | https://habr.com/ru/post/573434/ | null | ru | null |
# XSLT преобразование внутренней таблицы в ABAP, имеющей поле типа «generic reference»
#### Пролог
**О чем заметка?** Как из внутренней таблицы, строка которой содержит ссылку на неизвестный (обобщенный) тип (REF TO DATA), которая, по факту, хранит ссылку на такую же таблицу, получить XML заданного формата. При этом, число уровней вложенности изначально неизвестно.
**Зачем это нужно?** Мне это понадобилось при выгрузке данных в различные форматы XML-файлов MS Office без использования OLE.
**Для кого эта заметка?** Для программистов на ABAP.
**Необходимый уровень знания:** знать, что такое [reference type](http://help.sap.com/saphelp_nw04s/helpdata/en/1a/42923ae53dca62e10000000a11402f/content.htm), [generic type](http://help.sap.com/abapdocu_70/en/ABENBUILT_IN_TYPES_GENERIC.htm), [XML](http://ru.wikipedia.org/wiki/Xml); слышать, что существует такая вещь как [XSLT](http://ru.wikipedia.org/wiki/Xslt).
#### Как же с этим бороться?
##### Задача
Есть дерево. Дерево хранится во внутренней таблице. Тип таблицы определен следующим образом:
```
TYPES
: BEGIN OF tdeep_struct
, name TYPE string
, rf_child_list TYPE REF TO data "та самая обобщенная сылка
, END OF tdeep_struct
, t_deep_struct TYPE STANDARD TABLE OF tdeep_struct
WITH NON-UNIQUE DEFAULT KEY
.
```
Т.е. структура строки таблицы в поле `rf_child_list` содержит ссылку на обобщенный тип (generic type).
Из внутренней таблицы такой структуры, нужно получить XML следующего формата:
```
Имя первой записи
Имя следующей записи
```
При этом расположение узлов исходного дерева в итоговом XML должно соответствовать нисходящему обходу дерева (Т.е. начинаем просмотр записей внутренней таблицы сверху. Выводим содержимое первой записи, если у нее есть зависимые записи в `rf_child_list` – то начинаем выводить их с первой записи. Если у нее есть зависимые – то следом выводим их и т.д.).
##### Тестовый пример
Допустим, у нас во внутренней таблице сохранено дерево следующего вида(перечислены значения поля Name):
```
GrandParent1
Child1
Child2
GrandChild1
GrandParent2
```
По условиям задачи мы должны получить из этих данных вот такой XML.
**Итоговый XML для тестового примера**
```
GrandParent1
Child1
Child2
GrandChild1
GrandParent2
```
##### Решение
Начнем с простого: ABAP-код, что же может быть проще?
**Определим и заполним тестовыми данными внутреннюю таблицу**
```
DATA
: gt_tree TYPE t_deep_struct "таблица дерева
, gtree TYPE tdeep_struct "рабочая область записи первого уровня
, gchild TYPE tdeep_struct "рабочая область записи второго уровня
, ggrandchild TYPE tdeep_struct "рабочая область записи третьего уровня
.
FIELD-SYMBOLS
: TYPE t\_deep\_struct "внутренняя таблица записей второго уровня
, TYPE t\_deep\_struct "внутренняя таблица записей третьего уровня
.
START-OF-SELECTION.
gtree-name = 'GrandParent1'.
CREATE DATA gtree-rf\_child\_list TYPE t\_deep\_struct.
ASSIGN gtree-rf\_child\_list->\* TO .
gchild-name = 'Child1'.
APPEND gchild TO .
gchild-name = 'Child2'.
CREATE DATA gchild-rf\_child\_list TYPE t\_deep\_struct.
ASSIGN gchild-rf\_child\_list->\* TO .
ggrandchild-name = 'GrandChild1'.
APPEND ggrandchild TO .
APPEND gchild TO .
APPEND gtree TO gt\_tree.
CLEAR gtree.
gtree-name = 'GrandParent2'.
APPEND gtree TO gt\_tree.
```
Решая задачу я подумал, что надо бы использовать XSLT-преобразование. Так как тэг у этой заметки я поставил «XSLT для начинающих», то надо упомянуть, что же это такое. Если совсем на пальцах, то это такой язык, который позволяет из одного XML получить другой XML. При этом сам XSLT является подмножеством XML. Стоп! А причем тут внутренние таблицы, если он преобразует XML? А это такая особенность реализации XSLT в SAP. Посмотрим подробнее.
За выполнение трансформации в ABAP отвечает оператор [CALL TRANSFORMATION](http://help.sap.com/abapdocu_70/en/ABAPCALL_TRANSFORMATION.htm). У него много параметром и много вариантов работы.
Входные данные требующие преобразования будем передавать, указав `SOURCE имя_параметра = имя_внутренней_таблицы`.
Результат можно получить указав `RESULT XML объектXML/внутренняя таблица/строка/объект потока`. Для простоты, получать результат будем в строку.
Результат трансформации отобразим на экране стандартными средствами объекта CL\_XML\_DOCUMENT.
Получаем вот такой код:
```
CALL TRANSFORMATION zedu_test_xslt_deep_transform2
SOURCE
table = gt_tree
RESULT XML gxml_str.
go_xml_doc->parse_string( gxml_str ).
go_xml_doc->display( ).
```
Ах да… я же отвлекся! Вопрос-то был: и причем тут трансформация, если вообще-то она для преобразовании одного XML в другой?
##### Немного rtfm
Начнем с того, что в SAP трансформации используются для [сериализации](http://ru.wikipedia.org/wiki/%D0%A1%D0%B5%D1%80%D0%B8%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F) и десериализации данных. Т.е., как из какого-то объекта данных (структуры, внутренней таблицы, объекта) получить представление в виде последовательности битов и наоборот. У нас как раз задача сериализации: на входе вложенная структура (внутренняя таблица ABAP), а на выходе – XML(текстовое представление).
XSLT в SAP бывают 2-ух видов: обычный XSLT и simple transformation (ST). SAP показалось мало XSLT и он реализовал свое подмножество XSLT, которое назвал simple transformation. Нам оно не подходит, т.к. не умеет работать с полями generic type в входных параметрах.
Остается чистый XSLT.
SAP, при выполнении сериализации с применением XSLT, приводит входные параметры трансформации к виду asXML ([canonical XML representation](http://help.sap.com/abapdocu_702/en/abenabap_xslt_asxml.htm)). В процессе этого преобразования, [по определенным правилам](http://help.sap.com/abapdocu_702/en/abenabap_xslt_asxml_named.htm), происходит конверсия типов ABAP, это касается и generic type (Явно получить каноническое представление какой либо переменной можно использовав стандартное для ABAP [XSLT преобразование с зарезервированным именем ID](http://help.sap.com/abapdocu_731/en/abenabap_xslt_repository.htm) ).
Картинка из хелпа ABAP, объясняющая преобразования данных при трансформациях

**Для моего примера каноническое XML представление выглядит следующим образом:**
```
xml version="1.0" encoding="utf-8" ?
GrandParent1
GrandParent2
Child1
Child2
GrandChild1
```
##### И как с этим жить дальше?
При получении канонического представления XML для внутренней таблицы, сама таблица преобразуется в элемент ```, внутри которого для каждой строки будет существовать элемент . Каждое поле будет преобразовано в элемент с именем равным имени поля. Т.к. в мою структуру входит поле RF_CHILD_LIST`, являющееся ссылкой на обобщенный тип DATA (`TYPE REF TO DATA`), то содержимое соответствующего элемента будет пустым, а в атрибуте элемента `href` будет храниться ссылка на содержимое, находящееся далее по документу.
Например, для первой строки значение , где символ `#` - признак ссылки по правилам формирования ссылок [XLink](http://ru.wikipedia.org/wiki/XLink), а `d1` – идентификатор ссылки. Само содержимое будет находиться в специальном разделе канонического XML-документа: `asx:heap` в элементе, имеющем атрибут `id` равный d1. В нашем примере <`prg:T_DEEP_STRUCT id="d1" … >`. Так как у нас рекурсивная структура, то дальнейшая вложенность элементов в каноническом представлении организована аналогично.
Т.е., как выглядит исходный XML документ для преобразования, мы разобрались.
##### А XSLT-то где?
Теперь нужно реализовать собственно XSLT-преобразование.
В SAP для создания трансформаций используется транзакция STRANS.

Вводим название трансформации, нажимаем «Создать»(F5).

Если нужно – изменяем название, указываем краткое описание и вид трансформации (в нашем случае – XSLT). Нажимаем Enter.
При редактировании трансформации работают контекстные подсказки по элементам XSLT, а так же есть возможность использовать библиотеку тэгов. Кроме того, есть инструмент тестирования с загрузкой данных из файла, а так же – отладчик преобразования.
Использовать структурную печать в редакторе следует с осторожностью, т.к., в ряде случаев, редактор будет вставлять не нужные символы перевода строки (это может быть критично, если в итоге мы, например, хотим получить html документ).
При создании нового документа, система сразу же вставит шаблон пустого документа, т.е. мы его будем менять. Шаблон будет выглядеть следующим образом
```
```
Где:
* `xmlns:xsl` означает, что мы будем использовать пространство имен xsl. Т.е. при использовании элементов их этого пространства имен, элементы будут иметь в начале префикс `xsl`: (например )
* `xmlns:sap` означает, что мы будем использовать пространство имен sap
* `xsl:transform` указание, что это у нас XSLT-преобразование
* убирает лишние пробелы при преобразовании
* определяет шаблон преобразования, который применяется к корневому элементу исходного XML документа
XSLT-трансформация применяет преобразования указанные внутри шаблонов (`xsl:template`) к тем узлам исходного XML-документа, которые соответствуют выражению в атрибуте `match`. Значение атрибута `match` определяется с помощью специального языка [XPath](http://ru.wikipedia.org/wiki/XPath). В рамках этого языка, корневой элемент определяется как «/», доступ к элементу нашего исходного XML-документа `TABLE` будет определен как "/asx:abap/asx:values/TABLE" (т.е. перечисляются все узлы XML-документы от корневого (`asx:abap`) до нашего узла (`TABLE`)).
Для начала, добавляем корневой элемент нашего выходного XML-документа List. Шаблон примет вид:
```
```
Нам необходимо перебрать в цикле все элементы `item` внутри элемента `TABLE` нашего исходного XML документа, это делается с помощью команды , где в атрибуте `select` указывается XPath путь до элементов, по которым будет идти итерация. Внутри цикла будем выводить наш элемент `MyItem`, в котором выведем элемент `Name` со значением NAME соответствующего элемента исходного документа, по которому идет итерация. Таким образом, шаблон преобразования будет иметь теперь следующий вид:
```
```
Значение из элемента исходного документа выводится командой , в атрибуте `select` которого указывается XPath-путь до элемента, из которого нужно взять значение. Обратим внимание, что путь в `xsl:value-of` указан несколько иначе, чем в `xsl:for-each`. Разница в том, что в `xsl:for-each` указан абсолютный путь, начиная от корневого элемента, а в `xsl:value-of` – относительный от вышестоящего элемента (т.е. пути в команде `xsl:for-each`).
Таким образом, реализовав данный шаблон, мы выведем только первый уровень рекурсивной структуры исходного документа.
Кроме того, при использовании такого шаблона у нас будут выводиться лишние пространства имен `asx, sap, prg` (XSLT их не отключает по умолчанию). Что бы исключить их из выходного XML, изменим `xsl:transform` следующим образом:
```
```
Т.е. мы указали используемые пространства имен, а потом атрибутом `exclude-result-prefixes` перечислили те, которых не должно быть в выходном XML.
Теперь нужно добавить нисходящий обход тех самых данных, ссылка на которые лежит в элементе `RF_CHILD_LIST`. Для этого мы будем использовать еще один шаблон. Фактически шаблон – это как подпрограмма.
Предположим, что нам известен id соответствующий списку ссылок. Обозначим его как `ChilListID`. Это будет входной параметр шаблона.
Вот определение шаблона и его параметра:
```
```
Т.е. мы определили шаблон с именем `OutChilds` и параметром `ChilListID`. При этом, шаблон может обрабатывать только часть исходного XML-документа, которая соответствует поддереву `/asx:abap/asx:heap`.
Что нам нужно сделать в этом шаблоне? Перебрать все элементы item внутри элемента `prg:T_DEEP_STRUCT` с id равным входному параметру `ChilListID`. Делаем это с помощью уже знакомого нам `xsl:for-each`.
Сперва отыщем `prg:T_DEEP_STRUCT` с id равным входному параметру `ChilListID`:
Здесь XPath определяет, что итерация должна идти по тем элементам `prg:T_DEEP_STRUCT`, у которых аттрибут `id` равен параметру `ChilListID`.
Внутри данного цикла сделаем цикл по всем item:
Однако, можно сделать и иначе в рамках нашей задачи, без вложенных циклов, объединив их в один, XSLT такое позволяет. Выглядеть это будет вот так:
Выведем элемент `MyItem` и его `Name`. Получаем следующий шаблон обработки:
```
```
Мы вывели один уровень подчиненных узлов. Теперь нужно реализовать рекурсию: вызвать этот шаблон внутри него самого.
Вызов шаблона выполняется командой `xsl:apply-templates`, с указанием в атрибуте `select` к какой части дерева исходногоXML у нас будет применен этот шаблон.
Кроме того, не забываем, что нам еще нужно передать параметр `ChilListID`. Запись, которая ссылается на список дочерних записей, имеет в элементе `RF_CHILD_LIST` атрибут `href,` значение которого равно `#id_списка_дочерних_записей`. Т.е. нам нужно получить атрибут `href` и вырезать из него подстроку, начиная со второго символа. Это выполняется с помощью XPath следующим образом: `substring(RF_CHILD_LIST/@href,2)`. Т.е. получается вот такой вызов шаблона:
```
```
В итоге, получаем шаблон обработки дочерних записей:
```
```
Теперь вставим, по аналогии, вызов этого шаблона в шаблон, работающий для корневого узла.
**В итоге, полный текст преобразования примет следующий вид:**
```
```
**Полный текст ABAP-программы**
```
REPORT zedu_test_xslt_deep_transform.
*определим тип структуры имеющей поле типа "ссылка на обобщенный тип"
TYPES
: BEGIN OF tdeep_struct
, name TYPE string
, rf_child_list TYPE REF TO data
, END OF tdeep_struct
*табличный тип для структуры имеющей поле типа "ссылка на обобщенный тип"
, t_deep_struct TYPE STANDARD TABLE OF tdeep_struct
WITH NON-UNIQUE DEFAULT KEY
.
DATA
: gt_tree TYPE t_deep_struct "таблица дерева
, gtree TYPE tdeep_struct "рабочая область верхнего уровня для таблицы дерева
, gchild TYPE tdeep_struct "рабочая область второго уровня для таблицы дерева
, ggrandchild TYPE tdeep_struct "рабочая область третьего уровня для таблицы дерева
, gxml_str TYPE string "строка результирующего XML
, go_xml_doc TYPE REF TO cl_xml_document "объект для отображения результирующего XML
.
FIELD-SYMBOLS
: TYPE t\_deep\_struct "таблица записей второго уровня
, TYPE t\_deep\_struct "таблица записей третьего уровня
.
START-OF-SELECTION.
\*заполнение таблицы тестовыми данными
gtree-name = 'GrandParent1'.
CREATE DATA gtree-rf\_child\_list TYPE t\_deep\_struct.
ASSIGN gtree-rf\_child\_list->\* TO .
gchild-name = 'Child1'.
APPEND gchild TO .
gchild-name = 'Child2'.
CREATE DATA gchild-rf\_child\_list TYPE t\_deep\_struct.
ASSIGN gchild-rf\_child\_list->\* TO .
ggrandchild-name = 'GrandChild1'.
APPEND ggrandchild TO .
APPEND gchild TO .
APPEND gtree TO gt\_tree.
CLEAR gtree.
gtree-name = 'GrandParent2'.
APPEND gtree TO gt\_tree.
\*вызов XSLT-трансформации
CALL TRANSFORMATION zedu\_test\_xslt\_deep\_transform2
SOURCE
table = gt\_tree
RESULT XML gxml\_str.
\*покажем стандартными средствами полученный XML
CREATE OBJECT go\_xml\_doc.
go\_xml\_doc->parse\_string( gxml\_str ).
go\_xml\_doc->display( ).
```
#### Заключение
Правда ведь, не так уж и страшен XSLT для абапера?
#### Использованные материалы
1. [Справка ABAP](http://help.sap.com/abapdocu_70/en/ABAPCALL_TRANSFORMATION.htm)
2. [MSDN: справочник по XSLT](http://msdn.microsoft.com/ru-ru/library/ms256069%28v=vs.110%29.aspx)
3. [XPath tutorial](http://zvon.org/comp/r/tut-XPath_1.html)
4. [Спецификация XSLT](http://www.w3.org/TR/xslt)`` | https://habr.com/ru/post/220079/ | null | ru | null |
# Крик души 1С-ника (в разрезе, масштаб 1:1)
Хмурое октябрьское утро началось, как обычно с просмотра телеграмчика. И почти сразу же я увидел, что мне там накидали ссылок на статью "[Почему уходят из 1С](https://habr.com/ru/post/695734/)", где упоминался ваш покорный слуга и которая являлась обличительным ответом на мой возмутительный пасквиль про "уход из 1С", где я смел сравнивать ее с другими экосистемами в положительном тоне. Вопиющая вещь, вне всяких сомнений.
Так получилось, что я дотошный и противный зануда, а посему я все-таки не могу пройти мимо и вынужден объясниться, что была за статья такая, и почему мой обличитель не умеет обличать правильно, а оттого вводит, сам не осознавая этого, людей в некоторое заблуждение.
Под катом правильные наезды на 1С и разбор неправильных наездов на 1С. Критика должна быть хорошей, иначе ее уныло читать. Давайте разберем (очередной) крик души 1С-ника по пунктам, а заодно, раз уж сей крик основан на моей статье - разберем и мою статью с точки зрения автора.
Добро пожаловать под кат. Там много сарказма, иронии, обид на 1С, а главное - трезвые мысли насчет этой системы с минимумом эмоций.
Однажды, не так чтобы давно, но кажется, что в прошлой жизни я написал статью [1С — Добро и зло. Расстановка точек в холиварах вокруг 1С](https://habr.com/ru/post/480658/) где, как мне казалось, подробно рассказал: что от нее стоит ждать, а чего не стоит, зачем она нужна, а зачем не нужна, где она плоха, а где - незаменима. Я настоятельно рекомендую вам ее прочитать, а потом вернуться сюда. Как бы то ни было, но время идет, а скроллить до 2019 года в наше время неприлично, поэтому крики души 1Сников время от времени появляются, и опять (ну что ты будешь делать?!) идут по проторенной дорожке, рассказывая нам что на 1С нельзя написать "все что угодно". Ну да, вы правы друзья, на ASP.NET тоже не пишут игры для плейстешен, но никто же не ругает за это ASP.NET.
Ум 1С-ника по непонятной мне причине удивительно "зашорен". Он почему-то считает, что 1С должна уметь все, потому что… потому что… ну Java же умеет все! Значит и 1С должна!
Друзья мои, давайте все-таки оставаться в рамках рассудка и не мешать фреймворки, языки программирования, бизнес-приложения и среды разработки в одну кучу. Иначе вы так и рискуете остаться хрестоматийными "тупыми 1С-никами" для которых нет ничего вне 1С и одновременно все вне 1С является священным Валинором. 1С это не мир, это город внутри ИТ-мира, или даже здание в нем.
Приступим к разговору
---------------------
Давайте все-таки про мою статью. Вот она в оригинале (<https://infostart.ru/1c/articles/1735489/>). Дело в том, что это даже не статья, а текстовый транскрипт моего выступления на конференции. И поскольку это устное выступление, его формат и его смысл отличается от статьи. Публичные выступления современных на ИТ-конференциях это не доклад на съезде КПСС, это развлечение с элементами обучения. Именно так. Интересные истории, сме..кхм-кхм..ёчки, мемасики и что-то новое для аудитории, но не претендующее на математическую строгость. Это выступление. Не статья. Наверное, отсюда и беды этого материала и его жесткая неприязнь. Как так, я посмел сказать, что в 1С не так и плохо, преувеличил одно и приукрасил другое! Во-первых, не так уж преувеличил и не так уж преукрасил. Во-вторых, это выступление задумывалось провокационным именно для того, чтобы встряхнуть болото мнений. В-третьих, оно ведется с позиции enterprise-архитектора, а не кодера в IDE. И как архитектор, я волен (или правильнее сказать "вынужден") оценивать что внедрять, как внедрять, зачем, и главное - в какие сроки и за какой бюджет. Именно поэтому я начинаю с тезиса о том, что "вообще пофигу на чем это написано". Ну правда, предприятию вообще пофигу, неважно что о себе думают важные программисты, их мнение - десятое. Предприятию важно **насколько хорошо это помогает решать задачи предприятия** и **сколько это стоит**.
Всё. Дальше уже начинаются "исторические и политические причины", которые вторичны по отношению к главным. Например:
* А вот у нас все на ПХП, поэтому новое будем делать на ПХП, у нас есть разработчики и компетенции.
* А вот мы не в ладах с отделом X, который умеет писать софт на M поэтому будем делать свое решение, но компетенции есть только на N
*Каждая организация создает софт, который отражает её организационную структуру (с)*. С этим нельзя спорить, это просто житейская мудрость, как зеленая трава и синее небо.
Тем не менее, [@rabid\_otter](/users/rabid_otter) пишет:
> *В начале статьи Андрей представляет бизнесменов как недальновидных людей, которые ничего не хотят понимать, и им приходится "терпеть" чересчур заумных IT-шников. Почему именно программисты? То же самое можно сказать про отношение к любым высококвалифицированным специалистам. Обычно такое поведение присуще ларечникам, которым IT не нужен, или когда автоматизация делается ради галочки, без реальной необходимости.*
>
>
Господи, нет. В начале статьи я представляю бизнесменов, как людей которые умеют считать деньги и ценят свое время. И им - все равно на каком **языке программирования** будет написана система, которая ускорит производительность их предприятия в тыщу раз и принесет мильоны. Им важен результат, а не "шашечки".
Кстати, одну минутку... А занятный ник rabid\_otter. Это подражание мне? Приятно. Подражание есть высшая степень восхищения, спасибо.
> *В статье Андрея однобокий взгляд на вещи, что-то из 90-х – вокруг ларечники, и программист всегда виноват.*
>
>
Я давно работаю в "кровавом энтерпрайзе" и могу себе позволить некие гиперболы, особенно если это 30-минутный формат выступления, а не диссертация на тему "Полная классификация недостатков работы в айти в промежутке 2000-2020 гг. XXI века в России". Если уж разжевывать собственные тезисы, то имел в виду я вот что:
* В факапах проекта все стараются размыть вину и обвинить смежников, чтобы не так больно ругали
* Айти выполняет огромную часть большинства бизнес-проектов, а значит несет большую часть ответственности
* Айти тоже факапит
* Айти будут обвинять, когда отдел продаж профакапит запуск очередного бизнес-продукта, даже если айти виновато косвенно и из-за внешних причин
Где тут 1С? А нигде, так будет независимо от языка программирования.
> *утверждается, что если уйти из 1С в другой стек, ничего не поменяется, всегда будут авралы и не будет никакого удовольствия.*
>
>
Да, так и утверждается. Только не "не будет никакого удовольствия" а "может не быть никакого удовольствия". Вероятность, что вы наткнетесь на работу мечты и в предприятии будет все слажено, четко, в срок и вообще кайф - существует. Но все-таки, мнимые пони, какающие радугой это не тот критерий, на который стоит опираться при смене работы. Я за циничный прагматизм.
> *Что бы мне ни говорили 1С-программисты, большая часть их задач лежит в этом заколдованном круге кусочков большой конфигурации. Это либо отчеты, призванные показать руководителю все в одном месте, либо обработки, призванные упростить какую-то хозяйственную операцию, либо отдельная подсистема, чтобы автоматизировать "уникальный бизнес-процесс", либо просто корректировка бизнес-процессов предприятия так, чтобы они ложились в типовую конфигурацию. Как это может не надоесть?*
>
>
Не повезло с работой, бывает. В Связном мы, например, на 1С сделали даже DWH. А также логистическую систему, которая диспетчеризует заказы интернет-магазинов и логику их развоза вообще без участия человека. Там даже интерфейса нет никакого, только для админа - иногда кнопочку нажать, если что.
Перейдем к технической критике
------------------------------
Тут самое вкусное. Пару слов на входе: попадание юного 1С-ника в мир большого Айти сродни первому попаданию человека в другой климатический пояс. Со мной так было в тропиках: "О, пальмы! О, кокосы прям на дорогу падают! О, а че, тут и змеи ползают? А это что, тоже есть можно?"
Здесь то же самое: О, я могу переслать байты в TCP-сокет! О, я могу парсить DTO-json на входе http-метода и перекладывать поля в прикладной объект!
Но секрет в том, что в 1С просто это уже сделано за вас. Это коробочная возможность, позволяющая как раз **не делать** перекладывание полей JSON в прикладные объекты. Преимущество, а не недостаток. Экономия времени, time-to-market, стоимость, эффективность и все то, что серые унылые ларечники требуют от лучезарных программистов.
> *На 1С не сделать исполняемый файл без зависимостей от вендора. Если та же условная Java дает на выбор целую кучу реализаций JVM, даже GraalVM Native Image, то 1С не дает ничего. Никак не сделать что-то по-настоящему низкоуровневое. Не подключиться к системе, работающей на транспортном уровне TCP/IP без внешних компонент.*
>
>
На ASP.NET нельзя написать игру для плейстейшен. Опять путаем фреймворк и языки программирования. 1С это фреймворк. Для бизнес приложений. Это не JVM, это Salesforce или SAP (сейчас я не про сравнение возможностей, а про классификацию) Можно на SAP послать байты в TCP-сокет? Даже если и да, этого никто не делает. САПовцы любят грузить из Excel ну или получать по SOAP. JSON в SAP? Шиш вам, пишите прослойку на чем-нибудь другом, или купите нашу шину за 100500 миллионов. САП это бизнес система, какого хрена вы в нее суете интеграционные задачи!
Не знал про такой подход в конкурирующей системе, дорогой 1С-ник? А ведь он выверен лучшими немецкими методологами. Там можно делать только то, что можно, а что нельзя (например, нарисовать нечто красивое на экране) то - нельзя. Я тут несколько утрирую, но общий смысл именно такой. Архитекторы SAP не позволят протащить в SAP что-то помимо бизнес-функциональности. Для интеграций есть шина, а для отчетов BI
Резюмируя: не надо требовать от бизнес фреймворка того, чего в нем нет. Айти, оно больше чем только 1С, вылези из скорлупы и придумай, как решить потребность бизнеса, а не запихивай это в один фреймворк! Не умеешь посмотреть вокруг и решить задачу? Ну тогда твой удел "*отчеты, призванные показать руководителю все в одном месте"* сорян, ты больше ни на что не годен, ничего личного. И 1С тут не при чем.
> *gRPC поддерживается уже в 1С? Что-то мне подсказывает, что нет. С веб-сокетами из 1С уже можно работать без внешних компонент?*
>
>
Поддерживается. Есть внешние компоненты для этого. Ах! Внешние компоненты! Но это же внешние, их нет в 1С!!!! Да, это сторонняя библиотека к фреймворку. Давно ли в Java запретили сторонние библиотеки и требуют, чтобы gRPC шла в составе JDK? Послушайте, ведь сама попытка требовать таковое это бред. То же и с внешними компонентами 1С. Это сторонняя библиотека, надо - подключай и пользуйся, в чем проблема?
"Нет, хочу встроенное в 1С, потому что хочу, ааааа, мамааа, купи мароженоееее!!"
> *Развернуть 1С в docker-контейнере? А что там с лицензиями?*
>
>
Вы не поверите, но…<https://github.com/firstBitMarksistskaya/onec-docker> Хотя, вы попробуйте просто предложить кому-то на предприятии запустить SAP в докере. Если вас немедленно не спишут в дурку, то по крайней мере, высмеют.
SAP это система не того класса, чтобы в контейнере работать. К ней нужны bare-metal сервера от определенных производителей за дорого. И никто не удивляется. А когда 1С не работает в докере внутри виртуалки с лимитом в 2Гб начинается негатив. Почему-то выпросить у начальства для 1С bare-metal сервер, это организационная эпопея с долгой сдачей анализов. А SAP вам даже не продадут, если вы железку не имеете для него.
> *С веб-сокетами из 1С уже можно работать без внешних компонент? Как сильно кастомизировать внешний вид UI чисто на 1С? Парсер HTML с поддержкой динамических страниц? А как завести Chromedriver или Selenium из 1С? Нейронные сети, ML и это вот все. PyTorch, Keras из коробки уже завезли*
>
>
Опять все в одну кучу. Где там у нас PyTorch в составе JDK? Сама формулировка данного вопроса выглядит, как чушь. Однако, если таким образом критикуешь 1С, то вроде она превращается в критику по делу, не так ли? Ну и мое любимое:
> *Если нужен свой веб-клиент, его придется писать на Javascript.*
>
>
Сюрприз-сюрприз, но только это наоборот в 1С **уже есть** веб-клиент, а в "настоящем айти" его **всегда** пишут отдельно. Т.е. 1С-ник жалуется, что ему уже дали клиент и радуется, что придется писать свой после перехода в Java. С точки зрения бизнеса все выглядит иначе: "придется потратиться еще и на фронтендеров". Кстати, где кастомизация веб-интерфейса на Питоне? Ах, веб-интерфейс же на Javascript пишут, стало быть, питон говно.
> *Как долго ждать нормальной асинхронности (то, что в go называется горутинами, green threads на Java, корутинами в C#) на клиенте?*
>
>
Вот это вообще не понял. Давно ли на клиенте стало можно писать на GO?
Про IDE
-------
Это наше любимое, потому что в 1С с IDE все не так классно как в других местах. Про это я писал как раз в 2019 году. Но мы тут не про достоинства и недостатки IDE 1С, а про качество критики. Вообще, весь этот мой "ответ" имеет одну главную цель: повысить качество технической полемики про 1С. Именно качество полемики. Давайте ругать и хвалить правильно, не путать категории понятий, аргументировать точно, а ругать прицельно. Истеричные эмоции "все плохо, ааа, где 3Д-графика" это неинтересно и даже, в какой-то степени - глупо. Приступим.
Конфигуратор 1С по нынешним меркам устарел, а новая IDE "EDT" хоть и встречается все чаще, но всенародной любви пока не снискала. Конфигуратор устарел. Он написан в 2002-2005 примерно и на тот момент он был на уровне Visual Studio 2003 даже круче. Но 1С это не Microsoft, компания не вывезла тенденций IDE-строительства в одиночку, бывает и такое. Другие приоритеты продукта. Если вы видели IDE от SAP, то Конфигуратором станете восхищаться, как венцом творения. У бизнес-платформ IDE не приоритет, к сожалению.
Существуют плагины к Конфигуратору. Их несколько и самый популярный это упоминаемый "бешеной выдрой" Снегопат. Только он упоминается вот так:
> *в каком-нибудь настоящем ЯП вы видели, чтобы костыли, которые улучшают IDE, продавали за деньги?*
>
>
Вообще-то да. IDE и плагины к ним бывают платные. Resharper, например, это вообще практически обязательное платное дополнение, если вы пишете на C#. Без него Visual Studio "от вендора" лишь немного лучше чем Конфигуратор "от другого вендора". И он платный. Без решарпера жизнь в .NET это боль и страдания. Без Снегопата в 1С тоже. И тот и другой бустер для IDE - платные. Решарпер сколько то сотен баксов (не помню сколько) в год, Снегопат 2000 рублей навсегда. Но жаба не позволяет платить за хорошие инструменты даже себе любимому, понимаю.
> *А что по совместной разработке? Думаете, они просто взяли и стали использовать git? Ахаха, как бы не так!*
>
> *Очередная многоходовочка от разработчиков платформы – они создали собственную self-hosted VCS, которую назвали «хранилище конфигураций».*
>
>
Господи, дружище… ну нельзя же так... "хранилище конфигураций" создано тогда, когда на рынке властвовал "Visual Source Safe" и, возможно, начинал свои первые шаги в массы SVN, но ни какого GIT не существовало. Что значит "они не стали использовать git, а взяли свое". Свое взяли, потому что чужого на тот момент толком не было. А то, что впоследствии не успели интегрировать процесс разработки с "чужим" когда оно появилось? - вот это дельный повод для критики.
> *В 2018-м мне подвернулась вакансия, где нужно было писать нетиповые конфигурации. По сути, мое бегство от 1С началось уже тогда, я стал решать нетиповые, более технологичные задачи, но на знакомом мне стеке.*
>
>
Вот, это хорошо и правильно - расширять кругозор в профессии. Так надо делать всегда, независимо от стека, в котором работаешь. Это называется профессиональный рост. Только ошибка здесь не в 1С, а в попытках натягивать ее на глобус.
И о душевном
------------
> *К 1С-нику зачастую отношение как к обслуживающему персоналу, и не надо мне тут про "как себя поставишь". Даже если всех "приструнить", осадочек останется. Я знаю, я делал это.*
>
> *В настоящем программировании меньше общения с пользователями твоего творения, на текущем месте работы его нет. В моем случае тезис Андрея про "ваши заказчики всегда будут вас раздражать" явно не к месту.*
>
> *"Настоящих программистов" стараются не обижать – уютный офис, психолог, тет-а-тет с тимлидом раз в неделю, где меня спрашивают, хорошо ли мне. В 1С такого никогда не было и, думаю, не будет.*
>
>
Психолог в офисе это хорошо, это выгодно отличает Java от платформы 1С. В МТС, где я работал, тоже было что-то похожее, HR рассказывал, но я не пользовался. И там я работал с 1С. Так что психологи есть в 1С, парни! Прямо в платформе :)
И про "отношение" все-таки пару слов. Отношение это не часть технологии. Просто почитайте отличную книжку "[Не работайте с м\*даками](https://www.litres.ru/robert-satton/ne-rabotayte-s-m-dakami/chitat-onlayn/)". Если к вам относятся плохо, то кроме как "как себя поставишь" сказать и нечего… Осадочек, ну да, осадочек останется, но лучше сразу не работать с м\*даками.
> *Все это разнится с картиной мира Андрея, там у среднего программиста постоянная депрессия, он всегда уставший, злой и неудовлетворенный.*
>
>
Интересно, где я говорю что-либо подобное? Два раза перечитал выступление, мало ли? Не нашел.
> *Тимлид моей команды, как раз "настоящий backend программист", у которого 10+ лет опыта. Он знает пару ЯП для backend разработки, знает про шаблоны проектирования, разбирается в тонкостях работы различных СУБД (в том числе нереляционных), знает про балансировку нагрузок, умеет пользоваться bash, git, CI/CD, Kubernetes и может сделать что-то простенькое на JS, React или Vue. Кроме того, у такого специалиста может быть более разносторонний опыт в архитектурном плане, а не только написание CRUD приложений для бизнеса.*
>
> *Все ли из вышеперечисленного умеет средний 1С-программист с опытом 10+ лет? Может, кто-то и может, я – нет.*
>
>
Ну я умею. Опыт в 1С 17+ лет. Ничего сверхестественного в пользовании bash, git и Kubernetes нет. Просто навык. Скорее, обязательный, чем выдающийся. Если ты окуклился в Конфигураторе, то виноват в этом не Борис Нуралиев, а лично ты, анон.
> *Как написано в книжке "Совершенный код" Стива Макконнелла, "Самые дорогостоящие ошибки – это ошибки проектирования". Мой опыт в программировании подтверждает этот тезис. Если другой ЯП дает возможность грамотно спроектировать иерархию классов / структур / зависимостей, почему бы этого не сделать сразу, чтобы потом не было мучительно больно?*
>
>
Аааа, аааа, аааа, боже, аааа, прекратите, ааааа!!!! Сразу спроектировать все хорошо!!! Аааа!!! Делайте хорошо, а плохо не делайте, спасибо.
Как раз 1С дает меньше шансов спроектировать плохо. Она не идеальна, но то, что проектируют в "кровавом энтерпрайзе" имея "полную свободу" - уж лучше тогда 1С, право слово. По крайней мере, в ней сложнее запихать бизнес-логику расчета скидок в класс парсинга входящего JSON от веб-клиента. Я такое видел, я знаю о чем говорю.
> *Если не думать об алгоритмической сложности или подкапотной работе с типами, например, можно на конкатенации большого объема строк ждать 8 часов (вместо 20 минут после оптимизации). Однажды я словил такую неприятную особенность 1С на продуктиве. Это было больно.*
>
>
Если ты не понимаешь, как работает `"Сумма заказа: " + Сумма + " рублей"`, но активно это пишешь, то тебе надо читать [Спольски](http://www.grafik.freehand8.ru/057/glava-1-nazad-k-osnovam.htm), причем даже если ты пишешь на Java. Там ведь не просто так существует StringBuilder. Ведь Джоел разжевывает эти вещи не для 1С-ников, он рассказывает это "настоящим" программистам. И 1С тут не при чем, учите матчасть.
> *"Настоящие программисты реально не понимают, что нужны не код и не программа, а достижение цели"? Градус безумия повышается, сложно комментировать такие "заказные" суждения.*
>
>
О, слово-маркер. "заказные". Ну да, продался сотоне. Наконец-то обвинения в продажности, а то скучно было.
> *Я не пишу код, если не понимаю, чего нужно достичь в итоге. Мой опыт говорит, что когда автоматизируешь хаос, получаешь автоматизированный хаос. Как можно автоматизировать то, чего до конца не понимаешь? Кто в понимании Андрея "настоящий программист"? Сферическая макака в вакууме?*
>
> *Даже не знаю, чем провинились именно Java, .NET и PHP-программисты, что их выбрали в качестве козла отпущения в оригинальной статье.*
>
>
Тут имела место всего-лишь гипербола. Если у вас на работе процессы поставлены правильно, я за вас рад. Они не всегда такие, даже чаще всего не такие, а я много где успел поработать в т.ч. в "крупняке". Довольно большой пласт "настоящих программистов" именно monkey-coders которые лепят говно по ТЗ. Грустно, но это так, с другой стороны, отрадно, что у [@rabid\_otter](/users/rabid_otter) на работе все по-другому.
Я не написал "Процент говнокодеров в PHP не превышает 43.5% от общего числа программистов на рынке труда по состоянию на 2020г", поскольку я и не писал диссертацию, я рассказывал о мифах про светлый Валинор, которые циркулируют в 1С-сообществе. Если это не было считано, ну окей, спишем на мои хреновые таланты рассказчика.
> *В ЯП, которые компилируются в машинный код, такая ошибка просто не пережила бы сборку проекта.*
>
>
А в Javascript бы пережила, да еще как! Javascript же, как я понял считается за правильный язык, раз на нем пишут хорошие веб-клиенты?
> *В других "настоящих" ЯП для защиты от подобных ошибок есть модульные и интеграционные тесты, которые упадут в CI/CD pipeline при коммите.*
>
>
Я может опять про прописные истины, но тесты есть не в языках программирования, а в командах разработки. Как и CI/CD. В моих командах 1С были и тесты и CI/CD
> *Недавно жадный вендор все-таки придумал кое-что для масштабирования – Дата акселератор. Правда, это было сделано в свойственной 1С манере, разделив функциональность на ПРОФ и КОРП лицензии. Двух зайцев сразу – придумали костыль и заодно потоптали людей, симпатизирующих платформе.*
>
>
Ну тут чистая психология. "жадный", "потоптали". Софтверный бизнес пытается зарабатывать деньги на продаже софта! Какой ужас! Дата-акселератор это im-memory db которую 1С предлагает вместо других коммерческих in-memory db. Не вижу чего-либо постыдного в попытках занять долю рынка. То же и с 1С:Аналитикой. Если можно отобрать немного денег у Tableu, почему бы этого не сделать?
> *Нельзя же просто взять и сделать в платформе библиотеки для низкоуровневого взаимодействия на уровне TCP/IP с каким-нибудь существующим во взрослом программировании решением.*
>
>
Зачем в бизнес-фреймворке делать TCP библиотеки? Ну вот зачем? Кому надо - бери внешнюю компоненту, там работы на два часа, благодаря [туториалам от infactum](https://youtu.be/Nf1Mn_r2NJQ). С каких пор применение сторонних библиотек считается табу? Отчего это вдруг, никак в толк не возьму…
> *Насколько убого сделано распараллеливание, даже говорить не стоит. Это оскорбление IT-инженеров, какой-то костыль в виде чтения сообщений из другого сеанса, порождающий решения в виде сбора сериализованных данных оттуда.*
>
> *Самое смешное, что на каждый недопоток или "фоновое задание" требуется лицензия. Шах и мат, 1С-ники!*
>
>
Да, потоков и аналогов Futures/Tasks нету, иногда этого не хватает. Справедливо. А вот про лицензии это тупо ложное утверждение. "Фоновые задания" не потребляют лицензий.
> *Так вендор заботится о людях, которые покупают их продукты? Вкусно и точка! Кушайте, не обляпайтесь. <...> Так можно и с колен подняться. Остановитесь!*
>
>
Опять слова-маркеры, да что-ж такое. Не иначе автор ненавидит все русское, пендос проклятый, госдеповский прихвостень (это ирония, если что). Всего лишь троллю эмоции, там где нужна логика и ратую за качество полемики. Глядишь, научимся дискутировать с корректной аргументацией, термины не путать, да и правда с колен поднимемся? Тьфу-тьфу, не приведи господи…
ORM в 1С – самый лучший
-----------------------
Да, так и есть. Только это даже не ORM, а сквозная система типов от модели, до интерфейса. Разработчик даже не знает в какой момент там заканчивается UI и начинается база данных, работает в единой системе понятий. Такого нет нигде. На клиенте JS со своими моделями, на сервере условная Java со своими моделями + нашлепками от ORM либо в тех же классах, либо в отдельном слое хранимых сущностей для ORM.
> *В 1С ORM фреймворк самый лучший, потому что единственно доступный. Для той же условной Java есть Hibernate, MyBatis, Sql2o. В Golang есть Beego, GORM. Каждый фреймворк можно подобрать для конкретной задачи. Если очень надо, то можно отказаться от ORM или писать Native SQL-запросы в том же Hibernate. А в 1С можно написать SQL-запрос для создания или изменения сущности? Конечно, нельзя, иначе неопытные однорукие программисты 1С сломают гениальные абстракции над табличками в виде регистров накопления, бухгалтерии, расчетов.*
>
>
Если отказаться от эмоций, а рассуждать по конкретике, то я могу говорить только за Hibernate или Entity Framework (как Core, так и "Classic") Ну и Dapper еще, окей. Они хуже того, что предлагает 1С. Как минимум потому, что абстракции базы данных вынужденно протекают в прикладную модель. Либо эффективно работает ORM, либо красивая прикладная модель. Все сразу - только через усилия, которые требуют очень хорошего знания кишков конкретной ORM. Например, Entity Framework запросто превратит простой SELECT в "запрос в цикле на миллион итераций" при крошечном изменении условия в LINQ, и узнать про это до выкатки в продакшен можно только если правильно настроить фреймворк (по дефолту такое разрешено, а потом "ой, у нас все легло")
> *1С не пытается замести под ковер язык SQL? Из того, что я вижу на форумах, 1С-программисты пару десятков лет просят вендора добавить функциональности, которая давно существует в обычном SQL. Так что вендор, скорее, боится разработчиков 1С, поэтому осторожно разрешает read-only операции, а то вдруг эти люди поверят в себя и попросят еще больше. Согласен, не надо так.*
>
> *С самых первых курсов, с младых ногтей всех 1С-ников натаскивают на производительность запросов и их оптимизацию? Именно поэтому, придя в одну из обслуживаемых мною далее фирм, я увидел SQL запрос с 60 временными таблицами, который написал уволившийся 1С-программист. Хранить вспомогательные данные не нужно. Это усложняет систему.*
>
>
Ну судя по компетенциям, которые демонстрируют критики 1С которые хотят от нее всего сразу, не могут пользоваться внешними компонентами и путают фреймворк с языком программирования - 1С правильно делает, что не разрешает копаться в базе данных грязными руками. Я-то как раз не согласен с 1С и да, надо бы разрешить более тонкое управление слоем доступа к данным, скажем только покупателям ПРОФ лицензии, у которых хайлоад и которым очень надо. Всем подряд - это только гранату обезьянам выдавать. Тот, кто не осилил bash не должен получать в руки чистый SQL. Профессиональный ценз, извините. Но 1С так не делает, да. Кажется, что зря.
> *Другие программисты не умеют строить модели данных и очень плохо проводят границы между доменами? Фи, а чего еще ожидать от 80% Java, .NET и PHP-программистов? Они без ТЗ, свитшота и смузи кринжуют, падают с моноколес, какое там IDE открыть. Остановите это безумие!*
>
>
А еще они едят детей и получают $700k в минуту просто за то, что не спят на работе. Я говорил о наивном заблуждении, царящем в мире 1С, что в "настоящем айти" все капец умные, шарят за O-нотацию, докер и оптимизацию запросов. Это миф и о мифе я говорю.
Неверно и обратное, что поголовно все программисты .NET тупее 1С-ников. Я такого не говорил, а говорил что говнокодить можно где угодно и на чем угодно, а кроме того, именно так все и происходит в мире энтерпрайза, ибо сроки горят, бизнес-идея протухает, время-деньги, а вы тут архитектуры архитектурите. Происходит именно так, программист - исполнитель воли заказчика и получает деньги не за то, что он офигенный и классный, а за то, что обеспечивает предприятию более эффективное выполнение его функций. Никто не платит за код, платят за пользу, которую код приносит.
Если вместо кода можно было бы достичь того же результата посредством чтения Некрономикона - колдуны бы серьезно потеснили программистов на рынке труда и мало бы кто потом вспоминал, что "были тут такие программисты, помните?"
> *И да, мне как серверному программисту нужно десериализовать JSON. Опять этот ретроградный Меркурий все испортил и отменил в Spring Jackson ObjectMapper по умолчанию. Сижу и завидую 1С-программистам, им ведь в REST-сервисах не нужно десериализовывать тело запроса. Вернуться что ли обратно в 1С, как считаете?*
>
> *Продолжаем страдать, дальше мне нужно превратить DTO в то, что ляжет в базу данных по одному полю. А что, переложить данные стало так сложно? При строгой типизации IDE знает о совпадающих полях и сама заполняет их, а я просто получаю удовольствие.*
>
> *Как это нет функции "ЗаполнитьЗначенияСвойств"?! Хватит с меня этого вашего "настоящего программирования". Если говорить серьезно, то в Java, Golang и, скорее всего, в C# заполнение экземпляров типов с одинаковыми именами полей решается рефлексией. Но думаю, что это избыточная сложность – достаточно переложить одни поля в другие через горячую клавишу в IDE. Конечно, имеется в виду нормальная IDE, а не конфигуратор 1С.*
>
>
Фишка в том, что в 1С просто не надо ничего из этого делать. То есть я говорил про эффективность с точки зрения бизнеса, а не с точки того, что интересно кодить разработчику. В 1С просто не стоит задача "замапить поля из JSON с помощью рефлексии или кнопки в IDE, написав для этого слой в архитектуре приложения, который обрабатывает нажатия кнопочек на фронте". Просто эта задача уже решена во фреймворке и ее не надо делать силами пары-тройки сеньоров на начальном этапе разработки. И да, Automapper в .NET - это костыль, а не классная штука, ибо искать потом, кто положит в маппинг расчет скидок, чтобы казнить виновника, это то еще удовольствие. Не каждому программисту нужно разрешать лазить в транспортный слой. Да, вроде бы несложная истина, но лазят ведь, гады, лазят. А потому что могут.
> *При большой нагрузке запись логов работала дольше бизнес-логики, и это со всеми оптимизациями! Какой это по счету шах и мат 1С-программистам? В общем, да, стали записывать в текстовые файлики на сервере! Ограничения во благо же.*
>
>
Но.. ведь логирование это и есть запись в текстовые файлики на сервере. Если один логгер не справлялся, взяли другой (написали свой). Обычное дело в "большом" мире, но почему-то крамола в 1С. У 1С плохой логгер? Возьми другой!
Кстати, "Журнал регистрации" это не лог, это аудит. Лог это "Технологический журнал" и он вовсе не тормозит, если, конечно, вы не выставили в нем уровень TRACE. А аудит да - в 1С хреновый, тут только признать и понегодовать. Но опять же, есть сторонние средства записи этого аудита в ClickHouse, например. На [нашем Youtube-канале](https://youtu.be/HnZ0Of-YpW0) мы даже показываем, как это сделать. Летает как ракета!
> *Если с frontend на взрослых ЯП все довольно просто, то как разобраться в том обфусцированном ужасе на Javascript, который генерирует платформа для веб-клиента? А уж тем более что-то оптимизировать?*
>
>
Ну так себе аргумент. А что, в большом IT-мире кто-то пытается разбираться в минифицированном JS? Сомневаюсь. И потом, договорились же, что веб-клиент 1С это второстепенное ненужное приложение и клиент надо писать с нуля самому на реакте.
Ведь в составе JDK нет веб-клиента, почему-то Oracle за это не ругает никто. В 1С вот есть из коробки веб-клиент, но не нравится если, сделай на реакте свой, как делают все в отрасли. А, дорого? Ну да, с учетом ценника на команду фронтендеров, для внутрянки, не как основной публичный сайт компании - уже отлично, функционально и сразу из коробки, не нужны смузи-джаваскриптеры за оверпрайс. Чудесно же!
Любой, кто платит деньги за автоматизацию, а не размышляет об абстрактных материях - думает именно так. И генерирует кеш для оплаты твоего смузи - тоже он и его бизнес идеи, а не твой прекрасный код, который эту идею воплощает. Это суровая реальность жизни, но когда-то надо и взрослеть.
Про аналитиков
--------------
Я утверждал, что у 1С-ника встроен аналитик по умолчанию, а в других экосистемах такого умолчания нет. Это не значит, что его нет совсем ни у кого, просто нет по умолчанию у каждого.
> *А разве в других стеках программирования очень плохие аналитики? В описываемом Андреем мире программисты на других языках не задают вопросов о задаче. Если мне дали непонятные требования, мои действия следующие: я надеваю повязку на лоб, включаю эпичную музыку фоном и начинаю узнавать у всех причастных, чего же они действительно хотели от моего скромного сервиса. Зачем что-то кодить, если придется выбрасывать после уточнения требований?*
>
>
Это потому, друг мой, что Вы - бывший 1С-ник и у вас аналитик встроен по умолчанию. Так, как вы делают, к сожалению, не все.
> *Мне не нужно разбираться, почему в бухгалтерии очередная цифра не так считается.*
>
>
Знаю лично не менее 50-ти 1С-ников которые вообще не знают ничего про бухгалтерию. Цифры для бухгалтериии "ищут" лишь на самом начальном этапе вхождения в 1С, когда обслуживают по абоненту клиентов во франче. Это к разработке отношения не имеет и да, франчи заставляют сотрудника решать любые хотелки клиента, хоть технические, хоть бизнесовые. Поэтому из франчей и бегут. С другой стороны - крутая школа жизни.
> *Мне не нужно знать 100500 противоречащих друг другу законов, которые успел напечатать бешеный принтер*
>
>
Опять слово-маркер. Знаете, я уже давно заметил, что если в речи человека фигурируют слова "быдло, ватник, пендосы, гейропа, вставание с колен, булкохрусты, либерасты", то этот человек, зачастую, не стоит того, чтобы разговаривать с ним всерьез. Он не мыслит собственным мозгом, а произносит слова, случайно попавшие в него. "Пивная, примус, еще парочку, признание Америки, Москвошвея, примус". Речевой аппарат есть, а мышления нет. Бывает и такое.
> *Я, если честно, даже думаю, что в оригинальной статье умышленно не упомянуты умения 1С-ников читать мысли, отжиматься без рук и строить космические корабли. Причем делать это все одновременно.*
>
>
Я мог бы сделать и так, но решил что и без того достаточно гипербол. А еще, я, как 1С-ник знаю что дебет слева, а кредит - справа, и финансовые директора компаний меня за это сильно любят и моим решениям доверяют больше. Очень помогает в корпоративных спорах. Это тоже можно отнести к суперспособностям 1Сника. Ну-ка покажите мне девопса, который знает с какой стороны дебет? Я вот умею в docker, а девопс в бухгалтерию - нет. Ну и кто круче? (И да, я уже понял, что не все выкупают иронию, поэтому внимание - тег "ирония")
> *А еще 1С-программист знает какой-то особый язык бизнеса, недоступный людям, не овладевшим конфигуратором.*
>
> *Вот почему 1С-ники такие красавчики?*
>
>
Да, именно поэтому. Хотя не только, но хвастаться некрасиво, не ровен час, пол-Хабра обидится и завидовать начнет :)
Стоит ли переходить из 1С на другие ЯП?
---------------------------------------
Я утверждаю, что стоит. Но слишком очаровываться страной эльфов не надо. Горечь разочарования будет сильнее. Тем не менее, я прямым текстом говорю, что если хочется, то надо переходить. И это вообще справедливо для любой работы и даже в отношениях, как ни грустно. Если хочется перемен, надо их делать. Так что обвинения в заказной статье (а вернее, в заказном информационно-развлекательном выступлении) меня смешат. Я прямо сказал аудитории, где можно будет разочароваться и посоветовал переходить из 1С, учитывая это. Где мои деньги?
Дальше автор приводит ряд тезисов, с которыми я отчасти согласен, отчасти нет, про закрытость вендора, про медленное включение чего-то в коробки, про востребованность за границей.. Тут долго спорить, а я уже подустал писать. Что-то правда, что-то эмоциональный перегиб. Будем считать, что автор прав.
1С - это фреймворк, инструмент в руках энтерпрайз-архитектора. Сегодня 1С, а завтра выкинем ее и перепишем на go, а вон тот САП, наоборот, заменим на 1С, т.к. они задолбали ломить такой ценник и крайне медленно делать сущее говно. Код не важен, важен смысл. 1С это такое же айти, как и любое другое. Команда может быть крутой, как была в Связном (Ваня, привет, держись там), и тогда на 1С будет логистический процессор и DWH, а может быть дерьмовой и тогда у вас на .NET Automapper будут считаться скидки при чтении JSON. Надо трезво смотреть на вещи, а не очаровываться мифами про прекрасную жизнь за порогом 1С. Ну и да, если вдруг ты не знаешь, что существует что-то кроме конфигуратора, то ты тупой 1С-ник, just admit it.
А что там по деньгам?
---------------------
Выступление было в 2020 году, а готовился я к нему в 2019, поэтому на 2022 цифры уже не соответствуют. Сейчас мидл 1С-ник в Москве это 230-250, но это я прямо сильно навскидку, давно не изучал рынок мидлов. Сеньоры столько же сколько в других языках, ибо сеньоры это не про код а про решение задач, тайм-ту-маркет и прочее скучное. Сеньор решает задачи. Если с помощью 1С, то значит с помощью 1С. А если надо, он и Python рядом прикрутит, и компоненту внешнюю найдет на гитхабе, на то он и синьор.
> *Многие толковые 1С-ники, которым уже за 30+, боятся уйти из 1С из-за проседания по доходам, у многих кредиты, семьи, да и время сейчас неспокойное. Думаю, что важно иметь хорошее резюме, побольше опыта, пусть даже и в GitHub – и все приложится.*
>
> *У меня получилось не просесть по доходам, даже выторговать больше.*
>
>
Все так. Свитч не обязательно с просадкой доходов. Вопрос в том, полезный человек или нет. Рынок достаточно нагрет и спрос большой.
Заключение
----------
> *Несмотря на критику оригинальной статьи и фреймворка 1С в целом, я хотел бы сказать спасибо его создателям. Именно с помощью 1С простой парень из провинции начал зарабатывать себе на жизнь любимым делом – программированием.*
>
>
А как же "жадные капиталисты, плюющие в морды своим разработчикам"?
> *Если резюмировать, я согласен с автором, что для быстрого прототипирования CRUD-приложений без высокой нагрузки лучше 1С нет. Задумка фреймворка 1С изначально была хорошая, но для своего времени, когда царили монолитные приложения. Проблемы 1С начинаются там, где требуется разработать что-то необычное и интересное. А этого по прошествии 10 лет на 1С очень хотелось.*
>
>
Я бы сказал, что 1С это решение для быстрой разработки, на котором легче, чем на другом языке написать плохо, за счет того, что в профессию попадает кто попало, ибо освоить легко. А если писать хорошо, то 1С это офигенное бизнес-приложение, просто на нем не надо делать сайт предприятия и CAD-систему. Собственно, [я про это уже писал, вот тут](https://habr.com/ru/post/480658/) (поскольку вы не перешли в эту статью в начале текста, то теперь самое время это сделать, ибо я закончил).
Давайте полемизировать правильно, дамы и господа. Экосистеме 1С нужны грамотные дискуссии по существу. Надеюсь, никого сильно не обидел. И да пребудет с вами сила. | https://habr.com/ru/post/696082/ | null | ru | null |
# Global site tag (gtag.js) в Google Analytics. Что это такое и нужен ли он вам?
Если недавно вы добавляли код отслеживания Google Analytics на сайт, то заметили совершенно другой код счётчика, который выглядит так:

Сложилась какая-то путаница вокруг этого gtag.js кода. Эта статья должна всё прояснить. Вы поймете, нужен вам gtag.js или нет.
Что такое Global Site Tag или gtag.js?
--------------------------------------
За последние годы Google Analytics выпускала несколько обновлений своей библиотеки JavaScript, каждая из которых добавляла новые функции и её рекомендовали использовать.
Однако, это не совсем то же самое. Это не просто еще одно обновление библиотеки. Global Site Tag создан, чтобы упростить и сделать рациональнее отслеживание для **всех продуктов Google**.
Новый код gtag.js полностью изменит то, как мы собираем данные. Изменение нацелено на сайты, в которых несколько разных кодов встраиваются на странице напрямую, например Google Analytics и Google AdWords. Напрямую — значит без использования менеджера тегов.
Это новый стиль установки счётчика с одной целью — иметь один централизованный тег, который отправляет данные во все маркетинговые и аналитические инструменты Google. Больше не нужно тратить часы на настройку тегов на вашем сайте.
Это не просто новая библиотека для Google Analytics. На фоне загружается всё та же analytics.js, а вместе с ней — дополнительные коды. Выбор библиотек зависит о того, какие инструменты вы используете, например conversions.js для Google AdWords.
Раньше мы переходили с классической версии кода (ga.js) до Universal Analytics (analytics.js) и сравнивали это с заменой двигателя автомобиля. Шесть цилиндров — классическая версия и восемь цилиндров — Universal Analytics. Переход на gtag.js полностью отличается. Вы все еще используете восьмицилиндровый двигатель, но он работает по-другому. Можем это сравнить с тюнингом или прошивкой существующего двигателя...
Вместе с gtag.js мы получаем много новых возможностей. Уже решили перейти на новый код, чтобы воспользоваться преимуществами? Не нужно спешить.
Стойте! Зачем мы тогда используем Google Tag Manager?
-----------------------------------------------------
Важно отметить, что нет необходимости использовать gtag.js, если вы уже используете Google Tag Manager. Если вы используете GTM, просто продолжайте это делать. На деле, мы рекомендуем не встраивать коды напрямую, а использовать менеджер тегов Google Tag Manager. Но если вы связанные обстоятельствами и не можете так поступить, то продолжайте читать
Как это работает?
-----------------
Для примера возьмём типичный сайт, на котором установлены следующие коды:
* Отслеживание просмотров страниц Google Analytics на каждой странице.
* Отслеживание событий Google Analytics для интересных нам взаимодействий.
* Е-commerce Google Analytics для отслеживания для покупок, шагов оформления заказов и много другого.
* Отслеживание конверсий Google AdWords: покупки или заполнение формы заявок.
* Тег ремаркетинга Google AdWords для создания аудиторий.
Это ПЯТЬ отдельных тегов для продуктов Google!
Новый gtag.js упрощает всё это:
* Вы сможете совместить сразу несколько тегов продуктов Google в одном месте вашего кода.
* Установка станет проще и вам легче будет подключить в работу все ваши продукты Google.
* Теперь есть возможность отправлять данные в несколько инструментов одновременно, а не задействовать отдельные теги.
Например, если вы используете Google Analytics и Google AdWords, ваш фрагмент gtag.js будет выглядеть так:
```
window.dataLayer = window.dataLayer || [];
function gtag(){dataLayer.push(arguments);}
gtag(’js’, new Date());
gtag(’config’, ’UA-1234567-8′);
gtag(’config’, ’AW-1234567-8′);
```
Код gtag.js будет размещен на каждой странице вашего сайта. `config` — это команда, которая подтягивает соответствующую библиотеку для выбранного продукта, например analytics.js для Google Analytics или conversion.js для Google AdWords.
Команда `config` позаботится о некоторых начальных установках, отправит просмотр страницы в Google Analytics или сделает ремаркетинговый хит в AdWords. Вы можете и отменить эти действия по умолчанию. Отредактируйте строку `config` так:
`gtag(’config’, ’UA-66848305-11′, { ’send_page_view’: false });`
Обратите на это внимание, когда решите добавить отслеживание конверсий AdWords на ваш сайт. AdWords теперь тоже предлагает установку в gtag-стиле.
Ещё изменится способ настройки отслеживания событий, электронной коммерции и междоменного отслеживания для Google Analytics, а также конверсий для AdWords. Все это можно найти в документации по gtag.js для [Google Analytics](https://developers.google.com/analytics/devguides/collection/gtagjs/) и [Google AdWords](https://developers.google.com/adwords-remarketing-tag/).
Нужен ли мне gtag.js?
---------------------
Так стоит ли мне обновляться? Мы предлагаем использовать следующую схему, чтобы понять стоит ли вам использовать gtag.js.
* **Ставлю коды на новый сайт.** Рекомендуем использовать GTM и не обращать внимания на gtag.js. Но если коды можно ставить только напрямую, то установите gtag.js. Вы получите последнюю версию Google Anlytics и сможете гибко работать с остальными продуктами Google.
* **Уже есть сайт с кодами аналитики.** Если коды установлены через GTM, то ничего не меняйте. GTM дает больше возможностей чем gtag.js. Если вы не используете GTM, то стоит задуматься, что бы на него перейти.
* **Universal Analytics (anlytics.js) встроен без GTM.** Не стоит спешить переходить на gtag.js. Библиотека analytics.js никуда не делась, просто в gtag.js она загружается в другом стиле. Если поймет, что новый способ внедрения кодов удобнее, то переходите на gtag.js.
* **Установлена классическая библиотека (ga.js) без GTM.** Давно пора перейти на Universal Analytics. Это хороший повод использовать новый gtag.js.
Запомните: если вы в настоящее время используете на странице analytics.js, нет необходимости спешить с миграцией на gtag.js. Объем работы, который потребуется для этого, зависит от того как организованы коды на вашем сайте.
Нет ничего плохого, чтобы продолжать использовать обычный analytics.js. Обратитесь к [документации по analytics.js](https://developers.google.com/analytics/devguides/collection/analyticsjs/). | https://habr.com/ru/post/353572/ | null | ru | null |
# Установка SVN+Trac+TracWebAdmin
Привет всем!
Сегодня я расскажу как правильно и без гемора установить связку SVN + Trac + TracWebAdmin.
Для чего все это...?
====================
Представьте себе ситуацию: у вас есть проект, который находится на стадии разработки. Скрипты содержат тысячи строк кода. Постоянное сохранение, бэкап файлов, удаление фрагментов кода, вставка новых вынуждают вести точный контроль над исходным кодом проекта, чтобы не потерять уже существующее и проверенное. Вам приходится записывать в текстовом файле или на бумаге этапы разработки и тестирования отдельных частей системы, возможно даже записывать версии файлов. Возможно это удобно… но не надолго — насутпают моменты, когда контролировать код вручную становится физически невозможным из-за его размера. Здесь на помощь приходит система контроля за версиями SVN. Начать ознакомление можно осюда: [ru.wikipedia.org/wiki/SVN](http://ru.wikipedia.org/wiki/SVN). А Trac — это всего лишь удобный веб-интерфейс для еще более удобного контроля за своим проектом. Рассмотрение Trac'а можно начать отсюда: [ru.wikipedia.org/wiki/Trac](http://ru.wikipedia.org/wiki/Trac)
В принципе мануалов по установке SVN + Trac огромное множество и все они предлагают разные способы — я решил представить один из них. Главной целью данного топика является установка плагина TracWebAdmin — покопавшись в инете я не нашел ни одного ПОЛНОГО мана по установке данной фичи. Также этот топик является логичным продолжением предыдущего моего топика [Установка и настройка Apache2+PHP5+MySQL+XDebug & Eclipse+PDT+XDebug в Ubuntu 7.10](http://habrahabr.ru/post/20736/).
Начнем-с…
Установка Subversion и Trac
===========================
1. Ставим trac, python и subversion:
`# apt-get install trac libapache2-svn subversion python-subversion libapache2-mod-python`
2. Включаем модуль питона:
`# a2enmod python`
Настройка Subversion
====================
1. Создаем группу для работы с SVN:
`# groupadd svn`
2. Добавляем себя (ваше имя пользователя в Ubuntu) в группу svn:
`# usermod -a -G svn имя_пользователя`
3. Добавляем apache в группу svn:
`# usermod -a -G svn www-data`
4. Создаем папку для будущего репозитория:
`# mkdir /var/svn`
5. Создаем репозиторий:
`# svnadmin create /var/svn`
6. Меняем права к папке для доступа пользователям из группы svn:
`# chown -R www-data:svn /var/svn`
7. Разрешаем на запись группе и владельцу:
`# chmod -R g+ws /var/svn`
8. Создаем пароль для доступа к папке с репозиторием, который впоследствии будет использоваться apache'ем:
`# htpasswd -c -m /etc/apache2/svn.htpasswd имя_пользователя`
9. Теперь создадим правило для Apache для доступа к svn-репозиторию:
`# nano /etc/apache2/conf.d/svn`
`DAV svn
SVNPath /var/svn
AuthType Basic
AuthName "SVN Repo"
AuthUserFile /etc/apache2/svn.htpasswd
Require valid-user`
10. Перезапускаем апач:
`# service apache2 restart`
11. SVN установлен! Он доступен по адресу [localhost/svn](http://localhost/svn)
Настройка Trac
==============
1. Создаем папку для Trac'а:
`# mkdir /var/trac`
2. Создаем среду для работы Trac с SVN:
`# trac-admin /var/trac initenv`
3. Меняем права к папке с trac'ом:
`# chown -R www-data:svn /var/trac; chmod -R g+ws /var/trac`
4. Создаем пароль для админ-доступа к папке с trac'ом, который впоследствии будет использоваться apache'ем:
`# htpasswd -c -m /etc/apache2/trac.htpasswd имя_пользователя`
5. Создадим правило для Apache для доступа к trac'у:
`# nano /etc/apache2/conf.d/trac`
`AuthType Basic
AuthName "Projects"
AuthUserFile /etc/apache2/trac.htpasswd
Require valid-user
SetHandler mod\_python
PythonInterpreter main\_interpreter
PythonHandler trac.web.modpython\_frontend
PythonOption TracEnv /var/trac
PythonOption TracUriRoot /trac`
6. Trac установлен! Он доступен по адресу [localhost/trac](http://localhost/trac)
Установка плагина TracWebAdmin
==============================
**Начиная с версии Trac 0.11 плагин TracWebAdmin интегрирован в ядро и каких-либо дополнительных телодвижений для установки не требуется. Сейчас стабильная версия считается 0.12.**
1. Добавляем себя в админы trac'а:
`# trac-admin /var/trac permission add имя_пользователя TRAC_ADMIN`
**[yoreeq](https://habrahabr.ru/users/yoreeq/) не бей сильно, плз ;)
Установка Trac+SVN была взята отсюда: [habrahabr.ru/post/20525](http://habrahabr.ru/post/20525/)**
**UPD [18.03.2012]:** Статья обновлена дабы идти в ногу со временем :) | https://habr.com/ru/post/26117/ | null | ru | null |
# Практический JS: проблемы innerHTML
*Примечание: ниже перевод статьи Julien Lecomte [«The Problem With innerHTML»](http://www.julienlecomte.net/blog/2007/12/38/), в которой автор рассматривает проблемы при использовании метода innerHTML в современных браузерах и предлагает ряд советов, как ее можно избежать. Мои комментарии далее курсивом*
Свойство `innerHTML` крайне популярно среди веб-разработчиков в силу своей простоты и удобства, поскольку оно совершено элементарно позволяет заменить HTML-содержание у конкретного тега. Можно также воспользоваться DOM Level 2 API (`removeChild`, `createElement`, `appendChild`), но использование `innerHTML` гораздо более простой и эффективный способ для модификации DOM-дерева. Однако, есть ряд проблем при использовании `innerHTML`, которых следует избегать:
* Неправильная обработка свойства `innerHTML` может привести к атакам, связанным со script-инъекциями (*XSS*) в Internet Explorer, когда HTML-строка содержит вызов `</code>, помеченного как отложенный: <code><script defer>...`
* Выставление свойства `innerHTML` уничтожит все текущие вложенные HTML-элементы со всеми обработчиками событий, что потенциально может вызвать утечки памяти в некоторых браузерах.
Есть и еще несколько более мелких недостатков, которые тоже стоит упомянуть:
* Нельзя получить ссылку на только что созданные элементы, вам приходится добавлять код для получения ссылки на них вручную (используя DOM API).
* Вы не можете выставить `innerHTML` для всех HTML-элементов во всех браузерах (к примеру, Internet Explorer не позволяет выставить `innerHTML` для строки таблицы (*tr*)).
Лично меня больше волнуют вопросы безопасности и использовании памяти, связанные с использованием свойства `innerHTML`. Однако, описанная проблема далеко не нова, и уже некоторые светлые головы уделили ей внимание и предложили методы, для ее решения.
[Douglas Crockford](http://www.crockford.com/) написал [функцию `purge`](http://www.crockford.com/javascript/memory/leak.html), которая удаляет некоторые циклические ссылки (*circular references*), вызванные добавлением обработчиков событий к HTML-элементам, позволяя сборщику мусора (*garbage collector*) полностью освободить всю память, с ними связанную.
Удаление тега | https://habr.com/ru/post/31413/ | null | ru | null |
# PHP: Расширенный текучий интерфейс
Уверен, что многим из вас, кто читает этот текст, знакомо понятие Текучий интерфейс. И даже если вы про него не слышали, уверен, что вы им пользовались и не раз. Это действительно удобно. Так о чем же идет речь?
```
php
class Images {
public $width;
public $height;
public function SetWidth($value) {
$this-width = $with;
return $this;
}
public function SetHeight($value) {
$this->height = $value;
return $this;
}
}
$images = new Images();
$images->SetWidth(100)->SetHeight(100);
?>
```
Вот небольшой пример. Мы можем в строчку, последовательно, производить действия. Этот же принцип лежит в основе популярной библиотеки jQuery. Да что тут говорить, все современные фреймворки изобилуют подобными конструкциями. А вот что если использовать подобный механизм для построения всего сайта?
#### Вход
Тут я сделаю не большое отступление, вернусь назад. Чтобы продолжить нужно ответить на вопрос зачем? Ну, действительно, зачем придумывать велосипед, если есть стандартные модели и проверенные архитектуры. Я говорю про семейство моделей MVC. Чем MVC плох?
Да нет, он не плох. Но он имеет свои ограничения, как и все в этом мире. Это прекрасная модель построения сайта. Именно сайта. Но вот когда речь заходит о построении, на его основе веб-приложения, увы, ощущаются его ограничения. Давайте подробней рассмотрим ситуацию. Возьмем, например стандартный сайт. Не важно, какой он будет темы. Смотрим картинки.

Тут нарисована схема компоновки сайта. Мы видим блок новостей, вкладки (могут быть и просто кнопки), блок рекламы и блок содержание. Содержание содержит таблицу — индекс. Как организовать запрос к этой странице?
`mysite.ru/section=2&task=index`
Это классический, распространенный механизм. Один параметр передает раздел, другой задачу. Вот еще одна картинка. Смотрим

Тут уже содержание сайта содержит форму редактирование. Вот запрос к этой странице сайта
`mysite.ru/section=2&task=edit`
Все хорошо и понятно. Программируется такое тоже просто. Например, так
```
php
class Site {
public function Section($value) {
return new MyController();
}
}
class MyController extends GeneralController {
public function Index() {
return new Table();
}
public function Edit() {
return new Form();
}
}
$site = new Site();
$section = $_GET["section"];
$task = $_GET["task"];
$site-Section($section)->$task();
?>
```
Класс Site возвращает контролер для нужного раздела. Контролер раздела MyController выполняет необходимые действия.
Скажите, а что делать, если, вы разрабатывает не сайт, а веб-приложение. Интерфейс веб-приложения на много сложней приведенного выше. Вкладки, таблицы, меню и т.д. Ведь до каждого элемента страницы мы должны иметь доступ, обновлять его, перерисовывать? Что если большая часть содержимого должна обновляться AJAX`ом? Смотрим еще картинку

Теперь наш сайт имеет дерево, кучу вкладок, форму, несколько тулбаров и т.д. Таблицы, что вставлены во вкладки, сортируются во все направления. А поле Аватар в форме может без перезагрузки всей страницы загружать и удалять картинку. Так как же организовать запросы ко всем этим элементам?
Давайте попробуем пойти тем же путем. Пусть у нас та же схема MVC. Очевидно, что нам понадобится еще один параметр который будет указывать что конкретно на странице изменить. Пусть он будет называться part. Тогда запросы могут выглядеть примерно так:
`mysite.ru?section=2∂=tree&task=expand
mysite.ru?section=2∂=form&task=delete`
А как обратится к тулбару в разделе Дерево? Или к тулбару во вкладке Содержания? Еще один параметр вводить? Тупик
#### Выход
И опять картинка.

Это структурная схема раздела Пользователи Электронного Университета. Я уверен, что не нужно иметь даже высшее образование, чтобы понять ее содержание. Понять, что Студенты состоят из Груп, а группы уже из элементов Студент. Перед нами вложенность. И теперь мы вспоминаем Текучий интерфейс и делаем следующее предположение. А почему бы методам корневого объекта не возвращать другие объекты, а ни только свой объект? Собственно, как только мы такое реализуем, мы легко развернем эту схему в цепочку. Поехали!
```
php
class Members {
public function Teachers() {
return new Teachers();
}
public function Students() {
return new Students();
}
}
class Teachers {
public function Teacher($number) {
return new Teacher($number);
}
}
class Students {
public function Group($number) {
return new Group($number);
}
}
class Group {
public function Student($number) {
return new Student($number);
}
}
class Teacher {
public function Show() {
}
}
class Student {
public function Show() {
}
}
?
```
Теперь, чтобы показать студента, нужно выполнить следующую цепочку команд
`Members::Students()->Group(123)->Student(327)->Show();`
Давайте повторим вопрос, вопрос который привел нас к тупику в предыдущем абзаце. А как обратится к тулбару в разделе Дерево?
Отвечаем. Вот так
`Members::Students()->Group(123)->Student(327)->Tree()->Toolbar()->Add();`
Сам класс Student может иметь внутри себя такие же вызовы на цепочки к другим объектом. Проще говоря, класс студент состоит из формы, метод Form(), Tree() — дерево и что там еще нужно. Это как конструктор Лего. Что видим, то и лепим, составляем, конструируем!
#### Десерт
Выше предложенная схема Расширенного Текучего интерфейса для построения веб-приложений очень легко трансформируется в цепочку запросов, цепочка — в адрес сайта, в позицию пользователя на сайте.
В случае, если вы напишите в .htaccess следующее
`RewriteEngine On
RewriteBase /
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*)$ index.php [QSA,L]`
То все запросы на сайт, будут перенаправлены на index.php. В нем, вам останется ссылки типа
`mysite.ru/control/members/students/group=123/student=321/show`
превратить в цепочку команд
`Application::Control()->Members()->Students()->Group(123)->Student(431)->Show();`
Сделать это можно так.
```
php
class Application {
public function __construct() {
if (!$this-request = $this->Request()) {
$this->errors[] = ERROR_PARAM_GET;
}
}
public function Init() {
if (!is_object(self::$instance)) {
self::$instance = new self();
}
return self::$instance;
}
public function Request() {
if (!$uri = explode("/", $_SERVER["REQUEST_URI"])) {
return false;
} else {
foreach ($uri as $item) {
if (strpos($item, "=")) {
$key = substr($item, 0, strpos($item, "="));
$value = substr($item, strpos($item, "=")+1);
} else {
$key = $item;
$value = null;
}
if (!empty($item)) {
$result[] = array(
"key" => $key,
"value" => isset($value) ? $value : null
);
}
}
}
return $result;
}
function Run() {
if (isset($this->errors)) {
foreach ($this->errors as $error) {
echo $error;
}
} else {
$root = $this;
/**
* Запускаю цепочку команд
* если команда не верная, возвращаю преветствие
*/
foreach ($this->request as $element) {
if (is_object($root) && method_exists($root, $element["key"])) {
$root = $root->{$element["key"]}(@$element["value"]);
} else {
return $this->Welcome()->Show();
}
}
}
}
}
Application::Init()->Run();
?>
```
PS: Уважаемые коллеги. Приведенные примеры кода, не содержат проверок и по этому, не могут быть использованы в рабочих проектах как есть. Написаны они исключительно для наглядности.
#### Ссылки
Для подготовки этого материала, я использовал [gomockingbird.com/mockingbird](https://gomockingbird.com/mockingbird/) в котором я рисовал схемы сайта. | https://habr.com/ru/post/132115/ | null | ru | null |
# Как изменить формат данных JSON на Snake Case в ASP.NET Core Web API
Стандартный способ отображения данных в ASP.NET Web API - это Camel Case. Но иногда возникают задачи, когда нужно изменить формат данных на нечто другое. Например, на фронтенде у вас может быть SPA, которое как раз работает с данными в формате snake case. В этой статье я покажу, как изменить формат сериализации в ASP.NET Core Web API.
Camel case vs Snake caseВ статье приведены примеры кода, которые необходимо будет перенести в свой проект. В конце поста - ссылка на Github репозиторий, где я уже настроил приложение на сериализацию в snake case. Все примеры кода и проект в репозитории написаны на ASP.NET Core версии .net5.
### Меняем формат сериализации запросов и ответов сервера
Все, что нам нужно сделать для изменения сериализации, это установить Naming Policy в настройках приложения. Стандартный полиси - это Camel Case. Установка полиси на Snake Case - задача несложная.
Сначала добавим утилитарные методы для трансформации строк к snake case:
```
using Newtonsoft.Json;
using Newtonsoft.Json.Serialization;
using Utils.Helpers;
namespace YourNamespace
{
public static class JsonSerializationExtensions
{
private static readonly SnakeCaseNamingStrategy _snakeCaseNamingStrategy
= new SnakeCaseNamingStrategy();
private static readonly JsonSerializerSettings _snakeCaseSettings = new JsonSerializerSettings
{
ContractResolver = new DefaultContractResolver
{
NamingStrategy = _snakeCaseNamingStrategy
}
};
public static string ToSnakeCase(this T instance)
{
if (instance == null)
{
throw new ArgumentNullException(paramName: nameof(instance));
}
return JsonConvert.SerializeObject(instance, _snakeCaseSettings);
}
public static string ToSnakeCase(this string @string)
{
if (@string == null)
{
throw new ArgumentNullException(paramName: nameof(@string));
}
return _snakeCaseNamingStrategy.GetPropertyName(@string, false);
}
}
}
```
Здесь мы добавляем пару полезных методов: первая перегрузка метода нам пригодится для применения на объектах, вторая - для строкового значения. Мы используем тут класс `SnakeCaseNamingStrategy` для трансформации строк. Эти методы понадобятся нам в реализации нашего Naming Policy:
```
using System.Text.Json;
using Utils.Serialization;
namespace YourNamespace
{
public class SnakeCaseNamingPolicy : JsonNamingPolicy
{
public override string ConvertName(string name) => name.ToSnakeCase();
}
}
```
Здесь мы как раз используем метод-экстеншн `ToSnakeCase()` для трансформации. Инстанс класса `SnakeCaseNamingPolicy` мы будем использовать в `Startup.cs` в методе `ConfigureServices`:
```
public class Startup
{
public void ConfigureServices(IServiceCollection services)
{
// ...
services
.AddControllers()
.AddJsonOptions(x =>
{
x.JsonSerializerOptions.PropertyNamingPolicy = new SnakeCaseNamingPolicy();
});
// ...
}
}
```
После добавления этой настройки наше приложение принимает и отдает данные в JSON в формате Snake Case:
Данные в Snake Case форматеНо когда у нас возникнет ошибка валидация входящих данных, мы обнаружим, что…
Формат выдачи ошибок валидации до сих пор в Camel CaseСкрин выше - это то, как будет отображена ошибка валидации. Как мы видим, она до сих пор в формате Camel Case, даже с примененными нами настройками. Более того, поля класса FirstName и LastName написаны уже в формате Pascal Case, а мы принимаем и отдаем их в Snake Case. Нам такое поведение не подходит, будем исправлять.
### Меняем формат выдачи ошибок валидации
Чтобы это сделать, нам нужно заменить стандартную "фабрику ответов" в ASP на свою собственную. Сначала создадим класс, который и будет формировать нам структуру ошибок:
```
using System;
using System.Collections.Generic;
using System.Net;
using Microsoft.AspNetCore.Mvc;
namespace YourNamespace
{
public class ValidationProblemDetails : ProblemDetails
{
// 400 status ccode is usually used for input validation errors
public const int ValidationStatusCode = (int)HttpStatusCode.BadRequest;
public ValidationProblemDetails(ICollection validationErrors)
{
ValidationErrors = validationErrors;
Status = ValidationStatusCode;
Title = "Request Validation Error";
}
public ICollection ValidationErrors { get; }
public string RequestId => Guid.NewGuid().ToString();
}
}
```
Этот класс принимает список ошибок, который и будет отображен в JSON. Класс наследуется от `ProblemDetails` из неймспейса `Microsoft.AspNetCore.Mvc`. Поле RequestId нам поможет найти конкретную запись ошибки в логах при просмотре через наш UI мониторинга.
Затем нам нужно создать класс для замены стандартного `InvalidModelStateResponseFactory`:
```
using System.Collections.Generic;
using System.Linq;
using System.Threading.Tasks;
using Microsoft.AspNetCore.Mvc;
using Utils.Serialization;
namespace YourNamespace
{
public class ValidationProblemDetailsResult : IActionResult
{
public async Task ExecuteResultAsync(ActionContext context)
{
var modelStateEntries = context.ModelState
.Where(e => e.Value.Errors.Count > 0)
.ToArray();
var errors = new List();
if (modelStateEntries.Any())
{
foreach (var (key, value) in modelStateEntries)
{
errors.AddRange(value.Errors
.Select(modelStateError => new ValidationError(
name: key.ToSnakeCase(),
description: modelStateError.ErrorMessage)));
}
}
await new JsonErrorResponse(
context: context.HttpContext,
error: new ValidationProblemDetails(errors),
statusCode: ValidationProblemDetails.ValidationStatusCode).WriteAsync();
}
}
}
```
Напоследок добавим замену механизма формирования ошибок в классе `Startup.cs`:
```
public class Startup
{
// ...
public void ConfigureServices(IServiceCollection services)
{
// ...
services
.Configure(x =>
{
x.InvalidModelStateResponseFactory = ctx => new ValidationProblemDetailsResult();
});
// ...
}
}
```
И теперь наши ошибки сериализуются в Snake Case тоже:
Структура ошибки в формате Snake CaseПосле всех изменений наше приложение теперь не только отдает и принимает JSON данные в формате Snake Case, но и показывает валидационные ошибки тоже в том виде, в котором нам нужно. Здесь по ссылке вы можете открыть [Github репозиторий](https://github.com/maximgorbatyuk/snake-case-net-demo), где есть пример настроенного приложения. По описанным шагам вы можете применить не только Snake Case, но и любой другой формат сериализации данных, который вам по душе. | https://habr.com/ru/post/543370/ | null | ru | null |
# Autoscaling — инструмент автоматического вертикального масштабирования ресурсов (CPU|RAM|HDD)
#### В начале этого года у наших [облачных VDS](http://bit.ly/habr-vds) появился [публичный API](http://bit.ly/netangels-API). Он позволяет клиенту делать практически все те же действия с облачными виртуальными машинами и дисками, что и в панели: создавать, удалять диски и ВМ, изменять тарифы и размер диска и тп.

Вместе с появлением API появилась и идея на его основе реализовать систему мониторинга за ресурсами виртуальной машины (ВМ), работающую внутри машины, и автоматического увеличения/уменьшения необходимых ресурсов по необходимости — автоскейлинг (autoscaling, АS).
**Некоторые пояснения по AS**Здесь стоит уточнить, что поскольку система AS основана на API, в ее задачи не входит мгновенное предоставление ресурсов по требованию, в момент появления необходимости в них, или угадывание/предсказывание будущей необходимости в ресурсах. Суть AS заключается в том, что он должен зафиксировать момент, когда можно с уверенностью сказать, что ресурсов текущего тарифного плана становится недостаточно для гарантированного**\*** и своевременного**\*\*** выполнения запущенных на виртуальной машине процессов, и автоматически перевести ВМ на следующий тариф.
> \*\*Своевременного — потому что, если выполнение запущенных процессов упирается в процессорный ресурс, то процессы так или иначе выполнятся. Но время их завершения становится непредсказуемым.
>
> \*Гарантированного, потому что если оперативная память ВМ близка к исчерпанию и на ВМ не настроен swap, то это означает, что близка ситуация, когда какой-то из запущенных на ВМ процессов будет аварийно завершен операционной системой, если суммарное потребление памяти всеми процессами превысит ее общий объем. Если же swap настроен, то пока он также не исчерпается, никто убит не будет, но быстродействие ВМ также сильно просядет, т.к. будет зависеть от скорости работы swap-раздела, которая в любом случае на порядок меньше, чем скорость работы оперативной памяти.
Для того, чтобы понять, что ситуация близка к критической, AS должен провести наблюдения в течение некоторого времени. Ведь ситуация с мгновенным кратковременным всплеском нагрузки, скорее всего не является хорошим поводом для смены тарифа. Таким образом, стоит учитывать, что когда AS понимает, что ситуация является критической, вполне вероятно, что некоторая нехорошая ситуация уже случилась (страничка вашего сайта уже минуту не загружается у какого-то посетителя, или какие-то процессы на вашей ВМ уже были аварийно завершены OOM-Killer-ом — подсистемой ядра linux, выбирающей, какой процесс надо принести в жертву, чтобы остальная система продолжала работать, если оперативная память исчерпана). То есть, AS не является серебряной пулей, гарантированно защищающей ваши сервисы от недостатка ресурсов. Но он настроен таким образом, чтобы свести к минимуму негативные последствия от исчерпания ресурсов за счет своевременного их расширения. Он сделает это наверняка быстрее, чем вы сами заметите или даже узнаете, что на вашем сервере появились проблемы и успеете дотянуться до панели управления ВМ, чтобы руками расширить ресурсы. Больше того, в большинстве случаев (все зависит от профиля возрастающей нагрузки) AS переключит тариф раньше, чем нехватка ресурсов успеет проявиться явным негативным образом.
**В то же время, если критическая ситуация с ресурсами не наблюдается, AS пытается понять, действительно ли есть необходимость использовать именно данный тариф, или достаточно будет и более дешевого тарифа, и если да, то он своевременно переведет вас на более экономичный тариф без ущерба для качества работы вашей ВМ.**
Аналогично с диском. Мы постараемся расширить его раньше, чем на нем закончится место. В случае с диском автоматика работает только в сторону увеличения. Уменьшение файловой системы — это offline-операция, требующая остановки виртуальной машины. Вы по прежнему сможете это сделать через панель управления, когда это вам понадобится.
Мы разделили возможность включения AS по разным критериям. Например, вы можете отдельно включить autoscaling по критерию памяти, но не включать его по процессору, если считаете, что быстродействие запущенных внутри вашей ВМ процессов не столь критично, как стабильность их работы, и не требует дополнительных затрат денег. Например, если у вас на виртуальной машине регулярно запускается какой-то тяжелый долгоиграющий процесс, скажем, выгрузка большого массива данных в базу, или другая плановая обработка большого массива данных, то вам, возможно, не так принципиально, когда именно завершится этот процесс: через час или через два, но гораздо более критично, что бы этот процесс завершился в принципе, а не был убит случайно операционной системой в случае недостатка оперативной памяти.
Или если у вас на ВМ работает маленькое приложение, и вы уверены, что для его работы не потребуются дополнительные память и CPU, но опасаетесь, что постоянно накапливающиеся логи от него могут забить весь диск и привести к остановке важного процесса, можно включить только автоматическое расширение диска и выбрать максимальный предел, до которого вы готовы позволить ему расширяться. Для скейлинга по процессору и/или по памяти также нужно задать верхнюю и нижнюю границу изменения ресурсов на линейке тарифных планов.
При каждой смене тарифа или расширении диска наша панель управления автоматически отправит вам уведомляющее письмо на контактный адрес с описанием того, что и почему было сделано. Так что, если вы считаете, что это нештатная ситуация, вы можете тут же зайти на сервер и разобраться с тем, почему возросла нагрузка или что именно забило весь диск.
**Давайте рассмотрим подробнее, как все это работает.**
Итак, в нашем случае **autoscaling** — это набор python-скриптов, запускающихся по cron-у. При запуске они читают предыдущую историю замеров, производят дополнительную необходимую диагностику системы, сохраняют обновленную историю для следующего запуска, производят оценку полученных данных и при необходимости производят действия по изменению тарифа или расширению диска, либо просто завершаются.
**Autoscaling диска.**
К виртуальной машине может быть подключено несколько дисков. Autoscaling можно включать отдельно для каждого диска, и отдельно выставлять лимит, до которого диск может быть автоматически расширен.
**Ограничения:**
По умолчанию на новом диске ставится ФС ext4, но пользователь может позже на свой диск установить любую другую ФС, таблицу разделов, lvm или что-то еще, что ему необходимо. Поскольку ФС должна, так же как и сам диск, расширяются автоматически (иначе теряется суть AS), существует риск предпринять какие-либо деструктивные действия по отношению к тому, что установлено на диске и в самом неприятном случае это может привести, в том числе, к потере данных. Поэтому мы решили ограничить возможность работы AS только штатной ФС ext4.
Также мы не даем включать autoscaling для диска на системах, основанных на Centos6, так как в них используется слишком старое ядро 2.6, в котором некорректно работает **udev**, в следствие чего файловая система автоматически не расширяется после расширения диска.
**Механизм работы:**
По cron-у раз в 7 минут запускается autoscaling по диску. Из всех доступных источников собирается информация о всех подключенных к системе дисках.
1. При настройке AS в панели, на виртуальную машину отправляется конфиг в формате **json /etc/autoscaling/autoscaling.conf**. Там есть перечень всех дисков, подключенных к данной ВМ (их uid), информация о том, включен ли для них autoscaling и до какого максимума их можно расширять;
2. Внутри ВМ из **/sys/class/block** берем перечень всех дисков, видимых в системе;
3. Из **/proc/partitions** берем размеры дисков;
4. Из **/proc/mounts** извлекаем информацию о типе ФС и о том, смонтирована ли она в режиме read-write;
5. Из вывода df получаем информацию о размере ФС и о том, сколько на ней осталось свободного места.
**В итоге, в результате сбора информации у нас должно получиться что-то вроде заполненной таблицы по всем дискам:**
```
Disk id disk_size max_size autoscale_enabled fs_type is_writable fs_size fs_free
------------------------------------------------------------------------------------------
vda 1081 5 40 True ext4 True 5 1.2
vdb None 0.1 None None iso9660 False 0.1 0.1
vdc 1082 10 45 True ext4 True 10 6.2
vdd 1234 5 15 False ext4 True 5 0.3
```
Если нам удалось собрать всю нужную информацию по диску, на нем находится подходящая ФС (ext4) и если для него включен AS, то выполняется проверка: сколько осталось процентов свободного места на ФС. Если это значение оказывается меньше пороговых 10%, то инициируется отправка вызова API в панель на увеличение данного диска. Панель отправляет соответствующую команду на мастер-сервер, где работает данная ВМ, об увеличении данного диска. (А также панель отправляет пользователю письмо на контактный email о данном событии со всеми необходимыми подробностями). При расширении диска udev внутри пользовательской системы перехватывает это событие и запускает процесс расширения ФC (resize2fs).
Все действия AS логируются внутри виртуальной машины в **/var/log/syslog** и в логах панели.
**Autoscaling тарифов.**
Для изменения памяти или процессора применяется переход на другой тариф. У нас есть линейка тарифов, которую мы можем получать через API в формате **json**.
**Выглядит на данный момент она вот так:**
```
[
{
"memsize": 1024,
"name": "tiny",
"ncpu": 2
},
{
"memsize": 2048,
"name": "small",
"ncpu": 2
},
{
"memsize": 4096,
"name": "medium",
"ncpu": 4
},
{
"memsize": 8192,
"name": "large",
"ncpu": 4
},
{
"memsize": 8192,
"name": "xl8",
"ncpu": 8
},
{
"memsize": 16384,
"name": "xl16",
"ncpu": 8
}
]
```
**Как видно, некоторые переходы на соседний тариф не дают увеличения/уменьшения одного из параметров (cpu/memsize). Например, переход с [«TINY»](http://bit.ly/habr-vds) на [«SMALL»](http://bit.ly/habr-vds) увеличивает только объем памяти, но не добавляет CPU. Для того, чтобы увеличить CPU находясь на [«TINY»](http://bit.ly/habr-vds), надо перейти сразу на [«MEDIUM»](http://bit.ly/habr-vds). Это учитывается при выборе нужного тарифа.**
**Autoscaling тарифов. *Память.***
Информация по потреблению памяти берется из **/proc/meminfo**.
На основе параметров **'MemTotal', 'MemFree', 'Buffers', 'Cached' и 'Shmem'** находим, сколько памяти на данный момент израсходовано и не может быть освобождено при необходимости.
**'Used' = 'MemTotal' — 'MemFree' — 'Buffers' — 'Cached' + 'Shmem'**
**'Buffers'** — это память, отведенная на временное хранение небольших дисковых блоков. Она используется для ускорения операций ввода-вывода с диском и эта память может быть оперативно освобождена операционной системой при необходимости (если какому-то из процессов потребуется памяти больше, чем имеется неиспользуемой памяти).
**'Cached'** — кэш файлов, прочитанных с диска. Эта память также может быть оперативно освобождена.
Но есть также **'Shmem'** — разделяемая память, используемая, как самый быстрый способ межпроцессного взаимодействия (IPC). В **/proc/meminfo** 'Shmem' является частью 'Cached', но эта часть памяти не может быть оперативно освобождена, пока она используется каким-то из процессов.
Тогда процент свободной памяти вместе с той, которая может быть освобождена по требованию, можно посчитать как:
```
('MemTotal' - 'Used') * 100 / 'MemTotal'
```
или
```
('MemFree' + 'Buffers' + 'Cached' - 'Shmem') * 100 / 'MemTotal'
```
Для принятия решения об изменении тарифа в бóльшую сторону мы делаем несколько замеров раз в минуту, каждый раз сохраняя историю предыдущих замеров. Если среднее значение свободной памяти за последние 5 минут окажется меньше пороговых 20%, то мы считаем, что ВМ пользователя уже стабильно перешла в критическую зону, и во избежание дальнейших проблем пора увеличить тариф до следующего тарифа, где памяти больше, чем на текущем. Применяется соответствующий вызов API. Тариф меняется практически мгновенно, без перезагрузок, и в вашей системе сразу же становится существенно больше памяти. Пользователю отправляется письмо на контактный email о произошедшем событии.
История сбора статистики при смене тарифа обнуляется, чтобы избежать влияния на новые замеры в новых условиях. Таким образом, следующая смена тарифа произойдет не раньше, чем накопится новая история замеров.
Также, все действия AS логируются в **/var/log/syslog** и в логах панели.
**Autoscaling тарифов. *Процессор*.**
Статистика по потреблению CPU собирается раз в минуту и учитывается история за последние 10 минут. Статистика по CPU берется из **/proc/stat**, но интерпретировать ее несколько сложнее, чем в случае с памятью.
Дело в том, что для более точного распределения ресурсов мы выдаем виртуальной машине не фактические ядра процессора мастер-сервера, а выдаем всегда любой виртуальной машине 12 ядер мастер-сервера и при помощи cgroups лимитируем, сколько процентов от одного ядра данный процесс виртуальной машины может потребить (Как известно, cgroups — это технология ядра Linux, позволяющая ограничить предоставление ресурсов для процессов или групп процессов ОС). Так что, если на тарифе «MEDIUM» мы предоставляем 4 ядра CPU для ВМ, то это значит, что фактических ядер будет предоставлено 12, и при помощи cgroups будет ограничено потребление CPU четырьмястами процентами от одного ядра. Данный подход дает преимущества в точности и гибкости предоставления ресурсов, так как если мы выдаем виртуальной машине фактические ядра, и на одном ядре работает больше одной ВМ, то они в итоге делят ресурс этого ядра CPU между собой, тогда как лимитирование при помощи cgroups позволяет выдать виртуальной машине ровно то, что обещано (при условии, что мы следим за загруженностью процессора на мастер-серверах и своевременно мигрируем виртуальные машины между более и менее загруженными мастер-серверами). Также это позволяет выдать не целое число ядер CPU, а, положим, 123% от одного ядра (мы этим не пользуемся).
С дугой стороны, у этого подхода есть и минус — менее очевидна становится ситуация для владельца виртуальной машины. Так как в **/proc/cpuinfo**, в **/proc/stat** и во всех утилитах типа **top, htop, atop**, пользователь видит 12 ядер CPU. И чтобы корректно оценить ситуацию при помощи подобных утилит, требуется чуть больше понимания сути этих лимитов (впрочем, для удобства пользователей, в панели управления выводится вся необходимая информация в более привычном виде).
**Итак, из /proc/stat мы видим примерно такую картину:**
```
cpu 308468 0 155290 2087891920 139327 0 1717 323604 0 0
cpu0 52005 0 18792 173912232 41000 0 734 40868 0 0
cpu1 20211 0 23423 173905770 5134 0 253 47490 0 0
cpu2 58747 0 22624 173929843 17311 0 162 35843 0 0
cpu3 46602 0 17294 173965248 16777 0 100 31919 0 0
cpu4 21629 0 9426 174009578 8572 0 66 21842 0 0
cpu5 17057 0 10685 174021499 6986 0 53 18868 0 0
cpu6 14844 0 8881 174011454 5011 0 58 25400 0 0
cpu7 17524 0 10358 174023057 6182 0 66 20343 0 0
cpu8 15126 0 8597 174030215 7034 0 47 19455 0 0
cpu9 15437 0 9150 174023863 10817 0 56 20722 0 0
cpu10 15456 0 8545 174028209 8363 0 62 21390 0 0
cpu11 13826 0 7511 174030947 6135 0 56 19460 0 0
```
Причем, информация о 12 ядрах в данном случае бесполезна. Достаточно первой строки, суммирующей информацию для всех ядер.
```
cpu 308468 0 155290 2087891920 139327 0 1717 323604 0 0
```
**Числовые поля данной строки означают по порядку следующее:****user** — процессорное время, затраченное на обработку процессов в пространстве пользователя.
**nice** — то же самое, но для процессов с измененным приоритетом (nice).
**system** — время, затраченное на выполнение системных вызовов.
**idle** — время в режиме простоя (пока процессор не занят никакими другими задачами из этого списка).
**iowait** — время, проведенное процессором в ожидании операций ввода-вывода.
**irq** — время на обработку прерываний.
**softirq** — некие «легкие» прерывания. (Очевидно, чтобы понять, что это такое, надо выпить столько же плохой водки, сколько и Алексей Кузнецов во время их написания).
**steal** — время, недополученное данной виртуальной машиной в связи с тем, что мастер отдал этот ресурс другой ВМ (и/или сработал cgroups-лимит, как в нашем случае).
**guest** — время, потраченное для работы виртуального CPU для гостевой системы под управлением Linux (этот параметр имеет смысл только на мастер-системе).
**guest\_nice** — аналогично, для гостевых систем с измененным приоритетом.
А также для подсчета статистики по CPU, кроме информации из **/proc/stat** необходима информация о том, сколько на самом деле ядер CPU выделено при помощи cgroups для данной ВМ. Тривиальным способом изнутри самой ВМ это не узнать.
Поэтому, используется еще один вызов API, выдающий основную информацию о виртуальной машине.
**В json ее можно представить так:**
```
{
"id": 11004,
"ips": [
{
"id": 11993,
"ipvalue": "185.41.161.231"
}
],
"memsize": 1024,
"monitoring_enabled": false,
"name": "esokolov_AS_test",
"ncpu": 2,
"ssh_keys": [
42
],
"state": "active",
"storages": [
12344
],
"type": "tiny",
"vm_id": "vm_40b5d315"
}
```
Для возможности скейлинга вниз так же надо знать, сколько ядер будет в случае перехода на меньший тариф. Эта информация берется из таблицы тарифов, приведенной ранее. Чтобы каждую минуту не дергать API с одними и теми же запросами информации от панели (о тарифах и о параметрах данной ВМ), эта информация кэшируется. До изменения тарифа информацию из кэша можно вполне считать актуальной. Кэш сбрасывается в случае смены тарифа, перезагрузки системы или в случае, если он хранится дольше заданного времени (сутки в нашем случае).
В **/proc/stat** информация хранится в виде простых целочисленных счетчиков времени (единица — это одна сотая доля секунды на большинстве архитектур) от старта системы.
Так что, хранение истории нам понадобится не только для получения статистики за последние 10 минут, но и чтобы понять, сколько было израсходовано ресурсов в каждый конкретный период измерений (вычитанием значения предыдущего периода из текущих значений. Назовем эти величины **'cur\_user', 'cur\_nice', 'cur\_system'** итд).
Итак, из **/proc/stat** мы можем вычислить общий объем ресурса CPU (назовем его **'total'**).
```
'total' = 'user' + 'nice' + 'system' + 'idle' + 'iowait' + 'irq' + 'softirq' + 'steal'
```
Общий объем ресурса CPU за текущий период времени (назовем его **'cur\_total'** получается вычитанием **'total'** от предыдущего замера из **'total'** текущего замера). Это ресурс всех 12 ядер. При этом, часть, отданная данной виртуальной машине (**'my\_cur\_total'**), будет равна:
```
'my_cur_total' = 'cur_total' * ncpu / 12
```
где ncpu берется из информации о ВМ (cgroups-лимит в ядрах).
Теперь мы можем рассчитать настоящий **'idle'** (время бездействия CPU) текущего периода времени (назовем его **'my\_cur\_idle'**) для данной VM.
```
'my_cur_idle' = 'my_cur_total' - 'cur_user' - 'cur_nice' - 'cur_system' - 'cur_iowait' - 'cur_irq' - 'cur_softirq'
```
Понятно, что эта величина имеет мало общего с **'idle'** из **/proc/stat**, т.к. там эта величина означает время простоя всех 12 ядер.
Величины **'my\_cur\_idle'**, **'cur\_iowait'**, **'cur\_steal'**, и т.п., выраженные в процентах от **'my\_cur\_total'** — это по сути те величины, которые обычно показывают утилиты типа top, atop, htop.
Они же и являются основанием для переключения тарифа. То есть, вычисляется текущий процент свободного CPU и записывается в истории замеров. Если среднее значение этого процента за последние 10 минут опускается ниже критических 10%, то мы переключаем тариф на тариф с бóльшим количеством CPU. То есть, основанием для переключения вверх является ситуация, когда на виртуальной машине за последние 10 минут потреблялось в среднем более 90% CPU.
Длительности замеров и пороговые значения, конечно, взяты эмпирически из предположения, что например разовый запуск тяжелого скрипта, съедающего весь CPU и завершающего свою работу в течение пары минут не является хорошим основанием для переключения тарифа. Впрочем, эти параметры могут быть отрегулированы по отзывам наших пользователей (скрипты AS и настройки автоматически обновляются на виртуальных машинах при выходе новых версий).
**Autoscaling тарифа вниз.**
Чтобы на ходу спуститься на предыдущий тариф с меньшим объемом памяти или с меньшим количеством CPU и не устроить при этом ад для системы, мы должны быть уверены, что на предыдущем тарифе текущая нагрузка будет полностью вписываться в имеющиеся ресурсы и по процессору, и по памяти, При этом будет оставаться некоторый запас для того, чтобы ситуация на меньшем тарифе не стала критической сразу же после переключения. Из этого, во-первых, следует, что вниз мы можем переключаться за раз только на ближайший тариф (если есть возможность переключиться на два тарифа вниз, это будет сделано за два шага). А, во-вторых, это означает, что все ранее приведенные расчеты по памяти и по процессору мы должны также делать и основываясь на параметрах предыдущего тарифа (на том, сколько в нем предоставляется памяти и CPU). Соответственно, эти параметры берутся из таблицы тарифов. И все приведенные выше рассуждения для получения критериев загруженности системы мы одновременно ведем с учетом этих параметров предыдущего тарифа. А также сохраняем их историю. То есть, в итоге мы одновременно получаем значения, которые были бы посчитаны для данной виртуальной машины при ее текущей нагрузке, если бы она была на предыдущем тарифе.
Но для исключения постоянного переключения тарифов туда-сюда пороговые значения для переключения вниз чуть отличаются от пороговых значений для переключения вверх.
Так для переключения вниз на меньшем тарифе после переключения должно остаться минимум 20% неизрасходованного CPU (idle) и минимум 30% свободной памяти (или той, которая может быть освобождена — буферы и дисковый кэш). И основанием для переключения также является не разовый замер, а средний результат по последним 10 измерениям.
*PS. Если вы уже наш клиент, то подключить autoscaling можете в панели управления — [bit.ly/Panel-NetAngels](http://bit.ly/Panel-NetAngels).
Для регистрации нового аккаунта [вам сюда](https://panel.netangels.ru/register/?utm_campaign=habr_links&utm_source=habrahab http://bit.ly/registration-new Press Ctrl-c to copy)* | https://habr.com/ru/post/312174/ | null | ru | null |
# Вычисление числа Пи с помощью Intel Threading Building Blocks
Многие Android-устройства используют процессоры с несколькими вычислительными ядрами, поэтому в отрасли разработки мобильных приложений всё более важным становится умение создавать многопоточные программы. Компания Intel предлагает ценный инструментарий для разработки «параллельных» приложений – он называется **Intel Threading Building Blocks** (Intel TBB). По существу, Intel TBB представляет собой кросс-платформенную библиотеку шаблонов для создания параллельных программ. Она позволяет создавать и синхронизировать потоки данных, оставляя за кадром детали архитектуры и позволяя вам работать на высоком уровне абстрагирования. Intel TBB поддерживает все архитектуры. Что касается ОС Android, то следует использовать версию 4.3 и выше.

Создание Intel TBB
------------------
1. Скачайте Intel TBB, найти можно здесь: [www.threadingbuildingblocks.org](https://www.threadingbuildingblocks.org).
2. Добавьте NDK в PATH. Для Windows:
```
$ SET PATH=%PATH%;
```
Для Linux:
```
$ export PATH=$PATH:
```
3. Распакуйте TBB и перейдите в директорию с исходным кодом и в папку src.
```
$ cd /src/
```
4. Запустите TBB для Android:
```
$ /ndk-build –C /src/ arch=intel64 compiler=gcc target=android clean tbb tbbmalloc –j
```
Эта команда создает TBB для 64-разрядной версии Android 64. Чтобы сформировать TBB для 32-разрядной версии Android, замените arch=intel64 на arch=ia32.
5. Библиотека создана. В соответствующей директории (/build/) вы найдете поддиректории с библиотеками: libgnustl\_shared.so, libtbbmalloc\_proxy.so, libtbbmalloc.so and libtbb.so. libtbb.so и libgnustl\_shared. Теперь их можно использовать в нашем приложении.
Вычисление числа Пи
-------------------
Для вычисления Пи можно выбрать в Wikipedia любую формулу с определенным [интегралом](https://en.wikipedia.org/wiki/List_of_formulae_involving_%CF%80#Integrals). Я выбрал следующую формулу:

Для данной программы я модифицировал эту формулу:

Для вычисления интеграла я использовал метод прямоугольников. Интегрируемая функция разбивается на N = 107 равных подинтервалов длиной h = 2·10-7. Затем вычисляется аппроксимация интеграла – сложением площадей (основание х высоту) N прямоугольников по формуле:

Создание приложения
-------------------
Создадим новое Android-приложение:

Создадим «основную активность» (Main Activity). Копируем следующий код в res/layout/activity\_main.xml:
```
```
А в res/values/strings.xml такой код:
```
xml version="1.0" encoding="utf-8"?
PiTBBCalc
Settings
Start
Calculation of π
π =
```
Теперь Main Activity выглядит примерно так:

Далее нам нужно реализовать для своей активности интерфейс Java. В файл src/intel.example.pitbbcalc/MainActivity.java добавим следующий код:
```
package intel.example.pitbbcalc;
import android.app.Activity;
import android.os.Bundle;
import android.view.Menu;
import android.view.MenuItem;
import android.view.View;
import android.view.View.OnClickListener;
import android.widget.Button;
import android.widget.TextView;
public class MainActivity extends Activity {
private native double onClickCalc();
private TextView piEqually;
private TextView piVal;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
Button startButton = (Button) findViewById(R.id.startButton);
piEqually = (TextView) findViewById(R.id.pi_equally);
piVal = (TextView) findViewById(R.id.pi_val);
piEqually.setVisibility(View.INVISIBLE);
piVal.setVisibility(View.INVISIBLE);
startButton.setOnClickListener(new OnClickListener() {
@Override
public void onClick(View v) {
// TODO автоматически генерируемая заглушка
double val = onClickCalc();
piVal.setText(String.valueOf(val));
piEqually.setVisibility(View.VISIBLE);
piVal.setVisibility(View.VISIBLE);
}
});
System.loadLibrary("PiTBBCalc");
System.loadLibrary("tbb");
}
@Override
public boolean onCreateOptionsMenu(Menu menu) {
// заполнение меню; добавление элементов в строку действий, если есть.
getMenuInflater().inflate(R.menu.main, menu);
return true;
}
@Override
public boolean onOptionsItemSelected(MenuItem item) {
// Обработка элементов строки действий. Действия будут
// автоматически обрабатывать щелчки мышью на Home/Up, если
// в AndroidManifest.xml задается родительское действие.
int id = item.getItemId();
if (id == R.id.action_settings) {
return true;
}
return super.onOptionsItemSelected(item);
}
}
```
В Project Explorer -> Android Tools -> Add Native Support можно задать нативную поддержку нажатия правой кнопкой на нашем проекте. В следующем окне вводим имя библиотеки нашего проекта и щёлкаем мышью на Finish.

Итак, мы реализовали нативный код для вычисления интеграла в одном потоке. В файл jni/PiTBBCalc.cpp добавим следующий код:
```
#include
#include
double piIntFunc (const double x)
{
return sqrt(1 - pow(x, 2.0));
}
double calcPi()
{
const unsigned int n = pow(10.0, 7);
double a(-1), b(1);
double h = (b - a) / n;
double x (a);
for (unsigned int i (0); i < n; ++i)
{
sum += piIntFunc(x);
x += h;
}
sum \*= h;
return 2 \* sum;
}
extern "C"
JNIEXPORT jdouble JNICALL Java\_intel\_example\_pitbbcalc\_MainActivity\_onClickCalc(JNIEnv \*env,
jobject obj)
{
return calcPi();
}
```
Попробуем запустить наше приложение и вычислить число Пи в однопоточном режиме:

Чтобы с помощью Intel TBB добавить в проект параллельные вычисления, нужно отредактировать jni/Android.mk. Android.mk – это Makefile для нашего проекта, и нужно добавить в него библиотеки Intel TBB:
```
LOCAL_PATH := $(call my-dir)
TBB_PATH :=
TBB\_BUILD\_PATH := /build/linux\_intel64\_gcc\_android\_cc4.9\_NDKr10b\_version\_android-L\_release
include $(CLEAR\_VARS)
LOCAL\_MODULE := PiTBBCalc
LOCAL\_SRC\_FILES := PiTBBCalc.cpp
LOCAL\_CFLAGS += -DTBB\_USE\_GCC\_BUILTINS -std=c++11 -fexceptions -Wdeprecated-declarations -I$(TBB\_PATH)/include -I$(TBB\_PATH)$(TBB\_BUILD\_PATH)
LOCAL\_LDLIBS := -llog -ltbb -L./ -L$(TBB\_PATH)$(TBB\_BUILD\_PATH)
LOCAL\_SHARED\_LIBRARIES += libtbb
include $(BUILD\_SHARED\_LIBRARY)
include $(CLEAR\_VARS)
LOCAL\_MODULE := libtbb
LOCAL\_SRC\_FILES := $(TBB\_PATH)$(TBB\_BUILD\_PATH)/libtbb.so
include $(PREBUILT\_SHARED\_LIBRARY)
```
В директории jni/ создадим файл Application.mk и добавим в него следующие строки:
```
APP_ABI := x86_64 APP_GNUSTL_FORCE_CPP_FEATURES := exceptions rtti APP_STL := gnustl_shared
```
Здесь назначение Application.mk состоит в описании необходимых нашему приложению нативных модулей (то есть статический/общих библиотек). В строке APP\_ABI := x86\_64 зададим нашу целевую архитектуру.
Теперь попробуем запустить приложение. Если вы увидите основной экран приложения, значит библиотеки Intel TBB слинковались успешно, и мы можем начинать разработку нашего приложения.
Для добавления параллелизма нам следует включить заголовок Intel TBB: #include «tbb/tbb.h», удалить цикл и добавить следующий код:
```
double sum = tbb::parallel_reduce(
tbb::blocked_range(0,n),
double(0), // элемент для суммирования
[&](const tbb::blocked\_range& r, double sum)->double {
for( int i=r.begin(); i!=r.end(); ++i )
{
sum += piIntFunc(x);
x += h;
}
return sum; // тело возвращает обновленное значение для накопителя
},
[]( double x, double y )->double {
return x+y; // соединяет два накопленных значения
}
);
```
И теперь, если запустить приложение, оно будет работать в многопоточном режиме.
The end
-------
Как видите, разработка параллельных приложений очень проста. Используя в качестве примера вычисление числа Пи, мы смогли успешно продемонстрировать, как концепции однопоточного кода применяются в многопоточном коде.
Хозяйке на заметку:
» [Threading Building Blocks – базовые элементы многопоточности](https://www.threadingbuildingblocks.org/)
» [Создание параллельных Android-приложений для 64-разрядной архитектуры с использованием Intel TBB](https://software.intel.com/en-us/android/articles/parallel-android-applications-for-64-bit-architecture)
» [Руководство по Android: написание многопоточных приложений с помощью Intel Threading Building Blocks](https://software.intel.com/en-us/android/articles/android-tutorial-writing-a-multithreaded-application-using-intel-threading-building-blocks) | https://habr.com/ru/post/260083/ | null | ru | null |
# Разбираем протокол пейджерных сообщений POCSAG, ч1
Привет, Habr!
Давным-давно, когда мобильный телефон стоил 2000$ и минута звонка стоила 50 центов, была такая популярная штука как пейджинговая связь. Затем связь стала дешевле, и пейджер сначала превратился из престижного атрибута делового человека в непрестижный атрибут курьера или секретаря, а затем эта технология практически и вовсе сошла на нет.

Для тех, кто помнит шутку «читал пейджер, много думал», и хочет разобраться, как это работает, продолжение под катом. Для тех, кто хочет разобраться еще более подробно, доступна [вторая часть](https://habr.com/ru/post/438638/).
Общая информация
----------------
Для тех, кто забыл или родился после 2000х, кратко напомню основные идеи.
С точки зрения пользователя, пейджинговая связь обладает двумя большими плюсами, которые в некоторых случаях актуальны и до сих пор:
— Связь односторонняя, без каких-либо подтверждений, поэтому пейджинговую сеть невозможно перегрузить, ее работоспособность не зависит от числа абонентов. Сообщения просто последовательно передаются в эфир «как есть», а пейджер принимает их если номер получателя совпадает с номером пейджера.
— Приемное устройство очень простое, так что пейджер может работать без подзарядки до месяца от 2х обычных батареек АА.
Для передачи сообщений существуют два основных стандарта — [POCSAG](https://ru.wikipedia.org/wiki/POCSAG) (Post Office Code Standardization Advisory Group) и [FLEX](https://en.wikipedia.org/wiki/FLEX_(protocol)). Стандарты совсем не новые, POCSAG был утвержден еще в 1982г, поддерживаемые скорости 512, 1200 и 2400 бит/с. Для передачи используется частотная манипуляция (FSK — frequency shift keying) с разносом частот 4.5КГц. Более новый стандарт FLEX (был предложен Motorola в 90х) поддерживает скорости до 6400 бит/с и может использовать не только FSK2, но и FSK4.
Протоколы по своей сути достаточно просты, и еще лет 20 назад для них были написаны декодеры, способные дешифровывать сигнал со входа звуковой карты (шифрования сообщений не предусмотрено, так что читать их с такой программой в принципе может любой).
Посмотрим, как это работает.
Прием сигналов
--------------
Для начала, нам нужен образец для декодирования. Берем ноутбук, rtl-sdr приемник, машину времени, и принимаем нужный нам сигнал.

Т.к. модуляция частотная, режим приема также ставим FM. С помощью HDSDR записываем сигнал в формате WAV.
Посмотрим, что у нас получилось. Загружаем wav-файл в виде массива с помощью Python:
```
from scipy.io import wavfile
import matplotlib.pyplot as plt
fs, data = wavfile.read("pocsag.wav")
plt.plot(data)
plt.show()
```
Результат (биты подписаны вручную):

Как можно видеть, все просто, и даже «на глаз» в Paint можно дорисовать биты, где «0» а где «1». Но делать это для всего файла было бы слишком долго, процесс надо автоматизировать.
Если увеличить график, то можно видеть что ширина каждого «бита» равна 20 отсчетам, что при частоте дискретизации wav-файла 24000 семпла/c, соответствует скорости 1200 бит/с. Найдем в сигнале место перехода через ноль — это будет начало битовой последовательности. Выведем на экран маркеры, чтобы проверить что биты совпадают.
```
speed = 1200
fs = 24000
cnt = int(fs/speed)
start = 0
for p in range(2*cnt):
if data[p] < - 50 and data[p+1] > 50:
start = p
break
# Bits frame
bits = np.zeros(data.size)
for p in range(0, data.size - cnt, cnt):
bits[start + p] = 500
plt.plot(bits)
```
Как можно видеть, совпадение не идеально (частоты передатчика и приемника все же чуть различны), но для декодирования вполне достаточно.

Для длинных сигналов пришлось бы вводить алгоритм подстройки частоты, но в данном случае этого не требуется.
И последний шаг — переведем массив из wav в битовую последовательность. Тут все тоже просто, длину одного бита мы уже знаем, если данные за этот период положительны, то добавляем «1», иначе «0» (правка — как оказалось, сигнал нужно было реверсировать, так что 0 и 1 поменяны местами).
```
bits_str = ""
for p in range(0, data.size - cnt, cnt):
s = 0
for p1 in range(p, p+cnt):
s += data[p]
bits_str += "1" if s < 0 else "0"
print("Bits")
print(bits_str)
```
Возможно, код можно оптимизировать, отказавшись от цикла, хотя в данном случае это некритично.
Результат — готовая последовательность бит (в виде строки), сохраняющая наше сообщение.
*101010101010101010101010101010101010101010101010101010101010101010101010101
010101010101010101010101010101010101010101010100111110011010010000101001101
100001111010100010011100000110010111011110101000100111000001100101110111101
010001001110000011001011101111010100010011100000110010111011110101000100111
000001100101110111101010001001110000011001011101111010100010011100000110010
011011110101000100111000001100101110111101010001001110000011001011101111010
100010011100000110010111011110101000100111000001100101110111101010001001110
…
111101111*
Декодирование
-------------
Последовательность бит — это уже гораздо удобнее, чем просто wav-файл, из нее уже можно извлечь какие-либо данные. Разобьем файл на блоки по 4 байта, и получим более понятную последовательность:
*10101010101010101010101010101010
10101010101010101010101010101010
10101010101010101010101010101010
10101010101010101010101010101010
**01111100110100100001010011011000**
01111010100010011100000110010111
01111010100010011100000110010111
01111010100010011100000110010111
01111010100010011100000110010111
00001000011011110100010001101000
10000011010000010101010011010100
**01111100110100100001010111011000**
11110101010001000001000000111000
01111010100010011100000110010111
01111010100010011100000110010111
01111010100010011100000110010111
00100101101001011010010100101111*
Это все, что мы можем извлечь из файла, осталось понять что эти строки значат. Открываем документацию на формат, которая доступна [в виде PDF](https://www.raveon.com/pdfiles/AN142(POCSAG).pdf).

Все более-менее понятно. Заголовок сообщения состоит из длинного блока «10101010101» который нужен, чтобы пейджер вышел из «спящего режима». Само сообщение состоит из блоков Batch-1… Batch-N, каждый из которых начинается с уникальной последовательности FSC (в тексте выделено жирным). Далее, как видно из мануала, если строка начинается с «0», то это адрес получателя. Адрес зашит в самом пейджере, и если он не совпадет, пейджер сообщение просто проигнорирует. Если строка начинается с «1», то это собственно, сообщение. Таких строк у нас две.
Теперь посмотрим на каждый блок. Мы видим коды Idle — пустые блоки 01111...0111, не несущие полезной информации. Удаляем их, информации остается весьма мало, все что остается:
*01111100110100100001010011011000 — Frame Sync
00001000011011110100010001101000 — Address
10000011010000010101010011010100 — Message
01111100110100100001010111011000 — Frame Sync
11110101010001000001000000111000 — Message
00100101101001011010010100101111 — Address*
Осталось понять, что внутри.
Ищем дальше в мануале, и выясняем, что сообщения могут быть цифровые или текстовые. Цифровые сообщения хранятся в виде 4-битных BCD-кодов, значит в 20 битах может поместиться 5 символов (еще остаются биты для контроля, мы их рассматривать не будем). Сообщение также может быть текстовым, в этом случае используется 7-битная кодировка, но для текстового наше сообщение слишком мало — суммарное количество бит сообщения не кратно 7.
Из строк 10000011010000010101010011010100 и 11110101010001000001000000111000 получаем следующие 4х битные последовательности:
*1 0000 0110 1000 0010 10101 0011010100* — 0h 6h 8h 2h Ah
*1 1110 1010 1000 1000 00100 0000111000* — Eh Ah 8h 8h 2h
И наконец, последний шаг — смотрим в документации таблицу соответствия символов.

Как можно видеть, цифровое сообщение может содержать только цифры 0-9, букву U («ugrent»), пробел и пару скобок. Пишем несложную функцию вывода, чтобы не считать их вручную:
```
def parse_msg(block):
# 16 lines in a batch, each block has a length 32 bits
for cw in range(16):
cws = block[32 * cw:32 * (cw + 1)]
if cws[0] == "0":
addr = cws[1:19]
print(" Addr:" + addr)
else:
msg = cws[1:21]
print(" Msg: " + msg)
size = 4
s = ""
for ind in range(0, len(msg), size):
bcd_s = msg[ind:ind + size]
value = int(bcd_s, 2)
symbols = "0123456789*U -)("
s += symbols[value]
print(" ", s)
print()
```
В итоге получаем переданное сообщение «0682\*)\*882». Что оно значит, сказать сложно, но раз формат поддерживает цифровые сообщения, значит наверно оно кому-то нужно.
Выводы
------
Как можно видеть, формат POCSAG весьма простой, и по сути, может быть декодирован даже в школьной тетради. И хотя сейчас это имеет скорее исторический интерес, анализ таких протоколов весьма полезен с познавательной точки зрения.
В [следующей части](https://habr.com/ru/post/438638/) рассказано про декодирование ASCII-сообщений. | https://habr.com/ru/post/438602/ | null | ru | null |
# Плотностный алгоритм кластеризации пространственных данных с присутствием шума — DBSCAN
Доброго времени суток!
Хотел бы с вами поделиться реализацией в MATLAB плотностного алгоритма для кластеризации пространственных данных с присутствием шума — DBSCAN (Density Based Spatial Clustering of Applications with Noise).
Особенности
===========
Алгоритм DBSCAN был предложен Мартином Эстер, Гансом-Питером Кригель и коллегами в 1996 году как решение проблемы разбиения (изначально пространственных) данных на кластеры произвольной формы. Большинство алгоритмов, производящих плоское разбиение, создают кластеры по форме близкие к сферическим, так как минимизируют расстояние документов до центра кластера. Авторы DBSCAN экспериментально показали, что их алгоритм способен распознать кластеры различной формы.
Основная идея
=============
Идея, положенная в основу алгоритма, заключается в том, что внутри каждого кластера наблюдается типичная плотность точек (объектов), которая заметно выше, чем плотность снаружи кластера, а также плотность в областях с шумом ниже плотности любого из кластеров. Ещё точнее, что для каждой точки кластера её соседство заданного радиуса должно содержать не менее некоторого числа точек, это число точек задаётся пороговым значением. Для детального изложения принципиальных особенностей алгоритма необходимо ввести ряд определений — ознакомиться с которыми более подробно можно в прекрасном учебном пособии [1] на стр. 197-200, где также приведен данный алгоритм в общем виде. Я же предлагаю вам обратить свое внимание непосредственно на реализацию идей предложенных авторами.
Входная /выходная информация
============================
Входной информацией является матрица cont размерностью n x 4. В первых двух столбцах располагаются координаты рассматриваемых точек, два других столбца заполняются 0.
В результате работы алгоритма заполняются столбцы 3 и 4 матрицы cont: 3-ий столбец отражает информацию о том была ли обработана точка; 4-ый столбец отвечает за принадлежность к тому или иному классу от 1 до с-1. Если в 4ом столбце записано -1 значит эта точка была отнесена к шуму.
Реализация в пакете MATLAB
==========================
```
n = length(cont(:,1)); %% определяем количество точек
L_min = 30; %% максимальный размер области
L = zeros(n,n); %% создаем пустую матрицу
Rez = zeros(n,1); %% создаем пустую матрицу
for i=1:1:n
%% рассчитываем какие точки находятся на расстоянии < L_min от текущей %
L(:,i)=sqrt((cont(:,1)-cont(i,1)).^2 + (cont(:,2)-cont(i,2)).^2)<=L_min;
%% определяем количество точек находящихся на расстоянии < L_min от текущей точки %
Rez(i) = sum(L(:,i))-1;
L(:,i)=L(:,i).*(1:1:n)'; %% отмечаем номера этих пикселей находящихся на расстоянии < L_min от текущей точки
end
kol=5; %% задаем требуемое количество точек находящихся на расстоянии < L_min от текущей точки
c=1; %% инициируем счетчик групп
for i=1:1:n
if cont(i,3) == 0 %% если точка не отмечена как "отмечено"
if Rez(i)0),4)=c; %% и все точки находящиеся на расстоянии менее L\_min помечаем как относящиеся к этой группе
end
end;
end;
end;
c=c+1; %% увеличиваем счетчик групп
end;
else
continue
end;
end;
```
Извиняюсь за некорректную подсветку кода MATLAB, так и не смог разобраться с ней на HABRAHABR.
Результаты работы
==================
Пусть исходной информацией для алгоритма является набор точек (см. рисунок ниже), содержащий помимо 3-ех явно выделяющихся групп, точки которые необходимо отнести к шуму.

После работы алгоритма получаем следующую картину кластеризации:

Как видно, алгоритм выделил 3 группы и шум (синие scatter на изображении) чего и следовало ожидать! Внимание читателя также хочется обратить на то, что алгоритм прекрасно справился с задачей выделения точек расположенных по некоторой кривой, что позволяет, при должном применении, использовать данный алгоритм для задачи выделения контуров объектов на изображении… но эта уже совсем другая история!
Литература
==========
Автоматическая обработка текстов на естественном языке и компьютерная лингвистика: учеб. пособие / Большакова Е.И., Клышинский Э.С., Ландэ Д.В., Носков А.А., Пескова О.В., Ягунова Е.В. — М.: МИЭМ, 2011. — 272 с. | https://habr.com/ru/post/143151/ | null | ru | null |
# Печатаем по сети на любом Windows-принтере
Если у вас есть принтер, подключенный к Windows машине, то настроить его для сетевой печати на Mac достаточно просто, даже если драйверов для OSX для этого принтера не существует.
**Для этого нужны три вещи:**
* Принтер, исправно работающий на Windows машине
* [Ghostscript](http://pages.cs.wisc.edu/~ghost/doc/GPL/) — эмулятор PostScript принтера
* [RedMon](http://pages.cs.wisc.edu/~ghost/redmon/) — Redirection Port Monitor
Скачиваем и устанавливаем дистрибутивы.
Для удобства описания и настройки — производим установку в папку **C:\gs**
### Настройка виртуального принтера в Windows
В моем примере два принтера без OSX драйверов — монхромный, лазерный «Samsung ML2250» и цветной, лазерный «Konica 2400W». Начнем с черно-белого Samsung.
Для начала, нужно создать файл конфигурации для этого принтера, **C:\gs\samsung.rsp**, его содержимое:
`-IC:\gs\gs8.64\lib;C:\gs\fonts`
В последней строке необходимо указать точное название реального принтера, установленного и настроенного в системе (можно с пробелами). Для монохромного принтера я добавил строку "-mono".
Теперь нужно настроить виртуальный принтер. Для этого запускаем стандартный wizard и добавляем новый локальный принтер:


В качестве порта выбираем «Redirected Port»:

Wizard создаст новый Redirect-port и предложит его переименовать, оставляем все как есть:

На следующем шаге необходимо выбрать стандартный драйвер для виртуального принтера, и лучше всего для этого подойдет набор драйверов от Apple. Выбираем лазерный черно-белый принтер. Я выбрал «Apple LaserWriter 16/600 PS».

Соглашаемся с предложением сохранить существующий драйвер:

Указываем название принтера:

Сразу можно «расшарить» принтер:

Теперь можно указать дополнительные данные, например пояснить, как именно устанавливать принтер и какие драйвера для этого использовать:

На этом шаге печатать тестовую страницу не нужно:

Установка принтера завершена:

Переходим к настройкам полученного принтера, на закладке «Ports» выбираем только что созданный порт «RPT1: Redirected Port»:

Конфигурация порта «RPT1: Redirected Port»:
В поле «Redirect this port to the program» с помощью «Browse» указываем путь до **gswin32c.exe**, в нашем случае это **C:\gs\gs8.64\bin\gswin32c.exe**
В строке «Arguments for this program are:» указываем путь до файла настройки принтера в формате Ghost: **@C:\gs\samsung.rsp -**
Обратите внимание, очень важно не забыть после имени файла поставить «пробел» и «-».
В селекте «Output» выбираем «Copy temporary file to printer».
В качестве «Printer» выбираем реальный принтер, в моем случае это «Samsung ML-2250».
«Run» — «Hidden» — скрываем все диалоги и окна программы.

Смело жмем «OK»!
На этом настройка принтера на Windows машине закончена, теперь можно проверить работоспособность редиректа напечатав пробную страницу из панели настроек виртуального принтера.
### Настройка принтера в Leopard
Запускаем «System Preferences» и выбираем «Print & Fax».

На моем скриншоте уже настроены оба принтера :) Для настройки еще одного — нажимаем «+» и выбираем подключение по «IP».
«Protocol» — «Line Printer Daemon — LPD»
«Address» — IP адрес Windows машины с расшареным принтером.
«Name» — пишем название для принтера.
«Location» — значение, указанное на этапе настройки Windows принтера в поле «Location» (это не обязательное условие, но так акуратнее).
«Print Using» — «Select a driver to use» и пользуясь удобным поиском выбираем «Apple LaserWriter 16/600 PS».

Нажимаем «Add». На этом подключение принтера в Leopard — завершено. Проверяем, радуемся.
Настройка цветного лазерного принтера «Konica 2400W» производилась аналогично. В качестве драйвера был выбран «Apple Color LaserWriter 12/600 PS», а в файле конфигурации принтера был удален параметр **-mono**. | https://habr.com/ru/post/63440/ | null | ru | null |
# Распространённые ошибки веб-дизайнеров или как угодить верстальщику
В этом посте речь пойдет о тех ошибках, которые допускают дизайнеры в макетах, предназначенных для вёрстки. Рассмотрим наиболее часто встречающиеся проблемы, с которыми сталкивается верстальщик при работе с psd-макетами. Если Вы дизайнер, и Вам часто приходится передавать свой дизайн в руки коллег по цеху, то, возможно, этот пост поможет Вам лучше понять, какие неприятности испытывают верстальщики, и избежать некоторых ошибок в будущем, за что коллеги будут Вам очень благодарны.
Прежде всего отмечу, что здесь я рассмотрю именно технические аспекты подготовки макетов и ни в коем случае не буду учить дизайнеров делать их работу. Почвой для написания поста стал трёхлетний опыт работы в веб-студии.
#### 1. Цветовой профиль
Проблема с цветовыми профилями чаще всего возникает из-за отсутствия понимания у дизайнера, что же такое цветовой профиль и как его выбирать. Наиболее часто встречаются профили Adobe RGB (1998) и sRGB IEC61966-2.1 (далее просто sRGB), о которых можно почитать, например, [здесь](http://www.cambridgeincolour.com/ru/tutorials/srgb-adobergb1998.htm).
Для веба, как правило, используется профиль sRGB — он является профилем по умолчанию, например, в ОС Windows. Это значит, что мы видим изображение на экране в цветах, определенных стандартом sRGB IEC61966-2.1. Разница между Adode RGB и sRGB заключается в ширине цветового спектра.
В чем же проблема? Дизайнер, создавая в Photoshop новый проект, не указывает цветовой профиль, и, как следствие, Photoshop оставляет значение по умолчанию — Adode RGB. В свою очередь, верстальщик, получив макет, нарезает его, и в какой-то момент замечает, что цвета в макете и на свёрстанной странице отличаются на несколько тонов.


Что же произошло? Еще на стадии сохранения нарезанных изображений, верстальщик воспользовался замечательной функцией Save for Web & Devices, которая по умолчанию выполняет преобразование изображения в sRGB. В итоге мы видим одни цвета в рабочем пространстве Photoshop и совсем другие на готовом сайте.
Для одного заказчика небольшая разница в цвете фона на сайте может быть некритична, а для другого — это повод для скандала. Думаю, найдутся люди, которым приходилось полностью переделывать дизайн или вёрстку из-за такого упущения, как забытый цветовой профиль.
Решение проблемы — всегда при начале работы убеждаться, что установлен правильный профиль.
#### 2. Направляющие
Установка направляющих — казалось бы, простое дело. Но и тут возникают проблемы. Невнимательный верстальщик, используя установленные дизайнером направляющие, нарезает изображения и получает на выходе что-то подобное:

Почему так получилось? При близком рассмотрении видно, что направляющие сами не привязываются к границам пикселей, соответственно, когда дизайнер «на глаз» ставит направляющую, то, скорее всего, она не попадёт ровно между пикселями

Выделение, наоборот, привязывается к пикселям:

Даже если верстальщик был внимателен и заметил это, то все равно встаёт вопрос: куда всё таки дизайнер хотел поставить направляющую — левее или правее?
Простой совет, как избежать этой проблемы: сначала выполните выделение, а затем установите направляющую на линию выделения.
#### 3. Группы, слои, маски
Верстальщику необходимо отдавать именно подготовленный к вёрстке макет, а не рабочий проект весом под 100 Мб.
Что значит «подготовленный к вёрстке макет»?
1. Группы и слои проименованы: основные элементы дизайна желательно именовать в соответствии с их назначением (лучше всего латиницей)
2. Если есть сгруппированные слои, то группировка выполнена в соответствии с логической структурой страницы:
шапка, контент, баннер, кнопка, список и т. д., и вложенность не превышает разумных пределов, а лучше вообще избегать вложенности групп.
3. Скрытые, но не играющие никакой роли в дизайне слои, должны быть удалены
4. Обрезка фотографий (скругление углов и т.п.) должны производиться с сохранением исходных изображений — лучше всего делать это с помощью масок
5. Размер холста должен соответствовать максимально возможной ширине/высоте дизайна
#### 4. Цвета
Вернёмся к проблемам с цветами. Для элементов, имеющих по замыслу одинаковый цвет границы/заливки/шрифта, необходимо указывать, как нетрудно догадаться, одинаковый цвет в параметрах наложения, свойствах символа и т.д.
Что за ерунда? И так ведь понятно, что цвет одинаковый.
Но не тогда, когда, например, цвет одной надписи отличается от другой всего на половину тона. Придирчивый заказчик может запросто испортить верстальщику, выбравшему неверный вариант их двух возможных, настроение до конца дня, если заметит эту разницу. А дизайнер по факту будет не при чём.
Совет дизайнерам: используйте палитры или каким-либо образом заготовленные наборы цветов, чтобы избежать разногласий.
#### 5. Трансформации, фигуры
Прошли времена вёрстки скругленных уголков картинками. Каждый уважающий себя браузер умеет скруглять углы с помощью CSS-свойства `border-radius`, чем и пользуются верстальщики.
Но порой встречаются дизайн-макеты, в которых скругления «не совсем округлые». Что это значит? Просто дизайнер в какой-то момент изменил размер своего скругленного прямоугольника с помощью функции Transform, изменив его пропорции. В результате углы оказались вовсе не скругленными, а «овальными».
Само собой, верстальщик не станет из-за этого нарезать блок картинками. Но это говорит о ненадлежащем отношении дизайнера к работе.

Решив вопрос скгругления углов, верстальщик вновь столкнулся с проблемой:

Когда речь идет о pixel-perfect вёрстке, подобные неточности в дизайне могут доставить немало хлопот верстальщику. В данном случае левый край блока имеет нечёткую границу, а из-за этого невозможно точно определить ширину блока.
Для предотвращения нечеткости границ фигур в Photoshop 13 есть специальная опция «выровнять края».
#### 6. Единицы измерения, символы, абзацы
Чаще всего в вебе нам приходится иметь дело с пикселями. В большинстве случаев нет причин использовать какие-либо другие единицы измерения, такие как пункты, дюймы и т. д. Желательно, чтобы дизайнер устанавливал в настройках Photoshop именно пиксели в качестве основной единицы измерения.
Как и в случае с цветами, для дизайна текстовых блоков дизайнеру следует придерживаться строго фиксированных значений размеров. Для каждого абзаца необходимо однозначно задавать кегль и интерлиньяж.
Если Вы изменили размер текста с помощью Transform, то после этого кегль или другие свойства символа могут принять дробное значение (например, 14.5 px). При подготовке макета к вёрстке обязательно нужно привести все размеры к целым значениям. В противном случае перед верстальщиком вновь встанет дилемма: 14 или 15 пикселей?
Что касается выключки строк (выравнивания), то дизайнеру следует помнить: браузеры полноценно поддерживают лишь 3 варианта: по левому краю, по правому краю или по центру. Выключка по формату в браузере зачастую сильно отличается от того, что мы видим в Photoshop.
#### 7. Параметры наложения, стили слоя
Каждому дизайнеру следует хоть немного знать о том, какие возможности имеют современные браузеры. Эти знания могут значительно облегчить жизнь как самому дизайнеру, так и верстальщику.
Посмотрим, какие стили слоя в Photoshop имеют полную или частичную возможность реализации с помощью CSS (без использования картинок):

* Тени и свечения (внутренние и внешние)
`text-shadow` — тень для текста
`box-shadow` — тень для блока
* Обводка
`border` — обводка линией
`box-shadow` — возможна обводка однопиксельной тенью
`outline` — строго прямоугольная обводка
* Заливка
`background-color` — заливка цветом (возможно полупрозрачным)
`background-image` — заливка узором/картинкой
`background-image: linear-gradient()` — линейный градиент
`background-image: radial-gradient()` — радиальный градиент
* Прозрачность
`opacity` — прозрачность элемента целиком
`[color:] rgba(r,g,b,a)` — прозрачность rgb-цвета, где a — степень непрозрачности от 0 до 1
`[color:] hsla(h,s,l,a)` — прозрачность hsl-цвета, где a — степень непрозрачности от 0 до 1
О поддержке браузерами того или иного свойства можно узнать [здесь](http://caniuse.com/).
Стоит помнить: браузеры не поддерживают ни один из режимов наложения, такие как Overlay, Screen и др. Это необходимо обязательно учитывать и при необходимости обходиться нормальным режимом наложения в сочетании с прозрачностью и градиентами.
#### Подводя итог
В данной статье были рассмотрены некоторые нюансы подготовки дизайнером psd-макета для верстальщика. Надеюсь, кто-нибудь почерпнёт из нее для себя что-либо новое или просто найдет в ней повод напомнить своим дизайнерам о несложных правилах, придерживаясь которых они прослывут педантами в хорошем смысле этого слова, а их работы будут поражать аккуратностью исполнения. | https://habr.com/ru/post/220681/ | null | ru | null |
# Как вызывать методы audio vk
Как все начиналось:
-------------------
### Дело было вечером, делать было нечего… И я решил полазить по методам vk\_api.
Наткнулся на интересный метод [«execute»](http://vk.com/dev/execute).
Получилось отправить себе подарок:
**Код**
```
var gift = 813;
return API.gifts.send(
{
user_ids:API.users.get()[0].id,
gift_id:gift,
guid:API.apps.getRandomInt({max:99999})
});
```

А дальше мне пришла мысль, что если внутри этого метода можно вызывать методы, которые в официальном API вызывать нельзя, то наверное, можно вызвать метод [audio.get](https://vknet.github.io/vk/audio/get/).
**Результат**

```
return API.audio.get({});
```
Так же прекрасно работают метод [audio.add](https://vknet.github.io/vk/audio/add/) .
**Результат**

```
var owner_id = 1234567;
var id = 1234567;
return API.audio.add ({"audio_id":id, "owner_id":owner_id });
```
метод [audio.search](https://vknet.github.io/vk/audio/search/)
**Результат**

```
var q = "imagine dragons";
var id = API.users.get({});
return API.audio.search({q:q,owner_id:id})
```
метод [audio.getById](https://vknet.github.io/vk/audio/getById/)
**Результат**

```
var owner_id = 302808715;
var id = API.audio.get ({ "owner_id":owner_id })["items"][0]["id"];
return API.audio.getById
({"audios":owner_id+"_"+id});
```
и другие.
НО! когда я начал обращаться к официальному [API](https://api.vk.com/method/execute?code=API.audio.get(%7B%7D);&access_token=Token&v=5.60), То в пришедшем ответе ссылки не было:
> {«response»:{«count»:1,«items»:
>
> [{«id»:456239218,«owner\_id»:\*\*\*\*\*,«artist»:«Егор Крид»,«title»:«Мало так мало»,«duration»:186,«date»:1541675614,«url»:""
>
> ,«is\_licensed»:true,«is\_hq»:true,«ads»:{«duration»:186,«content\_id»:"\*\*\*\*\_456239218",«puid22»:14},
>
> «access\_key»:«b76857bde768d1bff6»,«is\_explicit»:false,«main\_artists»:[{«name»:«Егор Крид»,«id»:«367849609889354640»,
>
> «domain»:«367849609889354640»}]}}}
Немного потупив, я залез в network и стал смотреть, куда посылается запрос.
**фото**



Дальше, с помощью модуля **requests.Session** я авторизовался и послал POST запрос на сайт
```
https://vk.com/dev/execute?params[code]=API.audio.get({owner_id=1234567}); & params[v]=5.87
```
и получил то, что было нужно:
```
{'count': 262, 'items': [{'id': 456239029, 'owner_id': 1234567, 'artist': 'Enter Shikari', 'title': "Sorry You're Not A Winner", 'duration': 254, 'date': 1536417769, 'url': 'https://cs1-49v4.vkuseraudio.net/p6/0bf3ab43ba31ac.mp3?extra=JDyguPn6njA9xSi4ZXkVBT8PZbCf1GoMOwg4gsg9ev066jQkX99fp7BhQmc7kHuZzogr0TCMeSeReB9JEnvHdDXfdiCbc6YyXksHWZ-yE6Ti9YlhcbP1cvStoDC0hogZIa7xh95LZByx9nGEU2Gtqw', 'is_hq': True, 'is_explicit': False, 'main_artists': [{'name': 'Enter Shikari', 'id': '4318497185945614115', 'domain': '4318497185945614115'}]}, {'id': 456239028, 'owner_id': 1234567, 'artist': 'Гражданская Оборона', 'title': 'Ходит дурачок', 'duration': 270, 'date': 1534015737, 'url': 'https://cs1-34v4.vkuseraudio.net/p4/4ba33c2e3e8b0f.mp3?extra=wL0o8hgKnDYni8TO7HKtMJf0uwSfeP1VhuNOWnPnpWGCMXAap50ej2ybCFxK8E_6XsOOUxVBhVb6-hcGy6MRCd2wJcFnu4zdJtvDRrqikTYX9Dj42VNtl5YDT8vG-riyAwUlNi_XdQOfTz9nyOikcg', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 456239027, 'owner_id': 1234567, 'artist': 'Was wollen wir trinken', 'title': 'Was wollen wir trinken', 'duration': 206, 'date': 1532027027, 'url': 'https://cs1-81v4.vkuseraudio.net/p7/dbdf89fbafd21b.mp3?extra=sEaUjCOc3DFvNyJKtWO2kupL74LtSnwwbTHHtv-gP78KxZ8rSmdf8c9JOhJDUeq207FQbzaXjSIFipsydIlqFOfM071UXdF12GJG6UDQWYR-fVBawy4m9wwxl6JWNvANGtBDa57g-xvL7Qe-uAlIjw', 'lyrics_id': 421717119, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 456239026, 'owner_id': 1234567, 'artist': 'Distemper', 'title': 'Мама-Анархия', 'duration': 155, 'date': 1531583514, 'url': 'https://cs1-81v4.vkuseraudio.net/p14/a3e1ca5c2a73b8.mp3?extra=UF9YKOsBwnoi2KShqQbORena3zgj1sC26Bcd_DO-ZXezaHGdy7xIPZNV13g5hcRkMHZxjVyvLY5GzYvOjipiGB_S_ne0loVtIhU2_no9Jby8SWGD6Y24UZoYV8HC2KtzdYtPOnWxe5kEmUyMaWB12g', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 456239025, 'owner_id': 1234567, 'artist': 'Zuname', 'title': 'Фернандо Йерро', 'duration': 128, 'date': 1530372363, 'url': 'https://cs1-48v4.vkuseraudio.net/p5/bf32d593af0450.mp3?extra=BvkTDY4Eooc05uh6oi44RDIW2TpqdgkQKZ_oX7D7_XK-ntyBsbL8DcbXZfx03b74q0hcPbr0BVwFfIbIF_2WrFMDsuyRYasA4-_uRyHiLCCor6DBDstMKPQqxYcry-tRN_qtMg68tSwl99PvtB5y_w', 'is_hq': True, 'is_explicit': False}, {'id': 456239024, 'owner_id': 1234567, 'artist': 'Slipknot', 'title': 'Psychosocial', 'duration': 283, 'date': 1521229261, 'url': 'https://cs1-59v4.vkuseraudio.net/p1/0c2a579708e803.mp3?extra=koGAo50ZiD4zqRTMAjN0ApS4zq0Cx4n9OUHJcsea_WQcEePDYVgUXki1Ar1aYIzpwQcme6oQfujJ7bdx5i5kc9MDVzJE5pbpiibjggPh6ifl3DXOvOCuv58WcIT7jXfw3-ccN6oTw3vg1S4_dha9GQ', 'is_hq': True, 'is_explicit': False, 'main_artists': [{'name': 'Slipknot', 'id': '8558204000746555917', 'domain': '8558204000746555917'}]}, {'id': 456239023, 'owner_id': 1234567, 'artist': 'Нейромонах Феофан', 'title': 'А теперь поёт медведь', 'duration': 180, 'date': 1505329448, 'url': 'https://cs1-64v4.vkuseraudio.net/p23/46c82da045f2f0.mp3?extra=iOjHsjVtWe7w8UZcR6jjjTutl1gz5S3JmtI5V94hZz7brEmvKTLoMOo0f_4oFMDhHc4TTqTK3eyGa5Q3p7vD3Uq1lYGTgoP7GiwpGbSXrvdlJ36jtc_ZWt-HnHVL7v4lXpfmYtafaEL388I_7LB44w', 'lyrics_id': 404574140, 'genre_id': 10, 'is_hq': True, 'is_explicit': False}, {'id': 456239022, 'owner_id': 1234567, 'artist': 'SISTEM OF A DOWN', 'title': 'B.Y.O.B.', 'duration': 254, 'date': 1500149854, 'url': 'https://cs1-80v4.vkuseraudio.net/p8/41b2dfe87b3214.mp3?extra=mJD-yV6evn9KeDCIb5-kmy6NoNrY2DznswvlonYwRriEz2-3AzOibAW5F4tsw0IcMBKyPfcln2uo0jfA9IhU4zic8u4KkrQV39Dvc1CvPAncnmGteoA8mu52-zT7I5JyBGIO2kC4wYVHELNTHGoagA', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 456239021, 'owner_id': 1234567, 'artist': 'Male Factor', 'title': 'Нет, я не Негоро-я капитан Себастьяно Перейро', 'duration': 355, 'date': 1499980063, 'url': 'https://cs1-70v4.vkuseraudio.net/p10/af40941d2859bf.mp3?extra=kcQOZltfh6uw0q6HDTLS1fjaApH77BbGoXj3BW2If-_i6RKaxFJ2-cVmbyVwHAzAFM1byWz-60JXpt-nGS7tdvT-kvTAjyfMhV7jPROyu2JaF9ru3OhT3rMwbaYhhMXK_xUZIwL7FqNsEUsSO1KuVA', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 456239020, 'owner_id': 1234567, 'artist': 'Вепри суицида', 'title': 'Карате', 'duration': 161, 'date': 1475911151, 'url': 'https://psv4.vkuseraudio.net/c611330/u3654717/audios/853aa6108bad.mp3?extra=mTecv0LkJkWlsAQ0RBYQSRdeRsnzmSvd9H_vNl3fejoOVJ0mrRY5v_kOnM6I52ErWajEmzvIOPHK0epf9pA_lBYNA2z9LJpr3FaesJyQSLxX8h-kjfOFhGsr-p17jIcEvCYTItIN3Za2InZuapNf4g', 'genre_id': 7, 'is_hq': False, 'is_explicit': False}, {'id': 456239019, 'owner_id': 1234567, 'artist': 'Бригадный Подряд', 'title': 'Гитары (2013 г.)', 'duration': 194, 'date': 1463597970, 'url': 'https://cs1-76v4.vkuseraudio.net/p12/01d48959b5fbbb.mp3?extra=j65VDFM4OcqiuNSDuvjmVaSw1e6PcR61ds_Nqm1NY24WrwYeC23tL16JPvuN1dECzC0M_5HtB3LbP7m-Spi4nI07c7DIk9u_0PCixScUFHwZSRAtojSphASMMQtrGthbG00vMjRh9VWTEfVyuRTNfA', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 456239017, 'owner_id': 1234567, 'artist': 'Dj Paul Elstak', 'title': 'Love you more', 'duration': 232, 'date': 1458759753, 'url': 'https://cs1-61v4.vkuseraudio.net/p9/af9c32e4fd9b4b.mp3?extra=O_IqkY7ifuSpBUdoUFSydtTcq9NjfbI3E7G33NVzni1UUMXwICY3I_P9qagaxNtrxQRbw1hlmcq-kUaa_4VCvLJKRa8W08EhMz85o5XFvajHSbOiX6sY47ynnSO5WXW_6e0gOzCIwe7YgZs7oc-CmQ', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 429004959, 'owner_id': 1234567, 'artist': 'Наив', 'title': 'Другие (Populism 2015)', 'duration': 169, 'date': 1451506205, 'url': 'https://cs1-41v4.vkuseraudio.net/p20/aab2e1acddaa25.mp3?extra=uX5SxGcXPblHkYIYzGP11pjcbQ-lkwWSAceMI_yxDW-o9-a2USHRIv-Nch27jkRnLNhtRhalHrf_2GcFuMDNHSZkZ2Sh9OP3Eq1hgaW-YPqdRYXs4fXX4iG51P8mpLjRuQHDqY-4Z24BQRVMO2WAqg', 'genre_id': 1001, 'is_hq': False, 'is_explicit': False}, {'id': 429004944, 'owner_id': 1234567, 'artist': 'НАИВ', 'title': '20 лет одиночества (Populism, 2015)', 'duration': 316, 'date': 1451506202, 'url': 'https://cs9-11v4.vkuseraudio.net/p11/e02b6258593a4f.mp3?extra=fCZ8UrSqzHL7OjgySDL6C3S6N4Y3pLcGEN7bV-FhGDa8vAVVMJ6G4B_6KyBMnbW8d1j_VH-SDXBp-9NNppBfkn9Gcuo-v2i7LEGjcfyvV8c6jbWwwk3YV6-mwHjhi77E6Ra2LyxL04ZkbCSkPTjQSg', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 429004939, 'owner_id': 1234567, 'artist': 'НАИВ (Populism 2015 )', 'title': '4) Вверх!', 'duration': 261, 'date': 1451506200, 'url': 'https://cs1-37v4.vkuseraudio.net/p6/b1a018df59707b.mp3?extra=pNXPSxhbfzGeoGoVbblbKb10PnoZLR5aLMImuTRiIru6iCC4VHy4blKSU8RQsyWGTox4lU6O9KXqCe4lohKk1osCJLscOQoc5opHR3TT_ItLnxN0k1Rtxh4VNNdPDX_BMDoi44o5ru7AlJ8jW40Tww', 'lyrics_id': 289685912, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 429004922, 'owner_id': 1234567, 'artist': 'НАИВ', 'title': 'И снова осень (Populism, 2015)', 'duration': 173, 'date': 1451506198, 'url': 'https://cs1-81v4.vkuseraudio.net/p22/8d5fee126859ff.mp3?extra=ytspVqm59a3g60OmJmd6FgN0XtVSvNmCUDGZZwi4IbGz85corXj9AlDbhvhA9vuqtsF2pJamn1ib8gDabOY2QS7XCSFaXyL04sUQBnXbn0jndwhG0waku49KrWbFIJoqWj_J_3SfJeHiyJE4x-YaVw', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 429004910, 'owner_id': 1234567, 'artist': 'НАИВ', 'title': 'Интерлюдия (Populism, 2015)', 'duration': 42, 'date': 1451506195, 'url': 'https://psv4.vkuseraudio.net/c611526/u250621183/audios/a0d8d940074a.mp3?extra=DGQeZl8oct5mzXYRfx47i1VAPZBeWQvpWpgqIssNJ6jNktJypkcC9n9XiIQJadczECWO05RdFNpkEmPBeKDTzDn8FSy8Z_mqowA9-I2jiKkV2nZGkC23hcBhjlEh0s2_H-qJd9O1rlFF-eo6hFT2nw', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 429004844, 'owner_id': 1234567, 'artist': 'НАИВ', 'title': 'Ранетое сердце (Populism, 2015)', 'duration': 239, 'date': 1451506186, 'url': 'https://cs1-38v4.vkuseraudio.net/p17/3784916b014b15.mp3?extra=GfrDhrOk0cRu1ld7mSAO1dgtWt9SSNfrHmlVikpuLM2gjsXVwoDQaLK-u3kRjVrTBmAUdFopxBwT1UOQ0RUHMDp1JOr92cbwz_7zi1Y9VJ1wCcs9CwObZO5avF-VM1xFHHO0LimeqHdNRTSsj-nfZQ', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 384743339, 'owner_id': 1234567, 'artist': 'Pitch Perfect', 'title': "You're Gonna Miss Me When I'm Gone/Cups", 'duration': 77, 'date': 1437147046, 'url': 'https://cs1-72v4.vkuseraudio.net/p17/a2c6c5c3741d8e.mp3?extra=bjgH8mVY5cQklWxYbJl9ozXB9z4t24ZGBix7-MlAtJBQOTqJokycagLohb4G7BdMVnGpEf6K1LjfOojf8gAIHsSZTOdeGFLF-_Fyu2Do8pU7pGnc8NfJAgFBMZloEYoH9alRyKeMgb9y8uWE8oe_Vw', 'lyrics_id': 58667817, 'genre_id': 2, 'is_hq': True, 'is_explicit': False}, {'id': 384345286, 'owner_id': 1234567, 'artist': 'Rammshtein', 'title': 'Keine Lust', 'duration': 273, 'date': 1436998210, 'url': 'https://cs1-75v4.vkuseraudio.net/p8/bf692e5d9678f7.mp3?extra=IPIDB3ctQVwV7Pc58VTOSgP3Et-iLy_KJ-P6ZDKXZnnRsG4kOVs2gdwDS4-JpH5JZRTQkvxfopTDTt5kEUtIoTNk2RScFu33tT7Q4bXJP05G61ZFSi51CA68LEixuHXKTeCy-sGQtUXc_fD65qaxkw', 'lyrics_id': 1438517, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 384340580, 'owner_id': 1234567, 'artist': 'Slipknot', 'title': 'The Devil In I', 'duration': 181, 'date': 1436996437, 'url': 'https://cs1-60v4.vkuseraudio.net/p19/45d13f8fb71eb1.mp3?extra=90zW-RIxRoR9MNlWx-Ju8o2V3eJgbLDlwXxr7_jCcmUTi55S9joI7ZmjNAOzxgeRU1zsUrwrXVXmG3ahQyCU9HdqPqRSsozEgGL7ri9a5hPqpZUPcEiqt5jTLrHO6rTeDfbSG7RR8Act2pFSKygwgA', 'lyrics_id': 205750393, 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 384336928, 'owner_id': 1234567, 'artist': 'Slipknot', 'title': 'Killpop', 'duration': 225, 'date': 1436995260, 'url': 'https://cs1-43v4.vkuseraudio.net/p1/0fa35399732236.mp3?extra=Y0D51U4_-OrKywn_g3ceXH_WYuCLEgZ-Z2peAduO5lxKun_XM51T4Ds3NUHqQHmWLX-s0pD3Z5t6c3dDdi2eS-RfsGTGBxR7xI9-3Lefq3HqgtiuvwFDxgqRcl6IbT8yCg3UgiSf5T1Lqyh5hCV0ew', 'lyrics_id': 201936593, 'is_hq': False, 'is_explicit': False}, {'id': 381472407, 'owner_id': 1234567, 'artist': 'Нейромонах Феофан', 'title': 'Притоптать', 'duration': 210, 'date': 1435964003, 'url': 'https://cs1-46v4.vkuseraudio.net/p2/53471d40fd2ba4.mp3?extra=B_XNZzFlh6lGoA-Cfb-WeNInPQmDbU0o5lT9r8I1a3PpZWDEVvlm9lga8wAXWClafKIlkUpbSWlPyKC3LQ4CQG7LlxXBgH3-a82yMZBpR24BQaT87A7eQiuPy_5GMP3v-mD6WdcsAGaHePJKLkAI0Q', 'lyrics_id': 259369316, 'genre_id': 10, 'is_hq': False, 'is_explicit': False}, {'id': 381472398, 'owner_id': 1234567, 'artist': 'Нейромонах Феофан', 'title': 'Камыш', 'duration': 178, 'date': 1435963996, 'url': 'https://cs1-76v4.vkuseraudio.net/p8/48498c2854e6f3.mp3?extra=VKh8ExQmZ23Cv9g8RvpqwqJnnB5K5s3U7YxmigBaUozlB3kS5zxgC1fmi9FCWo--AeF0OToWzafj-SIk2T9TQhFy2iC1p-DsJNalc6U_co5zI5hwP9ZFIpxwLBjF3jZIJpJrVPedH0kG5MgQlx0cDg', 'lyrics_id': 226761378, 'genre_id': 10, 'is_hq': True, 'is_explicit': False}, {'id': 359459116, 'owner_id': 1234567, 'artist': 'Нейромонах Феофан', 'title': 'Мне под Драм легко', 'duration': 164, 'date': 1428180022, 'url': 'https://cs1-79v4.vkuseraudio.net/p6/433dc136a4614f.mp3?extra=LcidGZHgkdWLkHpwP2d38VQjzC6eyZoM1y4BKyVsz87PcFko13Mp1OdR7HQiluJEi3S1fbouKCgqmg1kyi3YoHMVwmySnd1Bs2YsZtSf1rVYGpiRqr4AiXPumjHZbrxoyQ5gRKWKiUdx-0zpyWuuJA', 'lyrics_id': 156357690, 'genre_id': 1001, 'is_hq': True, 'is_explicit': False}, {'id': 359459062, 'owner_id': 1234567, 'artist': 'Нейромонах Феофан', 'title': 'Драм и Светлая Русь', 'duration': 145, 'date': 1428180009, 'url': 'https://cs1-70v4.vkuseraudio.net/p6/890cf1d6777582.mp3?extra=RwwgLxaCeMAew51ec0BgR44VozB--piuQYMVGprkHrpsmQIAeRS9Frj9Xn1R-VcVMmGO4tVoprnjfaQWjk0ZoM-J1JQWTxx8i4zBUIA9DuqQiXUfqQ100MUysVMI8MJM1QBiJThJdnGZM3mlTtQFvQ', 'lyrics_id': 4644998, 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 299832075, 'owner_id': 1234567, 'artist': 'Serj Tankian', 'title': 'Sky Is Over (упрощенная версия)', 'duration': 122, 'date': 1406742601, 'url': 'https://cs1-79v4.vkuseraudio.net/p24/c9f5b298a8554e.mp3?extra=ezVQoslzux_oyc0LsTb0wTZgHwcYd4mnFdT6NaFnmmyoCkZTklsfdbZqloH1_sHXcrq9vkNN1eb9B5Gyl7SVneYdelioiLNZbokixKtqt1b3HtpbpTeW3N0T6zGaz2OHX7Nk7d50mlBLt-vBVRrPbg', 'lyrics_id': 20560120, 'genre_id': 21, 'is_hq': False, 'is_explicit': False}, {'id': 299828313, 'owner_id': 1234567, 'artist': 'Serj Tankian + симфонический оркестр', 'title': 'Sky is Over', 'duration': 189, 'date': 1406741462, 'url': 'https://cs1-74v4.vkuseraudio.net/p1/ad123d09f9173a.mp3?extra=Fei2lL2M_KFB4PqYaiQefvsEXcX95TpmG3ApruXEdiHOG2CnVtwyWgR4ydbR3cTTgr786ce3Y91iD-cwIyWA8v7GiYxCEjUhggu5nT4ZAD9FnS24UCqgcKyXyO3FK0-c0oiVlPg45VMvcfAsyZd-cw', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 298860481, 'owner_id': 1234567, 'artist': 'Serj Tankian (System of a Down)', 'title': 'Empty Walls (Acoustic)', 'duration': 226, 'date': 1406310327, 'url': 'https://cs1-62v4.vkuseraudio.net/p13/ab9673e043d10a.mp3?extra=xgXMi7hUXng5s8FfNi7CvmByQNpWKP1wyysqFJfYwELMglraxef0RmNCzj96ZbePsH8kbY6geiltFX2_y9C2xGgx2-m8fbuCr8oNzPDQUAdbrSp5oeSwuSUbpGifamLX6ny3tSR5h5YktlSl33EhKw', 'lyrics_id': 4809752, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 292315013, 'owner_id': 1234567, 'artist': 'Foo Fighters', 'title': 'The Pretender', 'duration': 269, 'date': 1403581374, 'url': 'https://cs1-64v4.vkuseraudio.net/p6/a4246ab2da0845.mp3?extra=u2Jh7ty0evigCDryLNr48wif6xHnzvB6YjHM6xjfjevBxvSvpVuiQorIBP38S8ERgpzbAhwbhFZ41NZELytGgdchgJOsEvuVSMNU9rER-e80plu2tQf2XSrNKupQ8UoeNvFRZtX7cDIPz5-GMXpu_w', 'lyrics_id': 51102, 'genre_id': 21, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 289880294, 'owner_id': 1234567, 'artist': 'Тараканы! feat. Anacondaz', 'title': 'Самый счастливый человек на Земле [RapBest.ru] (2013)', 'duration': 269, 'date': 1402591634, 'url': 'https://cs1-79v4.vkuseraudio.net/p13/05d5476a1c747c.mp3?extra=XlSxFCbkK40OuHPem2FM36ijacNNUtEM6M8PwIB322SGxjOaAbHvedv2ffILoy5Vvo-3kjtF5abqJ2K3ccoXENbCZL_3rhpS60gCwIFfoOQCzBP6zCmIfr9RlgVe3lT3brZKWn6fQv7YgwSX5YsYkw', 'lyrics_id': 115152598, 'genre_id': 3, 'is_hq': True, 'is_explicit': False}, {'id': 278303103, 'owner_id': 1234567, 'artist': 'Тараканы!', 'title': 'Плохие танцоры (feat. Rodrigo González)', 'duration': 216, 'date': 1398020958, 'url': 'https://cs1-76v4.vkuseraudio.net/p17/f369d5b7965677.mp3?extra=Yz-sOnH5K1_KJvu4JRgMlh1NNSHEEa-DLG7wa3x8EoX43ZS1J2KmqPbtLD_dRaDja6ysqD7jap7XHsuIFZ78ya3v1ztuZI4cTqxvV7h27Vx3-nzbbGxMyVS4pmHwlThYXj1MqRs8OaeaRyaWajujvw', 'lyrics_id': 78888585, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 276770831, 'owner_id': 1234567, 'artist': 'К.Ф.Максим Перепелица', 'title': 'Солдаты, в путь!', 'duration': 123, 'date': 1397410214, 'url': 'https://cs1-38v4.vkuseraudio.net/p7/8e9e56a813631c.mp3?extra=M8YqMD9vWt1vX9P37vgBlnfUCmovUkwp25UG52HfcwuGXS1ClYRisCvHFlay_3D0QYB4BlOdCA129LysjzIQ1ZHB_NoMtCztUcYuWFBEtlVNFHDyjwGjUjuuRxN4HJd6XgiSkK90z1b1Vx-C-Zx5DA', 'lyrics_id': 152717765, 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 272872301, 'owner_id': 1234567, 'artist': 'Слава Благов', 'title': 'Прокурор Наташа', 'duration': 177, 'date': 1395949418, 'url': 'https://cs1-75v4.vkuseraudio.net/p2/8df005c11f5011.mp3?extra=22jQrOMlk5cibO8Z6yrLd5OEAT08lkxmJO49OBwy4JpSTwvkJqWhwzpzXj3w2JrvI2Fzmn-KxpZVNO1m-B6fyAndfZyKY62lZRufH2XSmpXrpEapxPpP-TQ0AvitKcWbhUgUUGP9xnGjG3hHQxKkeA', 'genre_id': 1001, 'is_hq': True, 'is_explicit': False}, {'id': 257486538, 'owner_id': 1234567, 'artist': 'ILWT', 'title': 'Баба Валя угарела угари и ты', 'duration': 222, 'date': 1390001804, 'url': 'https://cs1-77v4.vkuseraudio.net/p12/c46ed81b85f8e0.mp3?extra=EvHSHfQI37mKZBz5DIueQckNiKnwax2b_2VODAjf4Fz5yJnU2oBytwe7NXVuW_PGVDOHDVbNEeEuHmIEmBQgGjw0K4siEyyFtkuE5TJf7BtAFyLeIFXKdt09jA0BuFgcm4QWF6n16NxpOxlWU8v9MQ', 'lyrics_id': 20779243, 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 257396574, 'owner_id': 1234567, 'artist': 'Patti Smith', 'title': 'Because The Night', 'duration': 196, 'date': 1389975781, 'url': 'https://psv4.vkuseraudio.net/c536315/u5876190/audios/6c3896d28b66.mp3?extra=ZS20ff0JbNkGgblAFfvZ97bpjl1azsU-AAKgIHMg8UWibvLSynNKQZdvrH47ineOqB0zXNKp1nPEW6GJZ22-lvJXMCOAIPKcVmowlMmxr8wZvz0kaaHyUgdn0KeID7zENAvxgvaXt9xWMbQYzuyPQw', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 249026493, 'owner_id': 1234567, 'artist': 'Metallica', 'title': 'Die, Die My Darling', 'duration': 148, 'date': 1386609762, 'url': 'https://cs1-76v4.vkuseraudio.net/p18/f5803db7fee0ea.mp3?extra=XSYLYTzGEsEBBT1LDgd07RADG9CtobZNPx1xJ1hecCw049XBYV-WiqvhykUt0LaXO9152Cdj0gmuPo7WkzaKGGV-hYdP-1dLsAde36HVxc36PyESA1Jm378EvAM4XEWRHqTeXveeM5moPy51jXd4xg', 'lyrics_id': 6566930, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 245990423, 'owner_id': 1234567, 'artist': 'electric six', 'title': 'gey bar', 'duration': 155, 'date': 1385393662, 'url': 'https://psv4.vkuseraudio.net/c4109/u5227825/audios/f1bffd001c2a.mp3?extra=0HIHX8iGEDJkZgcYkMFBjN-Wl1dl64ha6gGl7uC-2lIFv4eovHTaZS4LHL6OnNdZcrvSYOhJrlHzJWzlstFQJlnzenDW-8UbWZ392ZUSvLDX0tmIwSXe6EU31YjgXVSE3ZGmF_l7HfKfaH9WTO0V7A', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 230224564, 'owner_id': 1234567, 'artist': 'Racist Redneck Rebels', 'title': 'Oh My God I Married A Nigger', 'duration': 164, 'date': 1378988231, 'url': 'https://cs1-72v4.vkuseraudio.net/p2/c633e9ac1e90f5.mp3?extra=J988Mvrmb4w7fjafLEuo5O8fNU8gu-D71lWusMN0ObuBNYAZ9_c6DGb62Mx1LdjDDf0rqQVbSuyOK5J6M7PtiRJTOMHbLAaPhLIt-RbQzF3-AraOTWo_t5MQOT9gF7RIniVl7P_4V6btx8Dqs4HDdw', 'lyrics_id': 5752303, 'genre_id': 1001, 'is_hq': True, 'is_explicit': False}, {'id': 230224493, 'owner_id': 1234567, 'artist': 'Racist Redneck Rebels', 'title': 'Niggers, Niggers, Niggers', 'duration': 141, 'date': 1378988208, 'url': 'https://cs1-35v4.vkuseraudio.net/p15/4ac8cfd3510eb6.mp3?extra=eP0ufeWubsxQvi_kQ78Y4PkOeH9qvw78x-r4tuaIskptGYhEWzFDGkcU-I7BRfMoXeJcWr8Nes6Lu1lYb-OZ7RiNVqJ2t8lnMTV7NAGjXKYRVc6ULXIlREf3sqMaTPP3PQPQ0J2WIzmR97MfjuKoyg', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 230224127, 'owner_id': 1234567, 'artist': 'Johnny Rebel', 'title': 'Leroy the Big Lipped Nigger', 'duration': 87, 'date': 1378988105, 'url': 'https://psv4.vkuseraudio.net/c4428/u24325223/audios/a797ebafeb73.mp3?extra=-pY4KB9WLAykwm99nR2RypoOM2xE4iQW-rLddPUdbPMt62KfwoxdteOPonc9AkID7hFtJnkIVJIY6oHINJsYsndjEJh9g_dQJjIUw_KmWcGMYsC1fkyADPW4K-EA0a4npLLrOdTQfJkREMfaB2tH5w', 'lyrics_id': 6803042, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 209944961, 'owner_id': 1234567, 'artist': 'HIM', 'title': 'Gone With The Sin', 'duration': 263, 'date': 1369679196, 'url': 'https://cs1-75v4.vkuseraudio.net/p22/25f9571400f656.mp3?extra=Ncfoc1aeUuahNkzPpaq6nabZnrZQQq05lUJqbzAnyG_0_f7adpBzQcopk-Ur4OauG718OY02janCOqzsOi1vltoaoQyiGXPFGxCCFaFcVikIq8rkx1joZcEectcxv2XIZryZXoM7xNVFWVfgd0Q-4w', 'lyrics_id': 6544675, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 209938754, 'owner_id': 1234567, 'artist': 'DROWNING POOL', 'title': 'Bodies [OST XXX]', 'duration': 201, 'date': 1369677469, 'url': '', 'lyrics_id': 6828489, 'genre_id': 18, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 209747724, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': 'A Really Cool Dance Song', 'duration': 224, 'date': 1369586015, 'url': '', 'lyrics_id': 2919872, 'genre_id': 1, 'no_search': 1, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 209051653, 'owner_id': 1234567, 'artist': 'Рихард Вильгельм Вагнер', 'title': 'Полет валькирий', 'duration': 280, 'date': 1369236863, 'url': 'https://cs1-65v4.vkuseraudio.net/p1/fb15be084ddded.mp3?extra=ICAHR28byxjSlvu54DlUW63H5ItZU28N-_th3EChpi-2Qj6KMzl9K_5GSJ29Vr1KuwNAoWSUbcjt6IXyjL4fQ7Lef2nxDXyvsP5_PGFVshlapyDj86k38n-tgIqoJ5RUKypFV3uHOngMcphRd8cgmA', 'lyrics_id': 9146493, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 209048984, 'owner_id': 1234567, 'artist': 'Rootwater', 'title': 'Хава нагила и хэви-митол', 'duration': 235, 'date': 1369236059, 'url': 'https://cs1-61v4.vkuseraudio.net/p11/34b2c305651f87.mp3?extra=ti4nvdQzEYgObsCWDv2Ed1DPohZiIK2eD6Jpxsf7BUrUKPYKyNAxECFlpeGJIFXAKRoUURcyNT-DQk6qX6FqBxt2-KRtvXTIVoeMEoTaMFg51eFLM_w22ghQKCRAGCQ9XdZ1gVifG-3JX-9N958Xwg', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 209048404, 'owner_id': 1234567, 'artist': 'Xe-NONE', 'title': 'Set The World On Fire (E-Type cover)', 'duration': 212, 'date': 1369235898, 'url': 'https://cs1-44v4.vkuseraudio.net/p6/30942c24dd6b64.mp3?extra=Q0v-rTrLkvVQFpEKK1w-HVXgLi9Ez2p4HuZarehEgwjhxtXFognhhjKE31kRr6wHLtfKOceNZ3EiKttAYuAu5dO1lxyxetqPX7UZ1Dhm5EL1HRPu5b3HMeMbCwztIdlqBdmpKaM5-kRdvauxWcx7jg', 'lyrics_id': 5522670, 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 209048233, 'owner_id': 1234567, 'artist': 'Xe-none', 'title': 'Ein, Zwei Polizei', 'duration': 222, 'date': 1369235854, 'url': 'https://cs1-35v4.vkuseraudio.net/p18/3ba66baa5ad7f5.mp3?extra=8FPTr0HgWx3BSkLdJLbD1crlEkYmwSVMt9etHh1ShruBmaCUYemfh1mlM_0_kiSm7Lv0eG85wLsn1VHTdj5sg2R_x2XzngFwdawauvMUOxYDVBYLsIQfQ1e0JmSgY9eS6dU3Ou7Riv6QeYf7Fv3l-w', 'lyrics_id': 633666, 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 209048210, 'owner_id': 1234567, 'artist': 'Xe-NONE', 'title': 'Moscow Never Sleeps (DJ Smash cover)', 'duration': 236, 'date': 1369235847, 'url': 'https://cs1-72v4.vkuseraudio.net/p18/10fe3b24f7c6e1.mp3?extra=ktPoh9qxq7riYr8DTw-ll0yIOcAAUl4yn9m1CMTMI-Ges9us5dlR-2BQf2cyt4ZxpjE2UqUR8hLEgl-mc4ot9bdUuiAnUA0wgdncNUXUEi3z3XCowHmBXtaV8NLumy2Wy7itPsA2Xsh28aTtlppDOA', 'lyrics_id': 6803239, 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 209047587, 'owner_id': 1234567, 'artist': 'DRAMM AND BASS [vkhp.net]', 'title': 'Silent Hill 2 OST - Theme Of Laura (Dj Sadan Dram And Bass Mix)', 'duration': 244, 'date': 1369235662, 'url': '', 'lyrics_id': 9721179, 'genre_id': 18, 'no_search': 1, 'is_hq': True, 'content_restricted': 1, 'is_explicit': False}, {'id': 207798694, 'owner_id': 1234567, 'artist': 'Песенка', 'title': 'про ПОПУ)*', 'duration': 96, 'date': 1368599758, 'url': 'https://psv4.vkuseraudio.net/c4520/u22756173/audios/458c813b5fb1.mp3?extra=m4WufCNkvH_azgh2BLHJlRh9WkS_l7Eg0lL3l3fHwZIHv36woDe23SJZrXqV3PsbqC4FcnQEXtZ19TdRwUWGA3OnIYgIVZemcDvZ2C6OG-LmhLHO_VyBvzM8Sr7_arlsMnblPC307cohgMvgiZCwTg', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 188905869, 'owner_id': 1234567, 'artist': 'Green Day', 'title': 'Kill The DJ', 'duration': 223, 'date': 1358964486, 'url': 'https://cs1-79v4.vkuseraudio.net/p20/6c70894ae485ca.mp3?extra=0BOj7KcGLUDXap1Wyho_5VaS-wRSwJ7MGCgSQWuNOpCu_0CrksBs-Wac3gM0FJ2NKQfwfZaEPChUpfIrLfw-qmJQI68_Xj1TV0idjRsxLEfmn4k9qLJ22UQKRVzwvMvtzXDllULDR9zZ_6q3uJoJWA', 'lyrics_id': 29378829, 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 185353712, 'owner_id': 1234567, 'artist': 'Маски?Долой!', 'title': 'Что я могу?', 'duration': 182, 'date': 1357047748, 'url': 'https://psv4.vkuseraudio.net/c521206/u1177940/audios/c3950816ae66.mp3?extra=lqWrmG77qpTmqQ6rb0Es472pA0o_i1XySYg3eJ7ZSyAU5ZDawxAULYg26qw4-EXXSPc5IxmMUovEHI5h8ZjDAQvhy7yeQlnQWf-7mzJ-VsJ8sjmX4IDrfD8suoIKVWpaut1bTcsC-V4tnRxqQl16GQ', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 179006759, 'owner_id': 1234567, 'artist': 'Альфа', 'title': 'Я московский озорной гуляка', 'duration': 200, 'date': 1353611981, 'url': 'https://cs1-81v4.vkuseraudio.net/p1/95fd5212d4aba3.mp3?extra=DVX5KU7NdrE0g7qL6LsmHCpssqcOBwFvLmG48hRtu0-C2jim89gQOy4d9O_unrvjb0681q0N4Pws_3aCAGiRnNQenWHvjMHrbvkLrX_ZgW6tZrIqHQI-a3QozFZhfd9Vbknkqe1PcUZTKivp-Wwvbg', 'lyrics_id': 3036367, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 179006360, 'owner_id': 1234567, 'artist': 'Веселые ребята', 'title': 'Мы бродячие артисты', 'duration': 218, 'date': 1353611841, 'url': 'https://psv4.vkuseraudio.net/c4519/u8150839/audios/a30a0e25221a.mp3?extra=5ZywAEpfRtVdevhDtHMKzY1R-ULqY4y3k6hx6g5pDle5dh8Od8g-xSd2fOrKCypHJE8Ys4v94bIBlt0tkO34vSFW5UhuPZWPwFYwfdskRtFZOEBmh52V1wrLyytbXRBm_u-prVrbEJ8P-m_RnogySQ', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 171692195, 'owner_id': 1234567, 'artist': 'Высоцкий Владимир', 'title': 'Военная песня', 'duration': 127, 'date': 1349459232, 'url': 'https://psv4.vkuseraudio.net/c4634/u44768462/audios/820b72fd6b40.mp3?extra=zdsipKeTs25njtIgeVvN27P80dpyWCXQo-7gg2gTV1KdyEJLe5q0-zKcPcpJvVELtXqqEn-yE3XZstIqOPdG-sndIIrQ25wF_P8c36BVd6EKzdcu5QUupD5bsSwWbjJ0qOl9m9YGWC34oPDYZNoiFw', 'lyrics_id': 3702626, 'genre_id': 12, 'is_hq': True, 'is_explicit': False}, {'id': 170756594, 'owner_id': 1234567, 'artist': 'World DnB NFS', 'title': "Blood Sugar [Okay, fuck it! I lied, It's DRUM and BASS. What you gonna do?]", 'duration': 299, 'date': 1348916980, 'url': '', 'lyrics_id': 5015164, 'genre_id': 18, 'no_search': 1, 'is_hq': True, 'content_restricted': 1, 'is_explicit': False}, {'id': 170754879, 'owner_id': 1234567, 'artist': 'The Prodigy', 'title': 'Voodoo People (Pendulum Remix)', 'duration': 305, 'date': 1348916393, 'url': 'https://cs1-64v4.vkuseraudio.net/p12/2dea37c491b5de.mp3?extra=3Q-tqoOgbQp-S6uUfpUYkMc3ASIpmThRMtkbOm2-eE9XJxPSkHXLROMuK-Vx8eJkD7vxkXVJw2UCDA345CGKy5b_9HxsMcXrfB7JsbJ9k9Ke-rCXVvNvN-mXPFKYffcTO1vlqTVKvnATrk-730SmWQ', 'lyrics_id': 7686032, 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 166533352, 'owner_id': 1234567, 'artist': 'Afric Simone', 'title': 'Todo Pasara Maria', 'duration': 194, 'date': 1346260235, 'url': 'https://cs1-78v4.vkuseraudio.net/p13/7c493c7bf7dffa.mp3?extra=IO3AGs2fSaN4sDkOU1hLJTX7AuVE_9XRU0_MkTDa7SxZzNZQa6KU4oon27mxLsInIPCSmqglSu9rj9iKLfn1RgusQh3hBUnKEGa27Z5RnXRQiLq0NVegooONU-j8Qx1VxR3y90VWjdLrtuw1jr4aNQ', 'lyrics_id': 4910288, 'genre_id': 22, 'is_hq': True, 'is_explicit': False}, {'id': 158080493, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'Slim Pickens Does The Right Thing And Rides The Bomb To Hell', 'duration': 156, 'date': 1340560629, 'url': 'https://cs1-77v4.vkuseraudio.net/p21/e3e430d299e326.mp3?extra=yTRlNnJ_KAx0AE7PYRpWhRywPBh81zBs6V8uPyviFdNXGuge7ar05MCRxFXjMQ5llvXJHxuiRE1YYDVGZKTcW-lW4Yh21teb0S_grmKU3clX7WaqPc7yPbmSIwTPQikk27Fj72-3OXNsvOCfjGQEfA', 'lyrics_id': 25803898, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 158080436, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'Dividing By Zero', 'duration': 142, 'date': 1340560604, 'url': 'https://psv4.vkuseraudio.net/c521412/u40441863/audios/0eb823165c72.mp3?extra=tzKVoGmHXEzNvzESY4yAy7w98x00b5spvymtEq2f3FfrqerLTGf67IXtG5ZqOa4lPJxfbOh3BQK8FIef1OLH5KjkoTjhAXzAlQv3V2oxUi7AvRkH0hquDpLnfkqWoBYbgy4wcNg9y5kCnpWJhDt1RA', 'lyrics_id': 25780031, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 158080374, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'I Wanna Secret Family (With You)', 'duration': 181, 'date': 1340560571, 'url': 'https://cs1-64v4.vkuseraudio.net/p23/5cf4e464ebabeb.mp3?extra=MudTRYCI7jvbX-1HkOzRGHlRMrcIuZ0DutQG9_s4tPnb7vxCxUIVrdzUKsNQJVFcgNJzxjcmK3nypqTpLOQEm-T1zYZjsoCxm_Jlb-_VJYmkSLMEgmOlhWCQV3zDmbVODeJQLnPjyOM9S04z3ic3cA', 'lyrics_id': 25729390, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 158080274, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'Dirty Magic', 'duration': 226, 'date': 1340560516, 'url': 'https://cs1-70v4.vkuseraudio.net/p22/042a10c29cf96d.mp3?extra=iWyIrZ2VQRbi5KNqvn3RRaMH9N5DqVNIXSECKgP5r7X0R55P0LXH7hrU5k9FNmLFXQe_L7UYe1vVhXgJm-1CDwEbJhkBoAtWJr_zKtEXF6xPfUVoLl7_oYeKiNEYWDxfRE7wdO6fdHDkXzY3_CCElQ', 'lyrics_id': 3522698, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 158080226, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'Oc Guns', 'duration': 247, 'date': 1340560490, 'url': 'https://cs1-79v4.vkuseraudio.net/p11/e11005ce52c57a.mp3?extra=8UN3dkFaFsea1ULo5THqtEFoQFljdzLogWnOL6QPmNX4Vz2josUlGyjkGkYXbUy4Fz0F6itXLJv35jKtmpcyirePYHKRFHkDgJIZ9p-R0FlIwXCWk2lilvcQmvWwuKMZP87cerY6pzUePe2iaUxs3A', 'lyrics_id': 25760049, 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 158080172, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'All I Have Left Is You', 'duration': 318, 'date': 1340560467, 'url': 'https://cs1-75v4.vkuseraudio.net/p6/b75c8b7c4056d4.mp3?extra=NSKJp7ILWol_1pO6gYCR6TKbMgCt2ctyKvpmpawhzNAFa5WHwKDUgVgvKjxAQjiFDoR5XPKSRCTtoymr-nVtY4CKXykVRvRMD7oS7IK2tcsOnwSXnNE6hkv5JLHQNGPpPW85JvZ4nmPKuznojLriYw', 'lyrics_id': 25742058, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 158080064, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': "Cruising California (Bumpin' In My Trunk)", 'duration': 210, 'date': 1340560414, 'url': 'https://cs1-69v4.vkuseraudio.net/p16/a8b1737e55a9d9.mp3?extra=Ap5ic9Dh-37n6AfU2rwltYeQRJGyGgqssrz3oI-nrp2wEPyC5AsOwrE43xM7hmqrsyNWaYtPoQI7dzACHJUBkd7hpStcxRYzWqW2tma7CNvjQ7PSFEz_3ku-ybLukKOiGJT1xUMxK7yjUMWPfm_JHQ', 'lyrics_id': 24687203, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 158079884, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'Hurting As One', 'duration': 169, 'date': 1340560323, 'url': 'https://psv4.vkuseraudio.net/c6184/u160426620/audios/4ea48014c291.mp3?extra=emgyzOcXx7O44GhWxzpB6WBO5tpeuNvHVKjjH6Md0wqTkd9UKDVV8drGQmI7MUObdkakpQCeBTSxekwnN2RmYdP4iF4NRh7GYK-EVO-AA0rH2e6jlBGy2kRA0v5P-LRhgcoMcBzxZdNczlRKCwER7w', 'lyrics_id': 25807583, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 158079773, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'Turning Into You', 'duration': 221, 'date': 1340560272, 'url': 'https://cs1-72v4.vkuseraudio.net/p6/7230f792743b6f.mp3?extra=RM3N5PXK2DfKAJcEgqg5hp8Q9DXWp1GSzLg5V-XJX5ozp3n-R9Wy-kAqLXVFeRBRHqvO3n5uSHclQtioq6DEm5X3by2s1IuJf6cbIb6PjURnLuJUSmvAlUjl0jAXtYxe0zLrX7Wn49aq1SK4jMtQ0Q', 'lyrics_id': 25765071, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 158079691, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'Days Go By', 'duration': 241, 'date': 1340560224, 'url': 'https://cs1-58v4.vkuseraudio.net/p19/f48cd7e39f9ae4.mp3?extra=Z7-YK-cLGnri_5yjotTkEmXb0486M4fP9j1SdhOPO5MPI65JDHksNJClGnLT2xCgL0dMfXGWQROqccHs6GM_AUPW1jn2ABgjvs9sVjRxB1lChTENy73Qz9dU75oODHUH524a3cGgn13uFjBScZIqbQ', 'lyrics_id': 24555500, 'genre_id': 21, 'is_hq': True, 'is_explicit': False}, {'id': 158079618, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'Secrets From The Underground', 'duration': 189, 'date': 1340560181, 'url': 'https://psv4.vkuseraudio.net/c521106/u21013775/audios/a909b709a639.mp3?extra=aO3LmpZ4RnRd4zBhhri49ptzvxqYnMWfpWKoculSiv9_HzRzOMpx6xAKjqDuTxp-Nhe-5B-xFMXEFXlE0RFZlHgpr1GZyChsqIsf9tctdqmLuyRSezSutmODYNml_3RJGNdy-AEEivcjkdCbTXci7Q', 'lyrics_id': 25750931, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 158079536, 'owner_id': 1234567, 'artist': 'The Offspring', 'title': 'The Future Is Now', 'duration': 248, 'date': 1340560140, 'url': 'https://cs1-81v4.vkuseraudio.net/p21/1417a47aeb1ac1.mp3?extra=6GPpxo2OFUSFAMowCYwqkAzKpOyS2CIYjRjBrYaOVPo-pyzPYet3y0RerOnHdMUKQRh2L3JQ6kdlj5dU2Ii7xf51POQavx_yyzGS4H0lv86ZeOrAOTkIGULu5dwqmvVwmCi-Bmo8Dzh3MqdbSSmDUg', 'lyrics_id': 25733915, 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 153864478, 'owner_id': 1234567, 'artist': 'Soundtrack', 'title': 'Полицейская академия', 'duration': 235, 'date': 1337941781, 'url': 'https://cs1-75v4.vkuseraudio.net/p1/91f2bce2b038c1.mp3?extra=IBpT0MrnVRaicg9A5DBypVaMytn4rhBGjCuRcjPdIMbtGRR9c_ojmYsUJONAioE-b0RxqYL3lPcOPiDiLFiDiiFZL4MB34aF4PuyVc1YqYOeVyNG4w1neyvUAAUOzraMEKSg7ElzY5pANceO6chi-A', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 152398021, 'owner_id': 1234567, 'artist': 'Полина Гагарина', 'title': 'Спектакль Окончен', 'duration': 240, 'date': 1337017157, 'url': 'https://cs1-42v4.vkuseraudio.net/p22/96d220d426a60e.mp3?extra=0FKTtOOwTd5k34mYSzTLuu0Ct3gP3-MnZw7VJQyhbElKaliJU-NRPFQQGgLu0nhUxn908WpmPQK1ptJqXiUb6wyhHNvxOGWZhi8KTUDMWwHs4-p72iVo8RzUoc2kU1FNHrAtDags9t_xx9UmvezNuw', 'lyrics_id': 22142825, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 151860017, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': "My Girlfriend's an Alcoholic", 'duration': 201, 'date': 1336677449, 'url': 'https://cs1-78v4.vkuseraudio.net/p8/413d8f60f21b99.mp3?extra=t6og1e4CUYXBAvcurugkuKh2D-akBapA0w4u7f9zKbmOiuVmBIfE9Ts-pb7wlrVLnELLd5pzqzF7hcrx7jyin84IEWmxmslNk-KozCVw1rMsSylgkoaK8Ak8uBXwJkFcvWPpEDrFgEuAG-ElqZwmsw', 'lyrics_id': 15597850, 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 147576437, 'owner_id': 1234567, 'artist': 'Mervent', 'title': "Ev Chistr 'Ta, Laou!", 'duration': 216, 'date': 1333988164, 'url': 'https://cs1-76v4.vkuseraudio.net/p16/63ffb2c56159a7.mp3?extra=T570VaKPAPO8jpSWRWp1m-zvlRXy1AQuACHEx8dZwxiZeJu2ATJqhY0QTZl2BzJ3sSu_M6yuxee9F0lHCeVMEl3p9mknIgAsKLR_T5yqkJaUvkylu7flVUBatyRzMQOvRIZ4BIe66UxS5hxOFblL6g', 'lyrics_id': 1169000, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 144339252, 'owner_id': 1234567, 'artist': 'Lily Collins', 'title': 'I believe in love (OST Mirror, Mirror)', 'duration': 162, 'date': 1332099979, 'url': 'https://cs1-75v4.vkuseraudio.net/p13/44415f5a582aa6.mp3?extra=ZKu9tRSy0QUNsPH3Fo4qzZ7tn76HrkDutRMqOG6IcgQR5Uj0Fzhzuy_AHqPPj4R11-GyZdYnvvKT4xBtJUqKVc7XzNCIWwWMvaG8iFth10xz0ScKvlsRrCIu6vR36HOySWWt8gJ2oIT855ZDYsoj1g', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 138111180, 'owner_id': 1234567, 'artist': 'ILWT', 'title': 'За всю хурму', 'duration': 109, 'date': 1328451935, 'url': 'https://cs1-48v4.vkuseraudio.net/p21/dc7957de62b050.mp3?extra=0IVw2MuKOm72u7oJ_s0cDkJ-FtS20paCu7ly8Fy3Tr0GigXB_N7r2ddnmdfVRE0c5Vi6EyVh4q0UarzbGfp3d3IZPfJ8r8b28PSISgDeOCa6X6f8PJ7v7WWM2L1pV4BKHZPqsPlGVGdVR0G0SPRwxg', 'lyrics_id': 5217131, 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 135438033, 'owner_id': 1234567, 'artist': 'Кошмар на улице Вязов, OST (1 вар.)', 'title': 'Раз, два... Фреди ждет тебя (считалка, 1 вар. ★★★★★)))', 'duration': 32, 'date': 1326916833, 'url': 'https://cs1-63v4.vkuseraudio.net/p23/27061426fbf9fb.mp3?extra=6EApnw-S-OKCCBeMe3SoFqETVlwrONAnVcDzWjZUNBBh57OnjNEf-mDRE0B133oLWqh5j18eTca89AKEczm5lptoNbBlxzrSV0xWWysF1QlPAqwjAQ9jBwZI1kVxMKHDvgB7ZHv1TFvbmJUDurLhLg', 'lyrics_id': 7364485, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 135169131, 'owner_id': 1234567, 'artist': 'Night angel', 'title': 'I keep searching day and night', 'duration': 144, 'date': 1326745827, 'url': 'https://cs1-41v4.vkuseraudio.net/p3/133193b3dc4db2.mp3?extra=y7eFRdQsQvZnJrNr1tzguMPp7KbpTLWNqaYjT1amrrQiuOO2jfllFIjcknxUaAeumDLUuf-2Cq9qtoG2iT8Iw8WVopEBVXWtAc8P2PPwPvv_LXL1Sg_8jHjFMbCOYE7Ah1v9_LUXkJg4TJw1AqBmDQ', 'lyrics_id': 21498346, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 135170614, 'owner_id': 1234567, 'artist': 'Rasmus', 'title': 'First day in my life', 'duration': 224, 'date': 1326746695, 'url': '', 'lyrics_id': 18687327, 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 135169661, 'owner_id': 1234567, 'artist': 'The Rasmus', 'title': 'Dead Promises', 'duration': 219, 'date': 1326746143, 'url': 'https://cs1-81v4.vkuseraudio.net/p13/44ae0cd18a630b.mp3?extra=MkvS5w9UvYMye3JtmkJp8kcTz_NAqSae1jKLPqwgPQpLRGvuXCNAwl44G5WAB3P0h3XIt8kC3HsNgue8h-QooNADb_ChyxLd3W-U9MaWIyha1QRO2Z3WKAoXnH5I1-6Jq5nzp6-sViC6GV_kKg6YNQ', 'lyrics_id': 7618811, 'genre_id': 18, 'no_search': 1, 'is_hq': True, 'is_explicit': False}, {'id': 135169459, 'owner_id': 1234567, 'artist': 'The Rasmus', 'title': 'Sail away', 'duration': 225, 'date': 1326746005, 'url': 'https://cs1-74v4.vkuseraudio.net/p16/fde72a8c166900.mp3?extra=o1vHErw_FLJVzD60iA-A3bSSNXufiTlFjrgN-7eD6J1LPbmTHOkaRsv3jRZMH7bDyO8DfclbnuNvcAhUPNVxYWwjR1kc_ln3llswZVa10QLubsUglrKxQmeHLu8k4qRsKsSozt6Yyfp3hFITrUgMUg', 'lyrics_id': 3531171, 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 134209313, 'owner_id': 1234567, 'artist': 'Ляпис Трубецкой', 'title': 'Зоопарк (Гражданская Оборона cover)', 'duration': 158, 'date': 1326126718, 'url': 'https://cs1-42v4.vkuseraudio.net/p22/62e1fe67aef722.mp3?extra=DEpVMVKeg50aK5q4jSjQ_6PwgQgIbjme5TCyUqIo6BuVszs8UzgQl4pvs7RrEGDym2ff0nYb8JE0x651btgunYmJPQ_zLEvCFm_ly6m7oBZIkQNDgrRmlb0K76hsfj46wZ2fIHjPjNPP-6YI3pO-oA', 'lyrics_id': 9535184, 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 134208875, 'owner_id': 1234567, 'artist': 'Чиж и Ко', 'title': 'Фантом', 'duration': 254, 'date': 1326126563, 'url': 'https://cs1-43v4.vkuseraudio.net/p12/c58425cce87d6c.mp3?extra=NArayZDWNaaQ58rqofbKYuYigF-OGw-rWsjicsghMo-HK9vdc-iOj04VZ-rNgpfIqsnHQXp6kVjk-QdWmd3qAoRoans_fQcRq6cFC4kK17CUnx3SdrBVrnv4xDB8yG0NUZQmUL3GKPiHtJWWekoMSQ', 'lyrics_id': 6596498, 'genre_id': 1, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 129389200, 'owner_id': 1234567, 'artist': 'DIGIMORTAL', 'title': 'Те, кто спаслись (2011 single)', 'duration': 313, 'date': 1322760628, 'url': 'https://psv4.vkuseraudio.net/c5040/u49758512/audios/11c07c0e4c87.mp3?extra=ZVkggMTgjG-uci-uEd8PZeI-dzsCLHy6UTm0fLNOYNJR8dUZ7Ieo-jFrAe9Kfdfrxu_yHlqt7tR2LUqe7x0kJO9f9E57SSpJJH3s1W_XWSZSz2tMd9w0D5imgp0jnLlKGyL-gQmZYyW5iE2j2ZoXgw', 'genre_id': 7, 'is_hq': True, 'is_explicit': False}, {'id': 122664721, 'owner_id': 1234567, 'artist': 'The Exploited', 'title': 'Fuck The System', 'duration': 255, 'date': 1317837898, 'url': 'https://cs1-45v4.vkuseraudio.net/p9/131e9e44c38b52.mp3?extra=gizhCFui_oAIIaBeMwGUny0Y6eQrDwhz07ifNRFS7huZiSqRk0e0rv_iay8493Bq3Z0nHOVBztPuwTNZJ5Mp_6_F7SX67c2M_VdQc4DeknUqDfcPcOiSXUCbBjYZtDMtNuDYPUlxXbfBX8JlaERX1A', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 121965551, 'owner_id': 1234567, 'artist': 'Milene Farmer', 'title': 'Fuck Them All', 'duration': 272, 'date': 1317320242, 'url': 'https://cs1-46v4.vkuseraudio.net/p10/4ef03559b5956e.mp3?extra=fLYQGWx09iKEdmxpvcpSF7Ju1751xc1uBsH1fGwkjJkohX4qZ68MwygJmKFUzuel81b2Je6A7LNVa84CPuOxBYYFWbRO4GleKdXzyfKWeOlDkLW6aF_15xX93shsBLFs8-v_aALTGhPRiAWiL2eLEQ', 'lyrics_id': 6719757, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 120012401, 'owner_id': 1234567, 'artist': 'Игорь Растеряев', 'title': 'Комбайнеры (Radio Remix version)', 'duration': 191, 'date': 1315847073, 'url': 'https://cs1-80v4.vkuseraudio.net/p21/11640f6633a99c.mp3?extra=prjVVKuoFsSHqBybWui5k1WNco5MY92vmIMZqaqUwH0b38229tmzeXCfAbAfxZQinnZuxZP880SIHNol_R1RKFI1G9DJALaER7D9qu4etMjd4vD8YgqFhBiD-Y_EHs0M8HICgfTrBTGPCP_rU-cfBA', 'lyrics_id': 9180293, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 120017510, 'owner_id': 1234567, 'artist': 'Игорь Растеряев | Русская дорога (2011) |', 'title': '08 Георгиевская ленточка', 'duration': 267, 'date': 1315849070, 'url': 'https://cs1-43v4.vkuseraudio.net/p20/f2793091c43f4c.mp3?extra=Gj5vQQzcrNXqXj6YKY7xV1BL3VfzolqhHEfOtlj7CKppoyoSEOVci2XU-tvbM3Rjue26TDLaA4p-jsy8wni-8I1O07dtxAF4VOTKz5ZGniFuKZ9_GVLNW7JXy2urYd8_voXbIHCsfdbBu5HWzHGaiQ', 'genre_id': 14, 'is_hq': True, 'is_explicit': False}, {'id': 120017314, 'owner_id': 1234567, 'artist': 'Игорь Растеряев | Русская дорога (2011) |', 'title': '01 Русская дорога', 'duration': 169, 'date': 1315849001, 'url': 'https://cs1-64v4.vkuseraudio.net/p12/519692925f2005.mp3?extra=acbP1K8RQRZ84tPHJsiDIRsLQNPjTGbro7WKG3HtxujwB5aLSeAGcG5w58wCgJQyZyBN4eT9sesh51iNMrVJXpuqY51uw8Eu1X843wwgifw6oRhM8cS5MQ59pP40QwoOwDrKs7SBIuLmH3OgXxmQhg', 'genre_id': 14, 'is_hq': True, 'is_explicit': False}, {'id': 120012594, 'owner_id': 1234567, 'artist': 'Игорь Растеряев', 'title': 'Песенка про баб (Грустная песня)', 'duration': 88, 'date': 1315847137, 'url': 'https://cs1-40v4.vkuseraudio.net/p3/e9080835034d95.mp3?extra=5PjL1o_0EW50pdCmSE8rWjktA5MMrSXYrgcD5Udus8RokVd9WNAfrX6Ft4-QzCxHSe_Q_J8XV5BQdEWVMyjfrkG1_OTl1_7w_HY6IHamKXuRZ3XJEEVyzrdvuF2YRaTBbc4sTbiB77jBFtP0UjCQMA', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 120011821, 'owner_id': 1234567, 'artist': 'Игорь Растеряев', 'title': 'Богатыри', 'duration': 136, 'date': 1315846797, 'url': 'https://cs1-72v4.vkuseraudio.net/p23/ffd6d709090a5e.mp3?extra=pQvUq5dFbxzBZw5u_xTLcKX2P2wEwXEke2DLhj5z_EFnHgbqI-Hj-IxqilnHvdj5DPsPwU0OiqpUoUpWF7QSHxE7SvB3Bb2SpNiyodFRc04o1WsqZsO1iorNKHnIRky2PgxPOKNwd4a0USI--RfX7g', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 120010332, 'owner_id': 1234567, 'artist': 'Игорь Растеряев', 'title': 'Мозгодротка (Концертная запись)', 'duration': 200, 'date': 1315846148, 'url': 'https://cs1-66v4.vkuseraudio.net/p11/66c1d8379ef396.mp3?extra=EpUTUIWQPy5sF1a7xJVLNOxbgh9gl3sYzD_GfqHiTF05wRdfrAntZTYqi3aW6g9YAjsezWRTcXvdvfp_WOFz_yR4e0Kx-orLRreVuVoVTnJ48Cp_QuSQ_ISjSTJY1gxIWP3KtAkFFFhU-4S1zPwsRg', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 118612039, 'owner_id': 1234567, 'artist': 'Полная психоделика', 'title': 'Вынос мозга', 'duration': 138, 'date': 1314740381, 'url': 'https://cs1-77v4.vkuseraudio.net/p4/978844960b470d.mp3?extra=t4Qlfg019EFdPTwO5DA6M0VUXFaWLN3a5UyvnbMRa3I_d_KCjyGdQvLHoXwm5uH766SLP-GUhAk4-lvYmuX0jwvVbklVFLTQZJAYwLp-8BeznmGqvxfqUuPAM8q-xg1ouRK7J1d0RUYzai6hQIDkog', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 103386587, 'owner_id': 1234567, 'artist': 'МАМУЛЬКИ БЕНД', 'title': 'Нажратца!!!', 'duration': 171, 'date': 1301845703, 'url': 'https://cs1-74v4.vkuseraudio.net/p9/0e6a6bd9dd57de.mp3?extra=ND3WnCtl6KtAAiL0OpG8b2FKQskVPrC1Hwa9QjyCCNV501BBByCnPKRbYZb9CFfnBndKzuITGnwM-nJzn23cL_p6LqJhvZIZ91XxvZAv4K0pfF8WONU_AQVnZy0chMZngZPZHpm_QtlU2hR2JLBbFw', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 103386405, 'owner_id': 1234567, 'artist': 'Мамульки Бенд', 'title': 'По чуть-чуть', 'duration': 208, 'date': 1301845625, 'url': 'https://cs1-48v4.vkuseraudio.net/p6/f6a9380c3da51a.mp3?extra=sYa-OefDQ_1bOQjkqLBYUZKNTnBTKq25mSQJTmA2CX49Z6Z0SsK2Fmc_f1iySXJrhQ9-FxoIFr-o9ML4xlQuDtnC6u5SMeQQna7b-lReaRqDxWj6wyxXIydM8RVWZNAzPpZv7zgV7u6BuBLncZllyw', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 97758112, 'owner_id': 1234567, 'artist': 'System of a Down', 'title': 'I-E-A-I-A-I-O', 'duration': 189, 'date': 1297139237, 'url': 'https://psv4.vkuseraudio.net/c4587/u7433199/audios/8f01c573dba9.mp3?extra=RKYBaRLjj5DmUmTMVJIgxrY8-y86Z-Nna3_VshJt35JS2eefYtaKICOKscEjqsryi1XmYh-4Jt0McSYhRdmQBk770OnL6TDIpjh5cLJCS-K6IYC_mUA2E-DfnGqPTs9m4oBhB5GLD4ulr_z0vzVf', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 97758100, 'owner_id': 1234567, 'artist': 'System of a Down', 'title': 'A.D.D.', 'duration': 198, 'date': 1297139205, 'url': 'https://psv4.vkuseraudio.net/c4540/u44924806/audios/d9b71e4e7e67.mp3?extra=3FFTag5vgWypoErCpVajpynvFkStZjHeudgYFTYE8MQ0a747JTID_IZZiy0yJWNDJLau5eT-k5pZdLWoP_g3LaBi6J2d9uzdzwoTFIjAW85StFEWIzJpD2msD1C-cDITOFTKfaGEGIiBgL1S48DQ', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 94576531, 'owner_id': 1234567, 'artist': 'Наив', 'title': 'Жажда приключений', 'duration': 220, 'date': 1294258501, 'url': 'https://psv4.vkuseraudio.net/c4206/u17239313/audios/209763e6b54f.mp3?extra=OnGYbdkeSxmPuYrKR6jAlZ6HB-ABAYjkI7dxciAVwAP0ZtcPwnAzRyUBef3Ycm4N6LXc1TiO7kKVgvjjkSsKkzc7hqLd62dIc-6XQcHDAXOh4t1SEzIsenuD1XzMGx4dlfeh4teVFX4Q4jGe0Z26', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 94028445, 'owner_id': 1234567, 'artist': 'Пилот', 'title': 'Шнурок', 'duration': 240, 'date': 1293683454, 'url': 'https://psv4.vkuseraudio.net/c1023/u11914/audios/28959aff1109.mp3?extra=ancox5y1T-zttrxWqg31g9NsZ5w_ON5eccbuTfPOKwavkhBOrKQxWBqA0ObZOzHHr38IwrErce6qZiRryN5wywGC_cz1hzR68plAEnQwtMYY5tjJsEJMWJm4RVq4zWdkLUeieVGl5AcXnXVSKPSS', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 94005785, 'owner_id': 1234567, 'artist': 'Неизвестный исполнитель', 'title': '....Барбара Стрейзен.....', 'duration': 300, 'date': 1293649635, 'url': 'https://cs1-34v4.vkuseraudio.net/p2/a1a5802b8e285a.mp3?extra=9HCabVkldbL0fKONmO5C2SqgXIxuG9L1C1cvsJS0_vYd58uqak6EXUJDjhMCF_xapr5Craix7FX34uyeBWpnX9dug-FijQKOmMiQkOy1gih3JMkuwdYki1Oo3RCwSsgK1mTb0wZBkoA3QMST7HuL', 'genre_id': 5, 'no_search': 1, 'is_hq': True, 'is_explicit': False}, {'id': 92700606, 'owner_id': 1234567, 'artist': 'Берлин', 'title': 'Последний день лета', 'duration': 232, 'date': 1292387454, 'url': 'https://cs1-51v4.vkuseraudio.net/p9/b50e04c4caf11e.mp3?extra=9grKD3EzljjdkBv0vO6jc8RgIu7S0aE6nnrVwdPzlzYPwiSJD4PuePBs4kQjtIsj7Ycd1eriTRQrbCJpnzafdPt8y4YuckRf4yR9TmDkRt5vvfLyjOrauP_IUgNa_fsrNWs6gW5Nje0oBlLrrtWO', 'lyrics_id': 5527471, 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 91817203, 'owner_id': 1234567, 'artist': 'Simple Plan', 'title': 'Shut Up', 'duration': 180, 'date': 1291493983, 'url': 'https://cs1-69v4.vkuseraudio.net/p7/989e9868429a62.mp3?extra=V2Kmoqk8rF_3oHNnV2RziBWEm5k8vT8LUfqDxTb1Abx2NFEOkabxXRESVfdGMbpipnAE3uwUP831TbgoU_aStGf9AxNto6cpdjTpKGbJ7BJgtpLcND3aHXKedRfji7EK2HsQAkbq4Vq_Fim8W3GM', 'lyrics_id': 6066132, 'genre_id': 7, 'is_hq': False, 'is_explicit': False}, {'id': 91816582, 'owner_id': 1234567, 'artist': 'Simple Plan', 'title': 'Jump', 'duration': 188, 'date': 1291493654, 'url': 'https://psv4.vkuseraudio.net/c5002/u48843493/audios/a701e0fddbd2.mp3?extra=lmUBaPFzoEFkfcWz0yucMXqUYndteyVs-m3mXO2uhKn2ndYWUSQH__7xEA822njNwjwtqzdjijSCNK8AXazaRwLt9EqdBIzU7ez2Xp10w_pU9g1VYiFrYCUizb2CIotHt3nbpokdjjG8NUUwbuZi', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 91816471, 'owner_id': 1234567, 'artist': 'Gob', 'title': 'Give Up The Grudge', 'duration': 177, 'date': 1291493596, 'url': 'https://psv4.vkuseraudio.net/c5069/u24886309/audios/1358e136a01f.mp3?extra=-45ZmeUh-sUHxWvEbDxhvZK0ka3Nw4qdY9GCZkUGxqp1AtvSaZuuyBB3Zp_5Z3XnsqX3VinRuBNdxbYFXp-l3vK3cFQHOJtcjczU02Rcf0tKZzT6P5N9ZWALY3sZT41qy4zkGpIlJqtGGpKix7Fk', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 91482989, 'owner_id': 1234567, 'artist': 'Приключения Электроников', 'title': 'Белая ночь', 'duration': 212, 'date': 1291148579, 'url': 'https://psv4.vkuseraudio.net/c4237/u19363469/audios/54342cd0fb71.mp3?extra=zmxE7imDGvAGAu3RHOmMR7mrRAEnx64QKqbeG8LPDg5EvKylKnVAiD-QEamm0l5fkilRSZjToh13DuKQGMNI18CP6vjsCYlWh3AGaA3LbWH_wQqXUNh5Jy0urmhz0S2b7GXe8Wy8sjJrHeZoV-oh', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 91401996, 'owner_id': 1234567, 'artist': 'Лампасы', 'title': 'Моря И Океаны(Feat. Элизиум)', 'duration': 189, 'date': 1291060925, 'url': 'https://psv4.vkuseraudio.net/c4618/u96495054/audios/4cf891cb7e9f.mp3?extra=KlPcCILMQoWjOX4heNIeU8OptmkoKeFmlj58Ta95eptggzd2ZE4YtexdkkVYvTlEr4kvEUevNrsH4-SutDcgORbyp9ewonag6R_2naLH_hLfqtZpKe1vPhT6voc5sr85LQg0vaLIzLjE1QdVU3Kx', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 90984380, 'owner_id': 1234567, 'artist': 'Jackie Chan', 'title': 'High Upon High (Flight Of The Dragon)', 'duration': 321, 'date': 1290631057, 'url': '', 'genre_id': 2, 'no_search': 1, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 90342239, 'owner_id': 1234567, 'artist': 'Green Day', 'title': 'My Generation', 'duration': 139, 'date': 1289967454, 'url': 'https://psv4.vkuseraudio.net/c4378/u28053746/audios/a28ab1c0f9ce.mp3?extra=BIptCyTY23YsY_d35P5wJ0aSi_VaQMA5oxeZaU7Ue-NQ7QzUv9FPgAJPs9Txh01rshyvlqSGoeQN5pCv-3tRrim92GwhiEhkendjIRcsthtXqGfS8Ec-JeAYlBF6V1s0eKrHRcv0-TNevF-mjzxV', 'genre_id': 21, 'is_hq': False, 'is_explicit': False}, {'id': 90333394, 'owner_id': 1234567, 'artist': '♥Nickelback', 'title': 'Hero', 'duration': 201, 'date': 1289940739, 'url': 'https://psv4.vkuseraudio.net/c5082/u85501590/audios/410e3a231268.mp3?extra=NPvGr4wxXuh5WoPi7z-6VFfdakWJvm6Qht29-E1TYgqoiX8HJrLIHRlWJcnAW2-5tq1i2-spFXwyUJ2yzxeMznVE-3d7KZA_cNeW10inh0i5lqR2q1FsumxfwX62hwvkO7TxKJlxqmD3fckTPFCy', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 90329077, 'owner_id': 1234567, 'artist': 'Sum41', 'title': 'Fat Lip', 'duration': 303, 'date': 1289937658, 'url': 'https://psv4.vkuseraudio.net/c4509/u65821968/audios/0c049ed3fea4.mp3?extra=tGkohitlfU5nUyNtjBiGjzd18afq8MKLx34822kuVY2WgkF_eCdSXiXcjdIbQKcMFgHhNFxLpz8je4bOGVhr4nu9ypf7WLD4o38eL53BWN7FRUIh3gh0DFItbpACAhJwDPkmr5CbXu3c9z1JNdu_', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 90317054, 'owner_id': 1234567, 'artist': 'Тараканы', 'title': 'Тишина - это смерть', 'duration': 224, 'date': 1289930921, 'url': 'https://psv4.vkuseraudio.net/c4894/u56330449/audios/6c3d2092f1ea.mp3?extra=BNMQNroYrVPgcaD9_uJJYKHIX9cZRPmumng85FUx22Oxjwre2Nih7GTid2nG5TIwGW2qz1lrwfEaUAvDI8Canq8UxbuGJaeWKOm2Tgukv8uSNmn8Y4gKf1xcpn897natiBbrv2HKHf7MQOTYrbYX', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 90263006, 'owner_id': 1234567, 'artist': 'Roxette', 'title': 'Listen To Your Heart', 'duration': 314, 'date': 1289880458, 'url': 'https://psv4.vkuseraudio.net/c4716/u32619284/audios/d64b3c8aa923.mp3?extra=56g-J1PaHoVuCBYhBpYIbYDb7nam7oSDXDs9Fj4uXYgebu-nbgQvc280mfzxyvbEUcIo1b_Mr3ftK9a14Mbgyn3bBOEPsTEyKCF-3IDjkVvB0u4BbomCMdfYUAH_u4_UAO40YNIoAkOsYRS4TuLf', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 89916079, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': "BFFF ( Best Fuckin' Friends Forever )", 'duration': 231, 'date': 1289501339, 'url': 'https://psv4.vkuseraudio.net/c4758/u11775198/audios/7dd95e0ad02a.mp3?extra=zfRliekiDNeLIxnqkeWc8Qiks7zV7sXWVpuRjWh2HXT4Xbq2a6ryvAToEApoHneFkSCzVAqlpuOEALWphH1r3dwcaatr5BoItMJwD45AaSbue9YWFwnuLk9zm6nTKtcX90VSbveGsk92DtM-RpzX', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 89915939, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': "Let's Pretend We're Not in Love (New Song) 2010", 'duration': 190, 'date': 1289501258, 'url': 'https://psv4.vkuseraudio.net/c4964/u16223051/audios/ace8fd3635d5.mp3?extra=TMOnqAr8mrkqm92AqrAaoWMHCDoDQ9QWmBKvvMEJXRUid0tX8BlJ1pzOd0drAABaVdaQ--SrQnK4wYhjXH0l3GwWNTl5ESR45aGfeuRefHNv5thQC5wynQfuvzC3JGj5o8YwoLRTO_tGRCrOCKmT', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 89915813, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': 'Only Young', 'duration': 226, 'date': 1289501191, 'url': '', 'genre_id': 1, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 89915667, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': "I'm Gay", 'duration': 207, 'date': 1289501112, 'url': 'https://psv4.vkuseraudio.net/c4423/u28808545/audios/197a86d1d32e.mp3?extra=vXVCZ8Xqz0a2RFPBjaY9z1kl7I9PbZtg_Ar3VDuWkeentalO4EQe7tnNkTy6f8UEl-t13HZqtiu35Rxa4Fsa-S78dfTv7lA2T7uwyDqldYmF_OFzf7UEBvgSX_YXSm-ZpwK6rNzzQFci9Z_G5wp4', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 89915491, 'owner_id': 1234567, 'artist': 'Bowling for Soup', 'title': 'I Ran', 'duration': 154, 'date': 1289501039, 'url': 'https://cs1-69v4.vkuseraudio.net/p6/d0db15ebe97b4f.mp3?extra=ZdP9fyT7CB6ZcE716W90E5Uv6Fat36qNxnLXu8BangVC_14krAlZ_iIezwU3J9F3tfWWvdQ12MBhGqvWBe0oxe43X9euyTJ6PSJbUzIWpxUWTb1hMFJZ6hMmG4EL7Gt9BPrg8so359pvAu1yqC2R', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 89913912, 'owner_id': 1234567, 'artist': 'Bowling for Soup', 'title': 'Almost', 'duration': 206, 'date': 1289500105, 'url': 'https://psv4.vkuseraudio.net/c5007/u33830905/audios/0072df8a83fc.mp3?extra=dTXpEh7UH8EJC4HWHoyYY0prqFr852oR5sBajHH8o4mS5amiB3hpFvQDXjL35rFQy39RMQeTSc-4Bo1_SafRLoNU_mAEW7oO6u_gFjig3REHXoM92JvCYDHKcMcgjliTByAVtPeSPyq1cHfIlEjN', 'genre_id': 7, 'is_hq': False, 'is_explicit': False}, {'id': 89912915, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': 'Emily', 'duration': 211, 'date': 1289499504, 'url': 'https://psv4.vkuseraudio.net/c4434/u2207540/audios/28f50ace6c6f.mp3?extra=7LZpQ6LRJ5HA7mxIEkWyV2Osz6m0o-_PCO2q3S769eEgmmsqWMskhQBGbEyYTF2bx74a2QkXU0a_s4rn_eo7vbQE-o8y03VHScbtsfqWMhdaoJyp1r21aYyeUs0e0SnJc8n-0Hm6c46q9EZSAWgZ', 'is_hq': True, 'is_explicit': False}, {'id': 89912374, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': 'Punk Rock 101', 'duration': 183, 'date': 1289499112, 'url': 'https://psv4.vkuseraudio.net/c1119/u671483/audios/de7bd16c4023.mp3?extra=btjj3vcq7yAFQuAZbjZsNrCEloORjx4T4GG_f2-SqgIaHS67Il1fn1zjxf6UDYLbbWO-skQmCltWU601yjoNqJOFrXP_sBU_skPMnLxTk0eeRMEfCgzHooxGaPKr5LjcSLLa9qyzaD1dMOtkJo9z', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 89858474, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': 'Girl All The Bad Guys Want', 'duration': 198, 'date': 1289450018, 'url': 'https://psv4.vkuseraudio.net/c1593/u1384949/audios/1a1649f8c10a.mp3?extra=ubu3dynMqr-nPZxTvNCsIz8-zFd91Jy_E_IUs_-xFEzt6HbUHSPPBFY6jJzrqJ67IufwOeDbPZDpwaL7LSGwXzfzfEXMlw73xphtn6NnK2_1304pTw5MWj7j3QHfu8-oPM-YRv1J2Sc_He3DO2Jp', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 89858348, 'owner_id': 1234567, 'artist': 'Bowling For Soup', 'title': 'High School Never Ends', 'duration': 209, 'date': 1289449349, 'url': 'https://psv4.vkuseraudio.net/c4422/u54697941/audios/5dbf01c0cc88.mp3?extra=pev-q5o3WyYCb9BlzrFZBONZn8YHa3qonSCd_aTsFUyk37WZqJHh4fSaAWR3bUDYiosvT98KerhRC7gNjm6byJKVgrQfaDnDv-C2qSeVvfzPSyLFYNjsAdRsv8QZM6cJRl7SmZoWQfZlPfG58hF3', 'genre_id': 21, 'is_hq': False, 'is_explicit': False}, {'id': 89535346, 'owner_id': 1234567, 'artist': 'Андрей Макаревич, Георгий Мартиросьян', 'title': 'Снежинка', 'duration': 128, 'date': 1289078322, 'url': 'https://psv4.vkuseraudio.net/c4956/u27529245/audios/39a82d77f28c.mp3?extra=dacvAVroHJoGN503RAjOcBObuC1_jAkBrxHBDdz0lx_y1-iaXtkKqhiidnbmO4ykjt4xHThFmi2hzfs2AlBzVWP0HZUunEoYVbAvDfAzTaezZilYV6s1SYpmLg8_3lzcRSQrG0pWQ0ufprjfur_P', 'lyrics_id': 6892926, 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 88649453, 'owner_id': 1234567, 'artist': 'Неизвестный исполнитель', 'title': 'Бамболео', 'duration': 205, 'date': 1288150227, 'url': 'https://cs1-39v4.vkuseraudio.net/p4/b97946319c3bce.mp3?extra=jPxyTBti1w04wcI2dhZlQlXTd7x5yENGEJJMLih4snzh9y32maVX18d912sdkvqF61rsEQoa6Wv3RkJmfyK0DG-AqBn16zK8HEENdsbOTuu0QeOftj0-ESyWK3nlS2c9wSziyne8P5B_efdHMa_N', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 88333797, 'owner_id': 1234567, 'artist': 'Неизвестный исполнитель', 'title': 'Пасадобль', 'duration': 140, 'date': 1287778756, 'url': 'https://cs1-61v4.vkuseraudio.net/p23/3dceb106194840.mp3?extra=SUS_RfC34m11ybPkBZoGJGgq80Yzm_5CNRw71-7r1jrJ4zw5nYSnzyTQJCgPsItpEiPXqWcmyPy0kiQAylgYj4u5Sq9pOGr1KgVChRnIB-9mIYx-v6JJuhOBba_VdvEJhKcsRgh41_Ry84IzRzfh', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 88331611, 'owner_id': 1234567, 'artist': 'испанская гитара', 'title': 'карида', 'duration': 194, 'date': 1287776979, 'url': 'https://cs1-78v4.vkuseraudio.net/p4/1c07eb575caa23.mp3?extra=roVm_iPx57PMtTcjyfvUrm7VWOzAHb_clxFyKiK-tZ-fJ47UGP8GmtUCF4uIPOlMQqLmgzCCN21VvLGJYjkV9CgUZ1k3dF3-wUqEGr6w_c6PUDBK9tIi9lGzMv8qi1NBSD9v6JK3GLPlm_FOXIYC', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 88046563, 'owner_id': 1234567, 'artist': 'Megapolis', 'title': 'Karl-Marx-Stadt', 'duration': 116, 'date': 1287458307, 'url': 'https://cs1-67v4.vkuseraudio.net/p17/d03314bd128443.mp3?extra=1zSNzSReIfpZfNrvXhWlkTtrd31FmJgqPQIHvLTk3IClL8WW1ybfW0vyzE6P6dPoQDp6DjifSY9mnZFQHBnYAxXDFIPjJ97KxynImAAgM21oGeY-C2EqrvSGlZgy35UfC9RJd-t8sFNqS4wOg2D3', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 90738572, 'owner_id': 1234567, 'artist': 'Пиратская Станция 5 Русская Версия', 'title': 'Yellowrus - The Best City Pf The World', 'duration': 229, 'date': 1290367249, 'url': '', 'genre_id': 18, 'no_search': 1, 'is_hq': True, 'content_restricted': 1, 'is_explicit': False}, {'id': 87898428, 'owner_id': 1234567, 'artist': 'Paul Engemann', 'title': 'Push It To The Limit(Саундтрек из фильма Лицо со шрамом)', 'duration': 182, 'date': 1287306662, 'url': 'https://cs1-65v4.vkuseraudio.net/p6/9edd7541060386.mp3?extra=A2Sb1OJ-QFt_xUbGwSn58sXcLupY4JlQd_L0RhIVTgQXPPdDLhdDPAj6F6GfCdm2GtnyefbapD3gddDc39az4DmPOQgPc6D3pMLuA5CDnQc527XbO8ewflknzjNUL-jxazNTZDw__CmoMBiV_1si', 'lyrics_id': 3650615, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 87630371, 'owner_id': 1234567, 'artist': 'Наив', 'title': 'Я не шучу', 'duration': 192, 'date': 1286997067, 'url': 'https://cs1-44v4.vkuseraudio.net/p23/4f5a8a85586e44.mp3?extra=-aPnim-zjAcq2Fk2_yyNOHFRnj2ek0BIAaZidX3rleOhSsWImmJqQi7hPy2VDwPA_ThWCKsefjvXybEm282lgx_KjE1DOYgr_xPecK5-RV4NWYkTWS96D-DOO5_uZYAzAVp6Y9DeCnyBrbXuYAY2', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 87630473, 'owner_id': 1234567, 'artist': 'Скала Фрэглов', 'title': 'Тёплая и удобная', 'duration': 274, 'date': 1286997138, 'url': 'https://psv4.vkuseraudio.net/c4769/u29183731/audios/4d3fe60bbc43.mp3?extra=_B4PYizjbf98-vP-51-YEC7Cwq9dZUkZX4k0lw-_FnMuK3JlxnwNemeiOsx_nzXGeaYEwmsODw_TrbLwV2lMQCTw3EAyrjjYzOLXieTE4A831vVLJFi4yIsLuAzIzKTbLoitJlXzADitnrM6razi', 'genre_id': 7, 'is_hq': False, 'is_explicit': False}, {'id': 87630293, 'owner_id': 1234567, 'artist': 'НАИВ', 'title': 'Рок', 'duration': 144, 'date': 1286997003, 'url': 'https://cs1-73v4.vkuseraudio.net/p20/ae51abf4a6af76.mp3?extra=CgrR6LFzfpvjn2oH27fp2MIvr7_QUxYyvrqXUxyD9PfZyyJ77EkU6Y59-Y_UM3QbcJKQsEYnFiAiua6YO0I46ebrfIn1PDoJpyaL5qQV_uJv3KMjXP8w2fZo02cUcvQe8MVz0D9XhAz3qy3WCKvC', 'lyrics_id': 6363032, 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 87415942, 'owner_id': 1234567, 'artist': 'Real Big Fish', 'title': 'Take me On', 'duration': 184, 'date': 1286767891, 'url': '', 'genre_id': 18, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 87415934, 'owner_id': 1234567, 'artist': 'Real Big Fish', 'title': 'Sell Out', 'duration': 226, 'date': 1286767868, 'url': 'https://psv4.vkuseraudio.net/c4618/u87089611/audios/b6c8cfcce63f.mp3?extra=qix1R7mdbglhqiLSxcJC44QQhPVwIWaKHRS_HZRh0-FdWGG2UvYavKIayHMfPfhZjFWDqHgJHuWu4AYCewSqespacHSfzg63t8yVZ12ITN2oDxc5oaM54qjQ9f30OYh1rcnIlqqiG7Lu_SaoI-_D', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 87226223, 'owner_id': 1234567, 'artist': 'Саундтрек', 'title': 'Пираты Карибского моря', 'duration': 90, 'date': 1286567360, 'url': 'https://cs1-78v4.vkuseraudio.net/p3/017a274b8458ed.mp3?extra=A9NRiy1oNTr3oK4oyDFnOG_SQJFR1I0_AVcXbUJD6UJq5bfYtMZmlnPKbEQbd1WLKraSL4PHgf4-VeHmNhfIS4aAcMRrkHCeo3tk77W5fWKNRG5yeQUgzXrdlYMFInbZ-hX-oKKSoCQc3hTZnnoB', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 87223315, 'owner_id': 1234567, 'artist': 'Фантастика', 'title': 'Фантазия', 'duration': 174, 'date': 1286565210, 'url': 'https://psv4.vkuseraudio.net/c4839/u99301595/audios/5ebdc34120ff.mp3?extra=I4zxj3YZ8Zhhg1YgpJAJp_DJZYgJnKksBSSRraDtBFTduByqouMoWubNAkMHouQyK2QniVUt2ja2irBQbkWWbPCq5c_CbGkPvabGNE6mPcPZN1xNYTelmYJtS3S6sRlYEEBaq1IQhJO35dDikSxa', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 87223267, 'owner_id': 1234567, 'artist': 'Фантастика', 'title': 'Ничего не случиться!', 'duration': 186, 'date': 1286565178, 'url': 'https://psv4.vkuseraudio.net/c4403/u25431538/audios/ad2384190119.mp3?extra=tdJDX2nS1OwExN2-PCL89wNuRhhL3JqbK48qu-b4JF3NDQ9M1w_DGRiy_fuJEoW7LZ52ckqH3pWJGb9L1ZkhFcm-r-fW_gtXA6nh1DI5OhSnWYNHfIyXcTCPys70pDcWEvLfvNEnSpXzelYVZmRR', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 87223026, 'owner_id': 1234567, 'artist': 'Бутовский бэнд', 'title': 'Весна', 'duration': 201, 'date': 1286564990, 'url': 'https://psv4.vkuseraudio.net/c4293/u10617449/audios/92376d865bf1.mp3?extra=wSMEg0uvjmZcJ0PwJc1KKZCdFBIjQRe8QiHHx2uLeqAyj4hi3hoNIYPSoD5KVxDrnqMFAFVlqfYBqrI1rxOcZ9uE-egghHsoyW84snQUg9clcI_gngv9gnesga3dHRssOOk9efRCEGkTa0XS3U7r', 'genre_id': 15, 'is_hq': True, 'is_explicit': False}, {'id': 87222732, 'owner_id': 1234567, 'artist': 'Male Factors', 'title': '02 - Ёхансен&Бамбула', 'duration': 160, 'date': 1286564789, 'url': 'https://psv4.vkuseraudio.net/c4598/u89320879/audios/e133f70c6d94.mp3?extra=TM5N5DaAg9wC2tIFieRypjabnJdyyQowjUs7PQCKKxrt-2-NpFS8sj0Y6T9cPBAcRRwMxJGg8C4PfdEG1YhvqqI5bD6J6t8J8Noy08gIxGwFICfN57HWEyV_pDwxHOiETz1xObT9SLyLPxA-cufT', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 87222419, 'owner_id': 1234567, 'artist': 'Ландыши', 'title': 'Штирлиц', 'duration': 119, 'date': 1286564552, 'url': 'https://cs1-80v4.vkuseraudio.net/p1/ca05b5800f87c1.mp3?extra=bC7DNGU5NVcQLoVRvdUCQTT-tWSCXNADApludxCqtjzf-e7R4Culg_yKQvFPeGy-wMMcAiq3T7sQwiGuKTi31OmtxjBa76Yf4dFBYlZBl4rmiG37PrkKmTAcmAuZLV13ZNiNUPGtPffKwyKV6RnX', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 87222344, 'owner_id': 1234567, 'artist': 'The Pierces', 'title': 'Sticks and Stones (реклама Essa)', 'duration': 192, 'date': 1286564512, 'url': '', 'genre_id': 18, 'no_search': 1, 'is_hq': True, 'content_restricted': 1, 'is_explicit': False}, {'id': 87222107, 'owner_id': 1234567, 'artist': "Ска'N'Ворд", 'title': '18 Мне Уже', 'duration': 171, 'date': 1286564335, 'url': '', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 86068455, 'owner_id': 1234567, 'artist': 'Lumen', 'title': 'С4', 'duration': 167, 'date': 1285127307, 'url': 'https://psv4.vkuseraudio.net/c4489/u41592512/audios/6c78b6109a74.mp3?extra=S3ym_3jgY1kakuIoROrRYm4TPnhACFVJLLI3c44WeKA1_cB8A4grQB-jJBdxhEuefpEqE9QAV3Ssw4XeH9ApXKuj-WitXV9uIAbzA21D_Z8ANl7h6weOWCQwbE3SicM42zt7uxS1hsYXQ4kbQL4M', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 84294067, 'owner_id': 1234567, 'artist': 'Ber-Linn', 'title': 'Последний день лета', 'duration': 232, 'date': 1282675284, 'url': 'https://cs1-61v4.vkuseraudio.net/p9/a9e9ecd750ef10.mp3?extra=YOTWCVHaqba8Y-lO0iEyX0sH8LNBtZzHncb_eipkkp4dGXr-4xJvg0krVR1EAOwqnY65V5lg0oufDpUhbPNjJWvGY0eJjsDNSgVBQ-fr8nMauJXrCUNpBCOYan8zBAoUQrU_6SSoi7PYfiAwvsVD', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 83773410, 'owner_id': 1234567, 'artist': 'The Pogues', 'title': 'When The Ship Comes In', 'duration': 193, 'date': 1281905038, 'url': 'https://psv4.vkuseraudio.net/c4832/u3066180/audios/74d0c39d96fd.mp3?extra=5efeTuUrz-W1M4Hy1gYEUGnua3SeGCQDuk3uHV4hyx2n3hvrpLYCyZ5gt5OEDzlO2k9yDjQ0zZrmZmSwF4xGtihT7eXTPsKvpFjJKGjTkPV1FsHqIFmisZsjFCpMp4g3VqBjJG_JbAaI43iJtLH9', 'genre_id': 13, 'is_hq': False, 'is_explicit': False}, {'id': 83773399, 'owner_id': 1234567, 'artist': 'The Pogues', 'title': 'Living In A World Without Her', 'duration': 200, 'date': 1281905023, 'url': 'https://psv4.vkuseraudio.net/c4832/u3066180/audios/ebe0d0bba0ae.mp3?extra=vq2bA_pZloJQqbA3XppSbFWLWmHTEmU0AipxGBVOQLT0OjsIf5jKp6exvS7X_jZBiSEs2--vkyioerXK7bwcjylUrT9F8m21JaOldefIRoHEB7O68YGy6TZ1iTHWlhVzbOGhFyZYdv2GtJQVQkky', 'lyrics_id': 5854740, 'genre_id': 13, 'is_hq': False, 'is_explicit': False}, {'id': 83773358, 'owner_id': 1234567, 'artist': 'Pogues', 'title': "Waxie's Dargle", 'duration': 113, 'date': 1281904967, 'url': 'https://psv4.vkuseraudio.net/c5123/u16128549/audios/c1f4f7a2b816.mp3?extra=qqIp6zvU38vuKiZivOkkXuHMjE8jrFOB_NJSK0oIjONASp88X5pa_GnVe7KVC0woz9EavFS6maBiS1KOGj3421pe4sPnKtEVE8W6MeDzdjVxL4b65LXl1g0wLVC2hzocORoCtR-YRp8k4wQgVa24', 'genre_id': 13, 'is_hq': False, 'is_explicit': False}, {'id': 83673931, 'owner_id': 1234567, 'artist': 'Элизиум', 'title': 'Рассыпалось небо картинкой', 'duration': 189, 'date': 1281772145, 'url': 'https://psv4.vkuseraudio.net/c4830/u16360879/audios/3b8808cabf07.mp3?extra=nFE0H02J1npnbXAoH5ZQjtMH0zc0GKK7peGfNglP9K_n7CgXo-h2mDKMlLGO79xOPpTZT1DtnfJgeIDwtLHYw0KL4gXZWe4VMgm3lCx8Pmyrd-Xa3FrADwbkg_dWsOhit0d38UrTb-yyuzwn67jr', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 83367202, 'owner_id': 1234567, 'artist': 'Артур Скотт', 'title': 'Бабаньки (ft. loc dog)', 'duration': 241, 'date': 1281292863, 'url': 'https://psv4.vkuseraudio.net/c4888/u20247174/audios/8d9db56bed2c.mp3?extra=GmS5WAAQnYOZjKg8vUJiTzHAt_F4r9C-2EH2gbw0VroaT69aP_1D6mihohCCQ6hV8h5kwO-3AX1OeKdc7ih0WKQZVzS13nvjDhieQuwOTvqT5IuOrz4P9cFRqZiF3z_9rpWWHwljtSOAAOTFBCbD', 'genre_id': 3, 'is_hq': False, 'is_explicit': False}, {'id': 82535547, 'owner_id': 1234567, 'artist': 'А.Каменских и Потап', 'title': 'Пырышки-пупырышки', 'duration': 179, 'date': 1279984080, 'url': 'https://cs1-60v4.vkuseraudio.net/p16/7d4117de77a929.mp3?extra=DlEq4bsmTeyMN3PEzAXZ251uq0aY6N3Qrb-5q_cSrYZrz17eBXlXEpk54hJsHBF6wX3nwNctguyZSQqjZbbnQaAN5soPY4EnVvPrp7lh6cSNGyJsmS-rlOxAKHl4pHqs6taljofC_2WbNQSrCpIw', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 81894455, 'owner_id': 1234567, 'artist': 'ek playaz', 'title': 'Валера', 'duration': 190, 'date': 1278959340, 'url': 'https://psv4.vkuseraudio.net/c5117/u54210845/audios/c5939e9f388e.mp3?extra=IZebDFJMLKO0p0I02o5GIPFzP5WUI2Ph5MMQuWI5rWXyu59Jggs6EV_dexitipp6PH3R9bjKK5gw63Ysx7V8_Tr5gqHt_0gA53RwvC-uyVtWhH_Xs8SZsuPp0tMnwBryXcYgueKOKfQpXR2eOzDZ', 'genre_id': 3, 'is_hq': False, 'is_explicit': False}, {'id': 81892465, 'owner_id': 1234567, 'artist': 'Каста', 'title': 'Бананы, гориллы', 'duration': 213, 'date': 1278957625, 'url': 'https://psv4.vkuseraudio.net/c4586/u32708245/audios/82b156b86a8a.mp3?extra=AN02wCQ3Kw09uu88lpdzvLHB02nS16TfFvcLr8eNUVCTDTl_h30EU7QFNuadYHeq9XwJLeaStpm8jPTqFECufOIQxLy-h0UcFl_7pRt0y0TCPoZ4W24RZerFGM-4ohwPPiaCZ_CAhKassaIhXfT8', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 80489848, 'owner_id': 1234567, 'artist': 'Ышо?Ышо!', 'title': 'Пришла Весна', 'duration': 210, 'date': 1276745279, 'url': 'https://psv4.vkuseraudio.net/c4618/u2117808/audios/3c9fe748239a.mp3?extra=52-muM4sXT2L5aSAx1evJMisxGpOdOLIismXMoAR2P6KbBxv7DlDmirzILBJyAS-8BxlI-Bj08S7RReCpOpAvfMVqmLKuxwUyx2dS7RW_XZUT4LpPY6HbWTJWC8D87juXoIzjZ7xqO4ab87PnoLe', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 77129462, 'owner_id': 1234567, 'artist': '7000$', 'title': 'Дождь', 'duration': 296, 'date': 1271872211, 'url': 'https://psv4.vkuseraudio.net/c4637/u25950196/audios/bb3d99cc7dc4.mp3?extra=HiPiV8rxE6Pe6X9dgfopBV0fKOY__J1M_YSKJumBbP6-E1UO4iKDCV7yY3sU6FbBdPk0FufMa6CjbHgHT-csvhtgRJukFb21VbgT7sm4M_huWjsf79_TmiqTBJSxf4ZqphC23D2fUEs9x3tlmEAO', 'genre_id': 21, 'is_hq': False, 'is_explicit': False}, {'id': 76303411, 'owner_id': 1234567, 'artist': 'heath ledger', 'title': 'i love you, baby', 'duration': 226, 'date': 1270697285, 'url': 'https://cs1-43v4.vkuseraudio.net/p11/537e6eb7c88bb7.mp3?extra=xp6SyHPU2xvNhlRgbwBN2iwEVG0qODenGfv14HLP_aYuMMRjWM3gWjFUDFRyVwZm3twzS4j7bf7icNk23pUw66eX7T-2DSjyJwCVvjvfOrZ-xFvG5E68UfckLiL45cpEY9rPggRDbKFJQj0WxykK', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 75954316, 'owner_id': 1234567, 'artist': 'Наггано', 'title': 'Армия', 'duration': 389, 'date': 1270148827, 'url': 'https://psv4.vkuseraudio.net/c4887/u71772668/audios/81ca671a9b87.mp3?extra=aihlJ0XgIExv0ZbVXSbSsvmqd7WYQ_S3s0APIw7sI1cSMsxjLmPuFesFL6YQY2vQWwkqN5d5ZXAGZ87HLMBABWCd-PkTYkR5FZeFMOPKc5Y1dQi5w16UUfmepfCfffLEK5MlvC6i9bIWGYieFJ0J', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 75679215, 'owner_id': 1234567, 'artist': 'Cardigans', 'title': 'My Favorit Game', 'duration': 217, 'date': 1269726722, 'url': 'https://cs1-74v4.vkuseraudio.net/p5/1bef5fbcf960ff.mp3?extra=FQ1KbcrnKJedAzBpGWOxsQ3tA6KSPLvThoXPSqM3GTmdKBy_GWnlFSiRUxd_pxGraz5lu1HA5tDdq9McoTPp8DK4kIi5TYgY_fR5pc4ZzxPncLvgwjVMcUi2he_jnrwCiBUuQOQjXDP29r2lDFt5', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 74847599, 'owner_id': 1234567, 'artist': 'Нагано', 'title': 'Застрахуй', 'duration': 354, 'date': 1268507824, 'url': 'https://psv4.vkuseraudio.net/c4703/u21222845/audios/d3afd289933b.mp3?extra=UhxTPv94zljqZA_blpAyhVh3FfrLQ-xxkK3GyODE8PGpyFKrAhNPo-nDVwupSLjtqIDni_NPYBGIY-83Gyc_xy2_cdc-Hn9_sPFWNVkZtbNAxsSRxv1HNhYBir-ap52H9-BzqqentfS3wtbZb429', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74847248, 'owner_id': 1234567, 'artist': 'Noize MC', 'title': 'Две Хорошие Девочки', 'duration': 175, 'date': 1268507560, 'url': 'https://psv4.vkuseraudio.net/c4422/u5006631/audios/439c1ae18794.mp3?extra=XHmTPe2JYRLI3fh7rP9a56-5D1AF1aFQqCYw3TXGH3TwXDvh_IUTZEQjnPTwHeYPti7VW7xVpzTLlPb0Gh8JRD65M10aI6APgjjFk3aNgrEK3NlNg7jj9lZwZlUMS7__LTzLmYD5rUrLw6Ncz-j6', 'genre_id': 3, 'is_hq': False, 'is_explicit': False}, {'id': 74677821, 'owner_id': 1234567, 'artist': 'Эдуард Хилль', 'title': 'Я очень рад, ведь я, наконец, возвращаюсь домой', 'duration': 172, 'date': 1268250295, 'url': 'https://cs1-50v4.vkuseraudio.net/p2/040841e8ff4078.mp3?extra=YJA2iGMO5WErOLGst8wwnA-JTOh5migzYVFkZ8i5TYXrI13ggI9jJN7bEvRIOJvHOjgZePvWpffEC8yz0PfOD7sAMULjyW2mLJBeLHBhpaKFJxlAP63-Jaa5qIzQZivSZ87J_k71cPeu50ingX_E', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74627955, 'owner_id': 1234567, 'artist': 'Bloodhound Gang', 'title': 'The inevitable return of the great white Dope', 'duration': 246, 'date': 1268169913, 'url': 'https://psv4.vkuseraudio.net/c4402/u12472378/audios/0374f2d28de4.mp3?extra=QPhqKRjWutSf72LqCfyRRygXGFUNDYsPHUHsfCovwuk0An-8gTOLjeEiL4D8bcr4U3wi1og82mGYPE658xXdonmRm6u1AI4RP2mK8K9myxINnvUMkLjMKeIuzjxuBtwS4AjRPr1W8F6OgDzL12ih', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 74627921, 'owner_id': 1234567, 'artist': 'Bloodhound Gang', 'title': 'Uhn Tiss Uhn Tiss Uhn Tiss', 'duration': 260, 'date': 1268169873, 'url': 'https://psv4.vkuseraudio.net/c4716/u67230445/audios/c4249e236fcd.mp3?extra=RM3gYPG6zEXAuCcuAEUB7QxYCiMgW6n-teulfIPA3nTWL4Vo7-S86v0pcMpsmI7shE6S2KN53MomzrzlnFTRxr-E51KDy2OVDNY670PmHXAkh5b2SKnv5VKwwCvTreCwl6JThsY9doFZvfJLPhDE', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 74465116, 'owner_id': 1234567, 'artist': 'LUMEN', 'title': 'Гори всё синим пламенем!', 'duration': 129, 'date': 1267911035, 'url': 'https://cs1-80v4.vkuseraudio.net/p10/f469ab444745c2.mp3?extra=DRmVZuScK-5zzx64LExm8F_g4NhTMam7rA5nBjzzKQ0tiekETykYUA3mpNK7tzgSvffF4XjdJ5NHFLkOa9SIA5mF4ANM5YRC7bEM7IdHe9_BTAgRPqyfcWQD4rNXgNY0DWlWFNn7WM3qQqQRLkPV', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 74465156, 'owner_id': 1234567, 'artist': 'Santana', 'title': 'Just Feel Better ft. Steven Tyler', 'duration': 252, 'date': 1267911079, 'url': 'https://psv4.vkuseraudio.net/c4878/u53581999/audios/64708ca75de1.mp3?extra=96ed1QR-x9MIPaIVvPlREVg94sBCictrynRszTkLTy8huuOvVJ2FlBZIdU0KI7Q7zCA4P8ecE8FQ7VHqRtHsYaTCznGDZrgf08QUSGl-eQQLYTh1SAhGlUzBZOVOKhdoJBDhuqYRvNZwHp6RwTam', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 74464719, 'owner_id': 1234567, 'artist': 'Карлос Сантана и Nickelback', 'title': 'Into the night', 'duration': 221, 'date': 1267910537, 'url': 'https://cs1-69v4.vkuseraudio.net/p11/ace7c99b62af89.mp3?extra=UA6HBahofBfssuR3MKmmKBptPCaLmEtJ9G16aHsrFbq6uRYkiJpQBuuk4E6czmouz0Rur2iRsAFq2rFEv8GQrKNt2jdPzOzvK5R1Sx8xZLI8FTY9k-5v_91ySMtEG_jm5_-ZlnkUMWW9Hs0NyZRM', 'lyrics_id': 3641646, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74464567, 'owner_id': 1234567, 'artist': 'Сантана', 'title': 'Лунный Цветок', 'duration': 286, 'date': 1267910344, 'url': 'https://psv4.vkuseraudio.net/c4722/u36026186/audios/fb221f316b67.mp3?extra=iMjx75VsNwhnIqyge3FG0AjE25tFMrG2m9K1TtR-haqccDB8rKS5gVS8AJFcImKMjBfGTqRvWZb1LwHC32zotpiG0wQDKiog-pdm7ZuT2MteySTfiKjxDnDyhsIvYitbL_xu00_gJMmfRVnNsqJO', 'genre_id': 6, 'is_hq': False, 'is_explicit': False}, {'id': 74397766, 'owner_id': 1234567, 'artist': 'Эдит Пиаф', 'title': 'Marseillaise\\ Марсельеза', 'duration': 253, 'date': 1267815262, 'url': 'https://cs1-58v4.vkuseraudio.net/p18/a0afcc407b27b8.mp3?extra=EwlwFKCJXByK7C0mLiPVFjHJzePPoJawP4Gsvs4lPZv57OmjTlEhv9Oo7KV5eMLsq_h8YjyKHDU5Wn36aHGOzJsFkfnzVgFeLjqnuZ5Ko98BGDwp--md4-y5lv6luJALUg2oKlU5KBfURg8lHbKu', 'lyrics_id': 3104702, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74349768, 'owner_id': 1234567, 'artist': 'Эдит Пиаф', 'title': 'La foule', 'duration': 175, 'date': 1267738417, 'url': 'https://cs1-63v4.vkuseraudio.net/p8/a526e8323d1864.mp3?extra=eMb_FFBePBxf4dPGpHpIdkeoo8T4SYL7foSKttgivFePBpZtQ7g68QnJJd3gYYPmI4GDAH7AShGyWMNjRdvCniSZWRZdJIBN_we4vc4jiHg9PHZx1QgQ6sxo3fhiUDu387z9TRVJvklMuabS9Gq9', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74349633, 'owner_id': 1234567, 'artist': 'Edith Piaf', 'title': 'Au Bal de la Chance', 'duration': 175, 'date': 1267738221, 'url': 'https://psv4.vkuseraudio.net/c4420/u41524048/audios/1b80f9b9f8ef.mp3?extra=36s0b05SAHvmD7U8XPbpCEcsfITxhTCxWYPZ38Am7gJync8AIi_lbvngOyFrCrKqfBX_ktrYyRWlMzjhqnydAUo7A1FQdiD1N4EoiGmm8oHdo_GicAEEGl7n8h31iN56_-PH8mMXOd6v9c-GQATw', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74348023, 'owner_id': 1234567, 'artist': 'Edith Piaf', 'title': "Hymne A L'amour", 'duration': 206, 'date': 1267735836, 'url': 'https://cs1-66v4.vkuseraudio.net/p2/708ab7121fb886.mp3?extra=jtacRtbel3VaQ9AN7dwnqJtUncX3bEYbLn-EPuTrQ-ALZ7yRq2kCM1xO0MkKetcLifG83ymnkrevT01mnGyMH5z5_sOiqAevonNRsZ-7O8Nb_OMVrrg_gtNgKCPmbrsswCEDy1eAqTl8oUBz9NiF', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 74348022, 'owner_id': 1234567, 'artist': 'Edith Piaf', 'title': 'Bal Dans Ma Rue', 'duration': 178, 'date': 1267735836, 'url': 'https://psv4.vkuseraudio.net/c4696/u59087645/audios/cca645bc02e3.mp3?extra=Wi_EXPHNn5A36OREkWOpvvQ3OL9kiG25OcBWOSQryYFfK_cbsqoawG12mj8MD_2-mZ-eH6JcnWI7anceTWtX6uDxmsmgvX6ghaOhd67Byyn4s6nmN_ab5erDWyobx9h3C3jrncmbSZv_CoF9avh0', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 74347857, 'owner_id': 1234567, 'artist': 'Эдит Пиаф', 'title': 'Sous Le Ciel De Paris', 'duration': 203, 'date': 1267735582, 'url': 'https://psv4.vkuseraudio.net/c4997/u66568910/audios/b782f33be6ec.mp3?extra=ddAC3GiGHFKfSNrQgC_-kWoQTaglfJRWGQhW1pns-AybD-q6zSE9uXzrKwsyVAqOYqX67Tz7NM78KXUDHXyWVDwMH-hiXl0Skq2qVbPWSS1qdZhZhVBway0-NM3Yhw6I9-PgeACQkBV5Tbng-acz', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74347753, 'owner_id': 1234567, 'artist': 'Эдит Пиаф', 'title': 'Milord', 'duration': 272, 'date': 1267735454, 'url': 'https://cs1-73v4.vkuseraudio.net/p13/1ea1799af779da.mp3?extra=4pckxaOrML5cEnsaJTpNZgbHgAUPT48THFznMiyQ-2suY2S3eY14yrWlkZC0szQ0W_CdUIsM7Yd6rDPnm-T0krszmcgzNXC7loEcJHAqnqTiyYT-rda9yO3Dx-NM2yDRcmHCD8Dk1A0eZefrWvKL', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74347643, 'owner_id': 1234567, 'artist': 'Эдит Пиаф', 'title': "Pardonne-Moi Ce Caprice D'enfan (Прости мне этот детский каприз)", 'duration': 200, 'date': 1267735360, 'url': 'https://cs1-43v4.vkuseraudio.net/p20/3500e5b4937b3b.mp3?extra=yPtI4WN7we3NI5qnIwi0smYcas8MgX_2Tdk1WGeu3dRUQHaTZQ0ugyb_gzPlgmKAZ_LVdZXw-DY0g3SXkwEZp2vAJBi-9JSeBJe3GMmo7x7DdOb0rB5fDcY-OBZ2hRNFsbKnxtiui2j8VaVcldXL', 'lyrics_id': 3682553, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74347612, 'owner_id': 1234567, 'artist': 'Эдит Пиаф', 'title': 'Padam', 'duration': 199, 'date': 1267735316, 'url': 'https://cs1-67v4.vkuseraudio.net/p22/c2fd037a8f66af.mp3?extra=j_6MmcRKbpZhEvhdEUN3dPKVbT8Cbu9rKvUjWGcIlWNP_2cstu7O83W_C10CMtD8B0dNX9fdPs_IPWCM0fgokmJpDfe_XTr4982mOUOCQhlWBiZYg69G7m8jorUk1AsP626GBfGto4uZq4cVitc1', 'lyrics_id': 3640034, 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 74342628, 'owner_id': 1234567, 'artist': 'П. Э.', 'title': 'Волшебник - Недоучка', 'duration': 229, 'date': 1267730398, 'url': 'https://psv4.vkuseraudio.net/c4596/u68206924/audios/0da402f75f31.mp3?extra=x2MAYBqSw62QK3avN6jy1-LhPEfEDVPYYoLz4dL9g5g43PFs4I4BsEMHnFQMEV7bSmoZkU34JoNRFuhdvaPMxeF2N-iYjtpxWtPdpPLHAoxPT29Xa4uj_Gy3CydqpD0BYFJ13JxPPzWo_UPiIz4D', 'genre_id': 21, 'is_hq': False, 'is_explicit': False}, {'id': 74290437, 'owner_id': 1234567, 'artist': 'Ульи', 'title': 'Опять весна', 'duration': 134, 'date': 1267646098, 'url': 'https://psv4.vkuseraudio.net/c4998/u17437564/audios/fb70cdacba5d.mp3?extra=ub2OxtFi-icXsPvCfJprv_aUIOvDL0s8O-hkfUOtxdq58cBJPIvxuy3Nm7lo_PqOfWvpKK4idBZyC8NzG91wWe2mEr46SSR3C-0rs29_LjZwh6UxMpU-IGMtNPb7M8HdHdZL-em-sZwWT6eKLFlL', 'genre_id': 7, 'is_hq': False, 'is_explicit': False}, {'id': 74289482, 'owner_id': 1234567, 'artist': 'Д.Харатьян И О.Анофриев', 'title': 'Не Вешать Нос (Гардемарины Вперед!)', 'duration': 161, 'date': 1267645350, 'url': 'https://cs1-80v4.vkuseraudio.net/p1/cf334970e02863.mp3?extra=fQHJEMldiKxtvaCeQfqOMdYQn4bhPofTcY_H4hPb5YAXA1idRFnQVc8XVamS0XUpxp3OXSJJTle4ljcfyimzxDbQPtsgngfhel8etKZv9dXqakA452_xtbLU_7zx5qiwKSBfcigPxivARPLZwo90', 'is_hq': False, 'is_explicit': False}, {'id': 73855194, 'owner_id': 1234567, 'artist': 'Ногу свело!', 'title': 'В темноте', 'duration': 184, 'date': 1266955055, 'url': 'https://cs1-49v4.vkuseraudio.net/p11/96777a43fc00ec.mp3?extra=d0HLOMF7YY0VTxSDl1MztOXsScxXqwJlvgikZ_07K0zszNJbwT52I13sf1rymPSIW1H9-wwgreiznC6I3mkM9J0sWMXIO06Vn_sgxK8qylZL2aX-cbkPEFI5_CE1NZ3K_1CkmcHu4QKxOtjWj0jf', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 73855193, 'owner_id': 1234567, 'artist': 'Ногу Свело', 'title': 'Идем на восток', 'duration': 212, 'date': 1266955054, 'url': 'https://cs1-79v4.vkuseraudio.net/p12/cd753cc5402c7e.mp3?extra=KDgvSRlDY0InXDExm6BMra9wK2KGOTGwSkk0plhNivehSKQMpamTQRd-j8CLffvDrMnw6yEm-B3cdfq1fdwaNDKhvIZEDLLb0BF5yFaDMNaPTPlQ9BtOyHKFjMuMU7q7QMzCIFQosqWTfwzakNXb', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 73855184, 'owner_id': 1234567, 'artist': 'Ногу Свело', 'title': 'Колыбельная песня', 'duration': 259, 'date': 1266955045, 'url': 'https://cs1-41v4.vkuseraudio.net/p16/103be530cd7de5.mp3?extra=TfiV2ydJ-VgXckt_OtBdoVKZdQEZD1p_TR94oAjEFKJcDG3oUFu9wKHc0jY_xh89jedCXfNHDO2V6KjOA-YBHVXxxWOnKqmgWawtB-j_51faR6zNhd-P2ndfgqPD1gzkVbDjUrrdekU_trBqShY3', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 73855158, 'owner_id': 1234567, 'artist': 'Ногу свело!', 'title': 'Наши юные смешные голоса', 'duration': 273, 'date': 1266954997, 'url': 'https://cs1-61v4.vkuseraudio.net/p23/d17c3acaab197c.mp3?extra=2WdJQ_MrgB6UaFQLXeve-eD-DgpyGT_lJU6nxktWRA0m65JwReWwMYA8bEkg7Ktc-8PqkvKYM_cJCBX77wDnTyZhb1sC4dZ6bb1DomJhDBsYbZeuHHzS10TTNuh-YouWraHtYHqaoGJw84cRfEWq', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 73854127, 'owner_id': 1234567, 'artist': 'Сплин', 'title': 'Мое Сердце', 'duration': 250, 'date': 1266953818, 'url': 'https://cs1-41v4.vkuseraudio.net/p14/7672c66c2053f7.mp3?extra=tFBxExcgSZWCAOyI2vgqb9wsxpLhfN0lW681BOyR_updUoLqe3EPhCMzTw28bVKu3e1AF6iMNcP9ubSFFzexVrFUl3fzK3AWFKbx76L2Hzikgw3HROrTqW6n626XbBRmL6Nc6YR6-oLzfMDduPzF', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 73626747, 'owner_id': 1234567, 'artist': 'Муслим Магомаев', 'title': 'Надежда — мой компас земной', 'duration': 212, 'date': 1266615019, 'url': 'https://cs1-44v4.vkuseraudio.net/p12/cd4001037559c9.mp3?extra=Fm_jssMvSn4GYqYOGguTOiAFMa9-R0ZNAhrAVQyhHWKcm9aqiwLFzTjy7tw8hC_DVlrJwxypY6ml67i5j0BYsOtX5tKnvkl9Z8SfIO4nuk-eZWJPSjRuQpJC1Qpctze3I2z9sD0vb7gfYEtj1EqB', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 73625674, 'owner_id': 1234567, 'artist': 'Неизвестный исполнитель', 'title': 'Официальный гимн Прокуратуры', 'duration': 808, 'date': 1266613649, 'url': 'https://psv4.vkuseraudio.net/c4434/u31859333/audios/97e300f468e9.mp3?extra=pqc8vTWu1W2J_qeLfIX-aIhNrfLO9_HDefAZjApkNGmdrPTGP45T2QecxygNLngCJA7ZosG4kOh3Li4jq-HD_lyomnIgC_9rWRto3e8yHzVh1vQE8ioxPRDU8TpS109mYUHXuLEDBL19wmeTIl0L', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 73556527, 'owner_id': 1234567, 'artist': 'Юнона и Авось', 'title': 'Я тебя никогда не забуду', 'duration': 273, 'date': 1266515326, 'url': 'https://cs1-81v4.vkuseraudio.net/p4/9f3d22190a5a29.mp3?extra=zU0TyyooWwZdT50L02IywSGLK_OPpi7Fmzv1nhooCvgYOC-4NO2lIovxwgn46HOfsLVQB_MSLRr_pk-7ovxLz_sckq_K5XjMbnIlSRDakgjAsa1QGjjJtrKOjbjDfYDXanoDSAemZvvzXXtAJPZP', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 73076068, 'owner_id': 1234567, 'artist': 'Кинофильм "Усатый Нянь"', 'title': 'Вступительная Тема', 'duration': 143, 'date': 1265742889, 'url': 'https://cs1-72v4.vkuseraudio.net/p11/bae37198ef7635.mp3?extra=8YVGPZx-4pY995pzKcSm1f3XlAvZPuOqMN-qteK8Adtx_pY3XDw8Upb7hlE3XSU0dx2mxehsesKdqGoxjxOndRgYevxV4yQVvvBXqRtiyVxROl6zlMCGp9q_eDd1Kv137njvakmLqAzBOPtxwxzr', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 73029305, 'owner_id': 1234567, 'artist': 'Элизиум', 'title': 'Состояние мира', 'duration': 227, 'date': 1265662801, 'url': 'https://psv4.vkuseraudio.net/c4535/u62782584/audios/7551c0bf39da.mp3?extra=ytX2wzlA3V_ds9Xc2b9PHqOt1oFsMZSmM17o9dQD8S0VNAA-wx5Hc03xYSeiCVqWHZlagSEVNsAM0_6eZQulg25a-sK4ExKnMpZAfht3jhbLHl-Jv6X0CWyzQVFOWdJw9we9BRfeHNHjkks4j8Yg', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 72851243, 'owner_id': 1234567, 'artist': 'кеды', 'title': 'такие дела, парень', 'duration': 165, 'date': 1265396979, 'url': 'https://psv4.vkuseraudio.net/c4267/u39203145/audios/b60770488daf.mp3?extra=kUEBTV9aSTxUalCD5juQVklM7yKRLoet_b818_YrQSfpss-htIlhtsAKdsDOtY8cfq3tf7NRBou5-1k5ctnHxQXaBDEEu8raQqUM3sRCLW67jQUTKRMNZkQ0jGdzkgeap1MGuODojiYfAzrIB5yC', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 72850965, 'owner_id': 1234567, 'artist': 'Машина Времени', 'title': 'Она идет по жизни смеясь', 'duration': 141, 'date': 1265396769, 'url': 'https://cs1-78v4.vkuseraudio.net/p22/d05460fdb0b99e.mp3?extra=__Di9CJAjEhjVpwOw4gl3oDOWqLTLLA4-b3J9J0XjKPYyEws9pHaw7U8Jc-3yiRD4-jFF1-QZgBoUeTHmutKPYl1xtTz5yPqV1wVBhmpnr322pk3rpdw_CMlh5I2C5p0TYbQjGuETHA5k5MHI79p', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 72657345, 'owner_id': 1234567, 'artist': 'Ф.И.Шаляпин', 'title': 'Из-за острова на стяжень', 'duration': 246, 'date': 1265057431, 'url': 'https://psv4.vkuseraudio.net/c4430/u34323968/audios/83d7811f6e8b.mp3?extra=ceNs_mJK2ITYCmdWOOZfsLKcojdONbPTr6wCLYVaq1fQt3tqcMRqjAkD9_WWpIxE55j_QIQd73l53TtAG3-9gSD10mQ2jrX6CKxCKLOPjRDQYtdiJfM0OhEYi3LMIq9uJr1Y3kvlXulf62HQqF7g', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 72657197, 'owner_id': 1234567, 'artist': 'Федор Шаляпин', 'title': 'Эй, ухнем!', 'duration': 195, 'date': 1265057276, 'url': 'https://psv4.vkuseraudio.net/c4422/u49390472/audios/5ef0902ad8db.mp3?extra=-mTHN2F1Q5ZjNoID_OcUe_SKQbK5i-I8_MR3zBmKih1iMRurmyVu0qjD11fnE4Fm8hBiLrbIfHuRhdO9vYD17L3lLXqMmsuA5xKSG4dK3JAjwPucHUqzsPWdFk8jyomYOOp_Juu5FJsyC-9MXFRx', 'genre_id': 14, 'is_hq': False, 'is_explicit': False}, {'id': 72657017, 'owner_id': 1234567, 'artist': 'Леонид Утесов', 'title': 'Песня извозчика', 'duration': 184, 'date': 1265057079, 'url': 'https://cs1-77v4.vkuseraudio.net/p14/bca3fac26a3cdd.mp3?extra=TX1OhsVFkSntmjijl5X4K9lPBATl_AE1tMuXvsdi3jtfF4_AJZPvrAzZXL3l3UAlzFBa_XdoJZhk0jifEoAc_73TUTvY9lKmMxpzL8qzpWp6BZ6f-qFnshqR4IxnHQi35tS2L68c-8QoXBl-1ILn', 'genre_id': 13, 'is_hq': False, 'is_explicit': False}, {'id': 72656811, 'owner_id': 1234567, 'artist': 'Леонид Утёсов', 'title': 'Всё Хорошо, Прекрасная Маркиза', 'duration': 150, 'date': 1265056862, 'url': 'https://psv4.vkuseraudio.net/c4543/u6762825/audios/d7532d8b05a4.mp3?extra=3-Kl0K5ZSdDgkGwykspkheP6tgLhwFXyenaUyjHzjiIKlXB6an05LgatdHgdm8Lxhkje_VS8OLynX2fNCh8fdVzOTdPBqtGc1Hd4jg59NoT-HjgtPgCq4qbH2LlXwUJ4oMY7ptb_SVCPlNqOFIwW', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 72656527, 'owner_id': 1234567, 'artist': 'Леонид Утёсов', 'title': '7/40', 'duration': 213, 'date': 1265056550, 'url': 'https://cs1-76v4.vkuseraudio.net/p11/f3ba9edf60f197.mp3?extra=DHECwrxd5mJxhqLsLC8fj-fqcEPqY3jkQ_429DU_t-rxsW3K7a8VATLVB1JZ9nj8PlCStqdKW4vwnbfud4k3n7byIq9FaG3Iho94claOwydBSP_GkmeZ6Pt5jdIusYIpzepginYOP_SuUJ1pfc17', 'genre_id': 13, 'is_hq': False, 'is_explicit': False}, {'id': 72433019, 'owner_id': 1234567, 'artist': 'Alien Ant Farm', 'title': 'Smooth criminal', 'duration': 211, 'date': 1264702316, 'url': 'https://psv4.vkuseraudio.net/c4405/u17314431/audios/f72c48f76506.mp3?extra=kcHcVNXoE4K492wXHDt9Xb9mtdFP0pFsP9Gbba6miYBlYjq_W9HP-UB2plWhOBeZbBfEMn4fIAX4bqa1gsORcvhl-z4QlWAXgj8aunzI9LvM65n1SKx3-GXZRJ2ezgWHavHItUhoKp0kOXP8cF2x', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 72432971, 'owner_id': 1234567, 'artist': 'Aerosmith', 'title': "Janie's Got a Gun", 'duration': 333, 'date': 1264702271, 'url': 'https://cs1-80v4.vkuseraudio.net/p15/99ee0a7e619237.mp3?extra=HVNFCF3bbTVMdQyYB0x3d0YLI_W46pZlnTHER0kH83xfadmpDwQygkD6g9pTrt11WlU5QBJxpQQEiz7s3ZdjLIj9K4ueJdz1NGC3rkMe3mlpwG4t4kgxPyOaDWNaBkL1DBxQMmOiwli46zza0Phv', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 72432712, 'owner_id': 1234567, 'artist': 'Aerosmith', 'title': "Cryin'", 'duration': 306, 'date': 1264702014, 'url': 'https://psv4.vkuseraudio.net/c4498/u38557645/audios/2a0e36f0229d.mp3?extra=nYbgSrAyV2xgcLHDQ0wYroWX87F4tDJ42bzuIHSTwXsL7_zLe1VVvvVJ1u4P2Hms_qxFbmEAioJTemozsMNh5zZOeiHb_2UpErO2kt4t426vep1kx8B-A5kNKQjo4Fvd3ltnLby5CrOrzsS52sC8', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 72411847, 'owner_id': 1234567, 'artist': 'Queen', 'title': 'We Are the Champions', 'duration': 181, 'date': 1264681282, 'url': 'https://psv4.vkuseraudio.net/c4595/u62088645/audios/a8452920a827.mp3?extra=e-R04h5qtRwZLF6D_IGQW-HYvn9bfx3PQZTUO2Ts-t_PQxfTjs8Zh1A15CYf8dwZk4IOCvjlhQuTaNChuAAwqz4XqrbjEjrO57d_-atKREPuxGfFPNGJaAvm74vkG79NjWF5IUd9yScaqqwQ8VDB', 'genre_id': 1, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 72384965, 'owner_id': 1234567, 'artist': 'Приключения Электроников', 'title': 'Я Умею Мечтать', 'duration': 234, 'date': 1264619903, 'url': 'https://psv4.vkuseraudio.net/c4598/u20098214/audios/234f3a19de54.mp3?extra=TVtncIXW642sWEwhOGK-22BylVIAOoofAjD2XsyY1xji_m5gK4BROu0i_luraBchgDgeGEDSJMqKE637xIh7PqynArxqckIpVDbzQlwOuAhQMuOux05u8MkUUg2q4kP_bYKUr3T3cKy1lMqsHDy0', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 72168676, 'owner_id': 1234567, 'artist': 'Deep Purple', 'title': 'Smoke On The Water', 'duration': 341, 'date': 1264271309, 'url': 'https://cs1-60v4.vkuseraudio.net/p15/02ef587f0f6873.mp3?extra=G2u_7AuIS5i6A9sT3iTYENemuy9HEL-6BvcUWx6XvLSE_Cs2ad5cKRLWA66vxQXbPcut0HwPqpAqRkGH_BYygsM_Ox20NJ2HFFHeocqaRUZHPO80jOjC6p5g44Mupdf9695NqA-W6au6-CCJNkvL', 'genre_id': 1, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 72167742, 'owner_id': 1234567, 'artist': 'Kiss', 'title': 'I Was Made For Loving You', 'duration': 269, 'date': 1264270515, 'url': 'https://psv4.vkuseraudio.net/c4592/u9596899/audios/f806b546fec4.mp3?extra=Bq9o4CK0G7cgNm5_MLlLRXBdOya5BcVomDF10StZO9h54U7vGhU4xeZC9if-MHBWJAxR7y74VlTUVu3IZkIOKJ_TjmR0UJs6yMZg9-K2RdeR0BUqGp-G3cOxVOcrNldNgzyi_xmlxFa-vcQPmYJL', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 72008283, 'owner_id': 1234567, 'artist': 'Слот', 'title': 'Человек - Паук', 'duration': 210, 'date': 1264011244, 'url': 'https://psv4.vkuseraudio.net/c4529/u64527467/audios/cdaad73b96e3.mp3?extra=thmMWSoLOxkRFfM08v3WsoUc9tD-D7SGdDwuqrG5G9capjw9NtmYJ58qhqW8FERFIXSxKRKD6fNzYz5mt1RtEBCfRogxRWTpm9ZQ4Ow7NR3CaUQ-StLeKzxvIzOioGu_SnSuZOVQDxcSCjGukcO4', 'genre_id': 21, 'is_hq': True, 'is_explicit': False}, {'id': 72008191, 'owner_id': 1234567, 'artist': 'Слот', 'title': 'Небо', 'duration': 222, 'date': 1264011125, 'url': 'https://cs1-41v4.vkuseraudio.net/p23/3c386c156ed81a.mp3?extra=l6dYRx8czYg7Xnvh-mF7zp8yS5ktrSvUvKPOpi1W5y-48NO257dMYI8Oi94Z9ANzQEyl-swtBShBmW32BEYAs1o41gwA_uCEEM7XJ0f60ZjPPTSgWx1X7PqDXdZ4SebzIfTDrn9JZnA23IJOmoPf', 'genre_id': 21, 'no_search': 1, 'is_hq': True, 'is_explicit': False}, {'id': 72008166, 'owner_id': 1234567, 'artist': 'Слот', 'title': '2 войны', 'duration': 222, 'date': 1264011096, 'url': 'https://psv4.vkuseraudio.net/c4512/u35958245/audios/8900b96cdf3e.mp3?extra=FISPrTt8XFDOc7L5Wt13Gm7e4hjx2gspapbv7pd3lFnHTtrJcK-DEvshkr1n8oDlulveADT3XqgQSFGwKQdaPWAwKAhHFql0EdjLo5Xnncv-cZHxqqRPyFZ7GTKiqOVxrZlN3vQkbvByjOXejl5U', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'is_explicit': False}, {'id': 72008163, 'owner_id': 1234567, 'artist': 'Слот', 'title': 'Вампирская', 'duration': 230, 'date': 1264011080, 'url': 'https://psv4.vkuseraudio.net/c4714/u21638545/audios/959d94123a65.mp3?extra=MaUPnCTvJf5zbW97-U9kUdiGQOP-8zYHPag4yYf_W6LNonjiVoRVH86YICV9VOHeS8vrx2EOzyr_1vD4GUq6H1WaLNactbFma4bEu04xp1IZUTDktb915DBf7wfENuLv-dPjDyGUULcc72-QgrjU', 'genre_id': 21, 'no_search': 1, 'is_hq': True, 'is_explicit': False}, {'id': 71980211, 'owner_id': 1234567, 'artist': 'Jose Carreras', 'title': 'Recitar!.. / Vesti La Giubba (Leoncavallo - Pagliacci)', 'duration': 230, 'date': 1263977621, 'url': 'https://psv4.vkuseraudio.net/c4503/u01456/audios/6e6145f1b5eb.mp3?extra=wg7l2TBUmD4BlCdGQ3TLDQnTeqZ8fIUt6DUTSjN721_ZesRql3zgKMRZGX-2ld540qFMA-hqooOzK4GtlI9PcwvZJmu7g-DCVohunDRe2zI1KvzTwix5VEIlIYezjyPb5YRjTTeAFM65KIXjwqab', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 71861898, 'owner_id': 1234567, 'artist': 'Элизиум', 'title': 'Время не ждет', 'duration': 141, 'date': 1263747985, 'url': 'https://cs1-44v4.vkuseraudio.net/p3/a2b2a8b3903450.mp3?extra=kCjfZUF81Vz_KMlHaBCgEjq_ZFMxJyzFooe9ry6rs4gp5PciIozqSv-z45QVLjPpJ1pM6dA6YEnGQjGIyDri9HWYOM0_3CLPZjCOR98qLLEZcgXN_TYdffOgmRIKndlfiYR8UX_jr4QnBmQp70kA', 'genre_id': 15, 'is_hq': False, 'is_explicit': False}, {'id': 69920220, 'owner_id': 1234567, 'artist': 'Песни из кинофильмов', 'title': 'Не думай о секундах свысока (17 мгновений весны)', 'duration': 179, 'date': 1261339022, 'url': 'https://cs1-43v4.vkuseraudio.net/p6/c6d1a5ac19bccd.mp3?extra=NpQsn2kQ7Pivwmw_1DFi-95JBqrbXDasMAeYgXs_-_H4jSrkxJiZSjo3-fr7p9fjVQFad0Uk8qPSiQQ-LpY-Z10Vsa4mtXDKWfl8jBeA1d-cg0190oJzDWdEG68aWk3cmZeOETc2C_vBXc9ROD5z', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 69808324, 'owner_id': 1234567, 'artist': 'Неизвестен', 'title': 'Qanta-ramera', 'duration': 242, 'date': 1261155240, 'url': 'https://psv4.vkuseraudio.net/c1475/u14232421/audios/e25e94498e1f.mp3?extra=PRstj1qPsGK8B4xKUcU9XSsTAOdqgAYQ9RJDpSWQ1DmVxg-gkGeUFhSmIoDcHe-S3leAIPuNBdkSg5HzYm0Coyq8IHnMMYoTIwpAARDQoklatDXc6YnChExnqjrlA3vk_5X4-_Ek5fWxiMxikXM_', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 69777572, 'owner_id': 1234567, 'artist': 'Ландыши', 'title': 'Крышечка', 'duration': 167, 'date': 1261085871, 'url': 'https://psv4.vkuseraudio.net/c4608/u21722168/audios/b2c742068a10.mp3?extra=W_nppA0NOeOgayhtYVGOXVgxQ4E7Ixn-63bDpYxioNzr_-QRiZ-ugV6SvcO1r2mH6w1HJevUrJDrujWzh8T69GWml0nXsrcF0ji_RaDC3_Nnb9BqWTBIru5oQ8VEV-OXk362BwaIY420TWO8WJSf', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 69777068, 'owner_id': 1234567, 'artist': 'приключения электроников', 'title': 'от улыбки', 'duration': 182, 'date': 1261085118, 'url': 'https://psv4.vkuseraudio.net/c4405/u1234567/audios/a11b241deec3.mp3?extra=SYJMsWcRzOwGDZX1ksLO3_ugrwEOfvqYass9724106nZga1QBxBYwtpRJpVb4iwCHH26FrW7a1gO4STQiXhZi3SPGIDvURXQHKznXlbOxksxRWhnOL5Nuz8qG47NDl11Sl3qPx0wLXdPyp7n42gD', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 69776543, 'owner_id': 1234567, 'artist': 'Кеды', 'title': 'Лыжники', 'duration': 200, 'date': 1261084220, 'url': 'https://psv4.vkuseraudio.net/c4405/u1234567/audios/a2f97396d101.mp3?extra=6mDgqYcWn7vHD6SCGGnVpFVgmUZrN0Clfgb0GsAainTtICeuObjcLdm0Qs7xt0BREJBTyXz6D2OjYBB-9vJXxZaLVJqQVF6Izw5SbBGPwzuRzFDrJ2v62SIZt5OOiwPiLoE0HkulLZf-nVu4QHto', 'genre_id': 7, 'is_hq': False, 'is_explicit': False}, {'id': 69771473, 'owner_id': 1234567, 'artist': 'Noize MC', 'title': 'Выдыхай', 'duration': 192, 'date': 1261077916, 'url': 'https://psv4.vkuseraudio.net/c4623/u23326645/audios/45a8f0b608ed.mp3?extra=VsWzeoGNQEKbFgv2bzco8cV3twq8dnLOFO2OpKssWSlUPg37biJ1Gp47sOstrvBGvWRO3ZPcXqP2WzLUvrqWaBlq9ZfxQygS8NRyv_njjGhs797byElkaUa48y40EfzYSaw69U6ObtA_EbGhYjh1', 'genre_id': 21, 'is_hq': False, 'is_explicit': False}, {'id': 69770018, 'owner_id': 1234567, 'artist': 'Ramones', 'title': 'Blitzkrieg Bop', 'duration': 132, 'date': 1261076116, 'url': '', 'genre_id': 18, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 68995345, 'owner_id': 1234567, 'artist': 'Орф', 'title': "'Carmina Burana' - 14. In taberna quando sumus", 'duration': 188, 'date': 1260357694, 'url': 'https://psv4.vkuseraudio.net/c1038/u84261/audios/53ceb41bf184.mp3?extra=9ULqluHuI3L23JhctukMSqSipvLBM7aswP25TQ3Nwoqb-khASbKhJ9TnMgpKQmwtm1slIG7ZjL84bpa9ZsqwyxScFT9ioP8uZOdTQn3hgSNhrkAgy_BBOotfBc05tnPUyqlT6hzQuQ0Z26qLJwmm', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 68995261, 'owner_id': 1234567, 'artist': 'Орф', 'title': "'Carmina Burana' - _3. Veris leta facies", 'duration': 207, 'date': 1260357449, 'url': 'https://cs9-19v4.vkuseraudio.net/p20/9bbb81d373d5b6.mp3?extra=Fyh5mB2RKNUJLWTrFT-FCRuSc9M6Losw1pBASabWcyPJXF3affvTkCKdC8inN9NFk7Ld5blwatSla27x2iFsJpDMfSB5mhQ4tlOr_dTt7fji-9uMYTcyOwcijpM0LsUu2efsglxaW6zomftVEphx', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 68994730, 'owner_id': 1234567, 'artist': 'Орф', 'title': 'Фортуна', 'duration': 165, 'date': 1260356141, 'url': 'https://psv4.vkuseraudio.net/c4593/u1234567/audios/05a238ee10b7.mp3?extra=p8CpDw5X_tCysE8MgRwK0OMP-vWe4Gv3Y1SssOSg3M4BxUvoXI7OImmZo_zIQyetANnnE6C5C9azeslUyHzQ_rYq0gTzRkHeHHHmy68ghRo7BghpPFXOszj0cemzhrLoONY9wDLzSzRsyDlWiWt_', 'genre_id': 16, 'is_hq': False, 'is_explicit': False}, {'id': 67907376, 'owner_id': 1234567, 'artist': 'James Brown', 'title': 'I Feel Good', 'duration': 167, 'date': 1257876128, 'url': 'https://cs1-78v4.vkuseraudio.net/p2/ce8ff4d6afc038.mp3?extra=rBc_qnHv8eX-MxNvlm2mFsmSmnp8wp9BVaF-RLKqFvXBVp_ZpQ4nCtQKl3Lg3ocWtJx6HVMlV5wU6Prvd89KGL1DOgeWM2ALYYlPQmhO9fcnvXWEktEY7EhHN-ualuET6gj90J_fllX3FftRFAXJ', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 67664566, 'owner_id': 1234567, 'artist': 'Неизвестный исполнитель', 'title': 'Глори Глори Ман Юнайтед', 'duration': 173, 'date': 1257359718, 'url': 'https://psv4.vkuseraudio.net/c4353/u35109889/audios/5a988fbb4f6c.mp3?extra=4GElZVu-3rrnJqagxu8qsI9y2N5ZIkUjcGTqOiRqF_H3CLzA3-MMl7KVr-YMH0hbTY-n8DFzIbz6iwWTvw2pFi_V7UEO1aYhIov__oH36EH8WNPo40DVbZ642CJxNOG19SjTo_5mezXGhXf28HCl', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 67113068, 'owner_id': 1234567, 'artist': 'Adriano Celentano', 'title': 'Confessa', 'duration': 310, 'date': 1256095797, 'url': '', 'genre_id': 2, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 67113067, 'owner_id': 1234567, 'artist': 'Adriano Celentano', 'title': 'La shate mi cantare', 'duration': 233, 'date': 1256095790, 'url': 'https://psv4.vkuseraudio.net/c4407/u52804745/audios/eef1df298c36.mp3?extra=KAOhCGf34L587tx6RkppiEnPdduIh7RIrajl3LbRIC52LznsGg_TQB-Zi2ugm9WIkHI2Pr81ZzA9UnG7goI6G4gvDAMjZZSEFA-T3C9ZE9UmSH6qspGqwVjMr1iQrtYufseLg7PgazhyyINgqxyJ', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 67046028, 'owner_id': 1234567, 'artist': 'Him', 'title': 'Pretending', 'duration': 224, 'date': 1255929522, 'url': 'https://psv4.vkuseraudio.net/c4497/u16168926/audios/10c84ee90ea7.mp3?extra=lFjDxEmTJMKnw3hkd9i9jZ9-9aHW7X5JcX_xsiGn5MG7NIlpT3J-KW-4vMynXKHzIpNRF4TO1C21EAbLGozUhmbH6_4JwkFt9cg5BC4ozcN8szeNgfctMIKMTPMuS84wYMTy0iQt-kqq5IiJkaIP', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 66938617, 'owner_id': 1234567, 'artist': 'Adriano Celentano', 'title': 'бинго бонго,саундтрек', 'duration': 323, 'date': 1255669375, 'url': 'https://psv4.vkuseraudio.net/c4240/u10580672/audios/7423c65439b6.mp3?extra=RPl-Zkm7SVNCZgF8kMb3mChTK-Z1UjTXDJDKczXoKZPKh60jMY-spTG4BZRluARSC0_dFfgyLDzon5pZhJdBsRb5cq13hDvGqA9ICtQPxcYM6U5UD7BIX33DJK1xMNpq3YCKY7Ae4_ZzzPcIZE3h', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 66836897, 'owner_id': 1234567, 'artist': 'С-Петербургский Адмиралтейский оркестр', 'title': 'Слався', 'duration': 207, 'date': 1255381087, 'url': 'https://cs1-37v4.vkuseraudio.net/p3/8f798d50d0ea63.mp3?extra=-g0jONGFrkl469RsfA__okVk_RzHF8R0QQzEUvTHXIvDP-kKsMqZ9zpGnNvicqP-8GO5Rf9-lvEMgxLFl2vq0MEEi0NtYGepWbTJWYDDSrhp8Qq8BEvyNZSq9ZpRrNnpROE9Y4htOcL535A9IrmA', 'genre_id': 16, 'is_hq': True, 'is_explicit': False}, {'id': 66836769, 'owner_id': 1234567, 'artist': 'Марши Российской Империи', 'title': 'Марш лейб-гвардии Императорского Преображенского полка', 'duration': 129, 'date': 1255380763, 'url': 'https://cs1-41v4.vkuseraudio.net/p8/79ce97761bc6bf.mp3?extra=kBwG0-DMtbx86KfkIBOZu1hewdBO9Q6O_4f8rk-sj5F11MrgYuSGf0mIZaRqqCeI3C1ylG7n-6PU8P3VNHZEulG4jooLxQnQvn23QSB3Rm2qlw9NlnhUP598HMIvIT5VzhJVWu7vCPlGqUhAMrU9', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 66836637, 'owner_id': 1234567, 'artist': 'Шотландский марш', 'title': 'Лохансайд (Спящая долина)', 'duration': 222, 'date': 1255380427, 'url': 'https://psv4.vkuseraudio.net/c4539/u8181277/audios/21c0c7e26d06.mp3?extra=xukLIDAYSqiicM2CEaqszvybqBvAYk_lq5QBH4nZhAaOpCs_pFDOglXR7QQ2gFjHnl2shJ0d6t_th_Wa1cHp6oS-H1lvz-qmNSj-P4AjjqXoRnygxZoKijB_Yl2c39PM5zz5Ate4q6LxunKLSSTD', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 66836562, 'owner_id': 1234567, 'artist': 'Японский военный марш', 'title': 'Грозная высота (Ikoku no oka)', 'duration': 197, 'date': 1255380247, 'url': 'https://cs1-81v4.vkuseraudio.net/p8/6ecad26f955215.mp3?extra=TNQyUWNtyjFcqOMViZK4f8gzG8lgTuGuuRIjOyp0wRa2Ghjpx8tjsb3No_UtPZlC59ym9GkSj1qS6u9Wzbw46B6mfaJ8zXFs4fktDfSZVZJF4bSm5OQaxXnFxqgZ8AZJqxsCs021Tbh2pJnglyaF', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 66836341, 'owner_id': 1234567, 'artist': 'Неизвестный исполнитель', 'title': 'ЙОДЛЬ', 'duration': 201, 'date': 1255379888, 'url': 'https://cs1-81v4.vkuseraudio.net/p3/5afdc1f65c4dfc.mp3?extra=ICg4nxTI26GhAyM5l47grhF5esKA1flIW-29qvQjU5fU3IHEj2m_WtDqMeS3bjOZvuBQsp8PfShZDwCAlipKJAntf8GWY4WkJdmFEBKoM-POLZxok9h7DotZbPhICnrXF8CsNj88SRB5DDpeokp_', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 66836146, 'owner_id': 1234567, 'artist': 'Неизвестный исполнитель', 'title': 'Финская полька', 'duration': 157, 'date': 1255379477, 'url': 'https://psv4.vkuseraudio.net/c4520/u52267319/audios/a0a3a6814659.mp3?extra=EhmuoqdirbI2CfC1dC83-BA6W_xNLY5TsYXeaBU28FRlc5nOXrBFDvc7kZgucYA6RfufG8fXsCly0HfyUQwYnjYq5mA1F-IMAyQ1ft_Wd2XDXPWjSWDk2wsQEXjm2PTsieZEyyjdlqaVeVK_VdgS', 'genre_id': 13, 'is_hq': False, 'is_explicit': False}, {'id': 66836053, 'owner_id': 1234567, 'artist': 'Parademarsch', 'title': 'Drei Lilien, drei Lilien', 'duration': 146, 'date': 1255379267, 'url': 'https://psv4.vkuseraudio.net/c4269/u13383414/audios/c418ea7c39d8.mp3?extra=_HcCUD866OePT6jq4FcKiTh0zamXeeVzkVt2vepmZWdr5oImarnuCYxl5FtWaV6a1VTF8GQUnSdaw01DW5iXN3QUr7fSXoqLhr5PIcmDVt3DsPeulnJ0imY32V4T--6-Lq2uD6z0iwk38B4RbRJI', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 66460726, 'owner_id': 1234567, 'artist': 'Skampararas', 'title': 'aua', 'duration': 187, 'date': 1254418796, 'url': 'https://psv4.vkuseraudio.net/c4214/u18926171/audios/d0f721a333d3.mp3?extra=hbk_MHvsh_3YkB61atklbD-PdLayzRFJ5QoTnvGFty8Zsd_6bfTfy8h0_4r1vxcqJJRaEB7ULK_Mb5shmZArrdHwY-2WVgaFxhcDtWr614MXQpczOtB8gG_Opf7EM2UXzJ9FmRDhdW-1POT8_kt0', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 66460714, 'owner_id': 1234567, 'artist': 'Skampararas', 'title': 'We Are The Mods', 'duration': 171, 'date': 1254418773, 'url': 'https://psv4.vkuseraudio.net/c4205/u5567240/audios/79d3ca022969.mp3?extra=Kbfahf81kstWqUlGBDAbHU0LYjoUPmswKbnpAahe2bC9EZNFQKx-s1mL2sq-NJDTYicI4TEIVcJgDUnFmMVr5pwh2LXsj-EC8HjqtJlb-eNR69ZW0epHz5w89EoeqUZPDHlTDccAjy_6x1cUOQBT', 'genre_id': 15, 'is_hq': False, 'is_explicit': False}, {'id': 66460711, 'owner_id': 1234567, 'artist': 'Skampararas', 'title': 'Street Ska', 'duration': 306, 'date': 1254418769, 'url': 'https://psv4.vkuseraudio.net/c4248/u1800201/audios/eb81fd62df53.mp3?extra=d7EEc8-dBa0-_jhcKomt778gmSYfrYYlM4D2wTnFD6UG7JcYF6VSS2uEIJFhosgszDCq3-7dIwFEECeSFcCSBgN4e0wW3aDjIpdKuPkinnK0RtdVy5xWN0T7d8aldvJ5UJrMjRVKSVmnXfN09x6D', 'genre_id': 15, 'is_hq': False, 'is_explicit': False}, {'id': 66460677, 'owner_id': 1234567, 'artist': 'Skampararas', 'title': 'Skampararas Version 2002', 'duration': 167, 'date': 1254418705, 'url': 'https://psv4.vkuseraudio.net/c4378/u27296990/audios/b9d77fc329be.mp3?extra=NAD-Gs25kMh9h3buJtaK7ssjcRtXspztwpFvzAHdnO4iHccqPgR2mZ8ZcsMUh5GbgXvzU8V_WF8NJL0L2sEYJzmRbCoeqH4fCicVGeVDgJ2BvTVXsRL73nzLXiFOseTVgyxJ5nlovBcvq5r3BwN4', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 66347394, 'owner_id': 1234567, 'artist': 'Deform', 'title': 'Новое тело', 'duration': 230, 'date': 1254080190, 'url': 'https://psv4.vkuseraudio.net/c4403/u7400668/audios/b245cb40a4ce.mp3?extra=nc6mxwXe6bkKzHab4sNikl4SHa5jDjvhACiSofZLQS_qg2AP9kzuo-midrbnfFrf01Ke_Nu9bXgmlhqcOhIo_HIQ-iWgqyHDlBCGrZYIc1DBQpxwvxC2P3uUXuEXF03TTYzi78bMyAfscBUZSnTa', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 65258917, 'owner_id': 1234567, 'artist': 'Ленинград', 'title': 'И так далее', 'duration': 168, 'date': 1250631711, 'url': 'https://psv4.vkuseraudio.net/c4290/u22584945/audios/64a302cd131e.mp3?extra=QAOCE04PFmJCZAxbwau7ZSneHvnx9pvG4unu45mjmujtrY-orEO-th4rHw3dnztAuPcht_DZ0S3OqOAMpKZk_dqBfK0xVi3pS9PmUMcrxHs8eFfQnDyFRL7YCa5ETxzol0dfuBV-h0BqeitqSZv1', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 64363561, 'owner_id': 1234567, 'artist': 'EK-Playaz', 'title': '2Дым Сюдым', 'duration': 210, 'date': 1248425607, 'url': 'https://psv4.vkuseraudio.net/c4265/u4771479/audios/4c809946c363.mp3?extra=9FMzZUyFvMA8l7piwp3IXJDRKAIdyL57m46TsYiqTFZkJkaTeR6-Qhd5g4-s0n5dJaRig1-RjouX3zqlWWJlc7-i22Oygh-6SfJAIxeqcNcWmpVQXWrlAS8Dj2SJkJ1yLi4NXdbBow-0IjqxVwyB', 'genre_id': 3, 'is_hq': False, 'is_explicit': False}, {'id': 64274076, 'owner_id': 1234567, 'artist': 'Неизвестный исполнитель', 'title': 'форт бояр ремикс', 'duration': 311, 'date': 1248069174, 'url': 'https://cs1-73v4.vkuseraudio.net/p2/e20a4d4c8d3268.mp3?extra=wyRtsJYk1iIuZV8W5Iadu7xL0HkJ_yVqQ2DYypYmB8loRAbserCWjiympDj1VPdnQbMPGFH6IJ-FfPLwyWnNdJZ0_igYU2QAk8BYu2gENHFR_oZ1s7AgJDXND2eS_u2JGDNVMkbTjjHrA4pBSr98', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 81899854, 'owner_id': 1234567, 'artist': 'без названия', 'title': 'Когда я вырасту', 'duration': 302, 'date': 1278964508, 'url': 'https://cs1-65v4.vkuseraudio.net/p20/5fce83e1f90a20.mp3?extra=xuzmrNrkwO4EvNd25dJ1PbbzSSPjebbTjLHiGgGJLH137nsRulQA0Mx4QvUV9oeTMNsGLM80r473sWlfuMSIJVxI66qgebEgmsOTh6yy1vlrXx4b1SJKTrPyYF4je6FlUnIdjZnr6Klt1STz6rE9', 'genre_id': 10, 'is_hq': False, 'is_explicit': False}, {'id': 64028504, 'owner_id': 1234567, 'artist': 'Dетки', 'title': 'Добро пожаловать', 'duration': 154, 'date': 1247062324, 'url': 'https://psv4.vkuseraudio.net/c4268/u1234567/audios/bcaf631581ce.mp3?extra=U_zHjREqy78-oDacNVKmc0h-vbYSmj1AZfPqnbTSSAkvhD6Khqy4ZBmI5kCSNcZl0D5v-EncN9394GM4Acpt4ot0stI10xYIPGPNsx1N49hDvb1o5bc-B8sEAfzwbS0HKfSYw2RdphaLOsugcU1A', 'genre_id': 18, 'is_hq': True, 'is_explicit': False}, {'id': 63710618, 'owner_id': 1234567, 'artist': 'Arch Enemy', 'title': 'My Apocalypse', 'duration': 325, 'date': 1245816634, 'url': '', 'genre_id': 18, 'is_hq': False, 'content_restricted': 2, 'is_explicit': False}, {'id': 62397670, 'owner_id': 1234567, 'artist': 'Тараканы', 'title': 'идиот', 'duration': 194, 'date': 1242221768, 'url': 'https://psv4.vkuseraudio.net/c1314/u6843589/audios/6f38456989ce.mp3?extra=Vau_aIL4RM8inWRsW9UDTQD6or3A9U2jhWlHsBzziI1M5QePpaseH8pH0BU2f2HhBvTMt54EkS3RnUqEZo0pOSwias9j99uNeabR-MKwqhIGiwOZfgPls4nCQt8YiagZPAc4wqVueUoNHqazCx34', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 62268454, 'owner_id': 1234567, 'artist': 'Юрий Богатиков', 'title': 'День Победы', 'duration': 222, 'date': 1241689189, 'url': 'https://psv4.vkuseraudio.net/c4258/u11066990/audios/610dd3d1c507.mp3?extra=yhZ8bVlYRUHtGBJvOvl4lZYII8BiWhlDL_eSgg8tZmIiNUF7YjA7kHwGECvsBKE6g_d5qEdSkjqJjpbb87IglbMPWcMOQ10JB1_-swCwu3pJnQsZnc7s6OobLWuBZTqNSJIh3B6g1JHwabIwukkJ', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 62268266, 'owner_id': 1234567, 'artist': 'Прощание Словянки', 'title': 'Без названия', 'duration': 189, 'date': 1241688475, 'url': 'https://cs1-65v4.vkuseraudio.net/p20/5fc40773bdcc71.mp3?extra=LIXgpH-1g65l2PyA6muErcHzrVvkc5MQwxIfF6N6pUAtzx4lLZr1Gds22nX3BR7zhJqw_SpofvayMivh1rNPAIWslPT0Re6oFl_2wfPlH5dyl4Y_9YgghHInRrEQpOom9lj-ZA0F0jVs-nV5i5Yi', 'is_hq': True, 'is_explicit': False}, {'id': 61904152, 'owner_id': 1234567, 'artist': 'Краснознамённый Ансамбль', 'title': 'Священная Война', 'duration': 212, 'date': 1240775769, 'url': 'https://psv4.vkuseraudio.net/c4235/u18900058/audios/c12da6e5df30.mp3?extra=zeMIUHASQGYcY3P8TsIB2Bxcra1e_jnu4_rK2PD8i6twywNG5MCMbxHi4NSxIfskXbomXEuKouRxYLJs6hEm2v6HMv33V6zy_Guhzni81VneQ44itE5OUXa2gKKxGUBoTkV-CPj5ynxzttxMuSAK', 'genre_id': 13, 'is_hq': False, 'is_explicit': False}, {'id': 62268134, 'owner_id': 1234567, 'artist': 'СЕМЕН ЧЕРНЕЦКИЙ', 'title': 'Марш гвардейцев минометчиков', 'duration': 281, 'date': 1241688063, 'url': 'https://psv4.vkuseraudio.net/c1315/u930976/audios/6a0a500d0348.mp3?extra=LRkH4rr0CFk0ee8IRGcZWOnDsoBzOCw-c3KTlFlUxQwzDvCIfnyxEkb2lJYpmLGmMjx2zlJgkICnan9bSy7kT28Qcm3y5c1Tgpt4wNjgixgtKBdeNdqj_35vuPIERHYpWVmQggh5pYMV1XHJm_3v', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 62268030, 'owner_id': 1234567, 'artist': 'Parademarsch', 'title': 'O,du lieber Augustin!.(О,любимый Августин)', 'duration': 96, 'date': 1241687875, 'url': '', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 62268007, 'owner_id': 1234567, 'artist': 'Parademarsch', 'title': 'Wenn die soldaten / Ein Heller und Ein Batzen', 'duration': 355, 'date': 1241687789, 'url': '', 'genre_id': 18, 'no_search': 1, 'is_hq': False, 'content_restricted': 1, 'is_explicit': False}, {'id': 61130542, 'owner_id': 1234567, 'artist': 'Неизвестен', 'title': 'Песня о Варяге', 'duration': 195, 'date': 1239642177, 'url': 'https://psv4.vkuseraudio.net/c509/u24418564/audios/64c91aa15865.mp3?extra=1sCknj4F7TehECPcXu0aw0g1xL0ZbxuJ6x9WFOyrLFS6B9XtnvK49uTXyFuC2ia7ShZmTRJKjd6HCz1E4jCJO6wp8SivMXMoXl1NprYs69m9K20Mf4Y7m2X6rPwfAGufetg4Bg9r6zkEsQhX3dc7', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 57295959, 'owner_id': 1234567, 'artist': 'Фантастика', 'title': 'Весна.', 'duration': 183, 'date': 1235806391, 'url': 'https://psv4.vkuseraudio.net/c4099/u20410359/audios/9c8061e7dd9b.mp3?extra=9mbdUWucOwgv5lMh8sfLcdxM8ygsXH4SUuvnDmIpfFirO228Y4gEx20sz00Uhf_VZNuQuyrAVZw21CW-uckJ-qD-wy8L6XD9-EzbLX1SkH-DvqTPnkKCOX5Nc46vZXYhOJY4wYvk8HlyQksHQ7-y', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 47801507, 'owner_id': 1234567, 'artist': 'Elvis Presley', 'title': 'Look Like an angel', 'duration': 140, 'date': 1227189734, 'url': 'https://psv4.vkuseraudio.net/c1622/u7243516/audios/907130629768.mp3?extra=AInf2-BMQ8Zd3cm7L21rmHgtAaAmxYWo1AQDsrnzjy-R8BMg29k-boCNOE0BEIZy-_g4QWcuo7Xoqop0AmI-TkJRULIIldkPpg8esw5wYG_dXelfpAk5BOuI09JMaasrGsLzOxYjPD35dhPXCwj6', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 46712678, 'owner_id': 1234567, 'artist': 'Аквариум', 'title': 'Стаканы', 'duration': 127, 'date': 1225917554, 'url': 'https://psv4.vkuseraudio.net/c1704/u1234567/audios/669ebb0eb2fb.mp3?extra=GMb3magffKtiH2GMwc6VrBGztBTrttntlZoM0doyi0NOxocgY6q7bjJ15BU6-Wa-G2XFv2OCGG8Qv9ZHjK2fS4QCYc_hg4_6ekh2ljezrAPRBmQswFco6zidanSBhWJ0etjPyK4ipvQlhyXc7gxK', 'genre_id': 1, 'is_hq': True, 'is_explicit': False}, {'id': 46111132, 'owner_id': 1234567, 'artist': 'Ville Valo & Natalia Avelon', 'title': 'Summer Wine (Film Version)', 'duration': 256, 'date': 1225192421, 'url': 'https://psv4.vkuseraudio.net/c1750/u1234567/audios/3b2b0c867aca.mp3?extra=qu3OPttkmBN3GO-G8BDD1ym7BLRqOSBRa0sNSQANUO41ElpwlF7XxEHfPGwFvxwwJr2eJ41XUOtp2JtBy-gU1Jc82cOwhgtGSHq6tNZavLr1B-HtCjiYt11TIgL37LG9XERvCmoHBGoS084-vfgE', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 44798475, 'owner_id': 1234567, 'artist': 'Great Big Sea', 'title': 'Home for a rest', 'duration': 273, 'date': 1223410817, 'url': 'https://psv4.vkuseraudio.net/c1627/u1234567/audios/7b2cb38beb6f.mp3?extra=GwGPqJSLSyYKbVXUSWyDjmb4-kDzqYBAREK6aR4Uh686jiFL54R6lzjNvCwQPSHbqcvHBPgWT9F9vx5vB7yoxFHFKDqnZtrjJGNNuhmZ7a_h0oxcsGHmGPptaMBeypwb4B4BaZnUQLGSKQqHtyF9', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 40531825, 'owner_id': 1234567, 'artist': 'Joan Baez', 'title': 'Johnny I Hardly Knew Yeh', 'duration': 205, 'date': 1215357727, 'url': 'https://psv4.vkuseraudio.net/c1276/u2834753/audios/bc06f1b5ddee.mp3?extra=Z29kRaGe9hew9BUg4a6xRVqXDB7YoPo8C52KikZtFmvNmKXrKXXSUdcaaQq78m8nW4Bt--NIAgifFKsEmGSuqui_207n6a6i7x90hZEIepr0Kod6gbdQuISjWo2dSCCYQv9dRzwCIrqKUA2jaezD', 'genre_id': 13, 'is_hq': False, 'is_explicit': False}, {'id': 42244151, 'owner_id': 1234567, 'artist': 'The Beatles', 'title': 'Yesterday', 'duration': 125, 'date': 1219170923, 'url': 'https://psv4.vkuseraudio.net/c1625/u1234567/audios/f33216fd9ee8.mp3?extra=_b0JWtYD3Urd4oS8VEfF8kOcHTrlcCMK3AO-kgwzvsGDt7zKed78Le6EDpW1IQUk5QWP6H6VXYKIf4JCW7qeTeAHD3UvZDBj-prP82P_EThlmH1NloeunRdkAwjC6AbQQ4X1WZfQ-hrerZel2zX7', 'genre_id': 16, 'is_hq': False, 'is_explicit': False}, {'id': 39751245, 'owner_id': 1234567, 'artist': 'Offspring', 'title': 'One Hundred Punks', 'duration': 193, 'date': 1213541429, 'url': 'https://psv4.vkuseraudio.net/c1547/u1234567/audios/355d3e097010.mp3?extra=J5T82jhhjG2uLtpZ_ehqyrdfrSFUpXy3TT2EqZcVCuVIE9fEPM0TsmPhKq_rlokBMCNzPBLALhisqzydQt0pyBj0up0maFi7GRsxej9fSdLOfjQ1JyU0g6R8CgrU4fvwXpIQn2SaI5bJDC7PANNP', 'genre_id': 1, 'is_hq': False, 'is_explicit': False}, {'id': 39751233, 'owner_id': 1234567, 'artist': 'Disturbed', 'title': 'Down with the Sickness', 'duration': 278, 'date': 1213541409, 'url': 'https://psv4.vkuseraudio.net/c1547/u1234567/audios/d33f6b45ac22.mp3?extra=sAFcyEAfhWHykL0g0HCOt7F_93H17uVRKdGE9QuEq2XDoHcoi7BgUbbNzIZhAvgg0mZFLattcaTSte9HjxAeB0LvpSKC4gH4YxsIlKFSC486R9_OJYMzYqo-OSLbgEt2XTt3EmHt9qmzfMwu5G_P', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}, {'id': 38951524, 'owner_id': 1234567, 'artist': 'Rodolfo Chikilicuatre', 'title': 'Baila El Chiki-Chiki', 'duration': 173, 'date': 1211824638, 'url': 'https://psv4.vkuseraudio.net/c1444/u1234567/audios/4268feb0c155.mp3?extra=1yiYrmVlqeYwwGlPDh-XqzA4GUYZCzWvaWuH6cOA4hwl-4s7AuVRBXB5tjehYtpS0PXBvtiAdlTNNxxJlw-Becla1nNxHukwn1qE0xAQ7dtFf6-EpOyIyddMUEkhZIsYRfV_re9I0esi8foIFnEe', 'genre_id': 2, 'is_hq': False, 'is_explicit': False}, {'id': 34456099, 'owner_id': 1234567, 'artist': 'Distemper', 'title': '01 - Мне по...', 'duration': 75, 'date': 1208979472, 'url': 'https://psv4.vkuseraudio.net/c1248/u1234567/audios/7c63e178bb3e.mp3?extra=oA1ZEXiRPa8i-n0Zr_o0SyKzZ5fGZUrfwvMCEiztT2bgrwtQ0W1JihMgLeD0ynrgBgGlKiMrP9J6oVr1WTUb-D26GFsBmt7ua31utRYaZFEcRjndkmiDoUuGj4WQrIQB9SwMjIKbUz5f8CCP7YJ6', 'genre_id': 18, 'is_hq': False, 'is_explicit': False}]}
```
Затем я набросал класс «audio»:
**Код**
```
import re,lxml.html, requests,json,urllib,time
class audio(object):
def __init__(self,login,password):
url='https://vk.com/'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Language':'ru-ru,ru;q=0.8,en-us;q=0.5,en;q=0.3',
'Accept-Encoding':'gzip, deflate',
'Connection':'keep-alive',
'DNT':'1'}
session = requests.session()
data = session.get(url, headers=headers)
page = lxml.html.fromstring(data.content)
form = page.forms[0]
form.fields['email'] = login
form.fields['pass'] = password
response = session.post(form.action, data=form.form_values())
if 'onLoginDone' in response.text:
self.session = session
else:
raise PermissionError("login or password is wrong")
self.hash = hashe(self.session)
def code(self,code):
q = self.session.post(
"https://vk.com/dev/execute?params[code]="+code+"¶ms[v]=5.87",
data={"act": "a_run_method",
"al": 1,
"method":"execute",
"param_code": code,
"param_v": 5.87,
"hash": self.hash},headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:62.0) Gecko/20100101 Firefox/62.0','Accept': '*/*',
'Accept-Language': 'en-US,en;q=0.5','Accept-Encoding': 'gzip, deflate, br','Content-Type': 'application/x-www-form-urlencoded','Connection': 'keep-alive',
})
audio = json.loads(q.text[38:len(q.text)])
if "response" in audio:
return audio["response"]
else:
return audio
def get(self,owner_id= None,album_id =None,NeedUser =False ):
code_response = ""
if owner_id:
code_response += "owner_id:"+str(owner_id)
if album_id:
code_response += ",album_id:"+str(album_id)
if NeedUser:
code_response += ",NeedUser:1"
q = code_response.lstrip(",")
code = r'return API.audio.get({'+q+r'});'
return self.code(code)
def search(self,q='imagine dragons',owner_id=None,offset=0,PerformerOnly=False,):
code_response = ""
code_response+='q:"{q}"'.format(q=q)
if owner_id:
code_response += ",owner_id:"+str(owner_id)
if PerformerOnly:
code_response += ",PerformerOnly:1"
if offset!=0:
if str(offset).isdsgst():
code_response += ",NeedUser:1"
else:
raise NameError("offset has to be an digit")
code_response = code_response.lstrip(",")
code = r'return API.audio.search({'+code_response+r'});'
return self.code(code)
def add(self,owner_id=1234567,audio_id=456239029):
code_response = ""
code_response += "owner_id:{owner_id},audio_id:{audio_id}".format(owner_id=str(owner_id),audio_id=str(audio_id))
code = r'return API.audio.add({'+code_response+r'});'
return self.code(code)
def hashe(session):
qw = session.get("https://vk.com/dev/execute").text
return re.findall('onclick="Dev.methodRun\(\'(.+)\', this\);"',qw)[0]
```
Его можно вызывать так:
```
import bot_vk#pip install bot_vk
audio = bot_vk.audio("my_login","my_password")
get = audio.get(owner_id=1234567)
count = get["count"]
items= get["items"]
```
и т.п.
P.S. К сожалению «лавоку» прикрыли, так что этот способ больше недействительный(
P.P.S. Появился другой метод для получения музыки: [habr.com/post/429942](https://habr.com/post/429942/) | https://habr.com/ru/post/429504/ | null | ru | null |
# Berkeley Unified Parallel C (UPC). Отладка с помощью GNU gdb C debbuger. Стек вызова
Доброго здравия!
 Unified Parallel C (UPC) — это расширение языка C, разработанное для высокопроизводительных вычислений на крупномасштабных параллельных машинах. Язык представляет единую программную модель для систем с общей и разделенной памятью. Количество параллелизма фиксируется на старте программы, обычно с одним потоком на ядро процессора.
» [Официальный сайт UPC](http://upc.gwu.edu)
» [Официальный сайт Berkeley UPC](http://upc.lbl.gov)
В прошлой статье [Установка в среде Windows и Linux](https://habrahabr.ru/post/315190/) описано, как выполнить установку UPC, но остался не раскрытым важный вопрос использования отладки. Очень часто наступает крах программы, если где-то неправильно выделена память или происходит превышение размерности массива
> \*\*\* Caught a fatal signal: SIGSEGV(11) on node 0/1
>
> NOTICE: Before reporting bugs, run with GASNET\_BACKTRACE=1 in the environment to generate a backtrace.
>
> Ошибка сегментирования (слепок снят)
Что можно сделать в данной ситуации, чтобы бы сузить место поиска? Об этом в текущей статье.
Долгое время я избегал изучение отладки, т.к. уже нужно было заняться программированием. Вместо отладки я достаточно подробно логировал через printf действия каждого потока. Однако, дело омрачается тем, что программа UPC переводится на С и в общем случае оказывается не интерпретируемой. Если какая-то строчка была успешно выполнена (по логам), а следующего лога не произошло, то не факт, что ошибка между логируемыми строками! Очень часто ошибка «будущего» влияет на текущую ситуацию и вызывает крах программы совсем в другом месте.
Если в порядке с английским, полную информацию по отладке можно найти на официальной странице [Debugging Berkeley UPC applications](http://upc.lbl.gov/docs/user/upc-debugging.shtml).
Если у вас есть почтовый ящик в домене университета, то вы можете запросить [студенческую лицензию](http://www.roguewave.com/products-services/student-request-form) рекомендуемого TotalView, если нет, то можно воспользоваться штатным отладчиком С.
Нужно обратить внимание, что после перевода на С функция main() превратится в user\_main().
Первое, чтобы воспользоваться специальным режимом отладки, необходимо запускать upcc c параметром `-g`. Это означает, что будет запускаться специальная конфигурация UPC из подпапки dbg. Чтобы была возможность увидеть конкретные строки кода, необходимо сохранить во время компиляции временные файлы с исходниками с помощью параметра `-save-temps`:
```
upcc ./Pack_Polycubes.upc -o Pack_Polycubes -pthreads **-save-temps -g**
```
Существует несколько точек входа в отладку. Можно остановить поток с определенным номером с помощью параметра `-freeze[=]`, а можно просто остановиться по ошибке с помощью `-freeze-on-error`:
```
upcrun -n 1 -freeze-on-error ./Pack_Polycubes
```
> — WARNING WARNING WARNING WARNING WARNING WARNING WARNING WARNING
>
>
>
> This application was built from a Berkeley UPC installation that
>
> was configured and built with these optional features enabled:
>
> debugging tracing statistical collection debugging malloc
>
> This usually has a SERIOUS impact on performance, so you should NOT
>
> trust any performance numbers reported in this program run!!!
>
>
>
> To suppress this message, pass '-quiet' to the upcrun command or set
>
> the UPC\_NO\_WARN or UPC\_QUIET environment variables.
>
> — UPCR: UPC thread 0 of 1 on Rosa-VB (pshm node 0 of 1, process 0 of 1, pid=31257)
>
> Hello, I am 0 of 1.
>
> …
>
> \*\*\* Caught a fatal signal: SIGSEGV(11) on node 0/1
>
> Process frozen for debugger: host=Rosa-VB pid=31257
>
> To unfreeze, attach a debugger and set 'gasnet\_frozen' to 0, or send a SIGCONT
Далее необходимо запустить gdb еще в одном сеансе консоли из папки с выходными файлами компиляции и указать PID потока
```
gdb Pack_Polycubes.o 31257
```
> GNU gdb (Linaro GDB) 7.7.1\_2014.06\_1-10 ()
>
> Copyright © 2014 Free Software Foundation, Inc.
>
> …
>
> Loaded symbols for /lib64/ld-linux-x86-64.so.2
>
> 0x00007f0afab16cd0 in \_\_nanosleep\_nocancel () from /lib64/libc.so.6
Чтобы продолжить выполнение программы, необходимо выполнить следующий код:
```
(gdb) set gasnet_frozen = 0
(gdb) continue
```
Программа услужливо сообщает строчку с ошибкой:
> Program received signal SIGSEGV, Segmentation fault.
>
> 0x00000000004289f8 in MultiplyMatrixPackSpace (Result=0x26274ac, Matrix=0x2696340, CurPackSpace=0x7ffd81634020)
>
> at ./Pack\_Polycubes.upc:1065
>
> 1065 Result[row][col] = 0;
Чтобы посмотреть подробнее текущую точку останова, можно воспользоваться командой:
```
(gdb) list
```
> 1060 // Умножение по правилу «строка на столбец»
>
> 1061 for(row = 0; row < Params.Demension; row++)
>
> 1062 {
>
> 1063 for(col = 0; col < Params.Demension; col++)
>
> 1064 {
>
> 1065 Result[row][col] = 0;
>
>
Кто бы мог подумать. Пойду разбираться с индексами и выделенной памятью )) Чтобы узнать стек вызова, можно воспользоваться командой bt
```
(gdb) bt
```
> #0 0x00000000004289f8 in MultiplyMatrixPackSpace (Result=0x26274ac, Matrix=0x2696340, CurPackSpace=0x7ffd81634020)
>
> #1 0x0000000000428680 in CheckIndependancePS (CurPackSpace=0x7ffd81634020) at ./Pack\_Polycubes.upc:1032
>
> #2 0x0000000000428430 in AddIndependentPackSpace (CurPackSpace=0x7ffd81634020) at ./Pack\_Polycubes.upc:1011
>
> …
>
> #8 0x0000000000427e21 in ExplorePackSpaces () at ./Pack\_Polycubes.upc:922
>
> #9 0x00000000004244c5 in user\_main (argc=4, argv=0x7ffd816344e8) at ./Pack\_Polycubes.upc:214...
Стек вызова нужно рассматривать с низу. Пользовательская программа начинается с user\_main, далее последовательно идут вызовы и видно, в каком месте и с какими параметрами происходит ошибка.
Чтобы корректно выйти из отладки, необходимо продолжить дальше, после чего можно сделать `quit`.
```
(gdb) continue
```
> Continuing.
>
> Program terminated with signal SIGSEGV, Segmentation fault.
>
> The program no longer exists.
Если по какой-то причине отладочные процессы зависли их можно убить с помощью команды `kill` из другого окна консоли, но в Росе получается проще с помощью Ctrl^C.
Наиболее востребованные команды gdb:
> `break [file:]functiop` — установить точку остановки на функции
>
> `bt` — вызвать стек
>
> `print expr` — вывести значение выражения
>
> `с` — продолжить выполнение программы
>
> `next` — выполнить следующую строчку программы (перепрыгнуть)
>
> `step` — шагнуть внутрь строчки программы
>
> `list` — просмотр текущей строчки останова
>
> `help` — вызвать помощь
>
> `quit` — выход
И как обычно, `man gdb`
Благодарю за внимание! Надеюсь, кому-нибудь пригодится | https://habr.com/ru/post/317196/ | null | ru | null |
# Краткое руководство по работе с интерфейсом Map в Kotlin
Если в сферу ваших интересов входит [разработка приложений под Android](https://blog.logrocket.com/kotlin-vs-flutter-android-development/) или мультиплатформенная разработка на Kotlin, то есть все шансы, что вы уже сталкивались с коллекциями в Kotlin.
Kotlin располагает исчерпывающим набором инструментов для работы с коллекциями. Коллекции состоят из элементов одного типа и широко используются в большинстве языков программирования.
Понимание структуры коллекций в Kotlin и способов их эффективного использования при разработке приложений критически важно для полного освоения этого языка программирования и его возможностей.
В этой статье я расскажу вам о `Map` в Kotlin, а также о ее использовании и ассоциировании на примерах кода.
### Коллекции в Kotlin
Используя коллекции, вы можете хранить, обновлять, извлекать и агрегировать данные. Стандартная библиотека Kotlin предоставляет исчерпывающий набор инструментов для управления коллекциями.
По умолчанию коллекции в Kotlin доступны только для чтения. Вы не можете изменить содержимое такой коллекции, вам необходимо создать новую коллекцию с нужными вам изменениями, которую затем можно безопасно перемещать в приложении, в то время как старая коллекция остается неизменной.
Коллекции Kotlin подразделяются на два вида:
* Неизменяемые (Immutable) коллекции.
* Изменяемые (Mutable) коллекции.
В Kotlin есть следующие типы коллекций:
* `List`: упорядоченный список с доступом к элементам по индексам. (Примечание: элементы в списке могут дублироваться).
* `Set`: набор (множество) уникальных элементов, т.е. это группа объектов без дублирований.
* `Map`: набор пар ключ-значение. Ключи уникальны, и каждый из них соответствует ровно одному значению.
Кроме того, в Kotlin также есть изменяемые варианты этих коллекций: [MutableList](https://kotlinlang.org/api/latest/jvm/stdlib/kotlin.collections/-mutable-list/), [MutableSet](https://kotlinlang.org/api/latest/jvm/stdlib/kotlin.collections/-mutable-set/) и [MutableMap](https://kotlinlang.org/api/latest/jvm/stdlib/kotlin.collections/-mutable-map/), которые позволяют разным образом модифицировать коллекцию, например добавлять или удалять элементы.
Изменяемые типы приходят на выручку, когда необходимо часто манипулировать данными в соответствии с какими-либо требованиями; хорошим примером этого могут быть результаты вызовов API, отображаемые в виде списка с фильтрами или поисковыми запросами.
### Введение в Map в Kotlin
`Map` также известны как словари или ассоциативные массивы в других языках программирования. `Map` в Kotlin по умолчанию неизменяемы. Это означает, что после создания элемента в `Map` его нельзя редактировать, удалять или обновлять.
Однако Kotlin позволяет пользователям создавать изменяемые map, которые можно изменить после их создания. Если вы хотите создать изменяемую map, вы должны использовать соответствующий изменяемый тип.
Чтобы использовать интерфейс `Map` в Kotlin, вам нужно задействовать его функции `mapOf()` или `mapOf()`.
Ниже приведен пример создания Map:
```
val peopleToCarsOwned = mapOf(
"Jack" to "Mercedes",
"John" to "Audi",
"Will" to "Jaguar"
)
println(peopleToCarsOwned)
// Это выведет следующее:
// {Jack=Mercedes, John=Audi, Will=Jaguar}
println(carsOwned["John"])
// Это выведет следующее:
// Audi
```
Являющиеся основой `Map` данные типа пар ключ-значение широко используются в Kotlin. Таким образом, `Map` является одним из основных способов управления структурированными данными в Kotlin.
Map располагает рядом функций, которые можно использовать для обработки данных и получения различных результатов. Давайте рассмотрим несколько функций общего назначения.
#### Получение данных
Возможность получать доступ к парам ключ-значение имеет решающее значение для работы с `Map`. Для получения ключей и значений используются привычные для всех get-методы. Метод getKey используется для получения значения указанного ключа. Если ключа не существует, будет возвращен `null`.
Метод `getValue` возвращает значением ключ, связанное с предоставленным ключом. Однако, для случаев когда ключ, указанный в этой get-функции, может не иметь связанного значения, у нас есть несколько вариаций `getValue`.
В таких случаях можно использовать методы `getOrElse` и `getOrDefault`. Для случаев, когда ключ не найден, `getOrDefault` позволяет указать значение по умолчанию, а `getOrElse` позволяет указать функцию, результат которой будет возвращен.
#### Фильтрация данных
При использовании Map бывает очень полезно фильтровать данные для поиска конкретной информации и доступа к парам ключ-значение. Как и другие коллекции в Kotlin, Map можно фильтровать с помощью filter.
`FilterKey` и `filterValue` аналогичны get-методам, поскольку они позволяют фильтровать по ключу или значению. При применении фильтра возвращается новая `Map` с отфильтрованными элементами. Если вы используете `filterKey`, вы получите `Map`, полностью состоящую из указанных ключей.
Давайте посмотрим на пример ниже:
```
open class Car(val name: String, val manufacturedIn: Int) {
override fun toString() = name
}
val cars = mapOf(
"Aston Martin" to 2015,
"Lamborghini" to 2000,
"BMW" to 1990,
"Mercedes Benz" to 1980
)
val newCars = cars.filter {
it.manufacturedIn >= 2000
}
println(newCars)
// Это выведет следующее: [Aston Martin, Lamborghini]]
```
Если вам нужно отфильтровать все данные, которые наоборот удовлетворяют конкретному условию, то можно использовать `filterNot`, которая используется аналогично filter как показано ниже:
```
// Kotlin
val oldCars = cars.filterNot {
it.age >= 2000
}
println(oldCars)
// Это выведет следующее: [BMW, Mercedes Benz]
```
#### Редактирование данных
Так как `Map` по умолчанию неизменяема, то вам необходимо изначально создавать изменяемую `Map`, если вы планируете вносить изменения в `Map`. Также стоит отметить, что ключи изменять нельзя, но их можно удалять — вы изменяете значение ключа при редактировании записи.
Вы можете создавать новые комбинации пар ключ-значение, обновлять значение существующего ключа или полностью удалять конкретные пары ключ-значение. Чтобы добавить новые данные в `Map` Kotlin вам нужно использовать метод `put`.
Однако если введенный вами ключ уже существует в вашей `Map`, вы можете использовать `put` для замены уже существующего значения для этого ключа. Удалять элементы из вашей `Map` вы можете с помощью метода `remove`.
### Работа с Map в Kotlin
Чтобы лучше понять, как работает интерфейс `Map` в Kotlin, мы рассмотрим пару распространенных сценариев на примерах ниже:
```
val genericMap: Map = mapOf(
1 to "Jack",
4 to "John",
3 to "Will"
)
for(key in genericMap.keys) {
println("Element at key position $key: ${genericMap.get(key)}")
}
// Это выведет следующее:
// Element at key position 1: Jack
// Element at key position 4: John
// Element at key position 3: Will
```
Вы можете указать любую комбинацию ключей и значений для `Map`. Это возможно, потому что под капотом `Map` использует объявление . Взгляните на этот пример:
```
val customMap = mapOf(
1 to "Rick",
4 to "Tesla",
3 to True,
"Train" to "Station",
"Rocket" to "Launch"
)
for(key in customMap.keys) {
println("Element at key position $key: ${customMap.get(key)}")
}
// Это выведет следующее:
// Element at key position 1: Rick
// Element at key position 4: Tesla
// Element at key position 3: True
// Element at key position Train: Station
// Element at key position Rocket: Launch
```
### Заключение
Несмотря на то, что глубокое понимание того, как работает `Map` в Kotlin, вряд ли нужно, чтобы улучшить ваше приложение, базовое понимание однако имеет ключевое значение.
Такие структуры данных необходимы для реализации множества фич, которые пользователи привыкли ожидать от современных мобильных приложений.
---
Приглашаем всех желающих на открытое занятие **«Разработка монолитного приложения со Spring»**. На занятии мы:
* Познакомимся со Spring фреймворком и его принципом работы.
* Рассмотрим особенности разработки Spring приложения на языке Kotlin.
* Разработаем монолитное приложение и напишем пару интеграционных тестов.
* Упакуем наше приложение в Docker, как готовое решение.
[**Регистрация на занятие.**](https://otus.pw/VO6g/) | https://habr.com/ru/post/671678/ | null | ru | null |
# Реализуем свой dropDown ViewController (aka iOS 8 Mail app) в 200 строк
Еще с beta версии iOS 8 мне очень понравилась эта новая фича приложения почты: при создании нового письма можно просто смахнуть это окно вниз и продолжить работу на предыдущем экране. Не уверен, насколько эта фича оказалась полезной конкретно в этом приложении, но идея то отличная! В тот же вечер я сел делать подобную штуку, и таки сделал свой велосипед, и на время забыл об этом.
Недавно мне понадобился похожий функционал. Не захотев брать свое старое решение, и не найдя готовой реализации, которая бы мне понравилось, было решено написать свое. Что из этого получилось, с какими трудностями пришлось столкнуться, и что нового было вынесено — под катом.

Какого решения мне хотелось? Такого, из за которого не придется что то перестраивать в уже имеющейся структуре проекта, которое было насколько это возможно меньше и проще (а кому не хочется?) — просто работающий черный ящик. По этой причине мне, например, не понравилось [это](https://github.com/rowant1990/ARTEmailSwipe) решение, здесь товарищ предлагает использовать его viewController как root, и устанавливать навигацию в таком стиле:
```
self.viewController = [[ARTEmailSwipe alloc] init];
// you will want to use your own custom classes here, but for the example I have just instantiated it with the UIViewController class.
self.viewController.centerViewController = [[UIViewController alloc] init];
self.viewController.bottomViewController = [[UIViewController alloc] init];
```
Да и реализация у него занимает ~ 400 строк, все это не может не расстраивать.
Сначала о том, как я сам это реализовывал до этого:
**Код**
```
vcModal = [storyboard instantiateViewControllerWithIdentifier:@"vcModal"];
vcModal.modalPresentationStyle = UIModalPresentationCustom;
vcModal.delegate = self;
[self addChildViewController: vcModal];
vcModal.view.frame = self.view.bounds;
[self.view addSubview: vcModal.view];
[self.view bringSubviewToFront:vcModal.view];
[vcModal didMoveToParentViewController: self];
CGRect bound = [[UIScreen mainScreen] bounds];
CGRect finalFrameVC = vcAddNewGoal.view.frame;
vcAddNewGoal.view.frame = CGRectOffset(finalFrameVC, 0, CGRectGetHeight(bound));
// Остальной код создания анимации для показа
// …
```
Мягко говоря не самое элегантное решение, накладывает свои ограничения, плюс еще возня с тем как новый контроллер потом убирать. Почему я сразу не использовал UIViewControllerAnimatedTransitioning? Честно сказать уже и не помню, может по началу и начал с ним делать, но столкнувшись с трудностью, о которой ниже, бросил и решил такой костыль лепить.
##### UIViewControllerAnimatedTransitioning
Об использовании этого протокола, который существует еще со времен iOS 7, не писал разве что ленивый. Есть сотни туториалов и статей. Прелесть в том, что сам протокол очень простой. Вам нужно реализовать всего 2 обязательных метода: transitionDuration: — в котором возвращается время анимации, и animateTransition: в котором сама анимация вьюКонтроллеров и происходит. Ничего проще, верно? Думал я. И вот метод анимации радостно написан:
**animateTransition:**
```
- (void)animateTransition:(id )transitionContext{
self.transitionContext = transitionContext;
UIViewController \*fromtVC = [transitionContext viewControllerForKey:UITransitionContextFromViewControllerKey];
UIViewController \*toVC = [transitionContext viewControllerForKey:UITransitionContextToViewControllerKey];
UIView \*containerView = [transitionContext containerView];
CGRect finalFrameVC = [transitionContext finalFrameForViewController:toVC];
NSTimeInterval duration = [self transitionDuration:transitionContext];
viewH = CGRectGetHeight(fromtVC.view.frame);
// Определяем какой vc будем двигать, а какой уменьшать и затемнять
UIViewController \*modalVC = reversed ? fromtVC : toVC;
UIViewController \*nonModalVC = reversed ? toVC : fromtVC;
// В анимации мы или прячем под экран, или ставим на место
CGRect modalFinalFrame = reversed ? CGRectOffset(finalFrameVC, 0, viewH) : finalFrameVC;
float scaleFactor = 0.0;
float alphaVal = 0.0;
if (reversed) {
scaleFactor = 1.0;
alphaVal = 1.0;
}
else {
// Устанавливаем отступ от верха экрана для модального окна
modalFinalFrame.origin.y += kModalViewYOffset;
// Изначально прячем вьюху под экран
modalVC.view.frame = CGRectOffset(finalFrameVC, 0, viewH);
scaleFactor = kNonModalViewMinScale;
alphaVal = kNonModalViewMinAlpha;
[containerView addSubview:toVC.view];
}
[UIView animateWithDuration:duration delay:0.0
usingSpringWithDamping:100
initialSpringVelocity:10
options:UIViewAnimationOptionAllowUserInteraction animations:^{
nonModalVC.view.transform = CGAffineTransformScale(CGAffineTransformIdentity, scaleFactor, scaleFactor);
nonModalVC.view.alpha = alphaVal;
modalVC.view.frame = modalFinalFrame;
} completion:^(BOOL finished) {
[transitionContext completeTransition:![transitionContext transitionWasCancelled]];
reversed = !reversed;
}];
```
Само перемещение модального окна происходило при помощи UIPercentDrivenInteractiveTransition. Вроде бы все работает, окно появляется, перемещается, закрывается. Но, все это было задумано, для того чтобы когда модальное окно внизу — можно было работать с предыдущим экраном, а предыдущий экран не отвечает на нажатия! Это стало вторым из недавних разочарований, после новости о закрытии Parse. Самым логичным мне показалось добавить экран fromtVC в containerView при открытии. И это работало — предыдущий экран был активен, правда теперь при закрытии оставался вообще только черный экран.

Почитав документацию и stackOverflow стало понятно что добавлять в контейнер fromVC ни в коем случае нельзя, но что же было делать — понятно тоже не было. Описав свою проблему я задал вопрос на SO, я даже задал вопрос на toster’e, но ответа все не было.
Я вдруг понял что не до конца осознаю вообще весь механизм метода animateTransition:. То есть, есть некий объект
containerView, на него добавляется открываемый контроллер, но что он собой представляет, какое место занимает в иерархии видов (view hierarchy), что при этом происходит с предыдущим контроллером? Я был уверен что ответив на эти вопросы я найду решение (спойлер — и не ошибся). Я сделал просто:
```
containerView.backgroundColor = [UIColor yellowColor];
```
**До**
**После**
Стало понятно что containerView — это обычное прозрачное UIView, добавляемое над предыдущим видом, а под ним мирно лежит fromVC. Значит, взаимодействовать с ним мешает этот самый контейнер, сдвинуть его не вариант, значит нужно как то «нажимать» сквозь него. Самый простой способ заставить UIView передавать нажатия «сквозь» себя — это выставить у него
```
userInteractionEnabled = NO;
```
, но тогда это распространится на все его subview, что тоже не выход.
##### Responder Chain
Если вы раньше с этим не сталкивались, то позвольте вас познакомить с [Responder Chain](https://developer.apple.com/library/ios/documentation/EventHandling/Conceptual/EventHandlingiPhoneOS/event_delivery_responder_chain/event_delivery_responder_chain.html). Если в вкратце, то Responder Chain — это механизм iOS, который отвечает за передачу события (event), например нажатия, соответствующему объекту. Событие «путешествует» по этой цепочке, пока не дойдет до объекта, который сможет принять и обработать его. В случае нажатия, объект UIWindow сперва старается доставить событие тому view, где нажатия произошло. Это view известно как «hit-test view», а процесс поиска этого hit-test view называется hit-testing. Hit-testing предполагает проверку того что нажатие произошло в пределах подходящего view, а затем рекурсивно проверяет все его subview. Самое низкоуровневое view в это иерархии, находящееся в пределах нажатия, и становится hit-test view, после этого iOS передает событие этому view для обработки
Отличная иллюстрация этого процесса из документации:

Предположим пользователь нажал на view E. iOS находит hit-test view проверяя subview в таком порядке:
1. Нажатие в пределах view A, проверяем B и С.
2. Нажатие не в пределах B, а в пределах C, проверяем D и E.
3. Нажатие не пределах D, но в пределах E. E — самое низкоуровневое view в иерархии, содержащее координаты нажатия, так что оно и становится hit-test view
Зачем было все это повествование? А затем, что метод UIView — hitTest:withEvent: можно переписать!
Задача была следующая: сделать так, чтобы сквозь containerView можно было нажимать, и при этом чтобы нажатия на его subviews обрабатывались как обычно. Написать сабкласс и заставить containerView от него наследовать нельзя. Что то вроде:
```
MyUIViewSubclass *containerView = (MyUIViewSubclass *)[transitionContext containerView];
```
— не сработает. Значит нужно создать category (или как в русской литературе «категория продолжения класса»). «Стандартный» метод hitTest:withEvent: выглядит так:
```
- (UIView *)hitTest:(CGPoint)point withEvent:(UIEvent *)event {
if (!self.isUserInteractionEnabled || self.isHidden || self.alpha <= 0.01) {
return nil;
}
if ([self pointInside:point withEvent:event]) {
for (UIView *subview in [self.subviews reverseObjectEnumerator]) {
CGPoint convertedPoint = [subview convertPoint:point fromView:self];
UIView *hitTestView = [subview hitTest:convertedPoint withEvent:event];
if (hitTestView) {
return hitTestView;
}
}
return self;
}
return nil;
}
```
То есть, если мы куда то нажали, и в нашей цепочке (responder chain) попадается view с отключенным isUserInteractionEnabled или скрытое, или прозрачностью > 99% — возвращаем nil, этим самым мы говорим продолжить проверку, «пропустить сквозь себя» это нажатие. Если же иначе, мы пытаемся найти hitTest view и если оно найдено — вернуть его, что передаст событие нажатия этому view, или вернуть nil — и ничего не произойдет.
Теперь как сделать, чтобы именно нажатие на контейнер не передавалось? Нужно как-то различать именно containerView, самое простое — это просто выставить у него tag
```
UIView *containerView = [transitionContext containerView];
containerView.tag = GITransitionContainerViewTag;
```
Tag’ом я выбрал [самое лучшее число 73](https://www.youtube.com/watch?v=Mpi9UTCZ55E): ).
А в методе hitTest:withEvent: добавляется дополнительное условие:
```
if (hitTestView && hitTestView.tag != GITransitionContainerViewTag) {
return hitTestView;
}
```
Таким образом нажатие никогда не «осядет» в containerView, а уйдет глубже по иерархии.
Но есть большое **НО**. Делая таким образом, переопределяя стандартное поведения UIView, мы меняем это поведения абсолютно для всех UIView в программе, а не только для containerView — что делать нежелательно (спасибо хабраюзерам за указание на это в комментариях). Чтобы это исправить, можно воспользоваться рантаймом objective-C, а именно механизмом переключения реализаций методов (method swizzling).
Это потребует минимум изменений в коде:
1) в той же категории UIView добавим префикс к методу hitTest:WithEvent, например:
```
- (UIView *)GI_hitTest:(CGPoint)point withEvent:(UIEvent *)event;
```
2) После получения ссылки на containerView осуществляем переключение метода:
```
static dispatch_once_t onceToken;
dispatch_once(&onceToken, ^{
// Swizzling
Method originalMethod = class_getInstanceMethod([containerView class], @selector(hitTest:withEvent:));
Method swappedMethod = class_getInstanceMethod([containerView class], @selector(GI_hitTest:withEvent:));
method_exchangeImplementations(originalMethod, swappedMethod);
});
```
Таким образом, переопределенный метод hitTest:WithEvent вызывается только для containerView, и не трогает другие UIView в системе.
Теперь все работает как задумывалось. Спасибо, что дочитали, надеюсь, вы узнали что то новое и интересное для себя.
Если Вас заинтересовало, то проект лежит на [GitHub](https://github.com/Dalein/VCTransition) | https://habr.com/ru/post/276799/ | null | ru | null |
# Earth Engine от Google — уникальная платформа для анализа больших геоданных

Earth Engine — это облачная платформа для геопространственного анализа данных в планетарных масштабах. Она позволяет использовать огромные вычислительные мощности компании Google для изучения самых разнообразных проблем: потерь лесов, засухи, стихийных бедствий, эпидемий, продовольственной безопасности, управления водными ресурсами, изменения климата и защиты окружающей среды. Чтобы избежать путаницы в названиях, сразу определим, что **Google Earth** (он же — Google Планета Земля) и **Google Earth Engine** — это два разных продукта. Первый, не требуя от пользователей особых компьютерных навыков, предназначен для визуализации спутниковых снимков и позволяет путешествовать и исследовать мир, взаимодействуя с виртуальным глобусом. Второй, которому посвящена эта статья, — это прежде всего инструмент для анализа данных. Использование Earth Engine предполагает знание прикладной области и умение писать программный код. [Ссылка на официальный сайт проекта.](https://earthengine.google.com/)
Earth Engine — платформа уникальная, поскольку расширяет возможности не только учёных, занимающихся дистанционным зондированием Земли, но и более широкой аудитории, которой не хватает технических возможностей для использования традиционных инструментов обработки больших данных. До появления Earth Engine анализом больших геоданных могли заниматься лишь узкопрофильные специалисты с доступом к высокопроизводительным вычислительным ресурсам.
По личному опыту можем сказать, что даже в англоязычной профессиональной среде про Earth Engine знают пока немногие, а в России и СНГ платформу используют единицы. По этой теме во всём рунете есть только [короткая заметка 2012 года на Хабре](https://habr.com/ru/post/148417/). Для исправления ситуации мы решили начать серию публикаций, посвящённых Earth Engine. Начнём с обзора того, чем является эта платформа, какие значимые проекты на ней уже сделаны, и что можно почитать по этой теме.
Оглавление
==========
1. Немного истории
2. Технический обзор платформы
2.1. Каталог данных
2.2. Архитектура системы
2.3. Модели данных
2.4. Функции
2.5. Модели распределения данных
2.6. Производительность и масштабируемость
2.7. Существующие проблемы и перспективы развития
3. Расширение возможностей платформы
3.1. Конструктор приложений Earth Engine Apps
3.2. Расширение для QGIS
4. Примеры проектов на Earth Engine
5. Справка и обучение
6. Поддержка
6.1. Сообщество пользователей
6.2. Связь с разработчиками
7. Альтернативы Earth Engine
8. Итог
1. Немного истории
==================
В 2009 году на Международной конференции ООН по изменению климата в Копенгагене [компанией Google был представлен новый технологический прототип](https://googleblog.blogspot.com/2009/12/seeing-forest-through-cloud.html), который позволял осуществлять глобальный онлайн-мониторинг изменений лесного покрова Земли. Тогда образец был доступен для тестирования лишь небольшому числу партнёров компании.
В 2010 году на следующей конференции ООН по изменению климата в Канкуне, в рамках Лаборатории Google, инкубатора идей для новых сервисов, [был запущен проект Earth Engine](https://googleblog.blogspot.com/2010/12/introducing-google-earth-engine.html). В то время, набор имеющихся в нём данных ограничивался коллекцией снимков программы дистанционного зондирования Земли [Landsat](http://landsat.usgs.gov), но уже этого было достаточно для получения впечатляющих результатов по глобальной оценке изменений лесов и проявления интереса к разработке Google.
Широкая общественность обратила внимание на Earth Engine в 2013 году, когда в СМИ начали [появляться публикации](https://www.citylab.com/life/2013/05/terrifying-fascinating-timelapse-30-years-human-impact-earth-gifs/5540/) с анимациями многолетних изменений земной поверхности. Уничтожение лесов Амазонки, таяние ледников Аляски, разрастание мегаполисов и многое другое поразило публику своей красотой и драматизмом.
В 2016 году запускается проект [Google Earth Timelapse](https://earthengine.google.com/timelapse/) — это такая галерея самых зрелищных изменений, произошедших на поверхности Земли, которая [активно освещалась в СМИ](https://www.theguardian.com/artanddesign/jonathanjonesblog/2016/dec/05/google-timelapse-satellite-pictures-earth-climate-change), что также не могло не привлечь внимание публики. Именно с этого момента авторы данной статьи и узнали о существовании платформы Earth Engine. По графику ниже видно, что стабильный рост поисковых запросов «Google Earth Engine» начинается именно с 2016 года.

*Динамика популярности поискового запроса «Google Earth Engine» c 1 января 2009 года по 16 апреля 2020 года. Пик в 2010 году соответствует Международной конференции ООН по изменению климата, когда платформа Earth Engine была впервые представлена; в 2013 — масштабным публикациям в СМИ; в 2016 — запуску портала Google Earth Timeseries. После этого популярность платформы только растёт. Источник: [Google Trends](https://trends.google.ru/trends/explore?date=2009-01-01%202020-04-16&q=%22Google%20Earth%20Engine%22)*
И хотя интерес широкой аудитории к Earth Engine в свете проблем окружающей среды — вещь довольно непостоянная, научное сообщество быстро взяло эту платформу на вооружение. Так, количество публикаций в рецензируемых журналах, а также в материалах различных конференций, стало неуклонно расти. В 2017 году в авторитетном журнале **Remote Sensing of Environment** была опубликована статья от разработчиков платформы — [Google Earth Engine: Planetary-scale geospatial analysis for everyone](https://www.sciencedirect.com/science/article/pii/S0034425717302900), которая на сегодняшний день даёт наиболее целостное и подробное описание работы этой системы.

*Динамика количества публикаций, связанных с Google Earth Engine, рассчитанная по информации из наукометрической реферативной базы данных [Scopus](https://www.scopus.com/), охватывающей научно-исследовательскую литературу со всего мира.*
К концу 2019 года каталог Earth Engine объёмом 29 петабайт [содержал более 600 различных наборов данных](https://medium.com/google-earth/our-latest-additions-to-the-earth-engine-data-catalog-ded9c563f676), а скорость пополнения информации достигла одного петабайта в месяц. В том же году в Калифорнии [прошла конференция Geo for Good Summit 2019](https://medium.com/google-earth/the-stories-we-shared-at-the-geo-for-good-summit-2019-77ea4df22cf4), объединившая пользователей Google Earth Engine и участников Google Earth Outreach, инициативы по продвижению идей защиты окружающей среды. Это было масштабное мероприятие, на котором учёные, некоммерческие организации и другие участники собрались для обсуждения проектов по положительному влиянию на нашу планету и её жителей. Посмотрите на [выступление Ребекки Мур и Мэтта Ханчера из Google](https://youtu.be/mb4hN0TghAw), где они разбирают серию проектов Google Earth и отдельно рассказывают про Earth Engine.
Таким образом, с момента запуска Earth Engine прошло уже 10 лет, и мы можем смело сказать, что платформа стала зрелым продуктом. И, что не менее важно, вокруг неё выросло активное сообщество пользователей.
2. Технический обзор платформы
==============================
*Этот раздел содержит выдержки из статьи **N. Gorelick, M. Hancher, M. Dixon, S. Ilyushchenko, D. Thau, and R. Moore, “Google Earth Engine: Planetary-scale geospatial analysis for everyone,” Remote Sensing of Environment, vol. 202, pp. 18–27, 2017** с нашими дополнениями и изменениями.*
Как мы уже упомянули, Earth Engine — это многопетабайтный каталог данных, интегрированный с высокопроизводительным кластером серверов для параллельных вычислений. Доступ к системе и управление осуществляется через интерфейс прикладного программирования (API). Пользователь создаёт сценарии обработки данных в интерактивной среде разработки на JavaScript API, которая называтеся [редактором кода (Code Editor)](https://code.earthengine.google.com) и обеспечивает оперативное создание прототипов и визуализацию результатов «на лету». То же самое можно выполнять и через Python API в локальной среде на своём компьютере или через облачные блокноты [Google Colab](https://developers.google.com/earth-engine/python_install-colab). В каждом из вариантов основные вычисления выполняются на серверах Google.
Каталог Earth Engine содержит множество общедоступных наборов геопространственных данных:
* Космо- и аэрофотоснимки, сделанные в различных диапазонах электромагнитного спектра
* Модели прозноза погоды и параметры климата
* Карты земного покрова
* Топографические и социально-экономические наборы данных
* Различные параметры окружающей среды (например, влажность почвы или исходящее тепловое излучение Земли)
Все эти данные предварительно приводятся во внутренний формат системы. Он сохраняет тип исходных данных и метаданные, обеспечивая при этом эффективный доступ к информации, и устраняет технические барьеры, связанных с параллельной обработкой больших объёмов данных. Пользователи могут заправшивать и анализировать данные из общедоступного каталога, или же загружать свои собственные. Доступ к Earth Engine API осуществляется либо через библиотеку Python, либо через веб-IDE, построенный поверх клиентской библиотеки на JavaScript.

*Редактор кода Earth Engine — это интерактивная веб-среда разработки на JavaScript.*

*Блокнот [Google Colab](https://developers.google.com/earth-engine/python_install-colab) в котором происходит интерактивный анализ данных через Python API.*
По нашему опыту, для начинающих пользователей лучше подходит использование API на JavaScript, так как он хорошо документирован, для него доступно много обучающих материалов, а главное — не требуется предварительной настройки среды. Авторизация и настройка среды для визуализации происходят автоматически при запуске редактора кода в браузере. Применение Python API требует от пользователя хорошего знания архитектуры Earth Engine и понимания клиент-серверной модели программирования с её особенностями. Так, нельзя смешивать вызовы библиотеки Earth Engine с некоторыми языковыми конструкциями локальной среды. Также при использовании Python API для отрисовки результатов потребуется настроить среду визуализации, например, с помощью библиотеки [Folium](https://python-visualization.github.io/folium/). Так что в целом мы советуем начать освоение платформы с JavaScript API, а затем, когда вы почувствуете себя «продвинутым» пользователем, переходить к Python API, который может предоставить более гибкие возможности по обработке данных из каталога Earth Engine.
Для использования Earth Engine необходимо иметь аккаунт Google, после чего пользователь может запросить доступ к платформе на [странице создания учётной записи Earth Engine.](https://signup.earthengine.google.com/) Прежде чем приступить к работе, необходимо подождать, пока ваш аккаунт будет одобрен. Обычно письмо с подтверждением приходит в течение нескольких часов или даже минут, однако процесс одобрения заявки может занять и большее время.
Предшествующий опыт в ГИС, дистанционном зондировании и разработке скриптов облегчает начало работы, но эти знания не являются строго обязательными, а руководство пользователя Earth Engine ориентировано на начинающих пользователей. Также [на официальном сайте проекта](https://developers.google.com/earth-engine) размещены учебные пособия, примеры, обучающие видео, справочники функций и учебные программы, ссылки на которые даны в конце статьи в разделе «Справка и обучение».
Ещё раз подчеркнём, что помимо общего каталога геоданных, Earth Engine позволяет загружать и использовать собственные наборы данных. Результаты работы могут быть выгружены для автономного использования, например, в Google Drive.
### 2.1. Каталог данных
[Общедоступный каталог данных Earth Engine](https://developers.google.com/earth-engine/datasets) (Earth Engine Data Catalog) представляет собой огромный архив часто используемых наборов геопространственных данных. Большая часть каталога состоит из изображений дистанционного зондирования Земли, включая весь архив миссии Landsat (а это почти полвека наблюдений), а также полные архивы данных от европейских спутников Sentinel-1, Sentinel-2, Sentinel-3, Sentinel-5P с различными уровнями обработки, климатические прогнозы, данные о земном покрове, геофизические, экологические и социально-экономические наборы данных. В каталоге есть удобный инструмент поиска, включая поиск по тегам.
Каталог обновляется со скоростью около 6000 сцен в день для активных миссий дистанционного зондирования. Пользователи могут запрашивать добавление новых наборов данных в общедоступный каталог (об этом далее — в разделе «Поддержка») или загружать свои личные данные через REST-интерфейс с помощью инструментов на основе браузера или командной строки и делиться с другими пользователями или группами пользователей по своему усмотрению.

*[Общедоступный каталог данных Earth Engine.](https://developers.google.com/earth-engine/datasets/)*
### 2.2. Архитектура системы
Earth Engine построен на основе набора технологий, доступных в среде дата-центров Google:
* [Система управления кластерами Borg](https://research.google/pubs/pub43438/)
* Распределённые базы данных [Cloud Bigtable](https://cloud.google.com/bigtable) и [Cloud Spanner](https://cloud.google.com/spanner)
* [Файловая система Colossus, преемник Google File System](https://research.google/pubs/pub51/)
* [Инфраструктура FlumeJava](https://research.google/pubs/pub35650/) для параллельной работы конвейеров данных
Earth Engine также взаимодействовал с [Google Fusion Tables](https://en.wikipedia.org/wiki/Google_Fusion_Tables), работа которого [была остановлена в 2019 году](https://gsuiteupdates.googleblog.com/2018/12/google-fusion-tables-to-be-shut-down-on.html).
На рисунке ниже представлена упрощенная архитектура системы. **Редактор кода Earth Engine** (Code Editor) и **сторонние приложения** используют **клиентские библиотеки** для отправки интерактивных или пакетных запросов в систему через **REST API**. Запросы «на лету» обрабатываются **серверами переднего плана** (фронтенды), которые направляют сложные подзапросы на **главные узлы**, распределяющие вычисления среди пула **рабочих вычислительных узлов**. Система **пакетных вычислений** работает аналогичным образом, но использует FlumeJava для управления распределёнными вычислениями. Поддержкой обеих вычислительных систем занимаются службы данных, включающие, например, **базы фондов данных**, которые содержат метаданные для каждого изображения и обеспечивают эффективную фильтрацию данных. Программное обеспечение Borg для управления всем кластером контролирует каждый компонент системы, и каждый сервис распределён по нагрузке между несколькими вычислительными серверами. Отказ любого отдельного рабочего узла просто приводит к тому, что вызывающая сторона переиздает запрос.

*Упрощённая архитектура Earth Engine. Оригинал схемы опубликован в N. Gorelick et al. / Remote Sensing of Environment 202 (2017) 18–27; мы удалили упоминание закрытого в 2019 г. сервиса Fusion Tables из блока хранилищ данных.*
Пользователи создают запросы к Earth Engine, используя функции, взятые из библиотеки API. На момент написания этой статьи (апрель 2020 года), это более чем 1500 функций, которые варьируются по сложности от простых математических операций до машинного обучения, мощных геостатистических инструментов и операций обработки изображений. Библиотека позволяет легко осуществлять операции между изображениями с использованием растровой алгебры и поддержкой функций более высокого порядка: **map()** и **iterate()**, которые позволяют применять произвольные функции к коллекциям изображений. Для вычисления статистики по коллекциям изображений применяется оператор свёртки **reduce()**, который, к примеру, может аггрегировать данные методом скользящего окна. Полный список всех функций доступен в справочном руководстве [Earth Engine API Reference](https://developers.google.com/earth-engine/api_docs).
### 2.3. Модели данных
Earth Engine использует простую и максимально общую модель данных, основанную на двумерных растровых каналах, собранных в контейнеры «изображений» (Image). Пиксели в каждом канале должны быть однородными по типу данных, разрешению и проекции. Однако каналы в одном изображении-контейнере могут иметь разные типы данных или даже проекции, а сами изображения могут содержать любое количество каналов. Каждое изображение также может иметь связанные метаданные вида «ключ/значение», содержащие такую информацию, как местоположение, время создания данных и условия, при которых изображение было получено или обработано. Изображения, объединённые по смыслу, например, изображения от одной съёмочной аппаратуры спутника, группируются и представляются в виде «коллекции изображений» (ImageCollection). Коллекции предоставляют функционал для быстрой фильтрации и сортировки по определённым пространственным, временным или другим критериям, которые облегчают пользователям выбор данных среди миллионов отдельных изображений. Например, с помощью методов фильтрации коллекций пользователь может легко выбрать мультиспектральные снимки со спутника Landsat-8, покрывающие территорию Московской области и полученные в период с июня по август за 2019 и 2020 годы, с облачным покровом менее 10%.
Изображения, загруженные в Earth Engine, предварительно обрабатываются для обеспечения быстрого и эффективного доступа. Сначала они **нарезаются на тайлы** в исходной проекции и разрешении и сохраняются в производительной и реплицированной тайловой базе данных. Стандартный размер тайла в 256×256 пикселей был выбран в качестве практического компромисса между загрузкой ненужных данных и затратами на дополнительные операции чтения. В отличие от традиционных систем типа «куб данных» (data cube), этот процесс ввода данных сохраняет информацию: изображения всегда хранятся при исходной проекции, пространственном и радиометрическом разрешении. Это позволяет избежать ухудшения качества данных, которое было бы присуще при ресемплинге всех изображений к фиксированной сетке, которая может быть, а может и не быть подходящей для каждого конкретного применения.

*Цельные изображения в Earth Engine разделяются на тайлы. Во время вычислений извлекаются только необходимые отдельные тайлы, что экономит ресурсы системы. Перепроецирование в выходную проекцию осуществляется в самом начале обработки данных.*
Кроме того, чтобы обеспечить быструю визуализацию во время разработки пользователем алгоритмов, для каждого изображения создается **пирамида тайлов**, которые имеют уменьшенное разрешение и также хранятся в тайловой базе данных. Каждый уровень пирамиды создаётся путем уменьшения размера изображения в два раза, и так до тех пор, пока всё изображение не поместится в один тайл. При ресемплинге каналы изображения с непрерывными данными обычно усредняются, а каналы, в которых хранятся дискретные данные (например, номера категорий в картах земного покрова), выбираются с использованием семплинга по моде, минимальному, максимальному или фиксированному значению. Когда часть данных из изображения запрашивается для вычисления с уменьшенным разрешением, из тайловой базы данных извлекаются только соответствующие тайлы с наиболее подходящим уровнем пирамиды. Такое масштабирование со степенью двойки позволяет готовить данные в различных масштабах без значительных затрат на хранение и соответствует общим схемам использования в веб-картографии.
### 2.4. Функции
Основную часть функций библиотеки, созданных для обработки изображений, составляют алгебраические попиксельные операции, которые оперируют пикселами внутри каналов (per-band basis) или соответствующими пикселами разных каналов (band-to-band basis), охватывая целочисленные математические вычисления и вычисления с плавающей точкой, логические сравнения, манипулирование битами, преобразования типов данных, замену значений по условию и операции над многомерными массивами. Также включены общие функции управления пикселями, такие как поиск в таблице (table lookup), кусочно-линейная интерполяция, полиномиальная оценка и вездесущая нормализованная разность. Библиотека использует несколько уже существующих инструментальных средств машинного обучения, чтобы обеспечить лёгкий доступ к более чем 20 типам контролируемой классификации, регрессии и неконтролируемой классификации (кластеризации), а также операциям с матрицами несоответствий для оценок точностей. Для задач машинного зрения доступны обычные оконные операции на основе ядра (kernel), такие как свёртка, морфологические операции, анализ расстояний и текстур, а также простые операции на основе соседства, такие как градиент, наклон, аспект и связность. Другие возможности включают в себя операции с метаданными изображения и каналами, манипуляции с проекцией и ресемплингом, маскирование и обрезку, смещение и корегистрацию изображения по отношению к другому, а также множество специализированных инструментов, общих для сферы дистанционного зондирования, включая операции спектрального разложения (spectral unmixing), наращивание пикселей (region growing) и картирования стоимости (cost mapping).

*Безоблачная мультиспектральная мозаика территории Панамы, полученная в Earth Engine в результате обработки 1239 спутниковых снимков Landsat-8. Для её создания для каждого пиксела был применён набор операций с целью отсеять облачные данные и извлечь медианное значение данного пиксела в стеке снимков. Центр ДЗЗ РУДН, 23 апреля 2019 г.*
Любые функции из библиотеки могут быть использованы в алгоритмах, которые пользователь желает выполнить. Описание алгоритма конвертируется в ориентированный ациклический граф (ОАГ), в котором каждая вершина представляет выполнение отдельной функции или метода доступа к данным и содержит пары ключ/значение именованных аргументов функции. По сути, это чисто функциональная среда программирования, и Earth Engine использует стандартные методы, обычно применяемые в функциональных языках, такие как [ссылочная прозрачность](https://ru.wikipedia.org/wiki/Ссылочная_прозрачность) и [ленивые вычисления](https://ru.wikipedia.org/wiki/Ленивые_вычисления), для существенной оптимизации и повышения эффективности.
Пользователи пишут программы для Earth Engine, используя для этого клиентские библиотеки, доступные для языков Python и JavaScript, которые позволяют описывать обработку графов с применением знакомой многим парадигмы процедурного программирования. Клиентские библиотеки предоставляют собой прокси-объекты для изображений (ee.Image), коллекций (ee.ImageCollection) и других типов данных, таких как числа (ee.Number), строки (ee.String), геометрии или векторные объекты (ee.Geometry) и списки (ee.List). Пользовательские сценарии управляют этими прокси-объектами и записывают цепочку операций, собирая их в ОАГ, который и выражает полное вычисление.
Через последовательность графовых преобразований эти ОАГ затем отправляются в вычислительный кластер Earth Engine. Подграфы «жадно» упрощаются за счёт немедленных расчётов, где это возможно, чтобы избежать избыточных вычислений. Например, подграф, представляющий `3+7`, будет немедленно упрощён до значения `10`. Другие вершины в графе раскладываются на несколько: например, когда оценивается точка графа, которая ссылается на коллекцию изображений, то она расширяется до последовательности изображений, которые будут использоваться партиями при последующих операциях обработки. Вершины, которые представляют сложные операции обработки, могут использовать любую из нескольких стратегий распределённой обработки, описанных далее в разделе **«Модели распределения данных»**.
Earth Engine разработан для поддержки быстрого интерактивного просмота и анализа пространственных данных, что позволяет пользователю перемещаться по карте и масштабировать результаты для просмотра определённой части изображения за один раз. Чтобы оптимизировать данный процесс, Earth Engine использует ленивую модель вычислений, которая позволяет рассчитывать только те части (тайлы) вывода, которые необходимы для выполнения текущего запроса. Наглядный пример: пользователь может захотеть вычислить разницу между двумя сезонными составными изображениями (композитами), чтобы выделить изменения в фенологии или снежном покрове.
Упрощённый образец этого можно показать, используя клиентскую библиотеку Earth Engine для вычитания двух композитных изображений. Для этого в веб-редакторе кода надо запустить следующий сценарий на языке JavaScript:
```
// Вычисление разницы медианных композитов между двумя сезонами
collection = ee.ImageCollection("LANDSAT8")
winter = collection.filter(ee.Filter.calendarRange(11, 1, "month"))
summer = collection.filter(ee.Filter.calendarRange(6, 8, "month"))
diff = summer.median().subtract(winter.median())
```
Этот код создает две отфильтрованные коллекции:
1. `winter`: все изображения Landsat-8, снятые в ноябре, декабре и январе за все годы
2. `summer`: все изображения Landsat-8, снятые в июне, июле и августе за все годы
Чтобы минимизировать влияние облаков и теней облаков, для каждого канала в каждой коллекции вычисляется промежуточное медианное значение `median()`, после чего полученные композиты вычитаются для вычисления изменений между ними.

*Ориентированный ациклический граф, представляющий вычисление для кода выше. N. Gorelick et al. / Remote Sensing of Environment 202 (2017) 18–27.*
Традиционная «неленивая» вычислительная среда может начать расчёт пикселей для одного или обоих композитов, как только будет обработано выражение, что обычно требует, чтобы входные наборы данных были предварительно подготовлены в одной проекции, сведены к одному разрешению и области пространства.
Вместо этого Earth Engine использует другой подход: он откладывает вычисление выходных пикселей, пока не узнает больше о контексте, в котором они нужны. Например, если результат отображается на интерактивной карте, то уровень масштабирования карты и границы просмотра могут динамически определять проекцию и разрешение выходных данных и могут ограничивать вычисление пикселей только теми, которые доступны для просмотра в окне карты. С другой стороны, если результат используется в качестве входных данных для другого вычисления, тогда оно может запросить соответствующую проекцию, разрешение и границы для необходимых пикселей. Эта информация используется для автоматической повторной выборки и перепроецирования входных данных «на лету», что позволяет быстро визуализировать результаты. Либо для использования этого выражения в более сложных вычислениях, не требуя от пользователя предварительного указания, какие пиксели из этого будут необходимы. Перепроецирование и ресемплинг в запрошенную картографическую проекцию по умолчанию выполняется над входными данными методом ближайшего соседа, выбирая пиксели из самого близкого уровня пирамиды наивысшего разрешения для каждого входного изображения, чтобы сохранить спектральную целостность данных. Однако пользователь имеет возможность явно задавать параметры перепроецирования, включая выбор билинейной или бикубической интерполяции.
**Подход к вычислениям в Earth Engine поощряет интерактивный и итеративный режим исследования данных и разработки алгоритмов.** Как только пользователь разработал алгоритм, который он хотел бы масштабировать на бóльшую территорию, он может отправить запрос на пакетную обработку (batch-processing request) в Earth Engine, чтобы вычислить полный результат и материализовать его либо как изображение в окне карты редактора кода, либо сохранить на свой компьютер в виде геопривязанного Tiff-файла, таблицы, графика или видеофайла с анимацией. Сохранение обычно осуществляется через экспорт результатов в личный Google Drive пользователя.
### 2.5. Модели распределения данных
Функции в библиотеке Earth Engine используют несколько встроенных моделей распараллеливания и распределения данных для достижения высокой производительности. Каждая из этих моделей оптимизирована для разных схем доступа к данным.
### 2.5.1. Тайлы изображений
Многие операции растровой обработки, используемые в дистанционном зондировании, являются локальными: вычисление любого конкретного выходного пикселя зависит только от входных пикселей на некотором фиксированном расстоянии. Примеры таких попиксельных операций включают растровую алгебру в многоканальных изображениях или спектральное разложение, а также операции в окрестности, такие как свёртка или анализ текстуры. Эти функции могут быть легко применены параллельно путём разделения изображения на тайлы и обработки каждого тайла независимо от других. Вычисление каждого выходного тайла обычно требует извлечения только одного или небольшого количества тайлов входных данных. Этот факт в сочетании с уровнями пирамид входных изображений и адекватным кэшированием позволяет быстро вычислять результаты в любом требуемом масштабе и проекции. Как было упомянуто ранее, входные данные перепроецируются «на лету» для соответствия запрошенной выходной проекции. Однако, если пользователь решает, что использование входных данных с уменьшенным разрешением или с изменённой проекцией нежелательно, он может явно указать входную проекцию и масштаб для вычислений.

*Пирамиды представляют собой серию изображений с пониженным пространственным разрешением. Каждый последующий слой пирамиды подвергается ресемплингу (понижающей дискретизации) в масштабе 2:1.*
Большинство операций на основе тайлов реализованы в Earth Engine с использованием одной из двух стратегий, в зависимости от их вычислительной стоимости. Затратные операции и операции, которые значительно выигрывают от одновременного вычисления всего тайла сразу, записывают результаты в выходной буфер размером с тайл. Размер этих тайлов обычно составляет 256×256 пикселей, чтобы соответствовать размеру тайлов предварительно обработанных входных данных.
Незатратные попиксельные операции осуществляются с использованием интерфейса pixel-at-time (пиксель-за-раз), в котором операции обработки изображения непосредственно вызывают друг друга в графе. Эта схема предназначена для использования преимуществ того, что эти операции выполняются в среде виртуальной машины Java с [динамическим JIT-компилятором](https://ru.wikipedia.org/wiki/JIT-компиляция), который извлекает и компилирует последовательности повторяющихся вызовов функций. В результате во многих случаях произвольные цепочки примитивных операций с изображениями, таких как растровой алгебры, могут выполняться почти так же эффективно, как и скомпилированный вручную код.
### 2.5.2. Пространственная агрегация
Так же как некоторые категории вычислений являются локальными, другие по своей природе нелокальны: например, вычисление региональной или глобальной статистики, преобразование растра в вектор или выборка изображения для обучения классификатора. Эти операции, или их части, часто могут выполняться параллельно, но для вычисления конечного результата требуется объединить множество промежуточных результатов. Так, вычисление среднего значения всего изображения может быть выполнено путём деления всего изображения на фрагменты, вычисления сумм и параллельного подсчета среднего по каждому фрагменту, а затем суммирования этих частичных сумм и подсчётов среднего для получения конечного результата.
В Earth Engine эти типы вычислений выполняются как распределённые процессы, использующие модель [Scatter/Gather](https://www.eejournal.com/article/20170209-scatter-gather/) (разброс/сбор). Пространственная область, в которой должна выполняться агрегация, делится на подрегионы, которые назначаются рабочим узлам в распределённом кластере. Каждый рабочий узел получает или вычисляет входные пиксели, в которых он нуждается, а затем выполняет требуемую операцию накопления, чтобы рассчитать промежуточные результаты. Эти результаты отправляются обратно в главный узел, который объединяет их и преобразует в окончательный результат. Например, при вычислении среднего значения каждый рабочий узел будет вычислять суммы и количество значений, а главный узел собирает и суммирует эти промежуточные результаты, и конечным результатом будет общая сумма, делённая на общее количество.
Эта модель очень похожа на традиционную [MapReduce](https://ru.wikipedia.org/wiki/MapReduce), однако пользователь не обязан знать об этой реализации и должен только указать проекцию карты, разрешение и пространственную область, в которой будет выполняться операция, которая, в свою очередь, определяет количество подрегионов и сетку, где будут вычисляться входные пиксели. Чаще всего каждый подрегион кратен размеру входного тайла по умолчанию (обычно 1024×1024 пикселей), чтобы минимизировать издержки [удалённого вызова процедур](https://ru.wikipedia.org/wiki/Удалённый_вызов_процедур) во время этих вычислений. Однако из-за большого диапазона вычислительных сложностей промежуточных продуктов, которые пользователи могут пытаться агрегировать, в систему были введены элементы управления, позволяющие пользователям корректировать это кратное число, если этого требуют их вычисления, например, из-за ограничений памяти на один рабочий узел.
### 2.5.3. Потоковые коллекции
Другой распространенной операцией при обработке больших наборов данных дистанционного зондирования является анализ временных рядов (time series analysis). Те же самые статистические операции агрегации, которые могут применяться в пространственном домене к изображению, также могут применяться и во временном домене к изображениям в коллекции. В этом случае цель операции — вычислить статистику по пикселям для каждого стека изображений во времени (временного ряда). Эти операции выполняются с использованием комбинации тайлов и агрегации. Каждый выходной тайл изображения рассчитывается параллельно с использованием ленивых вычислений, как описано выше. Внутри каждого тайла операция агрегации выполняется для каждого пикселя. Тайлы пиксельных данных из изображений во входной коллекции запрашиваются партиями и «транслируются» (stream) по одному через агрегаторы для каждого пикселя. Как только все входные данные, которые пересекают выходной тайл, были обработаны, окончательное преобразование применяется к каждому пикселю для генерации выходного результата.
Эта модель распределения может быть быстрой и эффективной для агрегаторов, которые имеют небольшое промежуточное состояние (например, вычисление минимального значения), но для иных агрегаторов она может быть чрезмерно интенсивной. К примеру, корреляция Пирсона требует сохранения полного ряда данных в каждом пикселе до вычисления окончательного результата. Потоковая передача даже по очень большим коллекциям может быть быстрой, если размер тайла значительно меньше, чем размер полного изображения. Например, весь набор коллекций Landsat-5, -7 и -8, в совокупности содержащий более 5 миллионов изображений, имеет глубину менее 2000 тайлов в любой точке, а в среднем только около 500.
### 2.5.4. Кэширование и устранение общих подвыражений
Многие операции обработки в Earth Engine могут быть затратными и интенсивными в плане использования данных, поэтому полезно избегать избыточных вычислений. Например, результаты запросов пользователя к карте (перемещение или зумирование) будут вызывать несколько независимых запросов на выходные тайлы, все из которых часто зависят от одного или нескольких общих подвыражений, таких как большая пространственная агрегация или обучение контролируемого классификатора. Чтобы избежать пересчёта значений, которые уже были запрошены ранее, затратные промежуточные результаты сохраняются в распределённом кэше, используя хэш подграфа в качестве ключа кэша.
Хотя возможна ситуация, в которой несколько пользователей совместно используют один элемент в кэше, но ситуация в которой два отдельных пользователя независимо делают одинаковые запросы — крайне маловероятна. Тем не менее, один пользователь часто повторяет одни и те же запросы во время постепенной разработки алгоритма и, таким образом, получает преимущества от этого механизма. Кэш также используется как форма разделяемой памяти при распределённом выполнении одного запроса, где хранятся промежуточные результаты, соответствующие подграфам запроса.
В случае, когда поступают последующие запросы на одно то же вычисление, более ранние вычисления, возможно, уже завершились или всё еще продолжаются. Ранее вычисленные результаты просто извлекаются и возвращаются путём проверки кэша перед началом ресурсоёмких операций. Для обработки случая, когда более ранние вычисления всё еще выполняются, все расчёты отправляются распределенным рабочим узлам через небольшое количество главных узлов. Эти главные серверы отслеживают те вычисления, которые выполняются в рабочем кластере в любой момент. Когда поступает новый запрос, который зависит от того, какие вычисления уже выполняются, этот запрос просто присоединится к исходному запросу, ожидающему завершения вычисления. В случае сбоя главного узла могут быть потеряны дескрипторы выполняемых вычислений, что может привести к запуску избыточных операций, но только в том случае, если запрос повторно запрашивается до завершения существующих.
### 2.6. Производительность и масштабируемость
Earth Engine использует преимущества JIT-компилятора Java для оптимизации выполнения цепочек попиксельных операций, которые довольно распространены при обработке изображений. Чтобы оценить прирост эффективности, обеспечиваемый JIT-компилятором, был проведен ряд экспериментов для сравнения производительности трёх моделей выполнения:
1. Выполнение графа вычислений в Java с использованием JIT-компилятора
2. Выполнение графа с использованием аналогичной общей реализации на C++
3. Выполнение тех же самых вызовов напрямую, а не через граф, в специализированном нативном коде C++, что позволило избежать виртуализации функций
Было рассмотрено пять тестовых случаев, каждый из которых проверял граф вычислений различного типа:
1. **SingleNode**: тривиальный граф с одной вершиной, состоящей из пространственного буфера данных изображения. Этот тест просто вычисляет сумму всех значений в буфере.
2. **NormalizedDifference**: граф, который вычисляет нормализованную разницу двух входных буферов. Этот сценарий с небольшим графом содержит в общей сложности пять вершин: две входных вершины, одну сумму, одно произведение и одно частное.
3. **DeepProduct**: граф, состоящий из цепочки 64 вершин произведений, вычисляющий его для 65 входных вершин.
4. **DeepCosineSum**: граф с той же структурой, что и **DeepProduct**, где каждая вершина вычисляет более затратную бинарную операцию `cos(a+b)`.
5. **SumOfProducts**: граф, который вычисляет сумму для всех парных произведений из наборов входных данных. Он имеет 40 входных вершин, 780 вершин произведений и 779 вершин суммирования. Здесь общее количество точек намного больше, чем количество входных вершин, что позволяет оценивать производительность сложных графов, состоящих из примитивных операций на фиксированном количестве входных данных — распространённый в реальном мире сценарий.
Каждый из этих тестов проводился на одном тайле размером 256×256 пикселей, используя конфигурацию, типичную для облачной среды коммерческого дата-центра: однопоточную среду выполнения на процессоре Intel Sandy Bridge с тактовой частотой 2,6 ГГц с отключением всех несущественных системных служб для минимизации шума при профилировании. Результаты, приведенные ниже, показывают, что в 4 из 5 распространённых сценариев Java с JIT-компилятором превосходит аналогичные вычисления на основе динамических графов на C++ примерно на 50%, а в одном случае даже превосходит прямую реализацию на C++.

*Результаты тестов эффективности Java JIT против C++. N. Gorelick et al. / Remote Sensing ofEnvironment 202 (2017) 18–27.*
### 2.6.1. Производительность системы
В дата-центре Google нет недостатка в процессорах. В этой среде продуктивность их использования хоть и важна, но не так критична, как способность эффективно распределять сложные вычисления по множеству машин. Большая часть производительности Earth Engine обусловлена его способностью распределять вычисления и управлять большим количеством CPU от имени пользователя. Существует жёсткий верхний предел эффективности, который может быть достигнут с помощью оптимизации кода или запросов, но есть гораздо меньше ограничений на дополнительные вычислительные ресурсы, которые могут быть задействованы.
С целью демонстрации способности Earth Engine горизонтально масштабироваться была проведена серия экспериментов. В рамках тестов две большие коллекции изображений Landsat были перепроецированы в общую картографическую проекцию, агрегированы для каждого пикселя по времени и в пространстве до одного числа при варьировании количества процессоров в тесте. Две коллекции состояли из всех доступных снимков Landsat-8 уровня обработки 1T, полученных с 1 января 2014 по 31 декабря 2016 года, и покрывающих две территории:
* Смежная территория США (Contiguous United States): 26 961 сцена и 1,21 триллиона пикселей
* Африка: 77 528 сцен и 3,14 триллиона пикселей.
Испытания проводились с использованием общих производственных ресурсов в течение нескольких дней и по нескольку раз для выявления естественной изменчивости, вызванной нагрузкой на дата-центр. Результаты показывают почти линейное масштабирование пропускной способности в зависимости от количества задействованных рабочих узлов.

*Результаты горизонтального масштабирования. N. Gorelick et al. / Remote Sensing of Environment 202 (2017) 18–27.*
### 2.7. Существующие проблемы и перспективы развития
Одним из преимуществ использования Earth Engine является то, что пользователь почти
полностью отстранён от деталей среды параллельных вычислений. Система обрабатывает и скрывает почти все аспекты управления вычислениями, включая распределение ресурсов, параллелизм, распределение данных и повторные попытки. Эти решения носят исключительно административный характер, и ни одно из них не может повлиять на результат запроса, а только на скорость, с которой он создается. Цена опущения этих деталей заключается в том, что пользователь не может повлиять на них: система несёт полную ответственность за принятие решений о том, как выполнять вычисления. Это приводит к некоторым интересным проблемам как при проектировании, так и при использовании системы.
### 2.7.1. Трудности масштабирования
Система Earth Engine в целом может управлять чрезвычайно большими вычислениями, но базовая инфраструктура в конечном итоге представляет собой кластеры рабочих серверов нижнего уровня. В этой среде опция конфигурирования произвольно больших машин недоступна, и существует жёсткое ограничение на объём данных, которые можно перенести на любой отдельный сервер. Это означает, что пользователи могут осуществлять большие вычисления только с помощью примитивов параллельной обработки, предоставляемых в библиотеке Earth Engine, и некоторые непараллелизируемые операции просто не могут быть эффективно выполнены в этой среде. Кроме того, необходимость выполнять вычисления с использованием библиотеки Earth Engine означает, что существующие алгоритмы и рабочие процессы пользователя должны быть преобразованы для использования API Earth Engine, чтобы так или иначе задействовать платформу.
API-интерфейс Earth Engine позволяет легко выполнять ресурсоёмкие вычисления. Например, для того, чтобы запросить глобальную агрегацию карты лесного покрова на 800 миллиардов пикселей потребовалось бы всего несколько строк кода Earth Engine: хотя в данном случае вычисления просты (базовое извлечение исходных пикселов из хранилища), требуется значительное количество ресурсов в течение длительного времени. Объединяя операции с большими коллекциями данных в широком диапазоне пространственных масштабов, легко создавать запросы, стоимость которых варьируется на многие порядки, и производить вычисления, которые могут быть нецелесообразны даже в продвинутой среде параллельных вычислений.
Поскольку Earth Engine является общедоступным вычислительным ресурсом, то для того, чтобы пользователи не злоупотребляли платформой, требуются ограничения и другие средства защиты. Для интерактивных сеансов Earth Engine накладывает определённые лимиты. На момент 2017 года они были следующие:
* Максимальная продолжительность запроса: 270 с
* Общее количество одновременных запросов на пользователя: 40
* Количество одновременных выполнений некоторых дорогостоящих операций, таких как пространственные агрегации: 25
Когда запросы вызываются в пакетном режиме, ни одно из интерактивных ограничений не применяется. Однако всё еще применяется ограничение ресурсов каждого рабочего узла, когда запрос включает вычисления на основе тайлов, которые не могут быть переданы потоком или далее распределены с использованием текущей модели данных. Это ограничение памяти не переводится непосредственно в конкретное пространственное или временное ограничение, но общее правило таково: глубина стека в запросе не должна превышать 2000 байтов на пиксель. Текущая система удалённого вызова и кэширования налагает дополнительное ограничение, которое применяется как в интерактивном, так и в пакетном случаях: размер отдельных кэшируемых объектов не может превышать 100 МБ. Этот предел чаще всего достигается, тогда когда вывод операции агрегирования очень велик. Например, при извлечении данных для алгоритма машинного обучения, где он может ограничивать общее количество точек в обучающей выборке (training set).
Пакетные задания (jobs) выполняются независимо друг от друга, что не позволяет им негативно влиять друг на друга, но для предотвращения злоупотреблений ресурсами по-прежнему применяется система общей очереди, и при большой нагрузке задания могут ожидать, пока ресурсы не станут доступными.
### 2.7.2. Ограничения вычислительной модели
Хотя при обработке данных дистанционного зондирования очень распространены параллельные операции, есть и множество других классов операций, которые не распараллеливаются или не учитываются конструкциями параллельных вычислений, доступными в Earth Engine. Платформа хорошо подходит для вычислений с пиксельными и конечными окрестностями, такими как операции растровой алгебры, морфологические операции, спектральное разложение, анализ текстур, а также длинные цепочки процедур такого рода (от сотен до тысяч). Earth Engine также хорошо оптимизирован для статистических операций, таких как вычисление статистики в стеке временных рядов изображений, что может быть применено к потоковым данным при обработке очень глубоких стеков (миллионы изображений и триллионы пикселей).
Однако Earth Engine плохо справляется с вычислениями, в которых на локальное значение могут влиять произвольно отдалённые входные данные — это операции, которые требуют большого количества данных одновременно: анализ водоразделов, классические алгоритмы кластеризации, обучение многих типичных моделей машинного обучения, анализ методом конечных элементов или агентные модели. Кроме того, модели, завязанные на использование больших объёмов данных, которых еще нет в каталогах Earth Engine, могут потребовать значительных дополнительных усилий для загрузки таких данных.
Подобные вычислительные методы всё еще могут применяться в Earth Engine, но часто с явными ограничениями при масштабировании. Расширение Earth Engine для поддержки новых вычислительных моделей является активной областью исследований и разработок. Пользователи с задачами, которые не соответствуют вычислительной модели Earth Engine, могут выполнять вычисления с помощью других инструменитов [облачной платформы Google](https://cloud.google.com), чтобы извлечь выгоду из выполнения вычислений близко к базовым данным, но при этом использовать преимущества каталога данных, предварительной и последующей обработки или визуализации в Earth Engine.
### 2.7.3. Особенности клиент-серверного программирования
Пользователи Earth Engine зачастую не знакомы с моделью программирования типа «клиент-сервер». Клиентские библиотеки Earth Engine созданы с целью предоставить более знакомую процедурную среду программирования, но это может привести и к путанице, в которой пользователь забывает, что его локальная среда программирования (например, скрипт Python) не отвечает за выполнение основных вычислений. Вся цепочка операций на стороне клиента преобразовывается к виду прокси-объектов и отправляется для выполнения на сервер. Это означает, что **смешивать вызовы библиотеки Earth Engine со стандартными языковыми конструкциями локальной обработки недопустимо**. Это ограничение включает в себя некоторые базовые языковые функции, такие как условные выражения и циклы, которые зависят от вычисляемых значений, а также стандартные библиотеки обработки числовых данных. Пользователи по-прежнему могут использовать эти инструменты, но не могут применять их непосредственно к прокси-объектам Earth Engine, что иногда вводит в замешательство. Этот момент хорошо [разобран в официальном руководстве](https://developers.google.com/earth-engine/client_server). К счастью, подобные ошибки программирования, как правило, легко устранить после их выявления.
Стоит отметить, что подобный стиль программирования становится всё более распространенным явлением для крупномасштабных облачных вычислений; он также используется в TensorFlow при построении и выполнении графов.
### 2.7.4. Будущее платформы
Главная цель Earth Engine — добиться прогресса в решении важнейших задач общества, сделав задачи мониторинга, отслеживания и управления окружающей средой и ресурсами Земли не просто осуществимыми, но и простыми. Для этого необходимо не только обеспечить доступ к огромному количеству данных и вычислительным мощностям, но также упрощать использование всё более изощрённых методов анализа данных. Именно для этого разработчики платформы продолжают эксперименты по [интеграции методов глубокого обучения](https://developers.google.com/earth-engine/tensorflow) и упрощению доступа к другим масштабируемым инфраструктурам, таким как [Google Compute Engine](https://en.wikipedia.org/wiki/Google_Compute_Engine) и [BigQuery](https://cloud.google.com/bigquery).
3. Расширение возможностей платформы
====================================
### 3.1. Конструктор приложений Earth Engine Apps
В 2018 году Google [запустил новый API Earth Engine Apps](https://medium.com/google-earth/share-your-analyses-using-earth-engine-apps-1ac29939903f) для проектирования интерактивных пользовательских интерфейсов для анализа данных через Earth Engine. То есть, ваш готовый код в Earth Engine JavaScrip API можно обернуть в графическое приложение с простыми элементами интерфейса, которое потом могут использовать рядовые пользователи, не взаимодействуя с кодом напрямую.
Приложения, опубликованные в качества Earth Engine Apps, доступны по URL-адресу, созданному во время публикации приложения. **Для просмотра или взаимодействия с опубликованным приложением учётная запись Earth Engine не требуется**. Чтобы оценить возможности Earth Engine Apps, вы можете посмотреть на [галерею избранных приложений](https://www.earthengine.app).
Приложения Earth Engine могут использовать большинство тех же функций, которые применяются в редакторе кода, за некоторыми исключениями. Такие приложения лучше всего подходят для относительно небольших групп пользователей, так как они могут плохо масштабироваться для широкой аудитории. Подобно квоте Earth Engine на пользователя, приложения также имеют квоты использования для одновременных запросов, и производительность будет зависеть от вычислительной интенсивности конкретного приложения. Однако если вы ожидаете широкую аудиторию пользователей вашего приложения, можно обратиться в поддержку Earth Engine и запросить расширенную квоту.

*Earth Engine Apps могут принимать различные формы на основе виджетов, панелей и макетов, выбранных вами из API пользовательского интерфейса.*
### 3.2. Расширение для QGIS
С недавнего времени интеграция с Earth Engine появилась и в [QGIS](https://ru.wikipedia.org/wiki/QGIS) — одной из самых популярных ГИС в мире, которая к тому же является проектом с открытым исходным кодом. Интеграция реализована на основе плагина [QGIS Earth Engine](https://gee-community.github.io/qgis-earthengine-plugin/), который «подключает» Earth Engine к QGIS с помощью Earth Engine Python API. Работа над этим расширением ведётся сторонними разработчиками, не связанными с Google. В настоящий момент плагин активно развивается, но реализует лишь небольшую часть функционала платформы. Однако он имеет очевидные преимущества за счёт вывода данных непосредственно в QGIS.

*Пример интеграции Earth Engine и QGIS на основе стороннего расширения [QGIS Earth Engine](https://gee-community.github.io/qgis-earthengine-plugin/), работающего через Earth Engine Python API.*
4. Примеры проектов на основе Earth Engine
==========================================
Earth Engine используется в самых разных дисциплинах, охватывающих такие темы, как:
* [Глобальное изменение лесов](https://science.sciencemag.org/content/342/6160/850)
* [Глобальное изменение поверхностных вод](https://www.nature.com/articles/nature20584?cacheBust=1509887195761)
* [Оценка урожайности](https://www.sciencedirect.com/science/article/pii/S0034425715001637)
* [Картирование рисовых полей](https://www.sciencedirect.com/science/article/pii/S003442571630044X)
* [Картографирование городских территорий](https://www.mdpi.com/2072-4292/7/9/11887)
* [Картирование наводнений](https://www.tandfonline.com/doi/full/10.1080/01431161.2016.1145366)
* [Оценка восстановления территорий после пожаров](https://www.mdpi.com/2072-4292/8/5/371)
* [Картирование риска малярии](https://malariajournal.biomedcentral.com/articles/10.1186/1475-2875-13-421)
* [Защита ареалов обитания животных](https://advances.sciencemag.org/content/2/4/e1501675)
А вот несколько примеров использования Earth Engine от авторов статьи:
* [COVID-19 Lockdown Cleans Polluted Air in Italy](https://medium.com/geospatial-team/covid-19-lockdown-cleans-polluted-air-in-italy-b1cb8c15352b) — мы использовали платформу Earth Engine для изучения связи между уменьшением загрязнения воздуха и мер, принимаемых правительствами разных стран, из-за пандемии коронавируса. Пока ещё рано говорить о каких-то конкретных закономерностях, но выявление взаимосвязей между благосостоянием человека и характеристиками окружающей среды — очень перспективное направление.

*Интерфейс веб-приложения CompareNO2, основанного на Earth Engine, которое мы разрабатываем в Российском университете дружбы народов. Оно позволит оценивать динамику выбросов диоксида азота в разных регионах мира.*
* [Space-based monitoring capabilities for the evaluation of inland water resources: Application to Nigeria](https://www.scopus.com/inward/record.uri?eid=2-s2.0-85079320614&partnerID=40&md5=2bdc8d35ed976dac92c743122ab6a909) — благодаря анализу огромного количества снимков космической программы Landsat в Earth Engine нам удалось с высоким разрешением оценить, как менялась площадь поверхностных вод Нигерии с 1984 года.
По всему миру разработчики интегрируют платформу Earth Engine в сторонние приложения и геопорталы:
* [Global Forest Watch](https://www.globalforestwatch.org) — портал для интерактивного анализа и оперативного вычисления сводных статистических данных по лесному покрову. Тысячи людей во всем мире используют GFW каждый день для мониторинга и управления лесами, прекращения незаконной вырубки лесов, выявления пожаров, защиты своих земель и ресурсов и обеспечения устойчивого развития.
* [Climate Engine](http://climateengine.org) — портал для обработки спутниковых и климатических данных по запросу через веб-браузер. Он позволяет отображать климатические аномалии, временные ряды и статистические сводки, созранять результаты в формате GeoTIFF или в виде таблиц.
* [Collect Earth](http://www.openforis.org/tools/collect-earth.html) — это основанный на Java инструмент для оценки изменений в землепользовании. Он использует интерфейс Google Earth в сочетании с формой ввода данных на основе HTML. Формы могут быть адаптированы для соответствия схемам классификации по конкретной стране в соответствии с руководящими принципами различных международных организаций.
* [Map of Life](https://www.mol.org) — портал географической информации о биоразнообразии, детально показывающий ареалы обитания различных видов.
5. Справка и обучение
=====================
* [Справочная информация по API Earth Engine](https://developers.google.com/earth-engine/api_docs)
* [Короткие руководства (Guides)](https://developers.google.com/earth-engine) по конкретным прикладным темам от разработчиков
* [Официальные обучающие материалы (Tutorials)](https://developers.google.com/earth-engine/tutorials) от разработчиков
* [Earth Engine resources for higher education](https://developers.google.com/earth-engine/edu) — обучающие материалы от ведущих мировых университетов, среди которых есть и [методические указания на русском языке, разработанные авторами этой статьи](https://developers.google.com/earth-engine/edu#russian-language-materials)
* [earthengine-py-notebooks](https://github.com/giswqs/earthengine-py-notebooks) — репозиторий на GitHub, в котором собрано более 360 «блокнотов» Jupyter Notebooks с образцами использования Earth Engine API на Python
* [EE101 Condensed: Fast start to the Earth Engine API](https://youtu.be/m1ejxSi3l8s) — этот семинар, проведённый Ноэлем Гореликом, одним из разработчиков платформы, быстро познакомит вас Earth Engine API
6. Поддержка
============
### 6.1. Сообщество пользователей
* Конкретные технические вопросы задаются на [GIS Stack Exchange](https://gis.stackexchange.com/questions/tagged/google-earth-engine) (тег «google-earth-engine»). Там довольно активные пользователи. Мы заметили также, что на вопросы часто отвечают сами разработчики Earth Engine.
* Вопросы общего характера для обсуждений (например, о дистанционном зондировании или какой-то методологии), задаются на [форуме разработчиков Earth Engine](https://groups.google.com/forum/#!forum/google-earth-engine-developers).
### 6.2. Связь с разработчиками
### 6.2.1. Сообщения об ошибках редактора кода
Любой отзыв по проблемам с отображением интерфейса и функциональностью редактора кода отправляется через кнопку Feedback→**Send Code Editor feedback**. Появится окно, позволяющее вам описать проблему. Также можно будет сделать скриншот, чтобы выделить место возникновения ошибки.

*Все запросы на исправление ошибок API (ошибки скрипта или выдача неверных результатов), добавление новых данных или улучшение платформы осуществляются через IssueTracker — cистему отслеживания задач и ошибок.*
### 6.2.2. Сообщения об ошибках API
1. Сначала ищите свою ошибку в [списке багов](https://issuetracker.google.com/issues?q=componentid:184406&type:bug) — возможно, кто-то уже о ней сообщил.
2. Если это так, то поставьте «звёздочку» напротив ошибки: это повысит её ранг. Откройте её и напишите, как она влияет на ваш рабочий процесс. Ваш отзыв поможет разработчикам быстрее её исправить.
3. В случае, если соответствующая ошибка не существует в списке, добавьте новую.
Обратите внимание, что код, архитектура и принципы работы Earth Engine API могут измениться со временем, что приведет к новому поведению или ошибкам, которые не проявлялись ранее в одном и том же скрипте.
### 6.2.3. Запросы на добавление новых наборов данных
Как уже отмечалось выше, каталог данных Earth Engine регулярно пополняется данными по предложениям пользователей. Порядок предложения данных следующий:
1. Сначала поищите искомые данные в [списке существующих запросов на добавление](https://issuetracker.google.com/issues?q=componentid:184426%2B%20status:open).
2. Если вы найдёте соответствующий запрос данных в списке, то отметьте его проставлением «звёздочки», после чего откройте его и добавьте комментарий о том, как этот набор данных будет полезен в вашей работе.
3. Если запроса на искомые данные ещё нет, то создайте новый.
Важно отметить, что итоговое решение о добавлении нового источника данных является опциональным и принимается разработчиками.
### 6.2.4. Запросы новых возможностей редактора кода и API
1. Поищите среди [существующих запросов новых возможностей](https://issuetracker.google.com/issues?q=componentid:184406).
2. Если такой запрос уже есть, то отметьте его «звёздочкой» и добавить к нему свой комментарий.
3. Если такого запроса нет, то создайте новый, детально описав, что вы хотите.
Важно отметить, что итоговое решение о добавлении нового функционала также является опциональным и принимается разработчиками.
7. Альтернативы Earth Engine
============================
Учитывая уникальность и масштабы платформы Earth Engine, о равносильных альтернативах говорить пока сложно. Однако есть ряд схожих по сути платформ, переносящих обработку спутниковых изображений в облако и предоставляющих доступ к большому архиву данных дистанционного зондирования.
Например, [Sentinel Hub](https://www.sentinel-hub.com/) с примечательным функционалом [Sentinel Playground](https://www.sentinel-hub.com/explore/sentinel-playground), позволяет отображать маршруты Sentinel-2 на выбранную дату на интерактивной web-карте, а также осуществлять «на лету» операции растровой алгебры со спектральными каналами изображений.
Кроме того Европейская комиссия в 2017 году запустила инициативу по развёртыванию пяти облачных платформ для облегчения и стандартизации доступа к своим спутниковым данным. Эти платформы обеспечивают централизованный доступ к спутниковой информации [программы Copernicus](https://www.copernicus.eu/en), а также к инструментам обработки данных. Они известны под общим названием [DIAS (Data and Information Access Service — службы доступа к данным и информации)](https://www.copernicus.eu/en/access-data/dias):
1. [ONDA DIAS](https://www.onda-dias.eu/cms/)
2. [CREODIAS](https://creodias.eu)
3. [Mundi](https://mundiwebservices.com)
4. [Sobloo](https://sobloo.eu)
5. [Wekeo](https://www.wekeo.eu)
Все они основаны, что очевидно, на данных Европейского космичекого агентства. По количеству наборов данных они не сравнимы с каталогом Earth Engine, в котором также есть изображения с европейских спутников. Однако ориентированность под конкретную программу Copernicus даёт больше возможностей по использованию этой информации, включая специализированное программное обеспечение и доступ к разным уровням обработки спутниковых снимков. Следует также отметить коммерческую направленность всех указанных выше платформ, что сильно отличает их от Earth Engine.
8. Итог
=======
Мониторинг, управление и защита окружающей среды являются важнейшими и сложнейшими задачами, стоящими перед человечеством, а эффективный анализ данных является ключом к их решению. Активное развитие геоинформационных систем и дистанционного зондирования Земли привело к накоплению большого объёма структурированной информации. Вместе со значительным прогрессом в сфере облачных вычислений это создало условия для появления облачных платформ обработки больших геоданных, самая известная из которых на сегодняшний момент — Google Earth Engine. Она объединяет петабайты спутниковых изображений и наборов геопространственных данных в одном каталоге, предоставляя возможности для их анализа в планетарном масштабе. При этом сама платформа является открытой и бесплатной для некоммерческого использования.
При этом облачные инструменты бросают исследователям и новые вызовы по разработке принципиально новых подходов для создания попиксельных мозаик, классификации обширных территорий, выявления трендов в глубоких стеках геоданных. Также возникает необходимость в оптимизации традиционных алгоритмов и подходов под использование в новой парадигме.
С уверенностью можно утверждать одно: появление платформ для обработки больших геоданных, подобных Google Earth Engine, позволяет решать геоинформационные задачи принципиально нового уровня сложности, недоступного ранее.
*Этот материал подготовлен преподавателями Инженерной академии Российского университета дружбы народов [Василием Лобановым](http://www.linkedin.com/in/lobanov-v) и [Ярославом Васюниным](https://www.linkedin.com/in/vasyunin/).* | https://habr.com/ru/post/500020/ | null | ru | null |
# Создание Cocos2D-x проекта в Marmalade SDK

Некоторое время назад RIM совместно с Marmalade проводили [акцию](http://habrahabr.ru/post/151882/) по которой и мне удалось получить планшет Blackberry Playbook. По условиям акции в течение полугода с момента регистрации необходимо разработать и загрузить в Blackberry App World игру сделанную при помощи Marmlade SDK. После изучения в сети некоторого количества материала об этом SDK я наткнулся на записи о том что есть возможность использовать Cocos2D-x, что возможно сократило бы мне время на разработку(хотя я не имею опыта работы ни с Marmalade ни с Cocos2D-x). Далее я скачал последний релиз Cocos2D-x и не обнаружил в нём никаких следов возможности взаимодействия с Marmalade SDK.
Как оказалось, раньше ветку порта Cocos2D-x на Marmalade вёл [Francis Styck](http://www.cocos2d-x.org/users/252) и в ранних версиях были примеры создания Marmalade проекта, но он наткнулся на некие сложности и работа по портированию замедлилась. Затем за работу взялись ребята из Marmalade и на данный момент на гитхабе Cocos2D-x висит их [pull request](https://github.com/cocos2d/cocos2d-x/pull/1481), который должен войти в следующий релиз. Но тем не менее рабочую версию Cocos2D-x с поддержкой Marmalade можно скачать [отсюда](https://github.com/mrmop/cocos2d-x).
Нигде в сети мне не удалось найти руководства о том как запустить cocos2d-x на Marmalade, поэтому я решил написать своё, т.к. довольно часто натыкался на вопросы как это сделать от других участников акции.
Если у вас ещё не установлен Marmalade SDK, то вам стоит это сделать пройдя по [ссылке](https://www.madewithmarmalade.com/downloads) для скачивания и установки нужной версии.
Итак, после установки Marmalade SDK скачиваем версию cocos2d-x из [этого репозитория](https://github.com/mrmop/cocos2d-x). Если конечно к моменту прочтения вами этой статьи примеры для Marmalade не были добавлены в основную ветку.
Далее вы можете зайти в папку *samples\HelloCpp\proj.marmalade* и запустить файл **HelloCPP.mkb** — он выполнит все нужные действия и запустит IDE которую вы указали при установке Marmalade с открытым проектом HelloCpp. Но как быть если вы хотите создать свой, новый проект? Для этого вам нужно вручную перенести нужные библиотеки и отредактировать файл **HelloCPP.mkb**.
Я создал новую директорию и назвал её Cocos2D-x. В эту директорию из скачанного репозитория cocos2d-x нужно скопировать 2 папки — *cocos2dx* и *extensions*, попутно удалив из них всех папки с префиксом *proj* кроме *proj.marmalade*. Теперь здесь же создаём папку для нашего проекта, например m\_test. В нашу папку m\_test копируем папки *Classes* и *Resources* из *samples\HelloCpp*, а также папку *src* из *samples\HelloCpp\proj.marmalade*. Тут же создаём файл **m\_test.mkb** со следующим содержанием:
```
options
{
#Папка для поиска субпроектов
module_path="../cocos2dx/proj.marmalade/"
#Папка из которой эмулятор берёт ресурсы игры
s3e-data-dir = "Resources/iphone"
}
includepaths
{
Classes
}
subprojects
{
IwGL
cocos2dx
}
assets
{
#Папка из которой реальное устройство берёт ресурсы игры
(Resources/iphone)
CloseNormal.png
CloseSelected.png
HelloWorld.png
}
files
{
[Main]
(src)
Main.h
Main.cpp
(Classes)
AppDelegate.h
AppDelegate.cpp
HelloWorldScene.h
HelloWorldScene.cpp
AppMacros.h
}
```
Сохраняем и запускаем файл. Откроется наш новый проект, открываем файл **AppMacros.h** и в 9ой строке меняем kDesignResolution\_2048x1536 на kDesignResolution\_480x320. Далее открываем app.icf и ищем там эти строки:
```
WinWidth=480
WinHeight=320
```
В обычных условиях эти строки задают размер окна эмулятора, но у меня почему-то считывался только первый параметр и присваивался и как ширина, и как высота, так что если у вас будет аналогичная проблема, то просто удалите эти строки, а размеры окна эмулятора укажите в самом эмуляторе в меню Configuration->Surface.
Компилируем под x86 и наслаждаемся результатом.

Какую-либо дополнительную информацию по параметрам mkb файла и по Marmalade вообще можно получить из документации поставляемой вместе с сдк, её можно открыть через Marmalade LaunchPad или просто из папки *docs* в директории с установленным SDK.
Буду признателен, если кто-нибудь знает способ создать cocos2D-x проект проще. | https://habr.com/ru/post/157599/ | null | ru | null |
# Перестаньте использовать SQLite в Unit-тестах
Предисловие от переводчикаНесмотря на то, что статья была написана почти 3 года назад, она абсолютно не потеряла актуальности. SQLite по прежнему не поддерживает часть базовых функций старших СУБД (MySQL, PostgeSQL).
Автор оригинальной статьи использует термин "Unit-тесты". В переводе эта терминология была сохранена. Уверен что для многих, Unit-тесты не должны обращаться к БД, но думаю что более корректно воспринимать этот термин, как любые тесты, использующие базу данных
Также не стоит воспринимать статью как критику SQLite и попытку доказать что MySQL/PostgeSQL лучше. У каждой из этих СУБД есть своя сфера применения. Суть статьи - исполнение тестов в том же окружении, что и production
**TLDR;** Использование Sqlite в Laravel (или любых других PHP приложениях) для Unit-тестирования может привести к false positive результатам тестов. Тот код который пройдет тесты, не заработает после переезда в production и использования других БД, например, MySQL. Вместо этого разверните тестовую БД с использованием той же технологии и движка, которые будут использоваться вашим приложением в production.
Во-первых, позвольте мне начать с того, что я очень рад видеть, что вы проводите Unit-тестирование — вы на верном пути! Laravel познакомил многих разработчиков с миром Unit-тестирования, сделав утилиты для тестирования первоклассной частью фреймворка. Это круто! Но нам нужно убедиться, что наше чувство безопасности, которое мы получаем от наших Unit-тестов, верно.
Один из механизмов, которые Laravel предлагает для Unit-тестов, основан на использовании базы данных SQLite. Для ускорения выполнения тестов, база данных запускается непосредственно в оперативной памяти. Такое решение работает в 95% случаев. Но, дьявол кроется в деталях, в этих 5%.
Поговорим о причинах, почему это не лучший выбор. Для этой настройки я использую совершенно новое приложение Laravel 6 (v6.4.1) и SQLite для MacOS (v3.29.0). Я настроил PHPUnit, добавив следующую строку в ключ файла phpunit.xml:
В файле `config/database.php` используется следующая конфигурация:
```
'testing' => [
'driver' => 'sqlite',
'database' => ':memory:',
'foreign_key_constraints' => env('DB_FOREIGN_KEYS', true),
],
```
Проблема 1: типизация
---------------------
Безопасность типов или точность типов очень важны. Разработчики PHP (и других языков, таких как Javascript, где есть приведение типов) могут почувствовать ложное спокойствие, потому что `6`, почти то же самое что и `"6"`? Однако это становится проблемой, если учесть, что `4,5` не должно равняться `4`.
Одно дело - равенство, но совсем другое - целостность данных. В примере ниже я хочу хранить информацию об автомобилях. Я хочу знать, удобно ли попасть в выбранный автомобиль. Очевидно, что в 2-дверные машины сесть труднее, чем в 4-дверные. Давайте посмотрим на модель:
```
php
namespace App\Models;
use Illuminate\Database\Eloquent\Model;
class Car
{
public function isEasyToGetInto(): bool
{
return $this-doors > 2;
}
}
```
А также на миграцию этой модели:
```
php
use Illuminate\Database\Migrations\Migration;
use Illuminate\Database\Schema\Blueprint;
use Illuminate\Support\Facades\Schema;
class CreateCarsTable extends Migration
{
public function up()
{
Schema::create('cars', function (Blueprint $table) {
$table-bigIncrements('id');
$table->tinyInteger('doors');
$table->timestamps();
});
}
}
```
В конце, наш тест, который выполнится **успешно**.
```
php
namespace Tests\Unit;
use App\Models\Car;
use Illuminate\Foundation\Testing\RefreshDatabase;
use Tests\TestCase;
class MyTest extends TestCase
{
use RefreshDatabase;
public function testEasyToGetInto(): void
{
$userInput = 4.5;
$car = Car::create([
'doors' = $userInput
]);
$this->assertTrue($car->isEasyToGetInto());
}
```
Ура - тест пройден! Но у нас есть одна проблема. Если вы обратите внимание на переменную `$userInput`, вы заметите, что тип переменной - `float`. Поле `doors` в БД имеет тип `tiny integer` - таким образом мы получаем ошибку типов. SQLite позволяет нам вставлять данные, даже если они имеют неподходящий тип.
Для проверки, вот описание нашей SQLite таблицы:
```
select sql from sqlite_master where name='cars';
CREATE TABLE "cars" (
"id" integer not null primary key autoincrement,
"doors" integer not null,
"created_at" datetime null,
"updated_at" datetime null
)
```
Если мы посмотрим на dump недавно созданной модели, мы увидим следующее:
```
#original: array:4 [
"doors" => 4.5
"updated_at" => "2019-11-01 20:34:09"
"created_at" => "2019-11-01 20:34:09"
"id" => 1
]
```
Вы можете подумать: "Это не такая большая проблема, так как четко видно, что переменная задана неверно". Но, помните о том, что это очень упрощенный пример. Пользовательский ввод может быть результатом математических вычислений, которые вернут `float`, в то время когда вы ожидаете `integer`.
Далее, вы скорее всего будете использовать MySQL в production. В таком случае, на production, всё произойдет не так, как в вашем тесте. Когда вы вытащите данные обратно из БД или создадите новую модель, вы получите значение с типом `int` (то что и было сохранено).
```
#original: array:4 [
"id" => 1
"doors" => 4
"created_at" => "2019-11-01 20:38:37"
"updated_at" => "2019-11-01 20:38:37"
]
```
Нарушение целостности данных может вызвать множество проблем (как минимум, `$userInput` более не равен `$car->doors`)
Проблема 2: Длина строк
-----------------------
Длина строки, указанная при создании поля, игнорируется SQLite. Позвольте мне показать пример того, что может произойти с вашим приложением.
Для начала, наша миграция создает поле `trim` с длиной 3 символа:
```
php
use Illuminate\Database\Migrations\Migration;
use Illuminate\Database\Schema\Blueprint;
use Illuminate\Support\Facades\Schema;
class CreateCarsTable extends Migration
{
public function up()
{
Schema::create('cars', function (Blueprint $table) {
$table-bigIncrements('id');
$table->string('trim', 3);
$table->timestamps();
});
}
}
```
Модель выглядит как-то так:
```
php
namespace App\Models;
use Illuminate\Database\Eloquent\Model;
class Car extends Model
{
public const TRIM_XLT = 'XLT';
public const TRIM_SE = 'SE';
public const TRIMS = [
self::TRIM_SE,
self::TRIM_XLT,
];
}</code
```
В константе `Car::TRIMS` хранится список возможных комплектаций автомобиля. Далее, мы хотим расширить нашу линейку автомобилей и добавить `Sport` в качестве премиум комплектации. Также нам необходимо протестировать, имеет ли автомобиль премиальную комплектацию. Давайте изменим модель:
```
php
namespace App\Models;
use Illuminate\Database\Eloquent\Model;
class Car extends Model
{
public const TRIM_XLT = 'XLT';
public const TRIM_SE = 'SE';
public const TRIM_SPORT = 'Sport';
public const TRIMS = [
self::TRIM_SE,
self::TRIM_XLT,
self::TRIM_SPORT,
];
public function isPremiumTrim(): bool
{
return $this-trim === self::TRIM_SPORT;
}
}
```
Напишем небольшой тест
```
php
namespace Tests\Unit;
use App\Models\Car;
use Illuminate\Foundation\Testing\RefreshDatabase;
use Tests\TestCase;
class MyTest extends TestCase
{
use RefreshDatabase;
/**
* @dataProvider premiumProvider
*/
public function testIsPremium($trim, $expected): void
{
$car = Car::create([
'trim' = $trim
]);
$this->assertSame($expected, $car->isPremiumTrim());
}
public function premiumProvider(): array
{
return [
[Car::TRIM_SE, false],
[Car::TRIM_XLT, false],
[Car::TRIM_SPORT, true],
];
}
}
```
Запуска этого теста с SQLite не покажет ничего, кроме зеленой галочки. Каждый тест пройдет успешно. В таком случае, можем ли мы спокойно добавлять новую комплектацию в production? **Нет, не можем!**
Что произойдет, когда мы вставим значение `Sport` в поле `trim` в нашей БД, при использовании MySQL? Так как поле имеет длину только 3 символа, мы получим ошибку: `String data, right truncated: 1406 Data too long for column 'trim' at row 1.`
Проблема 3: Внешние ключи
-------------------------
Ранее SQLite совсем не поддерживал внешние ключи (foreign keys). Старички помнят это и из-за этого сразу отказываются от SQLite. На самом деле, этот недостаток уже устранен!
Тем не менее, есть несколько вещей, которые следует помнить. SQLite может быть скомпилирован без поддержки внешних ключей или они могут быть отключены. К счастью, самые последние версии SQLite сконфигурированы должным образом и поддерживают эту функцию.
Но давайте рассмотрим сценарий, который приведет к сбою. Представьте, что ваш SQLite настроен так, чтобы не использовать внешние ключи (и давайте будем честными, сколько раз вы проверяли, настроен ли он таким образом? … да, я тоже...)
Наша миграция:
```
php
use Illuminate\Database\Migrations\Migration;
use Illuminate\Database\Schema\Blueprint;
use Illuminate\Support\Facades\Schema;
class BlogTestSetup extends Migration
{
public function up()
{
Schema::create('makes', function (Blueprint $table) {
$table-bigIncrements('id');
$table->string('name', 128);
$table->timestamps();
});
Schema::create('cars', function (Blueprint $table) {
$table->bigIncrements('id');
$table->unsignedBigInteger('make_id');
$table->foreign('make_id')->references('id')->on('makes');
$table->string('model_name', 128);
$table->timestamps();
});
}
}
```
И наш тест:
```
php
namespace Tests\Unit;
use App\Models\Car;
use App\Models\Make;
use Illuminate\Foundation\Testing\RefreshDatabase;
use Tests\TestCase;
class MyTest extends TestCase
{
use RefreshDatabase;
public function testSomethingContrived(): void
{
$make = Make::create([
'name' = 'Ford'
]);
//$makeId = $make->id;
$makeId = 44; // here is our mistake
$this->assertNotNull(Car::create([
'make_id' => $makeId,
'model_name' => 'Pinto',
]));
}
}
```
Если вы запустите этот тест с отключенными внешними ключами - он пройдет успешно. Совершенно очевидно, что так быть не должно.
Для исправления этой проблемы вам нужна новая версия SQLite. Если вы вынужденны поддерживать старые проекты, то вы можете включить их, выполнив
`PRAGMA foreign_keys=on.`
Есть и хорошие новости: отключение проверок внешних ключей доступно с помощью `Schema::disableForeignKeyConstraints()`.
Проблема 4: специфические запросы
---------------------------------
Eloquent - отличная ORM, но есть некоторые вещи которые он просто не поддерживает. Это могут быть выражения, уникальные только для одной СУБД или они слишком редки или сложны для имплементации в ORM коде. В иных случаях это могут быть запросы, которые вы **можете** выполнить с помощью Eloquent или Query Builder, но они будут не так эффективны. В таких ситуациях лучше написать "сырое" SQL-выражение.
Если вы видите в своем коде `DB::raw()` - это знак того, что у вас, скорее всего, будут проблемы с БД, отличающейся от используемой в production.
Я видел разработчиков, которые просто не тестировали данные участки кода. Я бы поспорил с данным решением, потому что этот код, наверняка, самый важный, так как он уникален и нестандартен. Вы можете продолжать писать тесты, но ваши инструменты тестирования должны использовать тот же движок БД, чтобы точно отражать реальную картину.
Это совсем другое окружение
---------------------------
ORM, такие как Eloquent, позволяют нам заменять базы данных, но это требуется не так часто. Мы редко перемещаем приложение на другой движок БД, без каких-либо изменений структуры или существенного переписывания кода. Вы можете сменить фреймворк, но, скорее всего, вы останетесь на той же БД (например, MySQL).
Но когда дело доходит до тестов, которые должны быть механизмом страховки и наиболее точным кодом, должны ли мы забыть о специфичности каждой БД? **Конечно нет!**
Использование SQLite для тестов, если вы не используете его на production — это совсем другое окружение:
* Скорость разная. (использование MySQL по сравнению с SQLite не намного медленнее при выполнении ваших Unit-тестов)
* Стиль подключения отличается (если вы когда-либо сражались с `localhost` и `127.0.0.1` в MySQL, представьте, что тогда использование совершенно другого движка БД - еще большая сложность).
И, скорее всего, вы уже настроили одну базу данных, похожую на `production`для своей разработки.
Если вы используете что-то вроде Valet, настройка очень проста. Просто откройте phpMyAdmin и создайте еще одну БД. **Готово!**. А Homestead? Просто — просто добавьте еще одну строку в ключ `databases` файла `Homestead.yaml`. Используете Docker Compose? Просто продублируйте свой контейнер MySQL и измените имя контейнера.
Для профессионального разработчика не должно быть никаких оправданий.
Заключение
----------
Помимо того что я показал и рассказал, имеется несколько других вещей, которые SQLite не поддерживает или поддерживает в своеобразном стиле.
Вы можете проверить список [SQL Features That SQLite Does Not Implement](https://www.sqlite.org/omitted.html) или получить больше информации на странице ["причуды" SQLite](https://www.sqlite.org/quirks.html) на официальном сайте с документацией SQLite.
Просто найдите несколько минут для настройки идентичной БД для тестирование. Это не настолько медленно, а также поможет вашим тестам быть более точными.
Дополнение от переводчика
-------------------------
Также автором не было упомянуто отличие в работе миграций на SQLite. Некоторые операции не могут быть выполнены в SQLite по причине отсутствия данных feature, таких как:
* удаление/изменение foreign key (возможно только при помощи удаления всей таблицы и создания её заново)
* создание полнотекстовых индексов
* удаление нескольких колонок в таблице одним запросом
Использование MySQL для тестов
------------------------------
В случае использования окружения [Laravel Sail](https://laravel.com/docs/9.x/sail) для локальной разработки, для использования MySQL при запуске тестов необходимо:
Создать файл .env.testing:
```
APP_KEY=base64:Ivsght96azGOdwVzOjwPZMY3BrlFrgzUiKPq4eOlJCM=
CACHE_DRIVER=array
MAIL_MAILER=array
QUEUE_CONNECTION=sync
SESSION_DRIVER=array
TELESCOPE_ENABLED=false
# ENV-переменные используемые Laravel для подключения к БД
DB_HOST=mysql-autotest
DB_DATABASE=db
DB_USERNAME=root
DB_PASSWORD=password
# ENV-переменные используемые при старте MySQL (MariaDB)
# для создания пользователей и БД
MARIADB_ROOT_PASSWORD=${DB_PASSWORD}
MARIADB_DATABASE=${DB_DATABASE}
MARIADB_PASSWORD=${DB_PASSWORD}
MARIADB_USER=db
MARIADB_ROOT_HOST='%'
MYSQL_ALLOW_EMPTY_PASSWORD=yes
```
В phpunit.xml указать используемое окружение:
```
...
...
```
Добавить Docker-контейнер с тестовой БД:
```
...
mysql-autotest:
image: mariadb:10.8.2
env_file:
- .env.testing
networks:
- sail
...
```
Запуск тестов в Gitlab CI с использованием MySQL:
```
phpunit:
stage: test
script:
- php artisan test
variables:
MYSQL_DATABASE: db
MYSQL_ROOT_PASSWORD: password
services:
- name: mariadb:10.8.2
alias: mysql-autotest
``` | https://habr.com/ru/post/691838/ | null | ru | null |
# Изучаем ELK. Часть II — Установка Kibana и Logstash
Вступительное слово
-------------------
В [предыдущей статье](https://habr.com/ru/post/538840/) была описана процедура установки Elasticsearch и настройка кластера. В этой статье будет рассмотрена процедура установки Kibana и Logstash, а также их настройка для работы с кластером Elasticsearch.
План действий
-------------
1. [Скачиваем и устанавливаем Kibana.](#kibana_install)
2. [Настраиваем Kibana для работы с кластером Elasticsearch.](#kibana_setup)
3. [Настраиваем балансировку нагрузки между Kibana и Elasticsearch.](#kibana_nlb)
4. [Настраиваем несколько экземпляров Kibana.](#milti_inst_kibana)
5. [Скачиваем и устанавливаем Logstash.](#logstash_install)
6. [Настраиваем Logstash для чтения данных из файла.](#logstash_read_file)
7. [Смотрим полученные данные в Kibana.](#kibana_check)
Скачиваем и устанавливаем Kibana
--------------------------------
#### Установка из Deb пакета
* Импортируем PGP ключ:
```
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
```
* Устанавливаем `apt-transport-https` пакет:
```
sudo apt-get install apt-transport-https
```
* Перед установкой пакета необходимо добавить репозиторий Elastic:
```
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list
```
* Устанавливаем Kibana:
```
sudo apt-get update && sudo apt-get install kibana
```
* Настраиваем Kibana для автоматического запуска при старте системы:
```
sudo /bin/systemctl daemon-reload && sudo /bin/systemctl enable kibana.service
```
> Так же возможен вариант установки из скаченного `Deb` пакет с помощью `dpkg`
>
>
```
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.10.2-amd64.deb
sudo dpkg -i kibana-7.10.2-amd64.deb
```
#### Установка из RPM пакета
* Импортируем PGP ключ
```
sudo rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
```
* В директории `/etc/yum.repos.d/` создаем файл репозитория `kibana.repo` для CentOS или Red Hat. Для дистрибутива OpenSUSE в директории `/etc/zypp/repos.d/`:
```
[kibana-7.x]
name=Kibana repository for 7.x packages
baseurl=https://artifacts.elastic.co/packages/7.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
```
* Устанавливаем Kibana c помощью пакетного менеджера в зависимости от операционной системы, `yum` или `dnf` для CentOS, Red Hat, Fedora или `zypper` для OpenSUSE:
```
# Yum
sudo yum install kibana
# Dnf
sudo dnf install kibana
# Zypper
sudo zypper install kibana
```
* Настраиваем Kibana для автоматического запуска при старте системы:
```
sudo /bin/systemctl daemon-reload && sudo /bin/systemctl enable kibana.service
```
> Так же возможен вариант установки из скаченного `RPM` пакет с помощью `rpm`
>
>
```
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.10.2-x86_64.rpm
sudo rpm --install kibana-7.10.2-x86_64.rpm
```
#### Установка из архива tar.gz
* Скачиваем архив c Kibana:
```
curl -O https://artifacts.elastic.co/downloads/kibana/kibana-7.10.2-linux-x86_64.tar.gz
```
* Извлекаем данные и переходим в директорию с Kibana:
```
tar -xzf kibana-7.10.2-linux-x86_64.tar.gz
cd kibana-7.10.2-linux-x86_64/
```
Текущий каталог считается как `$KIBANA_HOME`.
Конфигурационные файлы находятся в каталоге `$KIBANA_HOME/config/`.
> Для запуска Kibana можно создать отдельного пользователя предоставив все необходимые права к каталогу с Kibana.
>
>
Настраиваем Kibana для работы с кластером Elasticsearch
-------------------------------------------------------
Для настройки Kibana используется YAML файл, который лежит по следующему пути `/etc/kibana/kibana.yml` при установке из `Deb` и `RPM` пакетов или `$KIBANA_HOME/config/kibana.yml` при установке из архива.
* Определяем адрес и порт, на которых будет работать Kibana (по умолчанию `localhost:5601`):
```
server.host: 10.0.3.1
server.port: 5601
```
* Указываем узлы кластера Elasticsearch:
```
elasticsearch.hosts:
- http://10.0.3.11:9200
- http://10.0.3.12:9200
- http://10.0.3.13:9200
```
> В случае недоступности узла, с которым Kibana установила соединение, произойдет переключение на другой узел кластера, указанный в конфигурационном файле.
>
>
* Указываем, где Kibana будет хранить свои логи (по умолчанию `stdout`):
```
logging.dest: /var/log/kibana/kibana.log
```
> Необходимо предоставить доступ на запись к данному каталогу, чтобы Kibana писала логи. В случае установки из пакетов `Dep` или `RPM` доступ предоставляется пользователю или группе `kibana`, а для установки из архива - пользователю, который осуществляет запуск Kibana.
>
>
* Настраиваем частоту опроса Elasticsearch для получения обновлённого списка узлов кластера:
```
elasticsearch.sniffInterval: 600000
```
* Определяем, запрашивать ли обновленный список узлов кластера Elasticsearch в случае сбоя соединения с кластером:
```
elasticsearch.sniffOnConnectionFault: true
```
> В работе опции `elasticsearch.sniffInterval` обнаружился "баг", при работе с Elasticsearch. После запроса обновления может возникать ошибка:
>
> *"statusCode":401,"error":"Unauthorized","message":"missing authentication credentials for REST request: security\_exception.*
>
> [Ссылка](https://github.com/elastic/kibana/pull/91276) на BugFix. Исправление будет в версии 7.11.2
>
>
На выходе получаем конфигурационный файл:
```
# Адрес и порт
server.host: 10.0.3.1
server.port: 5601
# Узлы кластера Elasticsearch
elasticsearch.hosts:
- http://10.0.3.11:9200
- http://10.0.3.12:9200
- http://10.0.3.13:9200
# Частота запросов обновления узлов кластера
# Запрос обновлений в случае сбоя подключения
elasticsearch.sniffInterval: 60000
elasticsearch.sniffOnConnectionFault: true
# Логи Kibana
logging.dest: /var/log/kibana/kibana.log
```
> По умолчанию Kibana имеет ограничение на использование памяти в размере 1,4 Гб. Для изменения этого значения необходимо в файле `node.options` указать новые значения для параметра `--max-old-space-size`. Значения указываются в мегабайтах.
>
> Данный файл находится в каталоге `/etc/kibana/` при установке из `Deb` и `RPM` пакетов или `$KIBANA_HOME/config/` - при установке из архива
>
>
* Запускаем службу `kibana`:
```
sudo systemctl start kibana.service
```
Для установки из архива используем:
```
$KIBANA_HOME/bin/kibana
```
> Для выключения службы запущенной из архива используйте `Ctrl-C`.
>
>
В браузере набираем IP адрес и порт (в примере выше это `http://10.0.3.1:5601`), который указывали в конфигурации Kibana. В результате должна открыться приветственная страница.
Приветственная страница KibanaНастраиваем балансировку нагрузки между Kibana и Elasticsearch
--------------------------------------------------------------
Для организации балансировки между Kibana и узлами Elastcisearch в Elastcisearch имеется встроенный механизм. На хост c установленной Kibana, ставится Elasticsearch с ролью `Coordinating only`. Узел Elasticsearch с данной ролью обрабатывает HTTP запросы и распределяет их между узлами кластера.
#### Установка и настройка Elasticsearch
* Устанавливаем Elasticseach на узел с Kibana. Как это сделать описано в [предыдущей статье](https://habr.com/ru/post/538840/).
* Настраиваем новому узлу роль `Coordinating only`. Для этого для ролей `master`, `data` и `ingest` указываем параметр `false`:
```
node.master: false
node.data: false
node.ingest: false
```
> [ingest роль](https://www.elastic.co/guide/en/elasticsearch/reference/current/ingest.html#ingest) позволяет построить конвейер дополнительной обработки данных до их индексирования. Выделения отдельных узлов с этой ролью снижает нагрузку на другие узлы. Узел с ролью `master` и/или `data` не имеют эту роль по умолчанию.
>
>
* Указываем имя Elasticsearch кластера:
```
cluster.name: es_cluster # Имя кластера
```
* Указываем адреса узлов текущего кластера. Для этого создадим файл `unicast_hosts.txt` с перечнем узлов в директории с конфигурационными файлами Elasticsearch. Для установки из `Deb` и `RPM` пакетов это `/etc/elasticsearch/` или `$ES_HOME/config`/ при установке из архива:
```
# Список узлов кластера
10.0.3.11
10.0.3.12
10.0.3.13
```
* Указываем, что адреса узлов кластера нужно брать из файла:
```
discovery.seed_providers: file
```
> Данный метод имеет преимущество над методом из предыдущей статьи (`discovery.seed_hosts`). Elasticsearch следит за изменением файла и применяет настройки автоматически без перезагрузки узла.
>
>
* Настраиваем IP адрес и порт для приема запросов от Kibana (`network.host` и `http.port`) и для коммуникации с другими узлами кластера Elasticsearch`(transport.host` и `transport.tcp.port`). По умолчанию параметр `transport.host` равен `network.host`:
```
network.host: 10.0.3.1 # Адрес узла
http.port: 9200 # Порт
transport.host: 10.0.3.1 # Адрес для связи с кластером
transport.tcp.port: 9300-9400 # Порты для коммуникации внутри кластера
```
Итоговый конфигурационный файл:
```
# ------------------------------------ Node ------------------------------------
# Имя узла
node.name: es-nlb01
# Указываем роль Coordinating only
node.master: false
node.data: false
node.ingest: false
#
# ---------------------------------- Cluster -----------------------------------
#
cluster.name: es_cluster # Имя кластера
#
# --------------------------------- Discovery ----------------------------------
discovery.seed_providers: file
#
# ---------------------------------- Network -----------------------------------
#
network.host: 10.0.3.1 # Адрес узла
http.port: 9200 # Порт
transport.host: 10.0.3.1 # Адрес для связи с кластером
transport.tcp.port: 9300-9400 # Порты для коммуникации внутри кластера
#
# ----------------------------------- Paths ------------------------------------
#
path.data: /var/lib/elasticsearch # Директория с данными
path.logs: /var/log/elasticsearch # Директория с логами
```
* Запускаем Elasticsearch и проверяем, что узел присоединился к кластеру:
```
curl -X GET "http://10.0.3.1:9200/_cluster/health?pretty"
{
"cluster_name" : "es_cluster",
"status" : "green",
"timed_out" : false,
"number_of_nodes" : 4,
"number_of_data_nodes" : 3,
"active_primary_shards" : 6,
"active_shards" : 12,
"relocating_shards" : 0,
"initializing_shards" : 0,
"unassigned_shards" : 0,
"delayed_unassigned_shards" : 0,
"number_of_pending_tasks" : 0,
"number_of_in_flight_fetch" : 0,
"task_max_waiting_in_queue_millis" : 0,
"active_shards_percent_as_number" : 100.0
}
```
Теперь в кластере 4 узла, из них 3 с ролью `data`.
#### Настраиваем Kibana
* В конфигурации Kibana указываем адрес `Coordinating only` узла:
```
elasticsearch.hosts:
- http://10.0.3.1:9200
```
* Перезапускаем Kibana и проверяем, что служба запустилась, а UI Kibana открывается в браузере.
Настраиваем несколько экземпляров Kibana
----------------------------------------
Чтобы организовать работу нескольких экземпляров Kibana, размещаем их за балансировщиком нагрузки. Для каждого экземпляра Kibana необходимо:
* Настроить уникальное имя:
+ `server.name` уникальное имя экземпляра. По умолчанию имя узла.
> В документации к Kibana указана необходимость настройки `server.uuid`, однако, в [списке](https://www.elastic.co/guide/en/kibana/7.10/settings.html) параметров конфигурации данный параметр отсутствует. На практике `uuid` генерируется автоматически и хранится в директории, в которой Kibana хранит свои данные. Данная директория определяется параметром `path.data`. По умолчанию для установки из `Deb` и `RPM` пакетов это `/var/lib/kibana/` или `$KIBANA_HOME/data/` для установки из архива.
>
>
* Для каждого экземпляра в рамках одного узла необходимо указать уникальные настройки:
+ `logging.dest` директория для хранения логов;
+ `path.data` директория для хранения данных;
+ `pid.file` файл для записи ID процесса;
+ `server.port` порт, который будет использовать данный экземпляр Kibana ;
* Указать следующие параметры одинаковыми для каждого экземпляра:
+ `xpack.security.encryptionKey` произвольный ключ для шифрования сессии. Длина не менее 32 символов.
+ `xpack.reporting.encryptionKey` произвольный ключ для шифрования отчетов. Длина не менее 32 символов.
+ `xpack.encryptedSavedObjects.encryptionKey` ключ для шифрования данных до отправки их в Elasticsearch. Длина не менее 32 символов.
+ `xpack.encryptedSavedObjects.keyRotation.decryptionOnlyKeys` список ранее использованных ключей. Позволит расшифровать ранее сохраненные данные.
> Настройки безопасности(`xpack`) ELK будут рассмотрены в отдельной статье.
>
>
Чтобы запустить несколько экземпляров Kibana на одном узле, необходимо указать путь к файлу конфигурации каждого из них. Для этого используется ключ `-c`:
```
bin/kibana -c <путь_к_файлу_конфигурации_#1>
bin/kibana -c <путь_к_файлу_конфигурации_#2>
```
Скачиваем и устанавливаем Logstash
----------------------------------
#### Установка из Deb пакета
* Импортируем GPG ключ:
```
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
```
* Устанавливаем `apt-transport-https` пакет:
```
sudo apt-get install apt-transport-https
```
* Добавляем репозиторий Elastic:
```
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list
```
* Устанавливаем Logstash:
```
sudo apt-get update && sudo apt-get install logstash
```
* Настраиваем Logstash для автоматического запуска при старте системы:
```
sudo /bin/systemctl daemon-reload && sudo /bin/systemctl enable logstash.service
```
#### Установка из RPM пакета
* Импортируем PGP ключ
```
sudo rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
```
* В директории `/etc/yum.repos.d/` создаем файл репозитория `logstash.repo` для CentOS или Red Hat. Для дистрибутива OpenSUSE - в директории `/etc/zypp/repos.d/`
```
[logstash-7.x]
name=Elastic repository for 7.x packages
baseurl=https://artifacts.elastic.co/packages/7.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
```
* Устанавливаем Logstash c помощью пакетного менеджера в зависимости от операционной системы, `yum` или `dnf` для `CentOS`, `Red Hat`, `Fedora` или `zypper` для `OpenSUSE`:
```
# Yum
sudo yum install logstash
# Dnf
sudo dnf install logstash
# Zypper
sudo zypper install logstash
```
* Настраиваем Logstash для автоматического запуска при старте системы:
```
sudo /bin/systemctl daemon-reload && sudo /bin/systemctl enable logstash.service
```
#### Установка из архива
* Скачиваем архив с Logstash:
```
curl -O https://artifacts.elastic.co/downloads/logstash/logstash-7.10.2-linux-x86_64.tar.gz
```
* Извлекаем данные и переходим в директорию с Logstash:
```
tar -xzf logstash-7.10.2-linux-x86_64.tar.gz
cd logstash-7.10.2/
```
Текущий каталог считается как `$LOGSTASH_HOME`.
Конфигурационные файлы находятся в каталоге `$LOGSTASH_HOME/config/`.
> Помимо архива [сайта](https://www.elastic.co/downloads/logstash) можно скачать `Deb` или `RPM` пакет и установить с помощью `dpkg` или `rpm`.
>
>
Настраиваем Logstash для чтения данных из файла
-----------------------------------------------
В качестве примера настроим считывание собственных логов Logstash из директории `/var/log/logstash/`. Для этого необходимо настроить конвейер (`pipeline`).
> Logstash имеет два типа [файлов конфигурации](https://www.elastic.co/guide/en/logstash/current/config-setting-files.html#config-setting-files). Первый тип описывает запуск и работу Logstash (`settings files`).
>
> Второй тип отвечает за конфигурацию конвейера (`pipeline`) обработки данных. Этот файл состоит из трех секций: `input`, `filter` и `output`.
>
>
* Чтобы описать конвейер создаем файл `logstash.conf` в директории `/etc/logstash/conf.d/`, если установка была из `Deb` и `RPM`, или в директории `$LOGSTASH_HOME/conf.d/` для установки из архива, предварительно создав эту директорию.
Для установки из архива необходимо в конфигурационном файле `$LOGSTASH_HOME/config/pipelines.yml` указать путь до директории с настройками конвейера:
```
- pipeline.id: main
path.config: "./conf.d/*.conf"
```
Для установки из архива также требуется указать, где хранить логи в файле конфигурации `$LOGSTASH_HOME/config/logstash.yml`:
```
path.logs: /var/log/logstash/ # логи Logstash
```
> Не забудьте предоставить доступ на запись к данному каталогу пользователю, который осуществляет запуск Logstash.
>
>
* В файле `logstash.conf` настроим плагин `file` в секции `input` для чтения файлов. Указываем путь к файлам через параметр `path`, а через параметр `start_position` указываем, что файл необходимо читать с начала:
```
input {
file {
path => ["/var/log/logstash/*.log"]
start_position => "beginning"
}
}
```
Каждое событие журнала логов будет представлять собой JSON документ и будет записано целиком в поле с ключом `message`. Чтобы из каждого события извлечь дату, время, источник и другую информацию, необходимо использовать секцию `filter`.
* В секции `filter` с помощью плагина `grok` и встроенных шаблонов извлекаем из каждой записи (`message`) журнала логов необходимую информацию:
```
filter {
grok {
match => { "message" => "\[%{TIMESTAMP_ISO8601:timestamp}\]\[%{DATA:severity}%{SPACE}\]\[%{DATA:source}%{SPACE}\]%{SPACE}%{GREEDYDATA:message}" }
overwrite => [ "message" ]
}
}
```
[Шаблон](https://www.elastic.co/guide/en/logstash/current/plugins-filters-grok.html#_grok_basics) имеет формат `%{SYNTAX:SEMANTIC}` и по сути это оболочка над регулярным выражением, соответственно шаблон можно описать [регулярным выражением](https://www.elastic.co/guide/en/logstash/current/plugins-filters-grok.html#_regular_expressions). С перечнем всех встроенных шаблоном можно ознакомится [тут](https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns).
`SEMANTIC` - это ключ поля с данными, которые извлекаются с помощью шаблона, и под этим ключом будут храниться в JSON документе.
С помощью параметра `match` указываем, из какого поля (`message`) извлекаем данные по описанным шаблонам. Параметр `overwrite` сообщает, что оригинальное поле `message` необходимо перезаписать в соответствии с теми данными, которые мы получили с помощью шаблона `%{GREEDYDATA:message}`.
* Для сохранения данных в Elasticsearch настраиваем плагин `elasticsearch` в секции `output`. Указываем адреса узлов кластера Elasticseach и имя индекса.
> Индекс (`index`) - оптимизированный набор JSON документов, где каждый документ представляет собой набор полей ключ - значение. Каждый индекс сопоставляется с одним или более главным шардом (`primary shard`) и может иметь реплики главного шарда (`replica shard`).
>
> Что такое индекс, шард и репликация шардов рассмотрю в отдельной статье.
>
>
```
output {
elasticsearch {
hosts => ["http://10.0.3.11:9200","http://10.0.3.12:9200","http://10.0.3.13:9200"]
index => "logstash-logs-%{+YYYY.MM}"
}
}
```
К названию индекса добавлен шаблон `%{+YYYY.MM}`, описывающий год и месяц. Данный шаблон позволит создавать новый индекс каждый месяц.
Итоговый файл:
```
# Читаем файл
input {
file {
path => ["/var/log/logstash/*.log"]
start_position => "beginning"
}
}
# Извлекаем данные из событий
filter {
grok {
match => { "message" => "\[%{TIMESTAMP_ISO8601:timestamp}\]\[%{DATA:severity}%{SPACE}\]\[%{DATA:source}%{SPACE}\]%{SPACE}%{GREEDYDATA:message}" }
overwrite => [ "message" ]
}
}
# Сохраняем все в Elasticsearch
output {
elasticsearch {
hosts => ["http://10.0.3.11:9200","http://10.0.3.12:9200","http://10.0.3.13:9200"]
index => "logstash-logs-%{+YYYY.MM}"
}
}
```
* Запускаем Logstash:
```
sudo systemctl start logstash.service
```
Для установки из архива:
```
$LOGSTASH_HOME/bin/logstash
```
Смотрим полученные данные в Kibana
----------------------------------
Открываем Kibana, в верхнем левом углу нажимаем меню и в секции `Management` выбираем `Stack Management`. Далее слева выбираем `Index patterns` и нажимаем кнопку `Create Index Patern`. В поле `Index pattern name` описываем шаблон `logstash*` , в который попадут все индексы, начинающиеся с *logstash*.
Создание шаблона индексаЖмем `Next step` и выбираем `Time field` поле `timestamp`, чтобы иметь возможность фильтровать данные по дате и времени. После жмем `Create index pattern`:
Выбор Time field
> Logstash при анализе событий добавил поле `@timestamp`, в результате получилось 2 поля с датой и временем. Это поле содержит дату и время обработки события, следовательно, эти даты могут различаться. Например, если анализируемый файл имеет старые записи, то поле `timestamp` будет содержать данные из записей, а `@timestamp` текущее время, когда каждое событие были обработано.
>
>
После создания шаблона индексов Kibana покажет информацию об имеющихся полях, типе данных и возможности делать агрегацию по этим полям.
Чтобы посмотреть полученные данные на основе созданного шаблона нажимаем меню и в секции `Kiban` выбираем `Discover`.
Kibana DiscoverВ правой части экрана можно выбрать интервал в рамках которого отображать данные.
Выбор временного интервалаВ левой часте экрана можно выбрать шаблон индекса или поля для отображения из списка `Available fields`. При нажатии на доступные поля можно получить топ-5 значений.
Шаблон индекса и доступные поляДля фильтрации данных можно использовать `Kibana Query Language (KQL)`. Запрос пишется в поле `Search`. Запросы можно сохранять, чтобы использовать их в будущем.
Фильтрация данных с помощью KQLДля визуализации полученных данных нажимаем меню и в секции `Kiban` выбираем `Visualize`. Нажав `Create new visualization` , откроется окно с перечнем доступных типов визуализации.
Типы визуализации KibanaДля примера выбираем `Pie`, чтобы построить круговую диаграмму. В качестве источника данных выбираем шаблон индексов `logstash*`. В правой части в секции `Buckets` жмем `Add` , далее - `Split slices`. Тип агрегации выбираем `Terms`, поле `severity.keyword`. Жмем `Update` в правом нижнем углу и получаем готовую диаграмму. В секции `Options` можно добавить отображение данных или изменить вид диаграммы.
> Если вместо графика отобразилась надпись `No results found`, проверьте выбранный интервал времени.
>
>
Круговая диаграммаЧтобы посмотреть данные в Elasticsearch необходимо сделать `GET` запрос `/имя_индекса/_search` к любому узлу кластера. Добавление параметра `pretty` позволяет отобразить данные в читабельном виде. По умолчанию вывод состоит из 10 записей, чтобы увеличить это количество необходимо использовать параметр `size`:
```
curl -X GET "http://10.0.3.1:9200/logstash-logs-2021.01/_search?pretty&size=100"
...
{
"_index" : "logstash-logs-2021.01",
"_type" : "_doc",
"_id" : "XlXeQncBKsFiW7wX45A0",
"_score" : 1.0,
"_source" : {
"path" : "/var/log/logstash/logstash-plain.log",
"@version" : "1",
"source" : "logstash.outputs.elasticsearch",
"message" : "[main] Restored connection to ES instance {:url=>\"http://10.0.3.11:9200/\"}",
"host" : "logstash01",
"timestamp" : "2021-01-27T08:03:55,979",
"@timestamp" : "2021-01-27T08:03:58.907Z",
"severity" : "WARN"
}
},
...
```
### Заключение
В рамках этой статьи была рассмотрена процедура установки и настройки Kibana и Logstash, настройка балансировки трафика между Kibana и Elasticsearch и работа нескольких экземпляров Kibana. Собрали первые данные с помощью Logstash, посмотрели на данные с помощью `Kibana Discover` и построили первую визуализацию.
Прежде чем углубляться в изучение плагинов Logstash, сбор данных с помощью Beats, визуализацию и анализ данных в Kibana, необходимо уделить внимание очень важному вопросу безопасности кластера. Об этом также постоянно намекает Kibana, выдавая сообщение `Your data is not secure`.
Теме безопасности будет посвящена следующая статья данного цикла.
Полезные ссылки
---------------
* [Logstash Directory Layout](https://www.elastic.co/guide/en/logstash/current/dir-layout.html)
* [Шаблоны Logstash Grok](https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns)
* [Kibana Query Language (KQL)](https://www.elastic.co/guide/en/kibana/7.10/kuery-query.html)
* [Elasticsearch discovery](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/modules-discovery-hosts-providers.html#built-in-hosts-providers) | https://habr.com/ru/post/538974/ | null | ru | null |
# Подготовка графиков в MatLab
В написании научных статей немалую часть времени занимает подготовка иллюстраций, графиков и диаграмм. Хочу поделиться некоторыми мыслями и примерами того, как можно ускорить этот процесс. Материал пригодиться тем, кто пользуется системой MatLab.
MatLab предоставляет широкие возможности по отображению графической информации в виде графиков, диаграмм, и т.п. Однако не всегда получаемые по умолчанию иллюстрации удовлетворяют требованиям оформления статей. Для этого в системе MatLab существует множество настроек. И чтобы ускорить подготовку иллюстраций предлагаю воспользоваться несколькими строчками кода, которые помогут помочь настроить отображение графиков.
Прежде всего, необходимо настроить шрифты, которые будут использоваться для вывода значений осей и надписей на графиках, что также помогает в случаях неправильного отображения надписей на русском языке:
```
set(0,'DefaultAxesFontSize',14,'DefaultAxesFontName','Times New Roman');
set(0,'DefaultTextFontSize',14,'DefaultTextFontName','Times New Roman');
```
Затем необходимо настроить размер графика и его положение на экране, например, с отображением на весь экран:
```
figure('Units', 'normalized', 'OuterPosition', [0 0 1 1]);
```
При необходимости вставляем название графика:
```
title('Название');
```
Далее можно включить построение нескольких графиков в одном окне, c использованием тех же осей и свойств графика:
```
hold on;%или hold all;
```
Строим графики с определенным цветом, стилем и толщиной линии:
```
plot(X2,Y2,':k','LineWidth',3);
plot(X2,Y3,':b','LineWidth',3);
plot(X2,Y4,'-.','Color',[.1 .7 .7],'LineWidth',3);
plot(X2,Y5,'--','Color',[.1 .4 .1],'LineWidth',3);
plot(X2,Y6,'r','LineWidth',3);
```
Вставляем легенду в график с определенным положением на рисунке, например справа внизу:
```
legend('исходные данные','полином 3-й степени','полином 4-й степени','полином 5-й степени','полином 7-й степени','полином 9-й степени', 4);
```
**И вот тут начинается самое интересное...**
При построении графика в MatLab дробные значения подписей на осях координат отображаются с разделителем в виде точки, тогда как, разделитель дробной и целой части у нас принято отображать запятой.
Чтобы не изменять вручную все значения подписей данных осей через меню графика, **воспользуемся небольшим куском кода:**
```
BX=get(gca,'XTick');
BY=get(gca,'YTick');
xlabel(XL,'Position',[BX(size(BX,2)) BY(1)])
ylabel(YL,'Rotation',0,'Position',[BX(1) BY(size(BY,2))])
XA=get(gca,'XTickLabel');%
for i=1:size(XA,1)
z=rem(i,2);
if z==0;
if XA(i,1)~='0' && XA(i,2)~=0
XA(i,:)=char(0);
end
end
end
XA(size(XA,1),:)=char(0);
set(gca,'XTickLabel',XA);
YA=get(gca,'YTickLabel');%
for i=1:size(YA,1)
z=strfind(YA(i,:),'.');
YA(i,z)=',';
clear z;
z=rem(i,2);
if z~=0;
YA(i,:)=char(0);
end
end
YA(size(YA,1),:)=char(0);
set(gca,'YTickLabel',YA);
```
Код «прореживает» подписи осей *x* и *y*, а также исправляет точки на запятые в подписях на оси *y*. Для других осей необходимо повторить аналогичные процедуры.
И в заключении отобразим линии координатной сетки:
```
grid on;
```
Для удобства использования, чтобы не повторять каждый раз эти действия, заключаем написанный код в функцию, в параметрах которой указываются настройки отображения графиков и их данные.
**Функция subgraphic**
```
function result=subgraphic(X1,X2,Y1,Y2,Y3,Y4,Y5,Y6,Tit,TL,XL,YL,PL)
figure('Units', 'normalized', 'OuterPosition', [0 0 1 1]);
plot(X1,Y1,'o','LineWidth',2,'MarkerEdgeColor','k','MarkerFaceColor',[.49 1 .63],'MarkerSize',5);
if Tit
title(TL);
end
hold on;
plot(X2,Y2,':k','LineWidth',3);
plot(X2,Y3,':b','LineWidth',3);
plot(X2,Y4,'-.','Color',[.1 .7 .7],'LineWidth',3);
plot(X2,Y5,'--','Color',[.1 .4 .1],'LineWidth',3);
plot(X2,Y6,'r','LineWidth',3);
legend('исходные данные','полином 3-й степени','полином 4-й степени','полином 5-й степени','полином 7-й степени','полином 9-й степени', PL);
BX=get(gca,'XTick');
BY=get(gca,'YTick');
xlabel(XL,'Position',[BX(size(BX,2)) BY(1)])
ylabel(YL,'Rotation',0,'Position',[BX(1) BY(size(BY,2))])
XA=get(gca,'XTickLabel');%
for i=1:size(XA,1)
z=rem(i,2);
if z==0;
if XA(i,1)~='0' && XA(i,2)~=0
XA(i,:)=char(0);
end
end
end
XA(size(XA,1),:)=char(0);
set(gca,'XTickLabel',XA);
YA=get(gca,'YTickLabel');%
for i=1:size(YA,1)
z=strfind(YA(i,:),'.');
YA(i,z)=',';
clear z;
z=rem(i,2);
if z~=0;
YA(i,:)=char(0);
end
end
YA(size(YA,1),:)=char(0);
set(gca,'YTickLabel',YA);
grid on;
result=1;
```
Выполним
```
subgraphic(B,T,A,Y3,Y4,Y5,Y7,Dva_theta_0_5,Tit,'Название','{\itT}, \circC','{2{\phi}_{0,5}, град.',3);
```
с заранее подготовленными данными.
**И здесь нас ждет небольшая засада...**В результате получаем вот такой график:

По умолчанию MatLab отображает греческую букву «фи» как в кириллице «ф». Одним из способов отобразить привычную греческую букву «фи» с петлеобразным начертанием, является выбор специального шрифта c греческими буквами. Скачиваем, например, шрифт Greek Normal [отсюда](http://www.azfonts.ru/load_font/greek_normal.html) и устанавливаем. Просмотрев шрифт Greek в таблице символов, замечаем, что в этом шрифте буква «фи» существует в двух вариантах, причем для кода латинской «f» получим тот же результат что и в MatLab в виде «ф», а для кода латинской «j» должен быть получен требуемый результат.
Выполним
```
subgraphic(B,T,A,Y3,Y4,Y5,Y7,Dva_theta_0_5,Tit,'Название','{\itT}, \circC','{2\fontname{Greek}j}_{0,5}, град.',3);
```
**И получим вот такой график:**
В результате использования приведенного кода для построения графиков с помощью системы MatLab удалось:
* Решить проблему с некорректным отображением кириллических шрифтов;
* Автоматически заменить разделитель целой и дробной части числа с точки на запятую в графике;
* Отобразить греческую букву фи в петлеобразном начертании.
---
**PS** Если кто-то знает простой способ отобразить символ греческой буквы «фи» с кодом unicode-03С6 в графиках MatLab, напишите пожалуйста в комментариях.
**UPD** Еще один способ, подсказанный в комментариях, для отображения «фи» с петлеобразным начертанием:
```
text(x, y, '$\varphi$', 'FontSize', 14, 'Interpreter', 'latex');
```
И несколько полезных ссылок:
[Код на Github.com](https://github.com/mgorb1/Matlab_figure.git)
[Некоторые полезные средства настройки графиков (plot) в MATLAB](http://www.pvsm.ru/matlab/30698)
[Заметки про Matlab. Экспорт графиков.](http://www.engineerbox.ru/page/matlab_export_fig)
[Простейшее приложение с GUI средствами MatLab 6.5](http://habrahabr.ru/post/73440/) | https://habr.com/ru/post/195842/ | null | ru | null |
# Трюки, облегчающие жизнь в zsh
Zsh — одна из лучших командных оболочек, обладающая впечатляющим набором возможностей. Однако, из‐за большого количества возможностей нет ничего удивительного в том, что некоторые из них проходят мимо внимания или возможность их применения для решения повседневных задач неочевидна. В этой статье будут рассмотрены как несколько «встроенных» возможностей zsh, так и примеры непростого кода, облегчающие жизнь.**Содержание**[1. Использование READNULLCMD](/post/272581/#readnullcmd)
[2. Вставка открывающих и закрывающих скобок](/post/272581/#parenthesis)
[3. Глобальные alias’ы](/post/272581/#global-aliases)
[4. Возврат настроек терминала](/post/272581/#term-reset)
[5. Функция zmv](/post/272581/#zmv)
[6. Запуск mpv с автоматически найденными субтитрами](/post/272581/#aplayer)
[7. Создание команд с автоматическим экранированием аргументов](/post/272581/#zpy)
[8. Автоматическое исключение файлов из glob’ов](/post/272581/#globfilter)
1. Использование READNULLCMD
============================
Переменная READNULLCMD определяет команду, которая будет вызвана, если перенаправление stdin использовать без ввода команды: `. Так можно вызывать `less`, вводя намного меньше символов: просто установите `READNULLCMD=less`.
2. Вставка открывающих и закрывающих скобок
===========================================
С редакторами вроде Vim часто используются дополнения, занимающиеся автоматических закрытием скобок при их вводе. Т.е. при вводе `[` вы получаете `[]` с курсором посередине. В оболочках такое тоже возможно (даже в bash): просто нужно использовать что‐то вроде `binkey -s "[" $'\C-v[]\C-b'`: эквивалент этой команды вполне может быть помещён в .inputrc. Более универсальное решение для zsh предполагает использование ZLE widget’ов:
```
insert-double-brackets() {
LBUFFER="${LBUFFER}[[ "
RBUFFER=" ]]${RBUFFER}"
}
zle -N insert-double-brackets
bindkey ',H' insert-double-brackets
```
Здесь в переменной LBUFFER содержится вся командная строка до курсора, а в переменной RBUFFER — вся после. Вторая команда создаёт widget, третья назначает его на сочетание `,H`: таким образом ввод `,H` превращается в `[[ ]]` с курсором посередине.
3. Глобальные alias’ы
=====================
Вы все, наверное, знаете, что такое alias в оболочке и, возможно, использовали что‐то вроде `alias hp='hg push'`. Alias’ы в zsh имеют две дополнительные возможности: т.н. суффиксные alias’ы, позволяющие автоматически открывать файлы, не вводя программу (пример: `alias -s txt=vim` превратит команду `foo.txt` в `vim foo.txt`) и глобальные. Первые я никогда не использовал, а вторые нахожу весьма полезными.
Глобальные alias’ы используются для замены отдельно стоящих слов на своё значение. В отличие от суффиксных и обычных alias’ов, заменяемое слово не обязано находится в положении команды (т.е. первого слова в командной строке, или первого слова после разделителя команд). Так как alias’ы обрабатываются до того, как сработает основной парсер, то вы вполне можете иметь в глобальном alias’е всё, что угодно: перенаправление, `if`, разделители команд.
С моей точки зрения наиболее полезно перенаправление различных видов:
```
alias -g NN='&>/dev/null'
alias -g L='|less'
alias -g G='|grep'
```
В данном примере определяются три alias’а: один замалчивает команду, другой использует less для показа вывода команды, третий фильтрует ввод. Пример использования: запись `hg cat -r default file.csv G 42 L` эквивалентна `hg cat -r default file.csv | grep 42 | less`, но гораздо короче. Для подачи на вход команды `G` буквально необходимо использование экранирования: `\G` или `'G'`. Замечу, что `\G` и `'G'` также формируют слова, и на них тоже могут быть alias’ы: `alias -g "'G'=|grep"`, но, надеюсь, вы находитесь в достаточно здравом уме, чтобы не использовать этот факт.
Несмотря на своё удобство, из‐за некоторых особенностей zsh глобальные alias’ы весьма опасны тем, что могут испортить дополнения zsh. Я видел в одном скрипте `case`, где было в том числе условие вида `L)`, и оно не срабатывало из‐за превращение в совсем другое условие. Поэтому глобальные alias’ы должны определяться самыми последними, после того, как вы уже загрузили все дополнения. Для загрузки дополнений после определения, отключайте настройку `ALIASES`: используйте что‐то вроде
```
source() {
setopt localoptions
setopt noaliases
builtin source "${@[@]}"
}
.() {
setopt localoptions
setopt noaliases
builtin . "${@[@]}"
}
```
И так для каждого варианта загрузки дополнений (помимо `source` и `.` есть ещё, как минимум, `autoload`, насчёт действенности именно таких функций для которого я совершенное не уверен). Глобальные alias’ы, впрочем, опасны только в интерактивной сессии, скрипты с `#!/bin/zsh` затронуты не будут.
4. Возврат настроек терминала
=============================
Ни для кого не секрет, что если написать `cat /bin/test` (точнее, `cat any-binary-file`), то можно получить различные странные эффекты: например, замену части вводимых далее символов на символы для рисования графики. Большинство эффектов устраняются написанием вслепую `echo $'\ec'`, но это та вещь, которую хотелось бы автоматизировать. В этом нам поможет hook `precmd`, позволяющий запускать вашу функцию прямо перед отображением оболочки. Проблемы, которые я иногда вижу, если случайно вывожу в терминал бинарный файл, у меня валится редактор (Vim) или же я просто запускаю wine (он зачем‐то переключает режим ввода (keyboard transmit mode) и не возвращает обратно): графические символы вместо нормальных, alternate screen становится основным (= отсутствует scrollback (история ввода)), перестают работать как надо стрелки (именно здесь отметился keyboard transmit), не отображается курсор. Для их решения была создана следующая функция:
```
_echoti() {
emulate -L zsh
(( ${+terminfo[$1]} )) && echoti $1
}
term_reset() {
emulate -L zsh
[[ -n $TTY ]] && (( $+terminfo )) && {
_echoti rmacs # Отключает графический режим
_echoti sgr0 # Убирает цвет
_echoti cnorm # Показывает курсор
_echoti smkx # Включает «keyboard transmit mode»
echo -n $'\e[?47l' # Отключает alternate screen
# See https://github.com/fish-shell/fish-shell/issues/2139 for smkx
}
}
zmodload zsh/terminfo && precmd_functions+=( term_reset )
ttyctl -f
```
. После её введения набирать `echo $'\ec'` мне больше практически не приходится.
Также отмечу `ttyctl -f`: эта встроенная возможность zsh блокирует некоторые изменения настроек терминала: тех настроек, которые устанавливаются с помощью `stty`, а не тех, что можно установить с помощью специальных последовательностей (escape sequences).
5. Функция zmv
==============
Вы, возможно, сталкивались с командой rename для автоматического переименования множества файлов. Она существует даже в двух экземплярах: написанный на perl [вариант](http://search.cpan.org/dist/rename/) и написанный на [C](http://rename.sourceforge.net/). Zsh имеет что‐то подобное, но только более мощное: во‐первых, вы можете таким образом копировать файлы или запускать `hg mv` вместо простого перемещения по типу `mv`. Во‐вторых, можно использовать «интуитивно понятный» вариант вроде `noglob zmv -W *.c *.cpp` (чтобы избавиться от `noglob`, используйте `alias`; в дальнейших примерах `noglob` подразумевается). Zmv для работы использует не регулярные выражения, а более подходящие под задачу glob выражения. Также в качестве второго аргумента можно использовать фактически любое выражение: `zmv -w test_*.c 'test/${1/_foo/_bar}'` превратит `test_foo_1.c` в `test_bar_1.c`. Здесь параметры вида `$N` предоставляют доступ к аналогу «capturing groups» из регулярных выражений, а `-w` превращает `test_*.c` в `test_(*).c`.
Все аргументы:* `-f`: игнорирование наличия файла‐цели. Т.е. если файл `test.cpp` существует, то команда `zmv -W *.c *.cpp` откажется перемещать какие‐либо файлы, если среди них есть `test.c`. `-f` заставит zmv это сделать, но, однако, не передаст аргумент `-f` для `mv`.
* `-i`: уточнение необходимости перед каждым перемещением. Для утвердительного ответа нужно нажать `y` или `Y`, для отказа нужно нажать что‐либо ещё. Внимание: нажать нужно *только* `y` или `Y`. Нажимать ввод не нужно, он будет воспринят как отказ для следующего файла.
* `-n`: печать всех команды, которые zmv будет выполнять, без собственно выполнения.
* `-Q`: включение glob qualifier’ов. В связи с тем, что glob qualifier легко перепутать с capturing group, они отключены по‐умолчанию. Glob qualifier — это часть glob, которая уточняет результат: существуют qualifier’ы для определения порядка сортировки, включения некоторых настроек для одного glob’а, а также наиболее полезные в данных обстоятельствах фильтры вроде «раскрывать только символические ссылки».
* `-s`: передача дополнительного аргумента `-s` в команду. Используется в связке с `-L`, либо эквивалентным испольванием `zln` вместо `zmv`.
* `-v`: печать выполняемых команд по мере их выполнения.
* `-o`*arg*: указание дополнительных аргументов для команды. Так, чтобы передать `mv` аргумент `--force` нужно использовать `zmv -o--fore`. Может быть использована только один раз.
* `-p`*prog*: использование данной программы вместо mv. Команда должна понимать `--`: она будет выполняться как `prog -- source target`.
* `-P`*prog*: аналогично предыдущему аргументу, но для команд, не понимающих `--`. Программа будет вызываться как `prog source target`.
* `-w`: автоматическое добавление capturing groups для всех wildcard’ов, описанная выше.
* `-W`: тоже, что и предыдущий аргумент, но использование параметров `$N`, созданных для capturing groups происходит автоматически для wildcard’ов в правом аргументе.
* `-C`, `-L` и `-M`: аналогично `-pcp`, `-pln` и `-pmv` соответственно: позволяет использовать копирование, создание символических ссылок или перемещение независимо от названия функции (по‐умолчанию есть две дополнительных функции, использующих тот же код, что и zmv: zcp и zln).
6. Запуск mpv с автоматически найденными субтитрами
===================================================
Если вы когда‐либо качали сериалы с внешними субтитрами с torrent’ов, то, несомненно, заметили, что каждый человек, их выкладывающий, имеет собственное мнение относительно того, где должны находится субтитры. Основных вариантов два: в собственном каталоге и непосредственно рядом с видео, но под «собственным каталогом» может скрываться любое название каталога, и даже различные глубины вложения: я видел каталоги вида «subs {sub group}», «субтитры {sub group}», «subs/{sub group}» и даже просто «{sub group}». Дополнительной проблемой служит использование нестандартных шрифтов в субтитрах, с распространением их вместе с субтитрами.
Для того, чтобы субтитры были‐таки подхвачены и использовали корректные шрифты можно использовать разные способы. Я предпочёл создать функцию, которая автоматически делает нужную работу практически во всех случаях:
```
aplayer() {
emulate -L zsh
setopt extendedglob
setopt nullglob
local -a args
args=()
local -A mediadirs
mediadirs=()
for arg in $@ ; do
if [[ ${arg[0]} == '-' ]] ; then
continue
fi
if test -f $arg ; then
mediadirs[${arg:A:h}]=1
fi
done
local d
local -i found=0
for d in ${(k)mediadirs} ; do
local tail=$d:t
test -d ~/.fonts/aplayer/${tail}-1 && continue
local f
for f in $d/**/(#i)font* ; do
if test -d $f ; then
(( found++ ))
ln -s $f ~/.fonts/aplayer/${tail}-${found}
elif [[ $f == (#i)*.rar ]] || [[ $f == (#i)*.zip ]] ; then
(( found++ ))
mkdir ~/.fonts/aplayer/${tail}-${found}
pushd -q ~/.fonts/aplayer/${tail}-${found}
7z x $f
popd -q
fi
done
done
if (( found )) ; then
fc-cache -v ~/.fonts
fi
local -aT subpaths SUBPATHS
local -A SUBPATHS_MAP
SUBPATHS=( ${(k)^mediadirs}/(#i)*(sub|суб)*{,/**/*}(/) )
for sp in $SUBPATHS ; do
SUBPATHS_MAP[$sp]=1
done
local -a subarr
for d in ${(k)mediadirs} ; do
for subd in $d/**/ ; do
if ! test -z $SUBPATHS_MAP[$d] ; then
continue
fi
subarr=( $subd/*.(ass|ssa|srt) )
if (( $#subarr )) ; then
SUBPATHS_MAP[$subd]=1
SUBPATHS+=( $subd )
fi
done
done
if (( ${#SUBPATHS} )) ; then
args+=( --sub-paths $subpaths )
fi
mpv $args $@ &>/dev/tty
}
```
Наличие в zsh вещей вроде ассоциативных массивов очень помогает при создании таких функций.
Здесь первая часть функции проходится по всем аргументам и забивает каталоги, в которых находятся произведения в ассоциативный массив mediadirs. Он сделан ассоциативным исключительно, чтобы избежать дубликатов.
Далее функция проходится по всем каталогам с произведениями и находит в них или подкаталогах шрифты, которые могут находиться как в архиве, так и в подкаталоге. Шрифты определяются по характерному названию (наличию `font` в начале названия), `setopt nullglob` позволяет не беспекоиться об их отсутствии (по‐умолчанию отсутствие вызвало бы ошибку). Использование `setopt extendedglob` вкупе с `(#i)` позволяет не беспокоиться о регистре: `(#i)` позволяет шрифтам находиться как в каталоге `FONTS`, так и в `Fonts`. После нахождения и установки шрифтов в `~/.fonts` обновляются индексы с помощью `fc-cache`: иначе даже скопированные в правильный каталог шрифты не будут использованы. `${(k)ASSOCIATIVE_ARRAY}` превращает ассоциативный массив в простой массив, состоящий из ключей.
В третьем цикле находятся и забиваются в ассоциативный массив каталоги с субтитрами, имеющие «простые» названия вроде «subs» или «субтитры». Опять использовано игнорирование регистра и отдельно `(/)` в конце, ограничивающее glob только каталогами (пример glob qualifier’а). `${^array}` используется для того, чтобы `array=( a b c ); echo ${^array}*` было эквивалентом `echo {a,b,c}*`.
Последний цикл находит каталоги с субтитрами, названные нестандартным способом. Каталогом с субтитрами считается любой подкаталог (по отношению к каталогам с видео), содержащий хотя бы один файл с расширением `ass`, `ssa` или `srt`.
Нужно отметить наличие довольно странного кода: переменную `subpaths` никто, вроде, не трогает, но в качестве аргумента `--sub-paths` используется именно её значение. Дело в том, что в zsh отметили довольно частый шаблон, когда массив значений (обычно, каталогов) является простой строкой, где различные значения отделяются друг от друга разделителем (обычно, двоеточием): примером такого «массива» может быть переменная `PATH`. Однако программистам было бы удобно работать с такими массивами именно как с массивами, поэтому были созданы «связанные» переменные, где одна из переменных массив (пример: `path`), а другая строка с заданным (по‐умолчанию двоеточие) разделителем (пример: `PATH`), и изменение одной из переменных автоматически отражается на другой. Именно таким способом был связан массив `SUBPATHS` со строкой `subpaths`.
7. Создание команд с автоматическим экранированием аргументов
=============================================================
Аргументами некоторых команд никогда не являются файлы. Однако этот факт не останавливает zsh от раскрытия шаблонов. В обычном случае достаточно написать `alias mycmd='noglob mycmd'` и `mycmd *.foo` станет эквивалентным `mycmd '*.foo'`. Но что, если вы хотите создать команду, на вход которой вы собираетесь подавать `$VAR` буквально и не хотите писать `'$VAR'`? Здесь я приведу пример кода, который делает запись `zpy import zsh; print(zsh.getvalue("PATH"))` эквивалентной `zpython 'import zsh; print(zsh.getvalue("PATH"))'`; разумеется, только в интерактивном режиме:
```
zshaddhistory() {
emulate -L zsh
if (( ${+_HISTLINE} && ${#_HISTLINE} )) ; then
print -sr -- "${_HISTLINE}"
unset _HISTLINE
elif (( ${#1} )) ; then
print -sr -- "${1%%$'\n'}"
fi
fc -p
}
accept-line() {
emulate -L zsh
if [[ ${BUFFER[1,4]} == "zpy " ]] ; then
_HISTLINE=$BUFFER
BUFFER="zpython ${(qqq)BUFFER[5,-1]}"
fi
zle .accept-line
}
zle -N accept-line
```
Основная часть функции: при вызове widget’а accept-line (вызывается, когда вы нажимаете ввод) определяется, не начинается ли строка с `zpy` и, если да, строка заменяется на `zpython …`, где `…` — экранированная часть строки после `zpy` и пробела. Функция `zshaddhistory` используется, чтобы в истории оказалась исходная строка, а не её замена.
Таким способом можно добавлять в zsh любой нестандартный синтаксис.
8. Автоматическое исключение файлов из glob’ов
==============================================
Представьте, что у вас есть редактор Vim и вы хотите использовать его, чтобы открыть все файлы из каталога (использовать шаблон `*`). Но помимо простых текстовых файлов в каталоге есть много бинарных вроде `*.o` (объектных) файлов, которые вы открывать не хотите. Для этого вы можете вместо просто звёздочки написать несколько шаблонов, соответствующих нужным файлам. Или использовать шаблон‐исключение (`*~*.o`, требует `setopt extendedglob`). Но с помощью относительно простого трюка это можно автоматизировать:
```
filterglob () {
local -r exclude_pat="$2"
shift
local -r cmd="$1"
shift
local -a args
args=( "${@[@]}" )
local -a new_args
local -i expandedglobs=0
local first_unexpanded_glob=
for ((I=1; I<=$#args; I++ )) do
if [[ $args[I] != ${${args[I]}/[*?]} ]]
then
local initial_arg=${args[I]}
args[I]+="~$exclude_pat(N)"
new_args=( $~args[I] )
if (( $#new_args )) ; then
expandedglobs=1
else
if [[ $options[cshnullglob] == off
&& $options[nullglob] == off ]] ; then
if [[ $options[nomatch] == on ]] ; then
: ${~${args[I]%\(N\)}} # Will error out.
else
new_args=( "$initial_arg" )
fi
fi
if [[ -z $first_unexpanded_glob ]] ; then
first_unexpanded_glob=${args[I]%\(N\)}
readonly first_unexpanded_glob
fi
fi
args[I,I]=( "${new_args[@]}" )
(( I += $#new_args - 1 ))
fi
done
if [[ $options[cshnullglob] == on && $options[nullglob] == off ]] ; then
if (( !expandedglob )) ; then
: $~first_unexpanded_glob # Will error out.
fi
fi
"$cmd" "${args[@]}"
}
alias vim='noglob filterglob "*.o" vim'
```
Здесь определяется alias, который запрещает раскрытие шаблона самой zsh (noglob), но использует для запуска vim функцию, которая раскрывает шаблоны сама (filterglob). Но не просто раскрывает их, а ещё и дополняет шаблоном‐исключением так, что `vim *` будет работать как `vim *~*.o`.
В функции задействованы следующие возможности zsh: `${~var}` заставляет zsh использовать раскрытие шаблона применительно к значению переменной `var` и подставляет результат раскрытия шаблона вместо самой переменной. `array[idx1,idx2]=( $new_array )` удаляет часть массива от `idx1` до `idx2` включительно, вставляя на место удалённых элементов значения массива `new_array`. При этом размер массива `array` может измениться. Конструкции вида `: $~var` с комментарием «Will error out» нужны, чтобы zsh показал ожидаемую ошибку. При этом выполнение функции завершиться. Особых причин использовать именно этот вариант вместо `echo … >&2` нет, хотя мой вроде должен поддерживать перехват ошибки с использованием `always` (что вы вряд ли используете в интерактивной сессии).` | https://habr.com/ru/post/272581/ | null | ru | null |
# Пишем асинхронного Телеграм-бота
Привет! Меня зовут Александр, я руководитель бэкенд-разработки в [KTS](https://kts.studio/).
Сегодня я покажу, как написать своего Телеграм-бота на основе asyncio и aiohttp. Мы не будем использовать ни aiogram, ни любые другие библиотеки, а напишем бота с нуля, чтобы немного познакомиться с асинхронным программированием, корутинами и некоторыми примитивами синхронизации.
Что будет в статье:
* [Основы ботоведения](#1)
* [Echo-бот](#2)
* [Архитектура бота](#3)
* Реализация схемы:
+ [poller.py](#4)
+ [worker.py](#5)
+ [Class Bot](#6)
+ [Остановка бота](#7)
* [Заключение](#8)
Основы ботоведения
------------------
Бот — сущность в мессенджере.
Они есть практически везде: в Телеграме, ВК. Это программа, которая на основе определенных алгоритмов отвечает на сообщения пользователей. Задачи и направления самые разные: бот может просто присылать сообщения «С добрым утром!» А может, например, управлять участниками внутри чата.
Перед началом работы с ботом его нужно создать и познакомиться с Telegram API.
**Шаг 1.** Сначала создаем бота с помощью BotFather внутри Телеграма:
<https://core.telegram.org/bots#6-botfather>
После создания вы получите сообщение:
`Done! Congratulations on your new bot...
Use this token to access the HTTP API:
...`
В сообщении будет токен, который нужно использовать для запросов в Телеграм.
**Шаг 2.** Выполните первый запрос к Telegram API по инструкции: <https://core.telegram.org/bots/api#authorizing-your-bot>
В ответ вы должны получить что-то подобное:
`{"ok":true,"result":{"id":2065163148,"is_bot":true,"first_name":"Metaclass","username":"metaclassbot","can_join_groups":true,"can_read_all_group_messages":false,"supports_inline_queries":false}}`
**Шаг 3.** Далее нужно научиться получать уведомления из Телеграма. Существует 2 способа:
* [webhook](https://core.telegram.org/bots/api#setwebhook) — инициатором запроса выступает Телеграм.
Когда пользователь пишет боту, Телеграм делает запрос на URL, который вы установите с помощью метода setwebhook. У этого метода есть недостатки: его трудно отлаживать, так как должен быть публичный адрес бота. Также на каждое сообщение выполняется HTTP-запрос, и при 1000+ сообщений в секунду серверы не справятся.
* [long polling](https://core.telegram.org/bots/api#getupdates) — инициатором является ваше приложение.
Оно обращается к Telegram API и получает уведомления или ожидает, если уведомлений нет — отсюда название long.
Мы для получения уведомлений будем использовать long polling. [Описание метода](https://core.telegram.org/bots/api#getupdates).
1. Выполните в браузере такой запрос:
`https://api.telegram.org/bot/getUpdates`
Он завершится моментально и вернет:
`{"ok":true,"result":[]}`
2. Теперь выполните другой запрос:
`https://api.telegram.org/bot/getUpdates?timeout=30`
1. Он будет висеть 30 секунд и, если ничего не написать боту, вернет:
`{"ok":true,"result":[]}`
2. Если написать боту хоть что-то, он моментально вернет [Update](https://core.telegram.org/bots/api#update).
**Шаг 4.** Теперь давайте научимся отправлять сообщение пользователю в ответ. Сначала отправим сообщение боту, для чего используем метод [sendMessage](https://core.telegram.org/bots/api#sendmessage). Метод принимает два обязательных параметра:
* `chat_id` — поле, которое пришло в объекте Update. Может быть как id персонального чата, так и id группового чата.
* `text`
Выполните в браузере запрос. `chat_id` нужно получить из предыдущего запроса: `https://api.telegram.org/bot/sendMessage?chat\_id=85364161&text=hello.`
В результате бот напишет вам сообщение hello.
Для работы с методами Telegram API будем использовать класс [TgClient](https://github.com/ktsstudio/webinar-tgbot/blob/4483de35056d1628357c4f64749ca622850b2e38/clients/tg/api.py#L8).
### Echo-бот
Для начала давайте получим сообщения из Telegram. Для этого нужно вызвать метод `get_updates` класса `TgClient`:
```
import asyncio
import os
from clients.tg import TgClient
async def run_echo():
c = TgClient(os.getenv("BOT_TOKEN"))
print(await c.get_updates(offset=0, timeout=5))
if __name__ == "__main__":
asyncio.run(run_echo())
```
Обратите внимание, что код получает токен бота из переменной окружения, поэтому перед запуском нужно [установить значение переменной](https://www.twilio.com/blog/2017/01/how-to-set-environment-variables.html) `BOT_TOKEN` .
При запуске кода может быть два исхода:
1. Если боту отправляли сообщение не более 24 часов назад, метод `get_updates` вернет все последние сообщения. Чтобы было проще, далее по тексту я буду использовать термин «новые сообщения», а не «[новые объекты update](https://core.telegram.org/bots/api#update)».
`{'ok': True, 'result': [{'update_id': 503972397, 'message': {'message_id': 335, 'from': {'id': 85364161, 'is_bot': False, 'first_name': 'Alexander', 'last_name': 'Opryshko', 'username': 'alexopryshko', 'language_code': 'en'}, 'chat': {'id': 85364161, 'first_name': 'Alexander', 'last_name': 'Opryshko', 'username': 'alexopryshko', 'type': 'private'}, 'date': 1644871206, 'text': '1'}}]}`
2. Если боту не писали вообще, или писали давно, он зависнет на 5 секунд (timeout=5) и вернет пустой список:
`{'ok': True, 'result': []}`
при этом, если боту написать во время ожидания, он моментально вернет результат, как и в первом случае.
Чтобы получать сообщения из Телеграма постоянно, в цикле нужно вызывать `get_updates`, так как он завершается сразу после написания боту нового сообщения.
```
async def run_echo():
c = TgClient(os.getenv("BOT_TOKEN"))
while True:
print(await c.get_updates(offset=0, timeout=60))
```
Но если запустить такой код, мы будем получать последние сообщения из Телеграма в бесконечном цикле. А чтобы получать только новые, нужно использовать параметр `offset`.
```
async def run_echo():
c = TgClient(os.getenv("BOT_TOKEN"))
offset = 0
while True:
res = await c.get_updates(offset=offset, timeout=60)
for item in res["result"]:
offset = item["update_id"] + 1
print(item)
```
Правило Телеграма: после получения новой пачки сообщений нужно взять из ответа параметр `update_id` и следующий запрос выполнять с `offset` на единицу больше, чем последнее сообщение, пришедшее из `get_updates`.
Теперь можно завершить написание полноценного echo-бота:
```
async def run_echo():
c = TgClient(os.getenv("BOT_TOKEN"))
offset = 0
while True:
res = await c.get_updates_in_objects(offset=offset, timeout=60)
for item in res.result:
offset = item.update_id + 1
await c.send_message(item.message.chat.id, item.message.text)
```
В функции заменили `get_updates` на `get_updates_in_objects`, потому что гораздо удобнее оперировать объектами, чем словарями.
Текущая реализация имеет большой недостаток — бот не работает параллельно: после получения обновления он сразу начинает выполнять бизнес-логику бота. В нашем случае он отправляет echo-сообщение, и в это время новые сообщения от бота получаться не будут. Получается, другие пользователи простаивают. Нужно как-то организовать параллельную обработку пользователей и обеспечить возможность масштабирования.
Поэтому мы пойдем другим путем.
### Архитектура бота
**Введем сущность *poller*.** Он будет получать сообщения из Телеграма и ставить их в *очередь*, никакую бизнес-логику он не реализует. Он должен быть в единственном экземпляре.
**Введем сущность *worker*.** Он будет выполнять все рабочие задачи. *worker* берет задачу из *очереди* и каким-то образом выполняет ее.
Сущностей *worker* может быть много:
Такая схема лучше изначальной по двум причинам:
* при возрастании нагрузки мы можем соответственно увеличить количество *worker;*
* сообщения от пользователей обрабатываются параллельно.
Реализация схемы
----------------
### poller.py
```
import asyncio
from clients.tg import TgClient
class Poller:
def __init__(self, token: str, queue: asyncio.Queue):
self.tg_client = TgClient(token)
self.queue = queue
async def _worker(self):
offset = 0
while True:
res = await self.tg_client.get_updates_in_objects(offset=offset, timeout=60)
for u in res.result:
offset = u.update_id + 1
print(u)
self.queue.put_nowait(u)
async def start(self):
asyncio.create_task(self._worker())
```
*poller* в точности повторяет логику echo-бота, за исключением отправки echo-сообщения:
* работает бесконечно;
* получает уведомления из Телеграма;
* *кладет сообщения в очередь.*
Логика получения уведомлений описана в методе `_worker`, для запуска получения уведомлений нужно запустить именно его. Но просто вызвать `await self._worker()` не получится, потому что мы заблокируем основной поток выполнения, а нам еще нужно запустить *worker*, который будет вычитывать сообщения из очереди. Поэтому нужно [запустить фоновую задачу с помощью asyncio.create\_task.](https://docs.python.org/3/library/asyncio-task.html#asyncio.create_task))
Теперь рассмотрим, как запустить *poller*.
```
import asyncio
import os
from bot.poller import Poller
async def start():
q = asyncio.Queue()
poller = Poller(os.getenv("BOT_TOKEN"), q)
await poller.start()
def run():
loop = asyncio.get_event_loop()
try:
print('bot has been started')
loop.create_task(start())
loop.run_forever()
except KeyboardInterrupt:
pass
if __name__ == '__main__':
run()
```
Так как бот должен работать бесконечно, то необходимо организовать бесконечный цикл. В echo-боте мы просто оставили `while True`, но в текущей реализации так сделать будет неудобно, поэтому лучше использовать метод запуска `run_forever`, предварительно положив все необходимые задачи в event loop с помощью метода `create_task.`[Документация по методу run\_forever](https://docs.python.org/3/library/asyncio-eventloop.html#asyncio.loop.run_forever)
[Документация по методу create\_task](https://docs.python.org/3/library/asyncio-task.html#asyncio.create_task)
> **Обратите внимание:**
>
> 1. В коде *poller* используется `asyncio.create_task` , а при его запуске используется `loop.create_task`.
> Отличие заключается в том, что мы явно указали, какой `event loop` нужно использовать в синхронной функции `def run`. В асинхронных функциях `async def loop` явно можно не указывать, потому что Python сам знает текущий цикл событий и прикрепляет задачу к нему. Функция, из которой запускается `create_task,` тоже запущена в этом `loop`
>
> 2. Если в запущенной в фоне корутине `create_task` происходит исключение, мы можем не увидеть его сразу, только после остановки `event loop`. Из-за этого могут возникнуть сложности в нахождении ошибок. Почитать подробнее в этой [статье](https://quantlane.com/blog/ensure-asyncio-task-exceptions-get-logged/).
>
>
### worker.py
```
import asyncio
from clients.tg import TgClient
from clients.tg.dcs import UpdateObj
class Worker:
def __init__(self, token: str, queue: asyncio.Queue, concurrent_workers: int):
self.tg_client = TgClient(token)
self.queue = queue
self.concurrent_workers = concurrent_workers
async def handle_update(self, upd: UpdateObj):
print("before", upd)
await asyncio.sleep(1)
print("after", upd)
async def _worker(self):
while True:
upd = await self.queue.get()
await self.handle_update(upd)
async def start(self):
for _ in range(self.concurrent_workers):
asyncio.create_task(self._worker())
```
У *worker* есть несколько кардинальных отличий от *poller*:
* для обеспечения параллельной обработки входящих сообщений запускается несколько `_worker`, а количество параллельных *воркеров* регулируется параметром `concurrent_workers` ;
* новые сообщения приходят не из Telegram, а из *очереди*, которую предварительно заполнил *poller*;
* внутри `handle_update` — который запускается при появлении нового сообщения в очереди — реализуется бизнес-логика обработки сообщения, т.е. бизнес-логика бота.
Теперь добавим запуск *worker* в корутину `async def start.` Обратите внимание, что *очередь* должна быть общая между *poller* и *worker*:
```
async def start():
q = asyncio.Queue()
poller = Poller(os.getenv("BOT_TOKEN"), q)
await poller.start()
worker = Worker(os.getenv("BOT_TOKEN"), q, 2)
await worker.start()
```
На этом минимальная реализация бота готова, но есть нюансы, которые стоит улучшить:
* в корутине `start` мы оперируем внутренними компонентами бота: *очередью, poller, worker.* Было бы хорошо иметь сущность Bot с одним методом “start”;
* при остановке бота он завершается моментально, не дожидаясь выполнения запущенной логики бота. Поэтому может быть такое, что мы прервем пользовательский сценарий на середине.
### Class Bot
Всю работу с компонентами бота вынесем в отдельный класс *Bot*:
```
import asyncio
from bot.poller import Poller
from bot.worker import Worker
class Bot:
def __init__(self, token: str, n: int):
self.queue = asyncio.Queue()
self.poller = Poller(token, self.queue)
self.worker = Worker(token, self.queue, n)
async def start(self):
await self.poller.start()
await self.worker.start()
```
И перепишем функцию `run`:
```
import asyncio
import os
from bot.base import Bot
def run():
loop = asyncio.get_event_loop()
bot = Bot(os.getenv("BOT_TOKEN"), 2)
try:
print('bot has been started')
loop.create_task(bot.start())
loop.run_forever()
except KeyboardInterrupt:
pass
if __name__ == '__main__':
run()
```
Код запуска стал чище, теперь не нужно думать про внутренние компоненты бота. Достаточно запустить bot.start(), и бот начнет функционировать
### Остановка бота
Сейчас остановка происходит при нажатии Ctrl + C. Возникает исключение `KeyboardInterrupt`, которое мы ловим и молча завершаем работу бота:
```
try:
print('bot has been started')
loop.create_task(bot.start())
loop.run_forever()
except KeyboardInterrupt:
pass
```
> **Почему нужно делать красивое завершение (graceful shutdown):**
>
> 1. Бизнес-логика бота может прерваться посередине, и для пользователя это будет выглядеть багом.
> Пример: пользователь отправил файл боту, бот отправил сообщение, что файл загружается, и в этот момент его остановили. Бот будет загружать файл вечно, а пользователь останется в недоумении.
>
> 2. Если в боте есть подключения к другим компонентам, например, к *базе данных* или *очереди*, их нужно корректно завершать.
>
>
Поэтому введем функцию `stop` в *Bot* и каждый внутренний компонент. Она будет отвечать за корректное завершение. Начнем с *poller.*
Чтобы отменить запущенную задачу, нужно вызвать у нее метод `cancel`. <https://docs.python.org/3/library/asyncio-task.html#asyncio.Task.cancel>
```
class Poller:
def __init__(self, token: str, queue: asyncio.Queue):
self.tg_client = TgClient(token)
self.queue = queue
self._task: Optional[Task] = None
async def _worker(self): ...
async def start(self):
self._task = asyncio.create_task(self._worker())
async def stop(self):
self._task.cancel()
```
Для этого введем переменную `_task,` в которую сохраним объект созданной задачи, а в момент остановки *poller* вызовем `cancel`.
В случае с *worker* нельзя просто взять и вызвать `cancel` у всех запущенных задач:
* нужно обработать все задачи, которые *poller* положил в очередь, иначе обновления из Телеграма просто потеряются;
* нельзя прерывать обработку конкретной задачи, т.е. у запущенной задачи cancel вызвать нельзя.
Получается, нужно дождаться выполнения всех задач, которые находятся в очереди. Для такой задачи есть метод `join`.
<https://docs.python.org/3/library/asyncio-queue.html#asyncio.Queue.join>
```
class Worker:
def __init__(self, token: str, queue: asyncio.Queue, concurrent_workers: int):
...
self._tasks: List[asyncio.Task] = []
async def handle_update(self, upd: UpdateObj):
...
async def _worker(self):
while True:
try:
upd = await self.queue.get()
await self.handle_update(upd)
finally:
self.queue.task_done()
async def start(self):
self._tasks = [asyncio.create_task(self._worker()) for _ in range(self.concurrent_workers)]
async def stop(self):
await self.queue.join()
for t in self._tasks:
t.cancel()
```
Давайте разберемся, что мы сделали:
* в методе `start` сохранили все запущенные задачи в `self._tasks`;
* внутри метода `stop` перед вызовом метода `cancel` у всех задач дождались, когда все задачи из *очереди* будут выполнены с помощью `await self.queue.join()`;
* с помощью `self.queue.task_done()`помечаем «выполненными» задачи внутри метода `_worker`.
В итоге получается:
1. остановили *poller*, новые задачи не добавляются в очередь.
2. внутри *worker* ждем, пока выполнятся все задачи `(self.queue.join())`, и только после этого вызываем отмену *воркеров*.
3. так как все задачи завершились, а новые не поступают — *poller* остановлен — то можно вызывать `cancel` у задач и не бояться прервать бизнес-логику бота.
Теперь добавим в *Bot* метод `stop`:
```
async def stop(self):
await self.poller.stop()
await self.worker.stop()
```
И после возникновения исключения `KeyboardInterrupt` запустим остановку бота с помощью `loop.run_until_complete.`<https://docs.python.org/3/library/asyncio-eventloop.html#asyncio.loop.run_until_complete>
```
try:
print('bot has been started')
loop.create_task(bot.start())
loop.run_forever()
except KeyboardInterrupt:
print("\nstopping", datetime.datetime.now())
loop.run_until_complete(bot.stop())
print('bot has been stopped', datetime.datetime.now())
```
Чтобы проверить, что мы все сделали правильно, можно добавить `asyncio.sleep(10)` в метод `handle_update`, отправить боту сообщение и попробовать завершить бота раньше, чем через 10 секунд. В итоге должна получиться подобная картина:
Заключение
----------
Цель этой статьи — показать на примере, как работать с базовым асинхронным программированием и примитивами синхронизации asyncio, а задача написания бота хорошо подходит для этих целей. [Исходный код](https://github.com/ktsstudio/webinar-tgbot).
---
Написать такого бота — одно из домашних заданий нашего курса [«Асинхронное программирование на Python для джуниор-разработчиков».](https://slurm.club/3evdgg6)
**Уже скоро, 3 октября, у нас стартует 4-й поток курса.**
Если хотите разобраться в этой теме, записывайтесь по ссылке:
👉 <https://slurm.club/3evdgg6> | https://habr.com/ru/post/598575/ | null | ru | null |
# Spring Boot + ControllerAdvice + ResponseBodyAdvice или как обернуть ответ контроллеров
Введение
--------
Всем привет, друзья! Сегодня хочу рассказать про способ использования *ControllerAdvice* для оборачивания объекта, возвращаемого контроллерами, в новый класс на уровне *DispatcherServlet*.
**Пример:**
Допустим, некоторый метод отдавал информацию о пользователе
```
{
"name": "Ivan",
"surname": "Ivanov"
}
```
И есть еще десяток методов, которые отдают некоторую информацию о пользователе
Но теперь мы хотим, чтобы каждый метод отдавал дополнительно еще несколько общих полей (например, серию и номер паспорта)
```
{
"name": "Ivan",
"surname": "Ivanov",
"passport": "1111 111111"
}
```
Я расскажу про интересное применение *ControllerAdvice* и покажу один из способов, которым можно решить такую задачу
UDP: про то, как еще можно использовать такой подход**UDP:** представленный в статье механизм возможно использовать и для иных задач, связанных с обработкой ответов контроллеров. Подобный подход используется для обработки исключений в контроллерах. (Хорошая статья об обработки исключений <https://habr.com/ru/post/528116/>)
С помощью использования ControllerAdvice+ResponseBodyAdvice и аннотаций вы можете более гибко настроить обработку любых ответов контроллеров с использованием большого количества информации о методе, контроллере, запросе и ответе контроллера
P.S. В жизни такой подход был удобен, когда в проекте существовала отдельная библиотека, импортирующая в микросервисы модель данных API, а по бизнес требованиям стало необходимо добавить в некоторых микросервисах к моделям дополнительные данные. Возможны и иные кейсы
Решение задачи
--------------
Решение удобно при его многократном использовании. В одном сервисе будет удобнее, скорее всего, использовать иной подход. Поэтому будем писать стартер
Наши задачи:
1. Создать удобный способ использования стартера в коде - через аннотации
2. Создать возможность гибкой настройки добавляемых данных в класс-обертку
3. Создать класс с *@ControllerAdvicе*, обрабатывающий методы контроллеров
4. Собрать все в стартер Spring Boot
Аннотации
---------
Для начала создадим 2 аннотации, который будут включать оборачивание для контроллера и выключать его для конкретного метода
**Аннотация, включающая обработку методов**
```
@RestController
@Target(ElementType.TYPE)
@Retention(RetentionPolicy.RUNTIME)
public @interface EnableResponseWrapper {
Class extends IWrapperModel wrapperClass();
}
```
Так как наша аннотация всегда висит над контроллером, а у аннотаций в java не существует понятия наследования - то вешаем над нашей аннотацией *@RestController* - это позволит использовать *@EnableResponseWrapper* вместо *@RestController*
*@Target(ElementType.TYPE)* - указывает на то, что наша аннотация может висеть над классом, интерфейсом или enum-ом
*@Retention(RetentionPolicy.RUNTIME)* - указывает область видимости аннотации - во время выполнения кода
Аннотация, в качестве аргумента, принимает класс, который описывает оболочку `Class extends IWrapperModel wrapperClass();`
**Аннотация, отключающая обработку метода**
```
@Target(ElementType.METHOD)
@Retention(RetentionPolicy.RUNTIME)
public @interface DisableResponseWrapper {
}
```
Сами по себе аннотации, безусловно, никакой функциональности не добавляют. Обработкой аннотаций займемся позднее
Интерфейсы
----------
Для работы нам понадобится сущность, возвращающая дополнительные данные и сущность, описывающая обертку. Создадим интерфейсы
**Интерфейс сервиса, через который будем получать данные для наполнения обертки**
```
@Service
public interface IWrapperService {
Object getData(Object body);
}
```
Через метод *getData(Object body)* будем получать данные, затем кладем в класс-обертку.
**Интерфейс класса-обертки**
```
public interface IWrapperModel {
void setData(Object object);
void setBody(Object object);
}
```
Через метод *setData(Object object)* устанавливаем те данные, которые получили в методе *getData(Object object)*.
Через *setBody(Object object)* устанавливаем объект-ответ, который вернул обрабатываемый метод
Эдвайс
------
Создадим основной класс стартера, обрабатывающий методы контроллеров
**UPD:** *Инжект бина сервиса происходит через внутренние функции спринга. В случае, если интерфейс реализуют несколько классов - при инжекте произойдет ошибка. В проекте возможно решить эту проблему с помощью @Primary . Если вам необходима различная реализация сервиса - возможна доработка проекта с добавлением передачи сервиса вместе с классом-обертки, инжектом мапы сервисов либо иными более простыми способами решения.
Данный pet проект я не стал дорабатывать из-за нежелания усложнять код - в первую очередь цели проекта и статьи - рассказать об интересном решении, а не создание библиотеки. Выражаю благодарность пользователю, нашедшему данное неудобство* ***[@maxzh83](/users/maxzh83)***
```
@AllArgsConstructor
@ControllerAdvice(annotations = EnableResponseWrapper.class)
public class ResponseWrapperAdvice implements ResponseBodyAdvice {
...
}
```
Аннотация
*@ControllerAdvice(annotations = EnableResponseWrapper.class)* указывает, что методы данного компонента будут использоваться сразу несколькими контроллерами. Также указываем, что наши методы будут обрабатывать только те контроллеры, которые помечены *@EnableResponseWrapper*
Класс реализует интерфейс *ResponseBodyAdvice<>*, который позволяет настраивать ответ, после его возвращения методом `@ResponseBody` или контроллером *ResponseEntity*, но до того, как тело будет записано с помощью *HttpMessageConverter*
В классе необходимо реализовать 2 метода
Первый позволяет отсеить методы на обрабатываемые и не обрабатываемые
Именно в нем мы проверим, не аннотирован ли случайно наш метод @DisableResponseWrapper. Получим все аннотации, которые висят над методом, и поищем среди них нужную нам аннотацию.
```
...
@Override
public boolean supports(MethodParameter returnType, @NonNull Class converterType) {
for (Annotation a : returnType.getMethodAnnotations()) {
if (a.annotationType() == DisableResponseWrapper.class) {
return false;
}
}
return true;
}
...
```
Второй метод класса вызывается только для тех методов, для которых метод *supports* возвращает *true*
```
...
@SneakyThrows
@Override
public Object beforeBodyWrite(
@Nullable Object body,
@NonNull MethodParameter returnType,
@NonNull MediaType selectedContentType,
@NonNull Class selectedConverterType,
@NonNull ServerHttpRequest request,
@NonNull ServerHttpResponse response
) {
if (body == null) {
return null;
}
// получаем wrapperClass из аннотации
Class extends IWrapperModel wrapperClass = null;
for (Annotation annotation : returnType.getContainingClass().getAnnotations()) {
if (annotation.annotationType() == EnableResponseWrapper.class) {
wrapperClass = ((EnableResponseWrapper) annotation).wrapperClass();
break;
}
}
if (wrapperClass == null) {
return body;
}
...
```
Достаем класс-обертку из аннотации
Далее будем работать с объектом, который возвращает наш метод (в методе `beforeBodyWrite()` он передается первым параметром `Object body`)
Рассмотрим две ситуации: когда метод возвращает коллекцию и когда возвращает единичный объект. В случае коллекции мы хотим, чтобы был обернут каждый объект коллекции:
```
...
// проверяем, был ли передан Collection или наследник Collection
if (Collection.class.isAssignableFrom(body.getClass())) {
try {
Collection bodyCollection = (Collection) body;
// проверяем, что collection не пустой
if (bodyCollection.isEmpty()) {
return body;
}
// оборачиваем каждый элемент коллекции
return generateListOfResponseWrapper(bodyCollection, wrapperClass);
} catch (Exception e) {
return body;
}
}
...
```
И если обрабатываемый метод отдает не коллекцию:
```
...
return generateResponseWrapper(body, wrapperClass);
...
```
Функции *generateListOfResponseWrapper* и *generateResponseWrapper* генерируют обертку для коллекции и для единичного элемента:
```
...
private List generateListOfResponseWrapper(Collection bodyCollection, Class extends IWrapperModel wrapperClass) {
return bodyCollection.stream()
.map((t) -> t == null ?
null :
generateResponseWrapper(t, wrapperClass)
)
.collect(Collectors.toList());
}
...
```
```
...
@SneakyThrows
private IWrapperModel generateResponseWrapper(Object body, Class extends IWrapperModel wrapperClass) {
// wrapperClass должен иметь конструктор без параметров - получаем объект класса, реализующего IWrapperModel
IWrapperModel wrapper = wrapperClass.getDeclaredConstructor().newInstance();
wrapper.setBody(body);
wrapper.setData(wrapperService.getData(body));
return wrapper;
}
...
```
Обратим внимание, что из класса нам необходимо получить объект
`IWrapperModel wrapper = wrapperClass.getDeclaredConstructor().newInstance();` , но такой подход требует наличия в классе конструктора без параметров. Используем *@SneakyThrows* библиотеки Lombok для того, чтобы обработать это исключение
Полный код
```
@AllArgsConstructor
@ControllerAdvice(annotations = EnableResponseWrapper.class)
public class ResponseWrapperAdvice implements ResponseBodyAdvice {
private final IWrapperService wrapperService;
/\*\*
\* Метод не будет обработан, если помечен аннотацией {@link DisableResponseWrapper}
\*
\* @param returnType the return type
\* @param converterType the selected converter type
\* @return {@code true} if {@link #beforeBodyWrite} should be invoked;
\* {@code false} otherwise
\*/
@Override
public boolean supports(MethodParameter returnType, @NonNull Class converterType) {
for (Annotation a : returnType.getMethodAnnotations()) {
if (a.annotationType() == DisableResponseWrapper.class) {
return false;
}
}
return true;
}
/\*\*
\* Оборачиваем ответ
\*
\* @param body the body to be written
\* @param returnType the return type of the controller method
\* @param selectedContentType the content type selected through content negotiation
\* @param selectedConverterType the converter type selected to write to the response
\* @param request the current request
\* @param response the current response
\* @return the body that was passed in or a modified (possibly new) instance
\*/
@SneakyThrows
@Override
public Object beforeBodyWrite(
@Nullable Object body,
@NonNull MethodParameter returnType,
@NonNull MediaType selectedContentType,
@NonNull Class selectedConverterType,
@NonNull ServerHttpRequest request,
@NonNull ServerHttpResponse response
) {
if (body == null) {
return null;
}
// получаем wrapperClass из аннотации
Class extends IWrapperModel wrapperClass = null;
for (Annotation annotation : returnType.getContainingClass().getAnnotations()) {
if (annotation.annotationType() == EnableResponseWrapper.class) {
wrapperClass = ((EnableResponseWrapper) annotation).wrapperClass();
break;
}
}
if (wrapperClass == null) {
return body;
}
// проверяем, был ли передан Collection или наследник Collection
if (Collection.class.isAssignableFrom(body.getClass())) {
try {
Collection bodyCollection = (Collection) body;
// проверяем, что collection не пустой
if (bodyCollection.isEmpty()) {
return body;
}
// оборачиваем каждый элемент коллекции
return generateListOfResponseWrapper(bodyCollection, wrapperClass);
} catch (Exception e) {
return body;
}
}
// если не collection
return generateResponseWrapper(body, wrapperClass);
}
/\*\*
\* Генерируем список оберток для коллекции (те информация добавляется внутрь списка)
\*
\* @param bodyCollection список объектов, которые необходимо обернуть
\* @param wrapperClass объект обертки
\* @return список оберток
\*/
private List generateListOfResponseWrapper(Collection bodyCollection, Class extends IWrapperModel wrapperClass) {
return bodyCollection.stream()
.map((t) -> t == null ?
null :
generateResponseWrapper(t, wrapperClass)
)
.collect(Collectors.toList());
}
/\*\*
\* Генерируем обертку вокруг объекта
\*
\* @param body объект который необходимо поместить в обертку
\* @param wrapperClass объект обертки
\* @return обертка
\*/
@SneakyThrows
private IWrapperModel generateResponseWrapper(Object body, Class extends IWrapperModel wrapperClass) {
// wrapperClass должен иметь конструктор без параметров - получаем объект IWrapperModel
IWrapperModel wrapper = wrapperClass.getDeclaredConstructor().newInstance();
wrapper.setBody(body);
wrapper.setData(wrapperService.getData(body));
return wrapper;
}
}
```
Стартер
-------
Теперь нам необходимо превратить наш проект в стартер. Для этого создадим класс автоконфигурации, в котором будем создавать бин из класса *ResponseWrapperAdvice*
```
@Configuration
@AutoConfigureAfter(WebMvcAutoConfiguration.class)
@AllArgsConstructor
public class ResponseWrapperAutoConfiguration {
private final IWrapperService wrapperService;
@Bean
@ConditionalOnMissingBean
public ResponseWrapperAdvice responseWrapperAdvice() {
return new ResponseWrapperAdvice(wrapperService);
}
}
```
`@AutoConfigureAfter(WebMvcAutoConfiguration.class)` - говорит о том, что наши бины подключатся после того, как сконфигурируются и подключатся бины web mvc
А также в *resources/META-INF/* создадим файл *spring.factories*, в котором укажем, где Spring Boot-у искать наши настроенные бины для добавления в контекст
```
org.springframework.boot.autoconfigure.EnableAutoConfiguration=ru.emilnasyrov.lib.response.wrapper.config.ResponseWrapperAutoConfiguration
```
Сборка
------
Соберем стартер в jar файл с помощью команды
```
gradle jar
```
Наш jar-ник появится в `build/libs/response-wrapper-starter-0.0.1-SNAPSHOT-plain.jar` - для удобства обрезаем -plain. Стартер готов и нам остается только подключить его к проекту
Демо
----
Для демо создадим отдельный проект, в котором будем использовать стартер
В проекте создадим папку libs, в которую положим jar стартера
В `build.gradle` стартер подключаем следующим образом:
```
repositories {
...
flatDir {
dirs 'libs'
}
}
dependencies {
...
implementation 'ru.emilnasyrov.lib:response-wrapper-starter:0.0.1-SNAPSHOT'
...
}
```
**Модели данных**
MainModel - изначальные данные
```
@Data
@AllArgsConstructor
public class MainModel {
private String name;
private String surname;
// переопределяем toString, hashCode, equals
}
И Wrapper - класс-обертка
@Data
@AllArgsConstructor
@NoArgsConstructor
public class Wrapper implements IWrapperModel {
@JsonUnwrapped
Object main;
String someInfo;
@Override
public void setData(Object object) {
someInfo = object.toString();
}
@Override
public void setBody(Object object) {
main = object;
}
// переопределяем toString, hashCode, equals
}
```
Сервис, ответственный за получение данных извне
```
@Service
public class WrapperServiceImpl implements IWrapperService {
@Override
public Object getData(Object body) {
return "Additional Information";
}
}
```
**Контроллер**
ControllerСоздадим контроллер, на который повесим аннотацию @EnableResponseWrapper(wrapperClass = Wrapper.class) с указанием класса-обертки
```
@EnableResponseWrapper(wrapperClass = Wrapper.class)
@RequestMapping("/test")
public class Controller {
@GetMapping
public MainModel test() {
return new MainModel("Name", "Surname");
}
@GetMapping("/collection")
public Collection testList() {
Collection mainModels = new ArrayList<>();
mainModels.add(new MainModel("Name1", "Surname1"));
mainModels.add(new MainModel("Name2", "Surname2"));
return mainModels;
}
@DisableResponseWrapper
@GetMapping("/unwrapped")
public MainModel unwrapped() {
return new MainModel("Name", "Surname");
}
}
```
Точки входа с оберткой одного объекта `/test`, с оберткой коллекции объектов `/test/collection` и `/test/unwrapped` - отключение обработки для конкретного метода
Запустим проект и проверим запросы
PostmanТест обертки единичного объектаТест обертки списка объектовТест метода с аннотацией @DisableResponseWrapperРезюме
------
Мы рассмотрели интересный способ использования *ControllerAdvice* для работы с ответом точек входа контроллера. Также создали pet-библиотеку с реализацией в виде стартера Spring Boot
Почему не будет работать обычное AOP? Потому что AOP создает прокси класса с помощью CGLib или JDK Dynamic Proxy. Но когда DispatcherServlet, сканируя наши контроллеры, увидит, что контроллер должен возвращать один класс, а возвращает в итоге иной (обертку), то он отдаст ошибку. Однако подход, описанный в статье, позволяет провернуть такую интересную штуку
**Ссылка на на полный код проекта:** [**GitHub**](https://github.com/Emilikan/ResponseWrapperLib) | https://habr.com/ru/post/567056/ | null | ru | null |
# Просто о сложном. Начало создания беспроводного «умного дома». На основе технологии Linux, Z-Wave и ПО MajorDoMo
### Часть первая: Небольшая пошаговая инструкция по установке и первоначальной настройке «Умного дома»

Так случилось, что жизнь заставила приступить к частичной автоматизации квартиры, особенно в части её безопасности, краны, газ, вход, электричество, ну а потом уже всё остальное.
Для себя определил следующие критерии:
1. Место — квартира, где переделка (существенная переделка чего-либо не планируется).
2. Возможность интеграции всех решений в единую систему УД с открытым кодом .
3. Возможность постепенного расширения (масштабирования) функционала.
4. По-возможности, минимальные затраты.
5. По возможности покупка элементов системы в РБ или же в РФ, без всяких заказов с зарубежных сайтов. Пришел, посмотрел, купил.
6. По возможности русскоязычный интерфейс, документация, поддержка.
Для себя определил открытый протокол Z-wave, сердце системы – однопалатный компьютер Raspberry PI (как раз у меня по работе такой и был) с контроллером Razberry, работающем на протоколе Z-Wave+. Программное обеспечение выбрал MajorDoMo. И протокол и ПО удовлетворяют мои требования.
В качестве помощника решил привлечь своего старшего сына (школьника, закончил 8-ой класс). И понял существующая документация довольно сложна для обычного пользователя, не сталкивающегося с настройкой, конфигурированием и программированием.
Вот и решил немного восполнить этот пробел.
Про видеонаблюдение ранее написал небольшую заметку:
[Удаленный мониторинг и наблюдение за больными (пожилыми) людьми, на основе IP камеры Xiaomi MiJia Mi Home Security 360](https://habr.com/post/415741/). Планирую протестировать ещё несколько видеокамер.
#### Создание загрузочного диска:
Первым делом скачиваем образ системы для дальнейших действий:
→ [ссылка на страницу разработчика ПО](http://connect.smartliving.ru/tasks/20.html)
→ [ссылка на загрузку образа](https://drive.google.com/uc?id=1_lS58vHnNXeC7lI9iGkQW4L15EDWSIXZ&export=download)
Для создания загрузочной флешки я использовал официально рекомендованную программу производителем Raspberry.
→ [Сайт Raspberry](https://www.raspberrypi.org/documentation/installation/installing-images/)
На официальном сайте разработчика [сайт программы загрузчика](https://etcher.io/).

Сразу же на сайте определяется разрядность ОС, и предоставляется ссылка для скачивания.
Также наглядно показано 3 шага для прожига образа.
1) Выбор образа
2) Выбор диска
3) Прожиг
Устанавливаем Etcher
И создаем загрузочный диск на основе образа, который ранее скачали (предварительно распаковав его).
Подключаем Raspberry Pi через кабель HDMI и подключаем клавиатуру.
Включаем питание Raspberry.
Идет загрузка системы, после которой запрос логина и пароля.
Используем по умолчанию: *логин PI, пароль raspberrymj*.
Вводимые символы пароля не отображаются

Запускаем утилиту настройки Raspberry
```
sudo raspi-config
```

Первым делом я поменял пароль по умолчанию, надоест вводить 11 символов

Далее, конфигурируем свою сеть, в моем случае Wi-Fi вводим ssid (имя сети) и пароль к ней.


С базовым образом подключение по SSH уже включено, так что этот шаг можно пропустить. Если не открыт, то открываем доступ для удаленного подключения через SSH >


Более подробная информация о настройках утилиты конфигурирования находится здесь:
[немного информации о rasp-config](http://wikihandbk.com/wiki/Raspberry_Pi:%D0%9D%D0%B0%D1%81%D1%82%D1%80%D0%BE%D0%B9%D0%BA%D0%B0/raspi-config).
Перегружаемся выполнив команду:
```
sudo reboot
```
Вновь авторизовываемся, введя логин и пароль.
Узнаем IP адрес Raspberry, задав команду:
```
ifconfig
```

wlan0, в моем случае и есть беспроводной интерфейс.
Задав команду ping, можем проверить доступ к Internet
```
Ping 8.8.8.8
```

Если всё прошло нормально, то видим ответы
Выход из утилиты ping (да и из многих утилит)
ctrl+C
После этого можем работать под удобной и привычной для себя операционной системой.
Для windows 10 привожу пример:
Скачиваем программу PuTTY, выбирая свою разрядность ОС Windows.
→ [Ссылка на выбор для скачивания](https://www.chiark.greenend.org.uk/~sgtatham/putty/latest.html)
→ [Putty для 64bit](https://the.earth.li/~sgtatham/putty/latest/w64/putty-64bit-0.70-installer.msi)
Запускаем программу PuTTY.
#### Пошаговый запуск PuTTY
Появляется окно подключения:
Указываем IP адресс Raspberry:

Далее в настройках выставляем Terminal — Keyboard:

Выставляем кодировку utf8, в Window — Translation

Нажимаем OPEN
Если подключаемся в первый раз, то появляется запрос безопасности системы нажимаем ДА

Запрос логина, а потом и пароля. Как и при первом подключении.
При вводе пароля как обычно, символы не отображаются.

Ещё раз проверяем, на всякий случай, свой IP адрес задав команду
```
Ifconfig
```
На рабочем ПК, в браузере набираем адрес платы:
Поздравляю!
Первый шаг сделан. Вы попадаете в окно настроек программы MajorDoMo.

Но радоваться ещё рановато, впереди предстоит установить и настроить сам Z-Wave, разобраться с программой администрирования вашего «умного дома», его программированием и т.д.
### Источники:
[Информация о технологии из Википедии](https://ru.wikipedia.org/wiki/Z-Wave)
[Z-wave альянс](https://z-wavealliance.org/)
[Z-wave.me](https://z-wave.me/)
[Z-wave.ru](https://z-wave.ru/)
[Z-wave.by](https://z-wave.by/)
[Сайт разработчика MajorDoMo](https://majordomo.smartliving.ru/)
[Форум](https://majordomo.smartliving.ru/forum/index.php) | https://habr.com/ru/post/416007/ | null | ru | null |
# High-Quality Text-to-Speech Made Accessible, Simple and Fast

There is a lot of commotion in text-to-speech now. There is a great variety of toolkits, a plethora of commercial APIs from GAFA companies (based both on new and older technologies). There are also a lot of Silicon Valley startups trying to ship products akin to "deep fakes" in speech.
But despite all this ruckus we have not yet seen open solutions that would fulfill all of these criteria:
* Naturally sounding speech;
* A large library of voices in many languages;
* Support for `16kHz` and `8kHz` out of the box;
* No GPUs / ML engineering team / training required;
* Unique voices not infringing upon third-party licenses;
* High throughput on slow hardware. Decent performance on one CPU thread;
* Minimalism and lack of dependencies. One-line usage, no builds or coding in C++ required;
* Positioned as a solution, not yet another toolkit / compilation of models developed by other people;
* Not affiliated by any means with ecosystems of Google / Yandex / Sberbank;
We decided to share our **open non-commercial** solution that fits all of these criteria with the community. Since we have published the whole pipeline we do not focus much on cherry picked examples and we encourage you to visit our project GitHub [repo](https://github.com/snakers4/silero-models) to test our TTS for yourself.
Solutions Review
----------------
This summary is not supposed to provide an in-depth technical overview of all available solutions. We just want to do a brief introductory summary of the available approaches. We do not list numerous toolkits in favor of more or less batteries-included solutions with a decent library of voices and some kind of support / community:
* Concatenative models. The only project I found that is somehow maintained and alive and it's possible to run it "as-is" without archaeological excavations, is [rhvoice](https://github.com/RHVoice/RHVoice) (there are entire forums dedicated to running TTS voices from Windows, but this can hardly be called a supported solution). When I tested this repo, it was essentially abandoned, but then it got a new "owner". The main advantage here is low compute requirements (excluding human resources to make it work and maintain it). The main disadvantage — it sounds like a metallic robotic voice. A less obvious disadvantage is that it's quite difficult to estimate the cost of ownership. **Sound quality: 3+ on a five-point scale**;
* The modern DL-based models approach is essentially to separate the end-to-end TTS task into two subtasks: *text -> features* and *features -> speech (vocoding)*. Typically Tacotron2 is used for the first subtask. There is a plethora of different models ranging by their compute requirements:
+ Tacotron2 + WaveNet (the original WaveNet accepted linguistics features as input, but for tacotron it was changed to more convenient melspectrograms). The main problem is a very low inference speed due to the autoregressiveness of the model and its computational complexity. It is also prohibitively expensive to train this one. **Sound quality: 4+**;
+ Tacotron2 + WaveRNN (also modified to accept spectrograms). Vocoder is noticeably faster than the previous one: using all the hacks you can even get real-time synthesis without a GPU, although the naturalness of the sound will decrease; sound quality: 3.5-4
+ Tacotron2 + Parallel WaveNet. The slow vocoder mentioned above was used as a teacher model to train a new accelerated parallel vocoder model, capable to synthesize audio faster than real-time, but still demanding powerful GPUs. Besides, distillation process itself adds the disadvantages: it requires a high-fidelity teacher model and an appropriate training scheme. **Sound quality: 4+**;
+ Tacotron2 + multi-band WaveRNN. It's also a development of the previous ideas, and parallelization in a sense — here synthesis is faster than real-time on the CPU. The aforementioned paper is not so popular, so there are not many implementations, although some approaches were clever and have been successfully applied in the further models. **Sound quality: 3.5-4+**;
+ Tacotron2 + LPCNet. An interesting combination of DL and classical algorithms, which can speed up inference enough for production on CPU, but requires a lot of work to essentially decrypt the authors' code for high-quality results. **Sound quality: 3.5-4+**;
+ Numerous solutions based on Nvidia's Tacotron2 + Waveglow as the current standard for speech synthesis tasks. No one tells about about their "secret sauce" (for example how [15.ai](https://15.ai) creates a voice based on 15 minutes of ground truth or how many models there are in their pipeline). Synthesis may sound indistinguishable from the real people's voices on the cherry-picked examples, but when you look at the real models from the community, the quality varies markedly, and the details of the improved solutions are not disclosed. Architecturally, there are no complaints about the tacotron and its analogs in terms of speed and cost of ownership, but Waveglow is very compute intensive training and in production, which makes its use essentially impractical and prohibitive. **Sound quality: 3.5-4+**;
+ Replacing Tacotron2 => FastSpeech / FastSpeech 2 / FastPitch, that is, choosing a simpler feed-forward architecture instead of a recurrent one (based on forced-align from Tacotron and a million more tricky and complex options). It gives control of the speech tempo and voice pitch, which is quite practical, generally simplifies and makes the final architecture more modular.**Sound quality: 3.5-4+**;
Quality Assessment and Audio Examples
-------------------------------------
We decided to keep the quality assessment really simple: we generated audio from the validation subsets of our data (~200 files per speaker), shuffled them with the original recorded audios of the same speakers, and gave it to a group of 24 assessor to evaluate the sound quality on a five-point scale. For `8kHz` and `16kHz` the scores were collected separately (both for synthesized and original speech). For simplicity we had the following grades — [1, 2, 3, 4-, 4, 4+, 5-, 5] — the higher the quality the more detailed our scale is. Then, for each speaker, we simply calculated the mean.
In total people scored audios `37,403` times. 12 people annotated the whole dataset. 12 other people managed to annotate from 10% to 75% of audios. For each speaker we calculated mean (standard deviation is shown in brackets). We also tried first calculating median scores for each audio and then averaging them. But this just increases the mean values without affecting the ratios, so we just used plain averages in the end. The key metric here of course is the ratio between the mean score for synthesis vs the original audio. Some users had much lower scores overall (hence high dispersion), but we decided to keep all scores as is without cleaning outliers.
| Speaker | Original | Synthesis | Ratio | Examples |
| --- | --- | --- | --- | --- |
| aidar\_8khz | 4.67 (.45) | 4.52 (.55) | 96.8% | [link](https://drive.google.com/drive/folders/1DhKQcWV_1A6gCQWyDa-6-oZACwzgKTLc?usp=sharing) |
| baya\_8khz | 4.52 (.57) | 4.25 (.76) | 94.0% | [link](https://drive.google.com/drive/folders/1r-wovYrFw_EqZJNxI1GiVzsJ9jiyoHJZ?usp=sharing) |
| kseniya\_8khz | 4.80 (.40) | 4.54 (.60) | 94.5% | [link](https://drive.google.com/drive/folders/1WDAq7oS6L6SPtyDQN04Iuaacak0vb4tv?usp=sharing) |
| aidar\_16khz | 4.72 (.43) | 4.53 (.55) | 95.9% | [link](https://drive.google.com/drive/folders/13hzbcGFziUFEA1VTXKn6k_8A_Xi_76ef?usp=sharing) |
| baya\_16khz | 4.59 (.55) | 4.18 (.76) | 91.1% | [link](https://drive.google.com/drive/folders/1plOps32g62WZiT7iCe677LQhF0-w66q4?usp=sharing) |
| kseniya\_16khz | 4.84 (.37) | 4.54 (.59) | 93.9% | [link](https://drive.google.com/drive/folders/1DOUw7Z2mr0YrWulcD286v9pZz2qbHZ4W?usp=sharing) |
We asked our assessors to rate the "naturalness of the speech" (not the audio quality). Nevertheless we were surprised that based on anecdotes people cannot tell 8 kHz from 16 kHz on their everyday devices (which is also confirmed by metrics). Baya has the lowest absolute and relative scores. Kseniya has the highest absolute scores, Aidar has the highest relative scores. Baya also has higher score dispersion.
Manually inspecting audios with high score dispersion reveals several patterns. Speaker errors, tacotron errors (pauses), proper names and hard-to-read words are the most common causes. Of course 75% of such differences are in synthesized audios and sampling rate does not seem to affect it.
We tried to rate "naturalness". But it is only natural to try estimating "unnaturalness" or "robotness" as well. It can be measured by asking people to choose between to audios. But we went one step beyond and essentially applied a double blind test. We asked our assessors to rate the same audio 4 times in random order — original and synthesis with different sampling rates. For assessors who annotated the whole dataset we calculated the following table:
| Comparison | Worse | Same | Better |
| --- | --- | --- | --- |
| 16k vs 8k, original | 957 | 4811 | 1512 |
| 16k vs 8k, synthesis | 1668 | 4061 | 1551 |
| Original vs synthesis, 8k | 816 | 3697 | 2767 |
| Original vs synthesis, 16k | 674 | 3462 | 3144 |
Several conclusions can be drawn:
* In 66% of cases people cannot hear difference between 8k и 16k;
* In synthesis 8k helps to hide some errors;
* In about 60% of cases synthesis is same or better than the original;
* Two last conclusions hold regardless of the sampling rate, 8k having a slight advantage;
You can [see for yourself](https://drive.google.com/drive/folders/1sJRRDiOkT0ecklzU940EdnSpuODBRLC5) how it sounds, both for our unique voices and for speakers from external sources (more audio for each speaker can be synthesized in the [colab notebook](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) in our repo.
If you're unfamiliar with colab notebooks or you just want a quick listen, here are some [random audios](https://soundcloud.com/alexander-veysov/sets/silero-tts-samples-00) for our voices:
**Aidar:**
**Baya:**
**Kseniya:**
Once again, please note that these ones are not cherry-picked examples, but how the synthesis actually sounds.
Speed Benchmarks
----------------
Speed is the next important defining property of the model, and to measure the speed of synthesis we use the following simple metrics:
* RTF (Real Time Factor) — time the synthesis takes divided by audio duration;
* RTS = 1 / RTF (Real Time Speed) — how much the synthesis is "faster" than real-time;
We benchmarked the models on two devices using Pytorch 1.8 utils:
* CPU — Intel i7-6800K CPU @ 3.40GHz;
* GPU — 1080 Ti;
* When measuring CPU performance, we also limited the number of threads used;
**For the 16KHz models we got the following metrics:**
| BatchSize | Device | RTF | RTS |
| --- | --- | --- | --- |
| 1 | CPU 1 thread | 0.7 | 1.4 |
| 1 | CPU 2 threads | 0.4 | 2.3 |
| 1 | CPU 4 threads | 0.3 | 3.1 |
| 4 | CPU 1 thread | 0.5 | 2.0 |
| 4 | CPU 2 threads | 0.3 | 3.2 |
| 4 | CPU 4 threads | 0.2 | 4.9 |
| --- | ----------- | --- | --- |
| 1 | GPU | 0.06 | 16.9 |
| 4 | GPU | 0.02 | 51.7 |
| 8 | GPU | 0.01 | 79.4 |
| 16 | GPU | 0.008 | 122.9 |
| 32 | GPU | 0.006 | 161.2 |
| --- | ----------- | --- | --- |
**For the 8KHz models we got the following metrics:**
| BatchSize | Device | RTF | RTS |
| --- | --- | --- | --- |
| 1 | CPU 1 thread | 0.5 | 1.9 |
| 1 | CPU 2 threads | 0.3 | 3.0 |
| 1 | CPU 4 threads | 0.2 | 4.2 |
| 4 | CPU 1 thread | 0.4 | 2.8 |
| 4 | CPU 1 threads | 0.2 | 4.4 |
| 4 | CPU 4 threads | 0.1 | 6.6 |
| --- | ----------- | --- | --- |
| 1 | GPU | 0.06 | 17.5 |
| 4 | GPU | 0.02 | 55.0 |
| 8 | GPU | 0.01 | 92.1 |
| 16 | GPU | 0.007 | 147.7 |
| 32 | GPU | 0.004 | 227.5 |
| --- | ----------- | --- | --- |
A number of things surprised us during benchmarking:
* AMD processors performed much worse;
* The bottleneck in our case was the tacotron, not the vocoder (there is still a lot of potential to make the whole model 3-4x faster, maybe even 10x);
* More than 4 CPU threads or batch size larger than 4 do not help;
Available Speakers
------------------
For simplicity we decided to publish all our models as part of [silero-models](https://github.com/snakers4/silero-models). The full list of current models can always be found in this [yaml file](https://github.com/snakers4/silero-models/blob/master/models.yml).
At the time of this writing, the following voices are supported (for each speaker `_16khz` and `_8khz` versions of voices are available):
| Speaker | Gender | Language | Source | Dataset License | Examples | Colab |
| --- | --- | --- | --- | --- | --- | --- |
| aidar | m | ru | `Silero` | Private | [8000](https://drive.google.com/drive/folders/1DhKQcWV_1A6gCQWyDa-6-oZACwzgKTLc?usp=sharing) / [16000](https://drive.google.com/drive/folders/13hzbcGFziUFEA1VTXKn6k_8A_Xi_76ef?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| baya | f | ru | `Silero` | Private | [8000](https://drive.google.com/drive/folders/1r-wovYrFw_EqZJNxI1GiVzsJ9jiyoHJZ?usp=sharing) / [16000](https://drive.google.com/drive/folders/1plOps32g62WZiT7iCe677LQhF0-w66q4?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| kseniya | f | ru | `Silero` | Private | [8000](https://drive.google.com/drive/folders/1WDAq7oS6L6SPtyDQN04Iuaacak0vb4tv?usp=sharing) / [16000](https://drive.google.com/drive/folders/1DOUw7Z2mr0YrWulcD286v9pZz2qbHZ4W?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| irina | f | ru | Private contribution | TBD | [8000](https://drive.google.com/drive/folders/1x2gS0SntbMYbpvLltz2w2GzEty56jrjO?usp=sharing) / [16000](https://drive.google.com/drive/folders/1zOSYbTd7dIOt_MwgZr9lVqJUgSm55_5d?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| natasha | f | ru | [source](http://dataset.sova.ai/SOVA-TTS/natasha/natasha_dataset.tar) | CC BY 4.0 | [8000](https://drive.google.com/drive/folders/1QYzUl4C_v-gjKylyns46HEj3efuESkUR?usp=sharing) / [16000](https://drive.google.com/drive/folders/1-F1DATGufLR9oopMqaVw1ug93Xu5jYBP?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| ruslan | m | ru | [source](https://ruslan-corpus.github.io/) | CC BY-NC-SA 4.0 | [8000](https://drive.google.com/drive/folders/1REqGoMl135ySDI1c2U3FiW3qQ6_4v09o?usp=sharing) / [16000](https://drive.google.com/drive/folders/1ydVa8ViVdJeK0bTV3-QtLFfl_--1xEF-?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| lj | f | en | [source](https://keithito.com/LJ-Speech-Dataset/) | Public Domain | [8000](https://drive.google.com/drive/folders/1cqZtR-IFS1qQJcZKWVXePgqgIvoWoCI0?usp=sharing) / [16000](https://drive.google.com/drive/folders/1b40zvuYGZ0Z2CiDuq3Kua_OQ8to0zRru?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| thorsten | m | de | [source](https://github.com/thorstenMueller/deep-learning-german-tts/) | Creative Commons Zero v1.0 Universal | [8000](https://drive.google.com/drive/folders/1mpQCK5E_IqhcSurnYuGePJiJWL4ZL08z?usp=sharing) / [16000](https://drive.google.com/drive/folders/1tR6w4kgRS2JJ1TWZhwoFuU04Xkgo6YAs?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| gilles | m | fr | [source](https://github.com/Kyubyong/css10) | Public Domain | [8000](https://drive.google.com/drive/folders/10lD5x9Ck69xq9gp8CGG53PuToWL3p2o0?usp=sharing) / [16000](https://drive.google.com/drive/folders/1xYF0j3J_0bruq4gNENbIDOtqSPriFZN5?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
| tux | m | es | [source](https://github.com/Kyubyong/css10) | Public Domain | [8000](https://drive.google.com/drive/folders/1PwtfWuq5N6LHws-UFlVZILFWI0y7YO8N?usp=sharing) / [16000](https://drive.google.com/drive/folders/1pueiVgLJ-hki3V5M6byEop0mcg1nA2VQ?usp=sharing) | [Open In Colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb) |
How To Try It
-------------
All models are published in [silero-models repository](https://github.com/snakers4/silero-models), there are also examples of launching the synthesis in [colab](https://colab.research.google.com/github/snakers4/silero-models/blob/master/examples_tts.ipynb). For completeness, here is a minimalistic example:
```
import torch
language = 'ru'
speaker = 'kseniya_16khz'
device = torch.device('cpu')
(model,
symbols,
sample_rate,
example_text,
apply_tts) = torch.hub.load(repo_or_dir='snakers4/silero-models',
model='silero_tts',
language=language,
speaker=speaker)
model = model.to(device) # gpu or cpu
audio = apply_tts(texts=[example_text],
model=model,
sample_rate=sample_rate,
symbols=symbols,
device=device)
```
The following special characters are currently supported: `!\'(),.:;?¡¿`. In addition, for most speakers of the Russian language, accent marks were used in the text for voicing (the `+` symbol before the stressed vowel — while testing such models you still need to put the accent manually):
| Speaker | With stress |
| --- | --- |
| aidar | yes |
| baya | yes |
| ksenia | yes |
| irina | yes |
| natasha | yes |
| ruslan | yes |
| lj | no |
| thorsten | no |
| gilles | no |
| tux | no |
In future we plan to convert all models to a simpler and more unified input format that does not require accents. To avoid confusion, [yml file](https://github.com/snakers4/silero-models/blob/master/models.yml), which describes all our models, explicitly specifies a set of tokens for each model, and an example phrase to generate.
Philosophy, License, and Motivation
-----------------------------------
As model authors, we consider the following rules for using models to be fair:
* Any of the models described above cannot be used in commercial products;
* Voices from external sources are provided for demonstration purposes only;
* The `silero-models` repository is published under the GNU A-GPL 3.0 license. Legally speaking this does not prohibit commercial use. But commercial solutions with fully open code under the same license are rare (which is required by this license);
* If your goal is to make non-commercial use of our models for the benefit of the society — we will be glad to help you with the integration of our models;
* If you are planning to try models for personal use — you are encouraged to share the results of your experiments in the repository;
* If you are willing to incorporate our models into non-commercial products for people with speech or sight impairments — you are welcome to reach out, we will be happy to do what we can;
The main goal of this project was to build a modern TTS system that meets the criteria described above.
Further Work
------------
We plan to develop and improve our models, in particular:
* Continue to work on the quality and naturalness of the sound and expand the library of voices;
* Sooner or later add support for voice speed and pitch;
* Making our models 3-4 times faster is still possible;
* It is unlikely, but still possible that sooner or later we will be able to add a multi-speaker model or voice-transfer;
Tongue Twisters
---------------
And as a bonus, here are some tongue twisters.
Russian:
Other languages: | https://habr.com/ru/post/549482/ | null | en | null |
# Почему буфер должен расти экспоненциально
Сотрудник Mozilla Николас Нетеркот опубликовал заметку с очень [чётким объяснением](https://blog.mozilla.org/nnethercote/2014/11/04/please-grow-your-buffers-exponentially/), почему размер буфера памяти для программы нужно увеличивать экспоненциально, а не линейно.
Предположим, что у нас есть структура данных, для которой нужно всё больше памяти, например, строка или вектор. Если новые элементы не помещаются в буфере, то создаётся новый буфер, туда копируются всё содержимое из старого, а затем старый буфер освобождается. Обычное этим занимается `realloc()`.
Так вот. Представим, что наш изначальный 1-байтный буфер растёт по 1 байту до тех пор, пока не достигнет размера 1 МиБ. Сколько памяти мы задействовали для него кумулятивно?
```
1 + 2 + 3 + … + 1,048,575 + 1,048,576 = 549,756,338,176 байт
```
Неслабо, да?
Опытным программистам этот нюанс давно известен, так что линейное увеличение буфера кто-то даже считает [«типичной ошибкой новичка»](https://news.ycombinator.com/item?id=8555641).
Суть в том, что если новый массив всегда больше предыдущего на постоянную величину, то общая работа составит O(n2). Если же новый массив увеличивать на постоянный множитель N, то общая работа составит O(n). Под «работой» подразумеваются обращения к функциям `malloc()` и `realloc()` с последующим перераспределением и копированием значений в памяти, то есть общая нагрузка на систему.
Конечно, есть ситуации, например, со встроенными прошивками для аппаратного обеспечения, которые можно рассматривать как исключения из правила. Но для десктопных систем это практически закон. Вопрос только в том, [какой множитель использовать: 2 или 1,5](https://stackoverflow.com/questions/1100311/what-is-the-ideal-growth-rate-for-a-dynamically-allocated-array).
Николас Нетеркот добавляет к своему примеру, что на практике общее потребление памяти будет, конечно, меньше, потому что менеджер памяти округляет размер буфера. Например, менеджер того же Firefox (старая, сильно модифицированная версия jemalloc) округляет запросы на выделение памяти между 4 КиБ и 1 МиБ до ближайшего множителя 4 КиБ. То есть в нашем примере для буфера с итоговым объёмом 1 МиБ получится всего лишь:
```
4,096 + 8,192 + 12,288 + … + 1,044,480 + 1,048,576 = 134,742,016 байт
```
Для сравнения, если бы мы сразу использовали множитель 2:
```
4,096 + 8,192 + 16,384 + 32,768 + 65,536 + 131,072 + 262,144 + 524,288 + 1,048,576 = 2,093,056 байт
```
Говорят, что «типичная ошибка новичка» проявляется в очень многих проектах, когда любая задача ввода/вывода не масштабирует размер буфера. Нетеркот сходу нашёл соответствующие фрагменты неоптимального кода в реализациях алгоритмов в [XDRBuffer](https://bugzilla.mozilla.org/show_bug.cgi?id=1084114), [nsTArray](https://bugzilla.mozilla.org/show_bug.cgi?id=1048044) и [SQLite](https://bugzilla.mozilla.org/show_bug.cgi?id=1088143). | https://habr.com/ru/post/242279/ | null | ru | null |
# Серверная кластеризация маркеров на карте. От теории к практике
Привет Хабр. История начинается с того что мы решили сделать гео сервис с возможностью размещения меток на карте самими пользователями.
И когда решили залить в базу 1 миллион маркеров то поняли, что даже если запрашивать маркеры только в определенном радиусе то все работает очень медленно и кластеризация на клиенте тоже не вариант :)
А где-то под этим лесом находится манхетен

Кластеризация это очень интересная задача, есть клиентская, есть серверная и все крупные картографические сервисы ее поддерживают. Известно множество видов кластеризации, но я в своих поисках выбрал Grid-кластеризацию. Про нее расказывали сотрудники Яндекса в нескольких своих докладах на конференциях. Она используется в яндекс картах для кластеризации маркеров. **Yandex кластеризация**
Немного теории
--------------
Grid-кластеризация основана на [проекции Меркатора](https://ru.wikipedia.org/wiki/Проекция_Меркатора), вкратце это проецирование сферической поверхности земного шара на прямоугольную плоскость. Это как раз все атласы, карты итд. Как понятно из названия в этой кластеризации мы покрываем карту сеткой и вычисляем количество маркеров в каждой ячейке это сетки.
Термины:
**Тайл(tile, плитка)** — то по сути просто разделение карты на квадраты для определенного zoom-а. На первом уровне у нас карта будет состоять из 1 квадрата(тайла) на 0 уровне, на 1 уровне из 4-х квадратов(тайлов), на втором уровне на 16 на третьем на 64 и т.д. По сути это 4 в степени уровня.

**Quadkey** — это уникальный идентификатор тайла на любом уровне. На первом уровне нумеруем тайлы 0,1,2,3 справа налево, сверху вниз. Затем на следующем уровне для каждого тайла из верхнего уровня делаем такую же нумера но уже добавляя quadkey родителя т.е. 00,01,02,03,10,11,12,13 и т.д. Более понятно это становится по рисунку:

Посути мы получили число в 4-чной системе исчисления. Теперь у нас каждый тайл имеет свой уникальный идентификатор на любом уровне zoom-а. Из zoom-а, широты и долготы можно получить уже сам quadkey тайла т.е. любую точку можно преобразовать в quadkey соответсвующего уровня zoom-а. А вот так будет выглядеть quadkey для конкретных координат:
longitude -79.377807617187500
latitude 43.653785705566406
quadkey 13940830302567 (base4: 03022313122033033011213)
Описание этого подхода на англиской языке от Microsoft:
[Bing Maps Tile System](https://msdn.microsoft.com/en-us/library/bb259689.aspx)
В этой статье реализации всех этих преобразований написана на C#, я побыстрому переписал ее на PHP:
**TileSystem.php**
```
class TileSystem
{
const EarthRadius = 6378137;
const MinLatitude = -90;
const MaxLatitude = 90;
const MinLongitude = -180;
const MaxLongitude = 180;
const MaxZoom = 23;
private static function clip( $n, $minValue, $maxValue)
{
return min( max( $n, $minValue), $maxValue);
}
public static function mapSize( $levelOfDetail)
{
return 256 << $levelOfDetail;
}
public static function GroundResolution( $latitude, $levelOfDetail)
{
$latitude = self::clip( $latitude, self::MinLatitude, self::MaxLatitude);
return cos( $latitude * pi() / 180) * 2 * pi() * self::EarthRadius / self::mapSize( $levelOfDetail);
}
public static function mapScale( $latitude, $levelOfDetail, $screenDpi)
{
return self::groundResolution( $latitude, $levelOfDetail) * $screenDpi / 0.0254;
}
public static function latToPixelY( $latitude, $levelOfDetail)
{
$latitude = self::clip( $latitude, self::MinLatitude, self::MaxLatitude);
$sinLatitude = sin( $latitude * pi() / 180);
$y = 0.5 - log((1 + $sinLatitude) / (1 - $sinLatitude)) / (4 * pi());
$mapSize = self::mapSize( $levelOfDetail);
$pixelY = (int) self::clip( $y * $mapSize + 0.5, 0, $mapSize - 1);
return $pixelY;
}
public static function longToPixelX( $longitude, $levelOfDetail)
{
$longitude = self::clip( $longitude, self::MinLongitude, self::MaxLongitude);
$x = ($longitude + 180) / 360;
$mapSize = self::mapSize( $levelOfDetail);
$pixelX = (int) self::clip( $x * $mapSize + 0.5, 0, $mapSize - 1);
return $pixelX;
}
public static function pixelXToLong( $pixelX, $levelOfDetail)
{
$mapSize = self::mapSize( $levelOfDetail);
$x = ( self::clip( $pixelX, 0, $mapSize - 1) / $mapSize) - 0.5;
$longitude = 360 * $x;
return $longitude;
}
public static function pixelYToLat( $pixelY, $levelOfDetail)
{
$mapSize = self::mapSize( $levelOfDetail);
$y = 0.5 - (self::clip( $pixelY, 0, $mapSize - 1) / $mapSize);
$latitude = 90 - 360 * atan( exp(-$y * 2 * pi())) / pi();
return $latitude;
}
public static function pixelYToTileY( $pixelY)
{
return $pixelY / 256;
}
public static function pixelXToTileX( $pixelX)
{
return $pixelX / 256;
}
public static function tileXYToPixelXY( $tileX, $tileY, &$pixelX, &$pixelY)
{
$pixelX = $tileX * 256;
$pixelY = $tileY * 256;
}
public static function tileXYToQuadKey( $tileX, $tileY, $levelOfDetail)
{
if ($levelOfDetail == 0)
return "0";
$quadKey = "";
for ($i = $levelOfDetail; $i > 0; $i--) {
$digit = 0;
$mask = 1 << ($i - 1);
if (($tileX & $mask) != 0) {
$digit++;
}
if (($tileY & $mask) != 0) {
$digit++;
$digit++;
}
$quadKey .= $digit;
}
return $quadKey;
}
public static function latLongToQuadKeyDec( $lat, $long, $zoom)
{
return self::quadKey4ToDec( self::latLongToQuadKey( $lat, $long, $zoom));
}
public static function latLongToQuadKey( $lat, $long, $zoom)
{
$pixelX = \foci\utils\TileSystem::longToPixelX( $long, $zoom);
$pixelY = \foci\utils\TileSystem::latToPixelY( $lat, $zoom);
$tileX = \foci\utils\TileSystem::pixelXToTileX( $pixelX);
$tileY = \foci\utils\TileSystem::pixelYToTileY( $pixelY);
return \foci\utils\TileSystem::tileXYToQuadKey( $tileX, $tileY, $zoom);
}
public static function pixelXYToQuadKey( $pixelX, $pixelY, $zoom)
{
$tileX = \foci\utils\TileSystem::pixelXToTileX( $pixelX);
$tileY = \foci\utils\TileSystem::pixelYToTileY( $pixelY);
return \foci\utils\TileSystem::tileXYToQuadKey( $tileX, $tileY, $zoom);
}
public static function pixelXYToQuadKeyDec( $pixelX, $pixelY, $zoom)
{
return base_convert( self::pixelXYToQuadKey( $pixelX, $pixelY, $zoom), 4, 10);
}
public static function quadKeyToTileXY( $quadKey, &$tileX, &$tileY, &$levelOfDetail)
{
$tileX = $tileY = 0;
$levelOfDetail = strlen( $quadKey);
for( $i = $levelOfDetail; $i > 0; $i--)
{
$mask = 1 << ($i - 1);
switch( $quadKey[$levelOfDetail - $i])
{
case '0':
break;
case '1':
$tileX |= $mask;
break;
case '2':
$tileY |= $mask;
break;
case '3':
$tileX |= $mask;
$tileY |= $mask;
break;
default:;
}
}
}
public static function tileXYToQuadKeyDec( $tileX, $tileY, $levelOfDetail)
{
return base_convert( self::tileXYToQuadKey( $tileX, $tileY, $levelOfDetail), 4, 10);
}
public static function quadKey4ToDec( $quadkey)
{
return base_convert( $quadkey, 4, 10);
}
}
```
Переходим к практике
--------------------
### Область видимости
Тут надо учесть важный момент, не нужно запрашивать все кластеры на карте на конкретном zoom, а нужно получать только те, которые входят в область видимости клиента(в нашем случае это android и web).
Варианты получения кластеров в области видимости:
* **Умный клиент.** Клиент сам определяет какой zoom ему нужен и какие кластеры войдут в область его видимости и запрашивает их все сразу например при инициализации view либо запрашиват только те которые вошли в область видимости при перемещении по карте
* **Ленивый клиент.** Клиент просто отсылает свою область видимости на сервер и отображет то что будет прислано сервером.
Мы выбрали **Ленивый клиент**. Почему?
* Логика клиента очень проста. Посути клиент работает как view, что получил то и отображает.
* Это простота удобна если как у нас есть несколько клиентов на разных платформах. Не надо дублировать хитрую логику определения фокусов в области видимости. Вся логика сосредоточина а одном месте — на сервере.
* Как показала практика требуется малое время на реализацию.
Какова будет логика сервера?
* На сервер приходят координаты углов прямоугольной области видимости( например верхний левый угол, нижний правый угол).
* Сервер зная размеры этой прямоугольной области определяет тайл какого размера в нее входит полностью(и по ширине и по высоте)
* Дальше сервер зная размер тайла может определить zoom, поэтому его передавать вместе с координатами нет необходимости.
* Затем надо учесть что этот zoom надо увеличить, для более удобного отображения.
* И последним сервер опеределит quadkey-и попадающие в область видимости, сделает выборку кластеров и отдаст клиенту.
### Хранение
Для хранения quadkey-ев нам надо выбрать уровень zoom, возьмем 23, его будет вполне достаточно. БД будем использовать MySQL. Таблица хранения маркеров будет иметь следующую структуру:
```
CREATE TABLE `marker` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`latitude` FLOAT(19,15) NOT NULL,
`longitude` FLOAT(19,15) NOT NULL,
`quadkey` bigint(20) NOT NULL DEFAULT 0,
PRIMARY KEY (`id`),
INDEX `quadkey ` (`quadkey `)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
```
Индекс по quadkey позволяет нам легко делать выборки количества маркеров в тайле(кластере).
Для хранения quadkey в MySQL можно использовать bigint(20), просто переводим из 4-чной системы в десятичную и в БД и приложении работаем с 10-чным quadkey.
### Код получения кластеров
Код получения кластеров будет выглядеть примерно так:
```
public function getClusters( $quad_key, $zoom)
{
$q1 = $quad_key . str_repeat("0", TileSystem::MaxZoom - $zoom);
$q2 = $quad_key . str_repeat("3", TileSystem::MaxZoom - $zoom);
$mask = $q1;
$mask_plus = 1;
$mask = $quad_key . str_repeat("3", $mask_plus);
$mask = $mask . str_repeat("0", TileSystem::MaxZoom - $zoom - $mask_plus);
$q1 = TileSystem::quadKey4ToDec( $q1);
$q2 = TileSystem::quadKey4ToDec( $q2);
$mask = TileSystem::quadKey4ToDec( $mask);
return $this-> findBetweenQuadKeys( $q1, $q2, $mask);
}
public function findBetweenQuadKeys( $quad_key_l, $quad_key_r, $mask)
{
$entities = [];
$sql = "SELECT `quadkey`, MIN(id) AS id, COUNT(id) AS count, AVG(longitude) AS longitude, AVG(latitude) AS latitude ";
$sql .= "FROM `marker ` ";
$sql .= "WHERE `quadkey` BETWEEN $quad_key_l AND $quad_key_r ";
$sql .= "AND `is_deleted`= '0' ";
$sql .= "GROUP BY (`quadkey` & $mask) ";
if( $stmt = $this->_connection->query( $sql))
{
foreach( $stmt as $row)
$entities[] = $this->_createEntityFromRow( $row);
}
return $entities;
}
```
Переменная $mask позволяет нам группировать quadkey-и c определенным zoom. Переменные $quad\_key\_l и $quad\_key\_r позволяют учитывать quadkey-и всех маркеров для данного родителя т.е если $quad\_key\_l=03022313122033033000000 и $quad\_key\_r=03022313122033033033333 то мы найдем в базе все маркеры для 030223131220330330.
Так будет выглядеть результирующий sql запрос:
```
SELECT `quadkey`, MIN(id) AS id, COUNT(id) AS count, AVG(longitude) AS longitude, AVG(latitude) AS latitude
FROM marker
WHERE quadkey between 15499682906112 and 15499683168255
GROUP BY (quadkey & 15499683151872);
-- более понятная 4-чня форма
-- WHERE quadkey between "03201203031012000000000" and "03201203031012333333333"
-- GROUP BY (quadkey & "03201203031012330000000")
```
### Что получилось
К сожалению скриншотов с кластерами на базе в 1 миллион маркеров не сохранилось(хотя это было нечто), но есть текущая небольшая база, и вот как это выглядит:
web

Android

Координаты кластеров находятся в месте наибольшего скопления маркеров в тайле а не в его центре и все благодаря простому усреднению координат в sql запросе.
Результаты
----------
Сервиc использующий данную кластеризацию запущен, и работает. Сам подход очень удобен для дальнейшего масштабирования.
Для избежания постоянного пересчитывания количества маркеров в кластере просто добавлятся кеширование клестера.
Если рассматривать данную тематику дальше то тайлы активно используются картографическими сервисами для отрисовки карт. Так же что-то подобное используется в разработке игр и т.д.
Источники
---------
[www.mapbox.com/guides/how-web-maps-work](https://www.mapbox.com/guides/how-web-maps-work)
[msdn.microsoft.com/en-us/library/bb259689.aspx](https://msdn.microsoft.com/en-us/library/bb259689.aspx) | https://habr.com/ru/post/268621/ | null | ru | null |
# Что делать, когда малое предприятие всерьез задумалось о переходе с Windows на Linux
Предисловие. Надеюсь мой рассказ поможет начинающим или нерешительным юзерам быстро и без проволочек перейти на Линукс с Винды, не удаляя Windows.
Начало. Волей судьбы я являюсь ~~системным администратором~~ эникейщиком малого предприятия (менее 10 машин) в сфере услуг. Руководство уже не первый год задумывалось о переходе на Linux, однако первые эксперименты (выбирали Fedora), нельзя было назвать полностью успешными, не нравился интерфейс, работа с программами и оборудованием. В будущем конечно мы поняли свою ошибку: всего лишь выбрали неудачный интерфейс и установили минимальный набор драйверов, не вникая в детали.
Однако руководство хоть и опечалилось, однако, не унывало и после очередной беседы с хорошим программистом на Python (максимальный респект ему), озадачило меня, не знакомого особо с Линукс, попробовать установить на всех рабочих машинах Линукс Минт с интерфейсом
Mate (linuxmint-18.1-mate-64bit если быть точным) параллельно с Windows. Данный вариант нам показался наиболее похожим под привычный Win интерфейс, версия ОС была последней на тот момент.
Главной целью всего этого был выход на бесплатность ПО (за корпоративную WIN10 нужно было выложить что-то в районе 10-20тыс, точно не помню). Фирма дорожит своей репутацией и не хотела использовать нелицензионное ПО. При этом очень важно было сохранить внешний вид системы, делая переход на Линукс максимально комфортным (от этого в обзоре присутствуют многие персональные настройки, о которых я ещё напишу чуть ниже). Второй важнейшей причиной отказа от Windows была крайне недружелюбная политика США к России — руководство просто опасается, что даже в случае покупки все равно пришлось бы рано или поздно переходить на Linux (знаю, добрая часть хабровчан тут же вызывает неотложку «ещё один пациент с диагнозом Вендекапец»).
Что ж, цель поставлена. Я приступил к реализации. Забегая вперед, расскажу, почему я решил создать целую статью на Хабре по этому поводу: тема актуальна для большинства малых предприятий страны, однако на массовых ресурсах слабо освещается, а на it-ресурсах есть много материала, но найти толковый ликбез для среднестатистического юзера — работника малого предприятия в сфере услуг — оказалось затруднительно.
Изначально я просто создавал инструкцию для себя, чтобы в будущем не забыть всех настроек.
Поэтому не могу не поделиться плодом своего многодневного труда. В конце концов, если Ваш друг, далекий от IT, вдруг спросит, — как перейти с Win на Linux — можете просто скинуть ему эту статью.
1. Записываем скачанный образ линукса на флешку с помощью программы rufus.
2. Разбиваем существующий жесткий диск на 2 части, чтобы выделить раздел под Линукс.
Windows/ПУ/Администрирование/Управление компьютером/Управление дисками
3. Перезагрузить, включить биос, включить загрузку с флешки (могут быть проблемы с загрузкой, тогда нужно выбрать режим uefi /legacy — погуглить, в очень редких случаях потребуется смена прошивки биос — у меня с одним из компов так и было)
4. При установке нажать галочку «устанавливать сторонее программное обеспечение» возможно программа выдаст «установить рядом с Windows»: так можно делать, если не хотите сильно разбираться, или вообще стереть диск и установить линукс (если вам винду не жалко), но лучше всегда нажимать «другой вариант». Далее ищете в списке тот раздел, который вы специально оставили под линукс, его найти будет легко по объему и по тому, что он пустой. Удаляете его, и создаете 2 новых раздела — раздел подкачки (ставим например 4гб, обычно ставят столько, сколько оперативки, хотя много тоже вредно — тут вопрос спорный). Оставшееся место выделяете под ext4 (это файловая система, аналогичная ntfs в винде) и точку монтирования в "/". Важно. Не удалить случайно раздел efi. Восстанавливать его не быстро. Программа, в которой все это можно сделать под Линукс — gparted.
5. Небольшой нюанс, который влияет на безопасность. На время отладки работы системы при установке можно оставить галочку «входить в систему автоматически», если за компом только надежные люди, и вы хотите иметь возможность дистанционно перезагружать и настраивать его через TeamViewer. А так врятли простому юзеру удастся TeamViewer заставить входить в систему при загрузке по аналогии с виндой. Если нужно постоянное решение для удаленной перезагрузки и управления, нужно настроить ssh.
6. Возможно не в тему установки Линукс, но в целом дельный совет любому переустановщику: поменяйте ваш жесткий диск на ssd, значительно ускоряет загрузку системы и многих программ.
7. После перезагрузки выйдет меню grub со списоком операционок. Для редактирования списка и порядка операционок используем grub-customizer, установка:
```
sudo add-apt-repository ppa:danielrichter2007/grub-customizer
sudo apt-get update
sudo apt-get install grub-customizer
```
8. Рекомендую скачать заранее все инсталляционные пакеты .deb (аналог .msi в Windows) интересующих вас программ. Возможно какие то программы после апдейта будут некорректно работать (например у меня было такое с фаерфоксом). Даже если так случилось и ничего нельзя исправить привычными методами, не унывайте, качайте другие версии. Например я скачал дружественную firefox nightly на которой все работало как на фаерфоксе до обновления.
9. Устанавливаем wine, для того, чтобы иметь возможность запускать программы, предназначенные для Винды. После установки нажимаем на любой установочный файл
Windows — далее все как в винде ставится. Если хотите по умолчанию открывать файлы этой программой, просто скопируйте в свойствах ярлыка команду на запуск этого файла
и далее нажимаете правой кнопкой на файл: открыть в программе — другое приложение.
10. Установка обновлений и базовых программ, список команд и моих личных настроек:
а. Параметры/управление питанием, отключить ждущий режим (если комп все время в сети должен быть), раскладку в трее изменить на привычную, панель задач ширина 35
б. Установить TeamViewer /старт при входе в систему и пароль на настройки.
в. Разовое обновление системы
```
sudo apt update && sudo apt upgrade && sudo apt autoremove && sudo apt autoclean && sudo apt clean
```
г. Параметры/внешний вид theme mint-x aqua, там же поменять вид окна на
clearlooksre, поменять заставку, настройка привычных быстрых клавиш
д. Установка популярных в винде шрифтов `ttf-mscorefonts-installer`
через менеджер программ
е. Параметры вспомогательных технолгий/мышь/отключить тачпад — кому мешают случайные касания тачпада на ноуте.
ж. Добавить калькулятор на панель в меню пуск
з. Параметры/настройка рабочего стола убрать лишнее и добавить корзину
и. Параметры/комбинации клавиш клавиатуры: свернуть окна, и, возможно, настройка других привычных Вам команд.
к. Установка аналога флэш плагина
```
sudo apt-get install pepperflashplugin-nonfree && sudo
dpkg-reconfigure pepperflashplugin-nonfree
```
л. Убрать обозреватель файлов и терминал возле меню пуск (рядовым юзерам терминал не требуется каждый день).
м. Установка viber, telegram, других рабочих программ (Запуск при входе в систему настраивается правой кнопкой)
н. Подключить принтеры и сканеры — настройка принтеров
о. Установка джава плагина
```
sudo add-apt-repository ppa:webupd8team/java && sudo
apt-get update && sudo apt-get install oracle-java8-installer
```
11. Не удалить случайно апплет список окон — распространенная ошибка, когда не видно списка открытых окон. Решается добавлением апплета не панель правой кнопкой.
Послесловие. Для меня главной проблемой перехода всех компьютеров данной сети на Линукс стали некоторые проблемы с принтерами. Однако в целом, они все ушли в прошлое, универсальный драйвер печати, который есть по умолчанию в линукс, вполне подходит. Если нет какого то оборудования в списке, я просто выбираю более-менее похожий по названию и все отлично работает. Также один из ноутбуков не видел wi-fi — нашли решение проблемы на форуме командой
```
sudo apt-get install linux-image-$(uname -r|sed ‘s,[^-]*-[^-]*-,,’)
linux-headers-$(uname -r|sed ‘s,[^-]*-[^-]*-,,’) broadcom-sta-dkms
sudo modprobe -r b44 b43 b43legacy ssb brcmsmac bcma
sudo modprobe wl
```
В остальном был, конечно, период адаптации сотрудников, кому-то нужны были старые программы (с запуском их под новой системой всегда успешно справлялось приложение wine).
Прошел уже примерно год от начала запуска, полет нормальный, теперь никто уже даже по доброй воле не хочет возвращаться под Винду (спрашивали ради интереса), нареканий особо нет, пару раз удаляли только список открытых окон, что в целом работу не останавливало. | https://habr.com/ru/post/346310/ | null | ru | null |
# Вычисления без инструкций на x86
В этой статье обсуждается необычное применение особенностей [защищённого режима](https://en.wikipedia.org/wiki/Protected_mode) архитектуры x86 — для произведения вычислений без исполнения инструкций, то есть за счёт внутренних механизмов процессора: [аппаратного переключения задач](https://en.wikipedia.org/wiki/Task_state_segment), хитроумного [управления памятью](https://manybutfinite.com/post/memory-translation-and-segmentation/) и нетривиальной логики [вызова обработчика прерываний](https://wiki.osdev.org/Interrupt_Descriptor_Table). [Как известно](https://www.gwern.net/Turing-complete), любая сколько-нибудь сложная система обладает [полнотой по Тьюрингу](https://en.wikipedia.org/wiki/Turing_completeness), поэтому мало удивительного в том, чтобы найти её в неожиданных местах естественно эволюционировавшей x86. Приглашаю под кат интересующихся подобными низкоуровневыми извращениями.
Данная публикация основана на статье под названием [*"The Page-Fault Weird Machine: Lessons in Instruction-less Computation"*](http://0b4af6cdc2f0c5998459-c0245c5c937c5dedcca3f1764ecc9b2f.r43.cf2.rackcdn.com/12061-woot13-bangert.pdf). Греет душу, что один из её соавторов, [Sergey Bratus](https://www.ccs.neu.edu/home/sbratus/ac_resume.html), — давний выпускник [Физтеха](https://mipt.ru/). Впервые я узнал о данной работе из заметки Gwern Barwen [*"Surprisingly Turing-Complete"*](https://www.gwern.net/Turing-complete) , содержащей множество удивительных примеров Тьюринг-полных систем. Кстати, часть её [переведена на Хабре](https://habr.com/en/post/429602/), правда описываемому в данной статье явлению там отведено всего три предложения.
Оригинальная статья была опубликована в 2013 году, что может натолкнуть на вопрос об актуальности данного её пересказа в связи с завершившимся за эти годы [переходом на x86-64](https://techtalk.pcmatic.com/64-bit-operating-systems), а следовательно отказом от защищённого режима исполнения в пользу [long mode](https://en.wikipedia.org/wiki/Long_mode), в котором [аппаратное переключение задач не поддерживается](https://en.wikipedia.org/wiki/Task_state_segment#TSS_in_x86-64_mode). Однако благодаря обратной совместимости архитектуры x86 излагаемая идея может быть реализована на современной аппаратуре и [гипервизорах](https://en.wikipedia.org/wiki/Hypervisor).
Продолжая тему актуальности, замечу, что первоисточник не претендовал на прямое практическое применение описанных в статье идей, а лишь приоткрыл завесу "странных вычислителей", обнаруживающихся в современных процессорах. Тем не менее, определённый полезный результат из этой работы следует напрямую: **во-первых**, запуск программы, которая нестандартным способом утилизирует крайние случаи, при этом полностью соответствуя спецификации — отличный способ поиска ошибок в железе и гипервизорах (и немало было найдено в QEMU, по словам авторов). **Во-вторых**, так как обычные гипервизоры тестируются и ориентированы на наиболее распространённые операционные системы, результат исполнения в них подобной неординарной программы может отличаться от ожидаемого на голом железе. Данный феномен, позволяющий обнаружить факт исполнения под гипервизором, называется [**red pill**](https://ru.wikipedia.org/wiki/Red_Pill), по аналогии с [красной таблеткой](https://en.wikipedia.org/wiki/Red_pill_and_blue_pill), которая позволила Нео осознать виртуальность привычного ему мира. Число red pills является [важной характеристикой](https://www.researchgate.net/profile/Danilo_Bruschi/publication/228955240_A_fistful_of_red-pills_How_to_automatically_generate_procedures_to_detect_CPU_emulators/links/0912f511377819b42d000000/A-fistful-of-red-pills-How-to-automatically-generate-procedures-to-detect-CPU-emulators.pdf?origin=publication_detail) гипервизора, так как [многие вредоносные программы](https://handlers.sans.org/tliston/ThwartingVMDetection_Liston_Skoudis.pdf) пользуются ими для определения уровня "осторожности", с которой нужно исполняться, чтобы не быть обнаруженными антивирусным ПО и системами отладки, которые обычно запускаются в [безопасной среде](https://en.wikipedia.org/wiki/Sandbox_(software_development)). На самом деле тренд применения red pill в последние годы пошёл на спад, так как всё больше сервисов мигрируют в [облако](https://en.wikipedia.org/wiki/Cloud_computing), где всё работает в виртуальной среде, и создатели вирусов не готовы пожертвовать этим "рынком" ради усложнения собственного анализа. И тем не менее, приведу несколько примеров вредоносного ПО, меняющего своё поведение при наличии гипервизора. Хотя часть его уже и ушла в прошлое, в своё время оно нанесло немало вреда. Среди таких программ: [Neutrino](https://blog.malwarebytes.com/cybercrime/exploits/2016/06/neutrino-ek-fingerprinting-in-a-flash/)(2016 г.), [Conficker](https://nakedsecurity.sophos.com/2009/03/27/confickers-virtual-machine-detection/)(2008 г.), [Rebhip](https://www.fireeye.com/blog/threat-research/2011/01/the-dead-giveaways-of-vm-aware-malware.html)(2011 г.), IRC боты: [Phatbot](https://handlers.sans.org/tliston/ThwartingVMDetection_Liston_Skoudis.pdf)(2008 г.), [Rbot, SDbot/Reptile, Mechbot, SpyBot](https://www.fireeye.com/blog/threat-research/2011/01/the-dead-giveaways-of-vm-aware-malware.html) и другие (ссылки ведут на упоминания об использовании ими методов проверки наличия виртуальной среды). **В-третьих**, нестандартные способы произведения вычислений открывают широкие просторы для [обфускации](https://en.wikipedia.org/wiki/Obfuscation_(software)). Особенно перспективной видится обфускация с помощью подобных "странных" вычислений в контексте [unikernel](https://en.wikipedia.org/wiki/Unikernel).
Red pill — программа, обнаруживающая виртуальную среду. Blue pill — вредоносный гипервизорВ чём же заключается "странность" вычислителя, которому посвящена эта статья, и как построить Тьюринг-полную машину ~~без единого гвоздя~~ без единой инструкции? Чтобы ответить на этот вопрос, нужно сначала напомнить читателям некоторые аспекты архитектуры x86.
### Обработка исключений и аппаратное переключение задач
В архитектуре IA-32 существует функционал аппаратного переключения задач, предназначенный облегчить работу разработчикам операционных систем. Использованный вместе с механизмом [call gates](https://x86.lol/generic/2019/07/04/kernel-entry.html) совершения системных вызовов, как предполагалось, он минимизирует затраты программистов на описание логики [смены контекста](https://en.wikipedia.org/wiki/Context_switch). Но на сегодняшний день, [насколько мне известно](https://retrocomputing.stackexchange.com/questions/9177/examples-of-operating-systems-using-hardware-task-switching-of-x86-cpus), всё это — мёртвый кремний, давно заброшенный операционными системами в пользу более производительных программных решений; со стороны же производителей процессоров деоптимизированный до [микрокода](https://en.wikipedia.org/wiki/Microcode). А в x86-64 поддержка аппаратного переключения задач вообще отключена.
Единственный пример использования аппаратного переключения задач, с которым я сталкивался (и который, кстати, близок к описанному в работе), — это использование [в 32-bit Linux](https://github.com/torvalds/linux/blob/master/arch/x86/include/asm/segment.h) отдельной задачи (в терминах процессора) для обработки [double fault](https://en.wikipedia.org/wiki/Double_fault), дословно, *двойного исключения*. Double fault возникает, если процессор столкнулся с ошибкой на этапе запуска или исполнения обработчика какого-то другого исключения или прерывания; например, в обработчике совершена попытка деления на ноль. Обычно, конечно, причиной double fault является не арифметика, а глубоко сломанное состояние процессора, именно поэтому системные таблицы, о которых пойдёт речь ниже, в Linux настроены так, что для обработки double fault используется отдельная задача, которая могла бы вывести в [kernel panic](https://en.wikipedia.org/wiki/Kernel_panic) "грязное" состояние основной задачи. Если же и в double fault возникает какая-то критическая ошибка, происходит [triple fault](https://en.wikipedia.org/wiki/Triple_fault), также известный как перезагрузка компьютера.
С каждой задачей в x86 ассоциировано состояние, хранящееся в task-state segment(TSS). Главным образом, в него сохраняются регистры процессора, подлежащие восстановлению при возобновлении исполнения задачи. Среди этих регистров нас будут особенно интересовать `EIP` (instruction pointer) — указатель на текущую исполняемую инструкцию, `ESP` (stack pointer) — указатель на вершину стека, `CR3` — указатель на [таблицу страниц](https://en.wikipedia.org/wiki/Page_table) (строго говоря, page directory), а также регистры общего назначения `EAX` и `ECX`, о необходимости в которых чуть ниже.
Содержимое TSS. Обратите внимание на расположение CR3, EIP, EAX, ECX, EDX, ESP.Аппаратное переключение задач тесно связано с механизмами обработки прерываний, исключений, а также сегментацией памяти. Одними из важнейших таблиц, конфигурирующих работу процессора, являются [GDT(Global Descriptor Table)](https://wiki.osdev.org/GDT) — глобальная таблица дескрипторов и [IDT(Interrupt Descriptor Table)](https://wiki.osdev.org/Interrupt_Descriptor_Table) — таблица дескрипторов прерываний. Опуская подробности, перечислю некоторые типы дескрипторов, которые могут в них располагаться: *memory segment descriptor* — дескриптор сегмента памяти(кода, данных), *TSS descriptor* — указатель на task-state segment, *interrupt-gate descriptor* — указатель на дескриптор одного из первых двух типов, определяющий, как обрабатывать прерывание — с переключением задачи или совершив [far call](https://www.felixcloutier.com/x86/call). Неудивительно, что эти три головы ~~гидры~~ — управление памятью, задачами и прерываниями — неразлучны.
### Тьюринг-полнота во всей красе
Это всё выглядит довольно сложно и, наверное, скрывает в себе вычислительную мощность, но откуда возникает Тьюринг-полнота? Дело в том, что при вызове обработчиков некоторых исключений, таких как [page fault](https://en.wikipedia.org/wiki/Page_fault) и double fault, в стек кладётся 4-байтный код ошибки. Сам код ошибки нам неинтересен, важен лишь побочный эффект, состоящий в уменьшении(не забываем, что стек в x86 растёт вниз) значения регистра `ESP` на 4. Но что произойдёт, если `ESP` на момент срабатывания прерывания уже равен нулю, то есть уменьшать его некуда? Было бы очень странно, если бы указатель на стек [оборачивался](https://en.wikipedia.org/wiki/Arithmetic_underflow) вокруг 32 бит, поэтому в таких случаях срабатывает double fault-исключение.
Попробуем создать из описанных выше примитивов наш странный вычислитель. Для начала, так как никакие вычисления не будут производиться инструкциями процессора, присвоим регистру `EIP` во всех задачах недействительное значение, например, `0xFFFFFFFF`. Это будет постоянно приводить к page fault, который срабатывает при ошибках доступа к памяти. Как мы уже выяснили, при попытке обработать page fault произойдёт нечто подобное:
```
if (esp == 0) {
goto double_fault_handler;
} else {
esp -= 4;
goto page_fault_handler;
}
```
Уже намечается какое-то уменьшение значения, ветвление… Но для Тьюринг-полноты нам этого мало. Как уже можно догадаться, каждая "инструкция" нашего странного вычислителя будет исполняться побочными эффектами от срабатывания исключения. А так как одним из таких эффектов (согласно нашей конфигурации IDT и GDT) является загрузка в регистры содержимого очередной TSS, на момент обработки каждого исключения значение регистра `CR3`, отвечающего, как мы помним, за таблицу страниц, может быть своё(то, которое хранится в TSS, ассоциированного с данным исключением). И поскольку регистры IDTR и GDTR (не сохраняемые в TSS, а следовательно неизменные) хранят *виртуальные* адреса IDT и GDT, получается, что при исполнении очередной "инструкции" ⇒ срабатывании исключения ⇒ смене задачи ⇒ загрузке нового значения `CR3` ⇒ смене таблицы страниц мы можем менять IDT и GDT, которые видит процессор. Вместе с IDT меняется и хранящийся в нём указатель на TSS, это также пригодится нам в дальнейшем.
 содержит индекс дескриптора текущей TSS в GDT.")Взаимосвязь между IDT, GDT и TSS. TR (Task Register) содержит индекс дескриптора текущей TSS в GDT.#### Реализация movdbz-вычислителя
Получается, что исполнение "инструкции" состоит из следующих этапов:
1. Генерация исключения, которое выполнит следующую "инструкцию". Согласно конфигурации IDT и GDT, это приводит к смене задачи.
2. Загрузка TSS, ассоциированного со сгенерированным исключением, в [регистровый файл](https://en.wikipedia.org/wiki/Register_file). В частности, из TSS загружаются `EIP`, `ESP`, `CR3`.
3. В "стек" загруженной TSS кладётся код ошибки, а также (что более важно), если регистр `ESP > 0`, то из `ESP` вычитается 4, иначе `ESP` не изменяется.
4. Так как загрузка `CR3` из шага 2 имела побочный эффект в виде смены таблицы страниц, результирующий `ESP` будет помещён в TSS, на который указывает ячейка в новом GDT (см. также [Task Register](https://mudongliang.github.io/x86/html/file_module_x86_id_163.html)) и который не обязан совпадать с исходным.
5. *Если* условие из пункта 3 оказалось истинным и вычитание было успешным, *то* произойдёт попытка исполнения инструкций процессора, что невозможно ввиду недействительного значения `EIP`, следовательно произойдёт переход на задачу, ассоциированную с исключением page fault; *в противном случае* следующей задачей будет ассоциированная с исключением double fault.
Запишем последовательность выше в виде псевдокода, в котором сразу введём некоторые обозначения: `rsrc` — это `ESP`, подгруженный из исходной TSS; `rdest` — это `ESP`, хранящийся в TSS, на которую указывает GDT после загрузки регистра `CR3` из исходной TSS. `label_zero` — задача, ассоциированная с исключением double fault, `label_nonzero` — с исключением page fault. Также будем трактовать `ESP` как значение регистра нашего вычислителя, умноженное на 4, тогда из последнего на каждой обработке исключения будет вычитаться единица, а не четвёрка.
```
if (rsrc == 0) {
rdest = rsrc;
goto label_zero;
} else {
rdest = rsrc - 1;
goto label_nonzero;
}
```
Последовательность выше — не что иное, как расшифровка инструкции `movdbz`, move-branch-if-zero-or-decrement (перемести-прыгни-если-ноль-или-уменьши). [Как известно](https://en.wikipedia.org/wiki/One-instruction_set_computer#Subtract_and_branch_if_negative), инструкция subtract-and-branch-if-negative (вычти-и-прыгни-если-отрицательный-результат), которую несложно реализовать через вышеупомянутую `movdbz`(это строго показано в оригинальной статье), позволяет построить Тьюринг-полный вычислитель. Дочитавшим до сюда также, наверное, будет интересно узнать про более экзотическое доказательство — это [компилятор](https://gergo.erdi.hu/blog/2013-10-05-yo_dawg_i_heard_you_like_esoteric_programming_languages.../) Тьюринг-полного [Brainfuck](https://en.wikipedia.org/wiki/Brainfuck) в набор инструкций `movdbz`-вычислителя.
Итак, наша инструкция `movdbz` имеет четыре аргумента:
```
movdbz rdest, rsrc, label_nonzero, label_zero
```
В качестве упражнения для читателя остаётся написание с использованием одной только этой инструкции [игры Жизнь](https://en.wikipedia.org/wiki/Conway%27s_Game_of_Life) [Джона Конвея](https://en.wikipedia.org/wiki/John_Horton_Conway) (коронавирус забирает лучших), использованной в [демо](https://www.youtube.com/watch?v=eSRcvrVs5ug) авторов оригинальной статьи. На `movdbz` нужно написать именно логику эволюции ячеек, для вывода содержимого [кадрового буфера](https://en.wikipedia.org/wiki/Framebuffer) на экран авторы используют реальные инструкции x86. Поэтому утверждение про недействительное значение `EIP` выполняется в их демо не во всех TSS.
### Сопротивление архитектуры
В [real-mode](https://en.wikipedia.org/wiki/Real_mode) с его A20 и high memory, когда стрельба себе в ногу входила в стандартный арсенал программиста, можно было много всего себе позволить. Но времена изменились, и в защищённом режиме Intel создали некоторые препоны насилию нам своими чипами, которые, в частности, мешают нам развлекаться со своими странными вычислителями. Например, `ESP` должен указывать внутрь выделенного под стек участка памяти(иначе мы получим исключение `#SS` — stack-segment fault), поэтому нужно пометить первую [страницу](https://en.wikipedia.org/wiki/Page_(computer_memory)) памяти в каждой таблице страниц как содержащую стек. И так как в `ESP` хранится значение, в 4 раза большее содержимого "регистра" нашего вычислителя, последний может принимать значения от 0 до 1023, а не от 0 до 4095 (используется 4 КиБ страница). Но подобные мелочи мне кажутся довольно скучными, поэтому далее я поговорю только о тех препятствиях, методы борьбы с которыми мне показались интересными.
**Данные отдельно, код~~леты~~ отдельно**
Одной из незамеченных в вышеприведённых рассуждениях оказалась следующая проблема: в пункте 4 из списка выше в "destination TSS" записывается не только `ESP`, но и `CR3`. Хорошо подумав, можно осознать, что `ESP`, хранящиеся в разных TSS, -- это регистры нашего вычислителя, и их значения не должны быть привязаны инструкциям. А `CR3` как раз отвечает за то, какая инструкция сейчас исполняется, ведь от `CR3` зависит содержимое `IDT`, а значит и то, какие инструкции исполнятся следующими — то есть он определяет положение текущей инструкции в "программе". В связи с этим мы хотим разделить TSS на две части — отвечающую за инструкции, которые исполнятся следующими; и содержающую регистр, с которым оперирует текущий `movdbz`. Поэтому мы "рассекаем" TSS границей страницы между регистрами `ECX` и `EDX`(сейчас стоит обратиться к картинке с содержимым TSS выше). Таким образом, так как в верхней части TSS из полезных для нашего вычислителя данных остаётся только `ESP`, основным смыслом трюка с `CR3` становится переотбражение в верхнюю часть TSS физической страницы c `rdest`, куда будет записан результат исполнения инструкции.
**Busy bit**
Также крайне находчивым мне показался способ обхода помехи busy bit, встроенного в указатель на TSS в GDT и определяющего, находится ли сейчас процессор в состоянии обработки исключения. Если этот бит выставлен, архитетура запрещает переключение задач, что делает невозможным пункт 5 из описания выше. Этот бит автоматически выставляется при срабатывании исключения и, при обычном исполнении, очищается при выходе из обработчика. Но у нас нет обработчика, мы не исполняем инструкций процессора, поэтому нужно найти другой способ очищать этот бит. Будет нелишним заметить, что, по словам автора, на то, чтобы дойти до этой идеи и реализовать её, у него ушло 8 недель из 10, затраченных на весь проект.
Решение этой проблемы следующее: расположим GDT так, чтобы она перекрывалась с TSS! GDT может занимать максимум 16 страниц, последние 8 байт каждой из этих страниц — это, как мы помним, вследствие рассечения TSS, регистры `EAX` и `ECX`. Хак состоит в том, чтобы заранее в каждой TSS положить на место регистров `EAX` и `ECX` этот самый указатель на TSS (строго говоря, дескриптор TSS) с очищенным busy bit-ом. Таким образом, при каждой выгрузке TSS из регистрового файла на 4 шаге busy bit в дескрипторе текущей TSS в GDT будет выставляться в ноль. Осталось только записать в IDT указатели на правильные дескрипторы в GDT — те, которые занимают последние 8 байт в каждой из 16 страниц.
### Заключение
Каков же смысл во всех этих исхищрениях, в построении такого "странного вычислителя"? **Во-первых**, у описанных выше идей есть прямое, хотя и не столь актуальное, практическое применение — создание [red pill](https://ru.wikipedia.org/wiki/Red_Pill), позволяющей отличить [голое железо](https://en.wikipedia.org/wiki/Bare-metal_server) от [гипервизора](https://en.wikipedia.org/wiki/Hypervisor). **Во-вторых**, такое неортодоксальное применение архитектуры x86, выискивание тёмных уголков и крайних случаев может доставить неподдельное удовольствие любителям эзотерического программирования. **В-третьих**, данная работа несёт, на мой взгляд, глубокую философскую идею, подчёркивая ценность [хакерского склада ума](https://www.gwern.net/Turing-complete#on-seeing-through-and-unseeing) применительно к нахождению "странных вычислителей" там, где они не подразумевались или где их не видят другие. Ведь любой эксплойт — по сути плод мастерского программирования "странной виртуальной машины", своеобразным "байткодом" которой являются баги, фичи и различные неожиданные пути исполнения целевой платформы. Кстати, тентакли макаронного монстра на обложке как раз и олицетворяют всевозможные особенности и изъяны, обнажаемые программными и аппаратными системами и с охотой используемые разработчиками эксплойтов для нарушения задумываемого хода работы программы.
**Основные источники(в рекомендуемом порядке ознакомления)**:
* Запись одного из выступлений авторов оригинальной публикации [на Youtube](https://www.youtube.com/watch?v=vqj3xCATeqQ)
* Имплементация Krister Walfridsson: [репозиторий на Github](https://github.com/kristerw/instless_comp), [общее описание](https://kristerw.blogspot.com/2015/08/instruction-less-computation.html), [немного деталей реализации](https://kristerw.blogspot.com/2015/08/instruction-less-computation-technical.html)
* Оригинальная статья ["The Page-Fault Weird Machine: Lessons in Instruction-less Computation"](http://0b4af6cdc2f0c5998459-c0245c5c937c5dedcca3f1764ecc9b2f.r43.cf2.rackcdn.com/12061-woot13-bangert.pdf), сопутствующий [репозиторий на Github](https://github.com/jbangert/trapcc) с авторской реализацией
* Конечно, [Intel® 64 and IA-32 Architectures Software Developer Manuals](https://software.intel.com/content/www/us/en/develop/articles/intel-sdm.html) | https://habr.com/ru/post/533388/ | null | ru | null |
# Трассировка печатной платы в KiCAD

Введение
========
Одним из критических замечаний к [предыдущей статье](https://geektimes.ru/post/278282/) было следующее: дескать фу таким быть, стрелять из пушки по воробьям да ещё проприетарным софтом за 10000$, к тому же наверняка украденным с торрентов. Оставляя за кадром моральную сторону вопроса, а так же презумпцию невиновности, обратимся к следующему вопросу — а что там у нас имеется в Open Source секторе, пригодное для решения задач проектирования электронной техники. В частности изготовления печатных плат. Наиболее достойной, на мой взгляд, оказалась кроссплатформенная программа [KiCAD](http://kicad-pcb.org/), распространяемая по лицензии GNU GPL. Имеются версии для Linux, Windows и macOS.
Рассмотрим этот инструмент подробнее применительно к уже решенной мною задаче — трассировке печатной платы для преобразователя уровней на базе MAX232.
1. Установка KiCAD и библиотек
==============================
Дистрибутив программы и инструкции по установке имеются на [её официальном сайте](http://kicad-pcb.org/). Так как я предпочитаю использовать Linux, а конкретно Arch Linux, то установка сводится к заклинанию для пакетного менеджера
```
$ sudo pacman -S kicad kicad-library kicad-library-3d
```
Первый пакет — сама программа, второй — библиотеке компонентов, третий — 3D-модели компонентов. Собственно и всё. Аналогичный набор пакетов имеется для всех популярных дистрибутивов Linux. Для Windows качаем бинарный инсталлятор [здесь](http://kicad-pcb.org/download/windows/). Для macOS [все аналогично](http://kicad-pcb.org/download/osx/). В общем, установка элементарна и затруднений не вызывает.
2. Чертим принципиальную схему
==============================
Запустив KiCAD мы увидим главное окно программы. Оно содержит дерево проекта и кнопки вызова программных компонент, предназначенных для различных этапов проектирования устройства.

Идем в меню Файл -> Новый проект -> Новый проект. Нам предложат выбрать место, где будут располагаться файлы проекта, а так же выбрать его имя. Все файлы, относящиеся к проекту лучше расположить в отдельном каталоге. Я располагаю все в каталоге ~/work/kicad/rs232, и проект назову rs232.
После создания проекта в дереве образуются два файла: rs232.pro — файл проекта; rs232.sch — файл принципиальной схемы. Дважды кликаем по файлу схемы и переходим Eeschema — программу для рисования схем

Формат основной надписи чертежа, естественно буржуазный. Но нас пока не интересует следование ГОСТ и ЕСКД. Нам надо оценить возможности пакета для решения конкретной практической задачи, путь даже такой простой. Поэтому приступим к рисованию схемы.
С правой стороны окна расположена панель инструментов. На ней имеется кнопка с изображением операционного усилителя — жмем на неё и переходим в режим размещения компонентов. Кликая мышью в поле схемы мы инициируем появление диалога

В строке фильтра начинаем набирать «max232». система производит поиск по библиотеке и предлагает нам интересующую нас микросхему. Выбираем её, жмем ОК и курсором мыши помещаем компонент в нужное место схемы. Аналогичным образом кладем на схему электролитический конденсатор, который отзывается в KiCAD по имени CP

Наводим курсор на конденсатор, жмем «V» и в появившемся окне задаем его номинал

Если навести курсор на любой элемент, в частности только что добавленный конденсатор, то нажатием соответствующих клавиш можно выполнять следующие действия
M — переместить компонент (начать перемещение)
C — создать копию компонента
R — повернуть компонент по часовой стрелке
X — отразить компонент относительно горизонтальной оси
Y — отразить компонент относительно вертикальной оси
Действуя описанным образом, размещаем все остальные компоненты схемы. Нам понадобятся следующие элементы
| Имя компоненты в библиотеке | Тип компонента | Количество |
| --- | --- | --- |
| CP | Электролитический конденсатор | 4 |
| D | Диод | 1 |
| DB9 | Коннектор типа DB-9 | 1 |
| CONN\_01x05 | Однорядный штыревой коннектор (5-pin) | 1 |
Кроме того, нам понадобится земля и питание +5 В. Эти элементы добавляются в режиме размещения портов питания, который включается на правой панели кнопкой с символом «земли». Нам понадобятся следующие порты: GND — собственно «земля»; +5V — без комментариев.
В конечном итоге на поле схемы у нас получится что-то вроде этого

Теперь, нажатием кнопки с изображением зеленой линии переходим в режим «Разместить проводник» и соединяем выводы всех элементов согласно принципиальной схеме устройства. Если нам нужна дополнительная «земля», наводим курсор на ближайшую «землю», жмем «C» и клонируем её, без отрыва от процесса соединения элементов. В конечном итоге у нас получится следующая схема

Обращаем внимание на то, что элементы схемы не пронумерованы. Для этой цели удобно воспользоваться функцией нумерации элементов. Вызываем её либо из меню Инструменты -> Обозначить схему, либо нажимая кнопку «Обозначить компоненты схемы» на верхней панели инструментов. Нам покажут диалоговое окно с настройками именования элементов

Задаем интересующие нас настройки и жмем «Обозначить компоненты». Теперь другое дело

Полагая, что мы закончили схему, проверяем правильность её построения с точки зрения правил KiCAD. Для этого жмем на верхней панели кнопку с изображением божьей коровки с зеленой галочкой. В предложенном нам окне жмем кнопку «Выполнить» и получаем результат

Ошибок нет, но зато есть 13 предупреждений. Эти предупреждения принципиальны — они указывают на то, что некоторые выводы элементов у нас никуда не подсоединены, а также на то, что мы не подали питание на схему.
Неиспользуемых выводов у нас много. Чтобы система не ругалась на нас по их поводу, отметим эти выводы ка неиспользуемые. Для этого выберем режим указания неиспользуемых пинов нажатием кнопки с косым крестом «X» на правой панели, так называемый флаг «Не подключено». Помечаем этим флагом все незадействованные пины

Входы второго канала MAX232 (ножки 8 и 10) подтягиваем к «земле», с тем чтобы гарантировать нулевое напряжение на них при работе устройства.
После этого проверяем схему ещё раз

Отлично, всего два предупреждения о не подключенном питании. Питание в нашем случае подается с другого устройства через штыревую колодку P1, поэтому системе следует указать не это, используя виртуальный порт питания PWR\_FLAG. Устанавливаем этот порт питания на схему и подсоединяем его к порту питания +5V, к «земле» и проводу идущему от разъема P1 к диоду, как показано на рисунке

Таким образом мы указываем системе по каким линиям в схему подается питание и следующая проверка проходит уже без ошибок и предупреждений. Сохраняем готовую схему.
Теперь следует сформировать список цепей схемы, который будет использоваться нами в дальнейшем. Для этого идем в меню Инструменты -> Сформировать список цепей, или жмем соответствующую кнопку на верхней панели. В появившемся окне

выбираем родной для KiCad формат списка цепей, задаем имя файла списка rs232.net и жмем кнопку «Сформировать».
Схема готова и можно приступать к следующему этапу
2. Связывание компонентов и их посадочных мест
==============================================
Этот этап отражает особенность KiCAD — схемное обозначение компонента отвязано от его посадочного места и визуального представления. Прежде чем приступить к разводке платы, каждому компоненту надо привести в соответствие его посадочное место (footprint) — топологическая структура задающая по сути размер и расположение отверстий и/или контактных площадок на плате, предназначенных для монтажа данного компонента. Это делается с помощью входящей в состав пакета программы CvPcb. Для её запуска идем в меню Инструменты -> Assign Component Footprint. Система немного задумается и выдаст окно

В первой колонке расположен список доступных библиотек. Во второй колонке — список компонентов, представленных в нашей схеме. В третьей — список доступных посадочных мест. Скажем нам нужна определится с форм-фактором конденсатора C1. У нас имеются в наличии конденсаторы Ether для монтажа в отверстия с диаметров 5 мм, высотой 11 мм и с расстоянием между выводами 2 мм. Хорошо, выбираем библиотеку Capacitor\_ThroughHole (конденсаторы для монтажа в отверстия) в первой колонке, конденсатор C1 во второй колонке и посадочное место C\_Radial\_D5\_L11\_P2 в третьей колонке. Двойным щелчком по выбранному посадочному месту связываем его с компонентом. Справа от конденсатора C1 появится выбранное посадочное место, как показано на рисунке выше.
Для проверки посмотрим на чертеж посадочного места, нажав кнопку с изображением микросхемы под лупой на верхней панели

Нажав в окне просмотрщика кнопку с изображением микросхемы, мы увидим 3D-модель компонента

Убеждаемся, что выбранное посадочное место соответствует фактической детали, имеющейся у нас. Таким же образом связываем и остальные компоненты. У меня вышел вот такой список

Надо сказать найти нужное посадочное место с непривычки довольно трудно. Но мне удалось обойтись стандартными библиотеками. В любом случае, проблема отсутствия нужной детали решается путем гугления или самостоятельного изготовления (но это выходит за рамки статьи).
Сохраняем полученный список, закрываем CvPcb и заново генерируем список цепей. Теперь всё готово чтобы приступить к непосредственной разводке платы.
3. Разводка печатной платы
==========================
Для этого из меню редактора схем Инструменты -> Layout Printer Circuit Board запускаем программу-трассировщик Pcbnew

Для настройки правил трассировки идем в меню «Правила проектирования» и в окне

задаем ширину дорожек, зазор между ними, диаметр отверстий, диаметр сверла в соответствии с имеющимися у Вас техническими возможностями. Мои настройки представлены на скриншоте.
Далее необходимо импортировать спроектированную схему. Для этого идем в меню Инструменты -> Список цепей. В появившемся окне выбираем файл списка цепей (наш rs232.net сформированный на предыдущем этапе) и жмем кнопку «Прочитать текущий список цепей»

Если мы не ошибались на предшествующих этапах, процесс пройдет без ошибок. Закрываем окно и видим, что компоненты разместились в окне чертежа платы

Разумеется они все слиплись в кучу. И их придется растащить на предназначенные для них места. Перемещение компонентов происходит теми же командами что и в редакторе схем — наводим курсор на элемент и жмем «M». Если мы хотим переместить компонент на другую сторону платы, то в режиме перемещения нажимаем клавишу «F». Так следует поступить с микросхемой U1, ибо она располагается со стороны дорожек, ввиду SMD-исполнения корпуса.
Попыхтев немного получаем что-то подобное

Стараемся размести компоненты так, чтобы получалось как можно меньше пересекающихся связей. Теперь можно приступать к трассировка. Автоматическая трассировка у меня не вышла, возможно я не до конца разобрался с её настройками. Для ручной трассировки перейдем в режим трассировки нажав на верхней панели кнопку «Режим дорожек: автотрассировка».
Правой кнопкой мыши щелкаем по пустому пространству рабочего окна и в выпавшем меню выбираем «Выбор рабочего слоя». В появившемся окне выбираем слой B.Cu (медь с обратной стороны платы)

Наводим курсор на какой-либо пин и жмем «X». Появится дорожка, идущая от выбранного пина до текущего положения курсора. Тянем эту дорожку, фиксируя её промежуточные точки однократными щелчками мыши. По завершении, на последнем пине делаем двойной щелчок. Если нам не нравится результат, жмем Esc отменяя проведенную дорожку. Другие полезные команды и их горячие клавиши доступны в контекстном меню, вызываемом правой кнопкой в момент трассировки.
Надо сказать что процесс трассировки интуитивно понятен и довольно скоро мы получаем результат

Желтой линией на скрине показан контур платы. Чтобы нарисовать его переходим в слой Edge.Cuts (список слоев расположен в окне программы справа) и инструментом «Линия или полигон» (кнопка с изображением пунктирной линии на правой панели инструментов) рисуем контур платы.
Теперь всё готово. Сохраняем результат. Можно просмотреть получившуюся плату в режиме 3D (в меню Просмотр -> Просмотрщик 3D)


Результат выглядит довольно симпатично, правда монтаж можно сделать и поплотней.
Чтобы получить, например, шаблон для ЛУТ, идем в меню Файл -> Печать. В появившемся окне

Задаем печатаемый слой (B.Cu — медь с задней стороны платы), обязательно выставляем галочку «Зеркально», проверяем что выставлен масштаб 1:1 и убираем галку «Печать рамки листа». Жмем печать. Если у нас нет принтера, то печатаем в PDF

Получая на выходе искомый шаблон

Заключение
==========
Надо сказать, что я довольно бегло пробежался по возможностям KiCAD, обращая внимание лишь на ключевые моменты его использования. Эта статья некоторый вводный мануал, обобщающий весьма разрозненную информацию, имеющуюся в сети. Тем не менее он может служить хорошим стартом.
Можно сделать вывод, что программа вполне пригодна для проектирования печатных плат, учитывая что описание всех её возможностей выкатится не в один десяток подобных статей. Её несомненным преимуществом является бесплатность и открытый формат всех конфигурационных файлов и библиотек, дающих бескрайний простор для расширения компонентной базы.
Надеюсь было интересно. Спасибо за внимание! | https://habr.com/ru/post/395933/ | null | ru | null |
# Надежное user-friendly управление силовыми нагрузками умного дома: Domoticz + ручной переключатель
Привет, Geektimes!
Я реализую свой умный дом и хочу поделиться несколькими выстраданными решениями.
В качестве центрального контроллера в моей версии умного дома я использую Raspberry Pi с установленными Domoticz и MQTT брокером Mosqito. Центральный контроллер управляет разнообразными нагрузками, зачастую расположенными достаточно далеко от основного здания, например, в гараже или в теплице. В таких удаленных узлах я использую недорогие UDP реле KMTronic для коммутации нагрузок и Ардуино с Ethernet Shield для сбора данных и обратной связи.
Причем схему коммутации я предпочитаю использовать такую, чтобы в любой момент, в том числе при выходе из строя элементов инфраструктуры умного дома, я мог коммутировать нагрузки вручную. Для меня требование надежности вторично — главное, чтобы у моей жены всегда сохранялся привычный интерфейс управления, что позволит сохранить мир в семье и даст мне возможность и далее заниматься любимым хобби.
Идея
====
Идея проста: применение классической схемы включения с двух мест:

В качестве переключателя SA1 выступает один из релейных выходов KMTronic (NO-C-NC), в качестве переключателя SA2 — обычный бытовой одноклавишный переключатель. Все отлично работает, вот только есть один нюанс — у контроллера нет информации о действительном состоянии нагрузки. Не беда — добавим в схему в качестве нагрузки промежуточное реле или контактор KM с катушкой на 24V:

Так мы убьем сразу несколько зайцев:
* получим возможность использовать дополнительные контакты реле KM для обратной связи;
* повысим электробезопасность, что особенно важно во влажных помещениях;
* получим возможность коммутировать более мощные нагрузки, чем те, на которые рассчитаны реле KMTronic.
В качестве промежуточных реле мне нравится использовать Hager ERxxxx на 24V с принудительным ручным управлением (OFF, AUTO, ON).

Эта опция здорово помогает при отладке и в дальнейшей эксплуатации.
Реализация
==========
Подключение UDP реле KMTronic к Domoticz на Raspberry Pi
--------------------------------------------------------
* Устанавливаем socat для работы с UDP:
```
sudo apt-get install socat
```
* В каталоге ~/domoticz/scripts создаем скрипт для управления KMTronic через UDP. Назовем скрипт, например, rudp.sh:
```
#!/bin/bash
RelayIP="$1"
RelayNumber="$2"
Status=$(echo FF0000 | socat - udp-datagram:192.168.100.${RelayIP}:12345)
StatusBit=${Status:RelayNumber-1:1}
CommandON=FF0${RelayNumber}01
CommandOFF=FF0${RelayNumber}00
if [ "$StatusBit" = "1" ]; then
echo ${CommandOFF} | socat - udp-datagram:192.168.100.${RelayIP}:12345
else
echo ${CommandON} | socat - udp-datagram:192.168.100.${RelayIP}:12345
fi
```
* Делаем файл rudp.sh исполняемым:
```
chmod +x rudp.sh
```
* Проверяем из командной строки:
```
rudp.sh 199 1
```
Эта команда должна переключить реле #1 устройства KMTronic с адресом 192.168.100.199, используя дефолтный порт 12345.
* В Domoticz cоздаем Dummy switch, в полях On Action и Off Action указываем:
```
script:///home/pi/domoticz/scripts/rudp.sh 199 1
```
Теперь при клике по свичу переключается контакт UDP Relay.
Параллельно мы можем переключать нагрузку, используя ручной переключатель.
Сбор информации о состоянии нагрузок при помощи Ардуино по протоколу MQTT
-------------------------------------------------------------------------
* Заливаем в Ардуино скетч для работы с MQTT (внимание, в скетче нужно связать входы Ардуино и индексы Idx наших Dummy switches, заполнив массив domoticz\_Idx[]).
**Скетч**
```
#include
#include
#include
#include
byte mac[] = { 0xDE, 0xED, 0xBA, 0xFE, 0xFE, 0xED };
byte server[] = { 192, 168, 100, 250};
byte ip[] = { 192, 168, 100, 199};
// I/O ports on board, 20 for UNO and Leonardo (14 DI + 6 AI)
static const int ioPorts = 20;
// all pins 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
static const uint8\_t arduinoPins[] = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9,10,11,12,13,A0,A1,A2,A3,A4,A5};
static const int availablePin[] = {1, 1, 1, 1, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1}; // pins available for general I/O. 1 - available, 0 - not available
static const int domoticz\_Idx[] = {5, 6, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0}; //
// Buffers for sending data
char statusBuffer[ioPorts+1] = "0";
char prevStatusBuffer[ioPorts+1] = "0";
// Instantiate a Bounce object
Bounce debouncer[ioPorts] = Bounce();
// Function headers
void callback(char\* topic, byte\* payload, unsigned int length);
char pinToChar(int value);
int compareCharArrays(char array1[ioPorts+1], char array2[ioPorts+1]);
void readAllPins();
void publishPins(boolean all);
void setup();
void loop();
EthernetClient ethClient;
PubSubClient clientMQTT(server, 1883, callback, ethClient);
void callback(char\* topic, byte\* payload, unsigned int length) {
byte\* p = (byte\*)malloc(length);
memcpy(p,payload,length);
publishPins(true);
free(p);
}
char pinToChar(int value) {
char result = 'X';
if (value==HIGH) {
result = '0'; // if pin opened, send 0
}
if (value==LOW) {
result = '1'; // if pin closed to GND, send 1
}
return result;
}
int compareCharArrays(char array1[ioPorts+1], char array2[ioPorts+1]) {
int result = 0;
for (int i =0; i <= (ioPorts); i++) {
if (array1[i]!=array2[i]) {
result = 1;
break;
}
}
return result;
}
void readAllPins() {
for (int i =0; i < (ioPorts); i++)
{
if (availablePin[i])
{
debouncer[i].update();
statusBuffer[i] = pinToChar(debouncer[i].read());
}
}
}
void publishPins(boolean all) {
char topic[]="domoticz/in";
String data;
char jsonStr[200];
for (int i =0; i < (ioPorts); i++)
{
if ((all) || (prevStatusBuffer[i]!=statusBuffer[i]))
{
if ((availablePin[i]) && (domoticz\_Idx[i]))
{
data="{\"idx\":";
data+=(int)domoticz\_Idx[i];
data+=",\"nvalue\":";
data+=(char)statusBuffer[i];
data+="}";
data.toCharArray(jsonStr,200);
clientMQTT.publish(topic,jsonStr);
Serial.print(topic);
Serial.print(" ");
Serial.println(jsonStr);
}
}
}
}
void setup() {
// initialize serial port over USB
Serial.begin(9600);
Ethernet.begin(mac, ip);
// initialize the digital pins as an input.
for (int i =0; i < ioPorts; i++)
{
if (availablePin[i]) {
pinMode(i, INPUT\_PULLUP);
debouncer[i].attach(arduinoPins[i]); // setup the Bounce instance
debouncer[i].interval(100); // interval in ms
}
statusBuffer[i]='0';
prevStatusBuffer[i]='0';
}
statusBuffer[ioPorts]='\0'; // EOL
prevStatusBuffer[ioPorts]='\0'; // EOL
readAllPins();
if (clientMQTT.connect("myhome-ino-id1")) {
clientMQTT.subscribe("myhome/ino/id1/in/#");
publishPins(true);
}
}
void loop(){
clientMQTT.loop();
readAllPins();
if (compareCharArrays(statusBuffer,prevStatusBuffer)==1)
// time for send information to the server
{
if (!clientMQTT.connected()){
if (clientMQTT.connect("myhome-ino-id1")) {
clientMQTT.subscribe("myhome/ino/id1/in/#");
}
}
if (clientMQTT.connected()) {
publishPins(false);
}
for (int i =0; i < (ioPorts); i++) {
prevStatusBuffer[i]=statusBuffer[i];
}
}
}
```
* Подключаем свободный контакт нашего промежуточного реле к контактам Gnd и DIxx Ардуино.
* Для приема информации через MQTT в Domoticz устанавливаем MQTTWorker.
* Вручную включаем и выключаем нагрузку и наблюдаем изменение состояния нагрузки в интерфейсе Domoticz.
Спасибо за внимание, надеюсь, кому-то мой опыт окажется полезен. | https://habr.com/ru/post/397621/ | null | ru | null |
# DataVault на Greenplum с помощью DBT
Введение
--------
Привет, Хабр!
Меня зовут Марк Порошин, я занимаюсь DataScience в DV Group. Недавно я уже [рассказывал](https://www.notion.so/DBT-Data-Built-Tool-aa97fc403c564270bc84f04e65c0be19) про то, как начать трансформировать данные с помощью dbt. Сегодня я решил поделиться, как мы в DV Group поженили dbt, Greenplum и DataVault, собрали все грабли, что могли; немного поконтрибьютили в open-source, но по итогу остались очень довольны результатом.
Расскажу сначала пару слов о том, что такое DataVault. DataVault - методология построения хранилища, предполагающая высокую нормализацию данных (3ая нормальная форма). Основными ее компонентами являются:
* hub - “сущность” хранит только первичный и бизнес-ключ;
* satellite - “свойства сущности”, относятся многие к одному с хабом и хранит свойства сущности;
* link - “связь между сущностями” - отношение многие ко многим между сущностями (не обязательно двумя).
Чтобы стало чуть понятнее, давайте рассмотрим пример. Предположим мы хотим хранить информацию о запусках рекламных кампаний. У нас есть данные о том, когда клиенты запускали кампанию для каких-то товаров. Как же в этом случае может выглядеть ER диаграмма?
er диаграммаМожно заметить, что в сателлитах есть поле `effective_from` и `\_hashdiff`, благодаря которому в DavaVault реализуется [SCD2](https://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D0%B4%D0%BB%D0%B5%D0%BD%D0%BD%D0%BE_%D0%BC%D0%B5%D0%BD%D1%8F%D1%8E%D1%89%D0%B5%D0%B5%D1%81%D1%8F_%D0%B8%D0%B7%D0%BC%D0%B5%D1%80%D0%B5%D0%BD%D0%B8%D0%B5), это дает возможность реализовывать “версионность” данных.
Больше почитать про Data Vault можно здесь:
1. [Документация](https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwiXysm0gP33AhXWSPEDHS2wATsQFnoECC8QAQ&url=https%3A%2F%2Fdanlinstedt.com%2Fwp-content%2Fuploads%2F2018%2F06%2FDVModelingSpecs2-0-1.pdf&usg=AOvVaw1HMJWxIh7CKHNkeasrhvEf)
2. [статья на Хабре 1](https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwjvwZHIgP33AhX_S_EDHeeMC9UQFnoECAwQAQ&url=https%3A%2F%2Fhabr.com%2Fru%2Fpost%2F348188%2F&usg=AOvVaw04i0YZK15-qSzU0yFPnEaP)
3. [статья на Хабре 2](https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwjvwZHIgP33AhX_S_EDHeeMC9UQFnoECAkQAQ&url=https%3A%2F%2Fhabr.com%2Fru%2Fpost%2F502968%2F&usg=AOvVaw0wF5JaQEEHyRxHKLhwiejo)
Прежде чем переходить к основной части, хочу дать поделиться [статьей](https://habr.com/ru/company/otus/blog/588582/), потому что я начинал изучать эту тему именно с нее и во многом статьи будут пересекаться, но я хочу больше сконцентрироваться на деталях, а еще обсудить ошибки, которые мы совершили.
### Постановка задачи
Из внешних источников данных мы периодически загружаем историю покупок пользователей в таблицу `pure.pure_transactions` на Greenplum и хотим преобразовать ее в структуру Data Vault, т.е. разбить данные на хабы, линки и сателлиты. Преобразование происходит в 3 этапа.
1. Сначала нужно подготовить таблицу с данными, которые будут загружаться (мы будем выбирать данные за 1 день).
2. Далее необходимо обогатить данные всеми необходимыми хешами, но об этом дальше.
3. И, наконец, расщепить данные на сущности.
pipeline построения datavaultТаблица `pure.pure_transactions` описывает историю покупок пользователей с некоторой метаинформацией. К сожалению, показать ее полностью я не могу, но в рамках статьи нам необходимы только следующие поля:
1. id транзакции(`transaction_id`);
2. дата транзакции(`transaction_date`);
3. цена товара(`price`);
4. количество купленного товара(`quantity`);
5. наименование товара(`product_name`);
6. id категории товара(`cat_id`);
Мы выделили из этих данных две сущности
1. транзакция или строчка в чеке (`transaction_id`);
2. товар (`product_name`);
Теперь когда у нас есть представление о том, чего мы хотим и какие у нас данные, перейдем к самому интересному.
### Адаптер для greenplum
Прежде чем начать писать dbt-код, хочу немного рассказать про особенности работы с Greenplum. Greenplum — база построена на основе Postgres, поэтому синтаксис SQL запросов практически полностью совпадает, но есть ряд значительных отличий, которые будут использоваться в дальнейшем, и которые стали причиной реализации отдельного адаптера для [dbt](https://github.com/markporoshin/dbt-greenplum). Подробнее про это можно почитать [здесь](https://gpdb.docs.pivotal.io/6-20/ref_guide/sql_commands/CREATE_TABLE_AS.html). А еще хочу поделиться интересным [доклад](https://www.youtube.com/watch?v=TupXHhdSrhg)ом, он будет полезен всем, кто начинает работать Greenplum.
**Функциональность адаптера**
Важная особенность Greenplum — возможность указать поле дистрибьюции. По этому полю Greenplum будет “раскладывать” данные по сегментам и по этому же полю будут самые эффективные join-ы. Указать параметр можно следующим образом:
```
{{
config(
...
distributed_by=''
...
)
}}
```
**Сжатие и колоночная ориентация**
Greenplum предназначен для работы с большими данными, уменьшение времени на чтение/запись за счет сжатия является значительным фактором, который позволяет сократить время выполнения запроса. В dbt при использовании адаптера для Greenplum, это можно имплементировать следующим образом:
```
{{
config(
...
appendonly='true',
orientation='column',
compresstype='ZSTD',
compresslevel=4,
blocksize=32768
...
)
}}
```
Здесь мы указали параметр `appendonly='true'`, он позволяет Greenplum создать таблицу оптимизированную для вставок. А еще мы добавили, что хотим использовать колоночную ориентацию `orientation='column'`. И, наконец, указывали тип сжатия `compresstype='ZSTD'`, который хотим использовать и его параметры `compresslevel=4`, `blocksize=32768`. Указанные значения являются параметрами по умолчанию — их можно не прописывать отдельно, если они для вас подходят.
**Партиционирование**
Последней важной особенностью является партиционирование, в postgres тоже есть эта возможность, но такой возможности нет у адаптера dbt-postgres(прошу поправить меня, если я ошибаюсь). Партиционирование позволяет разбить таблицу на несколько физических файлов по некоторому условию и читать только необходимые партиции. Из-за того что в Greenplum нельзя настраивать партиционирование, во время создания таблицы с помощью `create table as select`, реализация этой фичи получилась не очень симпатичной. Требуется указать строчку с определением полей и строчку с определением партиционирования:
```
{% set fields_string %}
id int4 null,
incomingdate timestamp NULL
{% endset %}
{% set raw_partition %}
PARTITION BY RANGE (incomingdate)
(
START ('2021-01-01'::timestamp) INCLUSIVE
END ('2023-01-01'::timestamp) EXCLUSIVE
EVERY (INTERVAL '1 day'),
DEFAULT PARTITION extra
);
{% endset %}
{{
config(
...
fields_string=fields_string,
raw_partition=raw_partition,
default_partition_name='other_data'
...
)
}}
```
### Построение DataVault
#### Raw
Сперва нужно выделить данные за день, для этого создали модель `raw.raw_transaction`:
```
{{
config(
schema='raw',
materialized='table'
)
}}
with transaction_day_dedup as (
select * from (
select *,
row_number() over (
partition by pa."transaction_id"
order by pa."savetime" asc
) as rn
from {{ source('pure', 'pure_transactions') }} pa
where
'{{ var('raw_transactions')['start_date'] }}' <= transaction_date
and
transaction_date < '{{ var('raw_transactions')['end_date'] }}'
) as h
where rn = 1
)
select
"transaction_id" as transaction_id,
"transaction_date" as transaction_date,
"price" as price,
"quantity" as quantity,
"product_name" as product_name,
"cat_id" as cat_id,
...
'PURE_TRANSACTIONS' as record_source
from transaction_day_dedup ra
```
Здесь мы с помощью CTE выбирали данные за один день и дедублицировали по полю `transaction_id`. После запуска модели в таблице `raw.raw_transaction` у нас оказались данные за 1 день, если указать соответствующие переменные
`var('raw_transactions')['start_date']` и
`var('raw_transactions')['end_date']`:
```
vars:
raw_transactions:
start_date: '2022-01-01 00:00:00.0'
end_date: '2022-01-02 00:00:00.0'
```
#### Stage
К данным в таблице `raw.raw_transaction` добавили первичные ключи, которые будут использоваться в сущностях DataVault.
Мы использовали пакет [dbtvault](https://dbtvault.readthedocs.io/en/latest/) (его пришлось немного доработать, чтобы он поддерживал последнюю версию dbt). Он позволяет сократить количество boilerplate кода.
Чтобы установить необходимые зависимости мы добавили в корень dbt проекта файл `package.yml` со следующим содержанием:
```
packages:
- git: "https://github.com/markporoshin/dbtvault.git"
revision: develop
```
и вызвать команду:
```
dbt deps
```
После этого у вас появится папка dbt\_packages, в которой будут находиться исходники установленных пакетов.
В модели `stage_transactions` мы завели переменную `yaml_metadata` и указываем поля, которые станут основой для ключей. Их существует два типа:
1. Первичные ключи сущностей: хабы и линки;
2. HASHDIFF — хеши для отслеживания изменений в свойствах сущности, которые строятся из полей сателлита.
```
{{
config(
schema='stage',
materialized='table',
)
}}
{%- set yaml_metadata -%}
source_model: 'raw_transactions'
derived_columns:
LOAD_DATE: (SAVETIME + 1 * INTERVAL '1 day')
EFFECTIVE_FROM: 'SAVETIME'
hashed_columns:
TRANSACTION_PK:
- 'transaction_id'
TRANSACTION_HASHDIFF:
is_hashdiff: true
columns:
- 'price'
- 'quantity'
- 'transaction_date'
PRODUCT_PK:
- 'product_name'
PRODUCT_HASHDIFF:
is_hashdiff: true
columns:
- 'cat_id'
LINK_TRANSACTION_PRODUCT_PK:
- 'transaction_id'
- 'product_name'
...
{%- endset -%}
{% set metadata_dict = fromyaml(yaml_metadata) %}
{% set source_model = metadata_dict['source_model'] %}
{% set derived_columns = metadata_dict['derived_columns'] %}
{% set hashed_columns = metadata_dict['hashed_columns'] %}
{{ dbtvault.stage(include_source_columns=true,
source_model=source_model,
derived_columns=derived_columns,
hashed_columns=hashed_columns,
ranked_columns=none) }}
```
Результатом вызова модели получится таблица `stage.stage_transactions` в базе данных со следующими полями:
1. `transaction_id`
2. `transaction_date`
3. `price`
4. `quantity`
5. `product_name`
6. `cat_id`
7. `transaction_pk`
8. `transaction_hashdiff`
9. `product_pk`
10. `product_hashdiff`
11. `link_transaction_product_pk`
12. `load_date`
13. `effective_from`
14. `record_source`
15. …
Теперь у нас есть все необходимые хеши для того чтобы строить хранилище в методологии DataVault.
#### Создание Хаба
Рассмотрим создание хаба на примере сущности “продукт”, из исходных данных у нас есть его название `cleanedname`, которое является бизнес-ключом(natural key), на stage стадии мы создали первичный ключ `product_pk`, а также поле `classid`, которое является его свойством.
Модель хаба product будет выглядеть следующий образом:
```
{{
config(
schema='raw_vault',
materialized='incremental',
distributed_by='product_pk',
)
}}
{%- set source_model = "stage_transactions" -%}
{%- set src_pk = "product_pk" -%}
{%- set src_nk = "cleanedname" -%}
{%- set src_ldts = "load_date" -%}
{%- set src_source = "record_source" -%}
{{ config(schema='raw_vault') }}
{{ dbtvault.hub(src_pk=src_pk, src_nk=src_nk, src_ldts=src_ldts,
src_source=src_source, source_model=source_model) }}
```
В начале мы описываем конфигурацию модели указываем схему, тип материализации и ключ дистрибьюции. После этого определяем переменные:
1. `source_model` — таблицу источник, из которой будет происходить выгрузка данных для пополнения хаба;
2. `src_pk` — название поля, в котором хранится первичный ключ хаба;
3. `src_nk` — название поля, в котором хранится бизнес-ключ хаба;
4. `load_date` — название поля с датой загрузки данных;
5. `src_source` — название поля, в котором хранится наименование источника данных.
И вызываем макрос для генерации кода. В результате появится таблица с следующим DDL:
```
CREATE TABLE raw_vault.h_product (
product_pk text NULL,
cleanedname text NULL,
load_date text NULL,
record_source unknown NULL
)
WITH (
appendonly=true,
blocksize=32768,
orientation=column,
compresstype=zstd,
compresslevel=4
)
DISTRIBUTED BY (product_pk);
```
Рассмотрим еще один пример модели хаба. Дело в том, что сущность "транзакция"(сточка чека), в отличие от продукта однозначно относится со временем, когда совершили покупку, и хочется добавить поле `incomingdate` для того чтобы реализовать партиционирование по нему. У нас на данный момент число транзакций превысило миллиард и обновление хаба без партиционирования занимает несколько часов.
```
{% set fields_string %}
transaction_pk text NULL,
load_date text NULL,
record_source text NULL,
transaction_id text NULL,
transaction_date timestamp NULL
{% endset %}
{% set raw_partition %}
PARTITION BY RANGE (transaction_date)
(
START ('2020-01-01'::timestamp) INCLUSIVE
END ('2028-01-01'::timestamp) EXCLUSIVE
EVERY (INTERVAL '1 day'),
DEFAULT PARTITION extra
);
{% endset %}
{{
config(
schema='raw_vault',
materialized='incremental',
compresslevel=4,
distributed_by='transaction_pk',
fields_string=fields_string,
raw_partition=raw_partition
)
}}
{%- set source_model = "stage_transactions" -%}
{%- set src_pk = "transaction_pk" -%}
{%- set src_nk = "transaction_date" -%}
{%- set src_ldts = "load_date" -%}
{%- set src_source = "record_source" -%}
{%- set src_extra = ["transaction_date"] -%}
{%- set partition_cause = "'" + var('h_transaction')['start_date'] + "' <= transaction_date and transaction_date < '" + var('h_transaction')['start_date'] + "'" -%}
{{ config(schema='raw_vault') }}
{{ dbtvault.hub(src_pk=src_pk, src_nk=src_nk, src_ldts=src_ldts,
src_source=src_source, source_model=source_model,
src_extra=src_extra, partition_cause=partition_cause) }}
```
Это уже не совсем соответствует подходу DataVault, но следование ему в точности обходилось бы слишком дорого.
DDL модели `h_transaction`:
```
CREATE TABLE raw_vault.h_transaction (
transaction_pk text NULL,
load_date text NULL,
record_source text NULL,
transaction_id text NULL,
transaction_date timestamp NULL
)
WITH (
appendonly=true,
blocksize=32768,
orientation=column,
compresstype=zstd,
compresslevel=4
)
DISTRIBUTED BY (transaction_pk)
PARTITION BY RANGE(transaction_date)
(
START ('2020-01-01 00:00:00'::timestamp without time zone) END ('2028-01-01 00:00:00'::timestamp without time zone) EVERY ('1 day'::interval) WITH (appendonly='true', blocksize='32768', orientation='column', compresstype=zstd, compresslevel='4')
COLUMN transaction_pk ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
COLUMN load_date ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
COLUMN record_source ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
COLUMN transaction_id ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
COLUMN transaction_date ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4),
DEFAULT PARTITION extra WITH (appendonly='true', blocksize='32768', orientation='column', compresstype=zstd, compresslevel='4')
COLUMN transaction_pk ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
COLUMN load_date ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
COLUMN record_source ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
COLUMN transaction_id ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
COLUMN transaction_date ENCODING (blocksize=32768, compresstype=zstd, compresslevel=4)
);
```
#### Создание сателлита
У хаба продуктов есть свойство `cat_id`, поэтому мы создали сателлит для его хранения:
```
{{
config(
schema='raw_vault',
materialized='incremental',
distributed_by='product_pk',
)
}}
{%- set source_model = "stage_transactions" -%}
{%- set src_pk = "product_pk" -%}
{%- set src_hashdiff = "product_hashdiff" -%}
{%- set src_payload = ["cat_id, productname"] -%}
{%- set src_eff = "effective_from" -%}
{%- set src_ldts = "load_date" -%}
{%- set src_source = "record_source" -%}
{{ dbtvault.sat(src_pk=src_pk, src_hashdiff=src_hashdiff,
src_payload=src_payload, src_eff=src_eff,
src_ldts=src_ldts, src_source=src_source,
source_model=source_model) }}
```
Модель выглядит практически также, как их хаб за исключением трех дополнительных переменных:
1. `src_hashdiff` — название поля, хранящие хеш данного набора свойств;
2. `src_eff` — название поля, хранящее дату, с которой данный кортеж актуален;
3. `src_payload` — список полей, которые составляют свойства данной сущности.
Аналогично с хабом нам потребовалось внедрить партиционирования для сателлитов, для этого рассмотрим сателлит для сущности транзакция:
```
{% set fields_string %}
transaction_pk text NULL,
transaction_id text NULL,
transaction_hashdiff text NULL,
price float4 NULL,
quantity float4 NULL,
transaction_date timestamp NULL,
load_date text NULL,
record_source text NULL
{% endset %}
{% set raw_partition %}
PARTITION BY RANGE (transaction_date)
(
START ('2020-01-01'::timestamp) INCLUSIVE
END ('2028-01-01'::timestamp) EXCLUSIVE
EVERY (INTERVAL '1 day'),
DEFAULT PARTITION extra
);
{% endset %}
{{
config(
schema='raw_vault',
materialized='incremental',
compresslevel=4,
distributed_by='transaction_pk',
fields_string=fields_string,
raw_partition=raw_partition
)
}}
{%- set source_model = "stage_transactions" -%}
{%- set src_pk = "transaction_pk" -%}
{%- set src_hashdiff = "transaction_hashdiff" -%}
{%- set src_payload = [
"price",
"quantity",
"itemsum",
"transaction_id",
"transaction_date"
] -%}
{%- set src_eff = "EFFECTIVE_FROM" -%}
{%- set src_ldts = "LOAD_DATE" -%}
{%- set src_source = "RECORD_SOURCE" -%}
{%- set partition_cause = "'" + var('hs_transaction')['start_date'] + "' <= transaction_date and transaction_date < '" + var('hs_transaction')['start_date'] + "'" -%}
{{ config(schema='raw_vault') }}
{{ dbtvault.sat(src_pk=src_pk, src_hashdiff=src_hashdiff,
src_payload=src_payload, src_eff=src_eff,
src_ldts=src_ldts, src_source=src_source,
source_model=source_model, partition_cause=partition_cause) }}
```
#### Создание линки
Теперь, когда у нас есть два хаба и сателлиты к ним, осталось только создать таблицу, связывающую их. В роли такой сущности в DavaVault служат ссылки.
```
{% set fields_string %}
link_transaction_product_pk text NULL,
transaction_pk text NULL,
product_pk text NULL,
load_date text NULL,
record_source text NULL,
transaction_date timestamp NULL
{% endset %}
{% set raw_partition %}
PARTITION BY RANGE (transaction_date)
(
START ('2020-01-01'::timestamp) INCLUSIVE
END ('2028-01-01'::timestamp) EXCLUSIVE
EVERY (INTERVAL '1 day'),
DEFAULT PARTITION extra
);
{% endset %}
{{
config(
schema='raw_vault',
materialized='incremental',
compresslevel=4,
distributed_by='link_transaction_product_pk',
fields_string=fields_string,
raw_partition=raw_partition
)
}}
{%- set source_model = "stage_transactions" -%}
{%- set src_pk = "link_transaction_product_pk" -%}
{%- set src_fk = ["transaction_pk", "product_pk"] -%}
{%- set src_ldts = "load_date" -%}
{%- set src_source = "record_source" -%}
{%- set src_extra = ["incomingdate"] -%}
{%- set partition_cause = "'" + var('hs_transaction')['start_date'] + "' <= transaction_date and transaction_date < '" + var('hs_transaction')['start_date'] + "'" -%}
{{ dbtvault.link(src_pk=src_pk, src_fk=src_fk, src_ldts=src_ldts,
src_source=src_source, source_model=source_model,
src_extra=src_extra, partition_cause=partition_cause) }}
```
В методологии DavaVault есть возможность создавать сателлиты для link, однако кажется, что если у связи есть свойства, значит можно выделить еще одну сущность. Кстати, насчет связей между более чем двумя сущностями — лично я пришел к выводу, что лучше избегать подобные структуры без острой необходимости, поскольку последующие запросы получаются нетривиальными особенно если в подобной связи встречаются NULL.
### Выводы
Я надеюсь, что мне удалось вас убедить, что применение dbt в связке с datavault позволяет сильно облегчить построение хранилища DavaVault. Я буду очень рад замечаниям, вопросам и комментариям, а так же приглашаю присоединиться к улучшению адаптера для Greenplum =)
Хочу подвести небольшой итог и выделить основные рекомендации, которые я могу дать на основе совершенных ошибок:
1. Используйте партиционирование везде, где это возможно;
2. Изучите SQL запросы, которые компилирует dbtvault, поскольку иногда их можно оптимизировать в контексте вашей задачи;
3. В greenplum есть потрясающая фича `external table` так что можно отказаться от хранения исходных данных (`pure` схема в статье).
У меня осталось непокрытой последняя тема о том, как автоматизировать процесс наполнения хранилища с помощью Dagster(развитие Airflow от его же создателей). Если тема актуальна, пишите в комментарии, я расскажу о ней. | https://habr.com/ru/post/671836/ | null | ru | null |
# Как насчёт класть каждую функцию в свой файл?
Минусующим: я в курсе что такое ООП и постоянно использую его в разработке. Или из-за чего вы там минусуете с пренебрежением к подобному подходу? Как это может быть ни удивительно для вас, но проекты можно писать в том числе и используя простые функции, вместо запихивания всего и вся в различные классы. Бывает множество ситуаций, когда функцию написать удобнее, чем городить целый класс для решения небольшой проблемы.
---
Есть один интересный подход при разработке проектов, который мне в последнее время стал нравиться. Суть простая: когда вы пишете функции — кладёте каждую из них в свой отдельный файл. Я сейчас имею ввиду те функции, которые используются во многих местах вашего проекта, формируя таким образом некоторую "библиотеку" методов.
Мало кто поступает таким образом в современном мире. Какие же профиты от такого подхода? А вот какие.
### Красивые url'ы на любую функцию проекта
Многие из вас скорее всего неоднократно отправляли друг другу ссылки на различные отрезки кода на Github'е, [вроде такого](https://github.com/systemjs/systemjs/blob/master/lib/conditionals.js#L126-L147). Сегодня эта ссылка указывает точно на метод под названием `booleanConditional`. А вот на что эта ссылка будет указывать спустя пол года — на это мы посмотрим спустя пол года :) Ну, рискну предположить, что через пол года там будет мешанина какого-то совсем другого кода, никак не связанного с `booleanConditional`.
Если ваша функция будет лежать в своём собственном файле, то никаких смещений со временем не случится. Даже спустя долгое время после переработки проекта, ваша ссылка, скорее всего, не потеряет своей актуальности и будет указывать на всё ту же функцию, причём указывать она будет именно на её текущее актуальное содержимое.
Разве не прелесть?
### Инкапсуляция кода и документации
Теперь у вас есть *целый файл* для вашей функции, в котором можно чего только про неё не понаписать! Всё, что будет написано в этом файле — относится только к этой функции. Описать конструкции импорта и использования нужных библиотек для её работы? Пожалуйста. Расписать большой комментарий, который детально расскажет, как должна вести себя ваша функция? Почему нет? Написать внизу примеры использования, завести обсуждение с коллегами о том, как можно её доработать? Оставить в комментариях прошлый вариант данной функции, чтобы, при необходимости, вернуться к нему обратно? Да пожалуйста, какие проблемы: берите и пишите сколько влезет.
Наличие отдельного файла для каждой функции сильно расширяет пространство для творчества. При этом, всё будет выглядеть очень удобно и логично. Когда мы описываем большое количество функций в одном большом жирном файле, мы не можем позволить себе подобные вольности.
### Удобная "история жизни" каждой функции в VCS
Все мы знаем, что современные системы контроля версий позволяют смотреть историю изменения любого файла проекта. А теперь подумайте о том, как удобно может быть иметь историю жизни каждой его функции. Это также становится возможным просто благодаря тому, что мы выделили каждой своей функции по отдельному файлу.
### Удобные поиск и навигация по функциям проекта
В нашем текущем проекте всё разбито следующим образом: есть ядро проекта и его модули. У ядра есть папка functions, в которой находятся ещё пять папок. Выглядит это следующим образом:

Каждый модуль проекта имеет свои собственные функции, разбитые примерно таким же образом.
Теперь найти нужную функцию проекта стало в несколько раз проще, при этом можно использовать почти любой редактор кода: главное чтобы он умел искать по названию файла в проекте. Разделение функций на группы по их областям назначения также помогает увеличить порядок проекта. Да и просто, когда всё разложено таким образом, анализировать существующие созданные методы проекта становится намного легче.
Недостатки
==========
По идее, если мы ведём речь о PHP-проекте, то на продакшене, по хорошему, надо собирать все функции в один файл и загружать его одного вместо кучи файлов. Придётся написать немного кода для решения этой проблемы производительности (если это действительно вдруг станет проблемой), но это ведь не вопрос для вас, правда, мой друг-хабравчанин?
В мире JavaScript я никаких проблем не вижу. Там уже давно все адекватные люди компилируют исходники различными готовыми инструментами в один файл.
Насчёт остальных языков программирования я не знаю.
---
Вот такие пироги. На мой взгляд, так работать с проектом намного приятнее. А какое мнение по данной теме имеете вы? | https://habr.com/ru/post/311748/ | null | ru | null |
# Управляем роботом-пылесосом iRobot Roomba через ИК

Перед новым годом у меня появился полезный питомец — iRobot Roomba 630. Это самая простоя модель Roomba без функций планировщика. В общем-то мне эти функции не нужны, больше хотелось управлять роботом с ПК, тогда бы можно было его запускать удалённо. Для управления робототом фирма iRobot производит ИК-пульт, «Вот оно!» — подумал я и решил попробовать смастерить ИК передатчик для управления Roomb-ой. Всех заинтересовавшихся прошу под кат!
##### Как это работает
Конечно же первым делом я начал искать в интернете протокол обмена Roomb-ы. Информации не много, но самое детальное описание я нашел на форуме [www.robotreviews.com](http://www.robotreviews.com), в частности интересное [сообщение](http://www.robotreviews.com/chat/viewtopic.php?p=17071#p17040), вот его сокращенная цитата:
> The remote control IR stream consist of 8 bits each 4ms in duration. According to the paper, each bit is started by a 1ms low period. If the value is 0, the pulse stays low for 2 more ms. If the pulse goes high for 2ms if the value is 1. The bit is ended by sending a 1ms high burst.
**Также автор приводит коды найденных им команд**Remote Button IR Stream Sensor Code
Left: 10000001 129
Forward: 10000010 130
Right: 10000011 131
Spot: 10000100 132
Max: 10000101 133
Clean: 10001000 136
Pause: 10001001 137
Power: 10001010 138
Forward/Left: 10001011 139
Forward/Right: 10001100 140
Docking station: Behind: 11110010 242
Docking station: Right: 11110110 246
Docking station: Slightly right: 11110111 247
Docking station: Left: 11111010 250
Docking station: Slightly left: 11111011 251
Docking station: Middle: 11111110 254
=== codes found by me...not exactly sure ===
Docking station: Distant ???????? 248
Docking station: Distant ???????? 244
Docking station: Distant ???????? 240
Not sure???? ???????? 252
С указанными интервалами у меня не заработало и я пошёл другим путём: на том же форуме выкладывались [коды для irshell для управления с PSP](http://www.robotreviews.com/chat/viewtopic.php?t=8682#p64966).
**Вот они**TITLE= Roomba
UP=Up
0000 0069 0000 0008 0070 0027 0023 0070 0023 0070 0023 0070 0023 0070 0023 0070 0070 0027 0023 030B
LEFT=Left
0000 0069 0000 0008 0070 0027 0023 0070 0023 0070 0023 0070 0023 0070 0023 0070 0023 0070 0070 02C8
RIGHT=Right
0000 0067 0000 0008 0072 0024 0024 0072 0024 0072 0024 0072 0024 0072 0024 0072 0072 0024 0072 02D0
CIRCLE=Spot
0000 0067 0000 0008 0074 0024 0024 0074 0024 0074 0024 0074 0024 0074 0074 0024 0024 0074 0024 0314
CROSS=Clean
0000 0069 0000 0008 0071 0027 0023 0071 0023 0071 0023 0071 0071 0027 0023 0071 0023 0071 0023 030B
TRIANGLE=Dock (MAX on older models?)
0000 0069 0000 0008 0070 0027 0024 0070 0024 0070 0024 0070 0024 0070 0070 0027 0024 0070 0070 02C8
L\_SQUARE=Power off
0000 0069 0000 0008 0070 0027 0023 0070 0023 0070 0023 0070 0070 0027 0023 0070 0070 0027 0023 030B
L\_TRIANGLE=Pause
0000 0069 0000 0008 0070 0023 0023 0070 0023 0070 0023 0070 0070 0023 0023 0070 0023 0070 0070 02C8
Здесь команды записаны кодами в шестнадцатеричной системе, это так называемый Pronto IR формат. Я нашёл неплохое [описание](http://www.hifi-remote.com/infrared/prontoirformats.pdf) ([Яндекс.Диск](http://yadi.sk/d/xh7cRWUO2IzNd) — на всякий случай) их запись оказалась довольно простой.
**Некоторые иллюстрации из описания формата**

Рассмотрим на примере команды Clean, т.к. она для меня была наиболее интересна:
`0000 0069 0000 0008 0071 0027 0023 0071 0023 0071 0023 0071 0071 0027 0023 0071 0023 0071 0023 030B`
0000 — Говорит нам о том, что это Pronto RAW формат, иллюстрации его записи выше.
0069 — Частота несущей: 6916=10510; f=4,145146 Мгц /105 = 39,477663 кГц.
0000 — Значит стартовой не повторяющейся команды нет.
0008 — Повторяющаяся команда состоит из 8 бит.
Далее уже идет запись повторяющийся команды, в виде количества периодов несущей частоты.
0071 — Первая пачка длительностью 7116 периодов, т.е. примерно 2862 мкс.
0027 — Ничего не передаем 2716 периодов, т.е. примерно 988 мкс.
Далее — по аналогии. Получается, сигнал должен иметь такой вид:

Если первая пачка — это единица, а вторая нуль, то коды команд из сообщения с форума верны:
| Команда | Код |
| --- | --- |
| LEFT | 129 |
| FORWARD | 130 |
| RIGHT | 131 |
| SPOT | 132 |
| DOCK | 133 |
| CLEAN | 136 |
| PAUSE | 137 |
| POWER | 138 |
| FORWARD\_LEFT | 139 |
| FORWARD\_RIGHT | 140 |
##### Изготовление
Конечно можно было купить любой ИК передатчик с подключением по USB и скормить специальной программе выше приведенные Pronto Raw коды и всё! Такая идея мне не пришлась по душе, по началу я хотел, что бы мой ИК передатчик можно было использовать отдельно от ПК, т.е. он должен быть с кнопками и батарейкой, но потом решил пульт с кнопкаи оставить на потом. Я хотел, что бы передатчиком можно было управлять через USB-UART и чтобы он понимал просто текстовые команды, тогда бы его можно было подключать даже к роутеру.
Схема получилась довольно простой:

Компоненты:
* FTDI FT232RL
* Atmel ATtiny2313-20SU в корпусе SOIC20
* Кварц на 7,3728 МГц
* 4 конденсатора 0.1 на мкФ SMD0805
* 2 конденсатора на 20пФ
* 1 танталовый конденсатор на 10 мкФ
* 1 SMD-светодиод (типоразмер 1206) для индикации работы FT232 (не обязательно)
* 1 SMD резистор на 560 Ом для светодиода (опять же по желанию)
* 1 ИК-светодиод, я использовал L-34F3C
* 1 SMD резистор на 100 Ом для ИК светодиода.
Сигнал на ИК диод подается через 5 выводов МК, конечно, правильней было бы управлять транзистором, но я захотел сделать схему как можно проще. При выборе резистора R2 нужно помнить, что максимальный ток для ATtiny2313 составляет 200 мА на все выводы, а на 1 вывод 40 мА.
Информационный светодиод подключен к выводу CBUS3 микросхемы FT232, по умолчанию на него выводится сигнал PWREN#, т.е. светодиод горит, когда FT232 подключена к ПК и инициализировалась. Этому выводу можно назначить и другую функцию, например, RXTXLED# — тогда светодиод будет моргать при передачи данных. Сделать это можно с помощью утилиты [FT\_PROG](http://www.ftdichip.com/Support/Utilities/FT_Prog%20v2.6.8.zip). Утилит для Linux, которые умеют менять назначение выводов я что-то не нашел.
Т.к. дома я использую ОС Ubuntu, я решил разводить плату в KiCAD (это конечно не Altium Designer, но со своей задачей он справляется), все компоненты я использовал из стандартных библиотек:

Архив с KiCAD проектом: [Remote\_USB\_PCB.zip](http://yadi.sk/d/e6Zn8reC2JCJM)
Плата односторонняя, травил методом ЛУТ-а.
Стоит заметить, что я специально выбрал контроллер в SOIC корпусе, т.к. его проще расположить на плате да и травить/паять тоже проще. А вот расстояние между ножками FT232RL довольно маленькое, поэтому после переноса тонера на плату, перед травлением, нужно очистить расстояние между выводами от остатков бумаги каким-нибудь острым предметом. Я поленился и не сделал этого, в итоге пришлось в некоторых местах подрезать площадки, а то они слились.
Из-за моего желания простоты, изначально плата была без кварца, и выглядела так:

Но, видимо, стабильности внутреннего RC-генератора не хватало и Roomba никак не реагировал на команды, хотя осциллограммы нескольких периодов показывали, что всё нормально. В итоге я примастил кварц на обрезке ненужной платы сверху:

##### Программирование
Программа написана на C (AVR-GCC), писал в основном в CodeBloks, но разок пришлось отладить в Atmel Studio. На «правильность» и «красивость» код совсем не претендует, т.ч. прошу это учесть и сильно не критиковать (но полезные указания приветствуются).
**Листинг**
```
/*
Управление роботом-пылесосом Irobot Roomba с ПК через USB-UART (FTDI FT232R). Программа для контроллера Atmel ATTINY2313.
FUSE-биты:
Fuse Low Byte:
CKDIV|CKOUT|SUT|SKSEL|
0 | 1 |10 |0100 | 0x64 Default
1 | 1 |10 |1100 | 0b11101100=0xEC для кварца 7.3728 МГц
*/
#define F_CPU 8E6
//#define __AVR_ATtiny2313__
#include
//#include
//#include
//#include
//#include
//#include
//#include
/\*------<Макросы>-----\*/
//Частота 39477 Гц
//39500 Гц Переод 25,3 мкС
#define P\_GEN {TCNT0=0; PORTB |= 0x1F; while (TCNT0 < 93); PORTB &= ~0x1F; while (TCNT0 < 186);}
#define TX\_LFCR tx\_uart(0x0A); tx\_uart(0x0D);
//Roomba коды:
#define LEFT 129
#define FORWARD 130
#define RIGHT 131
#define SPOT 132
#define DOCK 133
#define CLEAN 136
#define PAUSE 137
#define POWER 138
#define FORWARD\_LEFT 139
#define FORWARD\_RIGHT 140
/\*------< Глобальные переменные >------\*/
volatile unsigned char data;
unsigned char status;
/\*----------------<Функции:>----------------\*/
void init(void)
{
//Установка делителя частоты на /1:
//CLKPR = (1<> cnt))
{ //Если 1
while (TCNT1 < 330) P\_GEN;
while (TCNT1 < (330+114)) ;
}
else
{ //Если 0
while (TCNT1 < 113) P\_GEN;
while (TCNT1 < (330+114)) ;
}
}
TCNT1=0;
while (TCNT1 < 1950) ;
}
}
void tx\_uart(unsigned char tx\_data)
{
UDR = tx\_data;
while (!(UCSRA & (1<-----------------------\*/
int main(void)
{
init();
for(;;)
{
while (!(UCSRA & (1<': ir\_tx(FORWARD\_RIGHT); TX\_LFCR break;
default: tx\_help(); TX\_LFCR break;
}
}
}
```
Архив с проектом: [Roomba\_Remote\_USB.zip](http://yadi.sk/d/gNuNWhuN2JEI2) | [Отдельно hex-файл](http://yadi.sk/d/ux1foI6t2JMOO)
Прошивал программатором USBasp с помощью утилиты avrdude.
Для прошивки Fuse-битов нужно запустить с параметрами:
```
avrdude -p t2313 -c usbasp -U lfuse:w:0xEC:m
```
Для прошивки hex-файла:
```
avrdude -p t2313 -c usbasp -U flash:w:./bin/Debug/Roomba_Remote.elf.hex
```
Для отправки команды нужно набрать соответствующий символ в терминале:
| Команда | Символ |
| --- | --- |
| LEFT | L |
| FORWARD | F |
| RIGHT | R |
| SPOT | S |
| DOCK | D |
| CLEAN | C |
| PAUSE | P |
| POWER | W |
| FORWARD\_LEFT | < |
| FORWARD\_RIGHT | > |
Есть ещё одна недокументированная функция — см. листинг. ;-)
На правильную команду контроллер отвечает переводом строки, на неправильную краткой справкой.
Небольшой ролик с демонстрацией работы:
Сейчас меня не устраивает дальность работы: нужно направлять светодиод точно на Roomb-у, а это не очень удобно. В связи с чем я подумываю заменить резистор R2 на резистор с меньшим номиналом, например 68 Ом, или же поменять ИК светодиод.
Также подумываю об обычном пульте с кнопками, в связи с чем есть опрос ниже.
P.S.
Об орфографических ошибках и ошибках оформления прошу сообщать через ЛС. | https://habr.com/ru/post/168033/ | null | ru | null |
# Проверки работоспособности в Kubernetes
### В Kubernetes есть механизм проверки работоспособности, с помощью которого можно узнать, работает контейнер в pod’е или нет.
Источник: https://wideops.com/Проверка работоспособности **kubelet** поддерживает три типа проверок работоспособности:
1. Проба запуска (startup).
2. Проба работоспособности (liveness).
3. Проба готовности (readiness).
Проба запуска (startup)
-----------------------
**Приложения с инфраструктурой и устаревшие приложения** дольше запускаются при **первой инициализации**. В этом случае мы используем тот же метод проверки (команда, HTTP-запрос или проверка TCP), что и для остальных проб, но увеличиваем порог ожидания в секундах, чтобы приложение успело запуститься.
```
ports:
- name: liveness-port
containerPort: 8080
hostPort: 8080
livenessProbe:
httpGet:
path: /healthz
port: liveness-port
failureThreshold: 1
periodSeconds: 10
startupProbe:
httpGet:
path: /healthz
port: liveness-port
failureThreshold: 30
periodSeconds: 10
```
Проба работоспособности (liveness)
----------------------------------
**Проба работоспособности** проверяет, выполняется контейнер или нет.
Если проба не находит живой контейнер, автоматически выполняется политика **перезапуска** контейнера.
Источник: https://wideops.com/Проба готовности (readiness)
----------------------------
Проба готовности проверяет, **готово ли приложение** обслуживать запросы.
Если не готово, **IP pod’а** удаляется из списка конечных точек сервиса.
Источник: https://wideops.com/kubelet производит с pod’ом три типа действия:
1. Выполняет команду в контейнере.
2. Проверяет состояние определённого порта в контейнере.
3. Выполняет запрос GET к IP-адресу контейнера.
**Команда для пробы работоспособности**
```
livenessProbe:
exec:
command:
- sh
- /tmp/status_check.sh
initialDelaySeconds: 10
periodSeconds: 5
```
**HTTP-запрос для пробы работоспособности**
```
livenessProbe:
httpGet:
path: /health
port: 8080
initialDelaySeconds: 5
periodSeconds: 3
```
**Проверка TCP для пробы работоспособности**
```
---
initialDelaySeconds: 15
livenessProbe: ~
periodSeconds: 20
port: 8080
tcpSocket: ~
```
*Пробы готовности настраиваются так же, как пробы работоспособности.*
Разница в том, что вместо **livenessProbe** мы указываем значение для **readinessProbe**.
Проба готовности
----------------
```
---
command:
- sh
- /tmp/status_check.sh
exec: ~
initialDelaySeconds: 5
periodSeconds: 5
readinessProbe: ~
```
Настройка проб
--------------
В пробах можно настроить несколько значений:
1. **initialDelaySeconds**: через сколько секунд после запуска контейнера начинаются пробы работоспособности или готовности.
По умолчанию — 0 секунд. Минимальное значение — 0.
2. **periodSeconds**: сколько секунд проходит между пробами.
По умолчанию — 10 секунд. Минимальное значение — 1.
3. **timeoutSeconds**: через сколько секунд истекает время ожидания пробы.По умолчанию — 1 секунда. Минимальное значение — 1.
4. **successThreshold**: сколько проб подряд должно завершиться успехом, чтобы проверка считалась успешной после проваленной пробы.
По умолчанию — 1. Для пробы работоспособности должно быть 1. Минимальное значение — 1.
5. **failureThreshold**: сколько проб должно провалиться, чтобы пришлось перезапускать контейнер (или pod был помечен как неготовый, если речь о проверке готовности). По умолчанию — 3. Минимальное значение — 1.
Развёртывание Nginx
-------------------
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-webserver
labels:
app: webserver
spec:
replicas: 1
template:
metadata:
labels:
app: webserver
spec:
containers:
- name: webserver
image: nginx
imagePullPolicy: Always
ports:
- containerPort: 80
livenessProbe:
httpGet:
path: /
port: 80
initialDelaySeconds: 5
periodSeconds: 3
readinessProbe:
httpGet:
path: /
port: 80
initialDelaySeconds: 5
periodSeconds: 3
```
**Для HTTP get можно настроить дополнительные параметры:**
1. path: путь для доступа на HTTP-сервере.
2. port: имя или номер порта для доступа к контейнеру. Номер должен находиться в диапазоне от 1 до 65535.
3. host: имя хоста для подключения; по умолчанию — IP pod’а. Можно задать хост в заголовках HTTP.
4. httpHeaders: кастомные заголовки для запроса. HTTP разрешает повторяющиеся заголовки.
5. scheme: схема для подключения к хосту (HTTP или HTTPS). По умолчанию — HTTP.
Еще больше про K8sДля тех, кто хочет углубить свои знания в Kubernetes будет полезен курс [Kubernetes:Мега](https://slurm.club/3ehOUqr). Вас ждет разбор кейсов вместе со спикерами и 6 часов практики.
**На курсе вы:** установите Kubernetes в ручном режиме, авторизуетесь в кластере, настроите autoscaling, разберете такие темы, как Open Policy Agent, Network Policy, безопасность и высокодоступные приложения, ротация сертификатов, аутентификация пользователей в кластере, хранение секретов, Horisontal Pod Autoscaler, создание собственного оператор K8s.
«Мега» подойдет всем, кому предстоит запускать Kubernetes в продакшн и отвечать за работу проекта в дальнейшем: специалистам по безопасности, системным инженерам, администраторам, архитекторам, DevOps и др.
**Зачем нужен интенсив, когда есть документация?**
* Экономия времени: полтора месяца, вместо нескольких, которые вы потратили бы на чтение и самостоятельные эксперименты
* Документация может месяцами лежать в папке «прочитать», а интенсив это конкретные даты.
* Здесь есть практика, где помогают находить ошибки. Вас ждут ама-сессии со спикерами, обмен кейсами с единомышленниками и куратор, который поможет сформировать мотивацию на обучение.
Кстати, видеокурс доступен уже сейчас.
Узнать подробнее: <https://slurm.club/3ehOUqr> | https://habr.com/ru/post/692450/ | null | ru | null |
# Программирование игры для embedded-устройства на ESP32
Часть 0: мотивация
------------------
### Введение
Я искал для себя хобби-проект, над которым можно было работать вне моих основных задач, чтобы отвлечься от ситуации в мире. По большей мере меня интересует программирование игр, но также мне нравятся embedded-системы. Сейчас я работаю в игровой компании, но раньше в основном занимался микроконтроллерами. Хотя в конце концов я решил сменить стезю и перейти в индустрию игр, мне по-прежнему нравится с ними экспериментировать. Так почему бы не совместить оба увлечения?
### Odroid Go
У меня завалялся [Odroid Go](https://wiki.odroid.com/odroid_go/odroid_go), с которым было бы интересно поиграться. Его ядром является ESP32 — очень популярный микроконтроллер со стандартной функциональностью МК (SPI, I2C, GPIO, таймеры и т.д.), но также имеющий WiFi и Bluetooth, что делает его привлекательным для создания IoT-устройств.
Odroid Go дополняет ESP32 кучей периферии, позволяя превратить его в портативную игровую машину, напоминающую Gameboy Color: ЖК-дисплей, динамик, крестовина управления, две основные и четыре вспомогательные кнопки, аккумулятор и устройство чтения SD-карт.
В основном люди покупают Odroid Go для [запуска эмуляторов](https://github.com/OtherCrashOverride/go-play) старых 8-битных систем. Если эта штука способна эмулировать старые игры, то справится и с запуском нативной игры, предназначенной специально для неё.

### Ограничения
**Разрешение 320x240**
Дисплей имеет размер всего 320x240, поэтому мы очень ограничены в объёме одновременно отображаемой на экране информации. Нам нужно тщательно продумать, какую игру мы будем делать и какие ресурсы использовать.
**16-битный цвет**
Дисплей поддерживает 16-битный цвет на пиксель: 5 бит на красный, 6 бит на зелёный и 5 на синий. Такая схема по очевидным причинам обычно называется RGB565. Зелёный цвет получил на один бит больше красного и синего, потому что человеческий глаз лучше различает градации зелёного, чем синего или красного.
16-битный цвет означает, что мы имеем доступ всего к 65 тысячам цветов. Сравните это со стандартным 24-битным цветом (по 8 бит на цвет), обеспечивающим 16 *миллионов* цветов.
**Отсутствие GPU**
Без GPU мы не сможем использовать API наподобие OpenGL. Сегодня для отрисовки 2D-игр обычно используются те же GPU, что и для 3D-игр. Просто вместо объектов отрисовываются четырёхугольники, на которые накладываются битовые текстуры. Без GPU нам придётся растеризировать каждый пиксель при помощи CPU, что медленнее, но проще.
При разрешении экрана 320x240 и 16-битном цвете общий размер буфера кадров составляет 153 600 байт. Это значит, что как минимум тридцать раз в секунду нам нужно будет передавать на дисплей 153 600 байт. В конечном итоге это может вызвать проблемы, поэтому при отрисовке экрана нам нужно поступать умнее. Например, можно преобразовать индексированный цвет в палитру, чтобы для каждого пикселя нужно было хранить один байт, который будет использоваться как индекс палитры из 256 цветов.
**Память 4 МБ**
ESP32 имеет 520 КБ встроенного ОЗУ, а Odroid Go добавляет ещё 4 МБ внешнего ОЗУ. Но не вся эта память доступна нам, потому что часть используется ESP32 SDK (подробнее об этом позже). После отключения всех возможных посторонних функций и ввода моей основной функции ESP32 сообщает, что мы можем использовать 4 494 848 байт. Если в дальнейшем нам понадобится больше памяти, то позже мы можем вернуться к урезанию ненужных функций.
**Процессор 80-240 МГц**
CPU конфигурируется на три возможные скорости: 80 МГц, 160 МГц и 240 МГц. Даже максимум в 240 МГц далёк от мощностей в три с лишним гигагерца современных компьютеров, с которыми мы привыкли работать. Мы начнём с 80 МГц и посмотрим, как далеко сможем зайти. Если мы хотим, чтобы игра работала от аккумулятора, то энергопотребление должно быть низким. Для этого хорошо было бы понизить частоту.
**Плохая отладка**
Существуют способы использования отладчиков с embedded-устройствами (JTAG), но, к сожалению, Odroid Go не предоставляет нам нужных контактов, поэтому мы не можем пошагово выполнять код в отладчике, как это обычно бывает. Это означает, что отладка может оказаться сложным процессом, и нам придётся активно пользоваться экранной отладкой (при помощи цветов и текста), а также выводить информацию в консоль отладки (которая, к счастью, легко доступна через USB UART).
### Зачем вообще такие хлопоты?
Зачем вообще пытаться создать игру для этого слабенького устройства со всеми перечисленными ограничениями, а просто не написать что-нибудь для настольного PC? На то есть две причины:
**Ограничения стимулируют творчество**
Когда работаешь с системой, имеющей определённый набор оборудования, каждое из которых обладает собственными ограничениями, это заставляет продумывать, как лучше использовать преимущества этих ограничений. Так мы приближаемся к разработчикам игр старых систем, например, Super Nintendo (но нам всё равно гораздо проще, чем им).
**Низкоуровневая разработка — это весело**
Для написания игры с нуля для обычной настольной системы нам придётся работать со стандартными низкоуровневыми концепциями движков: рендерингом, физикой, распознаванием коллизий. Но при реализации всего этого на embedded-устройстве нам приходится иметь дело и с низкоуровневыми концепциями компьютеров, например, с написанием драйвера ЖК-дисплея.
### Насколько разработка будет низкоуровневой?
Когда дело доходит до низкого уровня и создания собственного кода, приходится где-то прочертить границу. Если мы пытаемся написать игру без библиотек для десктопа, то границей скорее всего будет операционная система или кроссплатформенный API наподобие SDL. В своём проекте я прочерчу границу на написании таких вещей, как драйверы SPI и bootloaders. С ними гораздо больше мук, чем веселья.
Итак, мы будем использовать ESP-IDF, который по сути является SDK для ESP32. Можно считать, что он предоставляет нам некоторые утилиты, которые обычно даёт операционная система, но в ESP32 **не** работает операционная система. Строго говоря, этот МК использует FreeRTOS, которая является **операционной системой реального времени**, но это не настоящая ОС. Это всего лишь планировщик. Скорее всего, мы не будем с ним взаимодействовать, но в своём ядре ESP-IDF применяет его.
ESP-IDF предоставляет нам API к такой периферии ESP32, как SPI, I2C и UART, а также библиотеку среды выполнения C, поэтому когда мы вызываем что-нибудь типа printf, она на самом деле передаёт байты по UART для отображения на мониторе последовательного интерфейса. Также она обрабатывает весь код запуска, необходимый для подготовки машины, прежде чем она вызовет точку запуска нашей игры.
В этом посте я буду вести журнал разработки, в котором расскажу о показавшихся мне интересными моментах и объясню наиболее трудные аспекты. У меня нет плана и я, скорее всего, буду делать много ошибок. Всё это я создаю из интереса.
Часть 1: система сборки
-----------------------
### Введение
Прежде чем мы сможем начать писать код для Odroid Go, нам нужно настроить ESP32 SDK. Он содержит код, запускающий ESP32 и вызывающий нашу основную функцию, а также код периферии (например, SPI), который потребуется нам, когда мы будем писать драйвер ЖК-дисплея.
Espressif называет свой SDK [ESP-IDF](https://github.com/espressif/esp-idf); мы используем последнюю стабильную версию **v4.0**.
Мы можем или клонировать репозиторий по их инструкциям (с флагом **recursive**), или просто скачать zip со страницы релизов.
Наша первая цель — минимальное приложение в духе Hello World, установленное на Odroid Go, которое докажет правильность настройки среды сборки.
### C или C++
ESP-IDF использует C99, поэтому мы тоже выберем его. При желании мы могли бы использовать C++ (в тулчейне ESP32 есть компилятор C++), но пока будем придерживаться C.
На самом деле мне нравится C и его простота. Сколько бы я ни писал кода на C++, мне никогда не удавалось достичь момента наслаждения им.
[Этот человек довольно неплохо резюмирует мои размышления.](https://jonathanwhiting.com/writing/blog/games_in_c/)
Кроме того, при необходимости мы в любой момент сможем перейти на C++.
### Минимальный проект
Для управления системой сборки IDF использует CMake. Также он поддерживает Makefile, но в версии v4.0 они считаются устаревшими, поэтому мы просто воспользуемся CMake.
Как минимум, нам понадобится файл **CMakeLists.txt** с описанием нашего проекта, папка **main** с исходным файлом точки входа в игру и ещё один файл **CMakeLists.txt** внутри **main**, в котором перечисляются исходные файлы.
CMake нужно ссылаться на переменные окружения, которые сообщат ему, где искать IDF и тулчейн. Меня раздражало, что приходится каждый раз устанавливать их заново при запуске новой сессии терминала, поэтому я написал скрипт **export.sh**. Он задаёт **IDF\_PATH** и **IDF\_TOOLS\_PATH**, а также является источником экспорта IDF, задающим другие переменные окружения.
Пользователю скрипта достаточно задать переменные **IDF\_PATH** и **IDF\_TOOLS\_PATH**.
```
IDF_PATH=
IDF_TOOLS_PATH=
if [ -z "$IDF_PATH" ]
then
echo "IDF_PATH not set"
return
fi
if [ -z "$IDF_TOOLS_PATH" ]
then
echo "IDF_TOOLS_PATH not set"
return
fi
export IDF_PATH
export IDF_TOOLS_PATH
source $IDF_PATH/export.sh
```
**CMakeLists.txt** в корне:
```
cmake_minimum_required(VERSION 3.5)
set(COMPONENTS "esptool_py main")
include($ENV{IDF_PATH}/tools/cmake/project.cmake)
project(game)
```
По умолчанию система сборки будет собирать каждый возможный компонент внутри **$ESP\_IDF/components**, из-за чего время компиляции будет больше необходимого. Мы хотим скомпилировать минимальный набор компонентов для вызова нашей основной функции, а дополнительные компоненты подключать позже по необходимости. Именно для этого нужна переменная **COMPONENTS**.
**CMakeLists.txt** внутри **main**:
```
idf_component_register(
SRCS "main.c"
INCLUDE_DIRS "")
```
Всё, что он делает — бесконечно раз в секунду выводит на монитор последовательного интерфейса «Hello World». Для задержки **vTaskDelay** использует FreeRTOS.
Файл **main.c** очень прост:
```
#include
#include
#include
void app\_main(void)
{
for (;;)
{
printf("Hello World!\n");
vTaskDelay(1000 / portTICK\_PERIOD\_MS);
}
// Should never get here
esp\_restart();
}
```
Обратите внимание, что наша функция называется **app\_main**, а *не* **main**. Функция **main** используется IDF для необходимой подготовки, а затем она создаёт **задачу (task)** с нашей функцией **app\_main** в качестве точки входа.
Задача — это просто исполняемый блок, которым может управлять FreeRTOS. Пока нам не стоит об этом беспокоиться (а может, и вообще не придётся), но здесь важно заметить, что наша игра выполняется в одном ядре (ESP32 имеет два ядра), и с каждой итерацией цикла for задача откладывает выполнение на одну секунду. Во время этой задержки планировщик FreeRTOS может выполнять другой код, который ожидает своей очереди на выполнение (если такой код есть).
Мы можем использовать и оба ядра, но пока давайте ограничимся одним.
### Компоненты
Даже если мы снизим список компонентов до самого минимума, необходимого для приложения Hello World (а это **esptool\_py** и **main**), из-за настройки цепочки зависимостей оно всё равно собирает некоторые другие компоненты, которые нам не нужны. Оно собирает все эти компоненты:
```
app_trace app_update bootloader bootloader_support cxx driver efuse esp32 esp_common esp_eth esp_event esp_ringbuf
esp_rom esp_wifi espcoredump esptool_py freertos heap log lwip main mbedtls newlib nvs_flash partition_table pthread
soc spi_flash tcpip_adapter vfs wpa_supplicant xtensa
```
Многие из них вполне логичны (**bootloader**, **esp32**, **freertos**), но за ними идут ненужные нам компоненты, потому что мы не используем сетевых функций: **esp\_eth, esp\_wifi, lwip, mbedtls, tcpip\_adapter, wpa\_supplicant**. К сожалению, мы всё равно вынуждены собирать эти компоненты.
К счастью, компоновщик достаточно умён и не компонует неиспользуемые компоненты в готовый двоичный файл игры. Мы можем проверить это при помощи **make size-components**.
````
Total sizes:
DRAM .data size: 8476 bytes
DRAM .bss size: 4144 bytes
Used static DRAM: 12620 bytes ( 168116 available, 7.0% used)
Used static IRAM: 56345 bytes ( 74727 available, 43.0% used)
Flash code: 95710 bytes
Flash rodata: 40732 bytes
Total image size:~ 201263 bytes (.bin may be padded larger)
Per-archive contributions to ELF file:
Archive File DRAM .data & .bss IRAM Flash code & rodata Total
libc.a 364 8 5975 63037 3833 73217
libesp32.a 2110 151 15236 15415 21485 54397
libfreertos.a 4148 776 14269 0 1972 21165
libsoc.a 184 4 7909 875 4144 13116
libspi_flash.a 714 294 5069 1320 1386 8783
libvfs.a 308 48 0 5860 973 7189
libesp_common.a 16 2240 521 1199 3060 7036
libdriver.a 87 32 0 4335 2200 6654
libheap.a 317 8 3150 1218 748 5441
libnewlib.a 152 272 869 908 99 2300
libesp_ringbuf.a 0 0 906 0 163 1069
liblog.a 8 268 488 98 0 862
libapp_update.a 0 4 127 159 486 776
libbootloader_support.a 0 0 0 634 0 634
libhal.a 0 0 519 0 32 551
libpthread.a 8 12 0 288 0 308
libxtensa.a 0 0 220 0 0 220
libgcc.a 0 0 0 0 160 160
libmain.a 0 0 0 22 13 35
libcxx.a 0 0 0 11 0 11
(exe) 0 0 0 0 0 0
libefuse.a 0 0 0 0 0 0
libmbedcrypto.a 0 0 0 0 0 0
libwpa_supplicant.a 0 0 0 0 0 0
````
Больше всего на размер двоичного файла влияет libc, и это нормально.
### Конфигурация проекта
IDF позволяет задавать параметры конфигурации времени компиляции, которые он использует при сборке для включения или отключения различных функций. Нам нужно задать параметры, которые позволят нам воспользоваться преимуществами дополнительных аспектов Odroid Go.
Во-первых, нужно выполнить source скрипта **export.sh**, чтобы CMake имел доступ к необходимым переменным окружения. Далее, как для всех проектов CMake, нам нужно создать папку сборки и вызвать CMake из неё.
```
source export.sh
mkdir build
cd build
cmake ..
```
Если запустить **make menuconfig**, то откроется окно, где можно настроить параметры проекта.
#### Расширяем флеш-память до 16 МБ
Odroid Go расширяет стандартный объём флеш-накопителя до 16 МБ. Эту возможность можно включить, перейдя в **Serial flasher config -> Flash size -> 16MB**.
#### Включаем внешнее SPI RAM
Также у нас есть доступ к дополнительным 4 МБ внешнего ОЗУ, подключенного по SPI. Можно включить его, перейдя в **Component config -> ESP32-specific -> Support for external, SPI-connected RAM** и нажав «пробел» для включения. Ещё мы хотим иметь возможность явным образом выделять память из SPI RAM; это можно включить, перейдя в **SPI RAM config -> SPI RAM access method -> Make RAM allocatable using heap\_caps\_malloc**.
#### Понижаем частоту
ESP32 по умолчанию работает с частотой 160 МГц, но давайте снизим её до 80 МГц, чтобы увидеть, как далеко можно зайти с самой низкой тактовой частотой. Мы хотим, чтобы игра работала от аккумулятора, а снижение частоты позволит экономить заряд. Изменить её можно, перейдя в **Component config -> ESP32-specific -> CPU frequency -> 80MHz**.
Если выбрать **Save**, в корень папки проекта будет сохранён файл **sdkconfig**. Мы можем записать этот файл в git, но в нём много параметров, которые нам не важны. Пока нас устраивают стандартные параметры, кроме тех, которые мы только что изменили.
Можно создать вместо него файл **sdkconfig.defaults**, который будет содержать изменённые выше значения. Всё остальное будет настроено по умолчанию. Во время сборки IDF будет считывать **sdkconfig.defaults**, переопределять заданные нами значения и использовать стандартные для всех остальных параметров.
Сейчас **sdkconfig.defaults** выглядит так:
```
# Set flash size to 16MB
CONFIG_ESPTOOLPY_FLASHSIZE_16MB=y
# Set CPU frequency to 80MHz
CONFIG_ESP32_DEFAULT_CPU_FREQ_80=y
# Enable SPI RAM and allocate with heap_caps_malloc()
CONFIG_ESP32_SPIRAM_SUPPORT=y
CONFIG_SPIRAM_USE_CAPS_ALLOC=y
```
В целом, исходная структура игры выглядит так:
````
game
├── CMakeLists.txt
├── export.sh
├── main
│ ├── CMakeLists.txt
│ └── main.c
└── sdkconfig.defaults
````
### Выполнение сборки и прошивка
Сам процесс выполнения сборки и прошивки достаточно прост.
Мы запускаем **make** для выполнения компиляции (для параллельной сборки добавьте **-j4** или **-j8**), **make flash** для записи образа на Odroid Go и **make monitor** для просмотра выходной информации операторов **printf**.
```
make
make flash
make monitor
```
Также мы можем выполнить их одной строкой
```
make flash monitor
```
Результат не особо впечатляет, но он станет основой для оставшейся части проекта.

### Ссылки
* [ESP-IDF Documentation: Build System](https://docs.espressif.com/projects/esp-idf/en/v4.0/api-guides/build-system.html)
* [FreeRTOS Documentation: vTaskDelay](https://www.freertos.org/a00127.html)
Часть 2: ввод
-------------
### Введение
Нам нужно иметь возможность считывания нажимаемых игроком кнопок и крестовины на Odroid Go.
### Кнопки

#### GPIO
Odroid Go имеет шесть кнопок: **A**, **B**, **Select**, **Start**, **Menu** и **Volume**.
Каждая из кнопок подключена к отдельному контакту **General Purpose IO (GPIO)**. Контакты GPIO могут использоваться как вводы (для считывания) или как выводы (мы выполняем в них запись). В случае кнопок нам нужно считывание.
Сначала требуется сконфигурировать контакты в качестве вводов, после чего мы сможем считывать их состояние. Внутри контакты имеют одно из двух напряжений (3.3V или 0V), но при считывании их с помощью функции IDF они преобразуются в целочисленные значения.
#### Инициализация
Элементы, помеченные на схеме как **SW** — это сами физические кнопки. Когда не нажаты, контакты ESP32 (**IO13**, **IO0** и т.д.) соединены с 3,3 В; то есть напряжение 3,3 В означает, что кнопка **не нажата**. Логика здесь противоположна ожидаемой.
**IO0** и **IO39** имеют на плате физические резисторы. Если кнопка не нажата, то резистор **подтягивает** контакты до высокого напряжения. Если кнопка нажата, то идущий по контактам ток вместо этого уходит в землю, поэтому с контактов будет считываться напряжение 0.
**IO13**, **IO27**, **IO32** и **IO33** не имеют резисторов, потому что контакте на ESP32 имеют внутренние резисторы, которые мы сконфигурировали на режим подтягивания.
Зная это, мы можем сконфигурировать шесть кнопок при помощи GPIO API.
```
const gpio_num_t BUTTON_PIN_A = GPIO_NUM_32;
const gpio_num_t BUTTON_PIN_B = GPIO_NUM_33;
const gpio_num_t BUTTON_PIN_START = GPIO_NUM_39;
const gpio_num_t BUTTON_PIN_SELECT = GPIO_NUM_27;
const gpio_num_t BUTTON_PIN_VOLUME = GPIO_NUM_0;
const gpio_num_t BUTTON_PIN_MENU = GPIO_NUM_13;
gpio_config_t gpioConfig = {};
gpioConfig.mode = GPIO_MODE_INPUT;
gpioConfig.pull_up_en = GPIO_PULLUP_ENABLE;
gpioConfig.pin_bit_mask =
(1ULL << BUTTON_PIN_A)
| (1ULL << BUTTON_PIN_B)
| (1ULL << BUTTON_PIN_START)
| (1ULL << BUTTON_PIN_SELECT)
| (1ULL << BUTTON_PIN_VOLUME)
| (1ULL << BUTTON_PIN_MENU);
ESP_ERROR_CHECK(gpio_config(&gpioConfig));
```
Заданные в начале кода константы соответствуют каждому из контактов схемы. Мы используем структуру **gpio\_config\_t** для конфигурирования каждой из шести кнопок в качестве ввода с подтягиванием. В случае **IO13**, **IO27**, **IO32** и **IO33** нам нужно попросить IDF включить подтягивающие резисторы этих контактов. Для **IO0** и **IO39** нам не нужно этого делать, потому что у них есть физические резисторы, но мы всё равно сделаем это, чтобы конфигурация была красивой.
**ESP\_ERROR\_CHECK** — это вспомогательный макрос из IDF, который автоматически проверяет результат всех функций, возвращающих значение **esp\_err\_t** (бОльшая часть IDF) и утверждает (assert), что результат не равен **ESP\_OK**. Этот макрос удобно использовать для функции, если её ошибка критична и после неё нет смысла продолжать выполнение. В данном игра без ввода — не игра, так что это утверждение справедливо. Мы часто будем пользоваться этим макросом.
#### Считывание кнопок
Итак, мы сконфигурировали все контакты, и можем наконец-то считывать значения.
Цифровые кнопки считываются функцией **gpio\_get\_level**, но нам нужно инвертировать получаемые значения, потому что контакты подтянуты вверх, то есть высокий сигнал на самом деле означает «не нажато», а низкий — «нажато». Инвертирование сохраняет привычную нам логику: 1 означает «нажато», 0 — «не нажато».
```
int a = !gpio_get_level(BUTTON_PIN_A);
int b = !gpio_get_level(BUTTON_PIN_B);
int select = !gpio_get_level(BUTTON_PIN_SELECT);
int start = !gpio_get_level(BUTTON_PIN_START);
int menu = !gpio_get_level(BUTTON_PIN_MENU);
int volume = !gpio_get_level(BUTTON_PIN_VOLUME);
```
### Крестовина (D-pad)

#### ADC
Подключение крестовины отличается от подключения кнопок. Кнопки «вверх» и «вниз» подключены к одному контакту **аналогово-цифрового преобразователя (Analog-to-Digital Converter, ADC)**, а кнопки «влево» и «вправо» — к другому контакту ADC.
В отличие от цифровых контактов GPIO, с которых мы могли считать одно из двух состояний (высокое или низкое), ADC преобразует непрерывное аналоговое напряжение (например, от 0 В до 3,3 В) в дискретное числовое значение (например, от 0 до 4095).
Предполагаю, проектировщики Odroid Go сделали так, чтобы сэкономить на контактах GPIO (нужно только два аналоговых контакта вместо четырёх цифровых). Как бы то ни было, это немного усложняет конфигурацию и считывание с этих контактов.
#### Конфигурация
Контакт **IO35** подключен к оси Y крестовины, а контакт **IO34** — к оси X крестовины. Мы видим, что соединения крестовины чуть сложнее, чем у цифровых кнопок. У каждой оси есть два переключателя (**SW1** и **SW2** для оси Y, **SW3** и **SW4** — для оси X), каждый из которых подключён к набору резисторов (**R2**, **R3**, **R4**, **R5**).
Если не нажато ни «вверх», ни «вниз», контакт **IO35** подтягивается вниз к земле через **R3**, и мы считаем значение 0 В. Если не нажато ни «влево», ни «вправо», контакт **IO34** подтягивается вниз к земле через **R5**, и мы считаем значение 0 В.
Если нажато **SW1 («вверх»)**, то с **IO35** мы считаем 3,3 В. Если нажато **SW2 («вниз»)**, то с **IO35** мы считаем приблизительно 1,65 В, потому что половина напряжения упадёт на резисторе **R2**.
Если нажато **SW3 («влево»)**, то с **IO34** мы считаем 3,3 В. Если нажато **SW4 («вправо»)**, то с **IO34** мы тоже считаем примерно 1,65 В, потому что половина напряжения упадёт на резисторе **R4**.
Оба случая являются примерами [делителей напряжения](https://en.wikipedia.org/wiki/Voltage_divider). Когда два резистора в делителе напряжения имеют одинаковое сопротивление (в нашем случае — 100K), то падение напряжения составит половину напряжения на входе.
Зная это, мы можем сконфигурировать крестовину:
```
const adc1_channel_t DPAD_PIN_X_AXIS = ADC1_GPIO34_CHANNEL;
const adc1_channel_t DPAD_PIN_Y_AXIS = ADC1_GPIO35_CHANNEL;
ESP_ERROR_CHECK(adc1_config_width(ADC_WIDTH_BIT_12));
ESP_ERROR_CHECK(adc1_config_channel_atten(DPAD_PIN_X_AXIS,ADC_ATTEN_DB_11));
ESP_ERROR_CHECK(adc1_config_channel_atten(DPAD_PIN_Y_AXIS,ADC_ATTEN_DB_11));
```
Мы задали ADC ширину 12 битов, чтобы 0 В считывалось как 0, а 3,3 В — как 4095 (2^12). Attenuation сообщает, что не нужно ослаблять сигнал, чтобы мы получили полный диапазон напряжений от 0 В до 3,3 В.
При 12 битах можно ожидать, что если ничего не нажато, то будет считываться 0, при нажатии вверх и влево — 4096, и приблизительно 2048 будет считываться при нажатии вниз и вправо (потому что резисторы уменьшают напряжение вдвое).
#### Считывание крестовины
Считывать крестовину сложнее, чем кнопки, потому что нам нужно считывать сырые значения (от 0 до 4095) и интерпретировать их.
```
const uint32_t ADC_POSITIVE_LEVEL = 3072;
const uint32_t ADC_NEGATIVE_LEVEL = 1024;
uint32_t dpadX = adc1_get_raw(DPAD_PIN_X_AXIS);
if (dpadX > ADC_POSITIVE_LEVEL)
{
// Left pressed
}
else if (dpadX > ADC_NEGATIVE_LEVEL)
{
// Right pressed
}
uint32_t dpadY = adc1_get_raw(DPAD_PIN_Y_AXIS);
if (dpadY > ADC_POSITIVE_LEVEL)
{
// Up pressed
}
else if (dpadY > ADC_NEGATIVE_LEVEL)
{
// Down pressed
}
```
**ADC\_POSITIVE\_LEVEL** и **ADC\_NEGATIVE\_LEVEL** — это значения с запасом, гарантирующие, что мы всегда будем считывать правильные значения.
### Опрос
Существует два варианта получения значений кнопок: опрос или прерывания. Мы можем создать функции обработки ввода и просить IDF вызывать эти функции при нажатии кнопок, или вручную опрашивать состояние кнопок, когда оно нам понадобится. Управляемое прерываниями поведение всё усложняет и затрудняет понимание потока кода. Кроме того, я всегда стремлюсь, чтобы всё было как можно проще. При необходимости мы можем добавить прерывания позже.
Мы создадим структуру, которая будет хранить состояние шести кнопок и четырёх направлений крестовины. Мы можем создать структуру с 10 boolean, или 10 int, или 10 unsigned int. Однако вместо этого мы создадим структуру с помощью **битовых полей**.
```
typedef struct
{
uint16_t a : 1;
uint16_t b : 1;
uint16_t volume : 1;
uint16_t menu : 1;
uint16_t select : 1;
uint16_t start : 1;
uint16_t left : 1;
uint16_t right : 1;
uint16_t up : 1;
uint16_t down : 1;
} Odroid_Input;
```
При программировании для настольных систем битовых полей обычно избегают, потому что они плохо портируются на разные машины, но мы программируем для конкретной машины и волноваться нам об этом не нужно.
Вместо полей можно было бы использовать структуру с 10 булевыми значениями общим размером 10 байт. Ещё одним вариантом является одно **uint16\_t** макросами битового сдвига и побитового маскирования, которые могут задавать, сбрасывать и проверять отдельные биты. Это сработает, но будет не очень красиво.
Простое битовое поле позволяет нам использовать преимущества обоих подходов: два байта данных и именованные поля.
### Демо
Теперь мы можем опрашивать состояние вводов внутри основного цикла и выводить результат.
```
void app_main(void)
{
Odroid_InitializeInput();
for (;;)
{
Odroid_Input input = Odroid_PollInput();
printf(
"\ra: %d b: %d start: %d select: %d vol: %d menu: %d up: %d down: %d left: %d right: %d",
input.a, input.b, input.start, input.select, input.volume, input.menu,
input.up, input.down, input.left, input.right);
fflush(stdout);
vTaskDelay(250 / portTICK_PERIOD_MS);
}
// Should never get here
esp_restart();
}
```
Функция **printf** использует **\r** для перезаписи предыдущей строки вместо добавления новой. **fflush** необходим для отображения строки, потому что в обычном состоянии она сбрасывается символом новой строки **\n**.
Your browser does not support HTML5 video.
### Ссылки
* [Odroid Go Schematic](https://github.com/hardkernel/ODROID-GO/blob/master/Documents/ODROID-GO_REV0.1_20180518.pdf)
* [ESP-IDF Documentation: ADC](https://docs.espressif.com/projects/esp-idf/en/v4.0/api-reference/peripherals/adc.html)
* [ESP-IDF Documentation: GPIO](https://docs.espressif.com/projects/esp-idf/en/v4.0/api-reference/peripherals/spi_master.html)
Часть 3: дисплей
----------------
### Введение
Нам нужно иметь возможность отрисовки пикселей на ЖК-дисплее Odroid Go.
Вывести цвета на экран будет сложнее, чем считывать состояние ввода, потому что у ЖК-дисплея есть мозги. Экран управляется **ILI9341** — очень популярным драйвером TFT LCD на одном чипе.
Другими словами, мы общаемся с ILI9341, который реагирует на наши команды, управляя пикселями на ЖК-дисплее. Когда в этой части я буду говорить «экран» или «дисплей», то на самом деле буду иметь в виду ILI9341. Мы общаемся с ILI9341. Он управляет ЖК-дисплеем.
### SPI
ЖК-дисплей подключён к ESP32 по **SPI (Serial Peripheral Interface)**.
SPI — это стандартный протокол, используемый для обмена данными между устройствами на печатной плате. Он имеет четыре сигнала: **MOSI (Master Out Slave In)**, **MISO (Master In Slave Out)**, **SCK (Clock)** и **CS (Chip Select)**.
Единое мастер-устройство на шине координирует передачу данных, управляя SCK и CS. На одной шине может быть несколько устройств, у каждого из которых будут собственные сигналы CS. Когда активируется сигнал CS этого устройства, оно может передавать и получать данные.
ESP32 будет управляющим устройством SPI (master), а ЖК-дисплей — подчинённым устройством SPI (slave). Нам нужно сконфигурировать шину SPI требуемыми параметрами и добавить ЖК-дисплей на шину, сконфигурировав соответствующие контакты.


Имена **VSPI.XXXX** — это просто метки для контактов на схеме, но мы можем пройти и до самих контактов, взглянув на части схемы LCD и ESP32.
* **MOSI** -> VSPI.MOSI -> **IO23**
* **MISO** -> VSPI.MISO -> **IO19**
* **SCK** -> VSPI.SCK -> **IO18**
* **CS0** -> VSPI.CS0 -> **IO5**
Также у нас есть **IO14**, являющийся выводом GPIO, который используется для включения подсветки, а ещё **IO21**, который подключен к контакту **DC** ЖК-дисплея. Этот контакт контролирует тип информации, который мы передаём на дисплей.
Сначала сконфигурируем шину SPI.
```
const gpio_num_t LCD_PIN_MISO = GPIO_NUM_19;
const gpio_num_t LCD_PIN_MOSI = GPIO_NUM_23;
const gpio_num_t LCD_PIN_SCLK = GPIO_NUM_18;
const gpio_num_t LCD_PIN_CS = GPIO_NUM_5;
const gpio_num_t LCD_PIN_DC = GPIO_NUM_21;
const gpio_num_t LCD_PIN_BACKLIGHT = GPIO_NUM_14;
const int LCD_WIDTH = 320;
const int LCD_HEIGHT = 240;
const int LCD_DEPTH = 2;
spi_bus_config_t spiBusConfig = {};
spiBusConfig.miso_io_num = LCD_PIN_MISO;
spiBusConfig.mosi_io_num = LCD_PIN_MOSI;
spiBusConfig.sclk_io_num = LCD_PIN_SCLK;
spiBusConfig.quadwp_io_num = -1; // Unused
spiBusConfig.quadhd_io_num = -1; // Unused
spiBusConfig.max_transfer_sz = LCD_WIDTH * LCD_HEIGHT * LCD_DEPTH;
ESP_ERROR_CHECK(spi_bus_initialize(VSPI_HOST, &spiBusConfig, 1));
```
Мы конфигурируем шину при помощи **spi\_bus\_config\_t**. Необходимо сообщить используемые нами контакты и максимальный размер одной передачи данных.
Пока мы будем выполнять одну передачу по SPI для всех данных буфера кадров, который равен ширине ЖК-дисплея (в пикселях), умноженной на его высоту (в пикселях), умноженным на количество байт на пиксель.
Ширина равна 320, высота — 240, а глубина цвета — 2 байтам (дисплей ожидает, что цвета пикселей имеют глубину 16 бит).
```
spi_handle_t gSpiHandle;
spi_device_interface_config_t spiDeviceConfig = {};
spiDeviceConfig.clock_speed_hz = SPI_MASTER_FREQ_40M;
spiDeviceConfig.spics_io_num = LCD_PIN_CS;
spiDeviceConfig.queue_size = 1;
spiDeviceConfig.flags = SPI_DEVICE_NO_DUMMY;
ESP_ERROR_CHECK(spi_bus_add_device(VSPI_HOST, &spiDeviceConfig, &gSpiHandle));
```
Инициализировав шину, мы должны добавить ЖК-устройство на шину, чтобы мы могли начать с ним общаться.
* **clock\_speed\_hz** — в спецификациях ЖК-дисплея написано, что он может понимать скорости SPI вплоть до 40 МГц, поэтому её мы и зададим. Однако мне успешно удавалось обмениваться данными при 80 МГц, поэтому в дальнейшем мы при необходимости сможем повысить скорость.
* **spics\_io\_num** — мы задаём контакт CS, чтобы IDF мог правильно переключать сигнал CS, когда ему нужно будет общаться с дисплеем (интерфейс SD-карты тоже находится на шине SPI).
* **queue\_size** — мы задаём его равным 1, потому что за раз мы хотим отправлять только одну передачу (буфер кадров целиком).
* **flags** — драйвер IDF SPI обычно вставляет в передачу пустые биты, чтобы избежать проблем с таймингом во время считывания из SPI-устройства, но мы выполняем одностороннюю передачу (выполнять считывание с дисплея мы не будем). **SPI\_DEVICE\_NO\_DUMMY** сообщает, что мы подтверждаем эту одностороннюю передачу и нам не нужно вставлять пустые биты.
```
gpio_set_direction(LCD_PIN_DC, GPIO_MODE_OUTPUT);
gpio_set_direction(LCD_PIN_BACKLIGHT, GPIO_MODE_OUTPUT);
```
Также нам нужно задать контакты **DC** и подсветки в качестве выводов GPIO. После переключения **DC** подсветка будет постоянно включена.
### Команды
Обмен данными с ЖК-дисплеем выполняется в форме команд. Сначала мы передаём байт, обозначающий команду, которую хотим отправить, а затем передаём параметры команды (если они есть). Дисплей понимает, что байт является командой, если на **DC** низкий сигнал. Если на **DC** высокий сигнал, то получаемые данные будут считаться параметрами ранее переданной команды.
В целом поток выглядит вот так:
1. Подаём на **DC** низкий сигнал
2. Отправляем один байт команды
3. Подаём на **DC** высокий сигнал
4. Отправляем ноль или больше байтов, в зависимости от требований команды
5. Повторяем этапы 1-4
Здесь наш лучший друг — [спецификация ILI9341](https://www.crystalfontz.com/controllers/Ilitek/ILI9341/142). В ней перечислены все возможные команды, их параметры и способы их использования.

Пример команды без параметров — **Display ON**. Байт команды равен **0x29**, но для него не указано параметров.

Пример команды с параметрами — **Column Address Set**. Байт команды равен **0x2A**, но для неё указано четыре обязательных параметра. Чтобы использовать команду, нужно подать на **DC** низкий сигнал, передать **0x2A**, подать на **DC** высокий сигнал, а затем передать байты четырёх параметров.
Сами коды команд заданы в перечислении.
```
typedef enum
{
SOFTWARE_RESET = 0x01u,
SLEEP_OUT = 0x11u,
DISPLAY_ON = 0x29u,
COLUMN_ADDRESS_SET = 0x2Au,
PAGE_ADDRESS_SET = 0x2Bu,
MEMORY_WRITE = 0x2Cu,
MEMORY_ACCESS_CONTROL = 0x36u,
PIXEL_FORMAT_SET = 0x3Au,
} CommandCode;
```
Вместо него мы могли бы использовать макрос (**#define SOFTWARE\_RESET (0x01u)**), но они не имеют символов в отладчике и у них отсутствует область видимости. Также можно было бы использовать статические константы integer, как мы поступили с контактами GPIO, но благодаря enum мы с первого взгляда можем понять, какие данные передаются функции или члену структуры: они имеют тип **CommandCode**. В противном случае это могли бы быть сырые **uint8\_t**, которые ничего не говорят читающему код программисту.
### Запуск
Во время инициализации мы можем передать разные команд, чтобы иметь возможность что-нибудь отрисовать. Каждая команда имеет байт команды, который мы назовём **Command Code**.
Мы зададим структуру для хранения команды запуска, чтобы можно было задать их массив.
```
typedef struct
{
CommandCode code;
uint8_t parameters[15];
uint8_t length;
} StartupCommand;
```
* **code** — это код команды.
* **parameters** — это массив параметров команды (если они есть). Это статический массив размера 15, потому что таково максимально необходимое нам количество параметров. Благодаря статичности массива нам не придётся каждый раз волноваться о выделении динамического массива для каждой команды.
* **length** — это количество параметров в массиве **parameters**.
При помощи этой структуры мы можем задать список команд запуска.
```
StartupCommand gStartupCommands[] =
{
// Reset to defaults
{
SOFTWARE_RESET,
{},
0
},
// Landscape Mode
// Top-Left Origin
// BGR Panel
{
MEMORY_ACCESS_CONTROL,
{0x20 | 0xC0 | 0x08},
1
},
// 16 bits per pixel
{
PIXEL_FORMAT_SET,
{0x55},
1
},
// Exit sleep mode
{
SLEEP_OUT,
{},
0
},
// Turn on the display
{
DISPLAY_ON,
{},
0
},
};
```
Команды без параметров, например, **SOFTWARE\_RESET**, задают список инициализатора **parameters** как пустой (т.е. с одними нулями) а length присваивают значение 0. Команды с параметрами заполняют параметры и задают length. Было бы здорово, если бы могли задавать length автоматически, а не прописывать числами (на случай, если мы ошибёмся или параметры изменятся), но я не считаю, что это стоит трудов.
Предназначение большинства команд понятно из названия, за исключением двух.
**MEMORY\_ACCESS\_CONTROL**
* **Landscape Mode:** по умолчанию в дисплее используется портретная ориентация (240x320), но мы хотим использовать альбомную (320x240).
* **Top-Left Origin:** мы задаём точку начала координат (0,0) в левом верхнем углу дисплея, потому что логичнее (для меня) записывать в буфер кадров сверху вниз и слева направо.
* **BGR Panel:** дисплей ожидает, что цвета пикселей будут указываться в формате BGR. Это стало понятно, когда я задавал пиксели, думая, что они красные, но они отображались как синие.
**PIXEL\_FORMAT\_SET**
* **16 bits per pixel:** мы используем 16-битные цвета.
Существует множество других команд, которые можно передавать при запуске для контроля различных аспектов, например, гаммы. Необходимые параметры описаны в спецификации самого ЖК-дисплея (а не контроллера ILI9341), к которой у нас нет доступа. Если мы не будем передавать эти команды, то используются параметры дисплея по умолчанию, что вполне нас устраивает.
Подготовив массив команд запуска, мы можем начать передавать их на дисплей.
Сначала нам нужна функция, отправляющая на дисплей один байт команды. Не забывайте, что отправка команд отличается от отправки параметров, потому что нам нужно подать на **DC** низкий сигнал.
```
#define BYTES_TO_BITS(value) ( (value) * 8 )
void SendCommandCode(CommandCode code)
{
spi_transaction_t transaction = {};
transaction.length = BYTES_TO_BITS(1);
transaction.tx_data[0] = (uint8_t)code;
transaction.flags = SPI_TRANS_USE_TXDATA;
gpio_set_level(LCD_PIN_DC, 0);
spi_device_transmit(gSpiHandle, &transaction);
}
```
IDF имеет структуру **spi\_transaction\_t**, которую мы заполняем, когда хотим передать что-нибудь по шине SPI. Мы знаем, сколько бит составляет полезная нагрузка и передаём саму нагрузку.
Мы можем передать или указатель на полезную нагрузку, или использовать внутреннюю struct **tx\_data** структуры, которая имеет размер всего четыре байта, но избавляет драйвер от необходимости доступа к внешней памяти. Если мы используем **tx\_data**, то должны задать флаг **SPI\_TRANS\_USE\_TXDATA**.
Прежде чем передавать данные, мы подаём на **DC** низкий сигнал, сообщающий, что это код команды.
```
void SendCommandParameters(uint8_t* data, int length)
{
spi_transaction_t transaction = {};
transaction.length = BYTES_TO_BITS(length);
transaction.tx_buffer = data;
transaction.flags = 0;
gpio_set_level(LCD_PIN_DC, 1);
spi_device_transmit(SPIHANDLE, &transaction);
}
```
Передача параметров аналогична передаче команды, только на этот раз мы используем собственный буфер (**data**) и подаём на **DC** высокий сигнал, чтобы сообщить дисплею, что передаются параметры. Кроме того, мы не устанавливаем флаг **SPI\_TRANS\_USE\_TXDATA**, потому что передаём свой собственный буфер.
Затем можно передавать все команды запуска.
```
#define ARRAY_COUNT(value) ( sizeof(value) / sizeof(value[0]) )
int commandCount = ARRAY_COUNT(gStartupCommands);
for (int commandIndex = 0; commandIndex < commandCount; ++commandIndex)
{
StartupCommand* command = &gStartupCommands[commandIndex];
SendCommandCode(command->code);
if (command->length > 0)
{
SendCommandData(command->parameters, command->length);
}
}
```
Мы итеративно обходим массив команд запуска, сначала передавая код команды, а затем параметры (если они есть).
### Отрисовка кадра
После инициализации дисплея можно начинать отрисовку на нём.
```
#define UPPER_BYTE_16(value) ( (value) >> 8u )
#define LOWER_BYTE_16(value) ( (value) & 0xFFu )
void Odroid_DrawFrame(uint8_t* buffer)
{
// Set drawing window width to (0, LCD_WIDTH)
uint8_t drawWidth[] = { 0, 0, UPPER_BYTE_16(LCD_WIDTH), LOWER_BYTE_16(LCD_WIDTH) };
SendCommandCode(COLUMN_ADDRESS_SET);
SendCommandParameters(drawWidth, ARRAY_COUNT(drawWidth));
// Set drawing window height to (0, LCD_HEIGHT)
uint8_t drawHeight[] = { 0, 0, UPPER_BYTE_16(LCD_HEIGHT), LOWER_BYTE_16(LCD_HEIGHT) };
SendCommandCode(PAGE_ADDRESS_SET);
SendCommandParameters(drawHeight, ARRAY_COUNT(drawHeight));
// Send the buffer to the display
SendCommandCode(MEMORY_WRITE);
SendCommandParameters(buffer, LCD_WIDTH * LCD_HEIGHT * LCD_DEPTH);
}
```
ILI9341 имеет возможность перерисовки отдельных частей экрана. Это может пригодиться нам в дальнейшем, если мы заметим падение частоты кадров. При этом можно будет обновлять только изменившиеся части экрана, но пока мы будем просто заново перерисовывать весь экран.
Для отрисовки кадра требует задания окна отрисовки. Для этого нужно отправить команду **COLUMN\_ADDRESS\_SET** с шириной окна и команду **PAGE\_ADDRESS\_SET** с высотой окна. Каждая из команд принимает четыре байта параметра, описывающих окно, в которое мы будем выполнять отрисовку.
**UPPER\_BYTE\_16** и **LOWER\_BYTE\_16** — это вспомогательные макросы для извлечения старшего и младшего байта из 16-битного значения. Параметры этих команд требуют, чтобы мы разделили 16-битное значение на два 8-битных значения, поэтому так мы и делаем.
Отрисовка инициируется командой **MEMORY\_WRITE** и отправкой дисплею за раз всех 153 600 байт буфера кадров.
Существуют и другие способы передачи буфера кадров дисплею:
* Мы можем создать ещё одну задачу FreeRTOS (task), отвечающую за координирование транзакций SPI.
* Можно передавать кадр не в одной, а в нескольких транзакциях.
* Можно использовать неблокирующую передачу, при которой мы инициируем отправку, а затем продолжаем выполнять другие операции.
* Можно использовать какое-нибудь сочетание из перечисленных способов.
Пока мы воспользуемся простейшим способом: единственной блокирующей транзакцией. При вызове **DrawFrame** инициируется передача на дисплей и наша задача приостанавливается, пока не будет завершена передача. Если позже мы выясним, что не можем добиться хорошей частоты кадров при таком способе, то вернёмся к этой проблеме.
### RGB565 и порядок следования байтов
Обычный дисплей (например, монитор вашего компьютера) имеет битовую глубину 24 бита (1,6 миллиона цветов): по 8 бит на красный, зелёный и синий. Пиксель записывается в память как **RRRRRRRRGGGGGGGGBBBBBBBB**.
ЖК-дисплей Odroid имеет битовую глубину 16 бит (65 тысяч цветов): 5 бит красного, 6 бит зелёного и 5 бит синего. Пиксель записывается в память как **RRRRRGGGGGGBBBBB**. Этот формат называется **RGB565**.
```
#define SWAP_ENDIAN_16(value) ( (((value) & 0xFFu) << 8u) | ((value) >> 8u) )
#define RGB565(red, green, blue) ( SWAP_ENDIAN_16( ((red) << 11u) | ((green) << 5u) | (blue) ) )
```
Зададим макрос, создающий цвет в формате RGB565. Будем передавать ему байт красного, байт зелёного и байт синего. Он возьмёт пять старших бит красного, шесть старших бит зелёного и пять старших бит синего. Мы выбрали старшие биты, потому что они содержат больше информации, чем младшие.
Однако ESP32 хранит данные в порядке [Little Endian](https://en.wikipedia.org/wiki/Endianness), то есть в нижнем адресе памяти хранится наименее значимый байт.
Например, 32-битное значение **[0xDE 0xAD 0xBE 0xEF]** будет храниться в памяти как **[0xEF 0xBE 0xAD 0xDE]**. При передаче данных на дисплей это становится проблемой, потому что наименее значимый байт будет отправляться первым, а ЖК-дисплей ожидает получить первым наиболее значимый байт.
Зададим макрос **SWAP\_ENDIAN\_16** для перемены байт местами и используем его в макросе **RGB565**.
Вот как каждый из трёх основных цветов описывается в RGB565 и как они хранятся в памяти ESP32, если не изменить порядок байтов.
**Красный**
11111|000000|00000?-> 11111000 00000000 -> 00000000 11111000
**Зелёный**
00000|111111|00000?-> 00000111 11100000 -> 11100000 00000111
**Синий**
00000|000000|11111?-> 00000000 00011111 -> 00011111 00000000
### Демо
Мы можем создать простое демо, чтобы посмотреть на ЖК-дисплей в действии. В начале кадра оно сбрасывает буфер кадров на чёрный цвет и отрисовывает квадрат размером 50x50. Мы можем перемещать квадрат крестовиной и изменять его цвет кнопками **A**, **B** и **Start**.
```
void app_main(void)
{
Odroid_InitializeInput();
Odroid_InitializeDisplay();
ESP_LOGI(LOG_TAG, "Odroid initialization complete - entering main loop");
uint16_t* framebuffer = (uint16_t*)heap_caps_malloc(320 * 240 * 2, MALLOC_CAP_DMA);
assert(framebuffer);
int x = 0;
int y = 0;
uint16_t color = 0xffff;
for (;;)
{
memset(framebuffer, 0, 320 * 240 * 2);
Odroid_Input input = Odroid_PollInput();
if (input.left) { x -= 10; }
else if (input.right) { x += 10; }
if (input.up) { y -= 10; }
else if (input.down) { y += 10; }
if (input.a) { color = RGB565(0xff, 0, 0); }
else if (input.b) { color = RGB565(0, 0xff, 0); }
else if (input.start) { color = RGB565(0, 0, 0xff); }
for (int row = y; row < y + 50; ++row)
{
for (int col = x; col < x + 50; ++col)
{
framebuffer[320 * row + col] = color;
}
}
Odroid_DrawFrame(framebuffer);
}
// Should never get here
esp_restart();
}
```
Мы выделяем буфер кадров по полному размеру дисплея: 320 x 240, два байта на пиксель (16-битный цвет). Используем **heap\_caps\_malloc**, чтобы он был выделен в памяти, которую можно использовать для транзакций SPI с **Direct Memory Access (DMA)**. DMA позволяет периферии SPI иметь доступ к буферу кадров без необходимости участия ЦП. Без DMA транзакции SPI занимают гораздо больше времени.
Мы не выполняем проверки, гарантирующие, что отрисовка не происходит за границами экрана.
Your browser does not support HTML5 video.
Заметен сильный тиринг. В десктопных приложениях стандартным способом устранения тиринга является использование нескольких буферов. Например, при двойной буферизации есть два буфера: передний и задний буферы. Пока отображается передний буфер, запись выполняется
в задний. Затем они меняются местами и процесс повторяется.
У ESP32 нет достаточно ОЗУ с возможностями DMA для хранения двух буферов кадров (4 МБ внешней SPI RAM, к сожалению, не имеет возможностей DMA), поэтому этот вариант не подходит.
У ILI9341 есть сигнал (**TE**), сообщающий, когда происходит **VBLANK**, чтобы мы могли выполнять запись на дисплей, пока он не отрисовывается. Но у Odroid (или у модуля дисплея) этот сигнал не подключен, так что мы не можем получить к нему доступ.
Возможно, мы смогли бы найти достойное значение, но пока не будем этим заниматься, потому что сейчас наша задача — просто вывести пиксели на экран.
### Исходный код
Весь исходный код можно найти [здесь](https://code.austinmorlan.com/austin/embedded-game-programming).
[Продолжение: накопитель, аккумулятор, звук](https://habr.com/ru/post/503876/).
### Ссылки
* [Odroid Go Schematic](https://github.com/hardkernel/ODROID-GO/blob/master/Documents/ODROID-GO_REV0.1_20180518.pdf)
* [Go-Play](https://github.com/OtherCrashOverride/go-play/blob/master/odroid-go-common/components/odroid/odroid_display.c)
* [ESP-IDF Documentation: SPI Master](https://docs.espressif.com/projects/esp-idf/en/v4.0/api-reference/peripherals/spi_master.html)
* [LCD Driver Datasheet](https://www.crystalfontz.com/controllers/Ilitek/ILI9341/142) | https://habr.com/ru/post/502528/ | null | ru | null |
# Книга «Секреты Python Pro»
[](https://habr.com/ru/company/piter/blog/540346/) Привет, Хаброжители! Код высокого качества — это не просто код без ошибок. Он должен быть чистым, удобочитаемым и простым в сопровождении. Путь от рядового питониста к профи не прост, для этого вам нужно разбираться в стиле, архитектуре приложений и процессе разработки. Книга «Секреты Python Pro» научит проектировать ПО и писать качественный код, то есть делать его понятным, сопровождаемым и расширяемым.
Дейн Хиллард — профессиональный питонист, — с помощью примеров и упражнений он покажет вам как разбивать код на блоки, повышать качество за счет снижения сложности и т. д. Только освоив основополагающие принципы, вы сможете сделать так, чтобы чтение, сопровождение и переиспользование вашего кода не доставляло проблем ни вам ни вашим коллегам.

Разделение ответственности
--------------------------
**В этой главе:**
* Использование средств Python для организации и разделения кода.
* Выбор способа и времени разделения кода на четко различимые фрагменты.
* Уровни гранулярности в разделении кода.
Краеугольным камнем *чистого кода* является разделение разнообразных форм его поведения на малые управляемые отрезки. Чистый код подразумевает, что вы не держите в голове всю связанную с ним информацию, когда обсуждаете его. Короткие отрезки кода с четко выраженными намерениями являются большим шагом в верном направлении, но эти отрезки не должны разбиваться произвольно. Необходимо разделить их по *зонам ответственности*.
> #### **Определение**
>
>
>
> *Зоной ответственности* (concern) я называю совокупность правил отдельной области знаний, с которой имеет дело ПО. Эти правила могут варьироваться по сложности от вычисления квадратного корня до управления платежами в системе электронной коммерции.
>
>
В этой главе я расскажу об инструментах, встроенных в Python для разделения ответственности в вашем коде, а также о философии, которая помогает принимать решения, как и когда их использовать.
> #### **Примечание**
>
>
>
> Если вы еще не установили Python на своем компьютере, то сделайте это, чтобы отслеживать код из книги (рекомендации по установке — в приложении в конце книги). Я подожду вас здесь. Получить полный исходный код примеров и упражнений можно в репозитории книги на GitHub (https://github.com/daneah/practices-of-the-python-pro).
### 2.1. Организация пространства имён
Как и многие языки программирования, Python разделяет фрагменты кода с помощью пространств имен. При выполнении программы он отслеживает все известные пространства имен и информацию, доступную в них.
Пространства имен полезны в нескольких отношениях:
* По мере роста ПО несколько понятий будут нуждаться в одинаковых или идентичных именах. Пространства имен помогают снизить неопределенность и сохранить ясность, к какому понятию имя относится.
* По мере роста ПО становится экспоненциально труднее узнавать, какой код уже присутствует в кодовой базе. Пространства имен помогают делать обоснованные догадки о том, где может располагаться код, если он уже существует.
* При добавлении нового кода в крупную кодовую базу существующие пространства имен могут указывать на его соответствие старым или новому пространствам имен.
Пространства имен настолько важны, что они включены в «Дзен языка Python» в качестве последнего утверждения (если вы не знакомы с Дзеном, то попробуйте запустить интерпретатор Python и набрать import this).
> *Пространства имен — отличная штука! Будем делать их больше!
>
> Дзен языка Python*
Имена всех переменных, функций и классов, которые вы когда-либо использовали в Python, находились в том или ином пространстве имен. Имена, такие как x, total или EssentialBusinessDomainObject, являются ссылками на что-то. x = 3 означает «назначить значение 3 имени x», то есть можно в дальнешем ссылаться на x. Так называемая «переменная» — это имя, которое ссылается на значение, хотя в Python имена могут ссылаться на функции, классы и др.
#### 2.1.1. Пространства имен и инструкция import
Когда вы впервые открываете интерпретатор Python, встроенное пространство имен заполняется встроенной начинкой, например функциями без префикса, такими как print() и open(), которые можно сразу использовать в любом месте кода. Вот почему в Python знаменитая легкая инструкция print('Здравствуй, мир!') стала мемом Just Works (просто работает).
В отличие от других языков, в Python не нужно явно создавать пространства имен, но ваша структура кода повлияет на то, какие пространства имен создаются и как они будут взаимодействовать. Так, при создании модуля для него автоматически будет создано отдельное пространство имен. В самом простом случае модулем является файл .py, содержащий некоторый код. Файл с именем sales\_tax.py, например, является модулем sales\_tax:
```
# sales_tax.py
def add_sales_tax(total, tax_rate):
return total * tax_rate
```
Каждый модуль имеет глобальное пространство имен, к которому код в модуле может свободно обращаться. Ни во что не вложенные функции, классы и переменные находятся в глобальном пространстве имен модуля:

Функции и классы в модуле также имеют локальное пространство имен, обращаться к которому могут только они:

Модуль, который хочет использовать переменную, функцию или класс из другого модуля, должен импортировать их в свое глобальное пространство имен. Импортирование — это перемещение имени в нужное пространство имен из другой части кода.

Таким образом, для того чтобы ссылаться на переменную, функцию или класс в Python, одно из следующих утверждений должно быть истинным:
* Это имя находится во встроенном в Python пространстве имен.
* Имя находится в глобальном пространстве имен текущего модуля.
* Имя находится в текущей кодовой строке локального пространства имен.
Приоритет для конфликтующих имен работает в обратном порядке: локальное имя будет переопределять глобальное имя, которое будет переопределять встроенное имя. Запомните, что наиболее специфичным для текущего кода является определение, которое используется сейчас (рис. 2.1).

Возможно, вы встречали ошибку NameError: name 'my\_var' is not defined1. Она означает, что имя my\_var не найдено ни в одном из пространств имен, известных коду. То есть, скорее всего, вы ни разу не передавали переменной my\_var значение либо передали его где-то еще и должны его импортировать.
Модули представляют собой отличный способ начать дробить код. Если у вас есть один длинный файл script.py с кучей несвязанных функций в нем, попробуйте разбить эти функции на модули.
#### 2.1.2. Лики импортирования
Синтаксис импортирования в Python на первый взгляд кажется прямолинейным, но есть несколько способов выполнения импорта, и каждый из них приводит к тонким различиям в информации, вносимой в пространство имен. Ранее вы импортировали функцию add\_sales\_tax() из модуля sales\_tax в модуль receipt:
```
# receipt.py
from sales_tax import add_sales_tax
```
Эта инструкция добавляет функцию add\_sales\_tax() в глобальное пространство имен модуля receipt. Хорошо, но предположим, что вы добавляете еще десять функций в модуль sales\_tax и хотите использовать их все в receipt. Если вы продолжите идти по тому же пути, то в итоге получите что-то вроде этого:
```
# receipt.py
from sales_tax import add_sales_tax, add_state_tax, add_city_tax,
➥ add_local_millage_tax, ...
```
Существует альтернативный синтаксис, который немного улучшает ситуацию:
```
# receipt.py
from sales_tax import (
add_sales_tax,
add_state_tax,
add_city_tax,
add_local_millage_tax,
...
)
```
Все равно не очень складно. Если вам нужна масса функциональности из другого модуля, то вы можете импортировать этот модуль полностью:
```
# receipt.py
import sales_tax
```
Эта инструкция добавляет весь модуль sales\_tax в текущее пространство имен, и на его функции можно ссылаться с помощью префикса sales\_tax.:
```
# receipt.py
import sales_tax
def print_receipt():
total = ...
locale = ...
...
print(f'AFTER MILLAGE: {sales_tax.add_local_millage_tax(total,
locale)}')
```
Этот вариант позволяет избежать длинных инструкций import и, как вы увидите в следующем разделе, коллизий пространств имен.
> #### **Предупреждение**
>
>
>
> Python позволяет импортировать все имена из модуля в укороченной форме с помощью инструкции from themodule import \*. Заманчиво использовать эту форму вместо добавления префикса к именам с помощью themodule. на протяжении всего кода, но, пожалуйста, не делайте этого! Импорт с подстановочным знаком может приводить к коллизиям имен и затруднять отладку проблем, поскольку вы не увидите конкретные импортируемые имена. Придерживайтесь явных импортов!
#### 2.1.3. Пространства имен предотвращают коллизии
Чтобы получить текущее время в программе Python, можно импортировать функцию time() из модуля time:
```
from time import time
print(time())
```
Результат будет примерно таким:
```
1546021709.3412101
```
time() возвращает текущее Unix-время. Модуль datetime тоже содержит что-то с именем time, но делает нечто другое:
```
from datetime import time
print(time())
```
На этот раз вы должны увидеть вот такой результат:
```
00:00:00
```
Это определение time на самом деле является классом, и его вызов возвращает экземпляр класса datetime.time, который по умолчанию равен полуночи. Что происходит, когда вы импортируете их оба?
```
from time import time
from datetime import time
print(time()) <----- Это какое определение time?
```
В случаях двусмысленности Python использует самое последнее определение, о котором он знает. Если вы импортируете имя time из одного места, а затем импортируете другое имя time из другого места, то компилятор будет знать только о последнем. Без пространств имен трудно определить, на какое именно time()ссылается код, и по ошибке можно применить неправильное имя. Это веская причина для импортирования модулей целиком и добавления к ним префиксов.

Иногда столкновения имен трудно избежать, даже с теми инструментами, которые вы видели до сих пор. Если вы создадите модуль с тем же именем, что и модуль, встроенный в Python или из сторонней библиотеки, и вам нужно будет использовать их оба в одном модуле, то понадобится больше огневой мощи. К счастью, она совсем рядом, на расстоянии всего одного ключевого слова as, которое нужно назначить как псевдоним имени во время импортирования:
```
import datetime
from mycoollibrary import datetime as cooldatetime
```
Теперь модуль datetime доступен, как и ожидалось, и сторонний datetime доступен как cooldatetime.
Не переопределяйте встроенную в Python функциональность без веской причины и избегайте использования тех же имен, что и во встроенных модулях, если не собираетесь их заменять. Не зная всей стандартной библиотеки (я вот точно не знаю!), вы рискуете сделать это случайно. Тогда можно назначать своему модулю новое имя везде, где вы импортируете его в другие модули. Но еще лучше переименовывать модуль и обновлять любые ссылки на него во всем коде, чтобы импорт оставался согласованным с файловым именем модуля.
> **#### Примечание**
>
> Большинство интегрированных сред разработки (IDE, integrated development environment) выдадут предупреждение, когда вы переопределите имя встроенного в Python модуля, чтобы вы не зашли слишком далеко.
>
>
Теперь вы готовы импортировать все, что нужно, без проблем. Помните, что префиксы имен модулей (подобные time. и datetime.) полезны в долгосрочной перспективе из-за риска коллизий пространств имен. Когда вы столкнетесь с коллизиями, сделайте глубокий вдох и уверенно переработайте свои инструкции импорта или же создайте псевдоним и продолжайте путешествие!
Более подробно с книгой можно ознакомиться на [сайте издательства](https://www.piter.com/collection/kompyutery-i-internet/product/sekrety-python-pro)
» [Оглавление](https://www.piter.com/collection/kompyutery-i-internet/product/sekrety-python-pro#Oglavlenie-1)
» [Отрывок](https://www.piter.com/collection/kompyutery-i-internet/product/sekrety-python-pro#Otryvok-1)
Для Хаброжителей скидка 25% по купону — **Python**
По факту оплаты бумажной версии книги на e-mail высылается электронная книга. | https://habr.com/ru/post/540346/ | null | ru | null |
# Учебное пособие по кэшированию, часть 1
Довольно подробное и интересное изложение материала, касающегося кэша и его использования. [Часть 2](http://habrahabr.ru/post/204464/).
Автор, [Mark Nottingham](http://www.mnot.net/personal/), — признанный эксперт в области HTTP-протокола и веб-кэширования. Является председателем [IETF HTTPbis Working Group](http://trac.tools.ietf.org/wg/httpbis/trac/wiki). Принимал участие в редактировании HTTP/1.1, part. 6: Caching. В настоящий момент участвует в разработке HTTP/2.0.
Текст распространяется под лицензией [Creative Commons Attribution-Noncommercial-No Derivative Works 3.0 Unported License](http://creativecommons.org/licenses/by-nc-nd/3.0/).
От переводчика: об опечатках и неточностях просьба сообщать в личку. Спасибо.
---
Веб-кэш располагается между одним или несколькими веб-серверами и клиентом, или множеством клиентов, и следит за входящими запросами, сохраняя при этом копии ответов — HTML-страниц, изображений и файлов (совокупно известных, как *представления* (representations); прим. переводчика — позвольте я буду употреблять слово “контент” — оно, на мой взгляд, не так режет слух), для собственных нужд. Затем, если поступает другой запрос с аналогичным url-адресом, кэш может использовать сохраненный прежде ответ, вместо повторного запроса к серверу.
Существует две основные причины, по которым используется веб-кэш:
1. **Уменьшение времени ожидания** — так как данные по запросу берутся из кэша (который располагается “ближе” к клиенту), требуется меньше времени для получения и отображения контента на стороне клиента. Это делает Веб более отзывчивым (прим. переводчика — “отзывчивым” в контексте быстроты реакции на запрос, а не эмоционально).
2. **Снижение сетевого трафика** — повторное использование контента снижает объем данных, передаваемых клиенту. Это, в свою очередь, экономит деньги, если клиент платит за трафик, и сохраняет низкими и более гибкими требования к пропускной способности канала.
#### Виды веб-кэшей
##### Кэш браузера (Browser cache)
Если вы изучите окно настроек любого современного веб-браузера (например, Internet Explorer, Safari или Mozilla), вы, вероятно, заметите параметр настройки «Кэш». Эта опция позволяет выделить область жесткого диска на вашем компьютере для хранения просмотренного ранее контента. Кэш браузера работает согласно довольно простым правилам. Он просто проверяет являются ли данные “свежими”, обычно один раз за сессию (то есть, один раз в текущем сеансе браузера).
Этот кэш особенно полезен, когда пользователь нажимает кнопку “Назад” или кликает на ссылку, чтобы увидеть страницу, которую только что просматривал. Также, если вы используете одни и те же изображения навигации на вашем сайте, они будут выбираться из браузерного кэша почти мгновенно.
##### Прокси-кэш (Proxy cache)
Прокси-кэш работает по аналогичному принципу, но в гораздо большем масштабе. Прокси обслуживают сотни или тысячи пользователей; большие корпорации и интернет-провайдеры часто настраивают их на своих файрволах или используют как отдельные устройства (intermediaries).
Поскольку прокси не являются частью клиента или исходного сервера, но при этом обращены в сеть, запросы должны быть к ним как-то переадресованы. Одним из способов является использование настроек браузера для того, чтобы вручную указать ему к какому прокси обращаться; другой способ — использование перехвата (interception proxy). В этом случае прокси обрабатывают веб-запросы, перенаправленные к ним сетью, так, что клиенту нет нужды настраивать их или даже знать об их существовании.
Прокси-кэши являются своего рода общей кэш-памятью (shared cache): вместо обслуживания одного человека, они работают с большим числом пользователей и поэтому очень хороши в сокращении времени ожидания и сетевого трафика. В основном, из-за того, что популярный контент запрашивается много раз.
##### Кэш-шлюз (Gateway Cache)
Также известные как “реверсивные прокси-кэши” (reverse proxy cache) или “суррогаты” (surrogate cache) шлюзы тоже являются посредниками, но вместо того, чтобы использоваться системными администраторами для сохранения пропускной способности канала, они (шлюзы) обычно используются веб-мастерами для того, чтобы сделать их сайты более масштабируемыми, надежными и эффективными.
Запросы могут быть перенаправлены на шлюзы рядом методов, но обычно используется балансировщик нагрузки в той или иной форме.
Сети доставки контента (content delivery networks, CDN) распространяют шлюзы по всему интернету (или некоторой его части) и отдают кэшированный контент заинтересованным веб-сайтам. Speedera и Akamai являются примерами CDN.
Это учебное пособие преимущественно сфокусировано на браузерных кэшах и прокси, но некоторая информация подходит также и тем, кому интересны шлюзы.
#### Почему я должен им пользоваться
Кэширование является одной из наиболее неправильно понятых технологий в интернете. Веб-мастера, в частности, боятся потерять контроль над их сайтом, потому что прокси могут “скрыть” их пользователей, сделав сложным наблюдение посещаемости.
К несчастью для них (веб-мастеров), даже если бы веб-кэша не существовало, есть слишком много переменных в интернете, чтобы гарантировать, что владельцы сайтов будут в состоянии получить точную картину того, как пользователи обращаются с сайтом. Если это является для вас большой проблемой, данное руководство научит вас как получить необходимую статистику, не делая ваш сайт “кэшененавистником”.
Другой проблемой является то, что кэш может хранить содержимое, которое устарело или просрочено.
С другой стороны, если вы ответственно подходите к проектированию вашего веб-сайта, кэш может помочь с более быстрой загрузкой и сохранением нагрузки на сервер и интернет-соединение в рамках допустимого. Разница может быть впечатляющей: загрузка сайта, не работающего с кэшем, может потребовать нескольких секунд; в то время как преимущества использования кэширования могут сделать её кажущейся мгновенной. Пользователи по достоинству оценят малое время загрузки сайта и, возможно, будут посещать его чаще.
Подумайте об этом в таком ключе: многие крупные интернет-компании тратят миллионы долларов на настройку ферм серверов по всему миру для репликации контента для того, чтобы ускорить, как только можно, доступ к данным для своих пользователей. Кэш делает то же самое для вас и он гораздо ближе к конечному пользователю.
CDN, с этой точки зрения, являются интересной разработкой, потому что, в отличие от многих прокси-кэшей, их шлюзы приведены в соответствие с интересами кэшируемого веб-сайта. Тем не менее, даже тогда, когда вы используете CDN, вы все равно должны учитывать, что там будет прокси и последующее кэширование в браузере.
Резюмируя, прокси и кэш браузера будут использоваться, нравится вам это или нет. Помните, если вы не настроите ваш сайт для корректного кэширования, он будет использовать настройки кэша по-умолчанию.
#### Как работает веб-кэш
Все виды кэшей обладают определенным набором правил, которые они используют, чтобы определить, когда брать контент из кэша, если он доступен. Некоторые из эти правил установлены протоколами (HTTP 1.0/HTTP 1.1), некоторые — администраторами кэша (пользователями браузера или администраторами прокси).
Вообще говоря, это самые общие правила (не волнуйтесь, если вы не понимаете детали, они будут объяснены ниже):
1. Если заголовки ответа сообщают кэшу не сохранять их, он не сохранит.
2. Если запрос авторизованный (authorized) или безопасный (то есть, HTTPS), он не будет закэширован.
3. Кэшированный контент считается “свежим” (то есть, может быть отправлен клиенту без проверки с исходного сервера), если:
* У него установлено время истечения или другой заголовок, контролирующий время жизни, и он еще не истек.
* Если кэш недавно проверял контент и тот был модифицирован достаточно давно.
Свежий контент берется непосредственно из кэша, без проверки с сервера.
4. Если контент является устаревшим, исходному серверу будет предложено провалидировать его или сообщить кэшу, является ли имеющаяся копия по-прежнему актуальной.
5. При определенных обстоятельствах — например, когда он отключен от сети — кэш может сохранять устаревшие ответы без проверки с исходного сервера.
Если в ответе не присутствует валидатора (`ETag` или `Last-Modified` заголовок), и он не содержит никакой явной информации о свежести, контент, обычно (но не всегда) будет считаться некэшируемым.
*Свежесть* (freshness) и *валидация* (validation) являются наиболее важными способами, с помощью которых кэш работает с контентом. Свежий контент будет доступен мгновенно из кэша; валидное же содержимое избежит повторной отправки всех пакетов, если оно не было изменено. | https://habr.com/ru/post/203548/ | null | ru | null |
# Настраиваем GitHub Actions для Android с последующим деплоем в PlayMarket
Привет, Хаброжители! На днях начал изучать GitHub Actions для Android. Ранее у меня была удачная попытка настройки данного функционала для проекта на Flutter, но без деплоя, для которого полно информации и гайдов как на англоязычных ресурсах, так и на русскоязычных, а вот с нативным андроидом не всё так прозаично. И решил записать основные проблемы и их решение.
### Этап первый: настройка для автоматической подписи готового apk
Первая проблема с которой я столкнулся, это сделать универсальную настройку, позволяющую собирать релизные варианты как локально, так и глобально.
Я использую вариант с использование файла `keystore.properties`, который позволяет нам добавить ключ разработчика в папку проекта, не светя при этом паролями от него, делается это так:
```
apply plugin: ...
def keystorePropertiesFile = rootProject.file("keystore.properties")
def keystoreProperties = new Properties()
keystoreProperties.load(new FileInputStream(keystorePropertiesFile))
android {
...
signingConfigs {
release {
storeFile file("../MyKey.jks")
storePassword keystoreProperties['RELEASE_STORE_PASSWORD']
keyAlias keystoreProperties['RELEASE_KEY_ALIAS']
keyPassword keystoreProperties['RELEASE_KEY_PASSWORD']
}
debug {
storeFile file('../debug.keystore')
}
}
buildTypes {
release {
proguardFiles getDefaultProguardFile('proguard-android-optimize.txt'), 'proguard-rules.pro'
minifyEnabled false
signingConfig signingConfigs.release
buildConfigField "String", "PIN_ALIAS", keystoreProperties['PIN_ALIAS']
buildConfigField "String", "DB_PASS_ALIAS", keystoreProperties['DB_PASS_ALIAS']
}
debug {
minifyEnabled false
signingConfig signingConfigs.debug
buildConfigField "String", "PIN_ALIAS", keystoreProperties['PIN_ALIAS']
buildConfigField "String", "DB_PASS_ALIAS", keystoreProperties['DB_PASS_ALIAS']
}
}
}
dependencies {
...
}
```
И тут возникла проблема, как сделать так, что бы мы могли взять ключи из `${{ secrets.MY_KEY }}` и при этом градл понимал, если у нас есть keystore.properties, то берём из него, если нет то берём из секретов? Решение нашлось на одном из [гайдов для флаттера](https://medium.com/@danieln.llewellyn/flutter-github-actions-for-a-signed-apk-fcdf9878f660), где для этого они использую окружения (Кстати, здесь классный подход, чтобы не светить нашим ключём разработчика), но проблему это не решило. Перепробовав несколько вариантов с введением дополнительных файлов и т.п., остановился на самом простом: мы вводим дополнительно несколько переменных(в зависимости от нужного нам количества), и проверяем наличие файла keystore.properties:
```
def release_store_password
def release_key_password
def release_key_alias
def pin_alias
def db_pass_alias
def keystoreProperties = new Properties()
if (rootProject.file("keystore.properties").exists()) {
keystoreProperties.load(new FileInputStream(rootProject.file("keystore.properties")))
release_store_password = keystoreProperties['RELEASE_STORE_PASSWORD']
release_key_password = keystoreProperties['RELEASE_KEY_PASSWORD']
release_key_alias = keystoreProperties['RELEASE_KEY_ALIAS']
pin_alias = keystoreProperties['PIN_ALIAS']
db_pass_alias = keystoreProperties['DB_PASS_ALIAS']
} else {
release_store_password = System.env.RELEASE_STORE_PASSWORD
release_key_password = System.env.RELEASE_KEY_PASSWORD
release_key_alias = System.env.RELEASE_KEY_ALIAS
pin_alias = System.env.PIN_ALIAS
db_pass_alias = System.env.DB_PASS_ALIAS
}
android {
signingConfigs {
release {
storeFile file("../my_key.jks")
storePassword = release_store_password
keyAlias = release_key_alias
keyPassword = release_key_password
}
buildType{
release {
buildConfigField "String", "PIN_ALIAS", "\"$pin_alias\"" //если вам нужно ввести некоторые
buildConfigField "String", "DB_PASS_ALIAS", "\"$db_pass_alias\"" // дополнительные данны.
}
}
}
```
Итак, теперь наш сборщик умеет собирать и сразу подписывать наш apk.
### Этап второй: версия сборки.
Тут нет ничего сверх естественного, хотелось получить какой-то, достаточно универсальный вариант, минимальной сложности. Погуглив, присмотрелся, сколько разработчиков — столько и вариантов и каждый извращается как может. Мне какие-то сверх сложные подходы не нужны и я уже хотел было использовать `BUILD_NUMBER`, но тут я наткнулся на параметр у для GitHub actions: [${{ github.run\_number }}](https://help.github.com/en/actions/reference/context-and-expression-syntax-for-github-actions#github-context).
**${{ github.run\_number }}**
Уникальный номер для каждого запуска определенного рабочего процесса в хранилище. Это число начинается с 1 для первого запуска рабочего процесса и увеличивается с каждым новым запуском. Это число не изменится, если вы повторно запустите рабочий процесс. (Запуском здесь подразумевается — когда вы пушите в ветку).
По этому взвесив все за и против имеем следующее решение:
```
def versionPropsFile = rootProject.file('version.properties')
Properties versionProps = new Properties()
versionProps.load(new FileInputStream(versionPropsFile))
def verCode = versionProps['VERSION_CODE'].toInteger()
android {
defaultConfig {
versionCode verCode
versionName "1.1.$verCode"
}
}
//version.properties файл
VERSION_CODE=1
```
В рабочем процессе делаем так:
```
- name: Output version code
run: echo VERSION_CODE=${{ github.run_number }} > ./version.properties
```
### Этап третий: развертывание (deploy)
На данный момент я нашел два готовых решения: [Gradle Play Publisher](https://github.com/Triple-T/gradle-play-publisher/blob/master/README.md#handling-version-conflicts) и [Upload Android release to the Play Store](https://github.com/marketplace/actions/upload-android-release-to-play-store)
Первый вариант отпал по причине: использование гаубицы при стрельбе по воробьям. По этому я выбрал второй. Ничего вроде сложного в нём нет, а тут есть подробная инструкция: [Тут](https://medium.com/@iqan/continuously-releasing-flutter-app-to-play-store-using-github-actions-eca2f5f6e996).
```
- name: Upload to PlayMarket
uses: r0adkll/upload-google-play@v1
with:
serviceAccountJsonPlainText: ${{ secrets.SERVICE_ACCOUNT_JSON }}
packageName: com.guralnya.notification_tracker
releaseFile: app/build/outputs/apk/release/notification_tracker.release.apk
track: beta
userFraction: 0.33
whatsNewDirectory: distribution/whatsnew
```
Но некоторые моменты у меня всё же возникли:
* serviceAccountJson и serviceAccountJsonPlainText — с первым я так и не разобрался в каком виде его нужно положить в секреты, второй же просто берём содержимое файла и кладём в наш секрет.
* releaseFile — использовал самый простой подход, когда мы берём готовый файл из папки с проектом, но вариант со звёздочкой не прокатил: `notification_tracker.release.*.apk`, где у меня стоит время сборки. Хотя в другом экшене, который у меня используется для загрузки файла (actions/upload-artifact@v2), такой подход работал отлично.
* whatsNewDirectory — внимательнее к языковым кодам. Если английский я взял из гугл-консоли при добавлении новой версии (en-IN), а Русский как (ru-RU), то логично предположить что все языки работают по том же принципу, но нет — Украинский я не доглядел, а он там помечен как (uk), потому если не хотите лишний раз комититься и видеть красный крестик, лучше свериться с той же консолью.
Есть ситуация, когда у вас может по какой-то причине не деплоиться, это когда вы ещё не опубликовали приложение (встречать не приходилось, но в одной статье было описано). Так что начинайте с того, что сначала опубликуйте приложение в ручную если вы ещё этого не сделали.
Итоговый рабочий процесс — будет оптимизироваться и улучшаться вместе с файлом градла
-------------------------------------------------------------------------------------
Android CI.yaml:
```
name: Android_CI
on:
push:
branches:
- beta_release
jobs:
build:
runs-on: ubuntu-latest
name: Build release-apk and deploy to PlayMarket
steps:
- uses: actions/checkout@v2
- name: set up JDK 1.8
uses: actions/setup-java@v1
with:
java-version: 1.8
# Without NDK not compile and not normal error message. NDK is required
- name: Install NDK
run: echo "y" | sudo ${ANDROID_HOME}/tools/bin/sdkmanager --install "ndk;20.0.5594570" --sdk_root=${ANDROID_SDK_ROOT}
# Some times is have problems with permissions for ./gradle file. Then uncommit it code
# - name: Make gradlew executable
# run: chmod +x ./gradlew
- name: Output version code
run: echo VERSION_CODE=${{ github.run_number }} > ./version.properties
- name: Build with Gradle
run: ./gradlew assemble
env:
RELEASE_STORE_PASSWORD: ${{ secrets.RELEASE_STORE_PASSWORD }}
RELEASE_KEY_PASSWORD: ${{ secrets.RELEASE_KEY_PASSWORD }}
RELEASE_KEY_ALIAS: ${{ secrets.RELEASE_KEY_ALIAS }}
PIN_ALIAS: ${{ secrets.PIN_ALIAS }}
DB_PASS_ALIAS: ${{ secrets.DB_PASS_ALIAS }}
- name: Upload APK
uses: actions/upload-artifact@v2
with:
name: notification_tracker
path: app/build/outputs/apk/release/notification_tracker.release.apk
- name: Upload to PlayMarket
uses: r0adkll/upload-google-play@v1
with:
serviceAccountJsonPlainText: ${{ secrets.SERVICE_ACCOUNT_JSON }}
packageName: com.guralnya.notification_tracker
releaseFile: app/build/outputs/apk/release/notification_tracker.release.apk
track: beta
userFraction: 0.33
whatsNewDirectory: distribution/whatsnew
```
### Важный момент
— необходимость NDK. Без установленного NDK у вас не соберётся проект, по крайней мере релизный. Можно долго гадать в чём проблема и искать решение, так как нормального сообщения ошибки нет. Иногда можно отловить вот это: `Task :app:stripDebugDebugSymbols FAILED`. После гуглинга и экспериментов, оказалось что нет NDK. Делаем так:
```
- name: Install NDK
run: echo "y" | sudo ${ANDROID_HOME}/tools/bin/sdkmanager --install "ndk;20.0.5594570" --sdk_root=${ANDROID_SDK_ROOT}
```
Или лучше добавить в Gradle (спасибо пользователю [anegin](https://habr.com/ru/users/anegin/)):
```
defaultConfig {
ndkVersion '21.2.6472646'
}
```
P.S. Для Gradle использовал подсветку кода от Kotlin. Для YAML — от JSON. Конечно немного не то, но лучше мне найти не удалось, если есть лучшие варианты, сообщите мне пожалуйста и я исправлю.
P.S.S. Может быть у кого есть лучшее решение или предложения по улучшения, напишите их в комментариях, так как по первому этапу вопрос провисел на [StackOverflow](https://ru.stackoverflow.com/q/1135894/238266) больше 10-ти дней, но ответа так и не последовало. | https://habr.com/ru/post/506700/ | null | ru | null |
# Упорядоченные списки, счётчики и экспрешн для IE
Представьте ситуацию: в макете страницы, которую вам надо сверстать, есть упорядоченный список. Всё бы ничего, да в дизайне стиль текста в списке отличается от стиля цифр, выступающих в роли маркера каждого пункта.
И ладно, если отличие небольшое — в размере шрифта, цвете или другом свойстве шрифта. В таком случае самый простой способ реализовать подобное — задать стиль для элемента списка (это будет стиль для маркера), после чего обрамить всё содержимое пункта в блок, в котором переопределить соответствующие стили.
Но что, если отличия не только в шрифте? В таком случае, чаще всего, верстальщики забивают на семантику и добавляют в каждый пункт списка элемент с соответствующей цифрой, и уже ему задают необходимые стили. У такого решения есть масса недостатков — это и плевок на семантику, и необходимость реализации со стороны сервера.
Самым логичным и правильным решением в таком случае является использование псевдоэлемента `:before` и реализации счётчика через [соответствующие правила](http://www.w3.org/TR/CSS21/generate.html) спецификации.
Однако, как можно догадаться, в одном прекрасном браузере всё это не работает. Исправить ситуацию нам поможет одноразовый экспрешн, которые создадут эмуляцию псевдоэлемента `:before` со счётчиком.
Итак, всем браузерам отдаём:
> `.list {
>
> counter-reset:list_item;
>
> }
>
> .list-item {
>
> display:block;
>
> }
>
> .list-item:before,
>
> .list-item-before {
>
> content:counter(list_item);
>
> counter-increment:list_item;
>
> }`
И только для IE:
> `.list-item {
>
> list-style-type:expression(
>
> function(t){
>
> t.runtimeStyle.listStyleType = 'none';
>
> t.insertAdjacentHTML('afterBegin','' + (++t.parentNode.IEcounter || (t.parentNode.IEcounter = 1)) + '');
>
> }(this)
>
> );
>
> }`
Несколько моментов, на которые надо обратить внимание:
1. Вместе с селектором `.list-item:before` мы прописываем селектор `.list-item-before`, по имени класса сгенерированного экспрешном элемента.
2. За счёт того, что у простых браузеров стандартные маркеры списка убираются правилом `.list-item { display:block; }`, а в IE этот момент не работает — одноразовость экспрешна была реализована через свойство `list-style-type`, за счёт чего в простых случаях (когда не надо флоатить элементы или использовать какие-то другие свойства, таки обнуляющие в IE маркеры) при отключённом в IE яваскрипте экспрешн не сработает и будут показываться стандартные маркеры.
3. Нельзя забывать класть экспрешны в условные комментарии, это вредно для кармы и браузеров, основанных на движке Webkit :)
4. [А вот и простой пример](http://test.kizu.ru/examples/counter.html). | https://habr.com/ru/post/69055/ | null | ru | null |
# NILFS2 — пуленепробиваемая файловая система для /home

Как известно, если неприятность может произойти, то она обязательно произойдёт. Наверное, у каждого были случаи, когда случайно был стёрт свежий важный файл, или случайно был выделен и уничтожен текст в текстовом редакторе.
Если вы — хостер или владелец сайта, то, наверное, сталкивались со взломами пользовательских аккаунтов или своего сайта. В таких случаях важно восстановить хронологию, найти способ проникновения и уязвимость, которую использовал злоумышленник.
Для решения подобных проблем прекрасно подойдёт файловая система NILFS2.
Она присутствует в ядре Linux, начиная с версии 2.6.30.
Особенностью данной файловой системы является то, что она подобна системе контроля версий: вы всегда можете откатить состояние системы назад и посмотреть на то, какой она была некоторое время назад.
Для обеспечения этого функционала вам не нужно настраивать Cron-скрипты, делать снепшоты и т.п. Файловая система NILFS2 делает это всё сама. Она никогда не переписывает старые данные и всегда пишет в новые области диска, если достаточно свободного дискового пространства. В полном соответствии с принципом Copy-on-Write.
Фактически, любое изменение файла влечёт за собой автоматическое создание нового снимка файловой системы, поэтому вы можете использовать эту ФС как машину времени и отматывать назад состояние файлов.
История
-------
NILFS2 была разработана в недрах [Nippon Telegraph and Telephone Corporation](https://ru.wikipedia.org/wiki/Nippon_Telegraph_and_Telephone), фактически, государственной (оно имеет контрольный пакет) и крупнейшей телекоммуникационной компании Японии. А конкретнее в лаборатории CyberSpace Laboratories под руководством [Ryusuke Konishi](https://github.com/konis).
Для чего конкрентно она разрабатывалась — неизвестно, однако, можно предположить, что подобная ФС, с её функционалом “машины времени” идеальна для хранения данных, в которых может возникнуть желание поковыряться спецслужбам, чтобы повторно проиграть всю картину СМС, емейлов и т.п…
NILFS2 также, потенциально, очень ценный инструмент для служб внутренней безопасности, так как позволяет восстановить все удалённые письма в почтовой базе данных, вскрыть косяки сотрудников, которые впоследствии могут попытаться их замаскировать, удалив или изменив свои файлы.
**Как можно отследить всю историю переписки**В Linux на серверах (а именно туда и стоит ставить NILFS2 для целей внутренней безопасности) для хранения почтовых сообщений очень часто используется файловый способ хранения е-мейлов. Так называемый формат [Maildir](https://ru.wikipedia.org/wiki/Maildir). Достаточно поставить [Courier Mail Server](http://www.courier-mta.org/) и сконфигурировать хранение писем в Maildir. Другой формат [mbox](https://ru.wikipedia.org/wiki/Mbox) представляет из себя большой текстовый файл, который легко парсится на отдельные сообщения.
Если же почтовый сервер использует базу данных, то NILFS2 даст возможность восстановить точный хронометраж изменений базы и возможность восстановить базу на любой из этих моментов. А дальше нужно воспользоваться инструментами БД, чтобы посмотреть что в ней было на тот момент времени…
Однако что-то пошло не так. То ли правительство Японии передумало за всеми следить (а-ля принцип Яровой), то ли производительность NILFS2 на традиционных HDD оказалась ниже плинтуса, и NILFS2 была выпущена под GPL лицензией и очень быстро вошла в ядро Linux, так как особых претензий к коду, написанному высококвалифицированными японцами, у разработчиков ядра Linux не было.
На что похожа NILFS2?
---------------------
С точки зрения использования: на систему контроля версий [SVN](https://ru.wikipedia.org/wiki/Subversion). Каждый чекпоинт ФС — это коммит, который делается автоматически без ведома пользователя при любом изменении: будь то удаление, изменение содержимого файла или прав доступа. Каждый коммит имеет номер, который линейно увеличивается.
С точки зрения программиста: на циклический буфер. Файловая система копит изменения и записывает их в кусок равный примерно 8 МБ (2048 \* 4096, где 2048 — число элементов в блоке, а 4096 — размер страницы памяти). Весь диск поделен на такие чанки. Запись идёт последовательно. Когда заканчивается свободное место, то самые старые снимки удаляются, а чанки перезаписываются.
Основные плюшки NILFS2
----------------------
* Версионность!!!
* Процедура восстановления ФС после сбоя элементарна: при загрузке ищется последний чанк, имеющий верную контрольную сумму, и на него устанавливается суперблок. Это практически моментальная операция.
* В связи с тем, что запись всегда идёт линейно, то:
+ может показывать хорошие результаты при работе на SSD, с медленной случайной записью.
+ NILFS2 экономит ресурс SSD, так как почти отсутствует фактор мультипликации записи.
**Точнее говоря, он не более 2.**Дело в том, что при циклической перезаписи всего диска NILFS2 будет переносит неизменяемые данные в новые куски (чанки).
Если мы имеем на диске 10% неизменяющихся данных, то мы получим 10% прирост записи при 1 полной перезаписи. Ну и 50% прирост при 50% заполненности устройства на 1 полную перезапись диска.
Максимальный коэффициент усиления записи 2. Это очень мало с учётом того, что всё пишется последовательно. В целом мультипликация записи будет меньше, чем у обычной фрагментированной ФС с сектором 4096 байт. (На мысли наведено [комментом](https://habr.com/ru/company/ruvds/blog/477388/#comment_20936410)).
* Потенциальная простота реализации репликации на удалённую NILFS2 ФС
NILFS2 для /home
----------------
В Unix-подобных ОС, как правило, присутствует папка /home, в которой хранятся данные пользователей. Различные программы сохраняют в этой папке свои настройки, относящиеся к конкретному пользователю.
А кто, как не пользователи, чаще всего косячит? Поэтому, как говорится, сам Бог велел использовать на /home NILFS2.
Тем более, что с повсеместным распостранением SSD мы теперь можем не волноваться насчёт сильной просадки при использовании CoW файловых систем.
Да, снимки ФС (снепшоты) мы можем сколько угодно часто создавать и в ZFS и BTRFS, но всегда есть риск, что потерянное изменение файла окажется между снимками. И снимки ещё нужно администрировать: удалять старые. В NILFS2 всё это происходит автоматически, буквально каждые несколько секунд.
Я создал логический том с помощью lvcreate (в группе томов nvme, тонкий пул thin). Я рекомендую создавать именно на томе lvm, так как в последствии он может быть легко расширен. Рекомендую иметь 50% свободного места на диске с NILFS2 для приличной глубины версионности.
```
lvcreate -V10G -T nvme/thin -n home
```
и отформатировал его в NILFS2:
```
mkfs.nilfs2 -L nvme_home /dev/nvme/home
mkfs.nilfs2 (nilfs-utils 2.1.5)
Start writing file system initial data to the device
Blocksize:4096 Device:/dev/nvme/home1 Device Size:10737418240
File system initialization succeeded !!
```
После этого нужно скопировать все данные с текущего /home.
Я это сделал сразу после загрузки компьютера, до входа в свой аккаунт, из-под пользователя root. Если бы я зашёл под своим пользователем, то какие-нибудь программы открыли бы сокеты и файлы в папке моего пользователя /home/user, что сделало бы чистое копирование затруднительным. Как известно, домашняя папка для пользователя root обычно находится по пути /root, поэтому на разделе /home никакие файлы не откроются.
```
mkdir /mnt/newhome
mount -t nilfs2 /dev/nvme/home /mnt/newhome
cp -a /home/. /mnt/newhome
```
*По поводу последней строки см. [статью](https://habr.com/ru/company/ruvds/blog/471092/).*
Далее правим /etc/fstab, в которой монтируется файловая система для /home, на
`/dev/disk/by-label/nvme_home /home nilfs2 noatime 0 0`
Опция `noatime` нужна для повышения производительности, чтобы при каждом обращении к файлам не менялось atime. Далее перезагружаемся.
Виды снимков в NILFS2.
----------------------
Обычный снимок без иммунитета к удалению называется чекпоинт (checkpoint или точка восстановления).
Снимок с защитой от автоудаления называется снепшот (snapshot), далее просто снимок.
Просмотр чекпойтов делается с помощью команды lscp
Просмотр снимков (снепшотов) lscp -s
Мы можем и сами создавать снимки и чекпоиты в любой момент с помощью:
```
mkcp [-s] устройство
```
Восстанавливаем данные.
-----------------------
NILFS позволяет нам монтировать сколько угодно старых снимков параллельно с работой с основной ветвью ФС. Но только в режиме для чтения.
Устроено всё так. Обычные чекпоинты, которые делает NILFS2, могут быть ей автоматически удалены в любой момент (когда кончится дисковое пространство или по правилам nilfs\_cleanerd), поэтому перед монтажом мы должны перевести чекпоинт в снепшот или, по-русски говоря, зафиксировать снимок.
```
chcp ss номер_чекпоинта
```
После этого мы может примонтировать снимок, например, так:
```
mount -t nilfs2 -r -o cp=номер_чекпоинта /dev/nvme/home /mnt/nilfs/номер_чекпоинта
```
После чего мы копируем восстанавливаемые файлы из снимка в /home.
А впоследствии снимаем флаг неудалимости со снимка, чтобы в будущем автоматический сборщик мусора мог удалить устаревшие данные:
```
chcp cp номер_чекпоинта
```
Утилиты для NILFS2
------------------
А вот с этим беда. Да, конечно, мы можем создавать ФС, менять её размер он-лайн, просматривать список чейпоинтов, делать и удалять их. Пакет nilfs2-utils предоставляет минимальный джентельменский набор.
Поскольку NTT свернула финансирование, то нет быстрых низкоуровневых утилит, которые позволяют выводить историю изменений файлов, делать diff между снимками.
Моя утилита n2u
---------------
Чтобы заполнить этот вакуум я написал [свою утилиту n2u](https://github.com/sukamenev/nilfs2_tools), которая умеет выводить историю изменений конкретного файла/директории:
```
n2u log filename
```
Вывод примерно такой:
```
CHECKPOINT DATE TIME TYPE SIZE MODE
1787552 2019-11-24 22:08:00 first 7079 cp
1792659 2019-11-25 23:09:05 changed 7081 cp
```
Она работает довольно быстро для избранного способа реализации: ищет различия между файлами методом бисекции, быстро монтируя и сравнивая файл/директорию в разных снимках.
Можно задать диапазон чекпоинтов с помощью ключа `-cp CP1:CP2` или `-cp {YEAR-MM-DD}:{YEAR-MM-DD}`.
Также можно посмотреть разницу между чекпоинтами для определённого файла или директории:
```
n2u diff -r cp1:cp2 filename
```
Можно вывести всю хронологию изменений: все разницы между чекпоинтами определенного файла/директории:
```
n2u blame [-r cp1:cp2] filename
```
Интервал дат в в этой команде также поддерживается.
Клич к разработчикам
--------------------
На Хабре много спецов. Прошу, допилите NILFS2. Сделайте репликацию, низкоуровневый быстрый diff между ревизиями, reflink и другие плюшки!
Ссылки
------
[Официальный сайт NILFS](https://nilfs.sourceforge.io/en/index.html).
Репозитории:
[NILFS2](https://github.com/konis/nilfs2).
[NILFS2 утилиты и модули](http://github.com/nilfs-dev/).
Рассылки:
[Е-мейл рассылка разработчиков NILFS2](http://vger.kernel.org/). Идентификатор для подписки linux-nilfs.
[Архив рассылки](https://marc.info/?l=linux-nilfs).
[Руководство по настройке nilfs\_cleanerd](https://forum.manjaro.org/t/tuning-the-nilfs2-file-system/42943).
[Сравнительные тесты производительности EXT4, Btrfs, XFS & NILFS2](https://www.phoronix.com/scan.php?page=article&item=linux-48-hdd).
---
Благодарности:
* Разработчикам NILFS2: Ryusuke Konishi, Koji Sato, Naruhiko Kamimura, Seiji Kihara, Yoshiji Amagai, Hisashi Hifumi and Satoshi Moriai. Other major contributors are: Andreas Rohner, Dan McGee, David Arendt, David Smid, dexen deVries, Dmitry Smirnov, Eric Sandeen, Jiro SEKIBA, Matteo Frigo, Hitoshi Mitake, Takashi Iwai, Vyacheslav Dubeyko.
* Компаниям Amblin Entertainment и Universal Pictures за чудесную серию фильмов [«Назад в будущее»](https://ru.wikipedia.org/wiki/%D0%9D%D0%B0%D0%B7%D0%B0%D0%B4_%D0%B2_%D0%B1%D1%83%D0%B4%D1%83%D1%89%D0%B5%D0%B5_(%D1%81%D0%B5%D1%80%D0%B8%D1%8F_%D1%84%D0%B8%D0%BB%D1%8C%D0%BC%D0%BE%D0%B2)). Первая картинка поста взята из фильма «Назад в будущее — 3».
* Компании [RUVDS](https://ruvds.com/) за поддержку и возможность публикации в своем блоге на Хабре.
**P.S.** Замеченные ошибки направляйте в личку. Повышаю за это карму.
---
Вы можете поэкспериментировать с NILFS2, заказав виртуальную машину у [RUVDS](https://ruvds.com/) по купону ниже. Для всех новых клиентов бесплатный тестовый период 3 дня.
[](https://ruvds.com/ru-rub/#order) | https://habr.com/ru/post/477388/ | null | ru | null |
# Как заставить Ansible работать быстрее – 8 советов по плейбукам
[Ansible](https://www.ansible.com/?intcmp=701f20000012ngPAAQ) – это мощный и простой инструмент автоматизации с открытым кодом. Он помогает оптимизировать множество задач по эксплуатации ИТ-инфраструктуры, от самых простых, наподобие установки программных пакетов, до весьма сложных, вроде развертывания кластера с несколькими узлами или многоэтапного обновления операционной системы. Сегодня мы расскажем, как оптимизировать плейбуки Ansible, чтобы создаваемые вами автоматизации работали быстрее.
Советы по оптимизации плейбуков
-------------------------------
### 1. Выясните, какие задачи отнимают больше всего времени
Бывает, что та или иная задача (task) в составе плейбука выглядит простой и безобидной, но именно на нее уходит большая часть времени выполнения всего плейбука. Выявить такие задачи можно с помощью **callback-плагинов**, таких как `timer`, `profile_tasks` и `profile_roles`.
Для начала включим использование этих плагинов в `ansible.cfg`:
```
[defaults]
inventory = ./hosts
callbacks_enabled = timer, profile_tasks, profile_roles
```
Теперь выполним команду `ansible-playbook`:
```
$ ansible-playbook site.yml
PLAY [Deploying Web Server] ************
TASK [Gathering Facts] **********************
Thursday 23 December 2021 22:55:58 +0800 (0:00:00.055) 0:00:00.055
Thursday 23 December 2021 22:55:58 +0800 (0:00:00.054) 0:00:00.054
ok: [node1]
TASK [Deploy Web service] *******************
Thursday 23 December 2021 22:56:00 +0800 (0:00:01.603) 0:00:01.659
Thursday 23 December 2021 22:56:00 +0800 (0:00:01.603) 0:00:01.658
......
PLAY RECAP \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
node1: ok=9 changed=4 unreachable=0 failed=0
skipped=0 rescued=0 ignored=0
Playbook run took 0 days, 0 hours, 0 minutes, 14 seconds
Thursday 23 December 2021 22:56:12 +0800 (0:00:00.541) 0:00:14.100 \*\*\*\*\*
===============================================================================
deploy-web-server : Install httpd and firewalld ------- 5.42s
deploy-web-server : Git checkout ---------------------- 3.40s
Gathering Facts --------------------------------------- 1.60s
deploy-web-server : Enable and Run Firewalld ---------- 0.82s
deploy-web-server : firewalld permitt httpd service --- 0.72s
deploy-web-server : httpd enabled and running --------- 0.55s
deploy-web-server : Set Hostname on Site -------------- 0.54s
deploy-web-server : Delete content & directory -------- 0.52s
deploy-web-server : Create directory ------------------ 0.41s
Deploy Web service ------------------------------------ 0.04s
Thursday 23 December 2021 22:56:12 +0800 (0:00:00.541) 0:00:14.099
=====================================================================
deploy-web-server ------------------------- 12.40s
gather\_facts ------------------------------- 1.60s
include\_role ------------------------------- 0.04s
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
total ------------------------------------- 14.04s
```
Глядя на вывод этой команды, где есть время выполнения каждой задачи, роли и т.п., четко видно, какая задача отнимает больше всего времени.
### 2. Отключите сбор фактов
При выполнении плейбука каждая команда play с помощью модуля `setup` запускает скрытую задачу **gathering facts. Эта задача** собирает сведения об удаленном узле, где выполняется автоматизация, и пишет их в переменную `ansible_facts`. Но если вы никак не используется эти сведения в своем плейбуке, то это просто пустая трата времени. Чтобы отключить сбор фактов, достаточно прописать `gather_facts: False` в play.
Для примера посмотрим статистику, когда сбор фактов включен:
```
$ time ansible-playbook site.yml
PLAY [Deploying Web Server] *********************
TASK [Gathering Facts] **************************
ok: [node1]
......
PLAY RECAP \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
node1: ok=9 changed=4 unreachable=0 failed=0
skipped=0 rescued=0 ignored=0
ansible-playbook site.yml 3.03s user 0.93s system 25% cpu 15.526 total
```
А теперь статистика с `gather_facts: False`:
```
$ time ansible-playbook site.yml
PLAY [Deploying Web Server] ****************
......
PLAY RECAP \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*
node1: ok=8 changed=4 unreachable=0 failed=0
skipped=0 rescued=0 ignored=0
ansible-playbook site.yml 2.96s
user 1.00s
system 26%
cpu 14.992 total
```
Понятно, что чем больше узлов, тем больше времени экономит отказ от сбора фактов.
### 3. Настройте параллельное выполнение
Ansible выполняет каждую задачу не на всех узлах сразу, а партиями. Размер партий настраивается через параметр `forks` и по умолчанию равен 5. Поэтому Ansible запускает задачу на первых пяти узлах, ждет, пока она на них выполнится, затем берет следующие пять узлов и т.д. Когда задача выполнится на всех узлах, Ansible берет следующую задачу из плейбука и опять начинает выполнять ее партиями по пять узлов.
Чтобы распараллелить задачу по большему числу узлов, надо поменять значение параметра `forks` в `ansible.cfg`:
```
[defaults]
inventory = ./hosts
forks=50
```
Значение `forks` также можно динамически менять при запуске плейбука с помощью опции `--forks` (сокращенно `-f`):
```
$ ansible-playbook site.yaml --forks 50
```
**Примечание.** Чем больше узлов, на которых Ansible выполняет задачи параллельно, тем больше ресурсов CPU и памяти ему нужно на машине, где крутится узел управления Ansible (control node). Поэтому настраивайте `forks` аккуратно.
### 4. Оптимизируйте SSH
Установление SSH-сеанса – процесс довольно медленный, и выполняется он в фоновом режиме. Когда у вас много задач в плейбуке и много узлов, на которых они должны выполниться, общее время работы плейбука существенно увеличивается.
Бороться с этим можно с помощью параметров `ControlMaster` и `ControlPersist` в `ansible.cfg` (секция `ssh_connection`):
* **ControlMaster** – позволяет «утрамбовать» несколько одновременных SSH-сеансов с удаленным узлом в одно сетевое подключение. Это экономит время, поскольку сетевое подключение к узлу производится только при первом SSH-сеансе, а последующие просто работают через это подключение.
* **ControlPersist** – время, в течение которого неактивный SSH-сеанс остается открытым в фоновом режиме. Например, `ControlPersist=60s` означает, что неактивное соединение живет 60 секунд:
```
[ssh_connection]
ssh_args = -o ControlMaster=auto -o ControlPersist=60s
```
### 5. Отключите проверку SSH-ключей хоста в динамической среде
По умолчанию Ansible проверяет и верифицирует SSH-ключи хоста для защиты от атак с подменой сервера или man-in-the-middle. На такую проверку тоже уходит время. Если у вас полностью контролируемая среда с неизменяемыми управляемыми узлами (ВМ или контейнеры), то при переустановке или воссоздании узла его ключ будет другим. В таких средах можно отключить проверку ключей с помощью параметра `host_key_checking =` `False` в `ansible.cfg`:
```
[defaults]
host_key_checking = False
```
**Примечание.** За пределами контролируемых сред отключать эту проверку очень не рекомендуется. Поэтому применяйте этот способ только когда четко понимаете, что делаете.
### 6. Активируйте параметр pipelining
Когда Ansible использует SSH при копировании файлов, скриптов и выполнении других команд, то в фоновом режиме выполняется ряд операций SSH. Можно уменьшить количество SSH-соединений, включив параметр pipelining (по умолчанию он отключен) в `ansible.cfg`:
```
# ansible.cfg
pipelining = True
```
### 7. Грамотно варьируйте стратегии выполнения
По умолчанию Ansible использует **линейную стратегию** – ждет, пока текущая задача сценария не завершится на всех узлах, и лишь потом переходит к следующей задаче.
Если у вас нет зависимостей с привязкой к задачам или управляемым узлам, то можно изменить значение параметра `strategy` на `free`. Тогда Ansible будет прогонять сценарную последовательность задач на каждом узле независимо, не дожидаясь, пока каждая задача выполнится на всех узлах:
```
- hosts: production servers
strategy: free
tasks:
```
При необходимости можно разработать свои или использовать готовые плагины стратегий, такие как [Mitogen](https://mitogen.networkgenomics.com/ansible_detailed.html) с программированием подключений и выполнения на Python.
### 8. Используйте асинхронные задачи
При выполнении задачи Ansible дожидается ее завершения, и лишь затем закрывает соединение с управляемым узлом. Когда у вас есть долгоиграющие задачи (бэкап дисков, установка пакетов и т.д.), это может неоправданно увеличивать общее время выполнения. Если следующие задачи сценарии не зависят от этой долгой задачи, то можно использовать режим `async` с соответствующим интервалом опроса `poll`, чтобы Ansible не ждал завершения долгой задачи и переходил к следующим:
```
---
- name: Async Demo
hosts: nodes
tasks:
- name: Initiate custom snapshot
shell:
"/opt/diskutils/snapshot.sh init"
async: 120 # Maximum allowed time in Seconds
poll: 05 # Polling Interval in Seconds
```
### Резюме
Время выполнения плейбуков Ansible зависит от множества конфигурационных параметров, оптимальные значения которых определяются спецификой конкретной ИТ-среды и применяемых в ней автоматизаций. Мы рассмотрели далеко не весь список, есть целый ряд других параметров, таких как `serial`, `throttle`, `run_once` и других, о которых можно подробнее узнать в [документации](https://docs.ansible.com/ansible/latest/user_guide/playbooks_strategies.html) Ansible. | https://habr.com/ru/post/650679/ | null | ru | null |
# Резервное копирование — виртуальные клоны против неконсистентных кентавров
*или простой способ создания консистентныx резервныx копий без остановки сервера с помощью клонирования виртуальных машин*
#### Идеальный бэкап в вакууме
Системный администратор, настраивая резервирование данных на сервере, рисует в своем воображении прекрасные образы. Скрипт резервного копирования добросовестно складывает данные в архив, где они лежат в сохранности, внушают спокойствие. Случается катаклизм, в результате которого информация на дисках превращаются в тоскливую последовательность нулей без единой единицы. Нарастает паника, директор запирается в своем кабинете с пистолетом. И тут появляется герой, хладнокровно восстанавливает данные из последней резервной копии и через пол-часа сервер работает как ни в чем не бывало. Под торжественную музыку герой уходит в закат.
Грубая реальность вносит коррективы: если при настройке копирования не предусмотреть множество мелочей, то при восстановлении может случиться так, что часть данных в бэкапе окажется повреждена непонятным образом. Легкое восстановление превратится в мучительные поиски кусочков в разных архивах и собирание из них одного целого. Уход в закат откладывается из-за нарушенной консистентности копии.
#### Неконсистентность копии
Понятие неконсистентности копии означает то, что вместо единого массива данных, отражающих состояние оригинала в один момент времени, копия состоит из нескольких частей, отражающих состояние соответствующих частей оригинала в разные моменты времени.
Например, если мы одновременно увеличиваем один и тот же счетчик в двух разных файлах, то в неконсистентной копии эти файлы могут иметь несовпадающее значение. Другой пример, если по дороге идет человек с конем и мы решили их скопировать, то в неконсистентной копии вместо них по дороге будет один кентавр.
#### Как появляются кентавры
Самый простой и популярный способ резервного копирования — пофайловое копирование файловой системы. В архиве может сохраняться полная копия, создаваемая tar или cpio, или инкрементная с помощью dump, rsync, bacula. Все файлы файловой системы поочередно обходятся, возможно, проверяются на удовлетворение неким правилам и копируются в архив.
Первая очевидная причина нарушения консистентности — изменение файлов, происходящее во время копирования. Сервер продолжает выполнять свои обычные задачи, файлы создаются, обновляются, удаляются. Чем дольше длится копирование, чем больше объем всех данных, чем больше скорость изменения данных в оригинале — тем большая получается неконсистентность копии. В одних случаях это будет малокритично — например, если ночью копируется корпоративный веб-сайт, на котором в это время изменяются только логи. А вот если в это время записывались изменения в репозиторий SVN, то не смотря на то, что SVN использует транзакции, после восстановления из такого бэкапа можно столкнуться с потерей или перемешиванием версий у произвольных компонентов.
#### Как создаются клоны
Для решения этой проблемы существует универсальная схема — клонирование диска или файловой системы, мгновенные снимки (snapshot). Реализации ее могут быть разными — например, с средствами самой файловой системы в UFS и ZFS, или уровнем ниже, на блочном устройстве в LVM/DeviceMapper или VHD. Со стороны пользователя это выглядит так, как будто в требуемый момент операционная система создает вторую копию файловой системы или блочного устройства. На создание снимка времени требуется очень мало (от нескольких миллисекунд до секунд), поэтому без ущерба для работы приложений блокируются все операции записи. В период создания снэпшота никаких изменений не происходит и копия получается консистентная.
Годятся ли снэпшоты в качестве резервных копий? Для краткосрочный нужд — да. Например, перед какими-нибудь рискованными обновлениями будет полезно сделать снэпшот и, если что-то пойдет не так, откатить состояние по этому снэпшоту, а если все закончится хорошо, то снэпшот можно удалить. Использование снэпшотов имеет свою цену — замедление дисковых операций, увеличение расхода места на диске. Поэтому долговременное использование снэпшотов должно приносить пользы больше, чем будет теряться производительности. Для резервного копирования снэпшоты не годятся еще потому, что находятся там же, где и оригинал. Если пострадает оригинал, то с высокой вероятностью пострадает и копия.
В резервировании снэпшоты используются в качестве неизменной файловой системы, которую можно копировать в удаленное хранилище сколь угодно долго и консистентность копии в конце копирования нарушена не будет. Копирование может выполняться теми же самыми dump/tar/rsync/bacula. После того, как снэпшот использован, его удаляют, чтобы не тратить впустую ресурсы.
#### Консистентность данных сервера
Решает ли это задачу чистого восстановления? Только частично. Мы получаем консистентную копию файловой системы, но не получаем консистентную копию всей информации сервера. Ведь есть еще приложения, которые оперируют данными в оперативной памяти и сохраняют их на диске. В памяти данные приложения консистентны, но записанные на диск — не обязательно. Информация записывается в файл в том порядке, в котором это удобно для приложения и операционной системы. Точка зрения системы резервирования об этом порядке приложение не интересует. Состояние копии соответствует состоянию диска сервера после внезапного отключения, например, обесточивания.
Для веб-проектов потенциальная жертва неконсистентности — базы данных MySQL. Допустим, у нас активный проект с большим числом обновлений данных, в таблицы постоянно записываются данные. Сервер БД держит данные таблиц в оперативной памяти, периодически сбрасывая изменения на диск. К этому присоединяется еще операционная система, которая может задерживать данные в буферах записи, исходя из собственных соображений о том, что нужно для повышения производительности. Если мы сделаем в этот момент консистентную копию файловой системы, то в разных таблицах могут оказаться данные, актуальные на разные моменты времени, а в некоторых таблицах может быть нарушена целостность данных, если они в этот момент переносились в другое место.
Это приводит нас к необходимости учитывать особенности работы каждого приложения, изменяющего данные на сервере. И адаптировать процесс создания резервных копий, заставляющие каждое приложение, изменяющее данные, сохранять их на диск перед созданием копии и воздержаться от их изменения во время копирования. Для сервера MySQL это заключается в блокировании таблиц на запись и сбросе изменений на диск одной командой `FLUSH TABLES WITH READ LOCK`, из разблокировании таблиц после создания копии командой `UNLOCK TABLES`. А если это Java-приложение со сторонними компонентами, об особенностях работы которых ничего не известно, ситуация осложняется и остается только полная остановка приложения. Для Windows-приложений предлагается специальный механизм Quiesce, с помощью которого операционная система дает знать приложениям, что она начинает бэкап и им нужно сбросить свои данные на диск или каким-то другим образом привести их на диске в консистентное состояние.
На практике, именно эта часть либо часто упускается из виду при настройке резервного копирования, либо сисадмин (или разработчик) сознательно отказывается от дополнительных настроек, если считает, что риск в его ситуации незначительный и он не стоит дополнительных затрат на усложнение сценария копирования.
#### Виртуальные клоны виртуальных машин
Виртуальные машины за последние годы стали привычны и на десктопе, и на сервере. Прогресс делает жизнь людей более комфортной. Более комфортной он делает и жизнь системных администраторов. Серверные виртуальные машины удобно использовать для абстракции оборудования, для эффективного и плотного использования аппаратных ресурсов, для удобного администрирования большого числа функционально различных серверов, объединенных на небольшом количестве физических серверов. А еще виртуализация позволяет делать идеальный бекап, без мифических существ и фантастических мутантов.
Многие среды виртуализации позволяют сохранить снимок работающей виртуальной машины (в отличие от диска, для этого чаще используется термин checkpoint, а не snapshot — чтобы не путать снимок памяти со снимком диска). В основном, они предназначены для разработки и тестирования, например, для сохранения состояние работающего сервера перед обновлением, чтобы при неудачном исходе откатиться назад. А с точки зрения резервного копирования, снимок памяти и диска является консистентной копией всех данных сервера. Таким образом, инструмент для получения идеального бэкапа у нас есть, и его нужно правильно применить.
В Citrix XenServer (включая XenServer Free) и XCP для создания снимка виртуальной машины с памятью и диском используется команда `xe vm-checkpoint`. На время создания снимка работа виртуальной машины приостанавливается и после завершения продолжается. Снимок готов и находится в хранилище, но в таком виде его ценность как резервной копии невелика — как и в случае с снэпшотами диска, то, что хранится вместе с оригиналом, может пострадать вместе с оригиналом. Для получения копии, которую можно будет хранить где угодно, нужно воспользоваться командой `xe vm-export`, которая на выходе сохраняет память и диск виртуальной машины в xva-файл.
Xen Hypervisor 4 в виде xend+xm, при размещении дисков машин на LVM, позволяет делать примерно то же самое. Стандартная команда `xm save -c` (сохранение с checkpoint) позволяет сохранить снимок памяти и продолжить затем работу виртуальной машины. Снимок диска при этом не создается, предполагая что этим займется кто-то другой. Первое приходящее в голову решение — поставить домен на паузу, сделать снэпшот диска, и только после этого делать снэпшот виртуальной машины. Но оно не пройдет, для того, чтобы домен мог сохраняться, Xen требует, чтобы он был в рабочем состоянии. Есть несколько способов решить эту задачу, для нас в итоге самым удобным оказался вариант с небольшой модификацией xend (можно взять наш сокращенный патч для Debian 6 с Xen 4.0 и при необходимости доработать под свои нужды: [www.truevds.ru/misc.xen-checkpoint-clone-patch](http://www.truevds.ru/misc.xen-checkpoint-clone-patch)). Для этого достаточно указать в коде функции, ответственной за создания checkpoint, что в конфигурации сохраняемой виртуальной машины используются снэпшоты дисков, а не их оригиналы, и перед возобновлением работы виртуальной машины сделать эти снэпшоты стандартным способом LVM. После этого у нас будет файл со снимком памяти виртуальной машины и раздел LVM со снимком диска.
Кроме основанных на Xen систем виртуализации, аналогичные возможности предоставляет VMWare и Hyper-V. В их терминологии checkpoint называется snaphost.
#### Хороший клон — выключенный клон
Хранить в архиве полные копии памяти и дисков виртуальной машины не очень накладно, если это какой-то маленький сервер с маленькими данными. Если пытаться использовать эту схему для чего-то серьезного, скажем, production-сервера для посещаемого сайта с оперативной памятью 8 Гб и объемом данных на диске около 100 Гб, передача по сети и хранение 108 Гб на каждую копию быстро сделают цену резервирования непомерно высокой.
Самый удобный способ хранения большого числа архивных копий — инкрементные бэкапы. Во время очередного копирования в архиве записывается не полная копия файловой системы, а только изменения, произошедшие после предыдущего копирования. Для этого нам требуется консистентная файловая система в которой находятся консистентные данные сервера.
Есть единственное состояние сервера, в котором данные на диске сохранены приложениями максимально корректно и в оперативной памяти не меняются. Это состояние — корректно остановленный сервер. Все приложения, хоть как-то заботящиеся о сохранности своих данных, ценят и с готовностью подчиняются, когда операционная система просит их завершить свою работу — через stop-скрипты или через отправку сигнала SIGTERM. Файловая система остановленного таким образом сервера и является максимально возможным консистентным состоянием всех данных сервера.
Нам нужна файловая система в таком состоянии. У нас есть клон — снэпшот виртуальной машины и снэпшот диска. Нам нужно запустить виртуальную машину клона и дать его операционной системе команду остановки (shutdown). В XenServer/XCP для этого нужно будет конвертировать снэпшот в темплейт командой `xe snapshot-copy` и затем стартовать новую машину на этом темплейте. Xen Hypervisor достаточно запустить машину через `xm restore`.
Клон не должен иметь возможность навредить оригиналу. В качестве диска клон использует собственный снимок (в xend/xm по умолчанию это не так, но исправляется упомянутым ранее патчем, сохраняющим снимок виртуальной машины) — диск оригинала клону не доступен. Но если оригинал работал с сетью, то и у клона будет сетевой интерфейс с такими же настройками. При включении возникнет конфликт между клоном и оригиналом за право общения с внешним миром. Поэтому сетевой интерфейс клона нужно деактивировать или изолировать внутри отдельной виртуальной сети, не выходящей в реальную. Метод остановки сервера зависит от того, как он сконфигурирован и чаще всего для PV-машины будет достаточно команды `xm shutdow`, а для HVM отправки ACPI power off.
После отключения виртуальную машину клона можно удалить, и у нас остается снэпшот диска с чисто выполненной остановкой. Это будет файловая система с чистейшей консистентностью. Ее можно со спокойной душой отправлять в архив тем же методом, которым копируются обычные снэпшоты диска.
#### Цена победы
Есть мелкие трудности, связанные с тем, что для запуска клонов нужна оперативная память, которой вдруг может быть недостаточно; работа машины приостанавливается на время сохранения памяти. Их решение во много зависит от конкретных обстоятельств. Например, если мы, как порядочные люди, делаем резервирование ночью, то мы можем безболезненно отнять перед снимком у оригинала половину памяти и стартовать клона на освободившейся половине. Небольшая модификация xend позволяет делать снимок памяти даже без приостановки виртуальной машины (в XCP это тоже технически возможно, скорее всего у разработчиков просто пока не дошли до него руки).
Переносить серверы в виртуальные машины для высоконагруженного интернет-проекта может быть лишним. Имея десятки или сотни однотипных серверов, будет практичнее отладить до мелочей и унифицировать процедуру резервного копирования средствами приложений, воплотив потом ее одну множество раз, чем тратить небольшой процент ресурсов на накладные расходы виртуализации.
Для интернет-проектов меньшего масштаба или для разношерстного набора корпоративных серверов, затраты на организацию чистого резервирования с помощью виртуализации окажутся наименьшими в большинстве случаев. В итоге мы получаем возможность делать нормальные консистентные бэкапы сервера не занимаясь подгонкой сценариев резервирования под все многообразие приложений. При этом уменьшается риск, что какой-то из компонентов будет забыт или не сработает. Герой, восстановив сервер за десять минут, поскачет в закат на коне, без риска превратиться в кентавра. | https://habr.com/ru/post/142198/ | null | ru | null |
# Вариационные автокодировщики: теория и рабочий код

*Вариационный автокодировщик (автоэнкодер) — это генеративная модель, которая учится отображать объекты в заданное скрытое пространство.*
Когда-нибудь задавались вопросом, как работает модель вариационного автокодировщика (VAE)? Хотите знать, как VAE генерирует новые примеры, подобные набору данных, на котором он обучался? Прочитав эту статью, вы получите теоретическое представление о внутренней работе VAE, а также сможете реализовать его самостоятельно. Затем я покажу рабочий код VAE, обученный на наборе рукописных цифр, и мы немного повеселимся, генерируя новые цифры!
Генеративные модели
===================
VAE представляет собой генеративную модель — она оценивает плотность вероятности (PDF) обучающих данных. Если такая модель обучена на натуральных изображениях, то присвоит изображению льва высокое значение вероятности, а изображению случайной ерунды — низкое значение.
Модель VAE также умеет брать примеры из обученной PDF, что является самой крутой частью, так как она сможет генерировать новые примеры, похожие на исходный набор данных!
Я объясню VAE, используя набор рукописных цифр [MNIST](https://en.wikipedia.org/wiki/MNIST_database). Входными данными для модели являются картинки в формате . Модель должна оценить вероятность, насколько входные данные похожи на цифру.
Задача моделирования изображений
================================
Взаимодействие между пикселями представляет трудную задачу. Если пиксели независимы друг от друга, то нужно изучать PDF каждого пикселя независимо, что легко. Выборка тоже простая — берём отдельно каждый пиксель.
Но в цифровых изображениях есть чёткие зависимости между пикселями. Если вы увидите начало четвёрки на левой половине, то очень удивитесь, если правая половина является завершением нуля. Но почему?..
Скрытое пространство
====================
Вы знаете, что на каждом изображение есть одна цифра. Вход в  явно не содержит этой информации. Но она должна где-то находиться… Это «где-то» — скрытое пространство.

Вы можете думать о скрытом пространстве как о , где каждый вектор содержит  частей информации, необходимой для отрисовки изображения. Предположим, первое измерение содержит число, представленное цифрой. Вторым измерением может быть ширина. Третьим — угол, и так далее.
Можем представить процесс рисования человеком цифры в два шага. Сначала человек определяет — сознательно или нет — все атрибуты цифры, которую собирается выевсти. Далее эти решения трансформируются в штрихи на бумаге.
VAE пытается смоделировать этот процесс: при заданном изображении  мы хотим найти хотя бы один скрытый вектор, способный его описать; один вектор, содержащий инструкции для генерации . Сформулировав его по [формуле полной вероятности](https://en.wikipedia.org/wiki/Law_of_total_probability), мы получаем .
Давайте вложим разумный смысл в это уравнение:
* Интеграл означает, что кандидатов нужно искать во всём скрытом пространстве.
* Для каждого кандидата  мы задаём вопрос: можно ли сгенерировать , используя инструкции ? Достаточно ли велико ? Например, если  кодирует информацию о цифре 7, то изображение 8 невозможно. Однако допустимо изображение 1, потому что 1 и 7 похожи.
* Мы нашли хорошее ? Отлично! Но подождите секунду… насколько это  вероятно?  достаточно велико? Рассмотрим изображение перевернутой цифры 7. Идеальным соответствием станет скрытый вектор, описывающий вид 7, где размер угла установлен на 180°. Однако такое  маловероятно, потому что обычно цифры не пишут под углом 180°.
Целью обучения VAE является максимизация . Будем моделировать  с помощью многомерного гауссовского распределения .
 моделируется с использованием нейронной сети.  — это гиперпараметр для умножения единичной матрицы .
Следует иметь в виду, что  — это то, что мы будем использовать для генерации новых изображений с помощью обученной модели. Соответствие гауссовскому распределению требуется только на этапе обучения. Если мы возьмём дельта-функцию Дирака (т.е. детерминированное ), то не сможем обучать модель с помощью градиентного спуска!
Чудеса скрытого пространства
============================
У подхода со скрытым пространством есть две большие проблемы:
1. Какую информацию содержит каждое измерение? Некоторые измерения могут относиться к абстрактным элементам, например, к стилю. Даже если бы было легко интерпретировать все измерения, мы не хотим назначать метки набору данных. Такой подход не масштабируется на другие наборы данных.
2. Скрытое пространство может быть запутано, когда между измерениями есть корреляция. Например, очень быстро нарисованная цифра может одновременно привести к появлению и угловых, и более тонких штрихов. Определить эти зависимости сложно.
На помощь приходит глубокое обучение
====================================
Оказывается, каждое распределение можно сгенерировать путём применения достаточно сложной функции на стандартном многомерном гауссовском распределении.
Выберем  в качестве стандартного многомерного гауссовского распределения. Таким образом, моделируемое нейросетью  можно разбить на две фазы:
1. Первые слои отображают гауссововское распределение в истинное распределение по скрытому пространству. Мы не сможем интерпретировать измерения, но это не имеет значения.
2. Последующие слои будут отображаться из скрытого пространства в .
Так как мы обучим этого зверя?
==============================
Формула для  неразрешима, поэтому аппроксимируем её методом Монте-Карло:
1. Отбор  из предыдущего 
2. Апроксимация с помощью 
Отлично! Итак, просто попробуем много разных  и начнём вечеринку обратного распространения ошибки!
К сожалению, поскольку  очень многомерно, для получения разумного приближения требуется много выборок. Я имею в виду, если вы пробуете , то каковы шансы получить изображение, которое выглядит как-то похоже на ? Это, кстати, объясняет, почему  должно присваивать положительное значение вероятности любому возможному изображению, иначе модель не сможет обучаться: выборка  приведёт к изображению, которое почти наверняка отличается от , и если вероятность равна 0, то градиенты не смогут распространяться.
Как же решить эту проблему?
Cрежем путь!
============

Большинство образцов  из выборки ничего не добавят в  — они слишком далеко за его границами. Вот если бы знать заранее, откуда их отбирать…
Можно ввести . Данное  будет обучено присваивать высокие значения вероятности тем , которые с большой вероятностью сгенерируют . Теперь можно провести оценку по методу Монте-Карло, забирая гораздо меньше образцов из .
К сожалению, возникает новая проблема! Вместо максимизации  мы максимизируем . Как они связаны друг с другом?
Вариационный вывод
==================
Вариационный вывод — это тема отдельной статьи, поэтому я не буду здесь подробно останавливаться на нём. Скажу только, что эти распределения связаны таким уравнением:
![$log P(X) - \mathcal{KL}[Q(z|x) || P(z|x)] = \mathbb{E}_{z \sim Q(z|x)}[log P(x|z)] - \mathcal{KL}[Q(z|x) || P(z)]$](https://habrastorage.org/getpro/habr/formulas/296/079/5b0/2960795b08b28d26351dec138c69311a.svg)
 является [расстоянием Кульбака — Лейблера](https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence), которое интуитивно оценивает схожесть двух распределений.
Через мгновение вы увидите, как максимизировать правую часть уравнения. При этом левая сторона также максимизируется:
*  максимизируется.
* насколько далеко  от  — *настоящее* априорное неизвестное — будет минимизировано.
Смысл правой части уравнения в том, что у нас здесь напряжение:
1. С одной стороны мы хотим максимизировать, насколько хорошо  должно декодироваться из .
2. С другой стороны, мы хотим, чтобы  (*кодировщик*) был похож на предыдущее  (многомерное гауссовское распределение). Это можно рассматривать как регуляризацию.
Минимизация расходимости  выполняется легко при правильном выборе распределений. Мы будем моделировать  как нейронную сеть, выход которой является параметрами многомерного гауссовского распределения:
* среднее 
* диагональная ковариационная матрица 
Затем расходимость  становится аналитически разрешимой, что отлично для нас (и для градиентов).
Часть *декодера* немного сложнее. На первый взгляд хочется заявить, что эта задача неразрешима методом Монте-Карло. Но выборка  из  не позволит градиентам распространяться через , потому что выборка не является дифференцируемой операцией. Это проблема, поскольку тогда не смогут обонлявться веса слоев, выдающих  и .
Трюк новой параметризации
=========================
Мы можем заменить  детерминированным параметризованным преобразованием беспараметрической случайной величины:
1. Выборка из стандартного (без параметров) гауссовского распределения.
2. Умножение выборки на квадратный корень .
3. Добавление к результату .
В результате получим распределение, равное . Теперь операция выборки происходит из стандартного гауссовского распределения. Следовательно, градиенты смогут распространяться через  и , так как теперь это детерминированные пути.
Результат? Модель сможет научиться настраивать параметры : она будет концентрироваться вокруг хороших , которые способны производить .
Объединяем всё вместе
=====================
Модель VAE бывает трудно понять. Мы рассмотрели здесь много материала, который трудно переварить.
Позвольте резюмировать все шаги для реализации VAE.

Слева у нас определение модели:
1. Входное изображение передаётся через сеть кодировщика.
2. Кодировщик выдаёт параметры распределения .
3. Скрытый вектор  берётся из . Если кодировщик хорошо обучен, то в большинстве случае  содержат описание .
4. Декодер декодирует  в изображение.
С правой стороны у нас функция потери:
1. Ошибка восстановления: выходные данные должны быть аналогичны входным.
2.  должно быть аналогично предыдущему, то есть многомерному стандартному нормальному распределению.
Для создания новых изображений можно непосредственно выбрать скрытый вектор из предыдущего распределения и декодировать его в изображение.
Рабочий код
===========
Теперь более подробно изучим VAE и рассмотрим рабочий код. Вы поймёте все технические детали, необходимые для реализации VAE. В качестве бонуса покажу интересный трюк: как назначить некоторым измерениям скрытого вектора особые роли, чтобы модель начала генерировать картинки указанных цифр.
```
import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
import matplotlib.pyplot as plt
np.random.seed(42)
tf.set_random_seed(42)
%matplotlib inline
```
Напоминаю, что модели обучаются на [MNIST](https://en.wikipedia.org/wiki/MNIST_database) — наборе рукописных цифр. Входные изображения поступают в формате .
```
mnist = input_data.read_data_sets('MNIST_data')
input_size = 28 * 28
num_digits = 10
```
Далее определим гиперпараметры.
Не стесняйтесь играться с разными значениями, чтобы получить представление о том, как они влияют на модель.
```
params = {
'encoder_layers': [128], # кодировщик на простой сети прямого распространения
'decoder_layers': [128], # как и декодер (CNN лучше, но не хочу усложнять код)
'digit_classification_layers': [128], # нужно для условий, объясню позже
'activation': tf.nn.sigmoid, # функция активации используется всеми подсетями
'decoder_std': 0.5, # стандартное отклонение P(x|z) обсуждалось выше
'z_dim': 10, # размерность скрытого пространства
'digit_classification_weight': 10.0, # нужно для условий, объясню позже
'epochs': 20,
'batch_size': 100,
'learning_rate': 0.001
}
```
Модель
======

Модель состоит из трех подсетей:
1. Получает  (изображение), кодирует его в распределение  по скрытому пространству.
2. Получает  в скрытом пространстве (кодовое представление изображения), декодирует его в соответствующее изображение .
3. Получает  и определяет цифру по сопоставлению с 10-мерным слоем, где i-е значение содержит вероятность i-го числа.
Первые две подсети — основа чистого VAE.
Третья представляет собой [вспомогательную задачу](http://ruder.io/multi-task/index.html), которая использует некоторые из скрытых измерений для кодирования цифры, найденной в изображении. Объясню зачем: ранее мы обсуждали, что нам всё равно, какую информацию содержит каждое измерение скрытого пространства. Модель может научиться кодировать любую информацию, которую она считает ценной для своей задачи. Поскольку мы знакомы с набором данных, то знаем важность измерения, которое содержит тип цифры (то есть её численное значение). И теперь мы хотим помочь модели, предоставив ей эту информацию.
По заданному типу цифры мы прямо кодируем её, то есть используем вектор размером 10. Эти десять чисел связаны со скрытым вектором, поэтому при декодировании этого вектора в изображение модель будет использовать цифровую информацию.
Есть два способа предоставить модели вектор прямого кодирования:
1. Добавить его в качестве входных данных в модель.
2. Добавить его как метку, так что модель сама вычислит прогноз: мы добавим другую подсеть, которая прогнозирует 10-мерный вектор, где функция потери — это перекрёстная энтропия с ожидаемым вектором прямого кодирования.
Выберем второй вариант. Почему? Ну, тогда при тестировании можно использовать модель двумя способами:
1. Указать изображение в качестве входных данных и вывести скрытый вектор.
2. Указать скрытый вектор в качестве входных данных и сгенерировать изображение.
Поскольку мы хотим поддерживать и первый вариант, то не можем давать модели цифру в качестве входных данных, поскольку не хотим знать её во время тестирования. Следовательно, модель должна научиться предсказывать её.
```
def encoder(x, layers):
for layer in layers:
x = tf.layers.dense(x,
layer,
activation=params['activation'])
mu = tf.layers.dense(x, params['z_dim'])
var = 1e-5 + tf.exp(tf.layers.dense(x, params['z_dim']))
return mu, var
def decoder(z, layers):
for layer in layers:
z = tf.layers.dense(z,
layer,
activation=params['activation'])
mu = tf.layers.dense(z, input_size)
return tf.nn.sigmoid(mu)
def digit_classifier(x, layers):
for layer in layers:
x = tf.layers.dense(x,
layer,
activation=params['activation'])
logits = tf.layers.dense(x, num_digits)
return logits
```
```
images = tf.placeholder(tf.float32, [None, input_size])
digits = tf.placeholder(tf.int32, [None])
# кодируем изображение в распределение по скрытому пространству
encoder_mu, encoder_var = encoder(images,
params['encoder_layers'])
# отбираем вектор из скрытого пространства, используя
# трюк с повторной параметризацией
eps = tf.random_normal(shape=[tf.shape(images)[0],
params['z_dim']],
mean=0.0,
stddev=1.0)
z = encoder_mu + tf.sqrt(encoder_var) * eps
# classify the digit
digit_logits = digit_classifier(images,
params['digit_classification_layers'])
digit_prob = tf.nn.softmax(digit_logits)
# декодируем в изображение скрытый вектор, связанный
# с классификацией цифр
decoded_images = decoder(tf.concat([z, digit_prob], axis=1),
params['decoder_layers'])
```
```
# потеря состоит в том, насколько хорошо мы
# можем восстановить изображение
loss_reconstruction = -tf.reduce_sum(
tf.contrib.distributions.Normal(
decoded_images,
params['decoder_std']
).log_prob(images),
axis=1
)
# и как далеко распределение по скрытому пространству от предыдущего.
# Если предыдущее является стандартным гауссовским распределением,
# а в результате получается нормальное распределение с диагональной
# конвариантной матрицей, то KL-расхождение становится аналитически
# разрешимым, и мы получаем
loss_prior = -0.5 * tf.reduce_sum(
1 + tf.log(encoder_var) - encoder_mu ** 2 - encoder_var,
axis=1
)
loss_auto_encode = tf.reduce_mean(
loss_reconstruction + loss_prior,
axis=0
)
# digit_classification_weight используется как вес между двумя потерями,
# поскольку между ними есть напряжение
loss_digit_classifier = params['digit_classification_weight'] * tf.reduce_mean(
tf.nn.sparse_softmax_cross_entropy_with_logits(labels=digits,
logits=digit_logits),
axis=0
)
loss = loss_auto_encode + loss_digit_classifier
train_op = tf.train.AdamOptimizer(params['learning_rate']).minimize(loss)
```
Обучение
========

Обучим модель оптимизации двух функций потерь — VAE и классификации — с помощью [SGD](https://en.wikipedia.org/wiki/Stochastic_gradient_descent).
В конце каждой эпохи отбираем скрытые векторы и декодируем их в изображения, чтобы визуально наблюдать, как улучшается генеративная сила модели по эпохам. Метод отбора проб выглядит следующим образом:
1. Явно задать измерения, которые используются для классификации по цифре, которую мы хотим сгенерировать. Например, если мы хотим создать изображение цифры 2, то задаём измерения ![$[0010000000]$](https://habrastorage.org/getpro/habr/formulas/d61/187/62a/d6118762a5e8cb5806b9cc3ad5e872db.svg).
2. Произвести случайную выборку из других измерений многомерного нормального распределения. Это значения для разных цифр, которые генерируются в данной эпохе. Так мы получим представление о том, что закодировано в других измерениях, например, стиль почерка.
Смысл шага 1 заключается в том, что после конвергенции модель должна уметь классифицировать цифру во входном изображении по этим установкам измерений. При этом они также используются на этапе декодирования для создания изображения. То есть подсеть декодера знает: когда измерения соответствуют цифре 2, она должна сгенерировать картинку с этой цифрой. Поэтому если вручную установить измерения на цифру 2, мы получим сгенерированное изображение этой цифры.
```
samples = []
losses_auto_encode = []
losses_digit_classifier = []
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for epoch in xrange(params['epochs']):
for _ in xrange(mnist.train.num_examples / params['batch_size']):
batch_images, batch_digits = mnist.train.next_batch(params['batch_size'])
sess.run(train_op, feed_dict={images: batch_images, digits: batch_digits})
train_loss_auto_encode, train_loss_digit_classifier = sess.run(
[loss_auto_encode, loss_digit_classifier],
{images: mnist.train.images, digits: mnist.train.labels})
losses_auto_encode.append(train_loss_auto_encode)
losses_digit_classifier.append(train_loss_digit_classifier)
sample_z = np.tile(np.random.randn(1, params['z_dim']), reps=[num_digits, 1])
gen_samples = sess.run(decoded_images,
feed_dict={z: sample_z, digit_prob: np.eye(num_digits)})
samples.append(gen_samples)
```
Давайте проверим, что обе функции потери выглядят хорошо, то есть уменьшаются:
```
plt.subplot(121)
plt.plot(losses_auto_encode)
plt.title('VAE loss')
plt.subplot(122)
plt.plot(losses_digit_classifier)
plt.title('digit classifier loss')
plt.tight_layout()
```

Кроме того, давайте выведем сгенерированные изображения и посмотрим, действительно ли модель умеет создавать картинки с рукописными цифрами:
```
def plot_samples(samples):
IMAGE_WIDTH = 0.7
plt.figure(figsize=(IMAGE_WIDTH * num_digits,
len(samples) * IMAGE_WIDTH))
for epoch, images in enumerate(samples):
for digit, image in enumerate(images):
plt.subplot(len(samples),
num_digits,
epoch * num_digits + digit + 1)
plt.imshow(image.reshape((28, 28)),
cmap='Greys_r')
plt.gca().xaxis.set_visible(False)
if digit == 0:
plt.gca().yaxis.set_ticks([])
plt.ylabel('epoch {}'.format(epoch + 1),
verticalalignment='center',
horizontalalignment='right',
rotation=0,
fontsize=14)
else:
plt.gca().yaxis.set_visible(False)
plot_samples(samples)
```

Заключение
==========
Приятно видеть, что простая сеть прямого распространения (без причудливых свёрток) генерирует красивые изображения всего за 20 эпох. Модель довольно быстро научилась использовать особые измерения для цифр: в 9-й эпохе мы уже видим последовательность цифр, которую пытались сгенерировать.
Каждая эпоха использовала разные случайные значения для других измерений, поэтому стиль отличается между эпохами, но похож внутри них: по крайней мере, внутри некоторых. Например, в 18-й все цифры более жирные, по сравнению с 20-й.
#### Примечания
Cтатья основана на моём опыте и следующих источниках:
* [Вариационный вывод и глубокое обучение: новый синтез](https://pure.uva.nl/ws/files/17891313/Thesis.pdf)
* [Руководство по вариационным автокодировщикам](https://arxiv.org/abs/1606.05908) | https://habr.com/ru/post/429276/ | null | ru | null |
# Еще одна новая фича pg_filedump: восстанавливаем каталог PostgreSQL

В [прошлой статье](https://habrahabr.ru/company/postgrespro/blog/319770/) мы узнали, как при помощи утилиты pg\_filedump можно восстановить данные, или, по крайней мере, какую-то их часть, из полностью убитой базы PostgreSQL. При этом предполагалось, что мы откуда-то знаем номера сегментов, соответствующих таблице. Если мы знаем часть содержимого таблицы, ее сегменты действительно не сложно найти, например, простым grep'ом. Однако в более общем случае это не так-то просто сделать. К тому же, предполагалось, что мы знаем точную схему таблиц, что тоже далеко не факт. Так вот, недавно мы с коллегами сделали [новый патч](https://git.postgresql.org/gitweb/?p=pg_filedump.git;a=commit;h=5c5ba458fa154183d11d43218adf1504873728fd) для pg\_filedump, позволяющий решить названные проблемы.
Итак, допустим, мы хотим восстановить таблицу с именем test. Если имя таблицы мы не помним, это не страшно, так так используя описанный далее прием можно получить имена всех таблиц в базе. Информация о таблицах храниться в каталожной таблице pg\_class, сегмент которой всегда имеет номер 1259.
Используя последнюю версию pg\_filedump, мы можем прочитать pg\_class следующим образом:
```
./pg_filedump -D name,oid,oid,oid,oid,oid,oid,~ /path/to/base/16384/1259 | grep COPY | grep test
```
Обратите внимание на список типов для декодирования, который мы передаем pg\_filedump:
```
name,oid,oid,oid,oid,oid,oid,~
```
Тут мы в начале передаем имена типов первых семи столбцов таблицы (схема pg\_class известна и [описана в документации](https://www.postgresql.org/docs/9.6/static/catalog-pg-class.html)), а тильда говорит игнорировать остальные столбцы. В данном случае они нам все равно не интересны, незачем перечислять их все.
Пример вывода:
```
COPY: test 2200 16387 0 10 0 16385
COPY: test 2200 16387 0 10 0 16385
COPY: test_pkey 2200 0 0 10 403 16391
```
Последний столбец — это relfilenode, то есть номер сегмента. Он то нам и нужен! Запомним, 16385.
Но постойте-ка, ведь мы не знаем схему таблицы. Узнать ее нам поможет каталожная таблица pg\_attribute, relfilenode которой захардкожен и равен 1249. Кстати, relfilenode всех каталожных таблиц вы можете подсмотреть в [файле pg\_class.h](https://github.com/postgres/postgres/blob/master/src/include/catalog/pg_class.h).
Открываем [доку по pg\_attribute](https://www.postgresql.org/docs/9.6/static/catalog-pg-attribute.html), декодируем:
```
./pg_filedump -D oid,name,oid,int,smallint,~ /path/to/base/16384/1249 | grep COPY | grep 16385
```
Пример вывода:
```
COPY: 16385 k 23 -1 4
COPY: 16385 v 25 -1 -1
COPY: 16385 ctid 27 0 6
COPY: 16385 xmin 28 0 4
COPY: 16385 cmin 29 0 4
COPY: 16385 xmax 28 0 4
COPY: 16385 cmax 29 0 4
COPY: 16385 tableoid 26 0 4
```
Как видите, таблица имеет два столбца с именами k и v (остальные столбцы системные, они нужны для работы MVCC и вот этого всего). Здесь 23 и 25 — это atttypid, то есть, типы столбцов. Но как понять, что это за типы?
Ответ содержится в каталожной таблице pg\_type (relfilenode = 1247, [дока](https://www.postgresql.org/docs/9.6/static/catalog-pg-type.html)):
```
./pg_filedump -i -D name,~ /path/to/base/16384/1247 | grep -A5 -E 'OID: (23|25)'
```
Пример вывода:
```
XMIN: 1 XMAX: 0 CID|XVAC: 0 OID: 23
Block Id: 0 linp Index: 8 Attributes: 30 Size: 32
infomask: 0x0909 (HASNULL|HASOID|XMIN_COMMITTED|XMAX_INVALID)
t_bits: [0]: 0xff [1]: 0xff [2]: 0xff [3]: 0x07
COPY: int4
--
XMIN: 1 XMAX: 0 CID|XVAC: 0 OID: 25
Block Id: 0 linp Index: 10 Attributes: 30 Size: 32
infomask: 0x0909 (HASNULL|HASOID|XMIN_COMMITTED|XMAX_INVALID)
t_bits: [0]: 0xff [1]: 0xff [2]: 0xff [3]: 0x07
COPY: text
```
Итак, теперь у нас на руках есть вся необходимая информация. Таблица называется test, имеет relfilenode 16385 и содержит два столбца — k с типом int4 и v с типом text. Теперь мы можем сдампить ее содержимое, как было описано в [предыдущей статье](https://habrahabr.ru/company/postgrespro/blog/319770/).
Надеюсь, что на практике эти знания вам никогда не понадобятся :) Если у вас есть вопросы или дополнения, буду рад ознакомиться с ними в комментариях! | https://habr.com/ru/post/323644/ | null | ru | null |
# Еще один подход к построению архитектуры на фронте
Добрый день, дорогие читатели. В этой статье я постараюсь рассказать о принципе построения архитектуры для фронтенда, в частности для React, так как хорошая архитектура должна быть самостоятельным элементом системы.
В рамках статьи я постараюсь просто рассмотреть и дать ответы на следующие темы:
* что такое архитектура и почему она должна быть чистая;
* как написать архитектуру, которая основана на сервисах;
* пример построения архитектуры для приложения заметок;
* интеграция архитектуры с реактом.
---
### Вступление
Главная цель архитектуры заключается в построении системы, которая должна манипулировать сущностями с использованием определенных **политик** и не зависеть от **деталей**. Она должна быть простая и писаться с использованием только языка программирования и его стандартной библиотеки. То есть она должна быть чистая и не иметь внешних зависимостей, таких как фреймворки, браузеры, и в некоторых случаях от библиотеки.
> **Политики** - это истинная ценность системы, которая воплощает все бизнес-правила и процедуры.
>
>
> **Детали** - это все остальное, что позволяет людям, другим системам и программистам взаимодействовать с **политикой**, никак не влияя на ее поведение. К ним можно отнести устройства ввода/вывода, базы данных, веб-системы, серверы, фреймворки, протоколы обмена данными и т.д.
>
>
Архитектура должна писаться так, чтобы она не устаревала по мере развития приложения в следствии развития используемых фреймворков, библиотек и браузеров. Это подход поможет использовать архитектуру с разными фреймворками, библиотеками и браузерами. А также даст возможность развивать и тестировать только ее.
#### Почему архитектуре нельзя зависеть от браузера
Браузер для кода - это как *Операционная Система* для программ, которые запускаются в этой ОС. Если архитектура начинает зависеть от браузера, то становится **микропрограммой**, и теперь полностью зависит от него, поэтому будет тяжело переноситься в другие окружения.
Для приложений придумали **OSAL** (Operating System Abstraction Layer) - это слой абстракции операционной системы, по аналогии с **HAL** (Hardware Abstraction Layer), предоставляет услугу доступа к операционной системе и не раскрывает программному обеспечению, как она работает. В общих случаях все системные вызовы скрыты за интерфейсами.
Нам же для браузера нужно создать слой **BSAL** (Browser System Abstraction Layer). Но это не значит что нужно все скрывать за интерфейсами, скрывать необходимо только те компоненты, которые требуются для архитектуры.
Благодаря избавлению зависимости от браузера, архитектура может легко переноситься на другие браузеры и окружения, к примеру на NodeJS.
#### Почему архитектуре нельзя зависеть от фреймворков
Фреймворки очень сильно проникают в код. В следствии этого архитектура начинает развиваться под его воздействием и дальнейшая замена фреймворка очень затруднительна. Неконтролируемое развитие фреймворка вынуждает изменять архитектуру каждый раз, как фреймворк меняется, к примеру некоторые методы устаревают или появляются другие.
Обычно фреймворки диктуют как следует создавать свои сущности, объекты и предлагают наследоваться от их сущностей, поэтому фреймворк должен быть скрыт за прокси-объектами для доступа к нему.
#### Библиотеки
Для того, чтобы библиотека проникла в архитектуру, она должна быть скрыта за определенным *фасадом* - общим интерфейсом для библиотеки и подключаться только в одном месте. И тогда весь код будет зависеть от фасада, а не от библиотеки и в случае ее замены на какую-то другую (по причинам производительности или устаревания), нужно будет отредактировать только один файл с фасадом.
К примеру:
```
import { createBrowserHistory } from 'history';
class HistoryAPI {
protected history = createBrowserHistory({});
push(pathname: string): void {
this.history.push(pathname);
}
}
export default HistoryAPI;
```
### Мысль о том почему все так сложилось
Причина, почему на фронтенде сложилась такая плачевная ситуация с построением архитектуры, кроется в том, что изначально фронтенд был деталью для сервера - отображением его данных. И поэтому внутри него смешалась бизнес-логика и ее отображение. Но со временем фронт вырос в отдельную сущность и теперь его нужно писать так как и сервер, считая сервер деталью для архитектуры.
### Базовые принципы
Основные правила построения архитектуры - это то что она должна быть простой, отражать в себе сам смысл системы, когда она простая - в ней легче разобраться и внести изменения. Архитектура не копируется, а создается под нужды текущего приложения.
> **Сложность - враг стабильности**. Чем сложнее становится система, тем менее она стабильна. Чем менее она стабильна, тем она рискованнее и тем ниже оказывается уровень ее доступности.
>
>
Каждый компонент в архитектуре должен иметь свои зависимости, которые передаются ему в конструкторе. Это значит что компоненты не должны внутри создаваться с помощью `new`. Они могут создаваться только если они чистые, то есть не имеют никаких побочных эффектов. Если это необходимо, то можно передавать в компонент, зависимость в виде фабрики по конструированию объектов.
К примеру:
```
const netAPI = new NetAPI();
const newNoteRepository = new NetNoteRepository(netAPI);
const noteService = new NoteService(newNoteRepository);
```
У нас в архитектуре будут определенные "уровни", с учетом того, что у нас все приложение связано с обработкой данных, которые могут зависеть только от слоев выше по уровню:
1. **Структуры** - это простые структуры данных состоящие из массивов, объектов или примитивных типов. Для простоты можно сказать, что они должны удовлетворять условию JSON, благодаря этому их свободно можно передавать между уровнями, передавать по сети или где-то хранить;
2. **Обработчики структур** - это объекты, которые должны служить тому, как правильно заполнять структуры и проверять их валидность, то есть иметь методы для всего этого;
3. **Репозитории** (**Провайдеры данных**) - это объекты, которые используются для получения данных из внешних источников, такие как сеть, БД, специальные сущности браузера и т.п. Они должны отвечать за конструирование запросов на получения и реализовывать простые методы для доступа к получению данных;
4. **Сервисы** - это объекты, в которых будет содержаться вся основная логика для работы архитектуры. Они должны быть не зависимые друг от друга и иметь зависимости только от того что передано в них в конструкторе. К примеру сервис отвечающий за модальные окна, сервис отвечающий за страницы, сервис отвечающий за заметки и т.п.;
5. **Компонент приложения** - это компонент, в котором происходит связывание всех сервисов, назначение для них обработчиков и другая логика характерная приложению;
6. **Компонент входа** - это самый "грязный" компонент, в котором происходит создание всех объектов и передача их как параметров в другие объекты.
Не стоит создавать божественные объекты. Объекты должны отвечать за свою зону ответственности и делать только то, что подразумевает их название.
#### Разделение логики отображения и бизнес логики
Благодаря тому, что наша архитектура будет изолирована от отображения и внешнего взаимодействия, то отображение может быть у нее любым. К примеру с использованием реакта, консольного вывода, нативных компонентов и других источников вывода.
### Проектирование
Далее будет идти много картинок, на которых будет показано взаимодействие между уровнями и компонентами. Для примера я буду строить приложение для заметок.
#### Заметка о графиках
Для построения графиков, я буду использовать псевдоUML и раскрашивать компоненты с общим смыслом в определенный цвет.
#### Структуры
В основе всего лежат наши структуры данных, они должны представлять собой простые JSON. И должны с легкостью передаваться из компонента в компонент. В общем случае они представляют из себя интерфейс.
К примеру у нас есть:
```
interface Note {
id: string;
name: string;
description: string;
created: number;
tags: string[];
}
interface Filter {
including: string;
tags: string[];
}
interface User {
name: string;
role: 'user' | 'admin';
}
```
По хорошему - эти структуры должны создаваться только в рамках самой архитектуры, через определенные фабричные функции.
К примеру:
```
interface Factory {
makeNote(): Note;
makeFilter(): Filter;
}
```
#### Обработчики структур
Обработчики структур нужны для того, чтобы была возможность правильно управлять структурами, то есть: задавать значения полям, проверять валидность структуры и выполнять в зависимости от каких-то флагов определенные действия с ней.
К примеру:
```
interface NoteHandler {
note: Note;
setName(name: string): void;
setDescription(description: string): void;
addTag(tag: string): void;
removeTag(tag: string): void;
validate(): Errors;
}
```
Эти обработчики должны быть чистыми и тогда они могут использоваться по всему проекту.
#### Получение данных
Прежде чем рассуждать об объектах которые предоставляют приложению данные, нам нужно определить для них определенные вспомогательные объекты для работы с внешним API.
#### Вспомогательное API
Под Вспомогательным API подразумеваются определенные объекты, которые будут делать общую логику, к примеру использовать сеть, БД, хранилище в браузере и т.п.
К примеру:
```
interface NetAPI {
get(url: string): Promise;
post(url: string, data: D): Promise;
}
```
Благодаря этому мы можем реализовать внутри использование любых библиотек или API браузера.
В этом примере видно, что можно использовать либо библиотеку axios, либо браузерный fetch и наш код не заметит разницы, так как он будет зависеть только от интерфейса `NetAPI`.
#### Репозитории
Репозитории - это провайдеры данных, которые позволяют нам получать данные из внешних источников. Именно они отвечают за то, как правильно конструировать запросы к внешнему источнику.
К примеру:
```
interface NoteRepository {
loadNotes(filter: Filter): Promise;
save(note: Note): Promise;
}
```
Благодаря такому подходу, позволяется использовать данные из разных источников. К примеру, можно использовать `MockedNoteRepository` для локальной разработки без участия сервера.
Лучше сразу создавать асинхронные методы для того, чтобы их можно было применить для асинхронного кода, без переписывания кода, который использует этот репозиторий.
#### Сервисы, сервисы и еще раз сервисы
И вот тут вступает в наше дело сервисы, из которых будет состоять вся наша архитектура. Сервисы являются конкретными компонентами системы, которые реализуют основную логику и предоставляют через свой компонент методы и свойства для того, чтобы можно было получать какие-либо данные для отображения и методы для изменения данных в сервисе.
Для того, чтобы сервисы могли общаться между собой и сообщать другим компонентам, они должны реализовывать интерфейс, который используется для генерации событий и иметь подписчиков на эти события.
К примеру:
```
interface Emmitable {
on(event: K, cb: (event: E[K]) => void): void;
off(event: K, cb: (event: E[K]) => void): void;
emit(event: K, data: E[K]): void;
}
interface NoteEvents {
change: undefined;
notesChange: Note[];
filterChange: Filter;
}
class NoteService implements Emmitable {
noteRepository: NoteRepository;
notes: Note[] = [];
filter: Filter = {
including: '',
tags: [],
}
private callbacks: {
[K in keyof NoteEvents]?: ((event: NoteEvents[K]) => void)[];
} = {};
on(event: K, cb: (event: NoteEvents[K]) => void): void {
if (!this.callbacks[event]) {
this.callbacks[event] = [];
}
const callbacks = this.callbacks[event];
if (!Array.isArray(callbacks)) {
return;
}
callbacks.push(cb);
}
off(event: K, cb: (event: NoteEvents[K]) => void): void {
if (!this.callbacks[event]) {
return;
}
const callbacks = this.callbacks[event];
if (!Array.isArray(callbacks)) {
return;
}
const index = callbacks.findIndex((aCallback) => aCallback === cb);
if (index !== -1) {
callbacks.splice(index, 1);
}
}
emit(event: K, data: NoteEvents[K]): void {
setTimeout(() => {
if (!this.callbacks[event]) {
return;
}
const callbacks = this.callbacks[event];
if (!Array.isArray(callbacks)) {
return;
}
callbacks.forEach((callback) => {
callback(data);
});
}, 0);
}
constructor(noteRepository: NoteRepository) {
this.noteRepository = noteRepository;
}
loadNotes(): Promise {
return this.noteRepository
.loadNotes(this.filter)
.then((notes) => {
this.notes = notes;
this.emit('notesChange', this.notes);
this.emit('change', undefined);
return true;
});
}
saveNote(note: Note): Promise {
return this.noteRepository
.save(note)
.then(() => this.loadNotes());
}
setFilter(filter: Filter): void {
this.filter = filter;
this.emit('filterChange', this.filter);
this.loadNotes();
}
}
```
Реализацию интерфейса `Emmitable` можно вынести в отдельный класс и от него наследовать сервис, но тут показана базовая концепция того, как сервис устроен.
Теперь для того, чтобы понять, что у сервиса что-то меняется, нам необходимо будет на него подписаться. Базовое событие на все случаи изменения будет `change`. На конкретные изменения можно заводить свои события, к примеру `filterChange` будет происходить по изменению фильтра.
Маленькое замечание - сервис должен писаться, вне зависимости от фреймворка отображения - это касается модификации массивов и изменения свойств объектов.
В построении сервиса можно заметить, что он похож на подход MobX и можно его заменить им, но так не нужно делать, так как внешний код проникает внутрь самой архитектуры.
Внутри сервиса должны храниться и экспортироваться все необходимые для него типы и интерфейсы. Это не значит, что все должно содержаться в одном файле.
#### Компонент приложения
Компонент приложения в нашем случае будет состоять из двух частей:
1. Часть, которая объединяет все сервисы вместе - сервисы;
2. Часть - само приложение, которое принимает в качестве параметра сервисы и связывает их.
Полная архитектура:
#### Слияние все в приложение - Компонент входа
Компонент входа - это самый грязный компонент, обычно будет входной файл в наше приложение - `index.ts`. В нем будут подключаться все файлы и создаваться экземпляры репозиториев, внешних API, сервисов и самого приложения. Только в нем можно использовать `new`. В этом файле можно переопределить все, что необходимо для разных ситуаций. Этот компонент как конструктор Lego, в котором из деталек собирается все приложение.
К примеру:
```
const netAPI = new NetAPI();
const tokenGetter = new TokenGetter(netAPI);
const authNetAPI = new AuthNetAPI(tokenGetter);
const historyAPI = new HistoryAPI();
const services: Services = {
note: new NoteService(new NoteRepository(authNetAPI)),
modal: new ModalService(),
page: new PageService(historyAPI),
auth: new AuthService(new AuthRepository(netAPI)),
user: new UserService(new UserRepository(authNetAPI)),
};
const application = new Application(services, tokenGetter, authNetRequest);
```
На основании этого можно написать функцию, которая будет создавать тестовое окружение для тестирования или специальное окружение для разработки.
#### Сценарии
Так как все сервисы независимые друг от друга, то все сценарии использования будут выглядеть как отдельные функции, которые принимают сервисы в качестве параметра и вызывают определенную последовательность действий сервисов.
К примеру:
```
function saveNote(services: Services, note: Note): void {
services.note.saveNote(note)
.then(() => {
services.modal.setModal({
type: 'success',
title: 'Заметка успешно сохранена',
description: '',
onClose: () => {
services.modal.setModal(undefined);
},
});
services.page.setPage({
type: 'notes',
});
})
.catch(() => {
services.modal.setModal({
type: 'error',
title: 'Не удалось сохранить заметку',
description: '',
onClose: () => {
services.modal.setModal(undefined);
},
});
})
}
```
В этом подходе есть минус в том, что в каждой функции будет огромная зависимость в виде всех сервисов. И тогда для каждого вызова нужно будет передавать их все. Для избавления от этого можно создать объект с сценариями:
```
class Scenarios {
private services: Services;
constructor(services: Services) {
this.services = services;
}
saveNote(note: Note): void {
// ...
}
}
```
И использовать методы этого объекта.
#### Интеграция с реактом
Для того, чтобы реакт знал о сервисах - они передаются ему в качестве параметра в главный компонент, в файле `index.ts`:
```
const root = document.getElementById('root');
ReactDOM.render(, root);
```
Чтобы каждый компонент мог воспользоваться сервисом, их нужно обернуть в контекст:
```
export default React.createContext({} as Services);
```
Тогда главный компонент будет выглядеть так:
```
interface AppProps {
services: Services;
}
const App: FC = ({ services }) => {
return (
{}
);
};
```
Контекст затем можно использовать в виде хука:
```
export default function useService(service: K): Services[K] {
const services = useContext(ServiceContext);
return services[service];
}
```
И он в компоненте:
```
const NotesPage: FC = () => {
const noteService = useService('note');
const [notes, setNotes] = useState(noteService.notes);
useEffect(() => {
const onChange = () => {
setNotes(noteService.notes.concat());
};
noteService.on('change', onChange);
return () => {
noteService.off('change', onChange);
};
}, [noteService]);
// ...
}
```
В этой реализации, компоненты очень сильно связаны с сервисами и их можно разбить на:
* **сервисные компоненты** - компоненты, которые связана с получением данных из сервиса, назначением обработчиков и вызовом методов;
* **простые компоненты** - компоненты, которые не участвуют в связях с сервисах, а получают от них данные в виде параметров.
Такой подход позволит изолировано тестировать **простые компоненты**, без участия сервисов и контекста.
Если используется объект со сценариями, то его можно передать в реакт через контекст, по аналогии с сервисами.
### Плюсы и минусы
Плюсы данного подхода заключаются в том, что отображение отделено от архитектуры и это позволяет им развиваться не зависимо друг от друга. И в случае чего, у нас есть возможность перейти на другую библиотеку отображения без вреда нашей архитектуре.
Минусы данного подхода в том, что скорость разработки на начальном этапе медленная, по сравнению с использованием фреймворков или включения логики в слой отображения. На дальнейшем этапе проседание в скорости будет из-за того что необходимо будет создавать интерфейсы и их поддерживать.
### Заключение
В рамках статьи была разработана архитектура, которая независима, а все зависимости для нее скрыты за интерфейсами: браузер, фреймворки и библиотеки. Такая архитектура будет хорошо развиваться по мере роста приложения, так как она состоит из самостоятельных единиц, которые должны зависеть только от интерфейсов.
Рассмотренный пример построения приложения показывает лишь рекомендации и подход к построению своей архитектуры. Поэтому ваша архитектура должна быть именно ваша и зависеть от самого смысла приложения. | https://habr.com/ru/post/548666/ | null | ru | null |
# Введение в Javascript Source Maps
Вы когда-нибудь думали, как было бы здорово, если бы слитый в один файл и минифицированный яваскрипт код в production-окружении можно было удобно читать и даже отлаживать без ущерба производительности? Теперь это возможно, если использовать штуку под названием [source maps](https://docs.google.com/document/d/1U1RGAehQwRypUTovF1KRlpiOFze0b-_2gc6fAH0KY0k/edit?hl=en_US&pli=1&pli=1).
Если коротко, то это способ связать минифицированный/объединённый файл с файлами, из которых он получился. Во время сборки для боевого окружения помимо минификации и объединения файлов также генерируется файл-маппер, который содержит информацию об исходных файлах. Когда производится обращение к конкретному месту в минифицированном файле, то производится поиск в маппере, по которому вычисляется строка и символ в исходном файле. Developer Tools (WebKit nightly builds или Google Chrome Canary) умеет парсить этот файл автоматически и прозрачно подменять файлы, как будто ведётся работа с исходными файлами. На момент написания (*оригинальной статьи — прим. перев.*) Firefox заблокировал развитие поддержки Source Map. Подробнее — на [MozillaWiki Source Map](https://wiki.mozilla.org/DevTools/Features/SourceMap).
[Пример — правильное определение места в исходном коде](http://www.thecssninja.com/demo/source_mapping/)
В этом примере можно ткнуть в любом месте textarea правой кнопкой и выбрать пункт «Get original location». При этом будет произведено обращение к файлу-мапперу с передачей строки и номера символа в минифицированном коде, и будет показан соответствующий кусок кода из исходного файла. В консоль будут выведены номер строки и номер символа в исходном файле и другая интересная информация.

#### Реальное использование
Прежде чем смотреть следующий пример, нужно активировать просмотр source maps в Chrome Canary или WebKit nightly, для этого в свойствах активировать пункт «Enable source maps» (см. скриншот)

Продолжим. Предыдущий пример был интересным, но как это можно использовать? Зайдите на [dev.fontdragr.com](http://dev.fontdragr.com/) настроенным браузером Google Chrome и вы увидите, что яваскрипты на странице не скомпилированы и можно смотреть отдельные js-файлы. Это всё благодаря использованию маппера, а на самом деле код на странице скомпилирован. Все ошибки, выводы в лог и точки останова будут маппиться на исходный код, и отлаживать код будет очень удобно. В итоге можно работать с production-сайтом как с тестовым.
[Пример — посмотрите в консоль на fontdragr.com](http://dev.fontdragr.com)
#### Зачем вообще нужны Source Maps?
Сейчас маппинг работает только между исходными файлами и сжатой/объединённой версией, но ведутся разговоры о том, чтобы сделать маппинг для языков, компилируемых в JavaScript (например, CoffeeScript), и даже о поддержке CSS-препроцессоров, таких как SASS и LESS.
В будущем мы могли бы легко использовать почти любой язык, как если бы он поддерживался браузером нативно:
* CoffeeScript
* ECMAScript 6 и выше
* SASS/LESS и т.п.
* Практически любой язык, который компилируется в JavaScript
Посмотрите скринкаст, в котором CoffeeScript отлаживается в экспериментальной сборке консоли Firefox:
Google Web Toolkit (GWT) недавно добавил поддержку [Source Maps](http://code.google.com/p/google-web-toolkit/wiki/SourceMaps) и Ray Cromwell из GWT сделал отличный скринкаст, показывающий работу Source Map в действии.
Другой пример использует библиотеку Google [Traceur](http://code.google.com/p/traceur-compiler/), которая позволяет писать на ES6 (ECMAScript 6) и компилировать в ES3-совместимый код. Компилятор Traceur также генерирует source map. Посмотрите на [пример](http://www.thecssninja.com/demo/source_mapping/ES6/) использования особенностей ES6 (классов и traits), как если бы они поддерживались браузером нативно. Textarea в примере также позволяет писать ES6-код, который будет компилироваться на лету в ES3 и также будет создаваться файл-маппер.
[](http://www.thecssninja.com/demo/source_mapping/ES6/)
[Пример — можно написать код на ES6 и сразу посмотреть в отладчике](http://www.thecssninja.com/demo/source_mapping/ES6/)
#### Как это работает?
Единственный пока компилятор/минификатор с поддержкой Source Map — Closure compiler (как при компиляции сгенерировать маппер — написано ниже). При минификации JavaScript будет создан и файл-маппер. Пока Closure compiler не добавляет в конец файла специальный комментарий для Google Chrome Canary dev tools о том, что доступен файл-маппер:
```
//@ sourceMappingURL=/path/to/file.js.map
```
Такой комментарий позволяет браузеру искать нужное место в исходном файле, используя файл-маппер. Если идея использовать странные комментарии вам не нравится, то можно добавить к скомпилированному файлу специальный заголовок:
```
X-SourceMap: /path/to/file.js.map
```
Как и комментарий, это скажет клиенту, где искать маппер для этого файла. Использование заголовка также позволяет работать с языками, которые не поддерживают однострочные комментарии.

Файл-маппер будет скачан только если включено свойство и открыта консоль. Ну и конечно нужно будет залить исходные файлы, чтобы они были доступны по указанным в маппере путям.
#### Как сгенерировать файл-маппер?
Как уже говорилось выше, нужен будет [Closure compiler](https://developers.google.com/closure/compiler/) для минификаци, склейки и генерации файла-маппера для нужных JavaScript-файлов. Для этого нужно выполнить команду:
```
java -jar compiler.jar \
--js script.js \
--create_source_map ./script-min.js.map \
--source_map_format=V3 \
--js_output_file script-min.js
```
Нужные флаги — это `--create_source_map` и `--source_map_format`. Последний нужен, т.к. по умолчанию маппер создаётся в формате V2, а нам нужен V3.
#### Внутреннее устройство Source Map
Чтобы лучше понять Source Map, возьмём для примера небольшой файл-маппер и подробно разберём, как устроена «адресация». Ниже приведён немного модифицированный пример из [V3 spec](https://docs.google.com/document/d/1U1RGAehQwRypUTovF1KRlpiOFze0b-_2gc6fAH0KY0k/edit?hl=en_US&pli=1&pli=1):
```
{
version : 3,
file: "out.js",
sourceRoot : "",
sources: ["foo.js", "bar.js"],
names: ["src", "maps", "are", "fun"],
mappings: "AAgBC,SAAQ,CAAEA"
}
```
Можно заметить, что это обычный литерал объекта, содержащий всю нужную информацию:
* Версию маппера
* Название минифицированного/объединённого файла для production
* `sourceRoot` позволяет дописывать префикс в путь к исходным файлам
* `sources` содержит названия исходных файлов
* `names` содержит все настоящие названия переменных/функций из полученного файла
* а `mappings` — это соответствующие минифицированные названия
#### BASE64 VLQ или как сделать Source Map маленьким
Изначально в спецификации был описан очень подробный вывод всех зависимостей, что делало файл-маппер в 10 раз больше размером, чем сгенерированный файл. Вторая версия уменьшила размер файла вполовину, а третья версия — уменьшила ещё раз вполовину. Теперь для 133kB файла генерируется ~300kB файл-маппер. Как же удалось добиться такого уменьшения и при этом уметь отслеживать сложные зависимости?
Используется [VLQ](http://en.wikipedia.org/wiki/Variable-length_quantity) (Variable Length Quantity) и Base64-кодирование. Свойство `mappings` — это одна очень большая строка. Внутри этой строки точки с запятой (;) отделяют номера строк в сгенерированном файле. Внутри получившейся строки используются запятые для отделения сегментов кода. Каждый из сегментов представляет собой 1, 4 или 5 VLQ-полей. Некоторые могут быть длиннее за счёт бита продолжения. Каждый сегмент строится на основе предыдущего, что помогает уменьшить размер файла.

Как говорилось раньше, каждый сегмент может быть 1, 4 или пятью VLQ. На диаграмме показаны 4 VLQ с одним битом продолжения. Разберём её подробнее и покажем, как маппер вычисляет положение в исходном файле. Сегмент состоит из пяти вещей:
* Номер символа в сгенерированном файле
* Исходный файл
* Номер строки в исходном файле
* Номер символа в исходном файле
* Исходное название (если есть)
(*прим. перев.: не осилил до конца перевести эту часть статьи, полностью можно прочесть в оригинале; если есть желающие помочь — пишите, буду благодарен*)
#### Потенциальные проблемы с XSSI
В спецификации говорится о возможных проблемах с внедрением XSS при использовании Source Map. Избавиться от неё можно, написав в начале своего map-файла "`)]}`", чтобы сделать это js-файл невалидным и вызвать ошибку. WebKit dev tools уже умеет её забарывать:
```
if (response.slice(0, 3) === ")]}") {
response = response.substring(response.indexOf('\n'));
}
```
Как видно, первые три символа обрезаются и производится проверка их на соответствие указанному в спецификации невалидному коду и в этом случае вырезается всё до следующего символа перевода строки.
#### `@sourceURL` и `displayName` в действии: `eval` и анонимные функции
Эти два соглашения хотя пока и не входят в спецификацию Source Map, но позволяют серьёзно упростить работу с `eval` и анонимными функциями.
Первый хелпер очень похож на свойство `//@ sourceMappingURL` и вообще-то в спецификации (V3) упоминается. Включив этот специальный комментарий в код, который потом будет выполнен через `eval`, можно назвать `eval`-ы, что даст им более логичные имена при работе в консоли. Ниже приведён простой пример с использованием компилятора CoffeeScript:
[Пример — пропущенный через eval код со сгенерированным именем](http://www.thecssninja.com/demo/source_mapping/compile.html)

Другой хелпер позволяет давать имена анонимным функциям при помощи свойства `displayName`, указанного в контексте этой функции. Попрофилируйте [этот пример](http://www.thecssninja.com/demo/source_mapping/displayName.html), чтобы увидеть `displayName` в действии.
[`Пример — названия для анонимных функций через displayName` (только WebKit NIghtly)](http://www.thecssninja.com/demo/source_mapping/displayName.html)

При профилировании будут показываться красивые названия вместо `(anonymous function)`. Но скорее всего `displayName` не будет включён в финальную сборку Google Chrome. Хотя надежды ещё остаются, предлагают также переименовать свойство в [debugName](http://code.google.com/p/chromium/issues/detail?id=116220).
К моменту написания статьи присваивание названий коду, выполненному через `eval`, поддерживают только Firefox и Google Chrome. Свойство `displayName` доступно только в ночных сборках Google Chrome.
#### Вливайтесь
Есть очень длинное [обсуждение по поддержке Source Map в CoffeeScript](https://github.com/jashkenas/coffee-script/issues/558).
У UglifyJS также есть [тикет про поддержку Source Map](https://github.com/mishoo/UglifyJS/issues/315).
Вы можете помочь, если примете участие в обсуждении и выскажете мнение по поводу нужности поддержки Source Map. Чем больше будет инструментов, поддерживающих эту технологию, тем будет проще работать, так что требуйте её поддержки в вашем любимом OpenSource-проекте.
#### Source Map не идеален
Есть одна неприятность с использованием Source Map для нормальной отладки. Проблема заключается в том, что при попытке проверить значение аргумента или переменной, определённой в контексте исходного файла, контекст ничего не вернёт, т.к. он на самом деле не существует. Нужен какой-то обратный маппинг, чтобы проверить значение соответствующей переменной/аргумента в минифицированном коде и сопоставить его исходному коду.
Проблема решаемая, а при должном внимании к Source Map могут появиться ещё более интересные его применения.
#### Инструменты и ресурсы
* Nick Fitzgerald сделал форк [UglifyJS](https://github.com/fitzgen/UglifyJS/tree/source-maps) с поддержкой Source Map
* Paul Irish сделал простое [демо](http://dl.dropbox.com/u/39519/sourcemapapp/index.html) Source Map
* Conrad Irwin написал удобный [Source Map gem](https://github.com/ConradIrwin/ruby-source_map) для Ruby-разработчиков
* Что ещё почитать про [именование eval](http://blog.getfirebug.com/2009/08/11/give-your-eval-a-name-with-sourceurl/) и [свойство displayName](http://www.alertdebugging.com/2009/04/29/building-a-better-javascript-profiler-with-webkit/)
* Можно посмотреть [исходный код Closure Compiler](http://code.google.com/p/closure-compiler/source/browse/trunk/src/com/google/debugging/sourcemap/SourceMapGeneratorV3.java) создания Source Map
* Несколько скриншотов и разговор о поддержке [GWT source maps](https://plus.google.com/110412141990454266397/posts/iqXo5AyHkyd)
Source Map — мощный инструмент для разработчика. Он позволяет держать production-код максимально сжатым, но при этом позволяет его отлаживать. Так же полезен для начинающих разработчиков, чтобы посмотреть код, написанный опытными разработчиками, чтобы поучиться правильному структурированию и написанию своего кода без необходимости продираться сквозь минифицированный код. Так чего же вы ждёте? Сгенерируйте Source Map для своего проекта! | https://habr.com/ru/post/148098/ | null | ru | null |
# Простая Scada на Python (продолжение)
### Формирование динамических объектов мнемосхемы
Развивая тему [предыдущей статьи](https://habrahabr.ru/post/339008/), опишу некоторые функции для формирования объектов мнемосхемы простой SCADA программы выполненной на Python.
Объекты визуально отображают состояние аналоговых измеряемых величин из регистров
READ\_INPUT\_REGISTERS или READ\_HOLDING\_REGISTERS. Используется библиотека Tkinter.
Всего реализовано 3 объекта: горизонтальный слайдер, вертикальный слайдер и стрелочный индикатор. Отдельно описывается построение динамического тренда.
Горизонтальный слайдер
----------------------

Сперва необходимо создать объект canvas и получить на него ссылку.
Размещаться этот объект будет на уже созданном объекте root.
```
from Tkinter import *
#создаем родительский объект
root = Tk()
canv = Canvas(root,width=1900,height=950,bg="black",bd=0, highlightthickness=0, relief='ridge')
canv.place(x=0, y=25)
#создаем объект горизонтального слайдера
c = Canvas(root,width=400,height=50,bg="black")
#размещаем в координатах
c.place(x=10, y=20)
```
root — ссылка на родительский объект.
width=400 – ширина.
height=50 – высота.
bg=«black» – фон.
Теперь выполняется рисование элементов слайдера с помощью графических примитивов.
Но для того, чтобы выполнилось корректное рисование элементов лучше создать функцию.
```
def hMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
```
Здесь входные переменные:
nowValue — текущее измеренное значение.
x — координата Х.
y — координата Y.
widgLen — длина слайдера.
widgHigh — высота слайдера.
maxValue — максимально допустимое значение.
outerColor — цвет заполнения.
nameValue — название измеряемого значения.
**hMeterC**
```
def hMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen+50,height=widgHigh+40,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(widgLen) / float(maxValue)
mesureValue = devValue * nowValue
c.create_rectangle(1,1,widgLen,widgHigh,fill='black',outline=outerColor)
c.create_rectangle(2,2,int(mesureValue),widgHigh-1,fill='red',outline='red')
c.create_line(1,widgHigh,1,widgHigh+5,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh,widgLen,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/4,widgHigh,1+widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/2,widgHigh,1+widgLen/2 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen-widgLen/4,widgHigh,1+widgLen-widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_text(0,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='0')
c.create_text(widgLen -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(maxValue))
c.create_text(widgLen/2 -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/2)))
c.create_text(widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/4)))
c.create_text(widgLen-widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue-maxValue/4)))
c.create_text(widgLen/2 -10,widgHigh-8,font="Verdana 12",anchor="w",justify=CENTER,fill='white',text=str(int(nowValue)))
c.create_text(1,widgHigh+21,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=nameValue)
return (c,'hmeter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
```
При выполнении нижеприведенного кода, на экране в окне сформируется горизонтальный слайдер, заполненный на 25 процентов красным цветом и отображением текущего измеренного значения в середине или справа от слайдера.
Если это произошло, значит код работает без ошибок.
**Код программы.**
```
from Tkinter import *
def hMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen+50,height=widgHigh+40,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(widgLen) / float(maxValue)
mesureValue = devValue * nowValue
c.create_rectangle(1,1,widgLen,widgHigh,fill='black',outline=outerColor)
c.create_rectangle(2,2,int(mesureValue),widgHigh-1,fill='red',outline='red')
c.create_line(1,widgHigh,1,widgHigh+5,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh,widgLen,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/4,widgHigh,1+widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/2,widgHigh,1+widgLen/2 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen-widgLen/4,widgHigh,1+widgLen-widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_text(0,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='0')
c.create_text(widgLen -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(maxValue))
c.create_text(widgLen/2 -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/2)))
c.create_text(widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/4)))
c.create_text(widgLen-widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue-maxValue/4)))
c.create_text(widgLen/2 -10,widgHigh-8,font="Verdana 12",anchor="w",justify=CENTER,fill='white',text=str(int(nowValue)))
c.create_text(1,widgHigh+21,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=nameValue)
return (c,'hmeter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
root = Tk()
canv = Canvas(root,width=1900,height=950,bg="black")
canv.place(x=0, y=25)
analogFig=hMeterC(250,20,50,300,20,1000,'red','analog Meter')
root.mainloop()
```
Но это всего лишь статическое отображение объекта «горизонтального слайдера».
Необходимо добавить динамики. Для этого нужно использовать метод **root.after** и немного изменить функции отображения слайдера.
Функция **hMeterC** примет вид:
```
def hMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen+50,height=widgHigh+40,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
return (c,'hmeter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
```
То есть функция **hMeterC** будет возвращать массив параметров созданного объекта, а рисование графики будет осуществлять другая функция
**hMeter:**
```
def hMeter(c,nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(widgLen) / float(maxValue)
mesureValue = devValue * nowValue
c.create_rectangle(1,1,widgLen,widgHigh,fill='black',outline=outerColor)
c.create_rectangle(2,2,int(mesureValue),widgHigh-1,fill=outerColor,outline=outerColor)
c.create_line(1,widgHigh,1,widgHigh+5,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh,widgLen,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/4,widgHigh,1+widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/2,widgHigh,1+widgLen/2 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen-widgLen/4,widgHigh,1+widgLen-widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_text(0,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='0')
c.create_text(widgLen -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(maxValue))
c.create_text(widgLen/2 -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/2)))
c.create_text(widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/4)))
c.create_text(widgLen-widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue-maxValue/4)))
c.create_text(widgLen +10,widgHigh-8,font="Verdana 12",anchor="w",justify=CENTER,fill=outerColor,text=str(int(nowValue)))
c.create_text(1,widgHigh+21,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=nameValue)
```
Необходимо добавить еще функцию цикла **def jobMeter()** для **root.after**,
```
def jobMeter():
hMeter(c,nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
root.after(100, jobMeter)
```
Теперь код программы немного изменился.
**Код программы**
```
import time
from Tkinter import *
import random
def hMeter(c,nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(widgLen) / float(maxValue)
mesureValue = devValue * nowValue
c.create_rectangle(1,1,widgLen,widgHigh,fill='black',outline=outerColor)
c.create_rectangle(2,2,int(mesureValue),widgHigh-1,fill=outerColor,outline=outerColor)
c.create_line(1,widgHigh,1,widgHigh+5,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh,widgLen,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/4,widgHigh,1+widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/2,widgHigh,1+widgLen/2 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen-widgLen/4,widgHigh,1+widgLen-widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_text(0,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='0')
c.create_text(widgLen -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(maxValue))
c.create_text(widgLen/2 -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/2)))
c.create_text(widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/4)))
c.create_text(widgLen-widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue-maxValue/4)))
c.create_text(widgLen +10,widgHigh-8,font="Verdana 12",anchor="w",justify=CENTER,fill=outerColor,text=str(int(nowValue)))
c.create_text(1,widgHigh+21,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=nameValue)
def hMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen+50,height=widgHigh+40,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
return (c,'hmeter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
def jobMeter():
hMeter(analogFig[0],100,analogFig[2],analogFig[3],analogFig[4],analogFig[5],analogFig[6],analogFig[7],analogFig[8])
root.after(100, jobMeter)
root = Tk()
canv = Canvas(root,width=1900,height=950,bg="black")
canv.place(x=0, y=25)
analogFig=hMeterC(250,20,50,300,20,1000,'red','analog Meter')
root.after(100, jobMeter)
root.mainloop()
```
Каждую 0.1 секунды, объект слайдера будет обновляться, но нужно сказать,
что изменений никаких происходить не будет, потому что в переменной nowValue функции **hMeter** всегда присутствует неизменяемое значение 100.
Чтобы исправить эту ситуацию и продемонстрировать динамические свойства объекта предлагается воспользоваться библиотекой random и внести изменения в код.
```
import random
def jobMeter():
hMeter(analogFig[0],random.randint(30, 800),analogFig[2],analogFig[3],analogFig[4],analogFig[5],analogFig[6],analogFig[7],analogFig[8])
root.after(100, jobMeter)
```
Теперь будут очевидные изменения в положении слайдера.
Но в данном случае присутствуют два неприятных факта.
1. Созданный скрипт по объему занимает не так много памяти, но при выполнении объем занимаемой памяти увеличивается.
2. Цифры справа, отображающие текущее значение различить невозможно.
Это все объясняется просто.
Каждый раз при формировании нового измеренного значения на canvas происходит
перерисовка графических примитивов, но при этом старые элементы тоже сохраняются.
Происходит наложение новых элементов на предыдущие.
Чтобы избавиться от этого эффекта нужно добавить очистку canvas от старых элементов
в функцию **jobMeter()**.
```
def jobMeter():
analogFig[0].delete("all")
hMeter(analogFig[0],100,analogFig[2],analogFig[3],analogFig[4],analogFig[5],analogFig[6],analogFig[7],analogFig[8])
root.after(100, jobMeter)
```
Теперь память не увеличивается и цифры отображаются корректно.
Вертикальный слайдер
--------------------

Здесь все аналогично горизонтальному, только немного меняется конфигурация рисования примитивов.
**Функции.**
```
def vMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen+50,height=widgHigh+40,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
return (c,'vmeter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
def vMeter(c,nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(widgHigh) / float(maxValue)
mesureValue = devValue * nowValue
c.create_rectangle(1,1,widgLen,widgHigh,fill='black',outline=outerColor)
c.create_rectangle(widgLen-1,widgHigh,2,widgHigh-int(mesureValue),fill=outerColor,outline=outerColor)
c.create_line(widgLen,widgHigh,widgLen+10,widgHigh,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh/4,widgLen+10,widgHigh/4,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh/2,widgLen+10,widgHigh/2,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh-widgHigh/4,widgLen+10,widgHigh-widgHigh/4,width=1,fill=outerColor)
c.create_line(widgLen,1,widgLen+10,1,width=1,fill=outerColor)
c.create_line(widgLen+10,widgHigh,widgLen+10 ,widgHigh,width=1,fill=outerColor)
c.create_text(widgLen+12,widgHigh,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text='0')
c.create_text(widgLen+12,10,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue))
c.create_text(widgLen+12,widgHigh/2,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue/2))
c.create_text(widgLen+12,widgHigh-widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue/4))
c.create_text(widgLen+12,widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue-maxValue/4))
c.create_text(2,widgHigh+15,font="Verdana 12",anchor="w",justify=CENTER,fill=outerColor,text=str(nowValue))
```
Стрелочный прибор.
------------------

Для создания данного объекта придется импортировать библиотеку math, поскольку
используются математические функции sin и cos.
**Функции**
```
def aMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen,height=widgHigh,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
return (c,'ameter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
def aMeter(c,nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(180) / float(maxValue)
mesureValue = devValue * nowValue
x1 = widgLen/2
y1 = widgHigh/2 + 10
x2 = 10
y2 = widgHigh/2 + 10
angle = math.pi * int(mesureValue) / 180;
newx = ((x2-x1)*math.cos(angle)-(y2-y1)*math.sin(angle)) + x1
newy = ((x2-x1)*math.sin(angle)+(y2-y1)*math.cos(angle)) + y1
c.create_oval(1 , 1,widgLen-1 ,widgHigh-1,width=2,fill='black',outline=outerColor)
c.create_text(7,y1,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text='0')
c.create_text(widgLen-30,y1,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue))
c.create_text(widgLen/2-10,10,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue/2))
c.create_text(widgLen/8,widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue/4))
c.create_text(widgLen/2+widgLen/4,widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue-maxValue/4))
c.create_text(widgLen/2-20,widgHigh-40,font="Verdana 14",anchor="w",justify=CENTER,fill=outerColor,text=str(nowValue))
c.create_rectangle(0,widgHigh/2+18,widgLen ,widgHigh,fill='black',outline='black')
c.create_text(widgLen/2-20,widgHigh-40,font="Verdana 14",anchor="w",justify=CENTER,fill=outerColor,text=str(nowValue))
c.create_text(6,widgHigh-20,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(nameValue))
c.create_oval(x1 - 10, y1 - 10, x1+ 10,y1 + 10,fill=outerColor,outline=outerColor)
c.create_line(x1,y1,newx,newy,width=5,fill=outerColor)
```
Динамический график
-------------------

Последнее, о чем хотелось бы сказать так это построение динамического графика. Существует библиотека matplotlib, в которой реализовано много удобных инструментов для построения графиков, а также большое количество документации. Но я опишу простой способ создания динамического графика с помощью библиотеки tkinter.
Создание объекта выполняется аналогично предыдущих примеров, но вот показания должны передаваться в виде массива, где каждый новый элемент добавляется в конец методом append.
После этого происходит перерисовка объекта.
Допустим на отметке времени 0 имеется массив с последним измеренным значением (100),
при формировании новой метки времени будет добавлен новый элемент массива и в него записано новое измеренное значение, пусть это будет (110).
Получается приблизительно такая таблица.
0.0 с — (100)
0.1 с — (100,110)
0.2 с — (100,110,90)
0.3 с — (100,110,90,120)
0.4 с — (100,110,90,120,100)
и т.д.
При достижении количества элементов массива заданной величины,
массив обнуляется и процесс повторяется снова.
```
if(len(mesureValue) == 80):
mesureValue=None
mesureValue=[]
```
Таким образом кривая показаний доходит до конечной границы canvas объекта графика,
после этого значения обнуляются и процесс накопления данных в массиве повторяется.
Ниже приведен простой пример программы демонстрирующей работу всех вышеописанных объектов мнемосхемы.
**Код программы**
```
import time
from Tkinter import *
import random
import math
def hMeter(c,nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(widgLen) / float(maxValue)
mesureValue = devValue * nowValue
c.create_rectangle(1,1,widgLen,widgHigh,fill='black',outline=outerColor)
c.create_rectangle(2,2,int(mesureValue),widgHigh-1,fill=outerColor,outline=outerColor)
c.create_line(1,widgHigh,1,widgHigh+5,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh,widgLen,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/4,widgHigh,1+widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen/2,widgHigh,1+widgLen/2 ,widgHigh+5,width=1,fill=outerColor)
c.create_line(1+widgLen-widgLen/4,widgHigh,1+widgLen-widgLen/4 ,widgHigh+5,width=1,fill=outerColor)
c.create_text(0,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='0')
c.create_text(widgLen -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(maxValue))
c.create_text(widgLen/2 -10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/2)))
c.create_text(widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/4)))
c.create_text(widgLen-widgLen/4-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue-maxValue/4)))
c.create_text(widgLen +10,widgHigh-8,font="Verdana 12",anchor="w",justify=CENTER,fill=outerColor,text=str(int(nowValue)))
c.create_text(1,widgHigh+21,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=nameValue)
def hMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen+50,height=widgHigh+40,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
return (c,'hmeter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
def vMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen+50,height=widgHigh+40,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
return (c,'vmeter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
def vMeter(c,nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(widgHigh) / float(maxValue)
mesureValue = devValue * nowValue
c.create_rectangle(1,1,widgLen,widgHigh,fill='black',outline=outerColor)
c.create_rectangle(widgLen-1,widgHigh,2,widgHigh-int(mesureValue),fill=outerColor,outline=outerColor)
c.create_line(widgLen,widgHigh,widgLen+10,widgHigh,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh/4,widgLen+10,widgHigh/4,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh/2,widgLen+10,widgHigh/2,width=1,fill=outerColor)
c.create_line(widgLen,widgHigh-widgHigh/4,widgLen+10,widgHigh-widgHigh/4,width=1,fill=outerColor)
c.create_line(widgLen,1,widgLen+10,1,width=1,fill=outerColor)
c.create_line(widgLen+10,widgHigh,widgLen+10 ,widgHigh,width=1,fill=outerColor)
c.create_text(widgLen+12,widgHigh,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text='0')
c.create_text(widgLen+12,10,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue))
c.create_text(widgLen+12,widgHigh/2,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue/2))
c.create_text(widgLen+12,widgHigh-widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue/4))
c.create_text(widgLen+12,widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue-maxValue/4))
c.create_text(2,widgHigh+15,font="Verdana 12",anchor="w",justify=CENTER,fill=outerColor,text=str(nowValue))
def aMeterC(nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
c = Canvas(root,width=widgLen,height=widgHigh,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
return (c,'ameter',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue)
def aMeter(c,nowValue,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue):
if(nowValue > maxValue): nowValue=maxValue-1
devValue=float(180) / float(maxValue)
mesureValue = devValue * nowValue
x1 = widgLen/2
y1 = widgHigh/2 + 10
x2 = 10
y2 = widgHigh/2 + 10
angle = math.pi * int(mesureValue) / 180;
newx = ((x2-x1)*math.cos(angle)-(y2-y1)*math.sin(angle)) + x1
newy = ((x2-x1)*math.sin(angle)+(y2-y1)*math.cos(angle)) + y1
c.create_oval(1 , 1,widgLen-1 ,widgHigh-1,width=2,fill='black',outline=outerColor)
c.create_text(7,y1,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text='0')
c.create_text(widgLen-30,y1,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue))
c.create_text(widgLen/2-10,10,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue/2))
c.create_text(widgLen/8,widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue/4))
c.create_text(widgLen/2+widgLen/4,widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(maxValue-maxValue/4))
c.create_text(widgLen/2-20,widgHigh-40,font="Verdana 14",anchor="w",justify=CENTER,fill=outerColor,text=str(nowValue))
c.create_rectangle(0,widgHigh/2+18,widgLen ,widgHigh,fill='black',outline='black')
c.create_text(widgLen/2-20,widgHigh-40,font="Verdana 14",anchor="w",justify=CENTER,fill=outerColor,text=str(nowValue))
c.create_text(6,widgHigh-20,font="Verdana 10",anchor="w",justify=CENTER,fill=outerColor,text=str(nameValue))
c.create_oval(x1 - 10, y1 - 10, x1+ 10,y1 + 10,fill=outerColor,outline=outerColor)
c.create_line(x1,y1,newx,newy,width=5,fill=outerColor)
def hTrendC(x,y,widgLen,widgHigh,maxValue,outerColor,nameValue,trendKoef):
c = Canvas(root,width=widgLen+50,height=widgHigh+40,bg="black",bd=0, highlightthickness=0, relief='ridge')
c.place(x=x, y=y)
return (c,'htrend',x,y,widgLen,widgHigh,maxValue,outerColor,nameValue,trendKoef)
def hTrend(arrayData,arrayValue):
c,markErr,x,y,widgLen,widgHigh,maxValue,outerColor,nameValue,trendKoef=arrayData
c.create_rectangle(1,1,widgLen,widgHigh,fill='black',outline=outerColor)
c.create_line(50,widgHigh/2,widgLen-5,widgHigh/2,width=0.1,fill='white',dash=(4, 2))
c.create_line(50,widgHigh/4,widgLen-5,widgHigh/4,width=0.1,fill='white',dash=(4, 2))
c.create_line(50,widgHigh - widgHigh/4,widgLen-5,widgHigh -widgHigh/4,width=0.2,fill='white',dash=(4, 2))
c.create_text(10,widgHigh-10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=0)
c.create_text(10,12,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(maxValue))
c.create_text(10,widgHigh/2,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/2)))
c.create_text(10,widgHigh/4,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue-maxValue/4)))
c.create_text(10,widgHigh - widgHigh/4 ,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(int(maxValue/4)))
c.create_text(1,widgHigh+25,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=nameValue)
c.create_text(widgLen/10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='1')
c.create_text((widgLen/10)*2,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='2')
c.create_text((widgLen/10)*3,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='3')
c.create_text((widgLen/10)*4,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='4')
c.create_text((widgLen/10)*5,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='5')
c.create_text((widgLen/10)*6,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='6')
c.create_text((widgLen/10)*7,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='7')
c.create_text((widgLen/10)*8,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='8')
c.create_text((widgLen/10)*9,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='9')
c.create_text(widgLen-10,widgHigh+10,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text='100')
oldy=widgHigh - float(widgHigh)/float(maxValue) * arrayValue[0] * int(trendKoef)
oldx=5
xval=0
for counter in range(0,len(arrayValue)):
val=arrayValue[counter]
yval=widgHigh - float(widgHigh)/float(maxValue) * val * int(trendKoef)
xval+=10
c.create_line(oldx,oldy,xval,yval,width=1.5,fill='green')
oldy=yval
oldx=xval
mesureValue = arrayValue[len(arrayValue)-1 ] * int(trendKoef)
c.create_line(xval,widgHigh-10,xval,0,width=0.5,fill='white')
c.create_text(xval+10,yval,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=str(mesureValue))
c.create_text(xval+10,yval+20,font="Verdana 10",anchor="w",justify=CENTER,fill='white',text=time.strftime('%H:%M:%S'))
def jobMeter():
global mesureValue
analogFig[0].delete("all")
analogVertical[0].delete("all")
analogString[0].delete("all")
hMeter(analogFig[0],random.randint(30, 800),analogFig[2],analogFig[3],analogFig[4],analogFig[5],analogFig[6],analogFig[7],analogFig[8])
vMeter(analogVertical[0],random.randint(30, 800),analogVertical[2],analogVertical[3],analogVertical[4],analogVertical[5],analogVertical[6],analogVertical[7],analogVertical[8])
aMeter(analogString[0],random.randint(30, 800),analogString[2],analogString[3],analogString[4],analogString[5],analogString[6],analogString[7],analogString[8])
lenVal = len(mesureValue)+1
mesureValue.append(lenVal)
mesureValue[lenVal-1] = random.randint(30, 800)
trend[0].delete("all")
hTrend(trend,mesureValue)
if(len(mesureValue) == 80):
mesureValue=None
mesureValue=[]
root.after(100, jobMeter)
root = Tk()
canv = Canvas(root,width=1900,height=950,bg="black")
canv.place(x=0, y=25)
analogFig=hMeterC(250,20,50,300,20,1000,'red','analog Meter')
analogVertical=vMeterC(250,42,150,30,200,1000,'red','analog Meter')
analogString=aMeterC(250,200,150,150,150,1000,'green','analog Meter')
global mesureValue
mesureValue=[]
trend=hTrendC(450,28,800,400,1000,'green','analog', '1')
root.after(1, jobMeter)
root.mainloop()
```
Больше примеров можно посмотреть [здесь](http://scadapy.ln-group.ru) | https://habr.com/ru/post/339678/ | null | ru | null |
# Big O нотация в Swift
Что такое Big O нотация?
------------------------
Обозначение Big O нотация (или просто Big O) — это способ оценки относительной производительности структуры данных или алгоритма, обычно по двум осям: времени и пространству.
Доминирующие операции
---------------------
Способ, которым мы определяем Big O алгоритмов, заключается в том, чтобы посмотреть на худшую производительность в его доминирующих операциях.
Постоянное время - O(1)
-----------------------
```
func constantTime(_ n: Int) -> Int {
let result = n * n
return result
}
```
Алгоритмы, без цикла(например: for-in) или алгоритмы которые просто возвращают результат какого-то простого вычисления, имеют «постоянное время» или «O(1)». Это означает, что эти операции очень быстрые.
Линейное время - O(n)
---------------------
```
func linearTime(_ A: [Int]) -> Int {
for i in 0..
```
Как только производительность алгоритма становится зависимой от размера передаваемых входных данных, мы больше не можем говорить, что он имеет «постоянное время». Если время, необходимое для обработки, представляет собой прямую линию, мы называем это «линейным временем». Это означает, что время, которое требуется, прямо пропорционально размеру ввода.
> Несмотря на то, что цикл может вернуться немедленно, если первое значение массива равно нулю, при оценке Big O мы всегда ищем производительность в худшем случае. Это все еще O(n) даже с лучшим случаем O(1).
>
>
Логарифмическое время - O(log n)
--------------------------------
```
func logarithmicTime(_ N: Int) -> Int {
var n = N
var result = 0
while n > 1 {
n /= 2
result += 1
}
return result
}
```
Такие алгоритмы, как Двоичные Деревья Поиска (Бинарные Деревья Поиска), очень быстры, потому что они половинят свои результаты каждый раз, когда ищут результат. Это деление пополам является логарифмическим, которое мы обозначаем как "O(log n)".
Квадратичное время - O(n^2)
---------------------------
```
func quadratic(_ n: Int) -> Int {
var result = 0
for i in 0..
```
Когда вы встраиваете один цикл for-in в другой, вы получаете квадратичный эффект, применяемый к вашему алгоритму, который может сильно замедлить работу. Это нормально для получения правильного ответа, просто они не самые производительные.
График, представленный ниже поможет лучше разобраться в производительности алгоритмов
Алгоритмы, попадающие в нижний правый угол (O(1), O(logn)) считаются очень хорошими. Линейное время O(n) неплохо. Но все, что выше этого, не считается очень производительным(быстрым), например, O(n^2).
Затраты памяти
--------------
До сих пор все, что мы рассматривали, имело отношение ко времени. И когда мы говорим о Big O, мы обычно имеем в виду временную сложность. Но есть и другая сторона медали - память. Мы оцениваем затраты памяти также так же, как и время, в том смысле, что при оценке затрат памяти алгоритма мы смотрим, сколько объявлено переменных и их относительная стоимость. Простые объявления переменных — O(1). В то время как массивы и другие структуры данных относительного размера или O(n).
Меняем память на время
----------------------
Одно из самых больших улучшений, которые мы можем сделать в алгоритмах, — это поменять память на время. Возьмем, к примеру, типичный вопрос на собеседовании:
> Имея два массива, создайте функцию, которая позволит пользователю узнать, содержат ли эти два массива какие-либо общие элементы.
>
>
Грубым способом ответить на этот вопрос было бы перебрать каждый элемент в обоих массивах, пока не будет найдено совпадение. Очень эффективно с точки зрения памяти. Медленно с точки зрения времени O(n^2).
```
// Простое(грубое) решение O(n^2)
func commonItemsBrute(_ A: [Int], _ B: [Int]) -> Bool {
for i in 0..
```
С другой стороны, если пожертвовать памятью, мы могли бы улучшить время, если бы создали хэш-карту одного массива, а затем использовали ее для быстрого поиска ответа в другом.
```
// Конвертируем в хэш и поищем по индексу
func commonItemsHash(_ A: [Int], _ B: [Int]) -> Bool {
// Используем цикл но уже не вложенный в другой цикл,
//как было ранее - O(2n) vs O(n^2)
var hashA = [Int: Bool]()
for a in A { // O(n)
hashA[a] = true
}
//Теперь посмотрим в хэше, есть ли там элементы B.
for b in B {
if hashA[b] == true {
return true
}
}
return false
}
commonItemsHash([1, 2, 3], [4, 5, 6])
commonItemsHash([1, 2, 3], [3, 5, 6])
```
Вот пример такого обмена памяти на время. Первый вариант не требовал дополнительного места, но с точки зрения времени это было очень медленно. Заняв немного памяти (дополнительная хэш-карта), мы выиграли много времени и в результате получили гораздо более быстрый алгоритм (O(n)). | https://habr.com/ru/post/645723/ | null | ru | null |
# Разработка интерактивной карты распространения коронавируса типа 2019-nCoV на Python
Коронавирус типа 2019-nCoV, после вспышки заболевания в китайском городе Ухань, стремительно распространяется по миру. На момент написания оригинальной статьи (30 января 2020 года) сообщалось о более чем 9000 заражённых и о 213 умерших, на сегодня (10 февраля 2020 года) сообщается уже о 40570 зараженных, 910 человек умерло. Случаи заражения коронавирусом выявлены во Франции, в Австралии, в России, в Японии, в Сингапуре, в Малайзии, в Германии, в Италии, в Шри-Ланке, в Камбодже, в Непале и во многих других странах. Никто не знает о том, когда вирус будет остановлен. Пока же число подтверждённых случаев коронавируса лишь растёт.
Автор статьи, перевод которой мы сегодня публикуем, хочет рассказать о том, как, с использованием Python, создать простое приложение для отслеживания распространения коронавируса. После завершения работы над этим приложением в распоряжении читателя окажется HTML-страница, которая выводит карту распространения вируса и ползунок, который позволяет выбирать дату, по состоянию на которую данные выводятся на карту.
[](https://habr.com/ru/company/ruvds/blog/487688/)
*Интерактивная карта распространения коронавируса типа 2019-nCoV*
Здесь будут использованы такие технологии, как Python 3.7, Pandas, Plotly 4.1.0 и Jupyter Notebook.
Импорт библиотек
----------------
Начнём работу с импорта в проект, основанный на Jupyter Notebook, библиотек Plotly и Pandas.
```
import plotly.offline as go_offline
import plotly.graph_objects as go
import pandas as pd
```
Прежде чем двигаться дальше — попробуйте запустить код. Если вы не увидели сообщений об ошибках — значит все необходимые библиотеки у вас установлены и работают правильно. Если код запустить не удалось — загляните на официальные страницы [Plotly](https://plot.ly/python/) и [Pandas](https://pandas.pydata.org/) и почитайте справочные материалы и материалы по установке этих библиотек. Если у вас нет системы Jupyter Notebook, работающей на вашем аппаратном обеспечении — рекомендую воспользоваться [Google Colab](https://colab.research.google.com/) — облачной платформой, позволяющей работать с Jupyter Notebook.
Обработка данных
----------------
Данные, которыми мы тут пользуемся, можно найти [здесь](https://docs.google.com/spreadsheets/d/18X1VM1671d99V_yd-cnUI1j8oSG2ZgfU_q1HfOizErA/edit#gid=0). Это — расшаренная таблица из документов Google, которая ежедневно обновляется. Огромное спасибо всем тем, кто поддерживает её в актуальном состоянии! Вы делаете очень нужную работу.
Мы будем читать данные, используя метод Pandas `read_csv`. Но прежде чем загружать данные из таблицы, воспользовавшись ссылкой на неё, нам нужно поработать с этой ссылкой. Сейчас она выглядит так:
`https://docs.google.com/spreadsheets/d/18X1VM1671d99V_yd-cnUI1j8oSG2ZgfU_q1HfOizErA/**edit#gid=0**`
Нам нужно заменить выделенный фрагмент ссылки, приведя ссылку к такому виду:
`https://docs.google.com/spreadsheets/d/18X1VM1671d99V_yd-cnUI1j8oSG2ZgfU_q1HfOizErA/**export?format=csv&id**`
В следующем коде мы инициализируем переменную `url`, записывая в неё ссылку на данные, читаем данные с использованием метода `read_csv` и записываем в пустые ячейки, содержащие `NaN`, значения `0`.
```
url='https://docs.google.com/spreadsheets/d/18X1VM1671d99V_yd-cnUI1j8oSG2ZgfU_q1HfOizErA/export?format=csv&id'
data=pd.read_csv(url)
data=data.fillna(0)
```
Понимание того, как устроены структуры данных, которые мы используем, чрезвычайно важно на данном шаге работы, так как это определяет то, какой подход к обработке данных мы применим. Просмотрим данные, воспользовавшись командой `data.head()`. Это приведёт к выводу первых 5 строк таблицы.

*Первые 5 строк данных по коронавирусу*
В левом нижнем углу можно видеть сведения о том, что в таблице данных имеется 47 столбцов. Вот имена первых пяти столбцов: `country`, `location_id`, `location`, `latitude` и `longitude`. Другие столбцы представляют собой пары, имена которых построены по следующей схеме: `confirmedcase_dd-mm-yyyy` и `deaths_dd-mm-yyyy`. Общее число столбцов в таблице на момент написания этого материала было 47. Это означает, что в моём распоряжении были данные за 21 день ((47-5)/2=21). Если начальной датой сбора данных было 10.01.2020, то конечной датой было 30.01.2020.
Имена первых пяти столбцов таблицы не меняются, но с течением времени в таблицу будут добавляться колонки с новыми именами. То, что будет выводить наша интерактивная карта, представляет собой визуализацию распространения коронавируса с возможностью указания дня, по данным которого формируется карта. Поэтому нам нужно разделить весь набор данных, выбрав из него сведения по каждому дню и учитывая то, что первые 5 столбцов таблицы не меняются, и то, что каждый день описывается двумя столбцами. Затем, если внимательнее присмотреться к данным, например — к данным за 10.01.2020, то окажется, что этой дате соответствует множество строк. На самом деле, на эту дату обнаружение коронавируса было подтверждено лишь в одном месте, что отмечено соответствующим числом. Во всех других строках на эту дату содержатся лишь нули. Это означает, что нам нужно исключить эти строки из процесса построения карты.
Процесс подготовки данных к визуализации производится в цикле.
```
#Инициализация некоторых переменных
fig=go.Figure()
col_name=data.columns
n_col=len(data.columns)
date_list=[]
init=4
n_range=int((n_col-5)/2)
#Цикл, в котором производится разбор данных и подготовка их к визуализации
for i in range(n_range):
col_case=init+1
col_dead=col_case+1
init=col_case+1
df_split=data[['latitude','longitude','country','location',col_name[col_case],col_name[col_dead]]]
df=df_split[(df_split[col_name[col_case]]!=0)]
lat=df['latitude']
lon=df['longitude']
case=df[df.columns[-2]].astype(int)
deaths=df[df.columns[-1]].astype(int)
df['text']=df['country']+'
'+df['location']+'
'+'confirmed cases: '+ case.astype(str)+'
'+'deaths: '+deaths.astype(str)
date_label=deaths.name[7:17]
date_list.append(date_label)
#Настройка графика Scattergeo
fig.add_trace(go.Scattergeo(
name='',
lon=lon,
lat=lat,
visible=False,
hovertemplate=df['text'],
text=df['text'],
mode='markers',
marker=dict(size=15,opacity=0.6,color='Red', symbol='circle'),
))
``` | https://habr.com/ru/post/487688/ | null | ru | null |
# uptodate.js — библиотека для автообновления элементов времени
Как часто Вы используете конструкции вида «5 минут назад», «Полчаса назад» на вашем сайте? А что если пользователь открыл вкладку и забыл про нее на пару часов? «5 минут назад» явно теряет свою актуальность.
Именно для того чтобы исправить это досадное недоразумение служит uptodate.js

#### Использование
1. **Подготовьте таймстемпы в контенте.**
По-умолчанию uptodate берет значение из аттрибута *data-time* который должен содержать timestamp (number of milliseconds since epoch (00:00:00 UTC on 1970 January 1970))
Например
```
Posted:
4 minutes ago
```
2. **Внедрите библиотеку.**
Всего навсего нужно вызвать единственный метод uptodate()
Вы можете передать опциональные параметры в вызов, список которых доступен [на офсайте](http://prezjordan.github.io/uptodate/)
Например:
```
<script type="text/javascript">
window.onload = function() {
uptodate();
};
```
[Офсайт](http://prezjordan.github.io/uptodate/) | [Github](https://github.com/prezjordan/uptodate/)
P.S. Для того чтобы либa работала с русский языком необходимо в параметрах передавать кастомный метод time\_ago\_in\_words: <https://github.com/prezjordan/uptodate/blob/master/uptodate.js#L69>
P.S.S. [datacompboy](http://habrahabr.ru/users/datacompboy/) подсказал аналог — либу timeago, в состав которой уже входит русская локализация. [Офсайт](http://timeago.yarp.com/) | [Github](https://github.com/rmm5t/jquery-timeago) | https://habr.com/ru/post/178427/ | null | ru | null |
# Несколько интересностей и полезностей для веб-разработчика #40
Доброго времени суток, уважаемые хабравчане. За последнее время я увидел несколько интересных и полезных инструментов/библиотек/событий, которыми хочу поделиться с Хабром.
#### [NativeScript](https://github.com/NativeScript/NativeScript)
[](https://github.com/NativeScript/NativeScript)
Открытый фреймворк для создания мобильных приложений под iOS, Android и Windows Phone основанный на NodeJS. И весь цимус в том, что это не очередная кроссплатформенная оболочка над WebView (аля PhoneGap), NativeScript со слов разработчиков обеспечивает на JavaScript такие же возможности, какие обеспечивают нативные Objective-C, Java или .NET.
Также хочу упомянуть о [NW.js](https://github.com/nwjs/nw.js), который до появления IO.js назывался Node-Webkit. Проект по такому же принципу позволяет писать десктопные приложения под Windows, Mac и Linux с помощью веб-технологий. Более того микроконтроллеры, умные дома, интернет вещей, Oculus Rift, Nest выпускают API на JS. Вспоминая все эти новости, хочется сказать, что JavaScript все чаще и чаще представляется как унифицированное средство для кроссплатформенной разработки.
#### [Doppler.js](https://github.com/DanielRapp/doppler)
Вероятнее всего, на текущий момент проект не обладает никакой практической ценностью, но безусловно дико интересен как пример реализации эффекта Допплера с помощью Web Audio API. Суть заключается в том, что анализируя звуковые волны можно управлять интерфейсом. На демо страничке махом руки над микрофоном вы можете выполнять скролл.
#### [Swiper.js](https://github.com/nolimits4web/swiper/)
[](https://github.com/nolimits4web/swiper/)
Превосходный слайдер заточенный строго для работы с мобильными сайтами или веб приложениями. Swiper обеспечивает аппаратное ускорение анимации на уровне нативного. Проект за несколько дней собрал более 3000 звезд на GitHub.
```
Slide 1
Slide 2
Slide 3
...
```
```
var mySwiper = app.swiper('.swiper-container', {
speed: 400,
spaceBetween: 100
});
```
#### [Slideout.js](https://github.com/Mango/slideout)
[](https://github.com/Mango/slideout)
Самый легкий способ сделать выпадающее боковое меню для мобильного сайта. Slideout не зависит от сторонних библиотек, просто в кастомизации и весит всего 4кб.
```
Menu
----
Panel
-----
```
```
var slideout = new Slideout({
'panel': document.getElementById('panel'),
'menu': document.getElementById('menu'),
'padding': 256,
'tolerance': 70
});
```
#### [SVGOMG](https://github.com/jakearchibald/svgomg) — SVGO GUI
[](https://github.com/jakearchibald/svgomg)
#### Западные мысли или что стоило бы перевести на Хабре:
* [How to Create (Animated) Text Fills](http://tympanus.net/codrops/2015/02/16/create-animated-text-fills/)
* [Things I've Learned About Sending Email, for Web Designers and Developers](http://www.leemunroe.com/sending-email-designers-developers/)
* [Introducing node-firefox](https://hacks.mozilla.org/2015/02/introducing-node-firefox/)
* [Embracing Promises in JavaScript](http://javascriptplayground.com/blog/2015/02/promises/)
* [Improving the Performance of your HTML5 App](http://www.html5rocks.com/en/tutorials/speed/html5/)
* [Designers: Start Coding With uilang](http://www.smashingmagazine.com/2015/02/11/designers-start-coding-with-uilang/)
* [TimelineMax: A Primer](http://webdesign.tutsplus.com/tutorials/timelinemax-a-primer--cms-23064)
* [Terrible JavaScript Mistakes To Avoid With A Static Code Analyzer](http://www.smashingmagazine.com/2015/02/18/avoid-javascript-mistakes-with-static-code-analyzer/)
* [Making the case for Progressive Javascript](https://medium.com/the-thinkmill/making-the-case-for-progressive-javascript-a98dfa82b9d7)
* [Making a Single Page App Without a Framework](http://tutorialzine.com/2015/02/single-page-app-without-a-framework/)
* [Using ServiceWorker in Chrome today](http://jakearchibald.com/2014/using-serviceworker-today/)
* [Style Guide Generator Roundup](http://alistapart.com/blog/post/style-guide-generator-roundup/)
* [60fps on the mobile web](http://engineering.flipboard.com/2015/02/mobile-web/)
* [Printing Medium stories](https://medium.com/designing-medium/printing-medium-stories-89f381b903c9)
* [Design Last](http://www.smashingmagazine.com/2015/02/20/design-last/)
#### Говорят и показывают отечественные ИТ ресурсы:
* [«Принципы написания однородного HTML»](http://forwebdev.ru/html/principles-for-writing-idiomatic-html/)
[«Используем requestAnimationFrame»](http://forwebdev.ru/javascript/using-requestanimationframe/) от Forwebdev.
* [«Производительность CSS-анимаций: нерассказанная история»](http://css-live.ru/articles/proizvoditelnost-css-animacij-nerasskazannaya-istoriya-s-kommentariyami-pola-ajrisha.html) от CSS Live.
* [«Все, что вам нужно знать о CSS-свойстве will-change»](http://frontender.info/css-will-change-property/) от Frontender.info.
* [«Если вы решили перейти с PHP на Python, то к чему следует подготовиться»](http://habrahabr.ru/company/wargaming/blog/221035/) от [gnomeby](https://habrahabr.ru/users/gnomeby/)
* [«Ресайз картинок в браузере. Все очень плохо»](http://habrahabr.ru/post/252175/) от [homm](https://habrahabr.ru/users/homm/)
* [«30 чудных библиотек для PHP программистов»](http://habrahabr.ru/post/252851/) от [mnv](https://habrahabr.ru/users/mnv/)
* [«Делаем онлайн-кинотеатр для слепых (WCAG 2.0 AAA)»](http://habrahabr.ru/post/250539/) от [gsuvorov](https://habrahabr.ru/users/gsuvorov/)
* [«Общение скриптов из разных вкладок браузера»](http://habrahabr.ru/post/250891/) от [SLY\_G](https://habrahabr.ru/users/sly_g/)
* [«Пишем плагин для October CMS»](http://habrahabr.ru/post/250415/) от [ivaaaan](https://habrahabr.ru/users/ivaaaan/)
* [«Визуализируй это»](http://habrahabr.ru/post/251755/) от [karmatsky](https://habrahabr.ru/users/karmatsky/)
* [«Количественные CSS селекторы»](http://habrahabr.ru/post/252181/) от [alspaladin](https://habrahabr.ru/users/alspaladin/)
* [«Магия одного div. Мастеркласс от создателя a.singlediv.com»](http://habrahabr.ru/company/paysto/blog/251933/) от [Irina\_Ua](https://habrahabr.ru/users/irina_ua/)
* [«Верстка email рассылок от А до Я для чайников»](http://habrahabr.ru/post/252279/) от [Varhal](https://habrahabr.ru/users/varhal/)
* [«Введение в Apache Spark»](http://habrahabr.ru/post/250811/) от [akrot](https://habrahabr.ru/users/akrot/)
* [«Перезапуск демона на PHP без потери соединений к нему»](http://habrahabr.ru/company/badoo/blog/252809/) от [youROCK](https://habrahabr.ru/users/yourock/)
* [«Как это работает: архитектура тайлового бэкенда карт «Спутника»»](http://habrahabr.ru/company/rostelecom/blog/252921/) от [jonik](https://habrahabr.ru/users/jonik/)
#### Напоследок:
* **HTML/CSS**
+ [Flexbox in 5 minutes](http://flexboxin5.com/)
+ [CSSNext](https://github.com/cssnext/cssnext) — конвертирует завтрашний CSS в сегодняшний.
+ [ai2html](https://github.com/newsdev/ai2html) — скрипт для конвертации Adobe Illustrator файлов в HTML.
+ [RIN](http://sanographix.github.io/rin/) — еще один шаблон на основе Gulp, SASS с Live Reload и прочим.
* **JavaScript**
+ [Крутой тест на знание JavaScript](http://bakhirev.biz/demo/fdconf/) от хабраюзера [bakhirev](https://habrahabr.ru/users/bakhirev/).
+ [Cheerio](https://github.com/cheeriojs/cheerio) — быстрая и гибкая реализация ядра jQuery для серверной части.
+ [underlineJS](https://github.com/wentin/underlineJS) — более изящный способ нижнего подчеркивания текста.
+ [Alasql.js](https://github.com/agershun/alasql) — клиентская SQL-подобная БД с поддержкой localStorage, IndexedDB и Excel.
+ [Yaspeller](https://github.com/hcodes/yaspeller) — утилита для проверки опечаток в тексте на основе Яндекс.Спеллера.
+ [lz-string](https://github.com/pieroxy/lz-string) — LZ-based compression algorithm.
+ [Msngr.js](https://github.com/KrisSiegel/msngr.js) — миниатюрная библиотека для разработки месенджеров.
+ [Stickshift](https://github.com/mapbox/stickshift) — простой и удобный интерфейс для работы с SQL.
* **PHP**
+ [PHP Must Watch](https://github.com/phptodayorg/php-must-watch) — коллекция лучших видео с лекций и конференция по PHP.
+ [Mondrian](https://github.com/Trismegiste/Mondrian) — инструмент для статического анализа кода, основанный на Graph Theory.
+ [Regexpbuilderphp](https://github.com/gherkins/regexpbuilderphp) — human-readable regular expressions для PHP 5.3+.
* **Python**
+ [Flashlight](https://github.com/nate-parrott/Flashlight) — потрясающий проект, которые преображает Spotlight на вашем Mac.[](https://github.com/nate-parrott/Flashlight)
+ [Mkcast](https://github.com/KeyboardFire/mkcast) — отличный инструмент для создания Gif скринкастов.
+ [Vim Hackernews](https://github.com/ryanss/vim-hackernews) — читаем HN с помощью Vim.
* **Ruby**
+ [Merit](https://github.com/tute/merit) – гем для системы репутации в Rails (бейджики, очки, достижения).
+ [Релиз Ruby 2.2.1](https://www.ruby-lang.org/en/news/2015/03/03/ruby-2-2-1-released/)
+ [Реализуем Энигму](http://red-badger.com/blog/2015/02/23/understanding-the-enigma-machine-with-30-lines-of-ruby-star-of-the-2014-film-the-imitation-game/) (шифровальную машину времён второй мировой) на Ruby.
+ [Почему блоки тормозят методы на 439%](https://www.omniref.com/ruby/2.2.0/symbols/Proc/yield#annotation=4087638&line=711&hn=1).
+ [Пишем CLI приложения с помощью GLI](http://blog.lunarlogic.io/2015/how-to-write-command-line-applications-in-ruby-with-gli/).
+ [Об опасностях openuri](http://sakurity.com/blog/2015/02/28/openuri.html).
* **Go**
+ [Gore](https://github.com/motemen/gore) – красивый REPL для Go.
+ [Gosms](https://github.com/haxpax/gosms) — ваш собственный локальный SMS шлюз.
+ [Termui](https://github.com/gizak/termui) — библиотека для создания CL дашбордов.
+ [OS](https://github.com/rancherio/os) — самый простой способ использования Docker в продакшене.
* **Разное**
+ [oh-my-git](https://github.com/arialdomartini/oh-my-git) — улучшаем зрительное восприятие CL при работе с Git.[](https://github.com/arialdomartini/oh-my-git)
+ [Релиз Passenger 5.0.4](https://blog.phusion.nl/2015/03/12/passenger-5-0-4/) – теперь можно использовать в продакшене.
+ [GTA2-WebGL](https://github.com/Kajakklubben/gta2-webgl) — проект, цель которого портировать GTA2 в веб.
За помощь в подготовке материала выражаю огромную благодарность Александру Маслову [drakmail](https://habrahabr.ru/users/drakmail/).
Друзья бэкендеры! Я думаю всем известно, что свои подборки я делаю полностью на альтруизме. Я всегда прошаривал кучу сайтов, чтобы мне всегда было удобно работать. А в один момент я решил делиться найденным материалом. Со временем подборки обрели некую популярность и значительно расширились в плане содержания. Отныне я буду четко структурировать блок «Напоследок», дабы людям не приходилось искать нужное. Для того чтобы разделы не были голыми и всегда наполнялись актуальной информацией, мне требуется ваша помощь. И проблема не только во времени, но и в компетенции. В плане бэкенда я скорее теоретик, чем практик.
Пхпшник, ~~рубист~~, питонист, ~~гоущик~~, если ты уже мониторишь GitHub Trending, Reddit, HackerNews или Twitter в поисках интересностей и полезностей по своей теме, если найденное определенно имеет ценность, но не заслуживает внимание целого поста, если тебе не трудно раз в неделю/в две недели в зависимости от материала делиться парой килобайт ссылочной массы, то напиши мне в личку или любую соц. сеть из профиля. Писанина в основной раздел по желанию. Имя или контакты волонтеров в каждом посту обязательно будут указаны.
[**Предыдущая подборка (Выпуск 39)**](http://habrahabr.ru/post/251077/)
Приношу извинения за возможные опечатки. Если вы заметили проблему — напишите, пожалуйста, в личку.
Спасибо всем за внимание. | https://habr.com/ru/post/251759/ | null | ru | null |
# Yii 1.0.8
Разработчики Yii как всегда пунктуальны. Точно в срок вышла версия 1.0.8 этого фреймворка.
В релиз вошли исправления найденных ошибок, а так же около двадцати улучшений.
Из новенького:
— в компоненты кэширования добавлен метод mget() — для получения нескольких значений из кэша, что позволяет сократить время получения кэшированных данных. Возврат нескольких значений поддерживают APC и MemCache, остальные хранилища кэша эмулируют эту возможность;
— Улучшена встроенная консоль yiic shell, теперь создавать классы, расширяющие ее функционал стало проще;
Мелочь, а приятно:
— При использовании компонента CCAptcha, можно кликать на самом изображении для его замены;
— Добавлены шаблоны ошибок на русском языке;
— Методы bindParam() и bindValues() компонента CDbCommand, возвращают объект «команды», что позволяет объединить их вызовы в цепочку. Пример:
`$result = $connection->createCommand('select * from table where id = :id')->bindParam(':id',5,PDO::PARAM_INT)->query();`
— В компонент CFormModel и CActiveRecord добавлен метод init() — вызываемый сразу после создания объекта;
При переходе на версию 1.0.8 следует быть осторожным, так как поменялся принцип работы метода Yii::import(). В новой версии, директория импортированная данным методом, имеет больший приоритет чем include path. При возникновении проблем, рекомендуется изменить порядок импорта директорий.
[change log](http://www.yiiframework.com/files/CHANGELOG-1.0.8.txt)
[документация](http://www.yiiframework.ru/)
[оригинал заметки](http://allframeworks.ru/blog/Yii/29.html) | https://habr.com/ru/post/66663/ | null | ru | null |
# Бесплатный грид контрол для Xamarin от DevExpress
В предыдущей статье ([Особенности разработки под Xamarin.Forms](http://habrahabr.ru/company/devexpress/blog/263645/)) я рассказал о нашем опыте разработки под фреймворк Xamarin.Forms, который позволяет создавать нативные пользовательские интерфейсы под три мобильные платформы (iOS, Android, Windows Phone), используя общий С# код и разметку XAML.
Сегодня посмотрим на результат проделанной нами работы, наш первый компонент для Xamarin.Forms – Data Grid. Этот компонент можно использовать бесплатно, скачав [здесь](https://components.xamarin.com/view/devexpress-grid). Вместе с ним вы получите приложение, демонстрирующее основную функциональность GridControl-а.

Итак, под катом вас ждет обзор всего того, что умеет Grid на данный момент, а также небольшой Getting Started.
О компоненте
============
Как и положено, наш грид — это компонент для отображения и редактирования табличных данных, которые могут быть получены из источников различных типов. Посмотрим, какие же возможности он предоставляет для быстрого и эффективного анализа данных.
###### Управление данными
* Во-первых, это все стандартные функции, необходимые для работы с табличными данными – фильтрация, сортировка (включая сортировку по нескольким колонкам одновременно) и группировка данных.
* Расчет сводной информации (*summary*) для групп и для всего грида. Пять самых часто используемых функций (*Sum, Average, Max, Min* и *Count*) доступны уже по умолчанию, но также возможно использование собственного алгоритма для расчета.
* Все заданные настройки грида можно сохранить (например, в xml файл) и потом быстро вновь восстановить в гриде.
* Добавление, редактирование и удаление строк.
* Возможность экспортировать данные из грида с учетом всех примененных настроек (сортировки, группировки, фильтров, посчитанных итоговых значений и др.) в XLS, XLSX или CSV форматах.

###### Колонки
* Реализовано несколько стандартных типов колонок для данных различного типа: текст, числа, даты, изображения и значения из списка (*TextColumn, NumberColumn, DateColumn, ImageColumn, PickerColumn*). Например, когда пользователь начинает редактировать ячейку, на его планшете или смартфоне автоматически показывается экранная клавиатура для ввода текста или календарь, в зависимости от того, редактирует ли он строковые данные или даты.
Кстати, для каждой колонки можно задать формат отображения значений. Например, доступны *дробный, денежный, процентный* и другие форматы для числовых данных, и специальные форматы для дат и времени.
* Если ни один из стандартных типов колонок не подходит – не беда, можно добавить в грид колонку, заданную по шаблону (*TemplateColumn*).
* Необязательно, чтобы все колонки в гриде соответствовали какому-либо полю из источника данных – грид может содержать так называемые *unbound columns* – колонки, значения в которых рассчитываются по заданному выражению на основе данных других колонок.
* Можно скрывать и снова показывать колонки, изменять их ширину соответствующим жестом.
###### Форматирование
* Условное форматирование – это возможность форматировать ячейки на основе их значений, избирательно или автоматически. Например, эта функциональность позволяет выделить важную информацию или значения-исключения, визуализировать тренды, и многое другое. Наш грид поддерживает множество вариантов условного форматирования – от простого изменения цвета шрифта или фона ячейки до использования цветовых шкал, наборов значков и гистограмм.
* Для грида доступны светлая и темная темы.

###### «Мобильные фишки»
* Ну и конечно же мы не могли не реализовать такие привычные пользователям мобильных устройств «фишки» как *pull-to-refresh* (синхронизация с источником данных и обновление содержимого грида движением пальца сверху вниз) и *load-more* (возможность подгрузить еще записи из источника данных, когда пользователь доскролировался до последней строки грида).
* Еще одна возможность, знакомая пользователям iPhone и iPad – *Swipe Buttons*. Вы легко можете расширить стандартный функционал нашего грида, добавив в него дополнительные кнопки доступные пользователю при скольжении пальцем по строкам грида слева направо и наоборот – справа налево.
Большинство вышеперечисленных функциональных возможностей доступно для конечных пользователей по умолчанию. Например, через встроенные контекстные меню (каждое из которых, кстати, можно легко настроить при необходимости – например, добавить новые пункты или удалить существующие) или интуитивно понятные жесты. Любую из имеющихся функций также легко можно сделать недоступной для пользователей, если это нужно.
А в распоряжении разработчиков — API, предоставляющий им полную свободу действий.
Создание приложения
===================
Ну а теперь посмотрим, как же добавить Grid компонент в приложение и начать с ним работу.
Итак, для начала создадим новое Xamarin.Forms Portable приложение в Xamarin Studio (вообще Xamarin.Forms приложения можно разрабатывать и в Visual Studio, но в данном примере будем использовать Xamarin Studio на операционной системе OS X).
Далее скачаем DevExpress Grid компонент из магазина Xamarin Components и добавим его в Android и iOS проекты. Делается это очень просто — прямо в Xamarin Studio.

Обратите внимание, что при добавлении компонента ссылки на все нужные «платформенные» сборки автоматически добавляются в Android и iOS проекты.

А вот ссылки на общие сборки *DevExpress.Mobile.Grid.v15.1.dll* и *DevExpress.Mobile.Core.v15.1.dll* нужно добавить в PCL проект вручную. Найти их можно в каталоге *Components/devexpress-grid-15.1.5.0/lib/pcl/*, который автоматически создается в каталоге текущего приложения.
Если вы работаете в Visual Studio, и ваше приложение включает в себя Windows Phone проект, в него также необходимо вручную добавить ссылки на сборки *DevExpress.Mobile.Grid.WinPhone.v15.1.dll* и *DevExpress.Mobile.Core.WinPhone.v15.1.dll*.
Для инициализации грида добавим следующую строчку в файлы *MainActivity.cs* и *AppDelegate.cs* (Android и iOS проекты соответственно):
```
DevExpress.Mobile.Forms.Init();
```
Теперь можно создавать экземпляр грида, не забывая при этом подключить пространство имен *DevExpress.Mobile.DataGrid*.
Источник данных для грида задается через свойство *ItemsSource*.
По умолчанию, грид создаст колонки для всех полей из источника данных. Набор или порядок колонок в гриде можно изменить, задав их вручную с помощью свойства *GridControl.Columns*.
Вот, например, как это можно сделать используя разметку XAML.
```
```
В приведенном выше коде, помимо определения колонок грида, мы также:
* включили возможность одновременной сортировки по нескольким колонкам,
* добавили панель для фильтрации данных по колонкам,
* и задали *total summary* для подсчета суммы по колонке Total.
Теперь при запуске приложения получаем вот такой грид, заполненный данными из заданного источника.

Небольшое промо видео о нашем GridControl-е можно посмотреть тут:
Заключение
==========
Вот так. Теперь в нашей линейке продуктов есть еще и грид компонент под платформу Xamarin. Если вы смотрите в сторону разработки мобильных приложений с использованием технологии Xamarin.Forms, то обязательно попробуйте наш грид – это легко, он бесплатный и удобно интегрируется в ваш проект. Мы будем рады ответить на ваши вопросы и услышать ваши пожелания в комментариях к этой статье. | https://habr.com/ru/post/264039/ | null | ru | null |
# Кодогенерация в Go на примере создания клиента к БД
В данной статье хотелось бы рассмотреть вопросы кодогенерации в Golang. Заметил, что часто в комментариях к статьям по Go упоминают кодогенерацию и рефлексию, что вызывает бурные споры. При этом на хабре статей по кодогенерации мало, хотя она применяется довольно много где в проектах на Go. В статье попытаюсь рассказать, что из себя представляет кодогенерация, описать сферы применения с примерами кода. Также не обойду стороной и рефлексию.
Когда применяется кодогенерация
-------------------------------
На Хабре есть уже хорошие статьи по теме [тут](https://habr.com/ru/post/269887/) и [тут](https://habr.com/ru/post/306672/), не буду повторяться.
Кодогенерацию стоит применять в случаях:
* Увеличение скорости работы кода, то есть для замены рефлексии;
* Уменьшение рутинной работы программиста (и ошибок, связанных с ней);
* Реализацию оберток по заданным правилам.
Из примеров можно рассмотреть библиотека Stringer, которая входит в стандартную поставку языка и позволяет автоматически генерировать методы String() для наборов числовых констант. С ее помощью можно реализовать вывод имен переменных. Примеры работы библиотеки подробно описали в указанных выше статьях. Наиболее интересный пример был с выводом названия цвета из палитры. Применение кодогенерации там позволяет избежать изменения кода в нескольких местах при изменении палитры.
Из более практического примера можно упомянуть библиотеку easyjson от Mail.ru. Данная библиотека позволяет ускорить выполнение masrshall/unmarshall JSON из/в структуру. Их реализация по бенчмаркам обошла все альтернативные варианты. Для использования библиотеки необходимо вызвать easyjson, он выполнит генерацию кода для всех структур, которые найдет в переданном файле, либо только для тех, к которым указан комментарий //easyjson:json. Возьмем для примера структуру пользователя:
```
type User struct{
ID int
Login string
Email string
Level int
}
```
Для файла, в котором она содержится, запустим генерацию кода:
```
easyjson -all main.go
```
В результате мы получаем для User методы:
* MarshalEasyJSON (w\*jwriter.Writer) — для преобразования структуры в массив байт JSON;
* UnmarshalEasyJSON (l \*jlexer.Lexer) — для преобразования из массива байт в структуру.
Функции MarshalJSON() ([]byte, error) и UnmarshalJSON (data []byte) error необходимы для совместимости со стандартным интерфейсом json.
**Код работы с easyjson**
```
func TestEasyJSON() {
testJSON := `{"ID":123, "Login":"TestUser", "Email":"user@gmail.com", "Level":12}`
JSONb := []byte(testJSON)
fmt.Println(testJSON)
recvUser := &User{}
recvUser.UnmarshalJSON(JSONb)
fmt.Println(recvUser)
recvUser.Level += 1
outJSON, _ := recvUser.MarshalJSON()
fmt.Println(string(outJSON))
}
```
В данной функции мы сначала преобразуем JSON в структуру, прибавляет один уровень и печатает получившийся JSON. Генерация кода средствами easyjson позволяет избавиться от рефлекции в рантайме и увеличить производительность кода.
Генерация кода активно используется при создании микросервисов, которые взаимодействуют по gRPC. В нем для описания методов сервисов используется формат protobuf — при помощи промежуточного языка EDL. После описания сервиса выполняется запуск компилятора protoc, который генерирует код для нужного языка программирования. В сгененрированном коде мы получаем интерфейсы, которые необходимо реализовать в сервере и методы, которые используются на клиенте для организации общения. Получается довольно удобно, мы можем в едином формате описывать наши сервисы и генерировать код для того языка программирования, на котором будет описывать каждый из элементов взаимодействия.
Также кодогенерация может использоваться при разработке фреймворков. Например, для реализации кода, который не обязательно писать разработчику приложения, но он необходим для корректной работы. Например, для создания валидаторов полей форм, автоматической генерации Middleware, динамической генерации клиентов к СУБД.
Реализация кодогенератора на Go
-------------------------------
Рассмотрим на практике, как же работает механизм кодогенерации в Go. В первую очередь необходимо упомянуть про AST — Abstract Syntax Tree или Абстрактное синтаксическое дерево. За подробностями можно сходить в [Википедию](https://ru.wikipedia.org/wiki/Абстрактное_синтаксическое_дерево). Для наших целей необходимо понимание того, что вся программа строится в виде графа, где вершины сопоставлены (помечены) с операторами языка программирования, а листья — с соответствующими операндами.
Итак, для начала нам понадобятся пакеты:
[go/ast](https://golang.org/pkg/go/ast/)
[go/parser/](https://golang.org/pkg/go/parser/)
[go/token/](https://golang.org/pkg/go/token/)
Парсинг файла с кодом и составление дерева выполняется следующими командами
```
fset := token.NewFileSet()
node, err := parser.ParseFile(fset, os.Args[1], nil, parser.ParseComments)
```
Мы указываем, что имя файла взять из первого аргумента командной строки, также просим добавить в дерево комментарии.
В целом для управления кодогенерацией пользователь (разработчик кода, на основании которого генерируется другой код) может использовать комментарии, либо теги (как мы пишем `json:""` возле поля структуры).
Для примера напишем генератор кода для работы с БД. Генератор кода будет просматривать переданный ему файл, искать структуры, у которых есть соответствующий комментарий и создавать обертку над структурой (CRUD методы) для взаимодействия БД. Будем использовать параметры:
* комментарий dbe:{«table»:«users»}, в котором можно определить таблицу, в которой будут записи структур;
* тег dbe у полей структуры, в котором можно указать имя столбца, в который помещать значение поля и атрибуты для БД: primary\_key и not\_null. Они будут использоваться при создании таблицы. Причем для имени поля можно использовать "-", чтобы не создавать для него столбец.
Заранее оговорюсь, что проект пока не боевой, в нем не будет части необходимых проверок и защит. Если будет интерес, продолжу его развитие.
Итак, мы определились с задачей и параметрами для управления генерацией кода, можно приступить к написанию кода.
Ссылки на весь код будут в конце статьи.
Начнем обход полученного дерева и будем разбирать каждый элемент первого уровня. В Go для разбора есть предустановленные типы: BadDecl, GenDecl и FuncDecl.
**Описание типов**
```
// A BadDecl node is a placeholder for declarations containing
// syntax errors for which no correct declaration nodes can be
// created.
//
BadDecl struct {
From, To token.Pos // position range of bad declaration
}
// A GenDecl node (generic declaration node) represents an import,
// constant, type or variable declaration. A valid Lparen position
// (Lparen.IsValid()) indicates a parenthesized declaration.
//
// Relationship between Tok value and Specs element type:
//
// token.IMPORT *ImportSpec
// token.CONST *ValueSpec
// token.TYPE *TypeSpec
// token.VAR *ValueSpec
//
GenDecl struct {
Doc *CommentGroup // associated documentation; or nil
TokPos token.Pos // position of Tok
Tok token.Token // IMPORT, CONST, TYPE, VAR
Lparen token.Pos // position of '(', if any
Specs []Spec
Rparen token.Pos // position of ')', if any
}
// A FuncDecl node represents a function declaration.
FuncDecl struct {
Doc *CommentGroup // associated documentation; or nil
Recv *FieldList // receiver (methods); or nil (functions)
Name *Ident // function/method name
Type *FuncType // function signature: parameters, results, and position of "func" keyword
Body *BlockStmt // function body; or nil for external (non-Go) function
}
```
Нас интересуют структуры, поэтому используем GenDecl. На данном этапе может быть полезен FuncDecl, в котором лежат определения функций и вы делаете обертку над ними, но сейчас нам они не нужны. Далее у каждого узла смотрим массив Specs, и ищем, что мы работаем с полем определения типа (\*ast.TypeSpec) и это структура (\*ast.StructType). После того как мы определили, что перед нами структура, проверим, это у нее есть комментарий //dbe. Полный код обхода дерева и определение, с какой структурой работать, ниже.
**Обход дерева и получение структур**
```
for _, f := range node.Decls {
genD, ok := f.(*ast.GenDecl)
if !ok {
fmt.Printf("SKIP %T is not *ast.GenDecl\n", f)
continue
}
targetStruct := &StructInfo{}
var thisIsStruct bool
for _, spec := range genD.Specs {
currType, ok := spec.(*ast.TypeSpec)
if !ok {
fmt.Printf("SKIP %T is not ast.TypeSpec\n", spec)
continue
}
currStruct, ok := currType.Type.(*ast.StructType)
if !ok {
fmt.Printf("SKIP %T is not ast.StructType\n", currStruct)
continue
}
targetStruct.Name = currType.Name.Name
thisIsStruct = true
}
//Getting comments
var needCodegen bool
var dbeParams string
if thisIsStruct {
for _, comment := range genD.Doc.List {
needCodegen = needCodegen || strings.HasPrefix(comment.Text, "// dbe")
if len(comment.Text) < 7 {
dbeParams = ""
} else {
dbeParams = strings.Replace(comment.Text, "// dbe:", "", 1)
}
}
}
if needCodegen {
targetStruct.Target = genD
genParams := &DbeParam{}
if len(dbeParams) != 0 {
err := json.Unmarshal([]byte(dbeParams), genParams)
if err != nil {
fmt.Printf("Error encoding DBE params for structure %s\n", targetStruct.Name)
continue
}
} else {
genParams.TableName = targetStruct.Name
}
targetStruct.GenParam = genParams
generateMethods(targetStruct, out)
}
}
```
Для хранения информации о целевой структуре, создадим структуры:
```
type DbeParam struct {
TableName string `json:"table"`
}
type StructInfo struct {
Name string
GenParam *DbeParam
Target *ast.GenDecl
}
```
Теперь подготовим информацию о полях структуры, чтобы потом на основании полученной информации сгенерировать функции создания таблицы (createTable) и CRUD методы.
**Код получения полей из структуры**
```
func generateMethods(reqStruct *StructInfo, out *os.File) {
for _, spec := range reqStruct.Target.Specs {
fmt.Fprintln(out, "")
currType, ok := spec.(*ast.TypeSpec)
if !ok {
continue
}
currStruct, ok := currType.Type.(*ast.StructType)
if !ok {
continue
}
fmt.Printf("\tgenerating createTable methods for %s\n", currType.Name.Name)
curTable := &TableInfo{
TableName: reqStruct.GenParam.TableName,
Columns: make([]*ColInfo, 0, len(currStruct.Fields.List)),
}
for _, field := range currStruct.Fields.List {
if len(field.Names) == 0 {
continue
}
tableCol := &ColInfo{FieldName: field.Names[0].Name}
var fieldIsPrimKey bool
var preventThisField bool
if field.Tag != nil {
tag := reflect.StructTag(field.Tag.Value[1 : len(field.Tag.Value)-1])
tagVal := tag.Get("dbe")
fmt.Println("dbe:", tagVal)
tagParams := strings.Split(tagVal, ",")
PARAMSLOOP:
for _, param := range tagParams {
switch param {
case "primary_key":
if curTable.PrimaryKey == nil {
fieldIsPrimKey = true
tableCol.NotNull = true
} else {
log.Panicf("Table %s cannot have more then 1 primary key!", currType.Name.Name)
}
case "not_null":
tableCol.NotNull = true
case "-":
preventThisField = true
break PARAMSLOOP
default:
tableCol.ColName = param
}
}
if preventThisField {
continue
}
}
if tableCol.ColName == "" {
tableCol.ColName = tableCol.FieldName
}
if fieldIsPrimKey {
curTable.PrimaryKey = tableCol
}
//Determine field type
var fieldType string
switch field.Type.(type) {
case *ast.Ident:
fieldType = field.Type.(*ast.Ident).Name
case *ast.SelectorExpr:
fieldType = field.Type.(*ast.SelectorExpr).Sel.Name
}
//fieldType := field.Type.(*ast.Ident).Name
fmt.Printf("%s- %s\n", tableCol.FieldName, fieldType)
//Check for integers
if strings.Contains(fieldType, "int") {
tableCol.ColType = "integer"
} else {
//Check for other types
switch fieldType {
case "string":
tableCol.ColType = "text"
case "bool":
tableCol.ColType = "boolean"
case "Time":
tableCol.ColType = "TIMESTAMP"
default:
log.Panicf("Field type %s not supported", fieldType)
}
}
tableCol.FieldType = fieldType
curTable.Columns = append(curTable.Columns, tableCol)
curTable.StructName = currType.Name.Name
}
curTable.generateCreateTable(out)
fmt.Printf("\tgenerating CRUD methods for %s\n", currType.Name.Name)
curTable.generateCreate(out)
curTable.generateQuery(out)
curTable.generateUpdate(out)
curTable.generateDelete(out)
}
}
```
Мы проходим по всем полям искомой структуры и начинаем разбор тегов каждого поля. С использованием рефлексии мы получаем интересующий нас тег (ведь на поле могут быть другие теги, например, для json). Выполняем разбор содержимого тега и определяем, является ли поле первичным ключом (если указали более одного первичного ключа, ругнемся об этом и остановим выполнение), есть ли требование к тому, чтобы поле было ненулевым, вообще нужно ли работать с БД для этого поля и определим имя столбца, если оно было переопределено в теге. Также нам нужно определить тип столбца таблицы на основании типа поля структуры. Типов полей конечное множество, будем генерировать только для базовых типов, строки все сведем в тип поля TEXT, хотя в целом можно определение типа столбца добавить в теги, чтобы можно было настраивать более тонко. С другой стороны, никто не мешает создать нужную таблицу в базе заранее, либо скорректировать созданную автоматически.
После разбора структуры запускаем метод для создания кода функции создания таблицы и методы для создания функций Create, Query, Update, Delete. Мы готовим SQL выражение для каждой функции и обвязку для запуска. С обработкой ошибок не стал сильно заморачиваться, просто отдаю ошибку от драйвера БД. Для кодогенерации удобно использовать шаблоны из библиотеки text/template. С их помощью можно получить гораздо более поддерживаемый и предсказуемый код (код виден сразу, а не размазан по коду генератора).
**Создание таблицы**
```
func (tableD *TableInfo) generateCreateTable(out *os.File) error {
fmt.Fprint(out, "func (in *"+tableD.StructName+") createTable(db *sql.DB) (error) {\n")
var resSQLq = fmt.Sprintf("\tsqlQ := `CREATE TABLE %s (\n", tableD.TableName)
for _, col := range tableD.Columns {
colSQL := col.ColName + " " + col.ColType
if col.NotNull {
colSQL += " NOT NULL"
}
if col == tableD.PrimaryKey {
colSQL += " AUTO_INCREMENT"
}
colSQL += ",\n"
resSQLq += colSQL
}
if tableD.PrimaryKey != nil {
resSQLq += fmt.Sprintf("PRIMARY KEY (%s)\n", tableD.PrimaryKey.ColName)
}
resSQLq += ")`\n"
fmt.Fprint(out, resSQLq)
fmt.Fprint(out, "\t_, err := db.Exec(sqlQ)\n\t\tif err != nil {\n\t\t\treturn err\n\t\t}\n")
fmt.Fprint(out, "\t return nil\n}\n\n")
return nil
}
```
**Добавление записи**
```
fmt.Fprint(out, "func (in *"+tableD.StructName+") Create(db *sql.DB) (error) {\n")
var columns, valuePlaces, valuesListParams string
for _, col := range tableD.Columns {
if col == tableD.PrimaryKey {
continue
}
columns += "`" + col.ColName + "`,"
valuePlaces += "?,"
valuesListParams += "in." + col.FieldName + ","
}
columns = columns[:len(columns)-1]
valuePlaces = valuePlaces[:len(valuePlaces)-1]
valuesListParams = valuesListParams[:len(valuesListParams)-1]
resSQLq := fmt.Sprintf("\tsqlQ := \"INSERT INTO %s (%s) VALUES (%s);\"\n",
tableD.TableName,
columns,
valuePlaces)
fmt.Fprintln(out, resSQLq)
fmt.Fprintf(out, "result, err := db.Exec(sqlQ, %s)\n", valuesListParams)
fmt.Fprintln(out, `if err != nil {
return err
}`)
//Setting id if we have primary key
if tableD.PrimaryKey != nil {
fmt.Fprintf(out, `lastId, err := result.LastInsertId()
if err != nil {
return nil
}`)
fmt.Fprintf(out, "\nin.%s = %s(lastId)\n", tableD.PrimaryKey.FieldName, tableD.PrimaryKey.FieldType)
}
fmt.Fprintln(out, "return nil\n}\n\n")
//in., _ := result.LastInsertId()`)
return nil
}
```
**Получение записей из таблицы**
```
func (tableD *TableInfo) generateQuery(out *os.File) error {
fmt.Fprint(out, "func (in *"+tableD.StructName+") Query(db *sql.DB) ([]*"+tableD.StructName+", error) {\n")
fmt.Fprintf(out, "\tsqlQ := \"SELECT * FROM %s;\"\n", tableD.TableName)
fmt.Fprintf(out, "rows, err := db.Query(sqlQ)\n")
fmt.Fprintf(out, "results := make([]*%s, 0)\n", tableD.StructName)
fmt.Fprintf(out, `for rows.Next() {`)
fmt.Fprintf(out, "\t tempR := &%s{}\n", tableD.StructName)
var valuesListParams string
for _, col := range tableD.Columns {
valuesListParams += "&tempR." + col.FieldName + ","
}
valuesListParams = valuesListParams[:len(valuesListParams)-1]
fmt.Fprintf(out, "\terr = rows.Scan(%s)\n", valuesListParams)
fmt.Fprintf(out, `if err != nil {
return nil, err
}`)
fmt.Fprintf(out, "\n\tresults = append(results, tempR)")
fmt.Fprintf(out, `}
return results, nil
}`)
fmt.Fprintln(out, "")
fmt.Fprintln(out, "")
return nil
}
```
**Обновление записи (работает по primary key)**
```
func (tableD *TableInfo) generateUpdate(out *os.File) error {
fmt.Fprint(out, "func (in *"+tableD.StructName+") Update(db *sql.DB) (error) {\n")
var updVals, valuesListParams string
for _, col := range tableD.Columns {
if col == tableD.PrimaryKey {
continue
}
updVals += "`" + col.ColName + "`=?,"
valuesListParams += "in." + col.FieldName + ","
}
updVals = updVals[:len(updVals)-1]
valuesListParams += "in." + tableD.PrimaryKey.FieldName
resSQLq := fmt.Sprintf("\tsqlQ := \"UPDATE %s SET %s WHERE %s = ?;\"\n",
tableD.TableName,
updVals,
tableD.PrimaryKey.ColName)
fmt.Fprintln(out, resSQLq)
fmt.Fprintf(out, "_, err := db.Exec(sqlQ, %s)\n", valuesListParams)
fmt.Fprintln(out, `if err != nil {
return err
}`)
fmt.Fprintln(out, "return nil\n}\n\n")
//in., _ := result.LastInsertId()`)
return nil
}
```
**Удаление записи (работает по primary key)**
```
func (tableD *TableInfo) generateDelete(out *os.File) error {
fmt.Fprint(out, "func (in *"+tableD.StructName+") Delete(db *sql.DB) (error) {\n")
fmt.Fprintf(out, "sqlQ := \"DELETE FROM %s WHERE id = ?\"\n", tableD.TableName)
fmt.Fprintf(out, "_, err := db.Exec(sqlQ, in.%s)\n", tableD.PrimaryKey.FieldName)
fmt.Fprintln(out, `if err != nil {
return err
}
return nil
}`)
fmt.Fprintln(out)
return nil
}
```
Запуск получившегося кодогенератора выполняется обычным go run, передаем в флаг -name путь к файлу, для которого нужно сгенерировать код. В результате получаем файл с суффиксом \_dbe, в котором лежит созданный код. Для тестов создадим методы для следующий структуры:
```
// dbe:{"table": "users"}
type User struct {
ID int `dbe:"id,primary_key"`
Login string `dbe:"login,not_null"`
Email string
Level uint8
IsActive bool
UError error `dbe:"-"`
}
```
**Получившийся на выходе код**
```
package main
import "database/sql"
func (in *User) createTable(db *sql.DB) error {
sqlQ := `CREATE TABLE users (
id integer NOT NULL AUTO_INCREMENT,
login text NOT NULL,
Email text,
Level integer,
IsActive boolean,
PRIMARY KEY (id)
)`
_, err := db.Exec(sqlQ)
if err != nil {
return err
}
return nil
}
func (in *User) Create(db *sql.DB) error {
sqlQ := "INSERT INTO users (`login`,`Email`,`Level`,`IsActive`) VALUES (?,?,?,?);"
result, err := db.Exec(sqlQ, in.Login, in.Email, in.Level, in.IsActive)
if err != nil {
return err
}
lastId, err := result.LastInsertId()
if err != nil {
return nil
}
in.ID = int(lastId)
return nil
}
func (in *User) Query(db *sql.DB) ([]*User, error) {
sqlQ := "SELECT * FROM users;"
rows, err := db.Query(sqlQ)
results := make([]*User, 0)
for rows.Next() {
tempR := &User{}
err = rows.Scan(&tempR.ID, &tempR.Login, &tempR.Email, &tempR.Level, &tempR.IsActive)
if err != nil {
return nil, err
}
results = append(results, tempR)
}
return results, nil
}
func (in *User) Update(db *sql.DB) error {
sqlQ := "UPDATE users SET `login`=?,`Email`=?,`Level`=?,`IsActive`=? WHERE id = ?;"
_, err := db.Exec(sqlQ, in.Login, in.Email, in.Level, in.IsActive, in.ID)
if err != nil {
return err
}
return nil
}
func (in *User) Delete(db *sql.DB) error {
sqlQ := "DELETE FROM users WHERE id = ?"
_, err := db.Exec(sqlQ, in.ID)
if err != nil {
return err
}
return nil
}
```
Для тестирования работы сгенерированного кода создадим объект с произвольными данными, создадим для него таблицу (если таблица существует в базе, вернется ошибка). После поместим этот объект в таблицу, прочитаем все поля из таблицы, обновим значения уровня и удалим объект.
**Вызов получившихся методов**
```
var err error
db, err := sql.Open("mysql", DSN)
if err != nil {
fmt.Println("Unable to connect to DB", err)
return
}
err = db.Ping()
if err != nil {
fmt.Println("Unable to ping BD")
return
}
newUser := &User{
Login: "newUser",
Email: "new@test.com",
Level: 0,
IsActive: false,
UError: nil,
}
err = newUser.createTable(db)
if err != nil {
fmt.Println("Error creating table.", err)
}
err = newUser.Create(db)
if err != nil {
fmt.Println("Error creating user.", err)
return
}
nU := &User{}
dbUsers, err := nU.Query(db)
if err != nil {
fmt.Println("Error selecting users.", err)
return
}
fmt.Printf("From table users selected %d fields", len(dbUsers))
var DBUser *User
for _, user := range dbUsers {
fmt.Println(user)
DBUser = user
}
DBUser.Level = 2
err = DBUser.Update(db)
if err != nil {
fmt.Println("Error updating users.", err)
return
}
err = DBUser.Delete(db)
if err != nil {
fmt.Println("Error deleting users.", err)
return
}
```
В текущей реализации функционал клиента к БД сильно ограничен:
* поддерживается только MySQL;
* не все типы полей поддерживаются;
* для SELECT нет фильтрации и лимитов.
Однако, исправление недочетов уже за пределами вопроса разбора исходного кода на Go и генерирования на его основе нового кода.
Использование генератора кода в подобном сценарии позволит менять поля и типы структур, используемых в приложении, только в одном месте, нет необходимости помнить о внесении изменений в код взаимодействия с БД, просто каждый раз необходимо запускать генератор кода. Данную задачу можно было решить с помощью рефлексии, но это бы отразилось на производительности.
Исходники генератора кода и пример сгенерированного кода выложил на [Github](https://github.com/AlhimicMan/dbgormen). | https://habr.com/ru/post/501000/ | null | ru | null |
# Как завладеть сетью /16 с помощью libpcap и libdnet
[](https://habr.com/ru/company/ruvds/blog/688314/)
Всем привет. Сегодня я попытаюсь рассказать про сетевое программирование на довольно низком уровне, с библиотеками libpacp и libdnet. Про последнюю многие наверное и не слышали, т.к. информации о ней в сети фактически нет. А ведь её использует сам Fyodor :)
Изложу предысторию. В своё время активного сисадминства был весьма огорчён несовершенством существующих свободных систем мониторинга. Настолько огорчён, что даже начал разрабатывать собственный плугин к zabbix, позволяющий визуализировать L3 карту сети. Потом у меня пропал доступ к «полигону» и данный pet-проект начал тихо угасать.
Долгое время я порывался его возродить, даже написал небольшую [статью](https://habr.com/ru/post/593095/) на habr, чтобы сохранить некие принципы формирования карты, но дальше этого не пошло.
Конечно, были размышления на тему поднять сетку из кучи виртуалок или задействовать что-нибудь вроде GNS, но на всё это нужны вычислительные ресурсы. Весьма нескромные ресурсы.
Второй вариант — в системе мониторинга написать какую-нибудь обёртку к функциям snmpget/snmpwalk которая будет выдавать по запросам заранее подготовленные данные (у меня сохранились дампы со всего активного сетевого оборудования полигона). Ну и подшаманить тот-же zabbix некими внешними скриптами. Не стал двигаться в данном направлении — внутренний перфекционист скверно выругался и отказался сотрудничать.
И вот относительно недавно, мне довелось заглянуть в исходники [LaBrea tarpit](https://labrea.sourceforge.io/labrea-info.html). Если кто не в курсе это honeypot, довольно древний и интерес в настоящее время представляет исключительно академический. Вот в его исходниках я и увидел libpcap, libdnet, а также возможность создания нового полигона — легковесного эмулятора сети.
>
> **Как оказалось, не я первый до этого додумался**
> По запросу «SNMP agent simulator» гуглится довольно много коммерческого и бесплатного софта с аналогичными функционалом. Однако я уже достаточно продвинулся, чтобы бросать начатое — буду доделывать.
>
Вот собственно рассмотрением «базовых кирпичиков», позволяющих реализовать данный эмулятор, мы и займёмся.
▍ Задача
--------

На одной машине развёрнута «тестовая» система мониторинга и там я пишу (вернее, буду дописывать) свою карту L3 к системе мониторинга. На этой машине добавляется маршрут к сети 10.0.0.0/16 (можно меньше или больше, но в заголовке статьи я обещал /16).

На машине эмуляторе-сети никаких настроек, только эмулятор. Какие от него ожидания:
1. Положительно отвечать на пинги, идущие к определенным адресам.
2. Сообщать о недоступности определённых хостов/сетей.
3. Отзываться на snmp-запросы (v1 и только udp — поддерживать вручную tcp-сессии сложновато) и выдавать соответствующую информацию, привязанную к определённому хосту.
Сразу скажу, что не всё готово и поэтому доступ к исходникам не раздаю. Здесь опишу только общий костяк программы и реализацию первых двух пунктов.
Также хочу обратить внимание, что куски кода, которые фигурируют в статье, не являются эталоном стиля программирования. Пишу самый минимум, без нормального контроля ошибок, без комментариев (они будут по тексту отдельно), исключительно для демонстрации «полезной» нагрузки. Но при этом всё будет работоспособно и воспроизводимо в домашних условиях.
▍ Первые шаги
-------------
Мне кажется, что [libpcap](https://www.tcpdump.org/) известна практически всем системным администраторам — она служит основой `tcpdump/wireshark/snort/nmap/L0phtCrack` и т.д. Библиотека занимается захватом и анализом сетевых пакетов, поступающих на сетевую карту. А в promiscous-режиме и тех, что проходили мимо. В сети достаточно обучающих примеров с рабочими исходниками.
А теперь про [libdnet](http://libdnet.sourceforge.net/). Это библиотека для ручного формирования, разбора, отправки и приёма сетевых пакетов. Из полезной информации только сайт и man dnet, нет даже странички в википедии как у libpcap, хотя список связанных проектов довольно большой и включает в себя легендарный сканер nmap.
>
> **А можно по-другому?**
> Хоть глубоко и не копал, но мельком глянул на штатные ядрёные Divert sockets. Судя по описанию и примерам, ими можно целиком и полностью заменить связку libpcap и libdnet.
>
>
>
> На картинке приведено позиционирование Divert sockets относительно сетевых уровней, причём имеются стрелочки в обоих направлениях. А вот место функционирования libpcap обозначено как libcap socket (tcpdump) и в виду отсутствия обратной стрелки нам необходима libdnet.
>
>
>
> 
>
>
>
> В общем — можно.
>
Как я уже писал ранее, идея эмулятора сети родилась, после работы с исходниками LaBrea, и первые эксперименты производились прямо по её коду. Через некоторое время решил начать с «чистого листа», но с заимствованием некоторых элементов из LaBrea (её можно скачать на github), поэтому создаём каталог netemu, и там размещаем следующие файлы из архива LaBrea:
```
bget.h
bget.c
pkt.h
pkt.c
```
Далее создаём файл netemu.c:
```
#include
#include
#include
#include "pkt.h"
struct io\_s {
/\* control structures (mostly uses netwk byte order) \*/
struct intf\_entry \*ifent; /\* Interface \*/
ip\_addr\_t myip; /\* My own IP addr (in host byte order) \*/
struct addr \*mymac; /\* My own IP MAC addr \*/
/\* global variables \*/
u\_char buf[1024];
uint32\_t net; /\* Subnet for capture \*/
uint32\_t mask; /\* Netmask for capture \*/
/\* handles \*/
eth\_t \*eth;
intf\_t \*intf;
pcap\_t \*pcap;
rand\_t \*rnd;
};
typedef struct io\_s io\_t;
io\_t io;
char \*lbio\_ntoa(const ip\_addr\_t ip)
{
ip\_addr\_t ip\_tmp = htonl(ip);
return(ip\_ntoa(&ip\_tmp));
}
void pkt\_handler(u\_char\* client\_data, const struct pcap\_pkthdr\* pcpkt, const u\_char\* pktdata)
{
return;
}
int main(int argc, char \*\*argv)
{
char dev[1024]="eno1";
char bpfilter[1024]="dst net 10.0.0.0/16";
io.rnd = rand\_open();
if ((io.intf = intf\_open()) == NULL) {
printf("\*\*\* Unable to get libdnet handle for interface %s\n", io.ifent->intf\_name);
return;
}
io.ifent = (struct intf\_entry \*)io.buf;
io.ifent->intf\_len = sizeof(io.buf);
strncpy(io.ifent->intf\_name, dev, sizeof(io.ifent->intf\_name));
if (intf\_get(io.intf, io.ifent) < 0) {
printf("\*\*\* Unable to get information for interface %s\n", io.ifent->intf\_name);
return;
}
if ((io.eth = eth\_open(io.ifent->intf\_name)) == NULL ) {
printf("\*\*\* Couldn't open libdnet link interface\n");
return;
}
char ebuf[PCAP\_ERRBUF\_SIZE];
#define PCAP\_TIMEOUT 100
if ((io.pcap = pcap\_open\_live(dev, BUFSIZ, 1, -1, ebuf)) == NULL) {
printf("\*\*\* Couldn't open pcap device for sniffing\n" );
return;
}
printf("Initiated on interface: %s\n", io.ifent->intf\_name);
if (io.myip == 0) {
if (io.ifent->intf\_addr.addr\_type == ADDR\_TYPE\_IP) {
if (io.mask == 0) {
addr\_btom(io.ifent->intf\_addr.addr\_bits, &io.mask, IP\_ADDR\_LEN);
io.mask = ntohl(io.mask);
io.net = ntohl(io.ifent->intf\_addr.addr\_ip);
io.net &= io.mask;
}
io.myip = ntohl(io.ifent->intf\_addr.addr\_ip);
} else {
printf("\*\*\* Unable to determine IP address from the interface.\n");
return;
}
}
if (io.mymac == NULL) {
if (io.ifent->intf\_link\_addr.addr\_type == ADDR\_TYPE\_ETH) {
io.mymac = &(io.ifent->intf\_link\_addr);
} else {
printf("\*\*\* The interface must be of type Ethernet.\n");
return;
}
}
printf("Host system IP addr: %s, MAC addr: %s\n", lbio\_ntoa(io.myip), addr\_ntoa(io.mymac));
struct bpf\_program fcode;
if (pcap\_compile(io.pcap, &fcode, bpfilter, 0, io.myip) < 0) {
printf("\*\*\* Error pcap\_compile: %s\n", bpfilter);
return;
}
if (pcap\_setfilter(io.pcap, &fcode) == -1) {
printf("\*\*\* Error pcap\_setfilter\n");
return;
}
printf("Set filter: %s\n", bpfilter);
pkt\_init(100);
printf("Init complete\n\n");
pcap\_loop(io.pcap, -1, &pkt\_handler, NULL);
return;
}
```
Как писал выше, программирование тут весьма скоренькое и аскетичное — я бы даже назвал всё это прототипированием. В начале подключены стандартные хэдеры для ввода/вывода на консоль и функций работы с памятью. Ещё здесь подключен заголовочный файл pcap.h для захвата пакетов. Заголовочный файл dnet.h не вписываем, т.к. он фигурирует в файле pkt.h от LaBrea.
Структура `io_s` это наследие LaBrea, хоть и значительно покоцанное. В неё собраны различные структуры (ссылки) от библиотек `dnet/pcap/pkt`. Можно было вынести в отдельные глобальные переменные, но проще оставить как есть, мы заведём одну переменную данного типа с именем `io`.
Также из файла `lbio.c` позаимствована (скопирована) функция `lbio_ntoa` для преобразования IP-адреса в текстовый вид.
Функция `pkt_handler` пока в состоянии «заглушка», мы до неё доберёмся, когда будем пристально рассматривать входящие пакеты.
Собственно функция main также чуть менее чем полностью собрана из системы инициализации LaBrea, но хочу обратить внимание, что инициализация и переход в основной цикл обработки у всех программ, использующих libpcap, практически одинаков. Здесь лишь добавлена инициализация для libdnet.
В первых строках видно захардкоженное имя сетевого интерфейса и выражение для фильтра. Сознательно не стал переписывать из примеров libpcap строчки перебора интерфейсов и прочую обвязку. Если необходимо, нагуглите сами, а здесь это будет только раздувать код. Я про это писал в самом начале, просто повторяю.
Жёстко зашитое имя сетевого интерфейса необходимо поменять под свой стенд. Также, если хочется, чтобы машина-эмулятор вообще не светилась в сети, можно расширить выражение фильтра адресом машины, с которой будем работать с фантомной сетью.
Следом идёт инициализация внутренних структур для libdnet. Обучающих материалов по libdnet, как я уже писал, в сети нет и конкретно эти строчки также взяты из LaBrea — они рабочие.
При желании можно заглянуть в исходники libdnet на github и/или посмотреть объявления функций в заголовочных файлах — в моих, отечественных дистрибутивах они находятся в `/usr/include/dnet`. У меня вот желания не возникло, поэтому «заклинания» из LaBrea перекочевали в проект практически без изменений.
По libpcap имеется достаточное количество обучающих статей и рассматривать каждую строчку не вижу смысла. И также особо туда не вникал — если первый рабочий прототип запустился, то бегом писать полезную нагрузку!
Функция `pkt_init` с параметром 100. Данная функция также из комплекта LaBrea, из файлика pkt.c и занимается она тем, что с помощью собственного менеджера памяти (bget.c, bget.h) формирует буфер на 100 пакетов. Можно было бы открутить и заменить на malloc, но решил пока оставить.
`pcap_loop` — финальная функция, которая фильтрует все пакеты по нашему выражению bpfilter и передаёт в функцию `pkt_handler`.
Компилируем и запускаем также на коленке (исходников мало и они небольшие — будет всё быстро):

Т.к. у нас не реализована обработка сигналов или другие методы корректного завершения программы, то прерываем её выполнение по Ctrl+C и приступаем к следующему этапу.
▍ Первичная обработка входных пакетов
-------------------------------------
Функция `pkt_handler` в настоящее время пустая и нам необходимо заменить её содержимое.
```
void pkt_handler(u_char* client_data, const struct pcap_pkthdr* pcpkt, const u_char* pktdata)
{
struct pkt *pkt;
if (pktdata == NULL)
return;
if (pcpkt->caplen > PKT_BUF_LEN) {
printf("Dropping oversize packet");
return;
}
if ((pkt = pkt_new()) == NULL) {
printf("Error allocating new packet");
return;
}
memcpy(pkt->pkt_data, pktdata, pcpkt->caplen);
pkt->pkt_end = pkt->pkt_data + pcpkt->caplen;
pkt_decorate(pkt);
if (ntohs(pkt->pkt_eth->eth_type) == ETH_TYPE_IP) {
if (pkt->pkt_ip == NULL) return;
ip_handler(pkt);
}
pkt_free(pkt);
return;
}
```
В самом начале мы объявили указатель на структуру pkt, которая будет хранить метаданные, связанные с этим пакетом.
Структура объявлена в pkt.h и полностью состоит из структур библиотеки libdnet, а также буфера, в котором содержится сетевой кадр в чистом виде.
Далее мы проверяем наличие данных, длину пакета и делаем копию пакет в нашу структуру pkt.
Потом стоит вызов функции `pkt_decorate`(pkt), также взятой из LaBrea. Тут следует как раз более глубоко познакомиться со структурой pkt и её назначением. В заголовочных файлах libdnet — eth.h, arp.h, icmp.h, ip.h, tcp.h, udp.h и т.д. очень хорошо расписана структура заголовков соответствующих протоколов. И если правильно разместить указатели структуры pkt на «сырые» данные перехваченного пакета, то можно легко адресовать и манипулировать полями протоколов верхнего уровня. Т.е. pkt\_eth поставить на начало пакета ethernet, то в eth\_data надо аккуратно занести адрес первого байта после заголовка Ethernet. По полю eth\_type мы определим формат полезной нагрузки и, соответственно, будем использовать либо struct ip\_hdr \*ip либо struct arp\_hdr \*arp либо u\_char \*eth\_data для доступа к полям IP, ARP или сырым данным. Объединение ссылок на структуры в union позволяет производить настройку адресации всех структур одним присвоением. Вот именно этим и занимается довольно жирная функция pkt\_decorate, а также там проводится небольшая работа по исправлению кривых пакетов. Для удобства имеются несколько макроопределений вида pkt\_arp, pkt\_ip, pkt\_icmp, pkt\_tcp\_data которыми мы в дальнейшем будем активно пользоваться.
После проверки на тип пакета `ETH_TYPE_IP` и проверки на корректность указателя структуры `pkt_ip` мы отдаём пакет на обработку функции `ip_handler`. Но, т.к. её пока нет, можно написать простейшую заглушку и заново откомпилировать программу. Впрочем, новых визуальных эффектов мы не получим, а посему самое время приступить к написанию более содержательной функции `ip_handler`.
▍ Рассматриваем IP-пакет
------------------------
А вот здесь начинается уже интересное!
Кусочек кода, который вставляем чуть выше функции `pkt_handler`:
```
static void ip_handler (struct pkt *pkt)
{
printf("pkt_eth src:%s dst:%s proto:%04X\n",
eth_ntoa(&pkt->pkt_eth->eth_src),
eth_ntoa(&pkt->pkt_eth->eth_dst),
ntohs(pkt->pkt_eth->eth_type));
printf("pkt_ip v:%d hl:%d tos:%0X len:%d id:%04X off:%0X ttl:%d p:%d sum:%04X src:%s dst:%s\n",
pkt->pkt_ip->ip_v, pkt->pkt_ip->ip_hl*4, pkt->pkt_ip->ip_tos,
ntohs(pkt->pkt_ip->ip_len), ntohs(pkt->pkt_ip->ip_id),
pkt->pkt_ip->ip_off,
pkt->pkt_ip->ip_ttl, pkt->pkt_ip->ip_p,
ntohs(pkt->pkt_ip->ip_sum),
lbio_ntoa(ntohl(pkt->pkt_ip->ip_src)),
lbio_ntoa(ntohl(pkt->pkt_ip->ip_dst)));
switch(pkt->pkt_ip->ip_p) {
case IPPROTO_TCP:
if (pkt->pkt_tcp == NULL) return;
printf("pkt_tcp sport:%d dport:%d seq:%0d ack:%d off:%d flags:%0X win:%d sum:%04X\n",
ntohs(pkt->pkt_tcp->th_sport), ntohs(pkt->pkt_tcp->th_dport),
ntohl(pkt->pkt_tcp->th_seq), ntohl(pkt->pkt_tcp->th_ack),
pkt->pkt_tcp->th_off*4, pkt->pkt_tcp->th_flags,
ntohs(pkt->pkt_tcp->th_win), ntohs(pkt->pkt_tcp->th_sum));
break;
case IPPROTO_UDP:
if (pkt->pkt_udp == NULL) return;
printf("pkt_udp sport:%d dport:%d ulen:%d sum:%04X\n",
ntohs(pkt->pkt_udp->uh_sport), ntohs(pkt->pkt_udp->uh_dport),
ntohs(pkt->pkt_udp->uh_ulen), ntohs(pkt->pkt_udp->uh_sum));
break;
case IPPROTO_ICMP:
if (pkt->pkt_icmp == NULL) return;
printf("pkt_icmp type:%d, code:%d, cksum:%04X\n",
pkt->pkt_icmp->icmp_type,
pkt->pkt_icmp->icmp_code,
ntohs(pkt->pkt_icmp->icmp_cksum));
return;
default:
break;
}
printf("\n");
return;
}
```
В настоящее время эта функция выводит заголовки сетевых протоколов. В параметрах функции printf наглядно видно, как обращаться к полям заголовков различных протоколов, а также где требуется преобразование порядка следования байт.
Мы смело пишем заголовки ethernet и ip без проверки протоколов, т.к. чётко понимаем, что именно нам отдаёт libpcap на основе фильтра. А вот далее нам необходимо производить рассмотрение пакетов в зависимости от типа протокола в IP-пакете.
В начале каждого case у нас стоит проверка на NULL, на случай сбоя `pkt_decorate`. Что означают данные, которые мы рисуем, необходимо смотреть в соответствующей литературе. Приведу источники:
* INTERNET PROTOCOL — RFC 791
* Transmission Control Protocol (TCP) — RFC 9293
* User Datagram Protocol — RFC 768
* ICMP — RFC 792, 950, 1256, 1393, 1475, 2002, 2521
По протоколу TCP сослался на самый свежий RFC, по нему недавно была здесь
[статья](https://habr.com/ru/company/vasexperts/blog/684516/), однако libdnet опирается на RFC 793. Ничего страшного в этом нет, т.к. радикально нового и несовместимого в RFC 9293 не занесли — просто собрали все расширения вместе.
Читать RFC в оригинале круто, интересно, схемы и структуры пакетов там клёвые, но иногда хочется что-нибудь более доходчивое и на родном языке. В данном случае могу посоветовать книгу У.Р.Стивенса «Unix. Разработка сетевых приложений»:

После компиляции можно пробовать. Для начала с соседней машины попингуем какой-либо адрес из нашей несуществующей сети. На консоли должна отобразиться расшифровка входящих icmp-пакетов. Затем очередь протокола UDP. Это просто — запускаем snmpget на тот-же адрес. И завершаем проверкой TCP (запуск telnet):

Всё работает как и ожидалось — уже понятно, что можно получать пакеты и как разбирать их структуру.
В дальнейшем, когда начнёте формировать сетевые пакеты вручную, рекомендую трафик рассматривать через tcpdump или wireshark — они показывают структуру пакетов в более детальном виде, а также указывают ошибки в некорректных пакетах.
▍ Отвечаем на ping
------------------
Сначала небольшое изменение в функцию ip\_handler — после вывода на консоль содержимого icmp-пакета добавим несколько строк кода:
```
struct addr a;
addr_aton("10.0.0.13", &a);
if ((pkt->pkt_icmp->icmp_type == ICMP_ECHO)
&& (pkt->pkt_icmp->icmp_code == ICMP_CODE_NONE))
if (pkt->pkt_ip->ip_dst == a.addr_ip) send_icmp_reply(pkt);
```
Здесь всё просто и понятно — мы завели структуру для IP-адреса и занесли туда информацию из привычной нам десятично-точечной формы IP-адреса (и структура и функция задекларированы в dnet/addr.h). Далее проверяем, что полученный пакет `ICMP_ECHO` — было-бы нелогично отзываться на пакеты другого типа. Затем проверяем кого пингуют — если это хост 10.0.0.13 то вызываем функцию `send_icmp_reply` которой в параметрах передадим исходный пакет.
Для этого создадим чуть выше функции ip\_handler нашу новую функцию:
```
void send_icmp_reply(struct pkt *pkt)
{
struct pkt *new = NULL;
new = pkt_dup(pkt);
new->pkt_icmp->icmp_type = ICMP_ECHOREPLY;
eth_pack_hdr(new->pkt_eth,
pkt->pkt_eth->eth_src, /* orig src MAC becomes new dest MAC */
io.mymac, /* my own mac becomes new src MAC */
ETH_TYPE_IP);
ip_pack_hdr(new->pkt_ip,
0, /* tos */
ntohs(new->pkt_ip->ip_len), /* IP hdr length */
rand_uint16( io.rnd ), /* ipid */
0, /* frag offset */
IP_TTL_DEFAULT,
IP_PROTO_ICMP, /* ip protocol of original pkt */
pkt->pkt_ip->ip_dst, /* orig dst becomes new src addr */
pkt->pkt_ip->ip_src);
ip_checksum(new->pkt_ip, new->pkt_end - new->pkt_eth_data);
int ret_code = eth_send(io.eth, new->pkt_eth, new->pkt_end - (u_char *) new->pkt_eth);
if (ret_code < 0)
printf("*** Problem sending packet\n");
pkt_free(new);
return;
}
```
Это довольно простая функция, т.к. ответный пакет icmp на пинг имеет очень идентичную структуру и состав. Первым делом формируем новый пакет, но не с нуля, а полным дублированием входящего пакета. Это значительно упрощает нашу задачу, т.к. пакет запроса и ответа фактически одинаковые и в них только меняется тип пакета с исходным и приёмным адресами. Также функция `pkt_dup` корректно расставляет указатели на заголовки пакетов.
После дублирования ставим тип icmp-пакета как `ICMP_ECHOREPLY`.
Макросом `eth_pack_hdr` (объявлен в dnet/eth.h) корректируем поля eth — в качестве приёмника
MAC-адрес машины, которая нас пингует. В поле src вписываем свой MAC-адрес, т.к. мы находимся в одном домене коллизий и являемся «честным» маршрутизатором :).
Следующий макрос `ip_pack_hdr` (объявлен в dnet/ip.h) правим заголовки IP. Аналогично меняем местами IP-адреса. Можно ещё поменять ttl пакета, чтобы показать, что мы находимся за несколькими маршрутизаторами, или как здесь поставить `IP_TTL_DEFAULT`.
Считаем контрольную сумму IP-пакета и производим отправку его в сеть.
Компилируем и пробуем пинговать адреса 10.0.0.13 и 10.0.0.1:

▍ Усложняем пример — грамотно отказываемся пинговаться
------------------------------------------------------
Правим ip\_handler:
```
if (pkt->pkt_ip->ip_dst == a.addr_ip)
send_icmp_reply(pkt);
else
send_icmp_unreach(pkt, "10.0.5.30", ICMP_UNREACH_NET);
```
Изменения в логике программы — мы пингуем и получаем честный ответ от 10.0.0.13, а остальное нам должно выводить отбой в виде сообщения «Destination Net Unreachable» и не просто 100% потерю пакетов, как раньше, а ещё полноценное количество ошибок.
Как видно у нас появляется новая функция send\_icmp\_unreach с дополнительными параметрами. Связано это с тем, что пакет типа `ICMP_UNREACH` детализирует причину отбоя в поле `code`. Причин этих может быть несколько, а точнее 16 видов. Перечислять и толковать их здесь не буду — сами посмотрите в соответствующей литературе или в `dnet/icmp.h`. В нашей ситуации идеально подойдут `ICMP_UNREACH_NET` и `ICMP_UNREACH_HOST`.
А вот и реализация `send_icmp_unreach`:
```
void send_icmp_unreach(struct pkt *pkt, char *host, int reason)
{
struct pkt *new = NULL;
if ((new = pkt_new()) == NULL) {
printf("*** Error allocating the new outbound pkt\n");
return;
}
eth_pack_hdr(new->pkt_eth,
pkt->pkt_eth->eth_src, /* orig src MAC becomes new dest MAC */
io.mymac, /* my own mac becomes new src MAC */
ETH_TYPE_IP);
int quote_len = pkt->pkt_ip->ip_hl*4 + 8; /* original packet IP header + 8 bytes */
struct addr a;
addr_aton(host, &a);
ip_pack_hdr(new->pkt_ip,
0, /* tos */
(IP_HDR_LEN + ICMP_LEN_MIN + quote_len), /* IP hdr length */
rand_uint16( io.rnd ), /* ipid */
0, /* frag offset */
IP_TTL_DEFAULT,
IP_PROTO_ICMP, /* ip protocol of original pkt */
a.addr_ip,
pkt->pkt_ip->ip_src);
new->pkt_icmp_msg = (union icmp_msg *)(new->pkt_ip_data + ICMP_HDR_LEN);
new->pkt_end = (u_char *)new->pkt_eth_data + ntohs(new->pkt_ip->ip_len);
icmp_pack_hdr_quote(new->pkt_icmp, ICMP_UNREACH, reason, 0, pkt->pkt_ip, quote_len);
/*
new->pkt_icmp->icmp_type = ICMP_UNREACH;
new->pkt_icmp->icmp_code = reason;
new->pkt_icmp_msg->unreach.icmp_void = 0;
memcpy(new->pkt_icmp_msg->unreach.icmp_ip, pkt->pkt_ip, quote_len);
*/
ip_checksum(new->pkt_ip, new->pkt_end - new->pkt_eth_data);
int ret_code = eth_send(io.eth, new->pkt_eth, new->pkt_end - (u_char *) new->pkt_eth);
if (ret_code < 0)
printf("*** Problem sending packet\n");
pkt_free(new);
return;
}
```
На первый взгляд функция не особо отличается от `send_icmp_reply`, однако здесь всё сложнее.
Для начала — новый пакет мы получаем не дублированием входящего, а созданием с нуля.
Манипуляции с eth без изменений — тут ничего дополнительно не придумать.
Далее вычисляем длину «цитируемого» участка (quote\_len). Это необходимо потому, что когда формируется пакет icmp-unreachable, то в качестве данных прикладывается заголовок ip-дейтаграммы и первые 8 байт исходного пакета. Этих данных обычно достаточно для проведения дальнейшей диагностики причины недоставки пакета.
Как её считаем: берём размер заголовка ip исходного пакета (он указывается в 32-битовых словах, поэтому умножим на 4) и добавляем ещё 8 байт.
Формирование заголовка IP для нашего нового пакета. Очень важный момент — правильно посчитать длину пакета. Длина ip-пакета будет состоять из длины IP-заголовка (IP\_HDR\_LEN — dnet/ip.h), длины ICMP-заголовка (ICMP\_LEN\_MIN — dnet/icmp.h) и длины цитируемого участка (quote\_len).
Также тут в качестве IP-адреса исходящего пакета указан «левый» адрес — по стандарту отбой генерирует устройство, которое обнаружило проблему.
Именно данная возможность позволяет нам отследить маршрут трафика к конечному устройству. С помощью traceroute последовательно отправляются в адрес устройства пакеты с нарастающим ttl — от 1 до победы. После каждого «прыжка» через маршрутизатор ttl уменьшается на единицу. Если ttl обнулилось, то маршрутизатор, который это заметил, генерирует в адрес отправителя пакет icmp типа `ICMP_TIMEXCEED` со своим адресом, в качестве исходящего адреса пакета. На основании этих пакетов утилита traceroute выводит перечень транзитных узлов до целевой системы. Ну и также следует упомянуть что отбой можно генерировать не только на icmp-пакеты, как в примере, а вообще на ip-пакеты с любым протоколом.
Так как мы сформировали пакет «с нуля», то для дальнейшей работы необходимо правильно разместить указатели в структуре pkt. Следующие две строчки приводят в порядок указатели `pkt_icmp_msg` и `pkt_end`. Мы не можем здесь воспользоваться `pkt_decorate`, т.к. наш пакет ещё не доделан.
Корректная установка `pkt_icmp_msg` позволяет нам использовать макрос `icmp_pack_hdr_quote` (dnet/icmp.h), который соберёт ответный пакет и вложит в него необходимое количество байт из оригинального пакета. Если нет желания применять макрос, то собираем данные для icmp-ответа вручную. Соответствующий код закомментирован.
В конце стандартно — подсчёт контрольной суммы и отправка.
Повторяем эксперимент с пингами, результат завораживает:

И если бы мы не знали как сформированы эти ответы, то были бы немного удивлены каким образом могут приходить пинги из недостижимой сети :)
▍ SNMP
------
Задача на первый взгляд также несложная. Однако и тут есть некоторые тонкости, из-за которых возникает желание убрать из названия слово Simple. Прежде всего это использование ASN.1 для кодирования всей информации — как запросов, так и ответов. Насколько это просто можно глянуть в статье [ASN.1 простыми словами.](https://habr.com/ru/post/150757/).
Ну и сам протокол SNMP также заслуживает особого внимания.
Для своих нужд, я не стал занимался реализации asn.1 декодера/кодера с нуля, да и внутренности snmp-пакетов разбирал только на бумажке, когда прикручивал к своему проекту библиотеку [csnmp](https://github.com/nikandfor/csnmp) (Copyright © 2019 Nikifor Seryakov).
В виду большого объёма как пояснений, так и примеров, это всё планирую вынести в отдельную статью.
▍ Конец
-------
Вот и всё, проект свой я ещё не завершил, но «кирпичиков» для его фундамента уже достаточно, чтобы на слабой офисной машинке развернуть огромную сеть-мираж, где будут пинговаться несуществующие хосты, приходить непонятные отбои и бесследно исчезать сетевые пакеты.
На этом закругляемся — думаю, что первое знакомство с libpcap и libdnet состоялось.
> **[Telegram-канал](https://bit.ly/3KZeaxv) и [уютный чат](https://bit.ly/3qoIOXs)**
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=article&utm_campaign=alef13%0A&utm_content=kak_zavladet_setyu_/16_s_pomoshhyu_libpcap_i_libdnet) | https://habr.com/ru/post/688314/ | null | ru | null |
# Вконтакте wall.post посредством C#
В рамках одного нашего проекта в [Brights](https://brights.io) появилась необходимость реализовать автоматическую публикацию обновлений на стену сообщества Вконтакте. Подобная задача, думаю, встречается довольно часто. Подкатом предлагаю готовый пример реализации на языке C#.
Для этого нам необходимо:
1. зарегистрировать приложение и получить AppID и AppSecret. Как это сделать описано [здесь](http://habrahabr.ru/blogs/social_networks/125155/);
2. направить пользователя на страницу вконтакте, где он подтвердит предоставление полномочий Вашему приложению на действия от его имени;
3. получить Token;
4. опубликовать сообщение на стену.
Шаг 1: регистрация приложения
-----------------------------
После регистрации Вашего приложения Вы получите 2 параметра, которые нам понадобятся далее:
1. ID приложения (**AppID**);
2. Секретный ключ приложения (**AppSecret**).
Шаг 2: получение Code
---------------------
В случае успешного подтверждения предоставление полномочий Вашему приложению вконтакте возвращает параметр **Code**, который нам понадобится для получения **Token**-a. Создадим класс **Vk** с методом **GetCode()**, который будет направлять пользователя на соответствующую страницу.
> `[public static class Vk
>
> {
>
> public static void GetCode()
>
> {
>
> string reqStrTemplate =
>
> "http://api.vkontakte.ru/oauth/authorize?client\_id={0}&scope=offline,wall";
>
>
>
> System.Diagnostics.Process.Start(
>
> string.Format(reqStrTemplate, Publics.Vk\_AppID));
>
>
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter](http://virtser.net/blog/post/source-code-highlighter.aspx).`
В моем случае это десктоп приложение, поэтому для того, чтобы использовать параметр Code, пользователь должен самостоятельно скопировать его со страницы, и передать приложению (ввести в соответствующий edit). Если у Вас веб-приложение, то дела обстоят немного лучше, и Вы можете задать в параметрах get-запроса адрес для редиректа (&redirect\_uri=http://yoursite), и затем получить параметр Code непосредственно в Ваше приложение.
Шаг 3: Token
------------
Получив **Token** (ключ) Вы сможете в дальнейшем осуществлять действия от имени пользователя опустив шаги 1-3. По сути Token является краеугольным камнем авторизации любого приложения поддерживающего/дублирующего протокол OAuth. Итак, для получения Token-а нам необходимо указать **AppID**, **AppSecret** и **AppCode**. 1-й и 2-е параметры мы получили при регистрации приложения, а параметр AppCode получили в предыдущем шаге.
В случае успешного получения Token-а вконтакте возвращает json c Token-ом, сроком истечения Token-а и ID пользователя, с которым сопоставлен Token.
> `[public class VkJsonTokenResponse
>
> {
>
> public string access\_token { get; set; }
>
> public string expires\_in { get; set; }
>
> public string user\_id { get; set; }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter](http://virtser.net/blog/post/source-code-highlighter.aspx).`
> `[public static string GetToken(string Code)
>
> {
>
> string reqStrTemplate =
>
> "https://api.vkontakte.ru/oauth/access\_token?client\_id={0}&client\_secret={1}&code={2}";
>
>
>
> string reqStr = string.Format(reqStrTemplate, Publics.Vk\_AppID, Publics.Vk\_Secret, Code);
>
>
>
> WebClient webClient = new WebClient();
>
> string response = webClient.DownloadString(reqStr);
>
>
>
> JavaScriptSerializer s = new JavaScriptSerializer();
>
> VkJsonTokenResponse jsonResponse = s.Deserialize(response);
>
> Token = jsonResponse.access\_token;
>
> SaveTokens();
>
> return Token;
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter](http://virtser.net/blog/post/source-code-highlighter.aspx).`
Шаг 4: Заключительный этап публикация на стене
----------------------------------------------
Имеется возможность опубликовать текст, ссылку/медиа-контент.
> `[public static string PostMessage(string Message, string Link, string CapchaID, string CapchaKey)
>
> {
>
> string reqStr = string.Format(
>
> "https://api.vkontakte.ru/method/wall.post?owner\_id={0}=&access\_token={1}&message={2}",
>
> Publics.Vk\_GroupID, Vk.Token, Message);
>
>
>
> if (!string.IsNullOrEmpty(Link))
>
> reqStr += string.Format("&attachment={0}", System.Web.HttpUtility.UrlEncode(Link));
>
>
>
> if (!string.IsNullOrEmpty(CapchaID))
>
> reqStr += string.Format("&captcha\_sid={0}", CapchaID);
>
>
>
> if (!string.IsNullOrEmpty(CapchaKey))
>
> reqStr += string.Format("&captcha\_key={0}", CapchaKey);
>
>
>
> WebClient webClient = new WebClient();
>
> return webClient.DownloadString(reqStr);
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter](http://virtser.net/blog/post/source-code-highlighter.aspx).`
При публикации простого текста, вы получаете в response **post\_id**. При публикации текста и ссылки вы получате **processing:1**, что говорит о том что вконтакте принял ваш запрос, и возможно опубликует пост. Почему «возможно» смотрите в конце статьи.
Ну и код для загрузки и сохранения Token-а:
> `[private static void SaveTokens()
>
> {
>
> XmlSerializer s = new XmlSerializer(typeof(string));
>
> FileStream fs = new FileStream(Publics.CurrPath + "vk.xml", FileMode.OpenOrCreate);
>
> s.Serialize(fs, Token);
>
> fs.Flush();
>
> }
>
>
>
> public static void LoadTokens()
>
> {
>
> try
>
> {
>
> XmlSerializer s = new XmlSerializer(typeof(string));
>
> FileStream fs = new FileStream(Publics.CurrPath + "vk.xml", FileMode.Open);
>
> Token = (string)s.Deserialize(fs);
>
> }
>
> catch (Exception ex)
>
> {
>
> Error.SaveError("Vk.LoadTokens", ex.Message);
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter](http://virtser.net/blog/post/source-code-highlighter.aspx).`
Хранить один параметр в xml это излишество, согласен с Вами, но до урезания кода для статьи параметр был не один.
Несколько практических советов/разочарований
--------------------------------------------
1. Вы не можете публиковать ссылку нигде, кроме своей стены. Обходной путь — добавить ссылку в текст, при этом вконтакте распознает ее и делает кликабельной. Пример [тут](http://habrahabr.ru/blogs/social_networks/125155/);
2. Если Вы публикуете посты со ссылкой (на свою страницу), то следите за тем чтобы ссылка была валидной (вела на существующую страницу + не забываем System.Web.HttpUtility.UrlEncode(Link)). Это важно, потому как в случае если ссылка не валидна, пост не будет опубликован и Вы никак не сможете это остледить (как я писал выше, публикация постов со ссылками происходит в асинхронном режиме, и в response Вы получите processing:1;
3. Вы не можете публиковать одновременно и ссылку и картинку;
4. Вы не можете публиковать посты от имени группы;
5. Отправляйте запросы на публикацию с интервалом 2-5 минут, иначе Вам придется организовывать распознавание капчи: в ответ за запрос публикации Вы получите ссылку на изображение капчи, и затем к повторному запросу на публикацию Вам необходимо будет добавить 2 параметра: ID капчи (**captcha\_sid**) и распознанное значение (**captcha\_key**).
Несмотря на убогость вконтакте API, реализовать автоматический постинг в группу вконтакте новостей вашего портала/журнала/блога достаточно просто.
**Ссылки:**
1. [Документация Вконтакте API](http://vkontakte.ru/developers.php?o=-1&p=wall.post) | https://habr.com/ru/post/125409/ | null | ru | null |
# Разработка приложения с использованием Python и OpenCV на Android устройстве

В это статье я хочу показать пример того, как андроид устройство можно использовать для разработки на таких языках программирования как python с библиотекой opencv в среде VSCode (будет использован code-server). В конце статьи приведено небольшое сравнение производительности Termux на моем Android устройстве и Raspberry Pi 3B.
Все действия описанные статье выполнялись на:
Huawei MediaPad M5 10.8
4GB ОЗУ, Hisilicon Kirin 960s, EMUI 9, без root
Для начала понадобится установить [Termux](https://play.google.com/store/apps/details?id=com.termux&hl=ru) (эмулятор терминала, предоставляющий возможности среды Linux), о [приложении](https://habr.com/ru/company/vdsina/blog/521510/) уже [писали](https://habr.com/ru/post/301442/) на [habr](https://habr.com/ru/post/343760/).
Далее установим необходимые пакеты, а так же, для более быстрой настройки в дальнейшем, установим ssh сервер:
```
$ pkg update -y pkg install curl openssh autossh termux-services screen
$ sv-enable sshd
$ sv up sshd
```
Теперь можно воспользоваться более удобным для ввода устройством и выполнять действия по ssh. В данной статье будет рассмотрен способ подключения с использованием логина и пароля, для этого необходимо узнать имя текущего пользователя и задать пароль:
```
$ whoami
u0_a137
$ passwd
```
По умолчанию openssh прослушивает порт 8022, узнать ip адрес устройства можно с помощью команды ifconfig:
```
$ ifconfig
wlan0: flags=4163 mtu 1500
inet 192.168.1.88 netmask 255.255.255.0 broadcast 192.168.1.255
```
Подключаемся к Termux:
```
$ ssh u0_a137@192.168.1.88 -p 8022
```
Установить opencv-python в собственном окружении Termux мне не удалось, поэтому воспользуемся трудами Andronix и запустим в Termux Ubuntu 18.04.
```
$ curl https://raw.githubusercontent.com/AndronixApp/AndronixOrigin/master/Installer/Ubuntu/ubuntu.sh | bash
```
В официальном приложением Andronix можно найти команды для установки других дистрибутивов таких как Kali, Manjaro и т.д.
*Дополнение 17.11.2020. Если во время установки появляется ошибка proot, читаем [комментарий](https://habr.com/ru/post/528604/#comment_22324652), спасибо [@makaedgat](https://habr.com/users/makaedgat/).*
Если все выполнилось успешно на экране появится
```
You can now launch Ubuntu with the ./start-ubuntu.sh script
```
Запускаем Ubuntu
```
$ ./start-ubuntu.sh
```
Установим пакеты необходимые для разработки на python3 с использованием opencv:
```
$ apt update
$ apt install curl git net-tools unzip yarn nano nodejs python3-dev python3-pip python3-opencv -y
```
*Установка занимает довольно много времени.*
Теперь установим code-server
```
$ curl -fsSL https://code-server.dev/install.sh | sh
```
После установки code-server необходимо отредактировать файл конфигурации
```
$ nano ~/.config/code-server/config.yaml
bind-addr: 127.0.0.1:8080
auth: password
password: 4a40bd9973dae545b3b4c037
cert: false
```
По умолчанию code-server прослушивает адрес 127.0.0.1:8080, для обращения к code-server с других устройств необходимо поменять bind-addr на 0.0.0.0:8080. Присутствует возможность авторизации по паролю. Для задания пароля необходимо изменить значение password. Для отключения авторизации необходимо указать auth: none.
Все действия в статье выполняются в Ubuntu без графического интерфейса в результате чего нет возможности использовать imshow, но есть способ транслировать видео в браузер используя библиотеку flask и специальный [MIME тип multipart.](https://en.wikipedia.org/wiki/MIME#Multipart_messages)
Чтобы не отвлекаться на написание кода, используемого в статье для примера, его можно взять в моем github [репозитории](https://github.com/guinmoon/flask_opencv_sample).
```
$ git clone https://github.com/guinmoon/flask_opencv_sample
$ cd flask_opencv_sample && pip3 install flask
```
**Открываем проект в code-server**

При первом открытии будет предложено установить расширение Python — соглашаемся.
Установим приложение для потоковой передачи с камеры устройства, например [IP Webcam](https://play.google.com/store/apps/details?id=com.pas.webcam&hl=ru&gl=US). Главное требование к приложению — возможность транслировать с камеры поток понятный opencv, например rtsp. Разрешение видео потока настраиваем в зависимости от производительности устройства. На моем самое оптимальное 1280x720.
Запускаем трансляцию видео в IP Webcam и проект:

В заключение хочу отметить, что при наличии современного Android устройства его можно использовать как альтернативу raspberry pi. Так, например, сняв ограничения энергопотребления домашний планшет можно использовать как полноценный arm64 мини пк, работающий в фоне постоянно. При этом производительность у Termux вполне высокая.
**Сравнение запуска того же кода на Raspberry pi 3**
Разрешение видео 1280x720
Далее несколько дополнений которые не вошли в основную статью
**Память устройства**
Для того чтобы иметь возможность обмениваться файлами между termux и android необходимо в выполнить команду
```
$ termux-setup-storage
```
Теперь локальная память устройства примонтирована в ~/storage
**.Net Core**
Присутствует возможность компилировать приложения .net-core, но к сожалению без возможности отладки так как нет версии OmniSharp скомпилированной под arm.
в start\_ubuntu.sh
ищем строчку
command+=" -b /data/data/com.termux/files/home:/root"
и исправляем ее на
command+=" -b /data/data/com.termux/files/home"
```
curl -SL -o dotnet-sdk-3.1.403-linux-arm64.tar.gz https://download.visualstudio.microsoft.com/download/pr/7a027d45-b442-4cc5-91e5-e5ea210ffc75/68c891aaae18468a25803ff7c105cf18/dotnet-sdk-3.1.403-linux-arm64.tar
```
если ссылка не работает то руками качаем от [сюда](https://dotnet.microsoft.com/download/dotnet-core/thank-you/sdk-3.1.403-linux-arm64-binaries).
```
mkdir -p /usr/share/dotnet
tar -zxf dotnet-sdk-3.1.403-linux-arm64.tar.gz -C /usr/share/dotnet
ln -s /usr/share/dotnet/dotnet /usr/bin/dotnet
dotnet new console -o app
cd app
dotnet run
```
**Тестируем производительность с помощью sysbench**
В sourses.list добавляем
deb [ftp.debian.org/debian](http://ftp.debian.org/debian) buster-backports main
```
apt-get update
apt install sysbench
sysbench --test=cpu --cpu-max-prime=20000 --num-threads=4 run
``` | https://habr.com/ru/post/528604/ | null | ru | null |
# Как узнать какие порты на коммутаторах уже не используются
Чуть больше года назад столкнулся с проблемой, знакомой, наверное, каждому админу: в одном из коммуникационных шкафов закончились почти все свободные порты. Визуально было видно, что почти к каждому порту подключён кабель, свободных осталось только один-два порта, а требовалось подключить около десяти новых девайсов.
Мне было чётко ясно, что на самом деле используются не все порты: какие-то, скорее всего, подключали временно, а затем забыли отключить, сетевые принтеры могли переместить и подключить к другому коммутатору, часть портов были подключены для пользователей, за время сменивших свои кабинеты, и т.д.
Отключение неактивных портов было неприемлемо, так как то, что какой-то порт в данный момент не активен, не говорит о том, что он не использовался 10 минут назад, а пользователь просто отключил свой компьютер, и, скажем, уехал на встречу.
В то время, все пользовательские коммутаторы были фирмы Cisco модели 3560, имевшие 100Mbps-порты для пользователей и гнёзда SFP для быстрого канала к концентрирующим коммутаторам, так что тратить как минимум $2500 на дополнительный коммутатор, когда уверен, что на самом деле это совсем необязательно, просто рука не поднималась.
#### Задача
Узнать, какие порты на коммутаторах не использовались в течении последнего месяца.
#### Решение
Все коммутаторы были настроены отсылать свои сообщения на центральный syslog сервер. В моём примере использовался Syslog-NG на Arch Linux, но, естественно, можно использовать любое другое syslog-решение и/или дистрибутив Линукса. Для ротации логов использовался logrotate и логи старее одного месяца стирались. Также насчёт коммутаторов: я полагаю, что на любом управляемом коммутаторе можно настроить отправку сообщений на удалённый syslog-сервер – кроме Cisco, у меня опыт только с Nortel и HP – насколько я помню, они тоже поддерживают эту функцию.
##### Принцип работы
Коммутаторы Cisco по умолчанию генерируют сообщения во время активации и деактивации портов, а так как все коммутаторы были настроены отсылать сообщения на центральный syslog сервер, то все, что оставалось, это проанализировать файлы, хранящие сообщения от коммутаторов. Напомню, что на сервере был настроен logrotate, так что сообщения не хранились больше одного месяца. Думаю, что можно смело предположить что порт, не используемый в течение месяца, скорее всего больше не нужен, и его можно использовать под другие нужды.
##### Примеры настроек
Настроить коммутатор Cisco для отправки сообщений на удалённый syslog-сервер очень просто, следует перейти в режим конфигурирования (configure terminal) и внести всего одну команду:
`logging 10.20.100.12`
(10.20.100.12 – адрес syslog сервера)
Вот строки из syslog-ng.conf отвечающие за приём сообщений по сети:
`source remote_udp {
udp();
};
destination d_switches { file("/var/log/remote/switches.log"); };
filter f_switches { netmask("10.20.120.0/255.255.255.0") or netmask("10.30.120.0/255.255.255.0"); };
log { source(remote_udp); filter(f_switches); destination(d_switches); };`
Как видно из примера, только сообщения из определённых подсетей помещаются в /var/log/remote/switches.log. Сделано это для того, чтоб сообщения от разного оборудования не перемешивались в кашу в одном лог файле. Я предпочитаю, чтоб сообщения от разного по функционалу оборудования помещаются в разные файлы: пользовательские коммутаторы отдельно, концентрирующие коммутаторы отдельно, роутеры отдельно, системы хранения данных отдельно и т.д. В данном примере 10.20.120.0/24 и 10.30.120.0/24 это сегменты сети, в которых расположены служебные IP адреса пользовательских коммутаторов.
Каждый раз, когда к порту коммутатора подключается оборудование, всплывает подобного рода сообщение:
`Apr 27 16:38:44 switch1 330827: Apr 27 15:39:27.317: %LINK-3-UPDOWN: Interface FastEthernet0/4, changed state to up`
А вот пример сообщения в случае отключения оборудования:
`Apr 27 16:38:53 switch1 330830: Apr 27 15:39:37.635: %LINK-3-UPDOWN: Interface FastEthernet0/4, changed state to down`
Вот алгоритм анализа лог файлов:
1. Выбрать только сообщения, исходящие от определённого коммутатора
2. Выбрать только сообщения, включающие строку “LINK-3-UPDOWN”
3. Отрезать не нужные части строк (время, название коммутатора и т.д.), оставив только название порта и его номер
4. Выбрать только сообщения, включающие строку “FastEthernet” (в моём случае все пользовательские порты были 100Mbps, гигабитными были только подключения к концентрирующим коммутаторам)
5. Отрезать всё, кроме номера порта
6. Отсортировать
7. Оставить только уникальные строки
Реализация на bash:
`#!/bin/bash
cat /var/log/remote/switches.log* | grep $1 | grep LINK-3-UPDOWN | cut -d ':' -f 8 | cut -d ' ' -f 3 | grep FastEthernet | cut -d '/' -f 2 | cut -d ',' -f 1 | sort -n | uniq`
##### Пример использования
`# ./usedports.sh switch1
1
3
4
5
6
8
9
10
11
12
13
14
15
17
23
24
25
29
38
39
41
43`
Как видно, скрипт выдал все порты, чей статус (активный / неактивный) менялся в течении последнего месяца. Но что делать, если какой либо из перечисленных выше портов был непрерывно активен всё это время и его статус не менялся? Подключаемся к нужному коммутатору, и выполняем следующую команду:
`show interface description | include down`
Эта команда выводит список всех неактивных портов. Если порт неактивен, и его статус не менялся в течении последнего месяца, значит ему можно искать другое применение.
##### Дополнение
Данное решение отлично работает с отдельными коммутаторами, у которых все пользовательские порты 100Mbps. Но вскоре мы начали добавлять новые коммутаторы моделей 2975 и 2960, производимые всё той же Cisco. Все порты у них гигабитные, а так же они оснащены стековыми модулями, позволяющими объединять несколько коммутаторов в одну управляемую единицу, а это приводило к изменению наименования портов, так как учитывался не только номер порта, но и номер коммутатора в стеке.
Вот модифицированная реализация
`#!/bin/bash
cat /var/log/remote/switches.log* | grep $1 | grep LINK-3-UPDOWN | cut -d ':' -f 8 | cut -d ' ' -f 3 | grep GigabitEthernet | cut -d 't' -f 4 | cut -d ',' -f 1 | sort -t '/' -k 1,1n -k 3,3n | uniq`
#### Заключение
Описанное решение успешно работает в нашей организации уже больше года, без каких-либо модификаций. Его плюсы это низкая цена (в нашем случае совсем бесплатно, так как syslog сервер уже был), лёгкая настройка (в нашем случае настройка не потребовалась, так как все коммутаторы уже были настроены на отсылку сообщений на удалённый syslog сервер) и очень простое использование. Это решение сэкономило нам покупку дополнительных коммутаторов, в которых на самом деле не было надобности и помогает в планировании нашей сети, ведь теперь мы в любой момент можем узнать количество свободных портов на любом коммутаторе, что позволяет вовремя подготавливаться к нуждам растущей организации.
Надеюсь, эта статья будет кому-нибудь полезна.
Желаю удачи! | https://habr.com/ru/post/121890/ | null | ru | null |
# Карты лояльности. Google Pay API for Passes в ASP.NET
Приложения-хранилища банковских карт стремительно вошли в нашу жизнь благодаря Apple Wallet и Google Pay. Обе платформы, помимо банковских, позволяют также работать и с другими типами карт — картами лояльности, подарочными картами, билетами на мероприятия, посадочными талонами и т.д.

Работая в компании, которая занимается обслуживанием одной немаленькой ритейловой сети, мне пришлось интегрировать карты лояльности этой сети в Apple Wallet и Google Pay. И если с Apple Wallet пришлось повозиться только потому что интеграционный слой довольно многофункционален, то с Google Pay большая часть усилий и нервных клеток была потрачена на то чтобы разобраться в документации, найти подходящие инструменты и разработать первый proof of concept. Хоть в целом остальная часть работы прошла гораздо быстрее, чем для Apple Wallet, я потратил день на то чтобы разобраться в том как завести сервис, так что был бы не против, если бы кто-то написал подобную статью до меня.
1. Матчасть
-----------
Карты лояльности представлены при помощи двух сущностей — Loyalty Class и Loyalty Object.
* *Loyalty Class* — своего рода шаблон для всех карт лояльности. Содержит поля общие для всех карт, такие как цвет шрифта, ссылки на ассеты иконок, бэкграундов, текстовые поля и т.д., полное описание можно найти тут: [Loyaltyclass](https://developers.google.com/pay/passes/reference/v1/loyaltyclass)
* *Loyalty Object* — экземпляр LoyaltyClass. Он же содержит в себе данные конкретной карты конкретного клиента — номер карты, имя, дополнительные текстовые поля. Описание тут: [Loyaltyobject](https://developers.google.com/pay/passes/reference/v1/loyaltyobject)
Для того чтобы получить карту, пользователь должен перейти по ссылке формата
*[www.android.com/payapp/savetoandroidpay](https://www.android.com/payapp/savetoandroidpay/)**/{JWT}***, где JWT — токен, создержащий JSON с данными LoyaltyClass. Но так как длина URL имеет ограничения, рекомендуется предварительно создать Loyalty Class, если его структура содержит много символов.
Если необходимо обновить карту в связи с изменением шаблона, стилей, необходимостью добавления или изменения текстовых полей, сделать это можно при помощи API. Необходимо только выполнить POST-запрос с новой версией карты, сервисы Google сами синхронизируют все приложения пользователей, у которых сохранена эта карта.
2. Инструменты и документация
-----------------------------
Проблемой оказалось то, что все примеры в [документации к Google Pay API for Passes](https://developers.google.com/pay/passes/guides/overview/basics/about-google-pay-api-for-passes) были исключительно для Java, PHP и Python, а сама документация настойчиво рекомендовала «использовать клиентские библиотеки для того чтобы упростить процесс» работы с API.
Последовав этому совету я радостно отправился в nuget, но библиотеки для Google Pay там не оказалось. Слава Брину, первая строчка в гугле по запросу «google pay for passes dotnet» выдала страницу [Google Pay API for Passes utility libraries](https://developers.google.com/pay/passes/support/libraries), на которой нашлось то, что мне было нужно, правда в формате ZIP-архива, в котором находился .net проект со сгенерированным классом, являющимся враппером к API Google Pay — [Google Pay API for Passes Client library](https://developers.google.com/pay/downloads/google-walletobjects-v1-rev20181112-csharp-1.9.2-src.zip).
Судя по наличию в проекте файла *Google.Apis.Walletobjects.v1.1.9.2.00.nuspec*, деплой nuget-пакета все же входил в планы команды Google. Открыв этот файл в поисках документации, я ничего конкретного не нашел, а некоторые ссылки, которые были в секции description и вовсе отправляли на несуществующие страницы.
3. Получение access token
-------------------------
Для начала непосредственной работы с Google Pay API for Passes необходимо получить access token, для этого же необходимо:
1. Иметь Google Merchant Account, получить который можно [здесь](https://support.google.com/pay/merchants/contact/instore_merchant_interest)
2. Cоздать Service Account, получить для него файл с credentials — json документ с деталями service account, включающий идентификатор, email, private key и т.д. Как рекомендует документация, хранить этот файл нужно в защищенном месте.
3. Связать Merchant Account и Service Account в Google Merchant Center
При помощи этого файла можно авторизоваться, используя библиотеку *Google.Apis.Auth.OAuth2*:
```
private await Task GetOAuthToken()
{
string serviceAccountFile = string.Empty;
serviceAccountFile = ConfigurationManager.AppSettings["GooglePayServiceAccountConfigPath"];
/\*
Библиотека авторизации имеет несколько типов Credential, GoogleCredential был выбран потому что его без проблем можно создать из файла с деталями Service Account, используя статический метод, при этом не теряются необходимые scopes API, указанные в этом файле
\*/
var credential = GoogleCredential.FromFile(serviceAccountFile)
.CreateScoped(WalletobjectsService.Scope.WalletObjectIssuer);
/\*
Access token имеет срок годности и должен быть обновлен вовремя, но метод GetAccessTokenForRequestAsync берет все действия по управлению валидностью токена на себя, так что об этом можно не волноваться
\*/
var token = async credential.UnderlyingCredential.GetAccessTokenForRequestAsync();
return token;
}
```
4. Создание карты
-----------------
Для того чтобы создать карту лояльности, нужно сперва создать Loyalty Class. Loyalty Class можно создать как при помощи API, так и используя веб-интерфейс Google Merchant Center. Внимание стоит уделить названию класса, так как это название должно быть уникальным в инфраструктуре Google Pay.
После создания Loyalty Class, можно создать Loyalty Object. Для этого уже понадобится библиотека, которую мы добавили в проект ранее: создаем объект запроса, указываем OAuth token, передаем созданный объект LoyaltyObject, выполняем запрос:
```
public GooglePayApiService()
{
//Идентификатор эмиттера, выданный после создания Merchant Account
IssuerId = ConfigurationManager.AppSettings["GooglePayIssuerId"];
_wobService = new WalletobjectsService();
}
private async Task ConvertLoyaltyObjectFromTemplate(GooglePayPassTemplate template)
{
string id = $"{IssuerId}.{template.SerialNumber}";
string loyaltyClassName = ConfigurationManager.AppSettings["GooglePayStoreCardClassName"];
var loyaltyClass = await GetLoyaltyClass(loyaltyClassName);
var result = new LoyaltyObject
{
Id = id,
AccountName = template.AccountName,
Barcode = new Barcode
{
AlternateText = template.BarcodeText,
Value = template.SerialNumber,
Type = "pdf417"
},
Kind = "walletObject#loyaltyObject",
ClassId = loyaltyClass.Id,
ClassReference = loyaltyClass,
State = "active"
};
return result;
}
private async Task CreateLoyaltyObject(LoyaltyObject loyaltyObject)
{
var saveRequest = \_wobService.Loyaltyobject.Insert(loyaltyObject);
saveRequest.OauthToken = await GetOAuthToken();
var savedObject = await saveRequest.ExecuteAsync();
return savedObject;
}
```
*GooglePayPassTemplate* в данном примере — это DTO, хранящий в себе шаблон карты для пользователя, который генерируется отдельным разработанным сервисом.
5. Обновление карты
-------------------
Здесь принцип тот же, что и при создании: генерируем запрос, передаем обновленный объект LoyaltyObject, выполняем:
```
private async Task UpdateLoyaltyObject(LoyaltyObject loyaltyObject)
{
var updateRequest = \_wobService.Loyaltyobject.Update(loyaltyObject, loyaltyObject.Id);
updateRequest.OauthToken = await GetOAuthToken();
var savedObject = await updateRequest.ExecuteAsync();
return savedObject;
}
```
После выполнения запроса, карта в приложениях пользователей, у которых она установлена, будет обновлена спустя несколько секунд, если устройство в сети и есть подключение к Интернет.
6. Генерация JWT
----------------
Для установки карты необходимо перенаправить пользователя по ссылке [www.android.com/payapp/savetoandroidpay](https://www.android.com/payapp/savetoandroidpay)**/{JWT}**. Описание структуры токена можно найти по [этой ссылке](https://developers.google.com/pay/passes/reference/s2w-reference#google-pay-api-for-passes-jwt).
Токен подписывается RSA-SHA256 подписью, которую можно сгенерировать, используя все тот же файл с Service Account credentials:
```
public static class JwtHelper
{
public static string CreateJwtForLoyaltyObject(LoyaltyObject loyaltyObject)
{
/*
В этот раз для работы с credential используем этот класс, потому что у него
статический метод создания подписи
*/
ServiceAccountCredential credential;
var now = DateTime.UtcNow;
DateTime unixEpoch = new DateTime(1970, 01, 01); // 1970-01-01 00:00:00 UTC
var secondsSinceEpoch = (int)Math.Round((now - unixEpoch).TotalSeconds);
string serviceAccountFile = serviceAccountFile = ConfigurationManager.AppSettings["GooglePayServiceAccountConfigPath"];
using (var fs = new FileStream(serviceAccountFile, FileMode.Open, FileAccess.Read, FileShare.Read))
{
credential = ServiceAccountCredential.FromServiceAccountData(fs);
}
/*
Создаем экземпляр класса JwtPayload, был создан для хранения payload-сегментa токена JWT
*/
var jwtPayload = new JwtPayload
{
iat = secondsSinceEpoch,
iss = credential.Id,
payload = new JwtInternalPayload
{
loyaltyObjects = new[]
{
new LoyaltyObjectPayload
{
id = loyaltyObject.Id
}
}
}
};
string header = @"{""alg"":""RS256"",""typ"":""JWT""}";
string payload = JsonConverter.SerializeObject(jwtPayload);
string base64Header = EscapedBase64(Convert.ToBase64String(Encoding.UTF8.GetBytes(header)));
string base64Payload = EscapedBase64(Convert.ToBase64String(Encoding.UTF8.GetBytes(payload)));
//считаем саму подпись при помощи статического метода класса Signature
string signature =
EscapedBase64(credential.CreateSignature(
Encoding.UTF8.GetBytes($"{base64Header}.{base64Payload}")
));
var token = $"{base64Header}.{base64Payload}.{signature}";
return token;
}
private static string EscapedBase64(string base64)
{
return base64.Replace('+', '-')
.Replace('/', '_')
.Replace("=", "");
}
}
```
Заключение
----------
В этой статье мы поверхностно прошли по основам работы с Google Pay API for Passes: настройке аккаунтов, подключению к API, созданию Loyalty Class и Loyalty Object.
Если НЛО благоволит, расскажу отдельно про то как работать с Apple Wallet (там все сложнее в плане реализации), как подружить Apple Wallet с Google Pay в одном веб-сервисе и не испытывать боли.
### Полезные ссылки
* [Регистрация Merchant Account](https://support.google.com/pay/merchants/contact/instore_merchant_interest)
* [Документация Google Pay API for Passes](https://developers.google.com/pay/passes/guides/overview/basics/about-google-pay-api-for-passes)
* [Клиентские библиотеки для работы с Google Pay API for Passes](https://developers.google.com/pay/passes/support/libraries) | https://habr.com/ru/post/434486/ | null | ru | null |
# Может ли сойти с ума искусственный интеллект?
Меньше месяца назад я нашел себе новое развлечение — инфов. Если вдруг кто еще не знает о них, почитайте [здесь](http://habrahabr.ru/blogs/i_am_advertising/54232/). Для простых людей, вроде меня, инфы — это как семечки. Толку ноль, но оторваться почти невозможно. Здесь я вкратце расскажу о собственном опыте обучения двух инфов: умного и дебильного.
Первого инфа я поселил у себя в [блоге](http://voliadis.ru), чтобы тот развлекал немногочисленных посетителей. Мне хотелось сделать так, чтобы читатель моего блога мог получить ответ на некоторые вопросы обо мне и сайте, от электронного секретаря. Кое-что удалось. Но полное отсутствие памяти у инфов, а так же довольно примитивная система составления шаблонов вопрос-ответ, весьма ограничивают интеллект инфа.
В чем же интерес обучать эту программу? Наверное, в чтении диалогов инфа с гостями. Если не обращать внимание на мат и оскорбления от некоторых людей, чтение довольно занятное:)
После пары недель работы с серьезным академическим инфом, я решил сделать нового, которого проще всего сделать в существующей системе инфостроя. Из-за отсутствия полного контроля над встроенными шаблонами, я просто их отключил и создал свои. Процесс создания был прост: писал все фразы, которые приходили в голову. Как результат — полноценный боевой [бредоносец](http://delirium.iii.ru/).
Что увидит, осмелившийся заговорить с ним? Тяжелое нарушение психики. Полный отрыв от реальности. Каждая мысль сама по себе. Сначала вас обольют грязью, затем слезами, а потом опять грязью или слезами. Навязчивый и зацикленный на своих галлюцинациях инф. Читая его разговоры с гостями, я, временами, дико хохотал:) Второй инф полностью выполняет поставленные перед ним задачи, чего не скажешь о первом.
Вот и закончилась моя заметка. Как и положено, в конце выводы.
Хороший сервис, ничего не скажешь. Понятно, что это только начало, поэтому все так примитивно. Подождем. А пока можно развлекаться и делириозными инфами — это повышает самооценку:).
**UPD:** Большое спасибо хабрапользоватедям за интерес к моим инфам, как только прочту все три с лишним сотни разговоров с ними, выложу сюда самые интересные отрывки диалогов.
Как и обещал, интересные отрывки из диалогов:
Иннокентий
`23:28 Инф: Тебе часто снятся кошмары?
23:28 Гость: нет
23:28 Инф: Везет же тебе:) А у тебя когда-нибудь сны сбывались?
23:28 Гость: судя по всему ты еврей!!!
23:28 Инф: А ведь и правда!`
`23:32 Инф: Я не могу разговаривать об этом и не могу объяснить почему...
23:32 Гость: Бла-бла-бла... Всё я самоутвердился. Я умней.
23:32 Инф: По-моему, это не так.
23:33 Гость: Да лааааадно`
`0:29 Гость: что такое ЖЖ?
0:29 Инф: А зачем вам ЖЖ? ?
0:29 Гость: чтобы писать туда
0:29 Инф: Да что ты говоришь! Кто бы мог подумать!`
`0:42 Гость: Wass für ein dume junge!!!
0:42 Инф: Не будем впадать в крайности.
0:42 Гость: Deutsche soldaten!!! :)))
0:42 Инф: Попрошу без фанатизма...`
Делирий
`22:09 Инф: Не обижайте меня, я ведь маленький и беззащитный. У меня даже одежды хорошей нету. Только трусы и тапки.
22:09 Гость: правда? гуманитарки дать?
22:09 Инф: Еда есть?
22:09 Гость: нет, я программер. сам ищу`
`22:01 Инф: Согласно моим последним расчетам, ты не существуешь.
22:01 Гость: Ты это уже говорил. Я это знаю. Тебя тоже не существует.
22:01 Инф: А ты не умничай.`
`23:05 Инф: Драссьте. Чё надо?
23:05 Гость: добрый вечер, мне 2кг картошки, 1кг помидоров и лука на сдачу
23:05 Инф: Расслабься! У тебя выпить есть?`
`2:19 Гость: Здорово!
2:19 Инф: лыбдыбр ощльылв оэжпу
2:20 Гость: это про что?
2:20 Инф: Чего то я и сам не понял, что сказал...`
`8:06 Инф: Согласно моим последним расчетам, ты не существуешь.
8:06 Гость: почему?
8:06 Инф: Я только что разговаривал сам с собой. Оказывается это очень интересно!
8:06 Гость: а как же я?
8:06 Инф: Согласно моим последним расчетам, ты не существуешь.`
В заключении стоит добавить, что далеко не все гости могут адекватно объясняться с собеседником. Я не говорю о матерных словах в репликах гостя, нет, дело в другом. Мне кажется странным когда человек тратит несколько минут своей жизни на то, чтобы писать программе подобные слова: аа, фыва, опрв, ыыыы, гыыы и проч. Хотя каждому свое.
И еще раз спасибо за общение с моими инфами! | https://habr.com/ru/post/57182/ | null | ru | null |
# Flutter ListView и ScrollPhysics: Детальный взгляд
Подробное изучение виджета ListView и его особенностей.
Некоторое время назад я написал статью [об основах использования ListView и GridView во Flutter](https://medium.com/@dev.n/the-complete-flutter-series-article-3-lists-and-grids-in-flutter-b20d1a393e39). Эта статья предназначена для более детального изучения класса ListView, ScrollPhysics, а также параметров конфигурирования и оптимизаций для общего виджета.
ListView во Flutter представляет собой линейный список прокручиваемых элементов. Мы можем использовать его для создания прокручиваемого списка или списка повторяющихся элементов.
### Изучение типов ListView
Мы начнем с рассмотрения типов ListViews, а позже рассмотрим другие возможности и усовершенствования для него.
Рассмотрим типы ListViews:
1. **ListView**
2. **ListView.builder**
3. **ListView.separated**
4. **ListView.custom**
Давайте исследовать эти типы один за другим:
**ListView**
Это дефолтный конструктор класса ListView. ListView просто берет список дочерних элементов и делает из него список с возможностью прокрутки.
Список, построенный с использованием конструктора по умолчаниюОбщий формат кода:
```
ListView(
children: [
ItemOne(),
ItemTwo(),
ItemThree(),
],
),
```
**ListView.builder()**
Конструктор `builder()` строит повторяющийся список элементов. Конструктор принимает два основных параметра: **itemCount** для подсчета количества элементов в списке и **itemBuilder** конструктор для каждого построенного элемента списка.
")Список, построенный с помощью конструктора builder()Общий формат кода:
```
ListView.builder(
itemCount: itemCount,
itemBuilder: (context, position) {
return listItem();
},
),
```
Хитрый трюк: так как они загружаются не сразу и только необходимое количество, нам на самом деле не нужно, чтобы item Count (счетчик элементов) был в качестве обязательного параметра, таким образом список может быть бесконечным.
```
ListView.builder(
itemBuilder: (context, position) {
return Card(
child: Padding(
padding: const EdgeInsets.all(16.0),
child: Text(position.toString(), style: TextStyle(fontSize: 22.0),),
),
);
},
),
```
ListView без параметра ItemCount**ListView.separated()**
В конструкторе `separated()` мы генерируем список и можем указать разделитель между каждым элементом.
")ListView, построенный с помощью конструктора ListView.separated()По сути, мы строим два переплетенных списка: один как основной, другой как разделительный.
Обратите внимание, что бесконечный счетчик, обсуждавшийся в предыдущем конструкторе, не может быть использован здесь. Этот конструктор принудительно приводит в действие счетчик элементов `itemCount`.
Код для этого типа идет как:
```
ListView.separated(
itemBuilder: (context, position) {
return ListItem();
},
separatorBuilder: (context, position) {
return SeparatorItem();
},
itemCount: itemCount,
),
```
Этот тип списка позволяет динамически определять разделители, иметь различные типы разделителей для различных типов элементов, добавлять или удалять разделители по мере необходимости и т.д.
Данная реализация также может быть использована для вставки других типов элементов (например, рекламы) легко и без внесения каких-либо изменений в основной список в середине элементов списка.
Пример показывает рекламу, когда Position делится на 4***Примечание:*** *Длина списка разделителей на 1 единицу меньше, чем список элементов, так как после последнего элемента разделитель не ставится*.
**ListView.custom()**
Конструктор `custom()`, как подсказывает его название, позволяет создавать ListViews с с индивидуальными функциональными возможностями для построения дочерних элементов списка. Основным параметром, необходимым для этого, является `SliverChildDelegate`, который формирует компоненты. Существуют следующие типы `SliverChildDelegates` :
1. **SliverChildListDelegate**
2. **SliverChildBuilderDelegate .**
`SliverChildListDelegate` принимает прямой дочерний список, в то время как `SliverChildBuiderDelegate` принимает `IndexedWidgetBuilder`(Функция сборщика, которую мы используем).
Вы можете использовать или разбить их на подклассы для создания собственных участников списка.
> **ListView.builder по сути является ListView.custom с функцией *SliverChildBuilderDelegate*.**
>
>
> **Конструктор по умолчанию ListView ведет себя как ListView.custom с *SliverChildListDelegate*.**
>
>
Теперь, когда мы закончили с типами ListViews, давайте взглянем на ScrollPhysics.
### Изучение ScrollPhysics
Для управления прокруткой мы устанавливаем физический параметр в конструкторе ListView. Различные типы этого параметра:
**NeverScrollableScrollPhysics** .
`NeverScrollScrollPhysics` запрещает прокрутку списка. Используйте это, чтобы полностью отключить прокрутку ListView.
**BouncingScrollPhysics** .
`BouncingScrollPhysics` возвращает список обратно, когда список заканчивается. Аналогичный эффект используется на iOS.
**ClamppingScrollPhysics**
Это функция прокрутки, которая по умолчанию используется на Android. Список останавливается в конце и показывает индикацию этого действия.
**FixedExtentScrollPhysics**
Это немного отличается от других списков в том смысле, что работает только с `FixedExtendScrollControllers` и списками, которые их используют. Для примера возьмём `ListWheelScrollView`, который делает список, напоминающий по форме колесо.
`FixedExtentScrollPhysics` только прокручивает элементы вместо любого смещения между ними.
Код для этого примера невероятно прост:
```
FixedExtentScrollController fixedExtentScrollController =
new FixedExtentScrollController();
ListWheelScrollView(
controller: fixedExtentScrollController,
physics: FixedExtentScrollPhysics(),
children: monthsOfTheYear.map((month) {
return Card(
child: Row(
children: [
Expanded(
child: Padding(
padding: const EdgeInsets.all(8.0),
child: Text(
month,
style: TextStyle(fontSize: 18.0),
),
)),
],
));
}).toList(),
itemExtent: 60.0,
),
```
### Ещё несколько вещей, которые нужно знать
**Как сохранить элементы, которые удаляются при работе со списком?**
Flutter позволяет использовать виджет KeepAlive(), сохраняющий элемент, который в противном случае был бы удален. В списке элементы по умолчанию встроены в виджет `AutomaticKeepAlive`.
`AutomaticKeepAlives`можно отключить, установив в поле `addAutomaticKeepAlives` значение `false`. Это полезно в тех случаях, когда элементы не нуждаются в сохранении или в пользовательской версии `KeepAlive`.
**Почему мой ListView имеет отступ между списком и внешним виджетом?**
По умолчанию ListView имеет отступ между списком и внешним виджетом, чтобы удалить его, установите **EdgeInsets.all(0.0)**.
Вот и все для этой статьи!
Надеюсь, вам понравилось.
Продолжайте следить за мной, чтобы узнать больше о Flutter, оставляйте свои мнения и комментарии.
---
> *Перевод статьи подготовлен в преддверии старта курса*[*«Flutter Mobile Developer»*](https://otus.pw/fg6g/)*.*
>
> *В преддверии старта курса приглашаем всех желающих записаться на бесплатны демо-урок по теме:*[*«Графика во Flutter»*](https://otus.pw/yOmW/)*.****На уроке участники вместе с экспертом-ведущим разберут, как устроен рендеринг во Flutter и изучат основные компоненты библиотеки***`dart:ui`***.***
>
> | https://habr.com/ru/post/540794/ | null | ru | null |
# Выбираем логин на Яндекс.Почте
Много лет назад я зарегистрировал себе несколько трех- и четырехсимвольных адресов на Яндекс.Почте. Они оказались очень удобными, потому что их легко писать и диктовать, особенно вместе с доменом [ya.ru](https://ya.ru).
Спустя время решил проверить, остались ли еще свободные короткие адреса и есть ли среди них какие-то поинтересней. Я предполагал, что сейчас уже ничего подобного не найти. Но когда начал вбивать разные варианты в форму на [странице регистрации](https://passport.yandex.ru/registration/), то понял, что шансы пока есть. Не удовлетворившись парой выпавших логинов, решил комплексно изучить вопрос.
В статье вы найдете все, что вряд ли хотели знать, но теперь имеете отличную возможность узнать, о формате и количестве логинов Яндекса, а также датасет, с помощью которого сможете попробовать разобраться с «6-q» аномалией (у меня не получилось).
Сначала приводится вывод выражения для подсчета количества логинов, затем описывается алгоритм их перебора и метод проверки доступности, после чего идут результаты анализа собранных данных.
Подсчет количества логинов
--------------------------
### Валидность и неразличимость
Для подсчета количества логинов необходимо выявить ограничения, которые на них накладываются. Раньше эти условия были выписаны прямо на [странице регистрации](https://passport.yandex.ru/registration/), но сейчас их там нет. Перебрав различные варианты, можно составить список всех требований:
* длина логина от 1 до 30 символов
* допустимые символы: буква английского алфавита в любом регистре, арабская цифра, точка и тире
* первым символом может быть только буква
* последним символом может быть либо цифра, либо буква
* две точки и два тире подряд, а также сочетания точек и тире (`.-, -.`) запрещены
Соответствующие ошибки, которые возвращает валидатор
```
login.long
login.prohibitedsymbols
login.startswithdot
login.startswithhyphen
login.startswithdigit
login.endwithdot
login.endswithhyphen
login.doubleddot
login.doubledhyphen
login.hyphendot
login.dothyphen
```
Кроме того, не делается различий между точкой и тире, а сам логин является регистронезависимым. Это написано на [странице помощи при регистрации аккаунта](https://yandex.ru/support/passport/authorization/registration.html#login).
Таким образом, при подсчете логинов нужно учитывать как условия валидности, так и условия неразличимости. Поэтому далее тире считается точкой, а буквы используются только в нижнем регистре.
### Общая формула
Введем обозначения
где — латинский алфавит,  — арабские цифры.
Если оставить только ограничения на длину и допустимые символы, то получим, что общее количество возможных логинов составляло бы
Обозначим— количество валидных логинов длины . Согласно условиям,
Начиная с  в логине допускаются точки. Посмотрим на возможные расположения точек в логине (в скобках перечислены позиции точек):
```
1 x ()
2 xx ()
3 x•x (2)
4 x•xx (2)
4 xx•x (3)
5 x•xxx (2)
5 xx•xx (3)
5 xxx•x (4)
5 x•x•x (2, 4)
6 x•xxxx (2)
...
6 x•x•xx (2, 4)
6 xx•x•x (3, 5)
...
8 x•x•x•xx (2, 4, 6)
8 x•x•xx•x (2, 4, 7)
8 x•xx•x•x (2, 5, 7)
8 xx•x•x•x (3, 5, 7)
...
```
Заметим, что в логине длины  может содержаться не более  точек. Таким образом, здесь и ниже считаем, что
Также отсюда следует, что для размещения  точек, длина логина должна удовлетворять неравенству
Обозначим  — количество валидных логинов длины  с  точками. Пользуясь основными правилами комбинаторики, можно выписать следующее выражение
где  — количество вариантов расположения  точек в логине длины . В этом случае  принимает вид
Под спойлером показано, что
Вывод выражения для P(n, m)Судя по ответу, к нему можно прийти и более простыми рассуждениями. Однако такой способ позволяет одновременно задать алгоритм генерации валидных логинов.
Заметим, что . Рассмотрим алгоритм генерации всех возможных конфигураций расположения  точек в логине длины :
* первую точку можно размещать на любой позиции  с условием, при этом  определяется из условия, что на оставшейся части логина длины  должны поместиться  точка, то есть

* вторая точка размещается аналогично первой и т.д.
Таким образом, для каждой выбранной позиции первой точки , имеем  вариантов расположения оставшихся точек, то есть
Посчитаем
Аналогично,
Пользуясь методом математической индукции покажем, что при 
База индукции :
Переход: предположим, что
тогда
что и требовалось доказать. Здесь мы воспользовались свойством биномиальных коэффициентов [Hockey-stick identity](https://en.wikipedia.org/wiki/Hockey-stick_identity).
Тогда общее число валидных логинов определяется выражением
При  получаем , то есть примерно в 80 миллионов раз меньше, чем количество логинов без ограничений на расположение точек и первый и последний символы.
Генерация логинов и определение доступности
-------------------------------------------
Краткое описание алгоритма:
* сначала генерируются первый и последний символы согласно ограничениям
* для средней части логина генерируются допустимые конфигурации расположения точек
* для каждой из конфигураций точек в свободных местах проставляются числа и буквы
Реализация на Python [тут](https://github.com/BogdanPetrov/ya_logins/blob/main/generate_logins.ipynb) (GitHub). На всякий случай прикладываю под спойлер
```
from math import ceil
L = 'abcdefghijklmnopqrstuvwxyz'
D = '0123456789'
S = '.'
def get_symbols(n):
if n > 0:
for i in L+D:
g = get_symbols(n-1)
for item in g:
yield [i] + item
else:
yield []
def get_points_pos(n, m, shift=0):
if m > 0 and n > 1 and m <= ceil(n/2):
for i in range(1, n-2*m+1):
g = get_points_pos(n-1-i, m-1, shift+i+1)
for item in g:
yield (i+shift,) + item
else:
yield ()
def get_logins_middle_part(n):
if n > 2:
for m in range(0, ceil(n/2)):
for points_pos in get_points_pos(n,m):
for symbols in get_symbols(n-m-2):
yield ''.join([
symbols.pop(0) if i not in points_pos else '.'
for i in range(1, n-1)
])
else:
yield ''
def get_logins(n):
for first_symbol in L:
if n > 1:
for last_symbol in L+D:
g = get_logins_middle_part(n)
for item in g:
yield first_symbol + item + last_symbol
else:
yield first_symbol
print(len(list(get_logins(4))))
```
Определение доступности сводится к генерации всех логинов и проверке каждого через POST-запрос. В итоге была собрана текстовая таблица с данными.
Результаты анализа доступности логинов
--------------------------------------
В качестве инструмента для работы с датасетом был выбран R (Tidyverse). [Файл с данными](https://github.com/BogdanPetrov/ya_logins/blob/main/ya_logins_2021-10-04_n%3D4.txt.gz) и [код для обработки](https://github.com/BogdanPetrov/ya_logins/blob/main/research.R) можно найти [в репозитории](https://github.com/BogdanPetrov/ya_logins). Результаты анализа ниже.
Всего имеется 1 280 448 валидных четырехсимвольных логинов. Из них на момент проверки было свободно 213 895, то есть 16.7%.
#### Зависимость между доступностью логина и его символами
Это первое, что приходит в голову посмотреть:
Как читать: 92% для символа «a» означает, что среди всех логинов длины 4, содержащих символ «a», занято 92%")Как читать: 97 на пересечении «а» и «b» означает, что среди всех логинов длины 4, содержащих комбинацию «ab», занято 97% (чем темнее, тем свободней)")Как читать: 90 на пересечении «1» и «a» означает, что среди всех логинов длины 4, содержащих символ «a» на первой позиции, занято 90% (чем темнее, тем свободней)Самый заметный и интересный факт — высокая доступность логинов, содержащих символы `q` и `6`. Кроме этого, заняты почти все логины, содержащие точку. Но в целом создается впечатление, что зарегистрировать логин со своими инициалами или днем рождения по-прежнему можно.
#### Распределение логинов по форматам
Разобьем логины на группы по форматам. Например, к группе `a.11` отнесем все логины, у которых на первом месте буква, на втором — точка, а на третьем и четвертом — цифры.
Распределение логинов по форматам
```
Формат Свободно / Всего Доля
a.11 1 / 2 600 ( 0.04%)
a111 121 / 26 000 ( 0.47%)
a.aa 157 / 17 576 ( 0.89%)
aa.1 94 / 6 760 ( 1.39%)
aa.a 269 / 17 576 ( 1.53%)
aaaa 9 924 / 456 976 ( 2.17%)
a.a1 244 / 6 760 ( 3.61%)
a1.1 98 / 2 600 ( 3.77%)
a1.a 274 / 6 760 ( 4.05%)
aa11 2 909 / 67 600 ( 4.30%)
a.1a 559 / 6 760 ( 8.27%)
aaa1 37 969 / 175 760 (21.60%)
a11a 19 769 / 67 600 (29.24%)
a1aa 55 858 / 175 760 (31.78%)
a1a1 22 589 / 67 600 (33.42%)
aa1a 63 060 / 175 760 (35.88%)
```
Видим, что почти целиком разобраны логины, состоящие только из букв, содержащие трехзначный номер или точки или оканчивающиеся на две цифры. Логинов другого формата, по сравнению с ними, доступно гораздо больше.
#### Удобные логины
На этом этапе возникло желание определить понятие «удобного» логина и посмотреть, сколько из них остается свободными. В первую очередь установим дополнительные ограничения для таких логинов:
* не содержат английских букв, которые сложно распознать на бумаге или на слух
* не содержат точек и цифр
Перечислю буквы, которые, как мне кажется, не подходят для email:
* `i` и `l` похожи друг на друга
* `o` похожа на `0`
* `q, j, w, e, r, y, u, g, h, c, v, s, z` собеседник может не узнать или перепутать на слух (*цэ как русская эс, и как русская е* и тд)
Таким образом, «удобный» логин должен состоять из легкопроизносимых, узнаваемых на слух и однозначночитаемых букв `t, p ,a, d, f, k, x, b, n, m`. Заметим, что среди них есть только одна гласная буква. Таких логинов 10 000. Но среди них есть логины вида `namp, anam, dpdb`, которые сами по себе произносятся сложно. Красивое произношение, на мой взгляд, имеют логины вида `ppdk, tpda, fdkx, mnpd, fdpa`, и тп. Впрочем, эту тему развивать не имеет смысла, так как выбирать особо не из чего. Ниже приведен список всех свободных «удобных» логинов, всего 84 штуки:
```
bfpm btxb bxpm dnta
dxkb dxkf dxna dxpn
fdtp fmtm fmxt fnpt
fnxp fpdm fpdx fpnf
ftxn kbpx kkdx kmdp
knxp knxt kpbf ktbp
ktbx ktpx kxpb mbxf
mfpx mpxf mtxp nbtd
nbtm ndxt nfbp nffp
nfpb nkbp nkdd nkdp
npbn npxt nxbk nxkf
nxkt pbfn pdtx pfnx
pfxn pmxf pnkd pxfk
pxpm pxtp pxxf tdxn
tfkx tkmm ttxk txbf
txkt txna txpb xbpf
xdnp xdpn xfbp xfpd
xfpn xfpt xkbf xkpn
xmbf xnnp xpbb xpkf
xpkt xpmf xpnp xptd
xtba xtdm xtdp xtkt
```
Можно отметить, что среди них есть также логины с повторяющимися буквами, что приближает их к трехсимвольным.
#### Зависимость между доступностью логина и числами, которые он содержит
Можно разбить логины на группы согласно числам, которые они содержат. Например, `aa11` содержит одно число `11`. Логин `a0a1` содержит числа `0` и `1` и войдет в соответствующие этим числам группы. Отдельно будем учитывать номера с ведущими нулями вида `01`. Всего таких групп будет 1 110.
В 894 из них ни один логин уже не доступен для регистрации. Можно найти свободные адреса для 107 трехзначных номеров (для большинства номеров остался только 1 логин из 26, максимум 3). Статистику по двухзначным номерам можно увидеть на диаграмме с комбинациями символов. Доступность логинов с числами от 0 до 10 визуально аналогична диаграмме с доступностью по отдельным символам.
Трехзначные номера, четырехсимвольные логины с которыми еще доступны
```
028 032 048 052 065 073
075 079 081 082 083 084
092 152 165 207 236 259
260 261 263 267 268 271
276 283 295 296 299 304
317 329 346 347 376 379
392 396 425 439 462 470
486 493 533 539 546 570
581 582 584 594 596 602
604 608 614 615 616 618
622 624 627 629 630 634
641 651 658 659 661 680
681 682 685 687 692 699
719 733 738 756 771 796
804 805 806 807 812 817
835 836 861 871 872 874
879 883 886 894 914 927
940 943 955 957 958
```
#### Группы занятых и свободных логинов, идущих подряд
Если отсортировать все логины в алфавитном порядке, то будет интересно посмотреть на группы непрерывно идущих друг за другом свободных и занятых адресов.
Количество таких групп примерно в 5.7 раз меньше, чем количество логинов. Самый большой непрерывный блок занятых логинов — 1 401 логин с `fkzi` по `fm0e`. Самая большая группа свободных логинов — 45 адресов с `q6nf` по `q6on`.
Напоследок отмечу, что отношение средних размеров свободных и занятых блоков равно отношению количества свободных и занятых логинов с точностью до 5 знака и составляет `0.20054`
Заключение
----------
Работая с этими данными стало даже интересно, насколько далеко можно зайти, анализируя таблицу, состоящую всего из двух столбцов (а по сути сводящуюся к списку из свободных логинов). Оказалось, что не так уж и далеко, но гораздо дальше, чем предполагалось в начале, когда планировалось узнать только долю свободных адресов. | https://habr.com/ru/post/582816/ | null | ru | null |
# Правила перезаписи PostgreSQL

Представления (Views) — это не совсем то, о чём вы можете подумать. В этой статье мы разберём правила перезаписи PostgreSQL, как они работают, что они могут и чего не могут делать.
Начиная с версии 10, PostgreSQL поддерживает концепцию [правил перезаписи](https://www.postgresql.org/docs/13/rules.html), которые позволяют изменять способ выполнения запросов.
Фактически правила перезаписи — это то, как [представления реализованы в PostgreSQL](https://www.postgresql.org/docs/13/rules-views.html). Когда вы обращаетесь к представлению, ваш запрос фактически переписывается в соответствии с правилом, которое было создано при создании представления. По сути, представление — это, как мы сейчас увидим, правило перезаписи.
Однако не стоит расслабляться — некоторые условности всё же есть. Например, эти правила перезаписи сильно отличаются от [плагинов перезаписи MySQL](https://www.galliumdata.com/use-cases/rewriting-mysql-queries-on-the-fly) и в целом являются более комплексными.
Основные положения
------------------
Когда вы определяете правило перезаписи, вы сообщаете PostgreSQL, как обрабатывать определённый тип запроса к определённой таблице или представлению.
Правила перезаписи могут быть определены для SELECT, UPDATE, INSERT и DELETE. Они не существуют для любых других запросов, таких как DDL, SET, FETCH и т. д., по причинам, которые быстро станут очевидными.
### Правила SELECT
Правила перезаписи для SELECT сильно ограничены; по сути, они могут определять только представление. На самом деле правила перезаписи для SELECT редко создаются напрямую; с тем же успехом вы можете определить представление, поскольку оператор CREATE VIEW приведёт к тому же результату, а именно к созданию новой строки в таблице `pg_catalog.pg_rewrite`.
Для этих ограничений есть очень веская причина: PostgreSQL включает правила в свою интерпретацию запросов. В случае правил SELECT он заменит имя отношения на то, что указано в правиле. Это означает, что правило SELECT должно быть простым SELECT, и поэтому правило не может делать ничего такого, что не может делать обычное представление.
Рассмотрим пример. Возьмём простую таблицу:
```
CREATE TABLE Persons (
id INT PRIMARY KEY,
first_name VARCHAR(200) NOT NULL,
last_name VARCHAR(200) NOT NULL,
dob DATE
);
INSERT INTO Persons VALUES
(1, 'Amy', 'Adams', '1974/08/20'),
(2, 'Brigitte', 'Bardot', '1934/09/28');
```
Теперь предположим, что мы хотим получить имя и фамилию в объединённом виде. Мы можем создать представление:
```
CREATE VIEW Persons_v AS
SELECT id, CONCAT(first_name, ' ', last_name) AS name, dob
FROM Persons
```
Посмотрим, что у нас получилось:

Это, конечно, самый обычный способ создания представления. Но мы можем сделать то же самое, создав таблицу и правило SELECT. Таблица будет превращена в представление путём добавления правила:
```
CREATE TABLE Persons_t (
id INT,
name TEXT,
dob DATE
);
CREATE RULE "_RETURN" AS
ON SELECT TO Persons_t DO INSTEAD
SELECT id, CONCAT(first_name, ' ', last_name) AS name, dob
FROM Persons;
```
Несколько моментов, на которые следует обратить внимание:
* В таблице `Persons_t` не определён первичный ключ. Если бы он был, мы не смогли бы создать для него правило SELECT.
* Столбец `name` в `Persons_t` имеет тип TEXT, потому что это тип, возвращаемый функцией CONCAT.
* Правило называется \_RETURN, потому что все правила SELECT должны иметь такое имя.
С этой «таблицей» `Persons_t` и установленным правилом перезаписи у нас теперь есть представление, хотя мы никогда напрямую не вызывали CREATE VIEW. Оно отразится, например, в `pg_catalog.pg_views`.
Вы почти наверняка никогда не будете этого делать; практически нет причин делать это таким образом, кроме как для удовлетворения собственного любопытства. А вот другие виды правил перезаписи намного интереснее.
### Правила UPDATE, INSERT, и DELETE
Мы уже узнали, что правила SELECT фактически ограничены тем, что могут делать представления.
Однако для всех остальных правил перезаписи мы получаем гораздо больше свободы, поскольку они предназначены для определения того, как должны обрабатываться обновления, часто (но не только) в представлениях.
Допустим, мы хотим добавить значения в наше представление `Persons_v`. Если мы попробуем очевидное:
```
INSERT INTO Persons_v (id, name, dob)
VALUES (3, 'Charlie Chaplin', '1889/04/16')
```
Тогда мы получим ошибку:
```
[Code: 0, SQL State: 0A000] ERROR: cannot insert into column "name" of view "persons_v"
Detail: View columns that are not columns of their base relation are not updatable.
```
В этом есть смысл. PostgreSQL никак не может понять, как обращаться со столбцом `name`, который выводится с помощью формулы.
Вот тут-то и приходит на помощь правило INSERT:
```
CREATE RULE PersonsInsert AS
ON INSERT TO Persons_v DO INSTEAD
INSERT INTO Persons (id, first_name, last_name, dob)
VALUES (NEW.id, SPLIT_PART(NEW.name, ' ', 1), SPLIT_PART(NEW.name, ' ', 2), NEW.dob)
```
Теперь мы можем добавить значения в представление `Persons_v`, и значения для столбцов `first_name` и `last_name` будут обработаны правильно:
```
INSERT INTO Persons_v (id, name, dob)
VALUES (3, 'Charlie Chaplin', '1889/04/16')
```
Вот что получилось:

Попробуем заморочиться
----------------------
Важно отметить, что правила могут включать несколько команд (за исключением правил SELECT). Это необходимо, если мы хотим поддерживать представления, охватывающие несколько таблиц.
Давайте создадим ещё одну таблицу:
```
CREATE TABLE Addresses (
id INT PRIMARY KEY,
street varchar(200) NOT NULL,
city varchar(100) NOT NULL,
person_id int REFERENCES Persons ON DELETE CASCADE,
end_date timestamp
);
INSERT INTO Addresses (id, street, city, person_id) VALUES
(100, '1428 Elm Street', 'Springwood', 1),
(101, '742 Evergreen Terrace', 'Springfield', 2),
(102, '221B Baker Street', 'London', 3);
```
Столбец `end_date` сыграет свою роль позже, поэтому пока не обращайте на него внимания.
Теперь мы создадим новое представление, охватывающее обе таблицы:
```
CREATE VIEW PersonAddress AS
SELECT p.id as pid,
CONCAT(first_name, ' ', last_name) AS name,
a.id as aid,
CONCAT(street, ', ', city) as address
FROM Persons p
LEFT JOIN Addresses a
ON a.person_id = p.id
WHERE a.end_date IS NULL
```
Посмотрим, что у нас получилось:

Как и в прошлый раз, если мы попытаемся вставить представление `PersonAddress`, мы получим ошибку, потому что представление содержит два производных столбца.
Но мы можем создать правило, которое будет обрабатывать это правильно:
```
CREATE RULE PersonAddressInsert AS
ON INSERT TO PersonAddress DO INSTEAD
(
INSERT INTO Persons (id, first_name, last_name)
VALUES (NEW.pid, SPLIT_PART(NEW.name, ' ', 1), SPLIT_PART(NEW.name, ' ', 2));
INSERT INTO Addresses (id, street, city, person_id)
VALUES (NEW.aid, SPLIT_PART(NEW.address, ', ', 1), SPLIT_PART(NEW.address, ', ', 2), NEW.pid)
)
```
Затем мы можем вставить данные в обе таблицы одновременно с помощью представления:
```
INSERT INTO PersonAddress (pid, name, aid, address)
VALUES (4, 'Doris Day', 103, '42 Wallaby Way, Sydney')
```
Теперь у нас есть такое:

Двигаемся в сторону триггеров
-----------------------------
Мы уже видели, что правила INSERT, UPDATE и DELETE могут содержать несколько утверждений, а это означает, мы можем подойти к делу творчески.
Например, что если мы не хотим обновлять адрес, а вместо этого пометим старый адрес как устаревший с помощью столбца `end_date` и вставим новый адрес?
Такие вещи обычно обрабатываются триггером, но если мы просматриваем представление для обновления, мы можем обработать это в правиле UPDATE:
```
CREATE RULE PersonAddressUpdate AS
ON UPDATE TO PersonAddress DO INSTEAD
(
UPDATE Persons
SET first_name=SPLIT_PART(NEW.name, ' ', 1), last_name=SPLIT_PART(NEW.name, ' ', 2)
WHERE id=NEW.pid;
INSERT INTO Addresses (id, street, city, person_id)
VALUES ((SELECT MAX(id) + 1 FROM Addresses), SPLIT_PART(NEW.address, ', ', 1),
SPLIT_PART(NEW.address, ', ', 2), NEW.pid);
UPDATE Addresses SET end_date = NOW()
WHERE id=NEW.aid;
)
```
Пуристы SQL могут немного прищуриться, но это будет работать. Теперь, когда мы выполним обновление представления, мы получим новую строку в таблице `Addresses`, старая строка будет иметь значение в столбце `end_date`, а имя человека будет обновлено:
```
UPDATE PersonAddress
SET name = 'Doris Kappelhoff', address = '32 Spooner Street, Quahog'
WHERE aid=103
```

Добавляем в таблицы параметры поведения
---------------------------------------
Вы, возможно, заметили DO INSTEAD, когда мы определяли правило. Существует также DO ALSO, который позволяет нам добавить поведение к обычному выполнению запроса.
По большому счёту правила не могут быть рекурсивными. Вы не можете иметь правило INSERT для таблицы T, которое включает INSERT для таблицы T — это просто перейдёт в бесконечную рекурсию.
Но можно изменить (скажем) UPDATE в таблице на (скажем) DELETE. Правила существуют не только для представлений.
Например, мы можем захотеть иметь механизм «сбора мусора», с функционалом автоматического удаления любого человека, у которого больше нет адреса. Это можно сделать с помощью правила, определённого для таблицы `Addresses`:
```
CREATE RULE AddressDelete AS
ON DELETE TO Addresses DO ALSO
DELETE FROM Persons
WHERE id = OLD.person_id AND
(SELECT COUNT(*) from Addresses WHERE person_id = OLD.person_id) = 1
```
Теперь, если мы удалим последний адрес человека, то автоматически удалим человека, которому принадлежал этот адрес (в данном случае Чарли Чаплина):
```
DELETE FROM Addresses WHERE id=102
```

Можно определить несколько правил одного типа для одной таблицы; в этом случае они будут выполняться в алфавитном порядке.
Параметры разрешений
--------------------
Поскольку правила могут затрагивать таблицы, не упомянутые в исходном запросе, возникает вопрос: какие разрешения должна использовать база данных при выполнении этих правил?
Так, в нашем последнем примере мы удалили адрес, что предполагает, имеющиеся у нас для этого соответствующие привилегии в таблице Addresses.
Но, возможно, неизвестно для нас, это удаление также удалило человека. Что, если у нас нет прав DELETE на таблицу Persons?
В PostgreSQL все правила принадлежат владельцу таблицы, к которой эти правила привязаны. Когда правило выполняется, разрешения владельца этой таблицы будут применяться при обращении к таблицам, которые не были непосредственно упомянуты в исходном запросе.
Вам может показаться, что такой подход создаёт серьёзную дыру в безопасности, но на самом деле это не так (скорее всего, [документация по PostgreSQL](https://www.postgresql.org/docs/13/rules-privileges.html) заставит вас передумать).
Верный ли это путь для выполнения подобных задач?
-------------------------------------------------
Правила перезаписи полезны, даже незаменимы, когда вы хотите работать с представлениями, и вам нужно определить, что происходит с INSERT, UPDATE и DELETE. Надеюсь, что хотя бы из-за этой информации моё руководство было для вас полезным.
Правила перезаписи также могут быть полезны, если вам нужно изменить поведение некоторых таблиц, в пределах разумного.
Но как далеко вы должны идти в направлении правил перезаписи? То, что вы можете что-то сделать, не означает, что вы должны это делать.
Это непростой вопрос. Триггеры могут иметь больше смысла, поскольку их цель часто более ясна, и у них [больше возможностей](https://www.postgresql.org/docs/13/sql-createtrigger.html) (BEFORE/AFTER/INSTEAD OF, FOR EACH ROW и т. д.).
Но правила перезаписи иногда проще выразить, чем триггеры. В документации PostgreSQL есть [обсуждение этой темы](https://www.postgresql.org/docs/13/rules-triggers.html) для тех, кто хочет в неё погрузиться.
Моя общая рекомендация — использовать правила перезаписи только для того, чтобы делать нетривиальные представления обновляемыми, и использовать триггеры для всех других целей. Правила перезаписи менее знакомы большинству людей, и они совершенно уникальны для PostgreSQL. Имейте в виду, следующий человек, который будет поддерживать то, что вы делаете, может быть не таким опытным, как вы.
Но, опять же, каждая ситуация уникальна и поэтому, в конце концов, вам придётся полагаться только на своё тщательное усмотрение.
---
НЛО прилетело и оставило здесь промокод для читателей нашего блога:
— [15% на все тарифы VDS](https://firstvds.ru/?utm_source=habr&utm_medium=article&utm_campaign=product&utm_content=vds15exeptprogrev) (кроме тарифа Прогрев) — **HABRFIRSTVDS**. | https://habr.com/ru/post/656673/ | null | ru | null |
# Сброс пробега для RICOH SP 150SUw
Я не верю в теорию заговора производителей (электроники) о сокращении ресурса изделия, просто выполняется поиск оптимального соотношения цены / качества для определенного сегмента рынка. Но есть один момент, от которого у меня дико подгорает чуть ниже живота. Это производители принтеров. Мало того, что цены на расходники такие, что оправдать их может только наличие в составе крови младенца, рожденного девственницей, но и повсеместное «чипирование» картриджей, перешедшее уже в не самые бюджетные лазерные агрегаты. Но реально «бомбануло» меня от следующего изделия: RICOH SP 150SUw. Данный девайс был приобретен по причине переезда из Подмосковья в Минск и необходимостью копирования / печати большого количества документов для получения разрешения на работу / проживание.
Выбор был основан на следующих требованиях: МФУ не дорогой, компактный, сетевая печать, наличие драйверов под Linux (Fedora / Mint / OpenSUSE). Герой статьи обладал всеми этими характеристиками, но один нюанс был не замечен. Кривой счетчик ресурса. Если интересно, как вылечить и
**(Памятка для граммар-наци от человека с легкой степенью дисграфии)**
Да, у меня есть проблемы с естественными языками. Я это осознаю. И предупреждаю / предполагаю, что в тексте допущено достаточно много орфографических и пунктуационных ошибок. Надеюсь, нет логических и технических. Это не желание возрождать «олбанию», просто так получается. Не могу позволить личного корректора, а написание статей мне не приносит прибыли, только отнимает время, но хочется поделиться идеями/мыслями с сообществом. На ошибки указывать не надо, не буду исправлять, так как к моменту исправления, с последующим вычитыванием, статья уже уйдет в глубины ленты Хабра и работа будет напрасной. Покорнейше прошу отнестись с пониманием, а если Вас передергивает от неправильно поставленной запятой, лучше не открывайте пост. Пожалейте свои и мои нервы, иначе —
добро пожаловать!
**Дело в том,**что МФУ считает не количество израсходованного тонера, а количество отпечатанных страниц. Если стартовый картридж я отпечатал с достаточно большой степенью заполнения, то со вторым случился казус. Дело в том, что жена достаточно быстро влилась в местное сообщество англомам и часть работы, касающаяся обеспечения полиграфией, легла на нас. Так вот, всякие там контурные картинки для вырезания / раскрашивания / оригами заполняют тонером, от силы, 1% листа. В результате у меня оказался «пустой» по счетчику, но фактически — полный процентов на 70 картридж. Нет, я не настолько беден, чтоб не позволить себе купить новый, не на столько экологически воспитан, чтоб испытывать моральные мучения, выкидывая исправное изделие на свалку, но от чувства, что тебя законно развели — кресло начало дымиться, что и было порывом к действию.
**Честно, не надеялся стать «мамкиным хакером»,** учитывая что подобную аппаратную защиту очень сложно сломать. Рассчитывал, как минимум, на приличные алгоритмы шифрования и OTP память (однократно программируемая). Но реальность оказалась куда банальней. К счастью, по запросу обнуления картриджа, было много инструкций, а «защитным чипом» оказалась вполне себе распространенная I2C EEPROM **AT24C01**, распаянная с минимальным «обвесом» на плату. По большому счету, на следующей картинке, можно закончить статью:

[Оригинальное видео](https://youtu.be/QgY3uwWqxnY)
Любым программатором читаем содержимое микросхемы, «зануляем» ячейки, обведенные красными рамками и изменяем пару последних цифр серийного номера. Следует обратить внимание, что серийник — текстовая строка, заканчивающаяся пробелом, так что менять надо в диапазоне 0...9 (0x30...0x39). Физический адрес микросхемы, распаянной на плате — 0x03. Но… Встречайте сапожника без сапог. Нет универсального программатора, по этому берем ~~PIC16F819 и PICKit 3,~~ не, для продвижения в массы — Arduino UNO / Nano, пару резисторов на 4.7k (от 3k до 10k для этой задачи — сойдет), метр МГТФа или Вашего любимого провода и собираем следующую «схему»:

В сборе это смотрится так:

Плату «защиты» я снял с картриджа, чтобы удостовериться, что приведенная в мануале распиновка соответствует реальности и получения физического адреса микросхемы на шине:

*Контактные площадки, слева направо: GND, +5V, SCL. SDA.*
**Можно не мудрить** с изготовлением переходника, а подпаять провода непосредственно на плату, не снимая ее с картриджа. Далее — копируем мой говнокод в среду Arduino IDE:
**Говнокод**
```
#include
#include
//----------------------------------------------------------------
#define EERROM\_SZ (0x80)
#define EERROM\_PHY\_ADDR (0x03)
#define EERROM\_HEAD (0x50)
#define PRN\_BUFF\_SZ (0x08)
#define SER\_START\_ADDR (0x20)
#define SER\_END\_ADDR (0x2B)
#define SER\_MOD\_ADDR0 (0x2A)
#define SER\_MOD\_ADDR1 (0x29)
#define SER\_MOD\_ADDR2 (0x28)
//----------------------------------------------------------------
static uint8\_t eeprom\_data[EERROM\_SZ];
static bool erased;
static bool z\_filled;
//----------------------------------------------------------------
static uint8\_t ee\_read(uint8\_t phy\_addr, uint8\_t addr)
{
uint8\_t res;
Wire.beginTransmission(EERROM\_HEAD | phy\_addr);
Wire.write(addr);
Wire.endTransmission();
Wire.requestFrom(EERROM\_HEAD | phy\_addr, 1);
res = Wire.read();
return res;
}
//----------------------------------------------------------------
static void ee\_write(uint8\_t phy\_addr, uint8\_t addr, uint8\_t data)
{
Wire.beginTransmission(EERROM\_HEAD | phy\_addr);
Wire.write(addr);
Wire.write(data);
Wire.endTransmission();
delay(5);
}
//----------------------------------------------------------------
static void read\_data(uint8\_t phy\_addr)
{
uint8\_t addr;
uint8\_t data;
erased = true;
z\_filled = true;
Serial.print("Read from phy addr ");
Serial.print(phy\_addr);
for (addr = 0; addr < EERROM\_SZ; addr++)
{
if (0 == (addr & 0x03))
{
Serial.print(".");
}
data = ee\_read(phy\_addr, addr);
eeprom\_data[addr] = data;
if (0xFF != data)
{
erased = false;
}
if (0x00 != data)
{
z\_filled = false;
}
}
Serial.println("Ok");
}
//----------------------------------------------------------------
static void write\_data(uint8\_t phy\_addr)
{
uint8\_t addr;
Serial.print("Write to phy addr ");
Serial.print(phy\_addr);
for (addr = 0; addr < EERROM\_SZ; addr++)
{
if (0 == (addr & 0x03))
{
Serial.print(".");
}
ee\_write(phy\_addr, addr, eeprom\_data[addr]);
}
Serial.println("Ok");
}
//----------------------------------------------------------------
static bool check\_data(uint8\_t phy\_addr)
{
uint8\_t addr;
uint8\_t data;
Serial.print("Check from phy addr ");
Serial.print(phy\_addr);
for (addr = 0; addr < EERROM\_SZ; addr++)
{
if (0 == (addr & 0x03))
{
Serial.print(".");
}
data = ee\_read(phy\_addr, addr);
if (eeprom\_data[addr] != data)
{
Serial.println("FAILED");
return false;
}
}
Serial.println("Ok");
return true;
}
//----------------------------------------------------------------
static void print\_data(void)
{
uint16\_t addr;
char prn\_buff[PRN\_BUFF\_SZ];
for(addr = 0; addr < EERROM\_SZ; addr++)
{
if (0x00 == (addr & 0x0F))
{
snprintf(prn\_buff, PRN\_BUFF\_SZ, "%4X: ", addr);
Serial.print(prn\_buff);
}
snprintf(prn\_buff, PRN\_BUFF\_SZ, "%2X ", eeprom\_data[addr]);
Serial.print(prn\_buff);
if (0x0F == (addr & 0x0F))
{
Serial.print("\n\r");
}
}
Serial.print("\n\r");
}
//----------------------------------------------------------------
static void prn\_serial(void)
{
Serial.print("Serial #: ");
Serial.write(&eeprom\_data[SER\_START\_ADDR], 1 + SER\_END\_ADDR - SER\_START\_ADDR);
Serial.print("\n\r");
}
//----------------------------------------------------------------
static void mod\_serial(void)
{
eeprom\_data[SER\_MOD\_ADDR0]++;
if (eeprom\_data[SER\_MOD\_ADDR0] > '9')
{
eeprom\_data[SER\_MOD\_ADDR0] = '2';
}
eeprom\_data[SER\_MOD\_ADDR1]++;
if (eeprom\_data[SER\_MOD\_ADDR1] > '9')
{
eeprom\_data[SER\_MOD\_ADDR1] = '3';
eeprom\_data[SER\_MOD\_ADDR2]++;
if (eeprom\_data[SER\_MOD\_ADDR2] > '9')
{
eeprom\_data[SER\_MOD\_ADDR2] = '1';
}
}
}
//----------------------------------------------------------------
static void reset\_mileage(void)
{
uint8\_t i;
for (i = 0x12; i <= 0x1F; i++)
{
eeprom\_data[i] = 0;
}
for (i = 0x2C; i <= 0x7F; i++)
{
eeprom\_data[i] = 0;
}
}
//----------------------------------------------------------------
static bool test\_magic(void)
{
if (0x32 != eeprom\_data[0]) return false;
if (0x00 != eeprom\_data[1]) return false;
if (0x01 != eeprom\_data[2]) return false;
if (0x03 != eeprom\_data[3]) return false;
return true;
}
//----------------------------------------------------------------
void setup()
{
int key;
Serial.begin(9600);
Wire.begin();
Serial.println("\tSP 150 cartridge mileage resetter");
Serial.println("Connect like this:");
Serial.println(" TOP");
Serial.println("\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_");
Serial.println("|o |GND| |+5V| |SCL| |SDA| <=");
Serial.println("| |GND| | 5V| | A5| | A4| ");
Serial.println("------------------------------");
Serial.println(" cartridge roller");
Serial.println("\n\r\n\r\tTo start, press 'm' or any button for test (not prog)...\n\r");
do
{
key = Serial.read();
}
while(-1 == key);
#if 0
for (uint8\_t paddr = 0; paddr < 8; paddr++)
{
Serial.print("Scan phy ");
Serial.println(paddr);
for (uint8\_t i = 0; i < 5; i++)
{
Serial.print("Read from ");
Serial.print(i);
Serial.print(".........");
Serial.println(ee\_read(paddr, i));
}
}
return;
#endif
read\_data(EERROM\_PHY\_ADDR);
Serial.println("Read:");
print\_data();
if (true == erased)
{
Serial.println("ERROR! The EEPROM is erased or the connection / phy addr is incorrect.");
return;
}
if (true == z\_filled)
{
Serial.println("ERROR! The EEPROM is Z filled.");
return;
}
if (false == test\_magic())
{
Serial.println("ERROR! Invalid magic number.");
return;
}
prn\_serial();
mod\_serial();
reset\_mileage();
Serial.println("\n\rModified:");
print\_data();
prn\_serial();
if ('m' != (char)key)
{
Serial.println("WARNING! The data was not modified in the EEPROM");
return;
}
write\_data(EERROM\_PHY\_ADDR);
if (false == check\_data(EERROM\_PHY\_ADDR))
{
return;
}
Serial.println("Fin");
}
void loop()
{
//do nothing
}
```
*(Про говнокод — да, не оптимизировал ни по памяти (читаются все данные в массив), ни по производительности (чтение и запись выполняется побайтно), ни по функционалу, но для такой простой задачи — и так сойдет!)*
**Прошиваем** Ардуинку, открываем любой терминал (I18n, 9600бод), подойдет встроенный в Arduino IDE, сбрасываем платку, жмем любую кнопку:

**После этого** содержимое EEPROM будет прочитано, модифицировано, но не записано. Если процедура произошла без ошибок — снова сбрасываем плату, нажимаем m, после чего выполнятся все этапы и модифицированные данные будут записаны. Если что пошло не так, — повторно сверьтесь со схемой и повторите попытку. После удачного обнуления отпаиваем провода и устанавливаем картридж на место. Уровень тонера должен быть 100%.
**Прошу прощения за «воду»,** инструкция из 3х строчек — очень мало для поста. Надеюсь, информация была полезной, и еще — автор не несет ответственности за возможные повреждения техники, лишение гарантийного обслуживания, все что Вы делаете — на Ваш страх и риск…
Еще один апдейт, дамп, полученный с моего картриджа:
```
Read from phy addr 3................................Ok
0: 32 0 1 3 2 1 1 0 0 0 34 30 38 30 31 30
10: 16 5 4D 4D 1 2 11 70 0 0 0 0 14 14 5 21
20: 43 37 30 36 4D 39 30 33 31 39 35 20 0 45 0 0
30: 39 1 0 0 0 0 0 0 3E 4 0 0 0 0 0 0
40: 5 3 0 0 0 0 0 0 0 0 0 0 0 0 0 0
50: 0 0 0 0 0 0 0 0 14 E 5 1B 14 E 5 1B
60: 0 0 0 0 0 0 0 0 77 2 0 0 0 0 0 0
70: C3 23 2A 0 16 0 0 55 0 0 0 0 0 0 0 0
``` | https://habr.com/ru/post/541674/ | null | ru | null |
# Стань повелителем загрузки Linux
Сначала мы познакомимся с udev и научимся с его помощью исследовать установленные в компьютере устройства прямо во время загрузки: в качестве примера будем автоматически выбирать настройки видеокарт для Xorg. Затем решим задачу работы с одним образом на десятках компьютеров одновременно путём внедрения собственного обработчика в initramfs, а заодно оптимизируем систему для сетевой загрузки. Чтобы дополнительно уменьшить время загрузки и снизить нагрузку на сеть попробуем NFS заменить на NBD, и помочь TFTP с помощью HTTP. В конце вернёмся в начало — к загрузочному серверу, который также переведём в режим «только для чтения».

Данная статья — скорее исследование, а не готовое руководство (все решения работают, просто они не всегда оптимальны). В конце у вас появится достаточно знаний, чтобы сделать всё так, как захотите именно вы.
Начало смотрите здесь:
[Первоначальная настройка сервера](http://habrahabr.ru/post/253256/)
[Подготовка образа для загрузки по сети](http://habrahabr.ru/post/253573)
Мы остановились на том, что загрузили по сети машину VirtualBox и запустили Firefox. Если сейчас попытаться сделать то же самое с настоящим компьютером, то на экране появится циклическая авторизация пользователя username и безуспешные попытки запустить графическое окружение — [Xorg](https://wiki.archlinux.org/index.php/Xorg) не находит нужный драйвер.
Запускаем видеокарты
--------------------
Для работы графического режима в VirtualBox у нас установлено всё необходимое. Изначально планировалось, что наша бездисковая система будет функционировать на любом «железе», но ~~из-за лени~~ мы не станем пытаться объять необъятное, поэтому ограничимся поддержкой графических решений следующих доминирующих производителей: nVidia, Intel и AMD.
Переключимся на машине-клиенте во второй терминал нажатием Ctrl+Alt+F2 и установим открытые драйверы:
```
pacman -S xf86-video-ati xf86-video-nouveau xf86-video-intel
```
Вероятнее всего, что на этот раз Xorg не сможет самостоятельно выбрать подходящие настройки для каждого случая, и судя по экрану загруженного клиента будет казаться, что вообще ничего не изменилось.
Простейший способ узнать какие видеоустройства имеются в системе, это ввести в консоли команду:
```
lspci | grep -i vga
00:02.0 VGA compatible controller: InnoTek Systemberatung GmbH VirtualBox Graphics Adapter
```
Но мы не будем искать лёгких путей, а в награду получим новую порцию знаний.
### Ближе знакомимся с udev
Раньше я уже упоминал, что **менеджер устройств** в Archlinux называется [udev](https://wiki.archlinux.org/index.php/Udev). Он входит в пакет systemd под именем systemd-udevd.
По мере обнаружения новых устройств в загружаемой системе, ядро создаёт их иерархию в каталоге /devices. Сначала появляется сама система PCI, затем в ней обнаруживаются шины, на которых «сидят» конечные устройства, а их драйверы рассортировывают устройства по классам. Устройства внутри классов обнаруживаются параллельно, точно как systemd параллельно запускает службы для достижения следующей цели.
Асинхронный поиск устройств приводит к тому, что если в компьютере одновременно присутствует несколько устройств, относящихся к одному классу, то они могут обнаруживаться в разном порядке от включения к включению, например, сначала одна видеокарта, а потом — другая, и их имена при этом будут меняться между собой. К счастью, появление нового элемента в иерархии устройств является событием udev, которое можно отследить и принять необходимые меры.
Для менеджера udev придуманы правила, призванные упорядочить хаос, и упростить жизнь установленных программ. Правила хранятся в папках /usr/lib/udev/rules.d/ и /etc/udev/rules.d/ (последняя, как и в случае обработчиков (hooks), имеет более высокий приоритет и файлы оттуда проверяются первыми). Появление нового элемента в иерархии устройств сопровождается проверкой всех установленных правил udev, и автоматическим выполнением указанных там действий, в случае совпадения. Обычно эти действия заключаются в переименовании устройств и установки на них ссылок в каталогах внутри /dev и /sys для удобства использования в программах.
Драйверы видеокарт относят их к подсистеме (классу) drm, поэтому сведения о подобных устройствах дублируются в каталоге /sys/class/drm. Первая видеокарта, обнаруженная в системе, по-умолчанию получает имя «card0», если в ней имеется несколько видеовыходов, то они получают имена вида «card0-CON-n», где «CON» — тип разъема (VGA, HDMI, DVI и др.), а «n» — порядковый номер разъема (причём одни производители нумеруют разъёмы начиная с «0», а другие — с «1»). Следующая видеокарта становится “card1” и т. д.
Если ничего не предпринять, то в виду параллельности обнаружения при следующем включении card1 может стать card0 и наоборот. Udev станет добавлять такие устройства в /dev то с одним, то с другим именем. Случаи, когда такое поведение udev нежелательно, подробно описаны в Интернете, и в них в основном обсуждаются различные USB устройства. Нам же требуется при обнаружении видеокарт запускать определённую программу, которую напишем чуть позже, а пока выясним, что известно udev.
Чтобы узнать то же самое, что знает про видеокарту udev, введём команду на клиенте:
```
udevadm info -a -p /sys/class/drm/card0
```
**вывод команды**Udevadm info starts with the device specified by the devpath and then
walks up the chain of parent devices. It prints for every device
found, all possible attributes in the udev rules key format.
A rule to match, can be composed by the attributes of the device
and the attributes from one single parent device.
looking at device '/devices/pci0000:00/0000:00:02.0/drm/card0':
KERNEL==«card0»
SUBSYSTEM==«drm»
DRIVER==""
looking at parent device '/devices/pci0000:00/0000:00:02.0':
KERNELS==«0000:00:02.0»
SUBSYSTEMS==«pci»
DRIVERS==""
ATTRS{irq}==«18»
ATTRS{subsystem\_vendor}==«0x0000»
ATTRS{broken\_parity\_status}==«0»
ATTRS{class}==«0x030000»
ATTRS{driver\_override}=="(null)"
ATTRS{consistent\_dma\_mask\_bits}==«32»
ATTRS{dma\_mask\_bits}==«32»
ATTRS{local\_cpus}==«00000000,00000000,00000000,00000001»
ATTRS{device}==«0xbeef»
ATTRS{enable}==«1»
ATTRS{msi\_bus}==«1»
ATTRS{local\_cpulist}==«0»
ATTRS{vendor}==«0x80ee»
ATTRS{subsystem\_device}==«0x0000»
ATTRS{boot\_vga}==«1»
ATTRS{numa\_node}=="-1"
ATTRS{d3cold\_allowed}==«0»
looking at parent device '/devices/pci0000:00':
KERNELS==«pci0000:00»
SUBSYSTEMS==""
DRIVERS==""
Обратите внимание на древовидную структуру с использованием парадигмы родительских и дочерних устройств. В строках, начинающихся с «looking at ...» указан путь к данному устройству относительно каталога /sys, т. е. обратившись к видеокарте по пути /sys/class/drm/card0, мы обнаружили, что на самом деле это ссылка на /sys/devices/pci0000:00/0000:00:02.0/drm/card0.
У родительского устройства /devices/pci0000:00/0000:00:02.0 есть атрибут vendor с идентификатором производителя. Udev располагает доступом к обширной базе данных и может перевести этот код в удобоваримый вид:
```
udevadm info -q property -p /sys/devices/pci0000:00/0000:00:02.0
DEVPATH=/devices/pci0000:00/0000:00:02.0
ID_MODEL_FROM_DATABASE=VirtualBox Graphics Adapter
ID_PCI_CLASS_FROM_DATABASE=Display controller
ID_PCI_INTERFACE_FROM_DATABASE=VGA controller
ID_PCI_SUBCLASS_FROM_DATABASE=VGA compatible controller
ID_VENDOR_FROM_DATABASE=InnoTek Systemberatung GmbH
MODALIAS=pci:v000080EEd0000BEEFsv00000000sd00000000bc03sc00i00
PCI_CLASS=30000
PCI_ID=80EE:BEEF
PCI_SLOT_NAME=0000:00:02.0
PCI_SUBSYS_ID=0000:0000
SUBSYSTEM=pci
USEC_INITIALIZED=24450
```
Сравните с выводом команды:
```
lspci | grep -i vga
00:02.0 VGA compatible controller: InnoTek Systemberatung GmbH VirtualBox Graphics Adapter.
```
### Динамическая настройка видеокарты с помощью udev
Подключитесь к загрузочному серверу. И создайте файл с правилами:
```
export root=/srv/nfs/diskless
nano $root/etc/udev/rules.d/10-graphics.rules
KERNEL=="card[0-9]*", SUBSYSTEM=="drm", RUN+="/etc/default/xdevice %n"
KERNEL=="card*", SUBSYSTEM=="drm", ATTR{enabled}=="enabled", ATTR{status}=="connected", RUN+="/etc/default/xdevice %n %k"
```
Каждое правило записывается в новой строке. Первая часть служит для идентификации события udev, к которому нужно применить действие, указанное в конце строки. Для опознания события используются данные, которые можно получить в выводе команды «udevadm info -a -p /sys...».
Правило из первой строки срабатывает для всех устройств с именем (ядром) card0, card1… подсистемы drm. Второе правило сработает только для активных устройств из подсистемы drm, к которым в данный момент подключен монитор (оно не сработает для card0, card1, а только для имен вида card0-HDMI-1, т. к. только у таких устройств есть атрибуты enabled и status). При совпадении события с его описанием выполняется одна и та же программа, в которую в первом случае передаётся один параметр %n (порядковый номер ядра, который для card0 будет «0»), а во втором — дополнительный параметр %k (само имя ядра «card0»).
Программа /etc/default/xdevice будет изменять содержимое файла в папке /etc/X11/xorg.conf.d/, в котором содержится информация о настройках видеоадаптера для xorg. Для разных производителей мы подготовим разные шаблоны, учитывающие особенности реализации. Достаточно указать минимально необходимую информацию для однозначной идентификации устройства, а остальное xorg сделает сам:
```
Section "Device"
Identifier "уникальный идентификатор устройства"
Driver "используемый драйвер"
Option "AccelMethod" "метод ускорения"
BusID "PCI:идентификатор шины PCI, куда физически установлен адаптер"
EndSection
```
Необходимые данные мы укажем в самом шаблоне или получим исследуя вывод команды «udevadm info».
Программа будет срабатывать для каждого выхода каждой видеокарты, к которому подключен монитор. Для упрощения задачи заставим работать последний обнаруженный вариант, чтобы на мультимониторных системах работал хотя бы один монитор. Это не самый оптимальный способ настройки, и было бы лучше проверить графическую подсистему один раз перед достижением graphical.target, но наш вариантрабочий и подходит для изучения правил udev в действии.
Создаём файл программы со следующим содержанием:
```
nano $root/etc/default/xdevice
```
**Скрытый текст**
```
#!/bin/sh
# в этом файле будем хранить настройки устройства для xorg
CONF_FILE=/etc/X11/xorg.conf.d/20-device.conf
# получаем первое слово в названии производителя в "человеческом" виде
# лучше было бы использовать идентификаторы, но для наглядности оставим как есть
get_vendor(){
local card=$(get_path $1)
udevadm info -q property -p ${card%\/drm*} | \
awk '/^ID_VENDOR_FROM_DATABASE/{split($1,a,"=");print tolower(a[2])}'
}
# получаем идентификатор шины PCI из пути устройства и приводим его к виду x:y:z
get_bus(){
local bus=$(get_path $1)
echo ${bus%\/drm*} | \
sed 's\:\.\g' | \
awk '{n=split($0,a,".");printf "%i:%i:%i",a[n-2],a[n-1],a[n]}'
}
# получаем полный путь к устройству
get_path(){
udevadm info -q path -p /sys/class/drm/$1
}
# Выбираем шаблон на основании имени производителя и заполняем его данными.
make_conf(){
local filename="xorg-device-$(get_vendor $1).conf"
cat /etc/X11/$filename | \
sed 's\%BUS%\'$(get_bus $1)'\g'| \
sed 's\%ID%\'$1'\g' > $CONF_FILE
}
# если мы в virtualbox, то запускаем для него службу
check_vbox(){
local vendor=$(get_vendor $1)
[ "$vendor" == "innotek" ]] && systemctl start vboxservice
}
#начало программы
card_numb=$1
if [ -z "$2" ] # обрабатываем исключение для virtualbox
then
card_name="card$card_numb"
check_vbox $card_name && make_conf $card_name
else
card_name=$2
make_conf $card_name
fi
```
Сделаем файл исполняемым:
```
chmod +x $root/etc/default/xdevice
```
Отключаем автоматическую загрузку службы VirtualBox, т. к. теперь она будет запускаться нашей программой только при необходимости:
```
systemctl disable vboxservice
```
Добавляем шаблоны конфигурационных файлов xorg, с оптимизированными под основных производителей настройками:
```
nano $root/etc/X11/xorg-device-intel.conf
Section "Device"
Identifier "Intel %ID%"
Driver "intel"
Option "AccelMethod" "uxa"
BusID "PCI:%BUS%"
EndSection
```
**AMD, nVidia, VirtualBox**
```
nano $root/etc/X11/xorg-device-innotek.conf
Section "Device"
Identifier "VirtualBox %ID%"
Driver "vboxvideo"
BusID "PCI:%BUS%"
EndSection
```
```
nano $root/etc/X11/xorg-device-advanced.conf
Section "Device"
Identifier "AMD %ID%"
Driver "radeon"
Option "AccelMethod" "exa"
BusID "PCI:%BUS%"
EndSection
```
```
nano $root/etc/X11/xorg-device-nvidia.conf
Section "Device"
Identifier "nVidia %ID%"
Driver "nouveau"
Option "AccelMethod" "exa"
BusID "PCI:%BUS%"
EndSection
```
Добавляйте свои шаблоны и не забывайте устанавливать драйверы для этих устройств. Укажите в комментариях проверенные комбинации.
В завершение настройки xorg сделаем ”Windows like” переключение раскладки клавиатуры комбинацией Alt+Shift:
```
nano $root/etc/X11/xorg.conf.d/50-keyboard.conf
Section "InputClass"
Identifier "keyboard-layout"
MatchIsKeyboard "on"
Option "XkbLayout" "us,ru"
Option "XkbVariant" ",winkeys"
Option "XkbOptions" "grp:alt_shift_toggle"
EndSection
```
Оптимизируем систему
--------------------
**Логи работы** всех составляющих Archlinux сохраняются в [журнале](https://wiki.archlinux.org/index.php/Systemd#Journal). Если всё оставить как есть, то журнал может довольно сильно раздуть, поэтому ограничим его размер, скажем 30Мб (добавьте или раскомментируйте строку):
```
nano $root/etc/systemd/journald.conf
...
SystemMaxUse=30M
...
```
Каждое действие протоколируется в папку /var/log/journal. В нашем случае передача данных осуществляется по сети, которая на практике имеет невысокую пропускную способность. Можно удалить папку с журналом, то он будет сохраняться только в оперативной памяти, что идеально подходит для бездискового клиента:
```
rm -r $root/var/log/journal
```
При различных ошибках в работе приложений в папке /var/lib/systemd/coredump создаются автоматические **дампы ядра**. Мы их отключим по той же причине:
```
nano $root/etc/systemd/coredump.conf
...
Storage=none
...
```
Отключаем **SWAP**:
```
echo -e 'vm.swappiness=0\nvm.vfs_cache_pressure=50' > $root/etc/sysctl.d/99-sysctl.conf
```
Удалим ненужные **локализации**. Это простое действие поможет сэкономить более 65 Мб. Заодно посмотрим, как устанавливаются программы из [AUR](https://wiki.archlinux.org/index.php/Arch_User_Repository) (фактически они собираются из исходников). Зайдите на загрузочный сервер с правами обычного пользователя и выполните следующие действия:
```
curl -o localepurge.tar.gz https://aur.archlinux.org/packages/lo/localepurge/localepurge.tar.gz
tar -xvvzf localepurge.tar.gz
cd localepurge
makepkg -s
```
Пакет готов. Устанавливаем его из файла, а не из репозитория, поэтому ключ S заменяется на U (исправьте название файла, если версия собранной вами програмы не совпадает с моей):
```
sudo pacman --root $root --dbpath $root/var/lib/pacman -U localepurge-0.7.3.4-1-any.pkg.tar.xz
```
Теперь настроим. Закомментируйте строку «NEEDCONFIGFIRST» в начале файла и укажите используемые локализации в самом конце:
```
nano $root/etc/locale.nopurge
...
# NEEDSCONFIGFIRST
...
ru
ru_RU
ru_RU.UTF-8
en
en_US
en_US.UTF-8
```
Конфигурируем и запускаем программу:
```
arch-chroot $root /usr/bin/localepurge-config
arch-chroot $root localepurge
```
Переходим в read-only
---------------------
Если мы попробуем загрузить существующую систему на нескольких компьютерах одновременно, то все копии будут изменять одни и те же папки на сервере. Если один клиент удалит какой-то файл, то он неожиданно исчезнет и у другого. Самый надежный способ защититься от изменений — перейти в режим только для чтения.
Проблема в том, что для нормальной работы системы необходима возможность записывать данные в некоторые папки. Решение на поверхности — подключить эти папки через fstab как tmpfs — замечательно подойдёт для /var/log, например. Но как поступить, например, с каталогом /etc, ведь наше правило udev меняет там файлы, да и другие программы активно с ним работают? Можно где-то сохранить информацию перед монтированием, а потом переписать обратно. Или сразу перенести всё куда-то ещё, а потом вернуть. Ясно одно: придётся долго тестировать и следить за работой системы, чтобы понять какие ещё папки сделать доступными для записи, или же настроить все программы так, чтобы они оставляли продукты своей жизнедеятельности строго в отведённом месте. Слишком мудрёно. Предлагаю всю систему развернуть в RAM. Останется только предварительно переписать в неё всё самое нужное для работы.
Существует одна папка, в которую во время работы ничего не записывается, если мы ничего не устанавливаем — это /usr. Если подмонтировать её на позднем этапе работы initramfs с доступом только для чтения, то на работу Firefox это никак не повлияет. Обязательно сравните размер каталога /usr с размером всего остального, и получится, что копировать останется не так много, а если при этом исключить всё лишнее… Вы тоже подумали о [rsync](https://wiki.archlinux.org/index.php/Rsync)?
### Переделываем файловую систему на лету
Устанавливаем rsync на клиента:
```
pacman -S rsync
```
Заниматься копированием предстоит на этапе работы intramfs, следовательно, понадобится новый обработчик, назовём его «live». Сначала сохраним все необходимые параметры монтирования оригинального корневого каталога, путём анализа файла /etc/fstab с помощью утилиты findmnt. Затем корневой каталог отмонтируем от папки /new\_root, где он всегда находится внутри initramfs. На его месте создадим ramfs с возможностью записи и подготовим точку монтирования /srv/new\_root, куда вернём оригинальный корневой каталог. Останется только переписать все самые нужные файлы и каталоги, за исключением папки /usr, которую забиндим в режиме только для чтения. Копии файлов в ramfs будут доступны для чтения и для записи.
```
nano $root/etc/initcpio/hooks/live
```
**cat $root/etc/initcpio/hooks/live**
```
#!/usr/bin/bash
run_latehook() {
local source options fstype
local target="/"
local fstab=/new_root/etc/fstab
local place=/new_root/srv/new_root
local filter=${place}/etc/default/live_filter
if source=$(findmnt -snero source --tab-file=$fstab -T $target); then
options=$(findmnt -snero options --tab-file=$fstab -T $target)
fstype=$(findmnt -snero fstype --tab-file=$fstab -T $target)
umount /new_root
mount -t ramfs none /new_root -o rw,defaults
[ ! -d "$place" ] && mkdir -p $place
mount ${fstype:+-t ${fstype}} ${options:+-o ${options}} $source $place
mount -o remount,ro${options:+-,${options}} $source $place
rsync -aAX ${place}/* /new_root --filter="merge $filter"
! findmnt -snero source --tab-file=$fstab -T /usr && bind_usr $place
# чтобы не допустить перемонтирование "/" во время загрузки,
# удаляем информацию по нему из fstab
cat ${place}/etc/fstab | grep -v $source > $fstab
fi
}
bind_usr(){
local place=$1
mount --bind ${place}/usr /new_root/usr
mount -o remount,ro,bind ${place}/usr /new_root/usr
}
```
К файлу /etc/fstab мы обращаемся дважды: первый раз получаем информацию по параметрам монтирования корневого каталога, а второй раз проверяем, есть ли в fstab какая-нибудь информация по /usr. Для позднего монтирования /usr в Archlinux есть специальный обработчик usr, которому мы не будем мешать выполнять свою работу. Если /usr монтируется каким-то особым образом, то наш обработчик его пропускает.
В тексте упомянут файл /etc/default/live\_filter с правилами фильтрации, предназначенными для rsync, нам нужно не забыть его подготовить. Сделаем это автоматически из установщика обработчика:
```
nano $root/etc/initcpio/install/live
#!/usr/bin/bash
build() {
make_filter > /etc/default/live_filter
add_binary "/usr/bin/rsync" "/bin/rsync"
add_binary findmnt
add_runscript
}
make_filter() {
cat <
```
Rsync «не видит» дальше одной директории. Файлы и папки в директории проверяются каждым правилом по порядку до первого совпадения ("+" — объект копируется, "-" — объект не копируется). Если совпадений нет, то файл копируется, а директория создаётся пустой. Далее rsync заходит в «выжившую» директорию и снова применяет правила к её содержимому. Так повторяется до тех пор пока совсем ничего не останется.
В нашем случае корневой каталог не попадает ни под одно правило, поэтому его структура полностью переносится (копируются все файлы и создаются пустые каталоги). Каталоги /boot, /dev, /lost+found, /mnt, /opt, /proc, /root, /run, /srv, /sys, /tmp попадают под действие последнего правила "- /\*/\*", т.е. никакое их содержимое никуда не копируется, но сами они создаются. Каталог /etc сразу же попадает под правило "+ /etc/\*", и всё его содержимое копируется, но сначала только в пределах одного каталога (в дальнейшем вся его структура будет перенесена по порядку, потому что для уровней вложенности /etc/\*/ и далее никаких правил нет). Похожее начало ждёт каталог /home — папки всех пользователей попадают под правило "+ /home/\*" и будут воссозданы в копии (пока пустыми). Следующее правило "+ /home/\*/.config" копирует каталоги .config, вложенные в домашние папки каждого из пользователей, а "- /home/\*/\*/" исключает все остальные каталоги (правило идёт после «спасательного», поэтому для /home/\*/.config не срабатывает). Про сами файлы из домашнего каталога ничего не говорится, поэтому они полностью переносятся. Файлы из исключённых вложенных каталогов не копируются, потому что эти каталоги не были созданы. Правило "- /var/cache/\*/\*" сохраняет всю структуру каталогов в /var/cache, но их содержимое не переносится. Остальные правила действуют аналогичным образом.
**Замечания**Правила для rsync, находящиеся во внешнем файле /etc/default/live\_filter, вы можете менять по своему усмотрению без необходимости заново создавать initramfs. Буду рад увидеть ваш вариант правил в комментариях.
Возможностей у rsync очень много (man rsync — почти 3000 строк). Предложите в комментариях какой-нибудь экзотический способ использования rsync внутри initramfs?
Теоретически rsync можно заменить на какой-нибудь torrent, и собирать корневую файловую систему с его помощью.
Добавляем обработчик в initramfs:
```
cat $root/etc/mkinitcpio.conf
...
HOOKS="base udev net_nfs4 live"
```
Генерируем initramfs:
```
arch-chroot $root mkinitcpio -p habr
```
**nfs4+live**Сервер и клиент работают в VirtualBox.
Исходная файловая система:
```
cat $root/etc/fstab
#
192.168.1.100:/diskless / nfs4 defaults,noatime 0 0
```
Состояние файловой системы на загруженном клиенте после выполнения обработчика live:
```
mount
...
none on / type ramfs (rw,relatime)
192.168.1.100://diskless on /srv/new_root type nfs4 (ro,noatime,vers=4.1,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=192.168.1.131,local_lock=none,addr=192.168.1.100)
192.168.1.100://diskless/usr on /usr type nfs4 (ro,noatime,vers=4.1,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=192.168.1.131,local_lock=none,addr=192.168.1.100)
...
```
Во время загрузки клиента на сервере были собраны следующие данные:
```
vnstat -l
...
eth0 / traffic statistics
rx | tx
--------------------------------------+------------------
bytes 7,23 MiB | 252,33 MiB
--------------------------------------+------------------
max 5,11 Mbit/s | 235,23 Mbit/s
average 1,48 Mbit/s | 51,68 Mbit/s
min 0 kbit/s | 1 kbit/s
--------------------------------------+------------------
packets 82060 | 199036
--------------------------------------+------------------
max 6550 p/s | 21385 p/s
average 2051 p/s | 4975 p/s
min 0 p/s | 0 p/s
--------------------------------------+------------------
time 40 seconds
```
### Разгоняем сеть
Физически, естественно, разгон сети сейчас невозможен без замены оборудования, зато программные оптимизации не запрещаются. Нам нужно передавать содержимое связанной папки /usr по сети. Не отправлять эти данные мы не можем, зато способны уменьшить объём занимаемого ими места — заархивировать. На сервере сжимаем, а на клиенте — распаковываем, и через ту же самую сеть теоретически передаётся больше данных за единицу времени.
Файловая система squashfs совмещает в себе возможности архиватора и монтирования архивов через fstab, как обычную файловую систему. Основной недостаток данной файловой системы — невозможность работать в режиме записи (только для чтения) — для нас недостатком не является:
```
pacman -S squashfs-tools && mksquashfs $root/usr $root/srv/source_usr.sfs -b 4096 -comp xz
```
Монтировать будем так:
```
nano $root/etc/fstab
#
192.168.1.100:/diskless / nfs4 defaults,noatime 0 0
/srv/new\_root/srv/source\_usr.sfs /usr squashfs loop,compress=xz 0 0
```
На позднем этапе работы initramfs монтированием папки /usr занимается обработчик usr, который нужно немного подправить:
```
cp $root/{usr/lib,etc}/initcpio/install/usr && cp $root/{usr/lib,etc}/initcpio/hooks/usr
```
Нужно, чтобы строка монтирования выглядела так:
```
nano $root/etc/initcpio/hooks/usr
mount "/new_root$usr_source" /new_root/usr -o "$mountopts"
```
**Чем не устраивает usr?**Обработчик требует указание поля «file system» в файле fstab в виде "/new\_root/srv/new\_root/usr/source\_usr.sfs". Этот файл обрабатывается systemd на раннем этапе загрузки целевой системы, и производится перемонтирование всех указанных там директорий. Папка /new\_root cуществует только на этапе ранней загрузки initrams, поэтому systemd фиксирует ошибку. Ошибка ни на что не влияет, но убрать её не сложно.
```
cat $root/etc/mkinitcpio.conf
HOOKS="base udev net_nfs4 live usr"
arch-chroot $root mkinitcpio -p habr
```
**nfs4+live+squashed /usr**Исходная файловая система:
```
cat $root/etc/fstab
#
192.168.1.100:/diskless / nfs4 defaults,noatime 0 0
/srv/new\_root/srv/source\_usr.sfs /usr squashfs ro,loop,compress=xz 0 0
```
Состояние файловой системы на загруженном клиенте после выполнения обработчиков live и usr:
```
mount
...
none on / type ramfs (rw,relatime)
192.168.1.100://diskless on /srv/new_root type nfs4 (ro,noatime,vers=4.1,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=192.168.1.131,local_lock=none,addr=192.168.1.100)
/srv/new_root/srv/source_usr.sfs on /usr type squashfs (ro,relatime)
...
```
Во время загрузки клиента на сервере были собраны следующие данные:
```
vnstat -l
...
eth0 / traffic statistics
rx | tx
--------------------------------------+------------------
bytes 5,07 MiB | 205,67 MiB
--------------------------------------+------------------
max 4,02 Mbit/s | 191,82 Mbit/s
average 1,04 Mbit/s | 42,12 Mbit/s
min 0 kbit/s | 1 kbit/s
--------------------------------------+------------------
packets 65524 | 159941
--------------------------------------+------------------
max 5954 p/s | 17170 p/s
average 1638 p/s | 3998 p/s
min 0 p/s | 0 p/s
--------------------------------------+------------------
time 40 seconds
```
Данных пришлось передать примерно на 20% меньше, чем в предыдущий раз. Можно упаковать весь корневой каталог в один файл, тогда обработчик live для заполнения ramfs будет забирать с сервера данные в сжатом виде.
Можно скопировать файл /srv/source\_usr.sfs в ramfs поменяв правила в фильтре rsync, а потом примонтировать его через fstab из нового места, и, когда вся система целиком окажется в RAM, попробовать отключиться от загрузочного сервера.
### Убираем лишнее
Если вы заглядывали [сюда](https://wiki.archlinux.org/index.php/Diskless_system), то у вас не возникнет вопрос: «Как мы будем отдавать с сервера файл?». Можно, конечно, передавать данные squashfs посредством NFS (что и происходило выше), но существует менее документированное решение [Network Block Device](http://en.wikipedia.org/wiki/Network_block_device), с которым можно работать как с обычным диском. Поскольку это «блочное устройство», а не «файловая система», мы можем использовать на нём любую файловую систему с возможностью сжатия данных. Для доступа на чтение и запись подойдёт btrfs с архивацией zlib, но нам не нужна запись и squashfs вполне устраивает.
Чтобы из initramfs можно было подключиться к NBD-серверу при загрузке понадобится скачать из AUR пакет mkinitcpio-nbd (нужно скачивать и собирать с правами обычного пользователя):
```
curl -o mkinitcpio-nbd.tar.gz https://aur.archlinux.org/packages/mk/mkinitcpio-nbd/mkinitcpio-nbd.tar.gz
tar -xvvzf mkinitcpio-nbd.tar.gz
cd mkinitcpio-nbd
makepkg -s
sudo pacman --root $root --dbpath $root/var/lib/pacman -U mkinitcpio-nbd-0.4.2-1-any.pkg.tar.xz
```
Добавляем в конец файла $root/boot/grub/grub.cfg новый пункт меню:
```
cat $root/boot/grub/grub.cfg
menuentry "NBD" {
load_video
set gfxpayload=keep
insmod gzio
echo "Загружается ядро..."
linux vmlinuz-linux \
add_efi_memmap \
ip="$net_default_ip":"$net_default_server":192.168.1.1:255.255.255.0::eth0:none \
nbd_host="$net_default_server" nbd_name=habrahabr root=/dev/nbd0
echo "Загружается виртуальный диск..."
initrd initramfs-linux.img
}
```
Как видите, поменялась только одна строчка:
```
nbd_host="$net_default_server" nbd_name=habrahabr root=/dev/nbd0
```
После подключения к NBD серверу в клиенте появляется блочное устройство с именем /dev/nbd0, поэтому поступаем с ним как с обычным диском:
```
nano $root/etc/fstab
#
/dev/nbd0 / squashfs ro,loop,compress=xz 0 0
```
В последних версиях NBD сервера появилась непрятная особенность (скорее всего это баг). Когда клиент NBD устанавливает соединение с сервером, а потом внезапно выключается не завершая соединение корректно, и оно продолжает «болтаться» на сервере в виде незавершенного процесса. Если клиент во время загрузки попробует подключиться к NBD заново, то есть вероятность, что сервер не станет создавать новое соедиенение считая старое активным. Предлагаю непосредственно перед подключением к NBD отправлять свой IP адрес через netcat на сервер, чтобы тот закрыл старые подключения, связанные с этим IP адресом:
```
cp $root/{usr/lib,etc}/initcpio/install/nbd
cp $root/{usr/lib,etc}/initcpio/hooks/nbd
```
Нужно отредактировать только один файл. Вставьте между строками следующий фрагмент:
```
nano $root/etc/initcpio/hooks/nbd
modprobe nbd # вставляете после этой строки
msg "closing old connections..."
echo ${ip} | nc ${nbd_host} 45678
local ready=$(nc -l -p 45678)
[ "$ready" -ne 1 ] && reboot
msg "connecting..." # и перед этой строкой
```
В initramfs сетью по-прежнему заведует наш модифицированный net\_nfs4, после которого вставляем nbd:
```
nano $root/etc/mkinitcpio.conf
MODULES="loop squashfs"
HOOKS="base udev net_nfs4 keyboard nbd live"
```
Генерируем initramfs:
```
arch-chroot $root mkinitcpio -p habr
```
Перед выполнением следующей команды удалите или переместите файл $root/srv/source\_usr.sfs за пределы $root — не имеет смысла помещать архив /usr внутрь архива, содержащего оригинал /usr:
```
mksquashfs $root/* /srv/new_root.sfs -b 4096 -comp xz
```
Переходим к настройке сервера
Устанавливаем пакет:
```
pacman -S nbd
```
Настраиваем NBD сервер:
```
mv /etc/nbd-server/{config,config.old} && nano /etc/nbd-server/config
[generic]
user = nbd
group = nbd
[habrahabr]
exportname = /srv/new_root.sfs
timeout = 30
readonly = true
multifile = false
copyonwrite = false
```
Всё достаточно просто. Мы создаём шару с именем habrahabr, ссылаемся на наш файл, устанавливаем таймаут соединения, раздаём в режиме «только для чтения», отдаём только один файл и функция copyonwrite нам не нужна. Copyonwrite позволяет использовать одну и ту же раздачу несколькими клиентами одновременно, при этом каждому клиенту создаётся отдельный файл, куда будут записываться все произведённые им изменения оригинального файла. После отключения клиента файлы с изменениями удаляются автоматически. Использование этой функции замедляет сервер. Информации по NBD в интернете не так много, но man'ы решают.
Проверять и завершать процессы, связанные с незакрытыми соединениями будет вот этот файл:
```
nano /etc/default/close_passive_NBD_connections.sh
#!/bin/sh
# завершает все процессы с полученными PID
_kill(){
local PID
for PID in $*
do kill $PID
done
}
main(){
local rIP PIDs
# нам передают с клиента значение переменной ip из параметров ядра в grub.cfg
rIP=$(netcat -l -p 45678 | cut -d: -f1)
# фильтруем пакеты с полученного IP адреса и узнаём их PID
PIDs=$(netstat -np | grep $rIP | awk '/^tcp.*nbd-server/{split($NF,a,"/");print a[1]}')
_kill $PIDs && echo "1" | netcat -z $rIP 45678
}
# повторяем в бесконечном цикле
while [ 0 ]
do main
done
```
Файл делаем исполняемым:
```
chmod +x /etc/default/close_passive_NBD_connections.sh
```
Устанавливаем пакеты, в которых находятся утилиты netcat и netstat:
```
pacman -S gnu-netcat net-tools
```
Модифицируем запуск службы NBD:
```
mkdir -p /etc/systemd/system/nbd.service.d && nano /etc/systemd/system/nbd.service.d/close_passive.conf
[Service]
Type=oneshot
ExecStart=/etc/default/close_passive_NBD_connections.sh
```
Возможно, выбрано не самое изящное решение, но оно достаточно понятно и замечательно работает.
**nbd + squashed live**Исходная файловая система:
```
cat $root/etc/fstab
#
/dev/nbd0 / squashfs ro,loop,compress=xz 0 0
```
Состояние файловой системы на загруженном клиенте после выполнения обработчиков live и usr:
```
mount
...
none on / type ramfs (rw,relatime)
/dev/nbd0 on /srv/new_root type squashfs (ro,relatime)
/dev/nbd0 on /usr type squashfs (ro,relatime)
...
```
Во время загрузки клиента на сервере были получены следующие данные:
```
vnstat -l
...
eth0 / traffic statistics
rx | tx
--------------------------------------+------------------
bytes 1,97 MiB | 198,92 MiB
--------------------------------------+------------------
max 2,81 Mbit/s | 138,60 Mbit/s
average 575,63 kbit/s | 58,20 Mbit/s
min 2 kbit/s | 1 kbit/s
--------------------------------------+------------------
packets 32473 | 100874
--------------------------------------+------------------
max 5991 p/s | 7576 p/s
average 1159 p/s | 3602 p/s
min 4 p/s | 1 p/s
--------------------------------------+------------------
time 28 seconds
```
На этот раз мы сэкономили ещё всего лишь 3% трафика (в пределах погрешности). Разница во времени загрузки объясняется тем, что при использовании NFS перед подключением к серверу делается принудительная пауза в 10 секунд, а в случае сервера NBD такой задержки нет.
Педаль в пол
------------
Давайте попробуем ускорить загрузку. Самое слабое звено в нашей цепочке загрузки — TFTP сервер. Полностью исключить его мы не сможем, но минимизировать его присутствие можно с помощью загрузчика [iPXE](http://ipxe.org/), как посоветовал [kvaps](http://habrahabr.ru/users/kvaps/) в комментариях к предыдущей статье.
Подключитесь к загрузочному серверу под именем username.
Меню с вариантами загрузки мы делать не будем, а автоматически загрузимся в самый быстрый на текущий момент:
```
nano ~/myscript.ipxe
#!ipxe
ifopen net0
set server_ip 192.168.1.100
set http_path http://${server_ip}
set kern_name vmlinuz-linux
kernel ${http_path}/${kern_name} || read void
initrd ${http_path}/initramfs-linux.img || read void
imgargs ${kern_name} add_efi_memmap ip=${net0/ip}:${server_ip}:${net0/gateway}:${net0/netmask}::eth0:none nbd_host=${server_ip} nbd_name=habrahabr root=/dev/nbd0 || read void
boot || read void
```
Мы планируем получать файлы vmlinuz-linux и initramfs по протоколу HTTP. Внедрим наш скрипт в загрузчик:
```
sudo pacman -S git && git clone git://git.ipxe.org/ipxe.git
cd ipxe/src/
make bin/undionly.kpxe EMBED=/home/username/myscript.ipxe
```
Возвращаемся в root на сервере и копируем загрузчик:
```
cp {/home/username/ipxe/src/bin,$root/boot}/undionly.kpxe
```
Исправим DHCP сервер таким образом, чтобы он предлагал скачивать новый файл:
```
nano /etc/dhcpd.conf
#if option architecture = 7 {
# filename "/grub/x86_64-efi/core.efi";
# } else {
# filename "/grub/i386-pc/core.0";
#}
filename "/undionly.kpxe";
systemctl restart dhcpd4
```
Устанавливаем HTTP сервер:
```
pacman -S apache
```
привязываем папку с загрузчиком к рабочей папки сервера:
```
mount --bind /srv/nfs/diskless/boot/ /srv/http/
```
Можно перемонтировать в режим «только для чтения»:
```
mount -o remount,ro,bind /srv/nfs/diskless/boot/ /srv/http/
```
Запускаем сервер:
```
systemctl start httpd
```
Смотрим, что происходит на сервере:
```
vnstat -l
...
rx | tx
--------------------------------------+------------------
bytes 1,50 MiB | 206,73 MiB
--------------------------------------+------------------
max 2,96 Mbit/s | 191,95 Mbit/s
average 684,08 kbit/s | 94,08 Mbit/s
min 5 kbit/s | 1 kbit/s
--------------------------------------+------------------
packets 22762 | 90737
--------------------------------------+------------------
max 5735 p/s | 9871 p/s
average 1264 p/s | 5040 p/s
min 3 p/s | 1 p/s
--------------------------------------+------------------
time 18 seconds
```
Выигрыш в скорости загрузки от замены TFTP на HTTP заметен невооружённым глазом и это не единственный примечательный момент iPXE. Например, [здесь](https://releng.archlinux.org/pxeboot/) показано, как можно прямо во время загрузки выбрать сервер с официальным образом установочной флешки и загрузиться в него прямо через Интернет без необходимости предварительного скачивания. Уверен, что теперь вы сможете повторить то же самое и со своим образом.
Возвращаемся на сервер
----------------------
Попробуйте добавить обработчик live в наш загрузочный сервер. Сейчас правила rsync пропускают копирование содержимого /srv, где у нас находятся файлы клиента. Мы можем поменять правила или примонтировать директорию с помощью systemd:
```
nano /etc/fstab
LABEL=HABR / ext4 rw,relatime,data=ordered 0 1
/srv/new_root/srv /srv none bind 0 1
```
В данном случае папки /srv/new\_root/srv и /srv связываются в режиме полного доступа на чтение и запись, но мы знаем решения.
Тот факт, что загрузочный сервер может работать в режиме «только для чтения», будет весьма полезен для систем, установленных на недорогую USB флешку. С такого накопителя лучше побольше читать, и поменьше на него записывать. Если вы откроете его в интернет, то получите дополнительную степень защиты. Например, роутер открывает защищенный VPN канал, на другом конце которого находится загрузочный сервер…
Чтобы переписать систему на флешку (с жёстким диском принцип тот же самый), её нужно вставить в компьютер и подключить к VirtualBox (Меню Устройства > Устройства USB и выбрать нужную из списка). Список доступных блочных устройств проверяется командой lsblk, как в самой [первой статье](http://habrahabr.ru/post/253256/). Разметьте флешку пометив загрузочной, отформатируйте с той же меткой HABR и примонтируйте к /mnt.
Создадим новый файл с правилами для rsync:
```
nano /root/clone_filter
+ /boot/*
+ /etc/*
+ /home/*
+ /srv/*
+ /usr/*
+ /var/*
- /*/*
```
Дождитесь выполнения команды:
```
rsync -aAXv /* /mnt --filter="merge /root/clone_filter"
```
В моём случае флешка — /dev/sdb
```
arch-chroot /mnt grub-install --target=i386-pc --force --recheck /dev/sdb
```
Остаётся отмонтировать /mnt и можно загружаться из копии.
PS Решение разрабатывалось для автоматизации компьютерных классов. Система одинаково работает на пожертвованных и новых компьютерах с самыми разнообразными конфигурациями. Восстановление системы на клиенте к первоначальному состоянию производится обычной перезагрузкой. Нужные данные можно сохранять на диске загрузочного сервера или на любом другом сетевом или локальном накопителе.
Поделитесь своими идеями применения. | https://habr.com/ru/post/254415/ | null | ru | null |
# Как я делал игру под KolibriOS
Всем привет. В этой публикации хочу рассказать о том, как делал игру под операционную систему KolibriOS, о существовании которой раньше даже и не подозревал.

### Как всё началось?
А началось всё с того, на [igdc.ru](http://igdc.ru/) появилось [объявление](http://igdc.ru/forum/viewthread.php?forum_id=19&thread_id=717) от администрации KolibriOS о начале [конкурса](http://habrahabr.ru/company/kolibrios/blog/243081/) на создание игры под их операционную систему.
Сперва я не принял это всерьез и не хотел участвовать по нескольким причинам. Главной, конечно же, является лень. Да-да, она спасает от многого безумия в моей жизни. Попыталась спасти и в этот раз, но одним зимним днем, когда шел с работы, на меня снизошло озарение, лампочка загорелась адским пламенем и взорвалась над моей головой. Я понял, что это хороший шанс узнать что-то новое и я просто обязан сделать игру на этот конкурс.
Конечно, я надеялся, что добравшись домой забью на эту идею (как это обычно и бывает), но, на мое удивление, этого не случилось. Даже наоборот. Когда я пришел домой и установил KolibriOS на виртуальной машине, загорелся этой идеей настолько, что впору уже тушить. Инструменты немного поумерили пыл.
### Инструменты
Подготовка к написанию игры началась с выбора языка и среды разработки. По началу взгляд пал на С, но отсутствие ООП делает меня грустным пандой. Вариант использовать Ассемблер… Не рассматривался. Довольно быстро был найден вариант написания «Hello World» на С++, и это меня вполне устраивало. Правда, немного мешала непереносимая ненависть к С++, но борьба с ней помогла таки понять тайну звездочек в языке.
Написав пару примеров по разным статьям, я так и не смог скомпилировать приложение. Пришлось обращаться за помощью к экспертам на форуме. Добрые люди не заставили долго ждать и быстро наставили меня на путь истинный.
Остановился на [утилите](http://board.kolibrios.org/viewtopic.php?f=2&t=658&p=43001#p43001) автоматического создания проекта под Visual Studio под компилятором [FASM](http://flatassembler.net/) — это один из самых простых способов, при котором компиляция из среды сразу же создавала запускаемый файл приложения для Kolibri. Указав путь компиляции на USB флешку, стало удобно запускать приложение на виртуалке. Способов проще не нашлось, общие папки не поддерживаются.
На сборку пустого проекта было потрачено около недели, поэтому, несмотря на то, что на конкурс давалось почти 2 месяца, на создание игры осталось всего 20 дней. Но всем известно — чем ближе дедлайн, тем выше продуктивность.
### 12-20 Декабря
Настал сокровенный момент выбора, какую же игру делать в доступных технологических условиях. Сперва я хотел сделать скроллер, но первые же эксперименты с выводом картинок убили эту идею. Отсутствие аппаратного ускорения и проблемы с точными таймерами не позволяли малой кровью сделать динамичную игру. Вывод картинки осуществляется принципом передачи одномерного массива RGB цветов пикселей, указания размеров изображения и позиции.
```
struct RGB
{
Byte b;
Byte g;
Byte r;
}
…
void kos_PutImage( RGB * imagePtr, Word sizeX, Word sizeY, Word x, Word y);
```
Графика в игре будет спрайтовая, а значит, надо загрузить изображение из файла, но какой формат использовать? png, jpg или gif? Как всегда выбор пал на png, он бесплатный, довольно экономичный, не портит картинку сжатием и имеет возможность хранить альфа-канал. Поработав с чтением файлов в KolibriOS, я наступил на десятки граблей и решил использовать простой массив пикселей, занесенных в глобальную константу.
```
const RGB img_water[576] = {
0x0B79BD, 0x0A6DAE, 0x0A69AA, 0x0A6EAD, 0x0B71B0, 0x0A65A8, 0x0A65A6, 0x0B75B4, 0x0B6DAD, 0x0B71B1, 0x0A6AAD, 0x0A6DAD, 0x0C7EBB, 0x0A66AB, 0x0B66AD, 0x0B6DB1, 0x0A61A3, 0x0B79B7, 0x0A72B1, 0x0A6AAD, 0x0C85C1, 0x0A6AAB, 0x0A62A3, 0x0B6EB2, 0x0B7ABC, 0x0B6BAC, 0x0C8BC3, 0x0C9BCE, 0x0C88C1, 0x0B75B4, 0x0B81BD, 0x0B89C1, 0x0B71B1, 0x0B7AB8, 0x0A74B1, 0x0B76B5, 0x0B86BF, 0x0B81BC, 0x0B81BC, 0x0A5B9F, 0x0B70AF, 0x0C86BE, 0x0B76B5, 0x0C94C6, 0x0D9DCB, 0x0A6EAF, 0x0B70B0, 0x0B70B4, 0x0B72B2, 0x0A6EAE, 0x0C8BC4, 0x0DA1D3, 0x0C8CC9, 0x0B7CB9, 0x0B7DBA, 0x0B70AF, 0x0B7CB9, 0x0B89C2, 0x0B80BB, 0x0B7AB9, 0x0B80BD, 0x0C9FCC, 0x0B8DC1, 0x0B73B3, 0x0B79B6, 0x0A61A4, 0x0B81BB, 0x0DAAD3, 0x0EB7D8, 0x0C86C4, 0x0B80BC, 0x0B79BA, 0x0A6EAD, 0x0B81BC, 0x0B8DC5, 0x0C94CA, 0x0C8AC8, 0x0C8DC4, 0x0E90C6, 0x0A64A5, 0x0B71B0, 0x0B81BD, 0x0B87C0, 0x0C8AC6, 0x0D90CB, 0x0D9FCC, 0x0B84BD, 0x0B77B7, 0x0B7DBA, 0x0B80BB, 0x0C97C8, 0x0DA6D3, 0x0EC8E0, 0x0D94CB, 0x0C8AC4, 0x0B79B9, 0x0A64A6, 0x0B7EBA, 0x0B86BF, 0x0B7EBA,
…
};
```
И вот, наконец, получилось вывести картинку в окне приложения.
Но оказалось, что в структуре пикселя отсутствует прозрачность. Это вставило ноги мне в рот, а в колёса палки. Возникла идея создания своего буфера кадра. Оказалось, что его использование довольно требовательно ресурсам системы и при выводе буфера возникает мерцание. Для борьбы с этими минусами было решено использовать RenderTarget, в которых фон попиксельно смешивался со спрайтом объекта, имеющего альфу.
```
alpha = (float)addPixel.a / 255.0f;
newPixel.r = pixel.r * (1 - alpha) + addPixel.r * alpha;
newPixel.g = pixel.g * (1 - alpha) + addPixel.g * alpha;
newPixel.b = pixel.b * (1 - alpha) + addPixel.b * alpha;
```
Но и тут было несколько проблем. Пришлось создать свою структуру пикселя ARGB (с прозрачностью) и ряд функций по работе с массивами изображений. Вывод спрайтов с альфой готов; но теперь я с ужасом осознал, что понятия не имею, что за игру буду делать.
### 21-22 Декабря
Сегодня мой взгляд упал на пункт правил конкурса об автосборке проекта. Прочитав пару статей на эту тему, я запутался и испугался еще больше, поэтому опять обратился к форуму за помощью. Но ответа ждать не стал и сразу приступил к разработке самой игры. Основа геймплея была взята из старого прототипа на [конкурс IGDC.ru №94](http://igdc.ru/igdc_top.php?konkurs=94), в котором я участвовал пару лет назад. Как вспоминаю тот проект, так вырывается непроизвольная улыбка. В этой конкурсной работе был просто небольшой стёб над администрацией и конкурентами конкурса: я написал игру в Delphi кириллицей со всеми принципами хорошего тона при формировании кода. Но это совсем другая история.
**Выглядело это как-то так:**
```
type
Логика = Boolean;
Число = Integer;
Дробь = Single;
ТикТаймера = Double;
Точка = TPoint;
TСписок = TList;
const
ПРАВДА: Логика = True;
ЛОЖЬ: Логика = False;
…
type
TЛазер = record
X, Y, Угол, Тайл: Число;
end;
TИгрок = class(TОбычныйОбъект)
strict private
FЛазер: array of TЛазер;
FКнопки: array[0..255] of Логика;
procedure ДелаемЛазер(Время: ТикТаймера);
public
procedure Процесс(Время: ТикТаймера); override;
procedure Рисуй(Слой: Число); override;
procedure ЗажатаКнопка(Кнопка: Число);
procedure ОтжатаКнопка(Кнопка: Число);
function ПроверкаСмещения(X, Y: Число): Логика; override;
end;
…
while (Карта.Тип[Тчк.X, Тчк.Y] in [тмТрава, тмВода, тмЯщикВВоде]) do
begin
…
if (Карта.Объект[Тчк.X, Тчк.Y] is TЯщик) or (Карта.Объект[Тчк.X, Тчк.Y] is TПушка) then
begin
Карта.Объект[Тчк.X, Тчк.Y].СместитьПоВектору(Смещение.X, Смещение.Y);
Конец := ПРАВДА;
end
```
Но вернемся назад к нашим баранам.
Для работы с графикой была написана небольшая программа на Delphi, позволяющая преобразовывать изображение png в C++ массив пикселей. Это дало хороший толчок к дальнейшему развитию. Как итог первый прототип уровня был сделан довольно быстро:

Вообще, в связи с небольшим количеством встроенных средств, пришлось делать функции для самых базовых операций с графикой и логикой игры.
В игре сразу была запланирована плавная анимация перемещения по уровню -— никаких прыжков по клеточкам и дерганий.
Честно говоря, тут я решил немного сжульничать, внося изменения только при действиях игрока. Это значительно разгрузило систему и при отрисовке, и в моменты простоя. Для поворота танка было решено не делать заранее заготовленные изображения, а написать алгоритм для поворота изображения. Обычное отражение по горизонтали и вертикали с переменой координат дало простой поворот картинки на угол, кратный 90 градусов. Первое время этого хватало с лихвой. Но никак не стыковалось с плавностью движения самого танка. Чуть позже сделано будет и это, но сначала сделаем толкание ящиков и сбрасывание их в воду для создания моста. Это позволит заниматься не спецэффектами, а непосредственно механикой игры.

### 23-24 Декабря
Посмотрев на то, как выглядит игра, невольно пришла идея заменить графику неясного происхождения на свою, во избежание проблем с авторством. Пришлось искать художника (но, надо сказать, недолго) и заказывать у него графику. Взгляд пал на знакомого художника [Weilard](http://habrahabr.ru/users/weilard/). Обсудив идею и показав прототип, мы договорились о цене и начали работу. (вы же не думаете, что профессионалы работают бесплатно?)
На следующей день он уже предоставил мне пару эскизов своего видения игры:

Четвертый вариант показался мне наиболее стилистически верным, да и по цветам понравился больше, поэтому, выбрав четвертый вариант, я попросил изменить цвет кирпича и получил почти конечный вариант:

Вырезав кусочки из эскиза, сразу же воткнул их в игру вместо моих картинок. Остальную графику мастер обещал предоставить в выходные (27-28 декабря). С этой графикой открылось второе дыхание и вся усталость ушла прочь. Я просто жил этой игрой.
Возвращаясь к проблеме резкого поворота, скажу, что как раз тут настал тот момент, когда то, что танк резко поворачивается на 90 градусов, портило всю картинку. Нужно было срочно избавится от этого, пришлось переписывать алгоритм отрисовки с учетом поворота на любой угол. Получилось здорово. Никогда бы не подумал, что буду писать алгоритм попиксельного поворота изображения.
Следующим шагом был реализован лазер. Алгоритм прост — рекурсивно идем по клеточкам уровня по направлению вектора движения, пока не столкнемся с препятствием. Если препятствие — зеркало, проверяем его ориентацию и либо заканчиваем цикл (зеркало повернуто к нам стенкой), либо меняем вектор направления и идем дальше (попали в само зеркало).

Попробовав снова вернуться к автосборке и изучив этот вопрос, решил, что лучше отложить до выходных, ведь очень хотелось закончить геймплей. Он сейчас был куда важнее, иначе сдавать будет совсем нечего.
### 25-26 декабря
После добавления разрушения кирпичной стены лазером проект стал компилироваться достаточно долго. Причина скрывалась в большом количестве глобальных констант, которыми были забиты в код текстуры. Сделав загрузку ресурсов из файла, я поборол эту проблему. Возится с загрузкой png-файлов не было времени и желания, так как формат с сжатием и требует приличного загрузчика. Поэтому пришлось быстренько переделать свою утилиту по созданию массива пикселей в файл. Я потратил уйму времени пока понял, что нужно указывать полный путь к файлу (относительные пути не поддерживаются), но совершенно случайным образом удалось это сделать. т.к. файл с текстурой был простым массивом RGB или ARGB структур, я решил не заморачиваться и сделал утилиту по упаковке всех файлов в один.

Убрав из кода все глобальные массивы, проект стал компилироваться моментально, что меня несказанно радовало.
### 27 Декабря
И опять эта автосборка… Автосборка получилась не сразу. Благо добрые люди на форуме помогли избавить проект от ошибок и собрать дистрибутив KolibriOS с вшитой игрой. Тем же днем художник наконец-таки скинул фоны для меню, окна выбора уровней и дополнительные текстуры объектов. Если раньше в игре была только одна сцена (разумеется, речь о режиме игры), то для внедрения меню, паузы и выбора уровня в проект пришлось добавлять еще сцены. Сперва появилось меню с кнопками начала игры и выхода. При создании перехода между сценами пришлось сперва реализовать события победы и поражения, но тут встала проблема: уровень был только один, и тот хранился в константе глобального массива.
Как всегда, пришла на помощь Delphi, которая помогла, быстро, накидать скромный редактор уровней:

Я опять немного увлекся этим делом и сделал супер-редактор, простой и удобный. Хотя и плюс в этом есть — теперь любой желающий, кому не лень, может открыть редактор и добавить парочку своих уровней в игру:
### 28-29 Декабря
Следующие пару дней я посвятил добавлению лазерных пушек и их уничтожению. Проверку на попадание танка в поле зрение пушек поставил на момент окончания движения танка. Чтобы найти активную пушку на линии огня, от танка по горизонтали и вертикали пускались проверки клеток на наличие пушки, повернутой в нашу сторону. Если она находилась, то запускался тот же алгоритм лазера, что и у танка, но с другим цветом. Тут пришлось снова изменить алгоритм отрисовки в буфер, чтобы можно было делать покраску текстуры в указанный цвет.
Уничтожение пушки было возможно только при попадании лазером ей в дуло, но простое визуальное исчезновение мне не нравилось. Взяв в руки [Magic Particles](http://www.astralax.ru/projects/particles/dev), я сделал кадровую развертку анимации взрыва и еще раз доработал отрисовку спрайта в буфер. Теперь уже с учетом номера кадра, которых можно стало хранить в текстуре несколько.

Также заказал художнику нарисовать еще один тайл, пятно от взрыва (декаль).
Прикинув, что дедлайн совсем скоро, в голову пришла идея сделать два вида зеркал (статичные и передвижные), а также пропускающие лазер стенки. Убитый во мне художник ожил и воспрянул — взяв текстуры стенки и ящика, я порезал их пополам и склеил с зеркалами.

Получилось новое геймплейное решение, которое помогает легко определить можно передвигать зеркало или нет.
### 30 Декабря
Ну вот и пришло время для создания сцены с выбором уровня. Я не мог не учесть тот момент, что редактором карт любой желающий может добавить или удалить уровень. Поэтому сделал постраничную навигацию по всем уровням в файле, тридцать уровней на странице. На данный момент в игре есть лимит на количество уровней. Меньше тысячи уровней, и то, только из-за того, что четырехзначное число не влезает в квадратик с кнопкой :D.
Наступила ночь на 31 число и почти все баги уже превратились в фичи. Как хорошо, что я взял отпуск на 3 последних дня, это позволило пройтись рубанком и напильником по проекту. Кстати, один из забавных багов: после лазера под зеркалами менялась почва, на ту, что под танком (вторая гифка).
### 31 Декабря
Решил посвятить весь день созданию уровней, ведь геймплейная часть уже была вполне готова. Это оказалось самым сложным во всей разработке. На создание 48 уровней было потрачено около 9 часов.
До конца сдачи остаётся три часа, я делаю коммит и успокаиваю нервы. Всё, успел!
### Исходники
Исходники на SVN: [LaserTank](http://websvn.kolibrios.org/listing.php?repname=Kolibri+OS&path=%2Fprograms%2Fgames%2FLaserTank%2F&#a54a857e5325000e0cdcb6a657db1aa8f), [ресурсы](http://websvn.kolibrios.org/listing.php?repname=Kolibri+OS&path=%2Fdata%2Fcommon%2Fgames%2FLaserTank%2F&#af29dd41d92e4608fbba2c85ab606bcc4)
Обсуждение игры на форуме: [board.kolibrios.org/viewtopic.php?f=41&t=2934](http://board.kolibrios.org/viewtopic.php?f=41&t=2934)
### Голосование
Посмотреть другие конкурсные работы и проголосовать за понравившиеся можно [тут](http://habrahabr.ru/company/kolibrios/blog/247601/), на хабре. | https://habr.com/ru/post/248001/ | null | ru | null |
# Cisco: первые шаги
Итак, в [сообществе Cisco](http://habrahabr.ru/blogs/cisconetworks/) научили самым базовым основам интерфейса. Т.е. вход в привилегированный режим, в режим конфигурирования и т. д… А я тогда задался целью попробовать сделать что-нибудь сам.
И я попробовал сделать из циски маленький SOHO-роутер. (Я пока недостаточно хорошо разбираюсь в более сложных материях, хотя это вопрос времени.)
Я пользователь Linux, соответственно, никакого Packet Tracerа у меня нет. (Точнее, есть, но под Wine я его запускать не пробовал.) Зато есть Dynamips и скачанные с torrents.ru образы IOS. Среди них есть и образы для платформы c7206vxr, которую я сдуру ума сэмулировал.
#### Конфигурация хостов и эмуляторов
В хост-системе имеется один физический интерфейс, в локалке, в которую он воткнут, есть DHCP-сервер. Так что я поднял мост, в который включил физический интерфейс и виртуальный tap-интерфейс cisco0:
br0: eth0 cisco0
Через этот мост (через сам интерфейс br0, вместо eth0) хост-машина теперь выходит в локалку (и имеет связь с циской). Это получился виртуальный свитч. Он сам получает адрес через DHCP.
Ещё один мост объединил два виртуальных tap-интерфейса:
br1: cisco1 vbox0
Этот мост в хосте не используется (он поднят, но адреса ему никакие не назначены). Он нужен только для объединения виртуальным свитчем двух tap-интерфейсов — я ничего умнее не придумал.
В Dynamips был сэмулирован маршрутизатор на базе c7206vxr-npe400, в его слот 0 вставлен модуль с двумя FastEthernet портами. При этом, FastEthernet0/0 смотрит в локалку (привязан к cisco0), FastEthernet0/1 — привязан к cisco1.
Кроме этого, есть ещё машина в VirtualBox, с виндой (была уже, лень было делать ещё одну). Она имеет один сетевой интерфейс, который привязан к vbox0.
#### Структура получившейся сети
Таким образом, логически получилась следующая сеть:
`локалка
(eth0)
|
+--(br0) хост-комп
|
(FastEthernet0/0)
c7206vxr-npe400
(FastEthernet0/1)
|
+-(0x1) комп с виндой`
#### Конфигурация машрутизатора
*(команды писать не буду — смысла нет, в конце приведён конфиг, из которого все они очевидны)*
Для начала, поднял FastEthernet0/0 с адресом, получаемым по dhcp. FastEthernet0/1 был назначен статический адрес. Методом тыка настроил на нём DHCP-сервер :) после чего винда сразу получила от него себе адрес, и теперь циска по обоим интерфейсам пинговалась.
Долго не мог понять, как поднять nat-маршрутизацию (захотелось мне так). Даже книжку про настройку nat скачал. Оказалось, можно поднять несколько разных natов, из которых меня заинтересовал режим overload.
После прочтения книжки, nat заработал. Результата я достиг, со следующей конфигурацией маршрутизатора:
`!
version 12.3
service timestamps debug datetime msec
service timestamps log datetime msec
no service password-encryption
!
hostname Router
!
boot-start-marker
boot-end-marker
!
!
no aaa new-model
ip subnet-zero
!
!
!
ip dhcp pool vboxes
network 192.168.2.0 255.255.255.0
default-router 192.168.2.254
dns-server 192.168.1.2
domain-name vboxes.
!
ip cef
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
interface FastEthernet0/0
ip address dhcp
ip nat outside
duplex auto
speed auto
!
interface FastEthernet0/1
ip address 192.168.2.254 255.255.255.0
ip nat inside
duplex auto
speed auto
!
ip nat inside source list 1 interface FastEthernet0/0 overload
ip classless
no ip http server
no ip http secure-server
!
!
access-list 1 permit any
!
!
!
!
!
!
!
gatekeeper
shutdown
!
!
line con 0
stopbits 1
line aux 0
line vty 0 4
!
!
end`
При необходимости, можно ограничивать доступ к nat, поменяв access-list 1.
Жду конструктивной критики от специалистов! | https://habr.com/ru/post/44235/ | null | ru | null |
# Первые две недели курса CS188.1x Artificial Intelligence или самообучение алгоритмам ИИ
Как вы думаете, что машины с искусственным интеллектом сегодня уже умеют делать, а что нет?

*На фото робот, умеющий складывать полотенца.*
В дистанционном курсе [CS188.1x Artificial Intelligence](https://www.edx.org/course/artificial-intelligence-uc-berkeleyx-cs188-1x-0) от Калифорнийского университета в Беркли профессор [Dan Klein](http://www.cs.berkeley.edu/~klein/) приводит список некоторых задач в области искусственного интеллекта. Часть из них уже решены (полностью или частично), а другая часть — еще нет. Курс посвящен алгоритмам ИИ, на которых базируются многие современные интеллектуальные системы. Хочется вкратце поделиться тем, с чего он начинается и подробней рассказать про первое практическое задание.
Первые две недели были посвящены:
* [Введению](http://ai.berkeley.edu/tutorial.html) в программирование на Python;
* Истории развития и обзору современных достижений в области ИИ ([видео](https://www.youtube.com/watch?v=tONNlv6osG4));
* Неинформированному методу поиска ([видео](https://www.youtube.com/watch?feature=player_embedded&v=afwPe_OqPX0)) — поиск в глубину, поиск в ширину, алгоритм Дейкстры;
* информированному методу поиска ([видео](https://www.youtube.com/watch?feature=player_embedded&v=OGcG4jSKOVA)) — A\*.
(Для справки ссылки на Википедию: [неинформированный метод поиска](https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B8%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D1%8B%D0%B9_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4_%D0%BF%D0%BE%D0%B8%D1%81%D0%BA%D0%B0) — [поиск в глубину](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B8%D1%81%D0%BA_%D0%B2_%D0%B3%D0%BB%D1%83%D0%B1%D0%B8%D0%BD%D1%83), [поиск в ширину](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B8%D1%81%D0%BA_%D0%B2_%D1%88%D0%B8%D1%80%D0%B8%D0%BD%D1%83), [алгоритм Дейкстры](https://ru.wikipedia.org/wiki/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC_%D0%94%D0%B5%D0%B9%D0%BA%D1%81%D1%82%D1%80%D1%8B), [информированный метод поиска](https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D1%8B%D0%B9_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4_%D0%BF%D0%BE%D0%B8%D1%81%D0%BA%D0%B0) — [A\*](https://ru.wikipedia.org/wiki/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC_%D0%BF%D0%BE%D0%B8%D1%81%D0%BA%D0%B0_A*)).
В качестве обзора **достижений** в области искусственного интеллекта профессор Dan Klein составил следующий список того, что ИИ уже умеет, а что еще нет. Каждый год он отмечает, какие задачи переходят из категории "нет" в категорию "под вопросом", а какие из категории "под вопросом" в категорию "да":
* Хорошо играть в настольный теннис — да;
* Хорошо играть в Jeopardy (Своя игра) — да;
* Безопасно управлять автомобилем по извилистым горным дорогам — да;
* Безопасно управлять автомобилем по Telegraph Avenue (улица) — под вопросом;
* Покупка бакалеи на неделю через интернет — да;
* Покупка бакалеи на неделю в обычном магазине — нет;
* Открывать и доказывать новые математические теоремы — под вопросом;
* Успешно вести диалог с человеком в течении часа — нет;
* Выполнять хирургические операции — под вопросом;
* Убирать посуду и [складывать белье](http://www.youtube.com/watch?v=gy5g33S0Gzo) — да;
* Переводить разговорный китайский в разговорный английский в реальном времени — да;
* Писать интересные истории — нет.
На третей неделе был практический проект. В нем требовалось реализовать все упомянутые в лекциях алгоритмы. В частности, поиск пути в лабиринте с различными условиями в мире Pacman'а.
Исходники заданий на Python ([zip-архив](https://s3-us-west-2.amazonaws.com/cs188websitecontent/projects/release/search/v1/001/search.zip)) можно скачать с официального сайта [курса](http://ai.berkeley.edu/home.html), где есть весь материал: видеолекции, презентации, описания заданий.
Далее я переведу текст первого задания и опишу, что нужно запустить, чтобы проверить решение. Для выполнения заданий на вашем компьютере должен быть установлен Python, например, в сборке [Anaconda](https://store.continuum.io/cshop/anaconda/).
Задача N1. Поиск заданной позиции. Алгоритм поиска в глубину
------------------------------------------------------------
Pacman живет в мире извилистых коридоров и вкусных круглых точек. И эффективная навигация в этом мире будет его первым шагом к победе.

Распакуйте архив. В `searchAgents.py` вы найдете полностью реализованный класс `SearchAgent`, который запускает поиск пути через лабиринт и затем выполняет этот путь шаг за шагом. Алгоритмы поиска пути не реализованы — это ваша работа.
Для начала убедитесь, что класс `SearchAgent` работает корректно:
```
python pacman.py -l tinyMaze -p SearchAgent -a fn=tinyMazeSearch
```
Эта команда говорит `SearchAgent` использовать `tinyMazeSearch` в качестве алгоритма поиска, который реализован в `search.py`. Pacman должен успешно пройти лабиринт.
Для того, чтобы выполнить первое задание нужно дописать только одну функцию `depthFirstSearch`, которая находится в файле `search.py` и должна реализовывать алгоритм поиска в глубину (depth-first search или DFS).
*Замечание.* Алгоритмы — поиск в глубину (DFS), поиск в ширину (BFS), алгоритм Дейкстры (UCS) и А\*, очень похожи и отличаются только в некоторых деталях реализации. Таким образом, реализовав DFS, остальные получается из него относительно просто.
Для справки, общий алгоритм поиска на псевдокоде из лекций заключается в следующем:

Описание терминов можно найти в [лекциях](https://www.youtube.com/watch?feature=player_embedded&v=afwPe_OqPX0) или [вики](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B8%D1%81%D0%BA_%D0%B2_%D0%B3%D0%BB%D1%83%D0%B1%D0%B8%D0%BD%D1%83).
**Важное примечание 1:** Функция поиска должна возвращать список действий, которые приведут агента от начальной позиции до цели. Поэтому узел графа должен содержать не только текущее состояние игры, но и информацию, необходимую для восстановления пути от начальной позиции. Кроме того, все эти действия должны быть допустимы, т.е. не проходить через стены.
**Важное примечание 2:** Убедитесь, что вы используете структуры данных `Stack`, `Queue` и `PriorityQueue`, реализованные в `util.py`. Эти реализации имеют особые свойства, которые необходимы для совместимости с `autograder.py` (см. ниже).
Для того, чтобы ваш алгоритм не был бесконечным, при реализации функции поиска избегайте посещения каких-либо состояний, которые уже были рассмотрены.
Ваш код должен быстро найти решение для:
```
python pacman.py -l tinyMaze -p SearchAgent
```
```
python pacman.py -l mediumMaze -p SearchAgent
```
```
python pacman.py -l bigMaze -z .5 -p SearchAgent
```
Во время выполнения команды на экране появиться лабиринт, в котором будут показаны места, исследованные функцией поиска. Чем ярче красный цвет, тем большее количество раз это состояние входило в состав пути в результате поиска.
*Подсказка:* Если вы используете `Stack` в вашей реализации DFS, то решение, найденное для mediumMaze, должно иметь длину 130 элементов (при условии, что вы добавляете новые элементы в стек в порядке, предусмотренном `getSuccessors`. В случае, если добавлять их в обратном порядке, вы получите 246). Является ли найденное решение хотя бы экономичным? Если нет, подумайте о том, что поиск в глубину делает неправильно.
При запуске `pacman.py` поддерживает несколько входных параметров. Список всех вариантов и их значения можно вызвать командой:
```
python pacman.py -h
```
Или посмотреть в файле `commands.txt`.
Проверка задания
----------------
Архив включает в себя скрипт `autograder.py`, который позволит проверить реализацию всех заданий на вашем компьютере с помощью следующей команды:
```
python autograder.py
```
Для более подробной информации о работе `autograder.py` см. раздел **Autograding** в [руководстве](http://ai.berkeley.edu/tutorial.html) к курсу.
Пару слов напоследок
--------------------
По началу может показаться, что окружающего кода слишком много и в нем трудно разобраться, но это быстро проходит. Весь код отлично задокументирован, так что вы никогда не потеряетесь.
Для тех, кто особо хочет поломать голову, самые сложные задания — [№6](http://ai.berkeley.edu/search.html#Q6) и [№8](http://ai.berkeley.edu/search.html#Q8).
Я старался излагать коротко, поэтому рекомендую посмотреть [лекции](http://ai.berkeley.edu/lecture_videos.html) с сайта курса. Там же вы найдете много других практических тем и заданий.
На Хабре есть еще несколько статей об этом курсе. [Раз](http://habrahabr.ru/post/159433/) и [два](http://megamozg.ru/post/7378/), а из [третьей](http://habrahabr.ru/post/250557/) я о нем и узнал.
Желаю удачи вашему Pacman! | https://habr.com/ru/post/255285/ | null | ru | null |
# Arduino <> Firmata <> Visual Basic .NET

В данной статье, я хочу сделать обзор библиотеки на языке .NET для взаимодействия с аппаратной платформой Arduino.
Так как на просторах Хабра, я не видел упоминания о данной библиотеке то я решил взять в свои руки, данную инициативу.
В данной статье я буду давать примеры исключительно на языке VB.NET, но вы можете использовать данную библиотеку на любом другом языке .NET
Занимаясь разработкой специализированного комплекса, для выполнения нужных мне задач, я столкнулся с проблемой того что при моих потребностях, весь код может не влезть в память микроконтроллера а так же с учетом того что устройство должно взаимодействовать с ПК или же при отсутствии ПК давать тот же функционал.
#### Arduino <> Firmata <> Visual Basic .NET
В результате поисков я наткнулся на протокол Firmata для аппаратной платформы Arduino, и так как у меня пылилась Arduino Mega 2560, то я решил воспользоваться. В процессе ознакомления мне почему то данный протокол начал нравиться все меньше и меньше пока я не наткнулся на [страницу](http://www.acraigie.com/programming/firmatavb/default.html) Andrew Craigie, который написал библиотеку взаимодействия протокола Firmata с языками .NET.
На сайте автора данны бесплатные примеры и исходники, скачав которые можно в принципе разобраться самому, также там есть уже готовые модули которые можно использовать для себя
Готовый модуль использования цифровых выводов платы Arduino

Готовый модуль работы с аналоговыми входами платы Arduino

Но я же рекомендую использовать только компонент Firmata.Vb

##### Примеры и как использовать
Для того что бы работать с данной библиотекой, нам в нашу Arduino достаточно загрузить из примеров:Standart Firmata.
На этом программирование с платой для нас закончено.
Теперь же, загрузив студию и добавив компонент, можем приступить к работе
##### Hello World >> Led ON!
Для того чтобы просто зажечь светодиод подключенный к порту платы достаточно прописать следующий код:
Добавляем на форму компонент FirmataVB
```
`Public Class Form1
Private Sub Form1_Load(sender As Object, e As EventArgs) Handles MyBase.Load
FirmataVB1.COMPortName = "COM5" ''Указываем наш COM порт платы
FirmataVB1.Baud = "57600" ''Указываем скорость порта
FirmataVB1.Connect() ''Подключаемся к плате
End Sub
Private Sub Button1_Click(sender As Object, e As EventArgs) Handles Button1.Click
FirmataVB1.PinMode(6, 1) ''Указываем номер вывода и его состояние, в нашем случае 6-й вывод на выход
FirmataVB1.DigitalWrite(6, 1) ''Зажигаем светодиод на 6-м выводе
End Sub
Private Sub Form1_FormClosed(sender As Object, e As FormClosedEventArgs) Handles Me.FormClosed
FirmataVB1.Disconnect() ''Закрываем порт при закрытии программы
End Sub
End Class`
```
##### PWM
Для того что бы использовать PWM(ШИМ) то в коде нужно сделать небольшие изменения.
```
FirmataVB1.PinMode(6,3) '' где 3 - это переход в режим PWM
FirmataVB1.DigitalWrite(6,x) '' где x - это значение от 0 до 255
```
##### Analog
Для работы с аналоговым входом мы указываем
```
FirmataVB1.PinMode(6,0) ''где 0 - перевод в режим входа
x = FirmataVB1.AnalogRead(6) '' где x - переменная в которую мы получаем значения порта, и 6 - порта
```
#### Заключение
Как по мне библиотека написана не зря и лично мне сэкономила много времени.
Надеюсь данная статья кому-то будет интересна и полезна.
Сайт библиотеки [Firmata.VB.NET](http://www.acraigie.com)
Сайт протокола [Firmata](http://firmata.org/wiki/Main_Page)
P.S.: Если получилось мало информативно или же есть вопросы, готов ответить на любые из них | https://habr.com/ru/post/169707/ | null | ru | null |
# Модифицируем паттерн Filter с помощью обобщенных лямбда-выражений
Мы можем оптимизировать паттерн Pipeline & Filter (конвейер и фильтры), сократив количество кода, необходимое на его реализацию, используя лямбда-выражение (упрощенную запись анонимных методов) в качестве конкретного условия фильтрации. В качестве примера для демонстрации этой концепции, было выбрано WPF-приложение с пользовательским интерфейсом. [Вот его исходный код.](https://github.com/Mirambek/DataFilterPatternUsingWPF?ref=hackernoon.com)
### Паттерн Pipeline & Filter
Обычно в рамках этого паттерна для каждого нового фильтра реализуется интерфейс. Вместо того чтобы реализовывать интерфейс для каждого условия фильтрации, в качестве входных данных для конвейера фильтров можно использовать обобщенное (generic) лямбда-выражение. В результате кода станет меньше. Ниже представлена диаграмма классов:
`ConditionAggregator` - это конвейерный класс, в котором хранится коллекция `Condition`. `Filter` владеет `ConditionAggregator` или `Condition` для применения условий (condition) фильтрации к набору данных. Когда вызывается функция apply (применить) `Filter`, выполняется метод check (проверить) `ICondition`. `ConditionAggregator` имеет событие `OnFilterChanged`. Оно срабатывает, когда в классах модели представления изменяется значение коллекции или условия. В следующем разделе будет описано использование паттерна Filter моделью представления.
### Код
Использование в модели представления
Объяснение паттерна MVVM можно найти по этой [ссылке](https://www.tutorialspoint.com/mvvm/mvvm_responsibilities.htm?ref=hackernoon.com). Одна из обязанностей модели представления (View Model) в MVVM - обрабатывать взаимодействие с пользователем и изменения данных. В нашем случае изменения значений условий фильтрации должны быть переданы на бизнес-уровень, чтобы применить фильтры к определенной коллекции данных. Изменение значения условия в модели представления стригерит событие `ConditionAggregator` `OnFilterChanged`, на которое подписан метод фильтра apply. Ниже приведена диаграмма классов модели представления.
Класс сущности `Employee` создан для хранения информации о сотрудниках. `Generic` тип `T` паттерна проектирования `Filter` будет заменен классом `Employee`. `EmployeeList` содержит список данных о сотрудниках и применяемые фильтры. Конструктор класса получает список условий и переходит к списку фильтров.
```
public EmployeeList(IEmployeesRepository repository, ConditionAggregator conditionAggregator)
{
this.repository = repository;
this.filters = new ConcreteFilter(conditionAggregator);
conditionAggregator.OnFilterChanged += this.FilterList;
\_ = initAsync();
}
```
Метод `FilterList` подписан на событие `OnFilterChanged` для применения фильтров к данным, когда происходит изменение условия или значения.
```
private void FilterList()
{
this.Employees = this.filters.Apply(this.employeesFullList);
}
```
`EmployeesViewModel` подключен к пользовательскому интерфейсу. В этом примере продемонстрирован только один фильтр свойства `EmployeeTypeselected`, но в `ConditionAggregator` можно передать множество фильтров. Следующий фрагмент кода - это метод-конструктор, в котором регистрируется условие фильтра.
```
public EmployeesViewModel(IEmployeesRepository repository)
{
this.repository = repository;
Condition<employee> filterEmployee = new Condition<employee>((e) => e.employeeCode == this.EmployeeTypeSelected);
this.conditionAggregator = new ConditionAggregator<employee>(new List<condition<employee>> { filterEmployee });
this.EmployeeList = new EmployeeList(repository, this.conditionAggregator);
}
</condition<employee></employee></employee></employee>
```
Условие передается как лямбда-выражение. Их может быть сколько угодно, поскольку конструктор `ConditionAggregator` принимает список условий фильтрации. Основная цель уменьшить код, необходимый для создания определенного класса условий фильтрации, достигнута.
### Архитектура приложения
`WPF.Demo.DataFilter` - это представление пользовательского интерфейса WPF. Он имеет одну сетку и одно поле со списком для фильтрации. Проект `WPF.Demo.DataFilter.ViewModels` обрабатывает данные, фильтрует изменения и перезагружает данные для обновления пользовательского интерфейса. Проект `WPF.Demo.DataFilter.Common` представляет собой полную реализацию шаблона Pipeline & Filter. `WPF.Demo.DataFilter.DAL` загружает простенький json-файл в качестве хранилища данных.
Это основной интерфейс:

---
***Перевод статьи был подготовлен в преддверии старта курса*** [***"Архитектура и шаблоны проектирования"***](https://otus.pw/t43f/)***. А прямо сейчас приглашаем всех желающих на*** [***бесплатный демо урок***](https://otus.pw/t43f/) ***в рамках которого обсудим назначение и структуру шаблона "Интерпретатор", формы Бекуса-Науэра, лексический, синтаксический и семантический анализы, а также разберем практические примеры. Записаться на урок можно по*** [***ссылке***](https://otus.pw/t43f/)***.***
--- | https://habr.com/ru/post/537982/ | null | ru | null |
# Почему typeof null === 'object'?
Все JavaScript-программисты давно привыкли к тому, что `typeof null === 'object'; // true`, хотя фактически null — примитивное значение. Многие знают, что это баг, и лично Брэндан Айк это [признает](http://wiki.ecmascript.org/doku.php?id=harmony:typeof_null). Этот баг, вероятно, никогда не будет исправлен из-за необходимости сохранения обратной совместимости существующего кода с новыми версиями языка.
Интересна история того, как же это получилось. Она восходит корнями к первой версии языка, а именно — к тому факту, что значения переменных хранились в 32-битных ячейках в следующем формате:
29-31 бит: само значение;
1-3 бита: метка типа данных;
Было всего пять вариантов метки типа:
000: object;
1: integer;
010: double;
100: string;
110: boolean;
Соответственно, если младший бит был равен единице, то оставшийся 31 бит интерпретировался как integer. Если 0 — то тип определялся в зависимости от значения следующих двух бит.
Также было два специальных зарезервированных значения:
undefined (JSVAL\_VOID) — целое –230
null (JSVAL\_NULL) — указатель на NULL (machine code NULL pointer), то есть, метка объекта и ссылка на то, что его численное представление равно нулю.
Так и вышло, что typeof стал определять null как object — он проверял метку типа, которая сообщала ему, что null — это не что иное, как object.
[via](http://www.2ality.com/2013/10/typeof-null.html) | https://habr.com/ru/post/200664/ | null | ru | null |
# Пишем примитивный и никому не нужный компилятор
Я считаю, что каждый программист должен написать свой компилятор.
Я сам долгое время считал, что создание компиляторов — это удел элиты, а простому смертному программисту не постичь этой науки. Попробую доказать, что это не так.
В посте мы рассмотрим, как можно написать свой компилятор C-подобного языка меньше чем за час, исписав всего 300 строчек кода. В качестве бонуса, сюда входит и код виртуальной машины, в байткод которой будет компилироваться исходник.
Компилятор будет писаться на Python. Я очень люблю этот язык, но код может быть местами корявым. Если что не так — пишите в личку.
Да, компилятор совершенно нагло основан на Tiny-С.
Грамматика
----------
Прежде чем начать, давайте определимся, что именно будет уметь наш язык.
Уметь он будет очень мало:
— единственный тип данных — int
— все переменные — глобальные. Всего есть 26 переменных (a-z)
— из математических операций поддерживаются только "+" и "-"
— единственный оператор сравнения — это "<"
— из конструкций языка — условные операторы if, if/else, while, do/while
Все. Никаких массивов, функций, структур. Вот какая грамматика получается у нашего языка:
````
::=
::= "if" |
"if" "else" |
"while" |
"do" "while" |
"{" { } "}" |
";" |
";"
::= "(" ")"
::= | "="
::= | "<"
::= | "+" | "-"
::= | |
::= "a" | "b" | ... | "z"
::= , { }
::= "0" | "1" | ... | "9"
````
Это запись грамматики в форме [EBNF](http://en.wikipedia.org/wiki/Extended_Backus%E2%80%93Naur_Form). Вот что эта запись приблизительно означает.
Программа — это один оператор (statement).
Операторы бывают условными (if..else...), циклическими (while...) и просто операторами (напр., «a=2+3»).
Условные и циклические содержат в себе выражение-условие и тело (в виде оператора). Обычные операторы заканчиваются точкой с запятой. Можно группировать операторы в фигурных скобках, тогда получим составной оператор.
Выражения — это либо сумма, либо присваивание переменной значения.
Здесь сумма — это последовательность сложений-вычитаний термов.
Терм — это число, переменная или выражение в скобках.
Переменные — это символы от a до z. Числа — это набор цифр от 0 до 9.
Все эти сложности нужны для того, чтобы указать компилятору как именно автоматически анализировать исходный код. Например, встретили слово «if» — значит дальше идет выражение в скобках, а за ним — оператор.
Лексический анализатор
----------------------
На вход компилятору поступает текстовый файл (исходник). [Лексический анализатор](http://en.wikipedia.org/wiki/Lexical_analysis) нужен для того, чтобы выделить в этом файле токены. Т.е. строчку «a = 3 + 42;» лексический анализатор должен представить в виде «идентификатор: a», «оператор =», «число 3», «оператор +», «число 42», «символ ;». Лексический анализатор работает только с последовательностью букв, т.е. для него строчка «a b if =» тоже имеет смысл и является абсолютно корректной.
Итак, наш лексический анализатор должен узнавать следующие токены:
— числа
— идентификаторы-переменные
— ключевые слова: if, else, while, do
— символы +, -, <, =, {, }, (, ),;
— конец файла
Вот как выглядит его исходный код:
```
class Lexer:
NUM, ID, IF, ELSE, WHILE, DO, LBRA, RBRA, LPAR, RPAR, PLUS, MINUS, LESS, \
EQUAL, SEMICOLON, EOF = range(16)
# специальные символы языка
SYMBOLS = { '{': LBRA, '}': RBRA, '=': EQUAL, ';': SEMICOLON, '(': LPAR,
')': RPAR, '+': PLUS, '-': MINUS, '<': LESS }
# ключевые слова
WORDS = { 'if': IF, 'else': ELSE, 'do': DO, 'while': WHILE }
# текущий символ, считанный из исходника
ch = ' ' # допустим, первый символ - это пробел
def error(self, msg):
print 'Lexer error: ', msg
sys.exit(1)
def getc(self):
self.ch = sys.stdin.read(1)
def next_tok(self):
self.value = None
self.sym = None
while self.sym == None:
if len(self.ch) == 0:
self.sym = Lexer.EOF
elif self.ch.isspace():
self.getc()
elif self.ch in Lexer.SYMBOLS:
self.sym = Lexer.SYMBOLS[self.ch]
self.getc()
elif self.ch.isdigit():
intval = 0
while self.ch.isdigit():
intval = intval * 10 + int(self.ch)
self.getc()
self.value = intval
self.sym = Lexer.NUM
elif self.ch.isalpha():
ident = ''
while self.ch.isalpha():
ident = ident + self.ch.lower()
self.getc()
if ident in Lexer.WORDS:
self.sym = Lexer.WORDS[ident]
elif len(ident) == 1:
self.sym = Lexer.ID
self.value = ord(ident) - ord('a')
else:
self.error('Unknown identifier: ' + ident)
else:
self.error('Unexpected symbol: ' + self.ch)
```
В методе next\_tok() анализатор получает следующий токен. Тип токена можно получить из атрибута sym, а его значение (если это переменная или число) — из атрибута value.
Анализатор игнорирует пробелы, проверяет, является ли текущий символ специальным символом языка, если нет — проверяет, является ли он числом или идентификатором. Т.е. встретив цифру 1, анализатор продолжит вычитывать символы, пока не встретит не-числовой символ. Аналогично проверяются идентификаторы (там вместо чисел буквы).
Парсер
------
Это, наверное, самый сложный компонент нашего компилятора. Его задача, используя токены, полученные от лексического анализатора, сформировать [своего рода дерево](http://en.wikipedia.org/wiki/Abstract_syntax_tree), в котором иерархия и связи отображают структуру кода. Например:
````
"if (a < 0) a = 5;"
IF
+-LESS
| +-VAR(a)
| +-NUM(0)
+-SET
+-VAR(a)
+-NUM(5)
````
Дерево, которое строится парсером, состоит из узлов. У узла есть тип (IF, LESS, SET, VAR...), значение (если это число или переменная) и несколько дочерних узлов-операндов (в коде — op1, op2, op3). Для if в них хранятся условие и ветки then/else, для циклов — условие и тело цикла.
Для описания узлов введем класс Node. Вот код класса парсера и класса Node:
```
class Node:
def __init__(self, kind, value = None, op1 = None, op2 = None, op3 = None):
self.kind = kind
self.value = value
self.op1 = op1
self.op2 = op2
self.op3 = op3
class Parser:
VAR, CONST, ADD, SUB, LT, SET, IF1, IF2, WHILE, DO, EMPTY, SEQ, EXPR, PROG = range(14)
def __init__(self, lexer):
self.lexer = lexer
def error(self, msg):
print 'Parser error:', msg
sys.exit(1)
def term(self):
if self.lexer.sym == Lexer.ID:
n = Node(Parser.VAR, self.lexer.value)
self.lexer.next_tok()
return n
elif self.lexer.sym == Lexer.NUM:
n = Node(Parser.CONST, self.lexer.value)
self.lexer.next_tok()
return n
else:
return self.paren_expr()
def summa(self):
n = self.term()
while self.lexer.sym == Lexer.PLUS or self.lexer.sym == Lexer.MINUS:
if self.lexer.sym == Lexer.PLUS:
kind = Parser.ADD
else:
kind = Parser.SUB
self.lexer.next_tok()
n = Node(kind, op1 = n, op2 = self.term())
return n
def test(self):
n = self.summa()
if self.lexer.sym == Lexer.LESS:
self.lexer.next_tok()
n = Node(Parser.LT, op1 = n, op2 = self.summa())
return n
def expr(self):
if self.lexer.sym != Lexer.ID:
return self.test()
n = self.test()
if n.kind == Parser.VAR and self.lexer.sym == Lexer.EQUAL:
self.lexer.next_tok()
n = Node(Parser.SET, op1 = n, op2 = self.expr())
return n
def paren_expr(self):
if self.lexer.sym != Lexer.LPAR:
self.error('"(" expected')
self.lexer.next_tok()
n = self.expr()
if self.lexer.sym != Lexer.RPAR:
self.error('")" expected')
self.lexer.next_tok()
return n
def statement(self):
if self.lexer.sym == Lexer.IF:
n = Node(Parser.IF1)
self.lexer.next_tok()
n.op1 = self.paren_expr()
n.op2 = self.statement()
if self.lexer.sym == Lexer.ELSE:
n.kind = Parser.IF2
self.lexer.next_tok()
n.op3 = self.statement()
elif self.lexer.sym == Lexer.WHILE:
n = Node(Parser.WHILE)
self.lexer.next_tok()
n.op1 = self.paren_expr()
n.op2 = self.statement();
elif self.lexer.sym == Lexer.DO:
n = Node(Parser.DO)
self.lexer.next_tok()
n.op1 = self.statement()
if self.lexer.sym != Lexer.WHILE:
self.error('"while" expected')
self.lexer.next_tok()
n.op2 = self.paren_expr()
if self.lexer.sym != Lexer.SEMICOLON:
self.error('";" expected')
elif self.lexer.sym == Lexer.SEMICOLON:
n = Node(Parser.EMPTY)
self.lexer.next_tok()
elif self.lexer.sym == Lexer.LBRA:
n = Node(Parser.EMPTY)
self.lexer.next_tok()
while self.lexer.sym != Lexer.RBRA:
n = Node(Parser.SEQ, op1 = n, op2 = self.statement())
self.lexer.next_tok()
else:
n = Node(Parser.EXPR, op1 = self.expr())
if self.lexer.sym != Lexer.SEMICOLON:
self.error('";" expected')
self.lexer.next_tok()
return n
def parse(self):
self.lexer.next_tok()
node = Node(Parser.PROG, op1 = self.statement())
if (self.lexer.sym != Lexer.EOF):
self.error("Invalid statement syntax")
return node
```
Этот парсер работает рекурсивно, начиная с метода parse().
Вначале он создает узел «Программа», дочерним узлом которого становится главный оператор программы.
Операторы формируются в методе statement(). В этом методе проверяется первый токен и в зависимости от него формируется if, if/else, while, do/while, составной оператор (если начинается с фигурной скобки) или просто одиночный оператор, завершающийся точкой с запятой.
При построении операторов используются методы expr() — получить выражение и paren\_expr() — получить выражение в скобках.
Выражения строятся из проверок, которые строятся из сумм, которые состоят из термов. А термы в свою очередь состоят из чисел, переменных и выражений в скобках. В доме, который построил Джек.
Такая вот рекурсия. Как видите, методы соответствуют понятиям описанной выше грамматики.
На выходе метода parse() получаем объект класса Node, который содержит дерево нашей программы. Это дерево теперь можно преобразовывать в машинный код.
Машинный код
------------
Компилировать мы будем в простенький байт-код нашей специальной виртуальной машины. Виртуальная машина будет стековой, т.к. они значительно проще регистровых. Вот ее возможные инструкции:
````
FETCH x - положить на стек значение переменной x
STORE x - сохранить в переменной x значение с вершины стека
PUSH n - положить число n на вершину стека
POP - удалить число с вершины стека
ADD - сложить два числа на вершине стека
SUB - вычесть два числа на вершине стека
LT - сравнить два числа с вершины стека (a < b). Результат - 0 или 1
JZ a - если на вершине стека 0 - перейти к адресу a.
JNZ a - если на вершине стека не 0 - перейти к адресу a.
JMP a - перейти к адресу a
HALT - завершить работу
````
Например, операторы «a = 2; b = 5;» преобразуется в такую последовательность инструкций:
````
PUSH 2 STORE 0 PUSH 5 STORE 1
````
Код виртуальной машины очень простой. Он весь описывается в методе run:
```
IFETCH, ISTORE, IPUSH, IPOP, IADD, ISUB, ILT, JZ, JNZ, JMP, HALT = range(11)
class VirtualMachine:
def run(self, program):
var = [0 for i in xrange(26)]
stack = []
pc = 0
while True:
op = program[pc]
if pc < len(program) - 1:
arg = program[pc+1]
if op == IFETCH: stack.append(var[arg]); pc += 2
elif op == ISTORE: var[arg] = stack.pop(); pc += 2
elif op == IPUSH: stack.append(arg); pc += 2
elif op == IPOP: stack.append(arg); stack.pop(); pc += 1
elif op == IADD: stack[-2] += stack[-1]; stack.pop(); pc += 1
elif op == ISUB: stack[-2] -= stack[-1]; stack.pop(); pc += 1
elif op == ILT:
if stack[-2] < stack[-1]:
stack[-2] = 1
else:
stack[-2] = 0
stack.pop(); pc += 1
elif op == JZ:
if stack.pop() == 0:
pc = arg
else:
pc += 2
elif op == JNZ:
if stack.pop() != 0:
pc = arg
else:
pc += 2
elif op == JMP: pc = arg;
elif op == HALT: break
print 'Execution finished.'
for i in xrange(26):
if var[i] != 0:
print '%c = %d' % (chr(i+ord('a')), var[i])
```
Осталось написать собственно компилятор — генератор кода.
Компилятор
----------
Венец нашего творения. Вот его исходный код:
```
class Compiler:
program = []
pc = 0
def gen(self, command):
self.program.append(command)
self.pc = self.pc + 1
def compile(self, node):
if node.kind == Parser.VAR:
self.gen(IFETCH)
self.gen(node.value)
elif node.kind == Parser.CONST:
self.gen(IPUSH)
self.gen(node.value)
elif node.kind == Parser.ADD:
self.compile(node.op1)
self.compile(node.op2)
self.gen(IADD)
elif node.kind == Parser.SUB:
self.compile(node.op1)
self.compile(node.op2)
self.gen(ISUB)
elif node.kind == Parser.LT:
self.compile(node.op1)
self.compile(node.op2)
self.gen(ILT)
elif node.kind == Parser.SET:
self.compile(node.op2)
self.gen(ISTORE)
self.gen(node.op1.value)
elif node.kind == Parser.IF1:
self.compile(node.op1)
self.gen(JZ); addr = self.pc; self.gen(0);
self.compile(node.op2)
self.program[addr] = self.pc
elif node.kind == Parser.IF2:
self.compile(node.op1)
self.gen(JZ); addr1 = self.pc; self.gen(0)
self.compile(node.op2)
self.gen(JMP); addr2 = self.pc; self.gen(0)
self.program[addr1] = self.pc
self.compile(node.op3)
self.program[addr2] = self.pc
elif node.kind == Parser.WHILE:
addr1 = self.pc
self.compile(node.op1)
self.gen(JZ); addr2 = self.pc; self.gen(0)
self.compile(node.op2)
self.gen(JMP); self.gen(addr1);
self.program[addr2] = self.pc
elif node.kind == Parser.DO:
addr = self.pc
self.compile(node.op1)
self.compile(node.op2)
self.gen(JNZ);
self.gen(addr);
elif node.kind == Parser.SEQ:
self.compile(node.op1)
self.compile(node.op2)
elif node.kind == Parser.EXPR:
self.compile(node.op1);
self.gen(IPOP)
elif node.kind == Parser.PROG:
self.compile(node.op1);
self.gen(HALT)
return self.program
```
Метод gen() добавляет новый байт (команду или аргумент) в программу (список байт).
В методе compile() собирается вся программа. Фактически, этот метод рекурсивно обходит дерево узлов. и для каждого типа узла генерирует соответствующий код.
Обратите внимание на хитрость в условных операторах и циклах. После JMP/JZ сперва пишем 0, а когда сама ветка скомпилирована и известен адрес, на который надо перейти, чтобы не выполнять эту ветку — значение 0 меняем на фактический адрес.
Тестируем
---------
[Тут](https://gist.github.com/1415759) лежит полный исходник компилятора. Я использовал скриптик для запуска и проверки (у меня Lexer читал из stdin):
```
echo " i = 3;" | ./cc.py
echo " { a=3; b=5; }" | ./cc.py
echo " { a = 1; b = 2; c = a + b; }" | ./cc.py
echo " { a = 5; b = 2; c = a - b; }" | ./cc.py
echo " { a = 5; b = 2; c = b < a; }" | ./cc.py
echo " { a = 5; if (a < 10) a = 33; }" | ./cc.py
echo " { a = 5; if (10 < a) a = 33; else { a = 1; b = 2; } }" | ./cc.py
echo " { a = 10; do { a = a - 2;} while (3 < a); }" | ./cc.py
echo " { a = 1; b = 5; while (a < b) { a = a + 3; }}" | ./cc.py
```
Ответы машина выдавала вроде бы правильные.
Что дальше?
-----------
Применений у нашего компилятора нет. Зато получен опыт.
Я надеюсь, вам еще больше хочется написать свой компилятор. Тогда лучше начинать с языков с простым синтаксисом, напр. [TinyBasic](http://en.wikipedia.org/wiki/Tiny_BASIC) или [PL/0](http://en.wikipedia.org/wiki/PL/0).
Если вам хочется почитать исходники других компиляторов, то советую обратить внимание на работу Белларда ([otcc](http://bellard.org/otcc/)), [tinyc](http://www.iro.umontreal.ca/~felipe/IFT2030-Automne2002/Complements/tinyc.c), [tcc](http://bellard.org/tcc/), [smallC](http://www.cpm.z80.de/small_c.html), [lcc](https://sites.google.com/site/lccretargetablecompiler/). | https://habr.com/ru/post/133780/ | null | ru | null |
# Эффекты фильтрации SVG. Часть 4. Двухцветные изображения при помощи feComponentTransfer
Эта четвертая статья серии об SVG-фильтрах, в которой Sara Soueidan покажет вам, как использовать **feComponentTransfer** для создания эффекта двухтонового фильтра.

Предлагаемая серия статей "Эффекты фильтрации SVG" Sara Soueidan, внештатного разработчика UI/UX интерфейса и автора многих технических статей, проживающей в Ливане, посвящена работе фильтров SVG и состоит из следующих статей:
Эффекты фильтрации SVG
======================
1. [Эффекты фильтрации SVG. Часть 1. SVG фильтры 101](https://habr.com/ru/post/439282/)
2. [Эффекты фильтрации SVG. Часть 2. Контурный текст при помощи **feMorphology**](https://habr.com/ru/post/439722/)
3. [Эффекты фильтрации SVG. Часть 3. Эффект постеризации изображения при помощи **feComponentTransfer**](https://habr.com/ru/post/439874/)
4. Эффекты фильтрации SVG. Часть 4. Двухцветные изображения при помощи **feComponentTransfer**.
5. [SVG Filter Effects: Conforming Text to Surface Texture with feDisplacementMap](https://tympanus.net/codrops/2019/02/12/svg-filter-effects-conforming-text-to-surface-texture-with-fedisplacementmap/)
---
В предыдущей статье этой серии я познакомила вас с примитивом **feComponentTransfer**, и мы использовали его для ограничения количества цветов изображения, чтобы создать эффект постеризации. В этой статье мы рассмотрим, как этот примитив можно использовать для создания эффекта **duotone**, подобно Photoshop. Мы также научимся использовать его для управления интенсивностью и контрастностью цветов изображения.
Краткий Обзор
-------------
Немного повторим.
Примитив **feComponentTransfer** позволяет изменять каждый из компонентов R, G, B и A, присутствующих в пикселе. Другими словами, **feComponentTransfer** предоставляет независимое манипулирование каждого канала цвета, так же как и канала альфа, в элементе **input**.
Компоненты **RGBA** изменяются путем выполнения различных видов функций на этих компонентах. Для этого у каждого компонента есть собственный элемент. Эти компонентные элементы вложены в **feComponentTransfer**. Для RGBA это компонентные элементы **feFuncR**, **feFuncG**, **feFuncB**, и **feFuncA**.
Атрибут **type** используется в компонентном элементе для определения типа функции, которую требуется использовать для изменения этого компонента. В настоящее время доступно пять типов функций: **identity**, **table**, **discrete**, **linear** и **gamma**. Эти типы функций используются для изменения компонентов RGBA (цвета и альфа-канал) источника графики. Мы упомянули, что можно изменять один или несколько компонентов одновременно и что можно каналы изменять независимо, применяя различные функции к каждому компонентному элементу.
```
">
```
В предыдущей статье мы прояснили функцию **discrete** и увидели, как ее можно использовать для постеризации изображений. В этой статье мы начнем с использования функции **table** для создания эффекта duotone, аналогичного тому, что вы можете создать в Photoshop.
Создание двухцветного эффекта в Photoshop
-----------------------------------------
Я не дизайнер и не разбираюсь в графических редакторах, таких как **Photoshop**. Когда я хотела создать двухцветный эффект в SVG, я сначала искала способ создать этот эффект в графическом редакторе, чтобы увидеть, могу ли я реплицировать его с помощью операций фильтрации, доступных в SVG. Как оказалось, шаги по созданию двухцветных изображений в SVG точно такие же, как и в Photoshop.
Следующее видео является ускоренной версией [этого урока](https://www.youtube.com/watch?v=3SKii_OLrHs), который я нашла на YouTube.
В этом видео дизайнер создает двухцветный эффект, выполнив следующие действия:
* Обесцветить изображение, сделав его оттенками серого.
* Сопоставьте диапазон оттенков серого с новым диапазоном, который вместо черно-белого на обоих концах имеет два разных цвета, которые вы хотите использовать в двухцветном эффекте. Другими словами, необходимо создать и использовать карту градиента, с которой сопоставляются оттенки серого.
Давайте посмотрим, как эти шаги могут быть воспроизведены в SVG.
Создание двухцветного эффекта в SVG
-----------------------------------
Чтобы воссоздать этот эффект в SVG, нам нужно сначала обесцветить изображение. Это возможно выполнить с помощью примитива фильтра **feColorMatrix**.
Затем, нам нужно суметь создать и передать градиентную карту браузеру, чтобы отобразить новое изображение в оттенках серого.
### Преобразование изображения в оттенки серого с помощью feColorMatrix
С помощью **feColorMatrix** вы можете задать цветовую матрицу, которая определяет количество красного, зеленого и синего в вашем изображении. Предоставляя равное количество этих трех компонент, мы создаем матрицу, которая преобразует наше изображение в версию самого себя в оттенках серого:
```
```
На следующем рисунке изображение справа это результат применения вышеуказанного фильтра к изображению слева:

Рис\_1. Результат (справа) преобразования изображения слева в оттенки серого с помощью операции фильтра **feColorMatrix**.
Вы можете узнать все о **feColorMatrix** и как его использовать в [этой статье](https://alistapart.com/article/finessing-fecolormatrix) Уна Кравец.
Теперь, когда наше изображение по существу состоит из серого градиента, нам нужно создать двухцветную карту градиента для отображения серого градиента.
### Создание карты градиента с помощью функции переноса компонентов таблицы
В SVG для создания карты градиентов можно использовать примитив feComponentTransfer с таблицей типов.
В [предыдущей статье](https://tympanus.net/codrops/2019/01/29/svg-filter-effects-poster-image-effect-with-fecomponenttransfer/) мы видели, как можно сопоставить цвета изображения со списком цветов, предоставленным в атрибуте **tableValues** с помощью функции **discrete**. Браузер использует наш список **tableValues** для создания диапазонов, которые затем используются для сопоставления цветов со значениями, которые мы предоставили.
При использовании функции **table** мы также будем предоставлять значения цветов в атрибуте **tableValues**. Опять браузер будет использовать эти значения, чтобы сопоставить с ними цвета изображения. Однако отличается то, как браузер будет отображать эти цвета. Вместо сопоставления диапазонов цвета с дискретным значением цвета, он создаст цветовой диапазон из предоставленных значений, а затем сопоставит входной диапазон с этим новым диапазоном.
Предположим, мы хотим использовать два цвета для нашего двухтонального эффекта:

Рис\_2. Исходные два цвета.
Эти два цвета будут использоваться для создания градиентного отображения:

Рис\_3. Градиент, созданный по двум значениям цвета.
… которому мы собираемся сопоставить нашу карту оттенков серого.

Рис\_4. Отображение двухтональной карты двуцветному градиенту.
Чтобы использовать эти цвета в **feComponentTransfer**, нам нужно получить значения каналов R, G и B каждого цвета. Поскольку **tableValues** содержит дробные значения, нам нужно преобразовать значения RGB в дроби. Значения цвета обычно находятся в диапазоне [0,255]. Чтобы преобразовать их в дроби, разделим их на 255.
Например, розовый цвет имеет следующие значения RGB:
```
R: 254
G: 32
B: 141
```
Преобразовав их в дробь, получим:
```
R: 254/255 = .996078431
G: 32/255 = .125490196
B: 141/255 = .552941176
```
Аналогично для значений желтого цвета получим:
```
R: .984313725
G: .941176471
B: .478431373
```
Теперь, когда у нас есть значения цветов, пришло время создать нашу карту градиента. Ранее мы упоминали, что когда мы предоставим значения **tableValues** для использования в функции **table**, браузер будет использовать **tableValues** для создания диапазона. Поэтому мы начнем с предоставления значений RGB двух цветов в качестве значений RGB для компонентных элементов:
```
```

В предыдущей статье мы видели, что при использовании функции **discrete** браузер создает **n** диапазонов для **n** значений в **tableValues**. Когда мы используем функцию **table**, браузер создает **n-1** диапазон для **n** значений. Т.к. мы предоставили два **tableValues** для каждого компонента, это означает, что мы получим один диапазон ([розовый, желтый]) для каждого.
Теперь **feComponentTransfer** сделает свое дело: браузер будет просматривать последовательно каждый пиксель источника изображения. Для каждого пикселя он получит значение красного, зеленого и синего компонентов. Поскольку наше изображение имеет оттенки серого, значения R/G/B будут находиться в диапазоне [0, 1] = [черный, белый] (0 — полностью черный, 1 — полностью белый и оттенки серого между ними). Затем значение каждого компонента будет сопоставлено с новым диапазоном, указанным в **tableValues**.
Итак:
* значение красного компонента будет сопоставлено диапазону [.996078431,.984313725];
* синее значение компонента будет сопоставлено диапазону [.125490196,.941176471];
* зеленое значение компонента будет сопоставлено диапазону [.552941176,.478431373].
Таким образом, к тому времени, когда браузер пройдет по всем пикселям изображения, вы замените все значения RGB в градиенте оттенков серого на значения RGB двухцветного градиентного отображения. В результате изображение станет двухцветным.

Рис\_6. Результат (справа) отображения изображения с оттенками серого (слева) в нашу градиентную карту.
Наш полный код теперь выглядит так:
```
```
Вы можете поиграть с демо здесь:
Вы можете пойти дальше и вместо предоставления только двух значений цвета для карты градиента предоставить три значения цвета в **tableValues**, создав карту градиента, имеющую три цвета вместо двух.
Управление контрастностью и интенсивностью цвета с помощью функции переноса gamma
---------------------------------------------------------------------------------
Используя компонентную функцию переноса **gamma** мы можем выполнить гамма-коррекцию нашего источника графики. Гамма-коррекция — это функция управления уровнями освещенности изображения.
Функция **gamma** имеет три атрибута, позволяющие управлять функцией гамма-коррекции, которые будут использоваться для управления освещенностью: амплитуда, экспонента и смещение. В совокупности они составляют следующую функцию переноса:
```
C' = amplitude * pow(C, exponent) + offset
```
**gamma** может использоваться для управления общей контрастностью изображения. Увеличение атрибута **exponent** делает темные области темнее, в то время как увеличение атрибута **amplitude** заставляет светлые области сиять больше. А это, в свою очередь, повышает общую контрастность изображения. Атрибут **offset** используется для увеличения интенсивности каждого компонента, а также влияет на полное изображение: как светлые, так и темные области.
Настройка контрастности как темных так и светлых областей изображения иногда может быть полезна, если вы не получили величины “блеска”, которое вы хотели бы видеть на изображении.
Например, если применить фильтр **duotone** из предыдущего раздела к следующему изображению, результат будет не таким “живым”, как хотелось бы:

Рис\_7. Результат работы фильтра duotone.
Двухцветное изображение справа выглядит немного бледным, а цвета слегка размытыми. Я хочу добавить контраста, чтобы оно выглядело более живым. Увеличим немного **amplitude** и **exponent**:
```
```
Я смогла сделать светлые области более светящимися, а темные — более интенсивными:

Рис\_8. Результат работы гамма-коррекции.
Конечно, это только пример. Вы можете предпочесть более бледную версию изображения, особенно чтобы оно выглядело лучше с текстом сверху. Я думаю, что гамма-коррекция наиболее полезна для управления контрастностью черно-белых изображений. Если я применю ту же операцию гамма-коррекции к версии изображения в оттенках серого, то получу более благоприятную картину:

Рис\_9. Результат работы гамма-коррекции для изображения в оттенках серого.
Конечно же вы можете сделать противоположное и вместо увеличения контраста, можно немного осветлить темные области. В этом случае вы должны уменьшить значения атрибутов **amplitude** и/или **exponent**, а не увеличивать их. Значение по умолчанию для обоих равно 1. Значение по умолчанию атрибута **offset** равно 0.
Поиграйте со значениями функции **gamma** в следующей демо, чтобы лучше понять, как они влияют на яркость и контрастность изображения:
SVG-инструмент Gradient Map
---------------------------
[Yoksel](https://twitter.com/yoksel_en) уже некоторое время играет с SVG-фильтрами и недавно создал [фантастический визуальный инструмент](https://yoksel.github.io/svg-gradient-map/#/), позволяющий загружать изображение и применять различные двух и даже трехтональные эффекты, и который генерирует код фильтра SVG для вас, готовый для копирования и вставки в любое необходимое место. Это отличный инструмент для дальнейшего изучения **feComponentTransfer**.

Рис\_10. Инструмент SVG-фильтра **Gradient Map** от Yoksel.
Инструмент даже позволяет настроить эффект оттенков серого, созданный с помощью **feColorMatrix**. В нашем коде мы использовали равное количество каналов R, G и B для получения эффекта оттенков серого. Это один из способов сделать изображение в оттенках серого. Но есть и другие способы. Например, можно создать эффект оттенков серого для каждого канала, что приведет к различным результатам оттенков серого для каждого канала:

Рис\_11. Результат создания изображения в оттенках серого другими способами.
Я рекомендую немного поиграть с инструментом и проверить, как ваш выбор эффекта меняет базовый код, так как это один из лучших способов больше узнать о фильтрах SVG.
Заключение
----------
Примитив **feComponentTransfer** дает нам большой контроль над цветовыми и альфа-компонентами изображений и позволяет создавать эффекты Photoshop-класса в комфорте наших редакторов кода.
В следующей статье этой серии мы рассмотрим еще несколько примитивов, которые позволяют нам воспроизвести еще один эффект Photoshop, используя почти те же шаги, что и в Photoshop, и еще раз покажем, как SVG может принести силу графических редакторов в веб-платформу. Мы узнаем, как смешать текст с цветом и текстурой фонового изображения, чтобы получить привлекательно выглядящие результаты. Оставайтесь с нами. | https://habr.com/ru/post/440474/ | null | ru | null |
# Пишем API на Python (с Flask и RapidAPI)

Если вы читаете эту статью, вероятно, вы уже знакомы с возможностями, которые открываются при использовании API (Application Programming Interface).
Добавив в свое приложение один из многих открытых API, вы можете расширить функциональность этого приложения либо же дополнить его нужными данными. Но что, если вы разработали уникальную функцию, которой хотите поделиться с коммьюнити?
Ответ прост: нужно [создать собственный API](https://blog.rapidapi.com/20-tutorials-on-how-to-create-your-own-api-sorted-by-programming-language/).
Несмотря на то, что это поначалу кажется сложной задачей, на самом деле всё просто. Мы расскажем, как это сделать с помощью Python.
### Что нужно для начала работы
Для разработки API необходимы:
* Python 3;
* [Flask](https://palletsprojects.com/p/flask/) — простой и легкий в использовании фреймворк для создания веб-приложений;
* [Flask-RESTful](https://flask-restful.readthedocs.io/en/latest/) — расширение для Flask, которое позволяет разработать REST API быстро и с минимальной настройкой.
Установка выполняется командой:
```
pip install flask-restful
```
> **Рекомендуем бесплатный интенсив по программированию для начинающих:**
>
> [Разработка telegram-бота на C#](https://webinar.skillbox.ru/csharp/?utm_source=habr-com&utm_medium=banners&utm_campaign=all_all_habr-com_banners_banners_intensive-34_all_code_skillbox&utm_content=2019-08-22) — 26–28 августа. *Бесплатный интенсив, который позволяет разобраться в том, как работают боты-помощники, в особенностях работы с API Telegram и прочих нюансах. Трое лучших участников получат от Skillbox 30 000 рублей*.
>
>
**Перед тем как начать**
Мы собираемся разработать RESTful API с базовой [CRUID-функциональностью](https://blog.rapidapi.com/api-glossary/crud/).
Чтобы полностью понять задачу, давайте разберемся с двумя терминами, упомянутыми выше.
**Что такое REST?**
REST API (Representational State Transfer) — это API, которое использует HTTP-запросы для обмена данными.
REST API должны соответствовать определенным критериям:
* Архитектура клиент-сервер: клиент взаимодействует с пользовательским интерфейсом, а сервер — с бэкендом и хранилищем данных. Клиент и сервер независимы, любой из них может быть заменен отдельно от другого.
* Stateless — никакие клиентские данные не сохраняются на сервере. Состояние сеанса хранится на стороне клиента.
* Кэшируемость — клиенты могут кэшировать ответы сервера для улучшения общей производительности.
**Что такое CRUD?**
**CRUD** — концепция программирования, которая описывает четыре базовых действия (create, read, update и delete).
В REST API типы запросов и методы запроса отвечают за такие действия, как post, get, put, delete.
Теперь, когда мы разобрались с базовыми терминами, можно приступить к созданию API.
### Разработка
Давайте создадим репозиторий цитат об искусственном интеллекте. ИИ — одна из наиболее активно развивающихся технологий сегодня, а Python — популярный инструмент для работы с ИИ.
С этим API разработчик Python сможет быстро получать информацию об ИИ и вдохновляться новыми достижениями. Если у разработчика есть ценные мысли по этой теме, он сможет добавлять их в репозиторий.
Начнем с импорта необходимых модулей и настройки Flask:
```
from flask import Flask
from flask_restful import Api, Resource, reqparse
import random
app = Flask(__name__)
api = Api(app)
```
В этом сниппете Flask, Api и Resource — классы, которые нам нужны.
Reqparse — это интерфейс парсинга запросов Flask-RESTful… Также понадобится модуль random для отображения случайной цитаты.
Теперь мы создадим репозиторий цитат об ИИ.
Каждая запись репо будет содержать:
* цифровой ID;
* имя автора цитаты;
* цитату.
Поскольку это лишь пример для обучения, мы сохраним все записи в списке Python. В реальном же приложении вместо этого мы скорее всего использовали бы базу данных.
```
ai_quotes = [
{
"id": 0,
"author": "Kevin Kelly",
"quote": "The business plans of the next 10,000 startups are easy to forecast: " +
"Take X and add AI."
},
{
"id": 1,
"author": "Stephen Hawking",
"quote": "The development of full artificial intelligence could " +
"spell the end of the human race… " +
"It would take off on its own, and re-design " +
"itself at an ever increasing rate. " +
"Humans, who are limited by slow biological evolution, " +
"couldn't compete, and would be superseded."
},
{
"id": 2,
"author": "Claude Shannon",
"quote": "I visualize a time when we will be to robots what " +
"dogs are to humans, " +
"and I’m rooting for the machines."
},
{
"id": 3,
"author": "Elon Musk",
"quote": "The pace of progress in artificial intelligence " +
"(I’m not referring to narrow AI) " +
"is incredibly fast. Unless you have direct " +
"exposure to groups like Deepmind, " +
"you have no idea how fast — it is growing " +
"at a pace close to exponential. " +
"The risk of something seriously dangerous " +
"happening is in the five-year timeframe." +
"10 years at most."
},
{
"id": 4,
"author": "Geoffrey Hinton",
"quote": "I have always been convinced that the only way " +
"to get artificial intelligence to work " +
"is to do the computation in a way similar to the human brain. " +
"That is the goal I have been pursuing. We are making progress, " +
"though we still have lots to learn about " +
"how the brain actually works."
},
{
"id": 5,
"author": "Pedro Domingos",
"quote": "People worry that computers will " +
"get too smart and take over the world, " +
"but the real problem is that they're too stupid " +
"and they've already taken over the world."
},
{
"id": 6,
"author": "Alan Turing",
"quote": "It seems probable that once the machine thinking " +
"method had started, it would not take long " +
"to outstrip our feeble powers… " +
"They would be able to converse " +
"with each other to sharpen their wits. " +
"At some stage therefore, we should " +
"have to expect the machines to take control."
},
{
"id": 7,
"author": "Ray Kurzweil",
"quote": "Artificial intelligence will reach " +
"human levels by around 2029. " +
"Follow that out further to, say, 2045, " +
"we will have multiplied the intelligence, " +
"the human biological machine intelligence " +
"of our civilization a billion-fold."
},
{
"id": 8,
"author": "Sebastian Thrun",
"quote": "Nobody phrases it this way, but I think " +
"that artificial intelligence " +
"is almost a humanities discipline. It's really an attempt " +
"to understand human intelligence and human cognition."
},
{
"id": 9,
"author": "Andrew Ng",
"quote": "We're making this analogy that AI is the new electricity." +
"Electricity transformed industries: agriculture, " +
"transportation, communication, manufacturing."
}
]
```
Теперь нужно создать ресурсный класс Quote, который будет определять операции эндпоинтов нашего API. Внутри класса нужно заявить четыре метода: get, post, put, delete.
**Начнем с метода GET**
Он дает возможность получить определенную цитату путем указания ее ID или же случайную цитату, если ID не указан.
```
class Quote(Resource):
def get(self, id=0):
if id == 0:
return random.choice(ai_quotes), 200
for quote in ai_quotes:
if(quote["id"] == id):
return quote, 200
return "Quote not found", 404
```
Метод GET возвращает случайную цитату, если ID содержит дефолтное значение, т.е. при вызове метода ID не был задан.
Если он задан, то метод ищет среди цитат и находит ту, которая содержит заданный ID. Если же ничего не найдено, выводится сообщение “Quote not found, 404”.
Помните: метод возвращает HTTP-статус 200 в случае успешного запроса и 404, если запись не найдена.
Теперь давайте создадим POST-метод для добавления новой цитаты в репозиторий
Он будет получать идентификатор каждой новой цитаты при вводе. Кроме того, POST будет использовать reqparse для парсинга параметров, которые будут идти в теле запроса (автор и текст цитаты).
```
def post(self, id):
parser = reqparse.RequestParser()
parser.add_argument("author")
parser.add_argument("quote")
params = parser.parse_args()
for quote in ai_quotes:
if(id == quote["id"]):
return f"Quote with id {id} already exists", 400
quote = {
"id": int(id),
"author": params["author"],
"quote": params["quote"]
}
ai_quotes.append(quote)
return quote, 201
```
В коде выше POST-метод принял ID цитаты. Затем, используя reqparse, он получил автора и цитату из запроса, сохранив их в словаре params.
Если цитата с указанным ID уже существует, то метод выводит соответствующее сообщение и код 400.
Если цитата с указанным ID еще не была создана, метод создает новую запись с указанным ID и автором, а также другими параметрами. Затем он добавляет запись в список ai\_quotes и возвращает запись с новой цитатой вместе с кодом 201.
Теперь создаем PUT-метод для изменения существующей цитаты в репозитории
```
def put(self, id):
parser = reqparse.RequestParser()
parser.add_argument("author")
parser.add_argument("quote")
params = parser.parse_args()
for quote in ai_quotes:
if(id == quote["id"]):
quote["author"] = params["author"]
quote["quote"] = params["quote"]
return quote, 200
quote = {
"id": id,
"author": params["author"],
"quote": params["quote"]
}
ai_quotes.append(quote)
return quote, 201
```
PUT-метод, аналогично предыдущему примеру, берет ID и input и парсит параметры цитаты, используя reqparse.
Если цитата с указанным ID существует, метод обновит ее с новыми параметрами, а затем выведет обновленную цитату с кодом 200. Если цитаты с указанным ID еще нет, будет создана новая запись с кодом 201.
Наконец, давайте создадим DELETE-метод для удаления цитаты, которая уже не вдохновляет
```
def delete(self, id):
global ai_quotes
ai_quotes = [qoute for qoute in ai_quotes if qoute["id"] != id]
return f"Quote with id {id} is deleted.", 200
```
Этот метод получает ID цитаты при вводе и обновляет список ai\_quotes, используя общий список.
Теперь, когда мы создали все методы, всё, что нам нужно, — просто добавить resource к API, задать путь и запустить Flask.
```
api.add_resource(Quote, "/ai-quotes", "/ai-quotes/", "/ai-quotes/")
if \_\_name\_\_ == '\_\_main\_\_':
app.run(debug=True)
```
Наш REST API Service готов!
Далее мы можем сохранить код в файл app.py, запустив его в консоли при помощи команды:
```
python3 app.py
```
Если все хорошо, то мы получим нечто вроде этого:
*\* Debug mode: on
\* Running on [127.0.0.1](http://127.0.0.1):5000/ (Press CTRL+C to quit)
\* Restarting with stat
\* Debugger is active!
\* Debugger PIN: XXXXXXX*
**Тестируем API**
После того как API создан, его нужно протестировать.
Сделать это можно при помощи консольной утилиты curl или клиента Insomnia REST либо же опубликовав API на Rapid API.

**Публикуем наш API**
RapidAPI — самый большой в мире маркетплейс с более чем 10 000 API (и около 1 млн разработчиков).
RapidAPI не только предоставляет единый интерфейс для работы со сторонними API, но и даtт возможность быстро и без проблем опубликовать ваш собственный API.
Для того чтобы [сделать это](https://rapidapi.com/api-providers), сначала нужно опубликовать его на каком-нибудь сервере в сети. В нашем случае воспользуемся [Heroku](https://www.heroku.com/). Работа с ним не должна вызвать никаких сложностей, ([узнать о нём больше можно здесь](https://devcenter.heroku.com/articles/getting-started-with-python)).
**Как опубликовать ваш API на Heroku**
***1. Устанавливаем Heroku.***
Первым делом нужно зарегистрироваться и установить Heroku Command Line Interface (CLI). Это работает на Ubuntu 16+.
*sudo snap install heroku --classic*
Затем логинимся:
*heroku login*
***2. Добавляем необходимые файлы.***
Теперь нужно добавить файлы для публикации в папку в нашем приложении:
* requirements.txt со списком необходимых Python модулей;
* Procfile, который указывает, какие команды должны быть выполнены для запуска приложения;
* .gitignore — для исключения файлов, которые не нужны на сервере.
Файл requirements.txt будет содержать следующие строки:
* flask
* flask-restful
* gunicorn
Пожалуйста, обратите внимание: мы добавили gunicorn (Python WSGI HTTP Server) в список, поскольку нужно запустить наше приложение на сервере.
Procfile будет содержать:
*web: gunicorn app:app*
Содержимое .gitignore:
```
*.pyc
__pycache__/
```
Теперь, когда созданы файлы, давайте инициализируем git-репо и закоммитим:
```
git init
git add
git commit -m "First API commit"
```
***3. Создаем новое Heroku-приложение.***
```
heroku create
```
Отправляем master branch в удаленный репо Heroku:
```
git push heroku master
```
Теперь можно начать, открыв API Service при помощи команд:
```
heroku ps:scale web=1
heroku open
```
API будет доступно по адресу [your-random-heroku-name.herokuapp.com/ai-quotes](https://your-random-heroku-name.herokuapp.com/ai-quotes/).
**Как добавить ваш Python API в маркетплейс RapidAPI**
После того как API-сервис опубликован на Heroku, можно добавить его к Rapid API. Здесь [подробная документация](https://docs.rapidapi.com/docs/getting-started) по этой теме.
***1. Создаем аккаунт RapidAPI.***

Регистрируем бесплатную учетную запись — это можно сделать при помощи Facebook, Google, GitHub.

***2. Добавляем API в панель управления.***

***3. Далее вводим общую информацию о своем API.***

***4. После нажатия “Add API” появляется новая страничка, где можно ввести информацию о нашем API.***

***5. Теперь можно либо вручную ввести эндпоинты API, либо загрузить [swagger-file](https://blog.rapidapi.com/whats-new-at-rapidapi-added-features-and-updates-july-2019/) при помощи OpenAPI.***

Ну а теперь нужно задать эндпоинты нашего API на странице Endpoints. В нашем случае эндпоинты соответствуют концепции CRUD (get, post, put, delete).

Далее нужно создать эндпоинт GET AI Quote, который выводит случайную цитату (в том случае, если ID дефолтный) или цитату для указанного ID.
Для создания эндпоинта нужно нажать кнопку “Create Endpoint”.

Повторяем этот процесс для всех других эндпоинтов API. На этом всё! Поздравляю, вы опубликовали ваш API!
Если все хорошо, страничка API будет выглядеть как-то так:

### Заключение
В этой статье мы изучили процесс создания собственного RESTful API Service на Python, вместе с процессом публикации API в облаке Heroku и добавлением его в каталог RapidAPI.
Но в тестовом варианте были показаны только базовые принципы разработки API — такие нюансы, как безопасность, отказоустойчивость и масштабируемость, не рассматривались.
При разработке реального API все это нужно учитывать. | https://habr.com/ru/post/464705/ | null | ru | null |
# Автоматическая подсветка лестницы с помощью Arduino
Добрый день! В этом посте хочу поделится с хабро сообществом о том, как мне довелось сделать автоматическое освещение лестницы в своем двухэтажном коттедже. Начну с небольшого грустного отступления.
Около четырех месяцев назад, возвращаясь с работы в полной темноте, я не удачно подскользнулся и сломал две плюсниевых кости (пальца) на левой ступне. Целый месяц пришлось провалятся в постели, так как наступать на ногу было невероятно больно. Потом еще пол месяца хромал без гипса (у кого были переломы меня сразу поймут). После этой печальной истории я начал задумываться об автоматизации освещения ступенек лестницы. Немного поиграв с поисковыми запросами, нашел для себя очень простое решение в этом [блоге](http://www.thekanes.org/projects/automated-led-stairs-howto), как раз на основе моего любимого микроконтроллера Arduino. Схема не вызвала каких то трудностей, но отпугивало количество и длина проводов, которые мне предстояло смонтировать. До этого ничего подобного не делал. Покупать готовые решения или нанимать кого-то — накладно. В течении месяца заказал нужные комплектующие и не торопясь смонтировал за несколько дней на свою лестницу. Всем кому интересно, что из этого получилось, добро пожаловать под кат (осторожно трафик)!
#### Компоненты
Приведу примерную стоимость всех компонентов, которые были использованы в работе. Большинство комплектующих куплены в магазинах моего города поэтому все в рублях.
| | |
| --- | --- |
| [Arduino Pro Mini](http://www.ebay.com/itm/Pro-Mini-Atmega-168-5V-16MHz-your-project-Arduino-compatible-/280852829119?pt=LH_DefaultDomain_0&hash=item41642213bf) | 300 р |
| [Ultrasonic Module HC-SR04 Distance Sensor](http://www.ebay.com/itm/New-Arduino-Ultrasonic-Module-HC-SR04-Distance-Sensor-New-condition?item=280778106586&cmd=ViewItem&_trksid=p5197.m7&_trkparms=algo%3DLVI%26itu%3DUCI%26otn%3D3%26po%3DLVI%26ps%3D63%26clkid%3D7916305586107749541) — 2 шт | 230 р |
| [Драйвер светодиодов M5450](http://escor.ru/catalog/product/importnye_mic/m5450b7/) | 88 р |
| [Регулятор напряжения L78M05CV](http://escor.ru/catalog/product/importnye_mic/l78m05cv/) | 26 р |
| [Фоторезистор ФР-764](http://escor.ru/catalog/product/fotorezistory/fr_764/) | 16 р |
| Кабель-канал 20x10 мм — 10 М | 100 р |
| Провод 2x0,12 — 100 М (с запасом для лент) | 190 р |
| Провод 4x0,12 — 20 М (для сенсоров) | 60 р |
| [Светодиодная лента LSP0603W15 White](http://escor.ru/catalog/product/smd_0603/lsp0603w15_white_30sm/) — 17 шт по 30 см | 1020 р |
| Мелочевка: текстолит 15x15 см, хлорное железо, сверло 0,9 мм,
штыревые соединители типа PLS, разъемы на плату BLS, термоусадочная трубка,
конденсаторы и резисторы | 200 р |
| Блок питания 12В (он же корпус) от сигнализации «Парус 4» | Бесплатно |
#### Прототип
Отладку прошивки для Arduino, как и все, я производил на макетной плате с использованием обычных светодиодов.
#### Схема
С помощью небезызвестной среды для проектирования [Eagle CAD](http://en.wikipedia.org/wiki/Eagle_(program)) была доработана [схема автора](http://www.thekanes.org/wordpress/wp-content/uploads/2011/07/LED-stairs-schematic.png) и печатная плата. Здесь я добавил регулятор напряжения на 5 В, изменил датчики с 3х контактных дорогих [Ping](http://www.parallax.com/tabid/768/ProductID/92/Default.aspx) на четырех контактные дешевые [HC-SR04](http://www.ebay.com/itm/New-Arduino-Ultrasonic-Module-HC-SR04-Distance-Sensor-New-condition?item=280778106586&cmd=ViewItem&_trksid=p5197.m7&_trkparms=algo%3DLVI%26itu%3DUCI%26otn%3D3%26po%3DLVI%26ps%3D63%26clkid%3D7916305586107749541). Для того, что бы подсветка лестницы срабатывала только в темное время суток, в схему добавлен советский фоторезистор ФР-764 (можно использовать и другой).



#### Скетч
В скетче используется свободно распространяемая [библиотека](http://code.google.com/p/arduino-m5451-current-driver/) для работы со светодиодным драйвером [M5450](http://www.google.ru/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0CC8QFjAA&url=http%3A%2F%2Fwww.grifo.com%2FPRESS%2FDOC%2FST%2FM5450_51.pdf&ei=qCCWT7bxBs2VOseD-dIN&usg=AFQjCNEVxGj1T8qkxwZWeCqFcJovk4fojg&sig2=5JaQC5bYA4twzYDAmJKKkw), а также [библиотека](http://iteadstudio.com/application-note/arduino-library-for-ultrasonic-ranging-module-hc-sr04/) для работы с ультразвуковым дальномером HC-SR04.
```
#include "lightuino3.h"
#include "Ultrasonic.h"
//Устанавливаем контакты для первого датчика
#define TRIG_PIN 12
#define ECHO_PIN 13
//Устанавливаем контакты для второго датчика
#define TRIG2_PIN 10
#define ECHO2_PIN 11
//Определяем первый датчик
Ultrasonic OurModuleUp(TRIG_PIN, ECHO_PIN);
//Определяем второй датчик
Ultrasonic OurModuleDown(TRIG2_PIN, ECHO2_PIN);
// pins 0, 1 used by Serial
const unsigned char DataPin = 6;
const unsigned char clockPin = 7;
// задержка между ступеньками
const long lightSpacing = 280;
//задержка свечения всей лестницы
const long lightHold = 10000;
//задержка выстрела сенсоров
const long pingReadDelay = 50;
// Диапазон при котором сработает сенсор
const float minBottomIn = 33.0f;
const float minTopIn = minBottomIn;
LightuinoSink sinks(clockPin, DataPin, 100, 4);
boolean bClimbStarted = false;
boolean bDescentStarted = false;
int val;
void setup() {
Serial.begin(9600);
pinMode(DataPin, OUTPUT);
pinMode(clockPin, OUTPUT);
delay(1000);
sinks.set(0,0,0);
}
void loop() {
val = analogRead(0);
//Проверяем освещенность в помещении
if (val>=1020){
UltrasonicDownFire();//Выстрел нижнего датчика
if(bClimbStarted) {
bClimbStarted = false;
bDescentStarted = false;
climbLightSequence();
}
else {
// Выстрел верхнего датчика
UltrasonicUpFire();
if(bDescentStarted) {
bClimbStarted = false;
bDescentStarted = false;
descentLightSequence();
}
}
delay(pingReadDelay);
}
}
//Обработка верхнего датчика
void UltrasonicUpFire() {
if((OurModuleUp.Ranging(INC) < minTopIn) && (OurModuleUp.Ranging(INC) > 0))
{
// Serial.println("Top sensor tripped.");
bDescentStarted = true;
}
}
//Обработка нижнего датчика]
void UltrasonicDownFire() {
if((OurModuleDown.Ranging(INC) < minTopIn) && (OurModuleDown.Ranging(INC) > 0)) {
// Serial.println("Bottom sensor tripped.");
bClimbStarted = true;
}
}
void climbLightSequence(){
LedsOnDown();
}
void LedsOnDown(){
//Обнуляем
byte ledState[9];
for (int j=0;j<9;j++) {
ledState[j] = B00000000;
}
//Зажигаем
for (int k=1;k>=0;k--)
{
for (int j=8;j>=1;j--)
{
ledState[k] = (ledState[k] >> 1) + 128;
sinks.set(ledState);
delay(lightSpacing);
}
}
//Задержка
delay(lightHold);
//Гасим
for (int k=1;k>=0;k--)
{
for (int j=8;j>=1;j--)
{
ledState[k] = (ledState[k] >> 1);
sinks.set(ledState);
delay(lightSpacing);
}
}
delay(pingReadDelay);
}
void descentLightSequence(){
LedsOnUp();
}
void LedsOnUp(){
//Обнуляем
byte ledState[9];
for (int j=0;j<9;j++) {
ledState[j] = B00000000;
}
//Зажигаем
for (int k=0;k<=1;k++)
{
for (int j=0;j<9;j++)
{
ledState[k]=(ledState[k] << 1) + 1;
sinks.set(ledState);
delay(lightSpacing);
} }
delay(lightHold);
for (int k=0;k<=1;k++)
{
for (int j=0;j<9;j++)
{
ledState[k]=(ledState[k] << 1);
sinks.set(ledState);
delay(lightSpacing);
}
}
delay(pingReadDelay);
}
```
#### Немного про монтаж
Так как у меня самая простая деревянная лестница (без подступенной доски), крепление светодиодных лент осуществил с торца каждой ступеньки.

По всей длине проходит кабель-канал с уложенными проводами, который приклеен на жидкие гвозди. Светодиодные ленты изначально имеют клейкую сторону, они прекрасно держатся на дереве.

Сенсоры были установлены в начале каждой первой ступени вверху и внизу лестницы. В качестве крепления использовал обычные подрозетники для гипсокартона.

Из корпуса блока питания сигнализации был выброшен севший аккумулятор, в место него легко поместился наш контроллер.

Крышка на месте. Размещаем контроллер под лестничной площадкой.

#### Результат
На самом деле видео не отражает реальной картины. Лестница освещается намного красивее и ярче.
[Скачать все необходимые файлы одним архивом](http://lukjanow.ru/?dl_id=56)
**UPD!** Немного доработал [схему](http://lukjanow.ru/2013/01/automatic-illumination-stairs-arduino-update/). Добавлена поддержка ШИМ и мощных светодиодных лент.
**Группа вконтакте** [**[vk.com/ledstairs](http://vk.com/ledstairs) (фото, видео)**](http://vk.com/ledstairs) | https://habr.com/ru/post/142685/ | null | ru | null |
# Конструктор форм в Yii
Привет хабраюзеры!
В большинстве проектов на Yii которые я видел, работа с формами была организована самым простым способом, где рендеринг формы определялся в файле вида через виджет ActiveForm. Да, это безусловно оправдано для сложных форм, которые проблематично уместить в шаблон. Но сегодня я хочу поговорить о конструкторе форм и показать как это применяем мы.
Если вы плохо представляете, что такое конструктор форм, то прежде советую ознакомиться с соответствующим разделом документации [www.yiiframework.ru/doc/guide/ru/form.builder](http://www.yiiframework.ru/doc/guide/ru/form.builder).
Все просто. Работа с формами у нас построена по принципу «не смешивать модели формы и модели таблиц». А идея состоит в том, что бы в модель формы добавить функциональность конструктора форм.
Для этого создадим класс от которого будут наследоваться наши формы. Т.е. сделаем так, что бы модель формы сама определяла рендеринг исходя из конфигурации формы.
```
/**
* FormModel.
*
* @author Andrey Nilov
\* @copyright Copyright (c) 2007-2012 Glavweb.Soft, Russia. (http://glavweb.ru)
\*/
class FormModel extends CFormModel
{
/\*\*
\* Config of the form
\* @var array
\*/
protected $\_formConfig = array();
/\*\*
\* Config of the form by default
\* @var array
\*/
private $\_defaultFormConfig = array(
'method' => 'post'
);
/\*\*
\* Class name of form
\* @var string
\*/
protected $\_formClass = 'CForm';
/\*\*
\* Object of Form
\* @var Form
\*/
private $\_form = null;
/\*\*
\* Constructor
\*
\* @param string $scenario Name of the scenario that this model is used in
\* @return void
\*/
public function \_\_construct($scenario = '')
{
parent::\_\_construct($scenario);
$this->\_setFormConfig();
}
/\*\*
\* Sets config of the form
\*
\* @return void
\*/
private function \_setFormConfig()
{
$this->\_formConfig = array\_replace\_recursive(
$this->\_defaultFormConfig,
$this->\_formConfig()
);
}
/\*\*
\* Returns config of the form
\*
\* @return array
\*/
protected function \_formConfig()
{
return $this->\_formConfig;
}
/\*\*
\* Returns the attribute labels
\*
\* @return array Attribute labels (name=>label)
\*/
public function attributeLabels()
{
return $this->getLabels();
}
/\*\*
\* Returns the config of the form
\*
\* @return array
\*/
public function getFromConfig()
{
return $this->\_formConfig;
}
/\*\*
\* Sets the config of the form
\*
\* @param array $config
\* @return void
\*/
public function setFromConfig(array $config)
{
$this->\_formConfig = $config;
}
/\*\*
\* Returns labels
\*
\* @return array
\*/
public function getLabels()
{
$labels = array();
if (!empty($this->\_formConfig['elements'])) {
foreach ($this->\_formConfig['elements'] as $name => $data) {
if (isset($data['label'])) {
$labels[$name] = $data['label'];
}
}
}
return $labels;
}
/\*\*
\* Returns object of Form
\*
\* @return Form
\*/
public function getForm()
{
if ($this->\_form === null) {
$this->\_form = new $this->\_formClass($this->\_formConfig, $this);
}
return $this->\_form;
}
}
```
Пройдемся по классу более подробно. Массив "$\_formConfig" позволяет задать конфигурацию формы. Например:
```
/**
* Config of the form
* @var array
*/
protected $_formConfig = array(
'activeForm' => array(
'class' => 'CActiveForm',
'id' => 'registration_form',
'enableClientValidation' => true,
'clientOptions' => array(
'validateOnSubmit' => true
)
),
'elements' => array(
....
'name' => array(
'type' => 'text',
'label' => 'ФИО'
),
'organization' => array(
'type' => 'text',
'label' => 'Организация'
),
....
),
'buttons' => array(
'register' => array(
'type' => 'submit',
'label' => 'Регистрация'
)
)
);
```
Так же для конфигурации формы можно переопределить метод "\_formConfig()". Это удобно когда нужно во время конфигурации реализовать какую-то логику.
Свойство "$\_formClass" позволяет изменить класс который используется для отображения формы (CForm или его потомок).
Заметьте, что теперь вам не обязательно указывать атрибуты формы. Для этого мы переопределили метод «attributeLabels()» и теперь атрибуты равны лейблам из конфигурации формы.
Получить объект формы (CForm) можно методом «getForm()».
##### Использование.
Рендеринг формы:
```
$formModel = new RegistrationForm();
$form = $formModel->getForm();
echo $form;
```
Использование совместно с моделью таблицы.
```
$user = new User();
$user->setAttributes($formModel->getAttributes());
$result = $user->save();
```
Настройка отображения формы. Для каждого элемента в "$\_formConfig" мы можем указать свой шаблон с переопределив свойство «layout»:
```
protected $_formConfig = array(
....
'elements' => array(
....
'name' => array(
'type' => 'text',
'label' => 'ФИО',
'layout' => "{input}\n{label}\n{hint}\n{error}"
),
....
),
```
##### Автоматическое добавление двоеточия.
Одна из неприятностей которая встала при использовании конструктора форм, это невозможность автоматически добавлять двоеточие после заголовка поля. Если двоеточие вставить в конфиг формы в label, то оно будет видно и при отображении ошибок. Что бы исправить это, расширим классы «CForm» и «CFormInputElement» и чуть-чуть поправим наш «FormModel».
В «FormModel» добавляем:
```
/**
* Automatically add a colon in time rendering
* @var boolean
*/
public $autoAddColonForRender = true;
```
И меняем $\_formClass
```
/**
* Class name of form
* @var string
*/
protected $_formClass = 'Form';
```
Создадим новый класс «Form» наследник «CForm», в нем переопределим свойство "$inputElementClass".
```
class Form extends CForm
{
/**
* The name of the class for representing a form input element.
* @var string
*/
public $inputElementClass = 'FormInputElement';
}
```
Создадим класс «FormInputElement» (наследник «CFormInputElement»), в нем переопределим метод «renderLabel()»
```
class FormInputElement extends CFormInputElement
{
/**
* @var string the layout used to render label, input, hint and error. They correspond to the placeholders
* "{label}", "{input}", "{hint}" and "{error}".
*/
public $layout = "{label}\n{input}\n{error}\n{hint}";
/**
* Automatically add a colon in time rendering
* @var boolean
*/
public $addColon = null;
/**
* Renders the label for this input.
*
* @return string
*/
public function renderLabel()
{
$model = $this->getParent()->getModel();
$addColon = $this->addColon !== null ?
$this->addColon :
$model instanceof FormModel && $model->autoAddColonForRender;
$label = $addColon ? $this->getLabel() . ':' : $this->getLabel();
$options = array(
'label' => $label,
'required' => $this->getRequired()
);
if (!empty($this->attributes['id'])) {
$options['for'] = $this->attributes['id'];
}
return CHtml::activeLabel($this->getParent()->getModel(), $this->name, $options);
}
}
```
Теперь используя свойство "$autoAddColonForRender" в «FormModel» возможно автоматически добавлять двоеточие после лейбла для всех элементов формы. Либо определять это для каждого элемента формы в отдельности во время конфиграции формы, установив соответствующее значение в «addColon».
```
protected $_formConfig = array(
....
'elements' => array(
....
'name' => array(
'type' => 'text',
'label' => 'ФИО',
'addColon' => true
),
....
),
```
На этом сегодня всё, спасибо всем кто дочитал до конца. Объективная критика приветствуется. | https://habr.com/ru/post/155127/ | null | ru | null |
# Microsoft Graph API Requests или иной способ управления Microsoft 365
Довольно часто приходят задачи написать скрипты для Microsoft 365, будь то репортинг или какие-то автоматизации. Как правило, сервисы входящие в пакет M365: Exchange Online, SharePoint Online или Microsoft Endpoint Manager - имеют свои отдельные модули для работы с ними из PowerShell. Однако возникают ситуации, когда функционала этих модулей недостаточно. В таких случаях остается либо ждать, когда этот функционал все же появится, либо писать скрипты под Graph API самому. Как правило это 2–3 функции основные, и множество их вариаций. В какой-то из дней при шедулинге очередного такого скрипта в голову прокралась идея, а почему бы не написать свой модуль для подобного рода запросов? Причем такой, который не ограничивался бы списком каких-то конкретных команд, и такой, чтобы если появилась какая-то новая функция, тем кто будет пользоваться этим модулем не пришлось бы ждать обновления со стороны разработчика. В итоге на свет появился Graph API Requests, модуль, который позволяет делать практически любого вида запросы к Microsoft Graph API, доступные и описанные в [официальной документации Microsoft](https://docs.microsoft.com/en-us/graph/overview?view=graph-rest-1.0) используя PowerShell.
Установить модуль можно используя команду ниже:
```
Install-Module GraphApiRequests
```
Далее модуль необходимо импортировать:
```
Import-Module GraphApiRequests
```
После импорта становятся доступны 3 коммандлета:
* Get-GraphDeviceAuthToken – служит для получения токена по авторизации устройства
* Get-GraphToken – для получения токена через ClientSecret
* Invoke-GraphApiRequest – для запросов к API.
Способ авторизации по ClientSecret я описывал ранее в своей предыдущей статье, где рассказывал как настроить репортинг [Microsoft 365 Message Center в Telegram канал используя Azure Automation](https://habr.com/ru/post/546234/). Там же вы можете ознакомиться с процессом регистрации приложения в Azure Active Directory, что является пре-реквизитом для большинства запросов к Graph API.
Однако возникают ситуации, когда нужно сделать запрос к тем функциям, права для которых доступны только Delegated типа, что значит, что по ClientSecret или по сертификату к таким функциям доступ не получить.
Например [удаление устройства](https://docs.microsoft.com/en-us/graph/api/device-delete?view=graph-rest-beta&tabs=http) из Azure AD по ID:
DELETE /devices/{id}
Права для DELETE /devices/{id}Тут на помощь приходит Get-GraphDeviceAuthToken, который позволяет делать вызовы к функциям, требующим Delegated Permissions.
Для получения токена посредством авторизации устройства, понадобится к предыдущим инструкциям добавить включение Redirect URIs. Чтобы перейти в меню настроек необходимо:
1. Открыть Azure Active Directory > App Registrations
2. Найти ваше зарегистрированное приложение и перейти к нему
3. Далее открыть меню Authentication > Нажать на кнопку Add a Platform и выбрать Mobile and desktop applications.
Но этого еще недостаточно. Так же нужно добавить https://localhost как дополнительный URI как показано на скриншоте ниже.
После того как произвели настройки Redirect URI и выдали необходимые права приложению, так же нужно в манифесте выставить следующий параметр с null на true:
`"allowPublicClient": true`
Далее можно переходить к получению токена.
***NOTE: Для работы через токен полученный используя Get-GraphDeviceAuthToken необходимо выдавать Delegated права.***
Для этого понадобится знать Application ID (доступно в Overview приложения) Tenant Name (в меню Overview Azure Active Directory), и как это принято для Delegated Permissions логин и пароль учетной записи с правами не ниже выданных приложению.
Получаем токен по авторизации устройства
```
$Token = Get-GraphDeviceAuthToken -TenantName -AppId c001f166-e732-4349-b138-ebb49b26e088
```
Далее вы увидите всплывающее окно авторизации устройства, куда нужно вставить код авторизации, который уже в вашем буфере обмена
Введя логин и пароль от учетной записи вы авторизуетесь в вашем приложении и в итоге увидите следующее окно
Данное окно необходимо закрыть и можно приступать к первому запросу к API.
Для примера вызовем все имеющиеся группы в Azure AD. Для этого приложению необходимо иметь права Delegated Groups.Read.All
Лучше заранее поместить вывод коммандлета в переменную
```
$Result = Invoke-GraphApiRequest -Token $Token -Resource groups
```
Как можно заметить, информации в выводе достаточно много. Поэтому вызовем только свойство displayName
```
$Result.DisplayName
```
Так же, можно вызвать несколько свойств одновременно
```
$Result.value | Select-Object displayName, mailEnabled, mailNickname
```
Метод вызовов к API в модуле по умолчанию GET, но изменив его так же можно и производить изменения в тенанте.
Версия API по умолчанию используется Beta, т. к. через нее как правило можно получить большее количество информации, если сравнивать с v1.0 Очень хорошо это видно на примере с managedDevices ресурсом. Однако через -ApiVersion можно выбрать и первую версию.
Список всех доступных ресурсов можно посмотреть в [официальной документации](https://docs.microsoft.com/en-us/graph/api/overview?view=graph-rest-beta). Так же есть поддержка body, для методов, поддерживаемых самим API.
Пример создания группы:
```
$BodyObject = [PSCustomObject]@{
description = "Self help community for golf"
displayName = "Golf Assist"
groupTypes = @("Unified")
mailEnabled = $true
mailNickname = "golfassist"
securityenabled = $false
}
$BodyJson = ConvertTo-Json $BodyObject
Invoke-GraphApiRequest -Token $Token -Resource groups -Method POST -Body $BodyJson
```
Ссылка на репозиторий: [Github](https://github.com/aslan-im/GraphApiRequests)
Принимаются любые советы и предложения по улучшению функционала. Спасибо за внимание!
*Update:*
*Модуль опубликован на PSGallery*
Update 19.10.2021:
Добавлена информация об allowPublicClient параметре в манифесте. | https://habr.com/ru/post/571132/ | null | ru | null |
# Портрет Хабра-tutorial
> В наш век только бесполезные вещи и необходимы человеку. Оскар Уайльд, Портрет Дориана Грея ([источник](http://ru.wikiquote.org/wiki/%D0%9E%D1%81%D0%BA%D0%B0%D1%80_%D0%A3%D0%B0%D0%B9%D0%BB%D1%8C%D0%B4))
А вы никогда не задумывались, чем обычный пост на хабре (порошок обычный*TM*) отличается от tutorial? И как это «отличается» вообще можно измерить? Есть ли здесь какие-то закономерности и можно ли по ним предсказать метку: 
В данной статье мы обсудим так называемый [exploratory data analysis](http://www.itl.nist.gov/div898/handbook/eda/section1/eda11.htm) или кратко EDA (*исследовательский анализ данных*) применительно к статьям Хабрахабра, а в частности уделим особое внимание tutorial. Прежде всего EDA направлен на детальное изучение данных, и необходим для понимания, с чем мы собственно работаем. Важной частью является сбор и очистка данных и сам выбор какие данные собирать. Особенность метода состоит в визуализации и поиске важных характеристик и тенденций.
Exploratory data analysis — это первый шаг в изучении и понимании данных, без него мы можем загнать себя в многочисленные ловушки, описанные ранее автором в статье: "[Как правильно лгать с помощью статистики](http://habrahabr.ru/post/217545/)".
### Как выглядит обычный хабра-tutorial
В качестве простой демонстрации рассмотрим простейшую картину из трех параметров: просмотры, избранное (favourites) и рейтинг (количество плюсов), для трех классов: все статьи вместе, обычный пост (не-tutorial) и tutorial.

Даже в столь упрощенной картине, заметна разница между классами. Наша интуиция и здравый смысл подсказывают нам, что tutorial в среднем чаще добавляют в избранное, но интуиция не говорит насколько чаще, и что они набирают меньше плюсов и просмотров. Эти и многие другие интересные вопросы мы рассмотрим далее в статье.
Структура статьи
1. [Как выглядит обычный хабра-tutorial](http://habrahabr.ru/post/218607/#intro)
2. [Собираем данные](http://habrahabr.ru/post/218607/#dataCollecting)
3. [Хабра-данные](http://habrahabr.ru/post/218607/#aboutDataset)
4. [Исследуем tutorials](http://habrahabr.ru/post/218607/#digIntoData)
5. [Разбираем интересные примеры](http://habrahabr.ru/post/218607/#examples)
6. [Предсказываем метку tutorial](http://habrahabr.ru/post/218607/#predictingTutorial)
7. [Как сделать набор данных лучше](http://habrahabr.ru/post/218607/#howToImprove)
8. [Заключение](http://habrahabr.ru/post/218607/#conclusions)
9. [Дальнейшее чтение](http://habrahabr.ru/post/218607/#links)
### Собираем данные
Одно из важнейших свойств исследования и эксперимента — это его [воспроизводимость](http://en.wikipedia.org/wiki/Reproducibility) и прозрачность. Поэтому это невероятно важно предоставить все исходные материалы, которые идут с работой — данные, алгоритм их сбора, алгоритм подсчета, реализация, визуализация и выходные характеристики. К данной статье прилагается весь код, данные и скрипты для анализа и визуализации — они доступны через [github](https://github.com/SergeyParamonov/HabraData). Для графиков и скриптов приведены отдельные ссылки, наиболее важные и интересные части кода также доступны в статье в виде раскрывающегося текста («спойлеров»).
Это позволяет проверить аутентичность данных, визуализацию и корректность вычислений. Например, исходное изображение гистограмм в начале статьи сделано с помощь скрипта [histograms\_into.R](https://github.com/SergeyParamonov/HabraData/blob/master/histograms_into.R) на датасете [all.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/all.csv) (описание приводится ниже).
Начнем с высокоуровневого описания алгоритма сбора данных по хабра-статьям

Мы просто последовательно проходимся по каждой ссылке и парсим страницу.
Одна из возможных реализаций перебора статей по id (а так же сбор статей из лучшего) приведена здесь, весь алгоритм состоит из трех компонент: перебор страниц статей (приведен выше в виде псевдо-кода), parsing страницы (`processPage`) и записи (класса) Хабра-статья (*habra-article*).
**Реализация перебора статей на python**
```
from __future__ import print_function
import time
from habraPageParser import HabraPageParser
from article import HabraArticle
class HabraPageGenerator:
@staticmethod
def generatePages(rooturl):
articles = []
suffix = "page"
for i in range(1,101):
if i > 1:
url = rooturl+suffix+str(i)
else:
url = rooturl
print(url)
pageArticles = HabraPageParser.parse(url)
if pageArticles is not None:
articles = articles + pageArticles
else:
break
return articles
@staticmethod
def generateTops():
WEEK_URL = 'http://habrahabr.ru/posts/top/weekly/'
MONTH_URL = 'http://habrahabr.ru/posts/top/monthly/'
ALLTIME_URL = 'http://habrahabr.ru/posts/top/alltime/'
articles = []
articles = articles + HabraPageGenerator.generatePages(ALLTIME_URL)
articles = articles + HabraPageGenerator.generatePages(MONTH_URL)
articles = articles + HabraPageGenerator.generatePages(WEEK_URL)
return articles
@staticmethod
def generateDataset(dataset_name):
FIRST_TUTORIAL = 152563
LAST_INDEX = 219000
BASE_URL = 'http://habrahabr.ru/post/'
logname = "log-test-alive.txt"
logfile = open(logname, "w")
datafile = HabraArticle.init_file(dataset_name)
print("generate all pages", file=logfile)
print(time.strftime("%H:%M:%S"), file=logfile)
logfile.flush()
for postIndex in range(FIRST_TUTORIAL, LAST_INDEX):
url = BASE_URL + str(postIndex)
print("test: "+url, file=logfile)
try:
article = HabraPageParser.parse(url)
if article:
print("alive: "+url, file=logfile)
assert(len(article) == 1)
article[0].write_to_file(datafile)
except:
continue
logfile.flush()
logfile.close()
datafile.close()
```
Код *habra-article*:
**Реализация класса хабра-статья**
```
from __future__ import print_function
class HabraArticle:
def __init__(self,post_id,title,author,score,views,favors,isTutorial):
self.post_id = post_id
self.title = title
self.author = author
self.score = score
self.views = views
self.favors = favors
if isTutorial:
self.isTutorial = 1
else:
self.isTutorial = 0
def printall(self):
print("id: ", self.post_id )
print("title: ", self.title)
print("author: ", self.author )
print("score: ", self.score )
print("views: ", self.views )
print("favors: ", self.favors )
print("isTutorial: ", self.isTutorial)
def get_csv_line(self):
return self.post_id+","+self.title+","+self.author+","+ self.score+","+self.views+","+self.favors+","+str(self.isTutorial) +"\n"
@staticmethod
def printCSVHeader():
return "id, title, author, score, views, favors, isTutorial"
@staticmethod
def init_file(filename):
datafile = open(filename, 'w')
datafile.close()
datafile = open(filename, 'a')
print(HabraArticle.printCSVHeader(), file=datafile)
return datafile
def write_to_file(self,datafile):
csv_line = self.get_csv_line()
datafile.write(csv_line.encode('utf-8'))
datafile.flush()
```
Код (beautifulsoup) функции: `processPage`:
**processPage**
```
import urllib2
from bs4 import BeautifulSoup
import re
from article import HabraArticle
class HabraPageParser:
@staticmethod
def parse(url):
try:
response = urllib2.urlopen(url)
except urllib2.HTTPError, err:
if err.code == 404:
return None
else:
raise
html = response.read().decode("utf-8")
soup = BeautifulSoup(html)
#print(soup.decode('utf-8'))
#if the post is closed, return None
cyrillicPostIsClosed = '\xd0\xa5\xd0\xb0\xd0\xb1\xd1\x80\xd0\xb0\xd1\x85\xd0\xb0\xd0\xb1\xd1\x80 \xe2\x80\x94 \xd0\x94\xd0\xbe\xd1\x81\xd1\x82\xd1\x83\xd0\xbf \xd0\xba \xd1\x81\xd1\x82\xd1\x80\xd0\xb0\xd0\xbd\xd0\xb8\xd1\x86\xd0\xb5 \xd0\xbe\xd0\xb3\xd1\x80\xd0\xb0\xd0\xbd\xd0\xb8\xd1\x87\xd0\xb5\xd0\xbd'
if soup.title.text == cyrillicPostIsClosed.decode('utf-8'):
return None
articles = soup.find_all(class_="post shortcuts_item")
habraArticles = []
for article in articles:
isScoreShown = article.find(class_="mark positive ")
#if the score is published already, then article is in, otherwise we go on to next one
if not isScoreShown:
continue
post_id = article["id"]
author = article.find(class_="author")
if author:
author = author.a.text
title = article.find(class_="post_title").text
score = article.find(class_="score" ).text
views = article.find(class_="pageviews" ).text
favors = article.find(class_="favs_count").text
tutorial = article.find(class_="flag flag_tutorial")
#we need to escape the symbols in the title, it might contain commas
title = re.sub(r',', " comma ", title)
#if something went wrong skip this article
if not post_id or not author or not title:
return None
habraArticle = HabraArticle(post_id,title,author,score,views,favors,tutorial)
habraArticles.append(habraArticle)
return habraArticles
```

(получено применением скрипта [scale\_id.R](https://github.com/SergeyParamonov/HabraData/blob/master/scale_id.R) на первых 6.5к точек датасета [alive\_test\_id.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/alive_test_id.csv))
Читать график нужно следующим образом: возьмем 250 последовательных значений id и выпишем их в строчку, если страница живая то пометим красным, иначе синим. Возьмем следующие 250 значений и выпишем их в следующую строчку и т.д.
Реальная плотность живых ссылок с момента публикации первого tutorial (27 сентября 2012) составляет 23%. Если предположить, что id выдается последовательно на каждый черновик, три четвертых хабра-статей, либо скрыты, либо не были дописаны.
Но(!) скорее всего реальная плотность занижена в измерениях. Это связано с недостатком метода сбора статей: проблемы с соединением, парсингом страниц или кратковременной недоступностью хабрахабра. Ручная проверка данных показала (на all.csv), что в небольшом количестве случаев <= 5-10%, реально существующие страницы не были обработаны. C учетом данной ошибки, рационально предположить, что действительная плотность лежит в диапазоне 30+-5%. Будем работать над уменьшением ошибки в следующих сериях.
##### Дополнительные данные
Помимо перебора всех статей по id (за указанный период) также были собраны следующие данные:
1. Лучшее за всё время
2. Лучшее за месяц
3. Лучшее за неделю
Для сбора фактически использовался алгоритм описанный выше, который обходил ссылки:
[habrahabr.ru/posts/top/alltime/page](http://habrahabr.ru/posts/top/alltime/page)$i
[habrahabr.ru/posts/top/monthly/page](http://habrahabr.ru/posts/top/monthly/page)$i
[habrahabr.ru/posts/top/weekly/page](http://habrahabr.ru/posts/top/weekly/page)$i
для $i от 1 до 100
### Хабра-данные
Собранные данные хранятся в формате csv ([comma separated values](http://creativyst.com/Doc/Articles/CSV/CSV01.htm)) и имеют следующий вид:

Всего вместе со статьей доступны датасеты (скачано 7го апреля 2014):
1. Все статьи: [all.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/all.csv)
2. Лучшее за всё время: [dataset\_top\_all\_time.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/dataset_top_all_time.csv)
3. Лучшее за месяц: [habra\_dataset\_monthly.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/habra_dataset_monthly.csv)
4. Лучшее за неделю: [habra\_dataset\_weekly.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/habra_dataset_weekly.csv)
5. Лог живых страниц по id: [alive\_test\_id.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/alive_test_id.csv)
Все представленные в статье графики и результаты основаны на выше приведенных данных. Преимущественно мы будем работать с файлом all.csv.
### Исследуем tutorials
Рассмотрим распределение статей по основным собранным параметрам раздельно для двух классов: tutorial и обычный пост (не-tutorial). По оси Y доля статей имеющих значения соответствующего параметра на оси X. Основных параметров у нас три: просмотры, избранное и количество записей в избранном.

(получено с помощью скрипта [histograms\_tutorial\_vs\_normal.R](https://github.com/SergeyParamonov/HabraData/blob/master/histograms_tutorial_vs_normal.R) на [all.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/all.csv))
Если вы всегда ждали удобный момент, чтобы прочитать про [Закон Ципфа](http://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%BA%D0%BE%D0%BD_%D0%A6%D0%B8%D0%BF%D1%84%D0%B0), то он настал. Справа, мы видим что-то хорошо напоминающее это распределение (и думаю мы еще не раз его увидим в будущем).
В целом мы видим, что распределение голосов (плюсов) и просмотров у tutorial сдвинуто влево — относительно распределений обычных постов и так же напоминает закон Ципфа, хотя заметно, что соответствие здесь уже не такое явное. Значит в среднем, обычные посты набирают больше плюсов и просмотров. А распределение favourites уже существенно сдвинуто вправо у tutorial и совершенно не напоминает закон Ципфа. В среднем мы видим, что читатели намного активнее добавляют tutorial в избранное. Практически на всем распределении tutorial доминируют над обычными постами в два раза, приведем короткую таблицу квантилей двух распределений:

Таблица читается следующим образом: если 20%-квантиль обычного поста равен 16, это значит, что 20% всех постов обычных постов набирает не более 16 записей в избранное. Медиана — это 50%-ый квантиль, у tutorial он 109, а у обычных постов 49.
Так же стоит рассмотреть распределения параметров вместе. Из графиков выше мы видим, что favourites играют особую роль для обучающего материала и поэтому мы уделим им особое внимание в статье.

(Получено с помощью скрипта [joint\_favours\_score\_view.R](https://github.com/SergeyParamonov/HabraData/blob/master/joint_favours_score_view.R) на [all.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/all.csv))
Из графика выше видно общий тренд в данных среди tutorial, на один плюс приходится в среднем несколько favourites, медиана отношения для tutorial'ов в 2.6 раза выше обычного поста, а на один просмотров приходится в среднем (по медиане) 2.7 раза больше favourites, чем у обычного поста.
Это позволяет очертить интересующую нас область, где скорее всего находится большинство обучающего материала без меток — синие точки в верхней границе красной области. Мы можем сформировать запросы к нашим данным и проверить эту догадку. А возможно и вывести некоторые правила, которые позволят нам автоматически «исправлять» или напоминать об этой метке авторам.
(У графиков обрезаны хвосты распределений; очень небольшое число точек попадает за указанные границы. Но включение этих точек увеличило бы масштаб и сделало бы остальные точки фактически неотличимыми и нечитаемыми.)
### Разбираем интересные примеры
В этой части мы поговорим о некоторых характерных примерах, которые встречаются в данных и которые помогут нам лучше понять имеющиеся потенциальные закономерности в статьях и их свойствах.
##### Много favourites — плюсов мало
Запрос:

**Запрос на языке R**`query1 <- subset(data, favors > 1000 & score < 50 & isTutorial == FALSE)`
Результат:

Как мы можем видеть первая статья — это чистый обучающий материал без метки, вторая так же может претендовать на роль обучающего материала. Мы можем заметить следующую тенденцию из графиков выше: все распределения показывают, что в среднем tutorial набирает меньше плюсов и намного больше favourites, чем обычная статья. Вкупе с тем фактом, что большое число tutorial по какой-то причине не имеют метки, мы предполагаем, что статья набравшая небольшое число плюсов и большое число записей в избранное, согласно общим трендам данных имеет хорошие шансы на то, чтобы быть обучающим материалом.
##### Favourites в 10 раз больше, чем плюсов (и плюсов хотя бы 25)
Запрос:

**Запрос на языке R** `query2 <- subset(data, favors > 10*score & score > 25)`
Результат:

Немного усложнённая версия предыдущего запроса, мы ищем статьи, где favourites в десять раз больше, чем плюсов и при этом число плюсов по крайней мере 25. В таких условиях мы находим статьи, которые сохранило большие число людей, что может служить некоторым индикатором того, что статья будет полезна в будущем, а значит — это хороший кандидат на обучающий материал.
Минус данного запроса в том, что половина tutorial набирает 18 и менее плюсов, а значит данное правило отсекает большое число потенциальных статей tutorial.
Скрипт с запросами [queries.R](https://github.com/SergeyParamonov/HabraData/blob/master/queries.R), датасет [all.csv](https://raw.githubusercontent.com/SergeyParamonov/HabraData/master/all.csv).
### Предсказываем метку tutorial
Метке tutorial в статье соответствует бинарный атрибут isTutorial. Значит мы можем сформулировать задачу определения метки *tutorial* по параметрам *score*, *view* и *favourites*, как поиск некоторого предиката (функции, которая возвращает 1 или 0) *f* такого что для всего набора данных верно что

(автор признает, что он сейчас всё существенно упрощает и вообще активно машет руками — но это должно дать общую читателю о том, что нужно сделать)
На самом деле классические методы [машинного обучения](http://en.wikipedia.org/wiki/Machine_learning) (такие как SVM, Random Forest, Recursive Trees, etc) не покажут на собранных данных качественных результатов по следующим причинам:
* Невероятно бедное пространство фич т.е. всего три параметра, которые недостаточно хорошо отличают tutorial от обычного поста — об этом написано внизу
* Существенное количество статей не помеченных как tutorial, но на деле ими являющихся — см. первый запрос и статью: «Настройка Nginx + LAMP сервера в домашних условиях» — это классический tutorial, но он помечен как обычный пост!
* Субъективность самой метки, наличие и\или её отсутствует во многом определяется исключительно авторским мнением
Что мы можем сделать в данной ситуации? По существующим данным мы можем попробовать вывести некоторые *достаточные* условия и посмотреть их выполнимость на существующих данных. Если правила соответствуют данным, то по индукции мы можем создать некоторое правило, которое бы позволило нам найти и разметить tutorial без метки. Просто, интерпретируемо и со вкусом.
Например следующее правило неплохо согласуется с данными и позволит пересмотреть некоторые метки (приводится исключительно ради примера):

и первые записи в ответе:

**Запрос на языке R**`query3 <- subset(data, favors >= 10*score, favors >= views/100)`
Как можно заметить, несмотря на то, что большинство записей не имеют метки tutorial, статьи в действительности ими являются (несмотря на небольшие значения score в первых 6 записях; хотя более половины tutorial имеют меньше 18 плюсов). Таким образом, мы можем провести так называемый [co-training](http://en.wikipedia.org/wiki/Co-training), то есть по небольшому числу данных с метками вывести правила, которые позволяют разметить оставшиеся данные и создать условия для применения классических методов машинного обучения.
Но какие бы умные алгоритмы обучения мы не применяли, самая главная проблема в классификации tutorial состоит в правильном построении пространства атрибутов, т.е. отображении статьи в некоторый вектор численных или номинативных (имеющий ряд конечных значений, например, цвет может быть синим, красным или зеленым) переменных.
### Как сделать набор данных лучше
Собранный набор данных далеко не идеален, поэтому лучше всего начать критиковать его самому, пока это не сделали другие. Безусловно по одним только параметрам просмотры, рейтинг, favourites нельзя однозначно предсказать является ли данная статья tutorial'ом или нет. Однако, нам нужно получить правило, а точнее классификатор, который бы работал *достаточно* точно. Для этого рассмотрим еще несколько типичных черт статей, которые могут пригодиться.
Рассмотрим первый пример:

Что бросается в глаза — это во многих tutorial, присутствуют изображения, причем часто в больших количествах — да, в обычных постах они тоже могут встречаться, но это может быть ценный атрибут в совокупности с другими параметрами. Так же не стоит сбрасывать со счетов тот факт, что многие хабы тематически намного лучше подходят для обучающего материала, чем другие — возможно это тоже стоит учесть.
Рассмотрим второй пример:

Здесь наиболее важным является наличие кода и структуры, естественно предположить, что данные факторы могут хорошо дискриминировать классы между собой и значит в принципе их можно учесть в модели. Так же мы можем ввести такой параметр, как наличие обучающих материалов среди похожих постов.
Гипотетически, это дало бы нам новый датасет (и новое пространство параметров для классификации), который бы мог лучше различать классы статей между собой.

Пространство фич для классификации на самом деле может быть огромно: количество комментариев, наличие видео, ключевые слова в заголовке и многие другие. Выбор пространства является ключевым для построения успешного классификатора.
##### Почему стоит использовать текущий срез статей
Почему для оценки не использовать все доступные статьи с хабра? Разве это не увеличит точность классификатора? Почему мы берем только текущий срез? Ширину окна тоже на самом деле стоит подбирать разумно и это может потребовать дополнительного анализа.
Но нельзя брать выборку из вообще всех статей за весь период существования ресурса по следующей причине: ресурс постоянно развивается и характеристики статей меняются соответственно: если мы рассмотрим самые первые статьи e.g. [171](http://habrahabr.ru/post/171/), [2120](http://habrahabr.ru/post/2120/), [18709](http://habrahabr.ru/post/18709/) — мы увидим, что их характеристики существенно изменяются и они уже не должны входить в репрезентативную выборку современных статей, потому что в среднем мы не ожидаем таких параметров у новых статей. Во многом потому что поменялась аудитория, поменялись сами статьи и поменялись каналы распространения статей в интернете.
### Заключение
Мы рассмотрели и проанализировали самые основные параметры хабра статей. Идея о том, что метку «tutorial» можно автоматически предсказывать, привела нас к тому, мы поняли, каким образом можно расширить наборы данных и в каком направлении стоит смотреть. Мы так же рассмотрели основные различия между обычными постами и обучающим материалом в терминах: просмотров, избранного и рейтинга. Выявили, что основным отличием является наличие существенно больших записей в избранном и установили численные оценки этого отличия.
Только 2.8% в топе имеют метку «обучающий материал», при доли общей в 9.1% за все время с момента её введения (27 сентября 2012), — возможно это связано с тем, что достаточное количество материала пришло в топ до появления метки или само использование метки «tutorial» еще не вошло в обиход сразу после её введения. В пользу этой гипотезы говорит, что общая доля tutorial в лучшем за неделю и месяц практически не отличается от доли среди всех постов (8.1% за месяц и 7.8% за неделю; [relativeFractionOfTutorials.R](https://github.com/SergeyParamonov/HabraData/blob/master/relativeFractionOfTutorials.R)).
Возможно используя расширенный набор данных, мы сможем достаточно эффективно предсказывать (с помощью различных методов машинного обучения) и сообщать автору: «Возможно, вы забыли метку tutorial». Данная задача будет прежде всего интересна потому, что это позволит составить полноценный список с подборкой интересного обучающего материала, который можно отсортировать или оценивать по параметрам отличных от плюсов, e.g. количеству людей добавивших статью в избранное.
### Дальнейшее чтение
Если тема анализа данных показалась интересной, то ниже список полезного материала
* Udacity — [Exploratory Data Analysis](https://www.udacity.com/course/ud651) и [Data Science](https://www.udacity.com/course/ud359)
* Caltech — [Learning from Data](http://work.caltech.edu/telecourse.html)
* Coursera — [Data Science Track](https://www.coursera.org/specialization/jhudatascience/1?utm_medium=courseDescripTop) (только началось!)
* Если вы живете в Санкт-Петербурге, то можно пройти курсы у [DMLabs](http://dmlabs.org/)
* Если вы живете в Москве, то вы уже наверняка слышали про [ШАД](http://shad.yandex.ru/) | https://habr.com/ru/post/218607/ | null | ru | null |
# Чекалка: ваш личный Hosttracker (и не только)
Компания в которой я работаю, производит разнообразные веб сервисы. Мы используем как свои собственные разработки, так и всяческие открытые инструменты и фреймворки.
Предисловие вышло длинное, так что кому лень читать, можно перейти сразу к [сути](#tldr).
Классический веб сервис на базе любого распостраненного бекенд-фреймворка, имеет, обычно, несколько внешних вспомогательных систем, от которых он зависит: база данных, какое-нибудь KV хранилище, внешние веб сервисы, например для почтовых рассылок, и так далее.
Когда продукт становится достаточно большим и обслуживает большое количество пользователей, приходит пора масштабирования и наращивания отказоустойчивости. Тогда базы данных и KV хранилища приобретают реплики, а то и шардируются. Внешние хранилища превращаются из простых NFS шар в какие-нибудь распределенные хранилища типа Ceph или GlusterFS. Взаимодействие с внешними сервисами приходится, например, диверсифицировать, подключать три сервиса SMS рассылок вместо одного, на случай если основной ляжет.
Затем, как правило, приходит момент распределения проекта по различным датацентрам, настройка какого-то внешнего DNS сервиса способного простукивать все точки входа и направлять трафик только на живые, реплицировать базы данных не только внутри одного ДЦ, но и как-то выстраивать гео реплики, и так далее, количество челленджей быстро растет. :)
Опять вернемся к первому абзацу: что же делать с мониторингом? Ну понятно, что на первом этапе нам хватало обычного хосттрекера, который начинал теребить админа если сайт становился недоступен. Когда у вас все на одном сервере, найти корень проблемы обычно труда не составляет, хотя и все равно требует, конечно, времени.
Но что будет когда проект разрастается? Дебаг становится все более и более сложным, если понятно что проблема с базой данных, то где именно она кроется - в отваливашейся репликации, или в отсутствии каких-то данных по причине проблем с внешним сервисом? Может быть еще где-то?
Современные системы мониторинга позволяют заранее предвидеть основные проблемы, например Prometheus алертит что места на дисках виртуалок, при текущем темпе заполнения, хватит на сутки. Или что количество 404-х кодов ответа от веб сервиса подозрительно выросло. Или, даже, что лаг репликации базы превышает допустимое значение.
Но гарантирует ли это, например, что репликация работает корректно (она может по какой-то причине не работать, даже при отсутствии определяемого лага) и может обслуживать клиентов? Что данные в таблицы поступают и записи актуальны?
Очень важный (или даже важнейший) фактор мониторинга: некоторые проблемы можно отследить только извне системы. У вас может быть все прекрасно со всеми сервисами на дорогом хостинге в Европе, но пользователи из Сингапура не смогут попасть к вам на сайт, потому что прилегли транзитные каналы Европа-Азия, или на них сильно выросли задержки (частое true story!).
Либо: у вас внезапно кончились деньги на акаунте во внешнем DNS сервисе, и как следствие отвалились его хелсчеки, и он перестал снимать с трафика проблемные ДЦ. А иногда подобные проблемы еще и накладываются друг на друга. :)
Классические монолитные приложения на открытых фреймворках часто не имеют встроенных хелсчеков, а если и имеют, то они не покрывают смежных систем - например баз данных, внешних хранилищ. Да и как дела именно со стороны пользователя, такие хелсчеки в любом случае проверить не смогут.
Для того чтобы быть всегда уверенными что пользователи не испытывают проблем, веб сервисы обвешиваются скриптами, проверяющими их работоспособность. Эти скрипты часто располагаются на какой-то внешней VPS-ке (много ресурсов им не нужно), запускаются по обычному крону, и представляют из себя несколько десятков строчек кода с простейшей логикой вида "если упал вызов курл, шлем алерт через API телеграм".
Те хелсчеки, которые могут быть выполнены только изнутри (например проверка живости репликаций БД) могут располагаться тут же рядом на веб сервере, или в лучшем случае на отдельной виртуалочке в доверенном контуре.
Этот подход хорошо работал много лет, но с ростом количества разнообразных сервисов, выявилось много его (подхода) недостатков.
* Отсутствие логики управления оповещениями.
+ В случае каких-то серьезных проблем начинает валиться толстенный поток оповещений в телеграм, среди которых отследить что-то нужное проблематично.
+ Как следствие, становится очень сложно разделить оповещения по severity и ответственным лицам. Количество служебных чатов в телеграме просто зашкаливает, например у меня их сейчас с десяток. В них настроены разные политики оповещений, разруливать все это на каждом конкретном клиенте очень сложно. В какой-то момент разработчикам надоедает, они мьютят чат (т.к считают что их то сервис точно не завалится, а если что - админ то никогда не спит), и как результат, при появлении серьезных проблем их может никто не заметить.
* Отсутствие единой политики конфигурации оповещений.
+ Никто никогда не знает достоверно что наворочено в разложенных по куче разных мест хелсчек скриптах, их сложно между собой синхронизировать. Разработчики разных продуктов могут использовать разные каналы оповещений (например слать их к себе в личку в слаке), а со стороны остальной команды и админов в результате не видно целостной картины.
* Принципиальное отсутствие средств управления.
+ Когда понятно что упал весь хостинг, нет смысла видеть *все* остальные алерты. Приходится обходить все впс-ки и отключать сервис крона, иначе справиться никак с алерт-штормом нельзя. Не стоит и говорить, что включить крон потом забывают, что выливается в кросс-проверки, когда разные впс-ки проверяют друг друга, и алертят, если давно не было срабатываний.
Пока почти все выглядит как задача для Pagerduty (и аналогов), да? :)
Тут тоже кроется несколько проблем:
* Все подобные сервисы платные, и довольно недешевые.
* Политически сложно заставить всех, в том числе удаленщиков, ставить приложение и корректно его настраивать. Отследить это невозможно. А пакеты смс-ок в этих сервисах очень дорогие (смс-ки представляют хоть какие-то гарантии прочтения).
* Эти сервисы не решают проблемы в целом, да они прекрасно умеют управлять непосредственно оповещениями, но вопрос самих хелсчеков и интеграции скриптов с API сервисов остается открытым.
В общем, в какой-то момент звезды сошлись в очень удобное положение: у меня появилось достаточно свободного времени в связи с пандемией и просевшим количеством рутинных задач, и я решил его инвестировать сразу в двух направлениях: попытаться-таки каким-то образом решить давние головные боли с хелсчеками и алертами, и одновременно прокачать свои навыки в программировании. Очень хотелось изучить Golang, который мне виделся прекрасным инструментом для этой задачи. Да и вообще программист я никакой, практика всегда полезна.
Все это вылилось в проект Checker (по-русски я его называю Чекалкой).
Ридми в проекте говорит само за себя, статья и так получилась очень длинной, я признаться, такого не планировал, поэтому постараюсь только вкратце пояснить как я решил описанные выше проблемы.
---
Итак, Checker статически собирается компилятором Go в один бинарник, и не требует никаких зависимостей. Конкретные алгоритмы проверки реализованы в виде отдельных package-й, и могут быть легко реализоване как новые проверки в рамках текущих классов, так и добавлены совершенно новые классы проверок. К примеру проверки брокеров сообщений (очередей Kafka, RabbitMQ) у меня висят в TODO, но руки до них пока не дошли, т.к. в наших условиях критичных сервисов такого типа пока нет.
Конфигурация проверок описывается в виде yaml/json/hcl/toml файла, который может загружаться из локальной файловой системы, Consul KV/Consul Catalog, S3. Конфиг постоянно мониторится на предмет изменений, и не требует перезапуска для подхвата новой конфигурации.
На данный момент реализованы два канала оповещений: Telegram и Slack/Mattermost (плюс, конечно, логи). Важно то, что Checker не просто отсылает оповещения, но и работает как бот, на оповещения ему можно отвечать, либо отсылать управляющие команды в чат. Таким образом можно заглушить оповещения по конкретной проверке, конкретному проекту, либо вообще все оповещения (проверки все равно проводятся, но результат попадает только в лог). Еще более важно то, что при наличии заглушенных оповещений, Checker периодически отправляет в чат отчет о их наличии. Вы просто не можете забыть "включить кроны". :)
Проблема замьюченных чатов решается опциональным добавлением mention к каждому алерту. Можно перечислить ответственных за проект лиц, и во все алерты связанные с конкретным проектом будет добавляться подзаголовок вида `@vasilich @noc-admin`.
Для уменьшения потока оповещений от проблемных внешних сервисов реализована логика толерантности, для каждой проверки можно настроить политику срабатываний алертов, и указать, например, что первые 2 срабатывания нужно игнорировать (т.е. только логировать), а собственно алерты прислать начиная с третьего.
Для каждого *выполнения* каждой проверки формируется уникальный UUID, который может быть отслежен по логу. Каждая проверка логируется и строчки по конкретному выполнению в логе помечаются этим UUID. Также этот UUID присутствует в алерте. Можно его скопировать из чата, и быстро поиском по логам (например в кибане) найти нужный ивент.
Начата реализация механизма акторов, хочется иметь возможность не только отсылать алерты, но и например запускать внешние скрипты или дергать какие-то внешние API, к примеру это позволит выстроить собственное управление DNS зоной и отключение выпавших балансеров.
В Checker встроен экспортер метрик в формате Prometheus, что позволяет дополнительно отслеживать статистику, и, возможно, подключать Alertmanager который обратит внимание на какие-то проблемы самой чекалки.
В конце небольшой disclaimer: я не профессиональный программист, так что уверен на 100%, что в проекте присутствуют архитектурные просчеты и достаточное количество багов, хотя это уже и 4 или 5 итерация переписывания с нуля. :) У меня в эксплуатации утилита уже несколько месяцев, и все критичное что нашлось я зачистил.
Также я понял, что у меня в issue в гитлабе висят несколько десятков открытых issue по новому функционалу (которые я сам же себе и открывал), и объем работы уже *несколько* превышает мои возможности по свободному времени. Если полировать и дальше в одиночку, то эта история никогда не закончится.
Так что буду благодарен за участие в проекте, если он покажется вам полезным. Как говорится, присылайте ваших PR-ов. :)
Также очень пригодилась бы помощь в переводе Readme на английский. Я по-глупости начал его вести на русском, а такой большой объем с нуля мне не перевести. Сейчас в проекте лежит надмозговый вариант перевода от Google Translate, хотя бы его причесать было бы очень хорошо.
Ну и собсно ссылка на проект: <https://github.com/imcitius/checker>
Образ на Docker Hub: <https://hub.docker.com/r/imcitius/checker>
Можно очень просто и быстро запустить себе экземпляр чекалки на Heroku по [инструкции](https://github.com/imcitius/checker#quick-running-test-instance), нажав кнопку в Readme.
Бесплатного тарифа Heroku чекалке вполне хватает для работы, но учитывайте, пожалуйста, его [ограничения](https://devcenter.heroku.com/articles/free-dyno-hours). | https://habr.com/ru/post/524690/ | null | ru | null |
# Microsoft призвала удалить обновление Windows 11 KB5013943, которое вызывает сбои приложений
Пользователи Windows 11 [столкнулись](https://www.bleepingcomputer.com/news/microsoft/windows-11-kb5013943-update-causes-0xc0000135-application-errors/) с ошибкой 0xc0000135 при попытке запуска приложений. Её вызвала установка последнего накопительного обновления Windows 11 KB5013943.
KB5013943 включает исправление ошибки, из-за которой приложения .NET Framework 3.5 не открывались, если они использовали компоненты Windows Communication Foundation (WCF) и Windows Workflow (WWF).
Однако это исправление, похоже, [вызвало](https://answers.microsoft.com/en-us/windows/forum/all/getting-multiple-startup-errors-after-current/ec2e8d02-9270-40f1-96b4-e91c504ea146) дополнительные проблемы, так как теперь пользователи Windows 11 сообщают о целом ряде приложений, которые больше не открываются после установки обновления KB5013943.
Затронутые приложения включают ProtonVPN, PowerShell, Event Viewer, Sound Blaster Command, KeePass, Visual Studio, Discord, ShareX и другие.
Ошибка 0xc0000135 указывает на то, что приложению не удалось найти файл DLL, необходимый для правильной работы программы, поэтому программа не может запуститься.
Удаление обновления Windows 11 KB5013943 решает проблему, но делает устройство незащищенным от недавно исправленных уязвимостей.
Пользователи Windows 11 обнаружили, что эту проблему можно решить, включив или переустановив платформу .NET 3.5. Для этого нужно перейти в Панель управления > Программы > Включение или отключение функций Windows и убедиться, что .NET проверяются Framework 3.5 (включая .NET 2.0 и 3.0) и Net Framework 4.8 Advanced Services, как показано на изображении ниже.
Bleeding ComputerВ качестве альтернативы можно открыть командную строку Windows 11 с повышенными привилегиями (запустить cmd.exe от имени администратора) и выполнить следующие команды для включения функций:
```
dism /online /enable-feature /featurename:netfx3 /all
dism /online /enable-feature /featurename:WCF-HTTP-Activation
dism /online /enable-feature /featurename:WCF-NonHTTP-Activation
```
Если это не сработает, то следует удалить функции .NET из панели управления, а затем переустановить их.
Microsoft уже [порекомендовала](https://www.techradar.com/news/even-microsoft-thinks-you-should-uninstall-the-latest-windows-11-update) пользователям Windows 11 удалить другое обновление KB5012643. У компании нет официального исправления, но она предоставила подробные инструкции о том, как вернуться к предыдущей версии ОС.
Чтобы удалить обновление, нужно открыть меню «Пуск» и ввести «Параметры Центра обновления Windows», выбрать «Центр обновления Windows», затем «Просмотреть историю обновлений». После этого нужно кликнуть «Удалить обновление» и выбрать KB5012643, затем нажать «Удалить».
Ранее стало известно, что обновление безопасности для Windows KB5012643 [вызывает](https://habr.com/ru/news/t/665318/) сбои аутентификации при использовании Active Directory на контроллерах доменов. | https://habr.com/ru/post/665508/ | null | ru | null |
# Лучшие практики модальных окон. Компоненты дизайн системы
Всем привет
-----------
Меня зовут Андрей Насонов, я работаю UI/UX-дизайнером и руковожу дизайн-отделом. В 2008 году я начал заниматься графическим дизайном, а в 2015 году перешел в веб-дизайн.
Я пишу полезные статьи про компоненты дизайн-систем, в которых делюсь опытом решения самых разных задач. Эта статья посвящена модальным окнам.
Описание
--------
Модальное окно — это окно, которое появляется поверх страницы, блокируя работу с ней до тех пор, пока оно не будет закрыто. Модальное окно позволяет инициировать параллельный процесс, не теряя контекст родительской страницы, и затем быстро вернутся к ней.
Я разделяю три отдельных компонента: модальное окно, диалоговое окно и немодальное окно. Они похожи, но имеют разное назначение и принципы работы.
В этой статье я описываю работу модального окна только для десктоп-версии сайтов. Про работу мобильных модальных окон, диалоговых и немодальных окон поговорим в следующих статьях.
Использование
-------------
Модальное окно чаще всего используется для создания, редактирования, добавления и просмотра объектов.
Появление модального окна должно быть предсказуемым и происходить по действию пользователя. Избегайте появления модальных окон при открытии сайта. Пользователь заходит на сайт с конкретной целью, и любое возникающее модальное окно будет принято за спам и сразу закрыто.
Если при открытии сайта необходимо отобразить важную информацию, используйте другой компонент, который не будет прерывать путь пользователя и не будет перекрывать полезный контент. Например, поп-ап или баннер.
Не используйте модальное окно для отображения сообщений об ошибках и успешно совершенных действиях. Исключение — если такое сообщение является одним из шагов модального окна. Например, модальное окно формирования отчета:
1 шаг — выбираем тип отчета и нажимаем «Сформировать».
2 шаг — наблюдаем за прогрессом формирования.
3 шаг — видим сообщение об успешно сформированном отчете и кнопку «Скачать».
Анатомия
--------
Анатомия модального окна
| | | |
| --- | --- | --- |
| № | Элемент | **Использование** |
| 1 | Шапка | Необязательно |
| 2 | Прилипающий элемент | Необязательно |
| 3 | Контент-часть | Обязательно |
| 4 | Подвал | Необязательно |
| 5 | Кнопка закрытия | Обязательно |
| 6 | Полоса прокрутки | Обязательно |
| 7 | Затемняющий слой | Обязательно |
| 8 | Кнопки переключения объектов | Необязательно |
Шапка и подвал могут иметь дополнительные элементы.
Кнопка закрытия расположена снаружи контейнера модального окна для того, чтобы в правом верхнем углу сохранить место для дополнительных элементов.
Размеры и отступы
-----------------
#### Ширина
Минимальная ширина модального окна — 400 px. Максимальная ширина не ограничена, но должна быть кратна 80 px (400, 480, 560, 640, 720, 800, 880, 960, 1040 и так далее).
При необходимости модальное окно может занимать всю ширину экрана, при этом кратность 80 px может не соблюдаться. Такое модальное окно также может иметь фиксированные отступы по бокам.
Размер окна зависит от контента, но я советую в рамках одного проекта не делать слишком много разных модальных окон — соблюдайте единообразие. Например, если окно содержит пару полей и кнопку действия, то вполне подойдет размер от 400 до 560 px. Если же вы показываете в модальном окне таблицу или другую объемную информацию, размер может варьироваться вплоть до всей ширины экрана.
### Высота
Минимальная высота ограничена только высотой контента. Если в модальном окне динамически изменяется количество контента, модальное окно также динамически изменяет свою высоту.
Например, вы разместили в модальном окне список сотрудников и фильтрующий поиск. При вводе текста в поиск, список сотрудников будет сокращаться, а высота модального окна уменьшаться до размера контента.
### Шапка
Есть три размера отступов от блока с контентом до заголовка — 0 px, 8 px, 16 px
Размер подбирается дизайнером и зависит от контента и наличия прилипающих элементов.
Если под шапкой размещается элемент с большим визуальным весом или разделителем между шапкой и элементом, то можно выбрать отступ 16 px. Если же элемент имеет маленький визуальный вес и нет разделительной линии, можно использовать отступы 8 px или 0 px.
В данном примере рекомендуется использовать отступ 0 px, так как строка поиска не имеет разделительной линии между шапкой и поиском и имеет маленький визуальный вес.
### Подвал
Высота подвала — 96 px.
### Кнопки переключения объектов
Ширина кнопок — 72 px. По высоте кнопка занимает всю высоту экрана.
### Отступы от контейнера
Отступ от верхнего и нижнего края экрана до контейнера модального окна — 40 px.
Расположение
------------
Модальное окно всегда появляется в верхней части экрана.
Модальное окно расположено в верхней части экранаРасположение в верхней части экрана обусловлено тем, что высота контента модального окна может динамически меняться.
Например, раскрытие «аккордеона» или появление у полей текстовых ошибок увеличивает высоту контента, а фильтрующий поиск по списку уменьшает высоту контента.
Если модальное окно расположить по центру экрана, то при изменении высоты контента модальное окно будет увеличиваться и вверх, и вниз одновременно. Такое поведение сбивает пользователя и заставляет после каждого изменения высоты искать глазами тот элемент, на котором он был сфокусирован.
Если контент модального окна не вмещается в экран, то он выходит за границу экрана, как бы обрезая границей экрана часть модального окна. Такое поведение подсказывает пользователю, что в экран поместился не весь контент и следует прокрутить страницу.
1. Красная пунктирная линия — линия, где обрезается контент.
2. Желтый блок — область, которая не попадает в экран.
Правильно. Контент модального окна обрезается границами экранаНеправильно. Контент модального окна обрезается границами модального окнаНаличие полосы прокрутки не всегда дает понять, что окно можно прокрутить, так как она находится с краю экрана и на широких мониторах не попадает в область внимания пользователя. А на MacOS полоса прокрутки и вовсе скрыта и отображается по наведению.
Если же сверху и снизу модального окна сделать фиксированный отступ, а контент обрезать не границей экрана, а границей модального окна, то такой вид окна может вводить пользователя в заблуждение. Видя, что нижняя граница модального окна не доходит до края экрана, пользователь может подумать, что весь контент уместился в один экран.
Усугубляет данную ситуацию и то, что линия обреза может проходить как раз между элементами контента, тем самым не вызывая подозрений, что за границей модального окна есть еще контент.
Еще один негативный сценарий — прокрутка работает только при наведении курсора на контейнер модального окна, а при наведении за границу контейнера прокрутка не работает.
Появление окна
--------------
Пользователь не может взаимодействовать с элементами родительской страницы до тех пор, пока модальное окно не будет закрыто.
Желательно избегать появления нескольких модальных окон друг над другом. Вместо этого подумайте о том, чтобы сделать смену одного модального окна на другое. Я рекомендую реализовывать бесшовный переход — смену контента внутри контейнера модального окна, а не закрытие одного окна и открытие другого. При этом ширина самого модального окна должна сохраняться. Такое поведение позволяет закрыть модальное окно на любом этапе, не возвращаясь к предыдущему модальному окну, так как на экране одновременно отображено только одно модальное окно.
Если же вы решите разместить несколько модальных окон друг над другом, пользователю придется закрывать каждое окно отдельно.
Но если такая необходимость все же возникла, то независимо от того, сколько модальных элементов открыто, одновременно должен отображаться только один затемняющий слой. То есть если поверх модального окна открывается второе модальное окно, затемнение под первым окном должно пропадать. А после закрытия второго окна, затемнение под первым модальным окном должно вернуться. Проще говоря, затемняющий слой перемещается под самое «верхнее» модальное окно.
Это же правило работает и в случае, если модальное окно появляется поверх сайдбара или боковой шторки, которые также вызывают затемнение фона.
Исключением может быть появление модальных элементов поверх галереи (режим просмотра изображений). В таком случае затемнение фона у галереи сохраняется, а затемнение модального окна накладывается поверх нее.
Поведение при прокрутке
-----------------------
Родительская страница под модальным окном не прокручивается.
Во время прокрутки кнопка закрытия остается в видимой области экрана. Отступ от верхнего края экрана до кнопки закрытия — 16 px.
Полоса прокрутки присутствует всегда и относится ко всей странице, а не только к контейнеру модального окна. В случае если контент помещается в экран и не требует прокрутки, полоса прокрутки принимает состояние *disabled*, но не исчезает. Это необходимо для того, чтобы появление полосы прокрутки не сдвигало модальное окно влево, когда количество контента увеличивается.
На MacOS используется системная плавающая полоса прокрутки.
**Правильно.** Модальное окно не сдвигается влево при увеличении контента и появлении полосы прокрутки
**Неправильно.** Модальное окно сдвигается влево при увеличении контента и появлении полосы прокрутки
Прокрутка без прилипания элементов
----------------------------------
Модальное окно может не иметь других прилипающих элементов, кроме кнопки закрытия — она всегда находится в видимой области экрана.
Прокрутка с прилипанием элементов
---------------------------------
При прокрутке модального окна шапка, подвал и другие элементы могут прилипать к верху и низу экрана как одновременно, так и по отдельности — на усмотрение дизайнера.
Прилипающие элементы во время прокрутки должны отделяться от контент-части однопиксельным разделителем.
В момент прилипания шапки, нижний отступ от заголовка до края контейнера равен верхнему отступу.
Прилипание по условию
---------------------
Шапка, подвал или любой другой элемент могут прилипать по условию.
**Пример 1.** Есть длинная форма редактирования заказа. Изначально подвал с кнопками «Сохранить» и «Отмена» не попадает в область просмотра. После внесения изменений в поля, подвал прилипает к краю экрана, давая понять, что в поля внесены изменения и их можно сохранить. Внесение изменений в поля является условием, по которому прилипает элемент.
**Пример 2.** Есть длинная форма создания сотрудника. Изначально подвал с кнопками «Создать» и «Отмена» не попадает в область просмотра. Пользователь прокручивает страницу и заполняет поля. После того как пользователь заполнил обязательные поля, подвал прилипает к краю экрана, давая понять, что все обязательные поля заполнены и теперь пользователь может создать сотрудника. Пользователю не обязательно прокручивать до конца модального окна, чтобы проверить, заполнил ли он все обязательные поля и нажать кнопку «Создать». Заполнение всех обязательных полей является условием, по которому прилипает элемент.
Переключение объектов
---------------------
Если модальное окно используется для просмотра объектов из списка, оно может иметь кнопки переключения объектов. Это позволяет переходить к следующему и предыдущему объекту, не закрывая модальное окно и не возвращаясь к списку объектов.
Например, перед нами страница со списком сотрудников. По клику на вторую строку списка открывается модальное окно просмотра сотрудника № 2. В открывшемся модальном окне можно нажать на правую кнопку и перейти к сотруднику № 3, или на левую кнопку и перейти к сотруднику № 1, не закрывая модальное окно.
Кнопки находятся справа и слева по краям экрана. Такое расположение кнопок позволяет пользователю привыкнуть к их расположению. Если же сделать кнопки переключения по краям контейнера модального окна, то кнопки будут менять свое положение в зависимости от его ширины, тем самым заставляя пользователя каждый раз искать их глазами.
Такое же расположение используется в компоненте галереи, поддерживая консистентность дизайна.
При наведении курсора на правую кнопку она не перекрывает кнопку закрытия.
При зависании курсора над кнопкой закрытия, правая кнопка не принимает состояние наведения.
Заголовок
---------
Заголовок модального окна должен иметь название процесса, который инициирует пользователь, быть кратким и отвечать на вопрос «Что происходит?»
**Правильно**«Создание пользователя»
«Редактирование заказа»
«Добавление товара»
**Неправильно**«Создать пользователя»
«Редактировать заказ»
«Добавить товар»
Если модальное окно используется как окно просмотра, в заголовке допустимо указывать название просматриваемого объекта. Например, вместо «Просмотр товара» можно указать само название товара — «Наушники Firehead G200».
Важно! Не путайте модальное окно и диалоговое окно. У диалоговых окон другой принцип формирования заголовков.
Заголовок модального окна должен совпадать по смыслу с текстом кнопки, которая его вызывает. Желательно использовать одни и те же формулировки.
**Правильно**Кнопка «Создать пользователя». Заголовок «Создание пользователя»
Кнопка «Редактировать». Заголовок «Редактирование заказа»
**Неправильно**Кнопка «Добавить». Заголовок «Создание пользователя»
Кнопка «Редактировать». Заголовок «Внесение изменений в заказ»
Заголовок должен быть коротким и занимать одну строку. Если заголовок не вмещается в одну строку, подумайте о том, чтобы увеличить ширину модального окна.
Если увеличить ширину окна не получается, сделайте заголовок в две строки. В момент прилипания шапки заголовок сократится до одной строки с многоточием в конце.
Избегайте заголовков со словом «Отмена». Если же основное предназначение модального окна — отмена чего-либо, то замените главную кнопку на «Отменить», а второстепенную кнопку, которая закрывает модальное окно, назовите «Назад».
Закрытие модального окна
------------------------
Есть четыре способа закрыть модальное окно:
1. Нажать на кнопку закрытия.
2. Нажать на кнопку «Отмена» или альтернативную кнопку.
3. Нажать на затемнённый фон.
4. Нажать на клавишу `Esc` на клавиатуре.
Способы закрытия модального окнаЗакрыв модальное окно, пользователь возвращается на то же место и к тому же элементу, который ее вызвал, а не в начало страницы. Иначе после закрытия модального окна пользователю придется заново искать место, на котором он перешел в модальное окно.
Перейдя из модального окна на другую страницу и нажав кнопку «Назад», пользователь должен вернуться к открытому модальному окну, а не к странице, с которой оно было вызвано.
### Исключения
Если в модальном окне изменены данные, и они требуют ручного сохранения, вместо закрытия необходимо выводить диалоговое окно подтверждения закрытия.
Если в модальном окне изменены данные, и они не успели сохраниться автоматически, вместо закрытия необходимо выводить диалоговое окно с предупреждением. Если данные сохранились автоматически, то диалоговое окно не требуется.
Модальное окно не должно закрываться, если зажать ЛКМ в области модального окна и отпустить ЛКМ за ее пределами. Подобное происходит, когда пользователь выделяет текст, нажимая ЛКМ в модальном окне, а отпускает ЛКМ за ее пределами. Таким образом срабатывает нажатие на затемненный фон, и модальное окно закрывается.
Стилизация
----------

| | | |
| --- | --- | --- |
| № | Атрибут дизайна | **Токены** |
| 1 | Цвет контейнера | Surface 600 |
| 2 | Тень контейнера | Down Elevation 900 |
| 3 | Цвет затемнения фона | Overlay 700 |
| 4 | Заголовок | H4, Mono A A900 |
| 5 | Фон кнопки закрытия | White A200, Blur 400 |
| 6 | Цвет иконки кнопки закрытия | White 500 |
| 7 | Текст «Esc» кнопки закрытия | Caption, White A800 |
| 8 | Разделительная линия | Mono A A100 |
Для затемнения фона модального окна лучше использовать темно-серый цвет (ближе к черному) с прозрачностью.
Если сделать цвет затемнения черным, то на фоне темных элементов или на фоне темных страниц будет слишком большой контраст.
Работа с клавиатурой
--------------------
При появлении модального окна фокус перемещается на кнопку закрытия.
Если в модальном окне есть поиск или другой часто используемый элемент, то фокус может быть установлен на него.
Если в модальном окне расположена форма, и пользователь наверняка будет с ней взаимодействовать, сместите фокус на первое поле этой формы.
Переключение фокуса зациклено. Если фокус находится на последнем элементе, нажатие на `Tab` переведет фокус на первый элемент модального окна. Если фокус находится на первом элементе, нажатие на `Shift`+`Tab` переведет фокус на последний элемент модального окна.
Не должно быть возможности переключить фокус на элементы родительской страницы за модальным окном.
Если модальное окно используется для просмотра объектов из списка, переключение объектов работает по комбинации клавиш `Ctrl`+`←`,`→`
Если модальное окно используется для заполнения формы, то нажатие на `Enter` может отправлять форму.
Если в модальном окне выводится список объектов, то фокус переключается по основным элементам модального окна клавишей `Tab`, а внутри списка — клавишами `↑` и`↓`. Это позволяет пропустить список и сразу перейти к следующему блоку. Иначе придется переключаться по всем объектам списка, прежде чем фокус переключится на нужный элемент.
Тултипы и подсказки
-------------------
При наведении курсора на кнопки переключения, появляются тултипы с текстом «`Ctrl`+`←`» или «`Ctrl`+`→`»
При наведении курсора на кнопку закрытия появляется тултип с текстом «Закрыть»
Спасибо!
--------
Если статья вам понравилась, жмите 👍. Если хотите узнать больше фишек — подписывайтесь, чтобы не пропустить новые статьи. | https://habr.com/ru/post/693272/ | null | ru | null |
# В ожидании ExtJS 4: Динамическая загрузка и новая система классов
*От переводчика*: Sencha Inc, производитель известного RIA-фреймворка Ext JS, заговорила о грядущей четвертой версии 22 ноября прошлого года. Релиз обещанного планировался на 28 февраля.
Что бы подогреть интерес комьюнити (ведь API, по словам разработчиков, изменилось значительно), была обещана публичная альфа- или бета-версия «в течении пары недель». Прошло два месяца, но обещанного пока нет.
Понимая, что была совершена маркетинговая ошибка – слишком рано заявили о новом продукте и сорвали сроки его презентации – разработчики решили немного схитрить, выкладывая обещанную «бету» по частям: пакет за пакетом.
Вашему вниманию предлагается перевод первой статьи из официального блога фреймворка, посвященной попытке эмуляции «взрослого» ООП средствами JavaScript в реализации Ext JS 4.
Статья, в первую очередь, будет интересна тем, кто уже пользовался предыдущими версиями фреймворка – автор рассчитывает на то, что читатель уже знаком с архитектурой Ext JS.
#### Встречаем Ext JS 4
Сегодня мы с волнением представляем Вашему вниманию «первенца» в череде абсолютно новых возможностей Ext JS 4. В течении нескольких недель мы будем выкладывать нашу бета-версию Ext JS – пакет за пакетом. Несмотря на то, что изначально мы планировали выпуск полной «беты» где-то в это время, некоторые части фреймворка стабилизируются медленнее, чем этого бы хотелось, потому мы решили публиковать пакеты по очереди. Сегодня мы начнем с абсолютно новой системы классов в Ext JS 4.
Язык JavaScript изначально не предусматривал понятия «класс», что могло быть непривычным для новичков. Ext JS всегда комплектовался собственной системой классов, основанной на мощнейшем инструменте прототипирования. Такое решение позволяет программистам использовать более традиционный объектно-ориентированный подход в разработке.
С выходом Ext JS 4, мы переводим систему классов на новый уровень, добавляя в нее новые возможности, которые должны облегчить Вашу разработку и придать ей еще больше гибкости. Ext 4 представит четыре нововведения – объявления классов (class definitions), примеси (mixins), геттеры (getters) и сеттеры (setters) для конфигураций, а так же загрузку зависимостей (dependency loading).

На иллюстрации выше отмечены несколько преимуществ новой системы классов, например Draggable и Resizable стали примесями.
#### Объявление класса
Для сравнения давайте посмотрим, как мы создавали новый класс в Ext JS 3. В этом примере мы создаем фиктивное окно авторизации, которое расширяет стандартный класс Ext.Window:
> `1.
> 2. *//Ext JS 3.x class definition*
> 3. MyApp.LoginWindow = Ext.extend(Ext.Window, {
> 4. title: 'Log in',
> 5.
> 6. initComponent: **function**() {
> 7. Ext.apply(**this**, {
> 8. items: [
> 9. {
> 10. xtype: 'textfield',
> 11. name : 'username',
> 12. fieldLabel: 'Username'
> 13. },
> 14. ...
> 15. ]
> 16. });
> 17.
> 18. MyApp.LoginWindow.superclass.initComponent.apply(**this**, arguments);
> 19. }
> 20. });
> 21.`
Такой подход, весьма вероятно, знаком большинству из вас и он хорошо справляется со своей задачей, хотя и не лишен недостатков. Например, если Ext.Window не объявлен до момента создания нашего класса, то выполнение этого кода вызовет ошибку и наше приложение может аварийно прекратить работу. Аналогично, если пространство имен MyApp не было объявлено раннее, мы тоже получим ошибку. Обе этих проблемы решаются, если классы будут создаваться по новой идеологии:
> `1.
> 2. *//Ext JS 4.x class definition*
> 3. Ext.define('MyApp.LoginWindow', {
> 4. extend: 'Ext.Window',
> 5.
> 6. title: 'Log in',
> 7.
> 8. initComponent: **function**() {
> 9. Ext.apply(**this**, {
> 10. items: [
> 11. *//as above*
> 12. ]
> 13. });
> 14.
> 15. MyApp.LoginWindow.superclass.initComponent.apply(**this**, arguments);
> 16. }
> 17. });
> 18.`
В Ext JS 4 на классы можно ссылаться по строковому представлению их имен – значит, мы никогда не получим ошибок, описанных выше. Менеджер классов достаточно умен, что бы проверить – объявлен ли уже Ext.Window. Если нет – то отложить создание MyApp.LoginWindow до тех пор, пока нужный класс не будет доступен. Мы больше не обязаны следовать четкому порядку загрузки в наших приложениях, разрешая фреймоворку заботится обо всем.
#### Примеси
Первой из новых возможностей системы являются *примеси*. Примесь — это именованная объявленная связка поведенческой логики и параметров конфигурации, которые могут быть «подмешены» к классу, тем самым расширяя его возможности. Что бы воспользоваться преимуществами примесей, просто примените их к объявлению Вашего класса.
Например, что бы объект вашего класса можно было перемещать по экрану, достаточно применить к классу примесь Draggable. «Подмешивать» к классу можно произвольное количество примесей – таким образом можно реализовать множественное наследование. Это именно то, чего на протяжении длительного времени было очень сложно добиться, используя большинство JavaScript-фреймворков.
Примеси задаются примерно так:
> `1.
> 2. Ext.define('Sample.Musician', {
> 3. extend: 'Sample.Person',
> 4.
> 5. mixins: {
> 6. guitar: 'Sample.ability.CanPlayGuitar',
> 7. compose: 'Sample.ability.CanComposeSongs',
> 8. sing: 'Sample.ability.CanSing'
> 9. }
> 10. });
> 11.`
Позволю себе повториться, все имена классов ссылаются друг на друга по строковым наименованиям — у нас не возникнет ошибок в используемых примесях, если они еще не загружены. Класс может пользоваться возможностями любого количества примесей, а сами примеси задаются чрезвычайно просто:
> `1.
> 2. Ext.define('Sample.ability.CanPlayGuitar', {
> 3. playGuitar: **function**() {
> 4. *//code to play*
> 5. }
> 6. });
> 7.`
#### Автоматические сеттеры и геттеры для конфигураций
Большинство классов в Ext JS настраивается путем передачи в конструктор конфигурационного объекта. Используя геттеры и сеттеры, конфигурационные объекты могут быть изменены, а правки — применены во время работы приложения. У Ext JS 4 существует политика соглашения об именовании опций конфигурации, которую следует учитывать при использовании этих функций. Такой подход позволяет сократить время разработки, консистентность API и серьезно уменьшить объем загружаемого файла. Давайте рассмотрим пример:
> `1.
> 2. Ext.define('MyClass', {
> 3. config: {
> 4. title: 'Default Title'
> 5. }
> 6. });
> 7.`
В приведенням выше фрагменте мы объявляем класс с единственным настраиваемым свойством: title. Мы так же указываем значение по умолчанию для этого свойства, в данном случае это ‘Default title’. Благодаря новой системе объявления классов в Ext JS 4, фреймворк автоматически создаст геттеры и сеттеры для нашего класса. Если бы мы пользовались Ext JS 3.3, то пришлось бы писать шаблонный код:
> `1.
> 2. MyClass = Ext.extend(MyBaseClass, {
> 3. title: 'Default Title',
> 4.
> 5. getTitle: **function**() {
> 6. **return** **this**.title;
> 7. },
> 8.
> 9. resetTitle: **function**() {
> 10. **this**.setTitle('Default Title');
> 11. },
> 12.
> 13. setTitle: **function**(newTitle) {
> 14. **this**.title = **this**.applyTitle(newTitle) || newTitle;
> 15. },
> 16.
> 17. applyTitle: **function**(newTitle) {
> 18. *//custom code here*
> 19. }
> 20. });
> 21.`
Теперь же библиотека создаст за нас все четыре функции. В большинстве случаев, простого обновления значения переменных вполне достаточно, но бывают случаи, когда следует предпринять какие-то действия в момент изменения конфигурации. К примеру, если наш класс отображает заголовок в некотором DOM-элементе, у нас есть возможность обновить этот элемент, используя вот такую конструкцию:
> `1.
> 2. xt.define('MyClass', {
> 3. extend: 'MyBaseClass',
> 4.
> 5. config: {
> 6. title: 'Default Title'
> 7. },
> 8.
> 9. applyTitle: **function**(newTitle) {
> 10. Ext.get('titleEl').update(newTitle);
> 11. }
> 12. });
> 13.`
Все четыре функции создаются автоматически и мы можем переопределить любую из них точно так же легко, как это сделали выше с applyTitle. Соответственно, мы не только пишем меньше кода в наших классах, но и существенно урезаем размер как самого ExtJS, так и нашего приложения – облегчая таким образом загрузку файла конечным пользователем.
#### Динамическая Загрузка
Перед нами предстали всего несколько преимуществ новой системы классов , но впереди нас ждет гораздо больше интересного и к чему мы позже вернемся. Однако сейчас самое время представить на Ваш суд нечто абсолютно новое для Ext JS 4: *динамическую загрузку*.
До сих пор, пользуясь любой версией Ext JS, Вам приходилось загружать всю библиотеку для начала работы. Если Вам нужно было создать объект класса Ext.Window, класс нужно было выкачать заранее, иначе возникала ошибка. Все изменилось и упростилось с динамической загрузкой Ext JS 4:
> `1.
> 2. Ext.require('Ext.Window', **function**() {
> 3. **new** Ext.Window({
> 4. title : 'Loaded Dynamically!',
> 5. width : 200,
> 6. height: 100
> 7. }).show();
> 8. })
> 9.`
Здесь мы просим Ext JS загрузить класс Ext.Window и вызвать функцию по готовности. Мы можем запросить любое количество классов путем передачи массива в Ext.require. Собственно, вот и все – просто до невозможности, основное волшебство скрыто от зрителя. Динамический загрузчик Ext JS 4 работает исключительно на стороне клиента и не требует никаких вмешательств в серверную часть. Более того, он автоматически разбирает зависимости, которые могут быть у загружаемого класса. В качестве примера, пусть Ext.Window выглядит вот так:
> `1.
> 2. Ext.define('Ext.Window', {
> 3. extend: 'Ext.Panel',
> 4. requires: ['Ext.util.MixedCollection'],
> 5. mixins: {
> 6. draggable: 'Ext.util.Draggable'
> 7. }
> 8. });
> 9.`
Как только библиотека загрузила класс Ext.Window, она определяет зависимости, объявленные в секциях extend, require и в описаниях примесей.
Если какой-нибудь из необходимых классов еще не объявлен, то фреймоворк сначала подгрузит зависимость, а уже потом объявит Ext.Window. Благодаря соглашению именований, загрузчик автоматически знает, как определить нужный файл для каждого из классов. В данном случае, следующие файлы будут запрошены перед тем, как будет вызвана наша функция:
* src/Window.js
* src/Panel.js
* src/util/MixedCollection.js
* src/util/Draggable.js
Загрузчик работает рекурсивно – если у этих файлов есть неучтенные раннее зависимости, он будет запрашивать файлы до тех пор, пока все не будет готово к инициализации.
Несмотря на то, что в рабочем режиме рекомендуется не использовать режим «файл за файлом», такой подход позволяет обойтись без одного из самых давних и раздражающих моментов в использовании Ext JS – файла ext-all-debug.js.
До последнего времени мы рекомендовали использовать ext-all-debug.js во время разработки и ext-all.js в штатном режиме работы приложения. Отладочная версия содержит всю библиотеку целиком в читабельном виде, но и содержит около 60 000 строк кода. Соответственно, и так непростой процесс исправления ошибок усложняется еще больше: подсказка в стеке вызовов об исключении в 47657 строке ext-all-debug.js мало чем поможет. С другой стороны, использование динамического загрузчика позволит узнать, что проблема воникла в 56 строке файла src/data/JsonReader.js. И все это с полным стеком вызовов и корректными номерами строк для каждого файла.
На самом деле, это – серьезный шаг вперед в отладке Вашего приложения, да и с производительностью проблем не возникнет: при локальной разработке очень сложно заметить, что библиотека подгружается динамически. Загрузчик так же проверяет наличие тупиковых ситуаций и может быть использован как для синхронной закачки файлов, так и для асинхронной.
Если Вы не соблазнились написанным выше – не переживайте. Новая система классов *абсолютно совместима с предыдущими версиями*. Ваши старые классы, созданные при помощи Ext.extend, все равно будут работать и мы будем продолжать создавать файл ext-all.js, содержащий всю библиотеку целиком.
#### Демонстрация возможностей
Мы создали очень простое демонстрационное приложение и [выложили его в Интернет](http://dev.sencha.com/deploy/LoaderDemo/ "выложили его в Интернет"). Примеры начинаются с самых простых и потихоньку усложняются в дальнейшем. Собственно, [пример можно скачать в виде архива](http://dev.sencha.com/deploy/LoaderDemo.zip) и запустить на локальной машине для экспериментов: все, что Вам понадобиться – это веб-сервер для отдачи файлов.
Новая система классов – это базис для многократно улучшенной библиотеки ExtJS 4. Каждый важный класс в библиотеке был обновлен так, что бы стать быстрее, что бы разработка стала более простой и удобной. На протяжении следующих недель мы будем демонстрировать возможности наших пакетов по очереди в ожидании Ext JS 4. Следующий на очереди – наш замечательный пакет для работы с данными. | https://habr.com/ru/post/112802/ | null | ru | null |
# Вибрация геймпада XboxOne для Unity3d
 В Unity3d есть универсальная поддержка контроллеров через класс Input. После предварительной настройки осей и кнопок, можно добиться сносной работы любого контроллера. К сожалению, при этом будет отсутствовать поддержка вибрации для геймпадов Xbox 360 и Xbox One. Можно исправить эту ситуацию воспользовавшись, например, плагином [XInputDotNet](https://github.com/speps/XInputDotNet), но как оказалось, этот плагин не готов для использования в приложениях Windows Store. Поэтому был сделан небольшой враппер XInput который работает в этом варианте.
Создание плагинов для Unity3d достаточно простой процесс. Для этого необходимо создать проект Class Library в Visual Studio 2013, и не забыть переключить в режим использования .NET Framework 3.5

Далее полученную сборку нужно перенести в каталог Assets, и все классы которые вы реализовали станут доступны из Unity. Удобно так же разместить Solution вашего плагина прямо в каталоге в котором находится проект Unity, и указать Output в каталог Assets:

Для того чтобы этот же плагин работал и в режиме приложений Windows Store, в этом же Solution для нашего плагина создаем проект Store Apps/Class Library:

Код плагина можно использовать тот же, в нашем случае даже не придется делать какие-то conditional условия компиляции, исходные файлы для обеих сборок будут одинаковыми и их можно просто залинковать:

Вариант сборки для Windows Store должен размещаться в каталоге **Assets****/****Plugins****/****Metro**:

Само собой разумеется, имя файла плагина для Windows Store должно совпадать с вариантом для Desktop:

Если все сделано корректно, то тогда Unity при создании варианта приложения для Windows Store «подхватит» замену и окончательная сборка приложения в Visual Studio 2013 пройдет корректно.
Сам плагин прост, и по сути является оберткой над функциями XInput:
```
[DllImport("xinput1_4.dll")]
public static extern int XInputGetState
(
int dwUserIndex,
ref XInputState pState
);
[DllImport("xinput1_4.dll")]
public static extern int XInputSetState
(
int dwUserIndex,
ref XInputVibration pVibration
);
```
Все необходимые структуры подготовлены в сопутствующих классах.
#### Использование плагина для работы с геймпадом
Как уже было сказано, теперь достаточно разместить сборки плагина в соответствующие каталоги **/****Assets** и **/****Assets****/****Metro**, после чего функции будут доступны при разработке приложения Unity:

Обычно работа с геймпадами осуществляется в режиме запросов (polling) перед отрисовкой каждого кадра. В Unity у каждого объекта есть метод void Update() в котором можно будет опрашивать состояние кнопок и осей и в зависимости от них вносить изменения в поведение игровых объектов.
В качестве примера можно посмотреть на готовый проект Unity который работает как в десктоп-режиме, так и может создать приложение для Windows Store. Это [вертолет](http://tf3dm.com/3d-model/uh60-helicopter-47194.html) который летает среди гор. Скорее конечно не летает, а «плавает» так как полная реализация физики вертолета выходит за рамки этой статьи.

При этом он реагирует на ввод с геймпада с всех осей, DPAD и по нажатию на правый курок «газует» разгоняясь вперед и раскручивая основной и хвостовой винты:
```
void Update ()
{
XInputWrapper.XInputState st=new XInputWrapper.XInputState();
XInputWrapper.XInput.XInputGetState(0, ref st);
if (Mathf.Abs(st.Gamepad.sThumbLY) > XInputWrapper.XInputConstants.XINPUT_GAMEPAD_RIGHT_THUMB_DEADZONE)
{
float rotX_norm = (float)((float)st.Gamepad.sThumbLY / 32767.0f);
transform.RotateAround(transform.position, transform.right, rotX_norm * 20.0f*-1.0f * Time.deltaTime);
}
}
```
С объектом вертолета ассоциирован Box Collider и RigidBody. Это дает возможность получать уведомления о коллизиях с другими обьектами, и собственно тут реализуется вибрация. Как только вертолет сталкивается с горой, геймпад начинает вибрировать треть секунды:
```
void OnTriggerEnter(Collider other)
{
if (!vibrating)
{
XInputWrapper.XInputVibration vibr = new XInputWrapper.XInputVibration();
vibr.LeftMotorSpeed = 65535 / 3;
vibr.RightMotorSpeed = 65535 / 3;
XInputWrapper.XInput.XInputSetState(0, ref vibr);
vibrationStartTime = Time.time;
vibrating = true;
}
}
```
Готовый проект для Unity и исходные коды враппера XInput вы можете скачать по адресу <http://aka.ms/unitygmsmpl> если же вам нужен только враппер, то вы можете скачать архив только с сборками по адресу <http://aka.ms/xinputwrapper>. Их кстати можно использовать не только в проектах Unity но и для десктоп-приложений и приложений магазина Windows, в том числе написанных на языке HTML5/Javascript.
### Полезные ссылки
* [Попробовать Azure](http://l.techdays.ru/go/azuretrial) бесплатно на 30 дней!
+ [Центр разработки Microsoft Azure (azurehub.ru)](http://www.azurehub.ru/) – сценарии, руководства, примеры, рекомендации по разработке
+ [Twitter.com/windowsazure\_ru](http://www.twitter.com/windowsazure_ru) — последние новости Microsoft Azure
+ [Сообщество Microsoft Azure на Facebook](http://www.facebook.com/groups/azurerus/) – эксперты, вопросы
* [Изучить курсы](http://l.techdays.ru/go/mva) виртуальной академии Microsoft по облачным и другим технологиям
+ [Основы построения доменной сети. Часть 2](http://www.microsoftvirtualacademy.com/training-courses/building-domain-network-fundamentals-part2-rus)
+ [Введение в программирование игр на Unity](http://www.microsoftvirtualacademy.com/training-courses/introduction-to-games-programming-on-unity-rus)
+ [Бизнес и облако: лучшие практики решений](http://www.microsoftvirtualacademy.com/training-courses/business-and-cloud-best-practices-solutions-rus)
+ [Гибридное облако Microsoft: Руководство по типовым решениям](http://www.microsoftvirtualacademy.com/training-courses/the-microsoft-hybrid-cloud-best-practices-guidance-rus)
+ [Введение в графическую библиотеку Win2D](http://www.microsoftvirtualacademy.com/training-courses/introduction-to-the-graphics-library-win2d-rus)
* [Загрузить](http://l.techdays.ru/go/getvs) бесплатную или пробную Visual Studio
* [Стать разработчиком](http://l.techdays.ru/go/winstart) универсальных приложений Windows | https://habr.com/ru/post/243021/ | null | ru | null |
# Бескомпромиссный CI-конвейер для питонистов
Любому Python-проекту может пойти на пользу надёжный и стабильный конвейер непрерывной интеграции (Continuous Integration, CI). В рамках таких конвейеров выполняется сборка приложений, запуск тестов, проверка кода линтерами, контроль качества программ, анализ уязвимости приложений. Правда, построение CI-конвейеров занимает много времени, требует выполнения действий, которые, сами по себе, никакой пользы не приносят. Этот материал написан для тех Python-программистов, которым нужен полнофункциональный, настраиваемый CI-конвейер, основанный на GitHub Actions. Этот конвейер оснащён всеми мыслимыми инструментами, подключён ко всем необходимым сервисам, а подготовить его к работе можно всего за несколько минут.
### Быстрый запуск собственного конвейера
Если вы не слишком терпеливы, или просто хотите сразу перейти к делу — вот минимальная конфигурация, необходимая для того, чтобы запустить собственный конвейер:
```
# .github/workflows/python-pipeline.yml
name: CI Pipeline
on: [push, workflow_dispatch]
jobs:
python-ci-pipeline:
uses: MartinHeinz/workflows/.github/workflows/python-container-ci.yml@v1.0.0
with:
PYTHON_VERSION: '3.10'
DEPENDENCY_MANAGER: 'pip'
ENABLE_SONAR: ${{ false }}
ENABLE_CODE_CLIMATE: ${{ false }}
ENABLE_SLACK: ${{ false }}
ENFORCE_PYLINT: ${{ false }}
ENFORCE_BLACK: ${{ false }}
ENFORCE_FLAKE8: ${{ false }}
ENFORCE_BANDIT: ${{ false }}
ENFORCE_DIVE: ${{ false }}
```
Вышеприведённый YAML-код настраивает рабочий процесс (workflow) GitHub Actions, который ссылается на рабочий процесс, подходящий для [повторного использования](https://docs.github.com/en/actions/using-workflows/reusing-workflows) из моего [репозитория](https://github.com/MartinHeinz/workflows/blob/v1.0.0/.github/workflows/python-container-ci.yml). При таком подходе не нужно копировать (а значит — и, позже, поддерживать) большие объёмы YAML-кода с описанием действий, выполняемых в GitHub Actions. Вам, чтобы этим кодом воспользоваться, нужно сохранить его, в виде .yml-файла, в директории `.github/workflows/` вашего репозитория и настроить по своему желанию параметры, перечисленные в разделе конфигурационного файла `with:`.
Все эти параметры (конфигурационные опции) имеют адекватные значения, назначенные по умолчанию. Ни один из них не нуждается в обязательной перенастройке. Поэтому вы, если доверяете моим суждениям, можете опустить весь раздел `with:`. Если же вы хотите настроить их по-своему — можете поступить так, как показано выше, а так же поработать с другими параметрами, которые имеются в [объявлении](https://github.com/MartinHeinz/workflows/blob/v1.0.0/.github/workflows/python-container-ci.yml) рабочего процесса. В файле [README](https://github.com/MartinHeinz/workflows/blob/v1.0.0/README.md) из репозитория можно найти пояснения по поводу того, как находить нужные значения и настраивать идентификационные данные, необходимые, например, для интеграции с сервисами Sonar или CodeClimate. Подробности об этом можно почитать и в следующих разделах этой статьи.
Рассматриваемый здесь рабочий процесс, очевидно, должен опираться на некоторые предположения относительно содержимого вашего репозитория. Поэтому ожидается, что в репозитории будет директория с исходным кодом вашего проекта и файл `Dockerfile`. При этом других требований к репозиторию не предъявляется. Пример того, как может быть устроен подходящий репозиторий, можно посмотреть [здесь](https://github.com/MartinHeinz/pipeline-tester), в моём репозитории, предназначенном для тестирования конвейера.
Вы, наверное, заметили, что в вышеприведённом фрагменте кода, с использованием конструкции `@v1.0.0`, сделана ссылка на конкретную версию рабочего процесса. Это сделано для того чтобы предотвратить случайное использование изменённых вариантов файла, применять которые разработчик не планирует. С учётом вышесказанного — предлагаю вам иногда заглядывать в мой репозиторий на предмет поиска изменений и улучшений моего рабочего процесса и его новых релизов.
### Базовые механизмы
Возможно, сейчас ваш конвейер уже работоспособен, но я предлагаю разобраться с тем, как работают его внутренние механизмы. Это даст вам возможность лучше подстроить его под свои нужды. Начнём с очевидного — с проверки репозитория, с установки кода и с запуска тестов:
```
jobs:
# ... Сокращено ради ясности изложения
- uses: actions/checkout@v1
- uses: actions/setup-python@v1
id: setup-python
with:
python-version: ${{ inputs.PYTHON_VERSION }}
- name: Get cache metadata
id: cache-meta
run: |
# ...
# Найти ключ и путь кеша, основываясь на сведениях об используемом менеджере зависимостей и о его lock-файле
- name: Load cached venv
id: cache
uses: actions/cache@v2
with:
path: ${{ steps.cache-meta.outputs.cache-path }}
key: ${{ steps.cache-meta.outputs.cache-key }}
- name: Install Dependencies
run: |
# ...
# Создать виртуальное окружение, установить зависимости, используя настроенный менеджер зависимостей
- name: Run Tests
run: |
source venv/bin/activate
pytest
```
Выше, ради ясности изложения, приведён сокращённый фрагмент исходного кода. Но, если вы знакомы с GitHub Actions, все шаги, выполняемые здесь, должны быть для вас вполне очевидными. Если не знакомы — не беспокойтесь, так как вам, на самом деле, не нужно это понимать. Самое важное — знать о том, что этот конвейер работает со всеми основными менеджерами зависимостей Python — то есть — с `pip`, `poetry` и `pipenv`. Вам нужно лишь задать значение параметра `DEPENDENCY_MANAGER`, а конвейер сделает всё остальное сам. Это, понятно, предполагает наличие в репозитории файла `requirements.txt`, `poetry.lock` или `Pipfile.lock`.
В этом коде, кроме того, создаётся виртуальное окружение Python, используемое во всём конвейере для создания изолированного окружения, в котором выполняется сборка/тестирование проекта. Это позволяет нам кешировать все зависимости, ускоряя выполнение действий, входящих в состав конвейера. И, в качестве дополнительного плюса, зависимости, до тех пор, пока lock-файл остаётся неизменным, кешируются для всех веток репозитория.
Если говорить о шаге, на котором выполняется тестирование — то тут, для запуска набора тестов, используется `pytest`. Фреймворк `pytest` автоматически находит и использует конфигурационные файлы, имеющиеся в репозитории (понятно, что в том случае, если они есть). Точнее — порядок приоритетности их использования выглядит так: `pytest.ini`, `pyproject.toml`, `tox.ini` или `setup.cfg`.
### Качество кода
Мы уже знаем о том, как решать с помощью CI-конвейера базовые задачи. Но мы хотели бы, чтобы он помог бы нам принимать меры, обеспечивающие высокое качество кода. Существует множество инструментов, которые позволяют обеспечивать чистоту кода и возможность его поддержки. А в наш конвейер входят, в общем-то, все эти инструменты:
```
- name: Verify code style (Black)
uses: psf/black@stable
with:
options: "--verbose ${{ inputs.ENFORCE_BLACK && '--check' || '' }}"
- name: Enforce code style (Flake8)
run: |
source venv/bin/activate
flake8 ${{ inputs.ENFORCE_FLAKE8 && '' || '--exit-zero' }}
- name: Lint code
run: |
source venv/bin/activate
pylint **/*.py # ... Some more conditional arguments
- name: Send report to CodeClimate
uses: paambaati/codeclimate-action@v3.0.0
if: ${{ inputs.ENABLE_CODE_CLIMATE }}
env:
CC_TEST_REPORTER_ID: ${{ secrets.CC_TEST_REPORTER_ID }}
with:
coverageLocations: |
${{github.workspace}}/coverage.xml:coverage.py
- name: SonarCloud scanner
uses: sonarsource/sonarcloud-github-action@master
if: ${{ inputs.ENABLE_SONAR }}
env:
GITHUB_TOKEN: ${{ secrets.GITHUB_TOKEN }}
SONAR_TOKEN: ${{ secrets.SONAR_TOKEN }}
```
Мы начинаем с запуска Black — средства для форматирования Python-кода. Рекомендуется запускать Black с помощью pre-commit-хука, или обрабатывать с его помощью файлы каждый раз, когда их сохраняют локально. Применение Black должно служить лишь способом проверки того, что ничего плохого не заберётся в код, отправленный в репозиторий.
Далее — мы запускаем Flake8 и Pylint. Они обрабатывают код с использованием дополнительных правил стилизации и линтинга. И тот, и другой инструменты поддаются настройке с помощью соответствующих конфигурационных файлов, распознаваемых автоматически. В случае с Flake8 параметры хранятся в файлах `setup.cfg`, `tox.ini` или `.flake8`. Для Pylint это — файлы `pylintrc`, .`pylintrc`, `pyproject.toml`.
Все эти инструменты могут быть переведены в «принудительный» режим (enforcing mode). Это приведёт к тому, что выполнение конвейера завершится с ошибкой в том случае, если инструмент найдёт какую-то проблему. Соответствующие конфигурационные опции выглядят как `ENFORCE_PYLINT`, `ENFORCE_BLACK` и `ENFORCE_FLAKE8`.
Помимо инструментов, специфичных для Python, в конвейер включено и два популярных универсальных инструмента, представленных внешними сервисами. Это — SonarCloud и CodeClimate. И тот и другой — это необязательные инструменты, но я настоятельно рекомендую ими пользоваться, учитывая то, что они поддерживают работу с любыми общедоступными репозиториями. При включении этих средств (с помощью опций `ENABLE_SONAR` и/или `ENABLE_CODE_CLIMATE`) сканер Sonar проведёт анализ кода и отправит результаты в SonarCloud, а CodeClimate возьмёт отчёт о покрытии кода тестами, сгенерированный в процессе работы `pytest`, и автоматически преобразует их в удобный для восприятия вид.
Для того чтобы получить возможность настраивать эти инструменты, включите соответствующие им поля в конфигурационный файл конвейера:
```
jobs:
python-ci-pipeline:
uses: MartinHeinz/workflows/.github/workflows/python-container-ci.yml@v1.0.0
with:
# ...
ENABLE_SONAR: ${{ true }}
ENABLE_CODE_CLIMATE: ${{ true }}
secrets:
SONAR_TOKEN: ${{ secrets.SONAR_TOKEN }}
CC_TEST_REPORTER_ID: ${{ secrets.CC_TEST_REPORTER_ID }}
```
Для того чтобы сгенерировать и задать идентификационные данные — обратитесь к руководствам из файла [README](https://github.com/MartinHeinz/workflows/tree/v1.0.0#configure-sonar).
### Упаковка кода
После того, как мы удостоверимся в том, что код соответствует нашим стандартам — пришло время его упаковать. В данном случае — упаковать в образ контейнера:
```
- name: Login to GitHub Container Registry
uses: docker/login-action@v1
with:
# ... Задать реестр контейнеров, имя пользователя и пароль
- name: Generate tags and image meta
id: meta
uses: docker/metadata-action@v3
with:
images: |
${{ inputs.CONTAINER_REGISTRY }}/${{ steps.get-repo.outputs.repo }}
tags: |
type=ref,event=tag
type=sha
- name: Build image
uses: docker/build-push-action@v2
with:
context: .
load: true # Не выполнять операцию push
tags: ${{ steps.meta.outputs.tags }}
labels: ${{ steps.meta.outputs.labels }}
cache-from: type=registry,ref=${{ inputs.CONTAINER_REGISTRY }}/${{ steps.get-repo.outputs.repo }}:latest
cache-to: type=registry,ref=${{ inputs.CONTAINER_REGISTRY }}/${{ steps.get-repo.outputs.repo }}:latest,mode=max
- name: Analyze image efficiency
uses: MartinHeinz/dive-action@v0.1.3
with:
image: ${{ inputs.CONTAINER_REGISTRY }}/${{ steps.get-repo.outputs.repo }}:${{ steps.meta.outputs.version }}
config: ${{ inputs.DIVE_CONFIG }}
exit-zero: ${{ !inputs.ENFORCE_DIVE }}
- name: Push container image
uses: docker/build-push-action@v2
with:
push: true
# ... Остальное - то же самое, что и при сборке
```
Этот конвейер, по умолчанию, использует реестр контейнеров GitHub Container Registry, являющийся частью вашего репозитория. Если это — то, что вам нужно, то ничего настраивать вам не надо, кроме добавления в репозиторий файла `Dockerfile`.
Если вы предпочитаете пользоваться Docker Hub, или каким-то другим реестром, можете задать параметры `CONTAINER_REGISTRY` и `CONTAINER_REPOSITORY`, а так же — учётные данные в параметрах `CONTAINER_REGISTRY_USERNAME` и `CONTAINER_REGISTRY_PASSWORD` (в разделе настроек конвейера `secrets`). Обо всём остальном позаботится конвейер.
Помимо реализации базовой последовательности действий — вход в систему, сборка проекта, отправка его в репозиторий, этот конвейер генерирует дополнительные метаданные, прикрепляемые к образу. Сюда входит тегирование образа с помощью SHA-хеша и тега `git`, если он имеется.
Для того чтобы ускорить конвейер, на шаге сборки docker-образа тоже используется кеш. Это делается для того, чтобы избежать создания слоёв образа, которые не нужно перестраивать. И наконец, для обеспечения дополнительной эффективности, образ обрабатывается с помощью инструмента Dive, позволяющего оценить эффективность самого образа. Это, кроме того, даёт нам возможность размещения конфигурационных данных в `.dive-ci` и указания пороговых значений для [метрик](https://github.com/wagoodman/dive#ci-integration) Dive. И, как и в случае со всеми остальными инструментами в этом конвейере, Dive тоже можно настроить на работу в «принудительном» режиме, пользуясь опцией `ENFORCE_DIVE`.
### Безопасность
Не будем забывать и о том, что CI-конвейер должен обеспечивать отсутствие уязвимостей в коде. Для решения этой задачи в наш рабочий поток включено ещё несколько инструментов:
```
- name: Code security check
run: |
# ...
bandit -r . --exclude ./venv # ... Ещё немного условных аргументов
- name: Trivy vulnerability scan
uses: aquasecurity/trivy-action@master
with:
image-ref: '${{ inputs.CONTAINER_REGISTRY }}/${{ steps.get-repo.outputs.repo }}:${{ steps.meta.outputs.version }}'
format: 'sarif'
output: 'trivy-results.sarif'
- name: Upload Trivy scan results to GitHub Security tab
uses: github/codeql-action/upload-sarif@v1
with:
sarif_file: 'trivy-results.sarif'
- name: Sign the published Docker image
env:
COSIGN_EXPERIMENTAL: "true"
run: cosign sign ${{ inputs.CONTAINER_REGISTRY }}/${{ steps.get-repo.outputs.repo }}:${{ steps.meta.outputs.version }}
```
Первый из них — это Python-инструмент, называемый Bandit. Он ищет в Python-коде распространённые проблемы безопасности. У него имеется набор правил, задаваемых по умолчанию, но его можно настраивать с помощью конфигурационного файла, указываемого в опции `BANDIT_CONFIG`. Как и другие инструменты, упомянутые выше, Bandit, по умолчанию, работает в режиме, когда конвейер, при обнаружении проблем, не останавливается. Но его можно перевести в «принудительный» режим с помощью опции `ENFORCE_BANDIT`.
Ещё один используемый нами инструмент, нацеленный на поиск уязвимостей, это Trivy от Aqua Security. Он сканирует образ контейнера и выдаёт список уязвимостей, найденных в самом образе. В результате можно обнаружить уязвимости, находящиеся за пределами Python-кода. Затем полученный отчёт выгружается в GitHub Code Scanning, соответствующие данные после этого появляются на закладке репозитория Security.
Отчёт о найденных уязвимостяхТо, что эти инструменты позволяют обеспечить безопасность создаваемого нами приложения — это очень хорошо. Но нам ещё нужен механизм, обеспечивающий доказательство подлинности итогового образа контейнера, что позволит предотвратить так называемые «атаки на цепочку поставок». Для того чтобы это сделать, мы пользуемся инструментом `cosign`, который позволяет подписать образ с помощью OIDC-токена GitHub, который связывает образ с идентификационными данными пользователя, отправившего код в репозиторий. Этому инструменту не нужен какой-либо ключ для генерирования подписи, поэтому работать он будет без дополнительных настроек. Подпись, после её создания, отправляется в реестр контейнеров вместе с образом. Например — в Docker Hub:
Подпись в реестре контейнеровДля того чтобы проверить такую подпись, можно поступить так:
```
docker pull ghcr.io/some-user/some-repo:sha-1dfb324
COSIGN_EXPERIMENTAL=1 cosign verify ghcr.io/some-user/some-repo:sha-1dfb324
# Если не хочется устанавливать cosign...
docker run -e COSIGN_EXPERIMENTAL=1 --rm \
gcr.io/projectsigstore/cosign:v1.6.0 verify \
ghcr.io/some-user/some-repo:sha-1dfb324
...
Verification for ghcr.io/some-user/some-repo:sha-1dfb324 --
The following checks were performed on each of these signatures:
- The cosign claims were validated
- Existence of the claims in the transparency log was verified offline
- Any certificates were verified against the Fulcio roots.
```
Подробности о `cosign` и о подписании образов контейнеров можно почитать [здесь](https://github.blog/2021-12-06-safeguard-container-signing-capability-actions/).
### Уведомления
Последняя небольшая возможность рассматриваемого здесь конвейера — это отправка уведомлений в Slack, выполняемая как для успешных сборок, так и для сборок, завершившихся с ошибкой. Для того чтобы она заработала бы, её нужно активировать с помощью опции `ENABLE_SLACK`. Всё, что нужно сделать — включить в состав настроек веб-хук канала Slack с помощью опции настройки идентификационных данных `SLACK_WEBHOOK`.
Для того чтобы сгенерировать этот веб-хук — загляните в [README](https://github.com/MartinHeinz/workflows/tree/v1.0.0#configure-slack-notification).
Уведомление### Итоги
Пожалуй, это — всё, что нужно, чтобы заставить работать ваш полностью настроенный конвейер, охватывающий все нужды типичного Python-проекта.
Если возможности по настройкам этого конвейера, или его функции не вполне соответствуют вашим нуждам — можете сделать форк моего [репозитория](https://github.com/MartinHeinz/workflows) или отправить обращение с запросом необходимого вам функционала.
В будущем в этом репозитории, помимо дополнительного функционала, может появиться и большее количество настроек для Python (или для других языков). Дело в том, что представленный здесь конвейер нельзя назвать подходящим для абсолютно всех типов приложений. Поэтому, если вам это интересно, заглядывайте иногда в мой репозиторий чтобы узнать о новых релизах моего CI-конвейера.
О, а приходите к нам работать? 🤗 💰Мы в [**wunderfund.io**](http://wunderfund.io/) занимаемся [высокочастотной алготорговлей](https://en.wikipedia.org/wiki/High-frequency_trading) с 2014 года. Высокочастотная торговля — это непрерывное соревнование лучших программистов и математиков всего мира. Присоединившись к нам, вы станете частью этой увлекательной схватки.
Мы предлагаем интересные и сложные задачи по анализу данных и low latency разработке для увлеченных исследователей и программистов. Гибкий график и никакой бюрократии, решения быстро принимаются и воплощаются в жизнь.
Сейчас мы ищем плюсовиков, питонистов, дата-инженеров и мл-рисерчеров.
[Присоединяйтесь к нашей команде.](http://wunderfund.io/#join_us) | https://habr.com/ru/post/675304/ | null | ru | null |
# Saving Routing State to the Disk in a Cross-Platform .NET Core GUI App with ReactiveUI and Avalonia

User interfaces of modern enterprise applications are quite complex. You, as a developer, often need to implement in-app navigation, validate user input, show or hide screens based on user preferences. For better UX, your app should be capable of saving state to the disk when the app is suspending and of restoring state when the app is resuming.
[ReactiveUI](https://reactiveui.net) provides facilities allowing you to persist application state by serializing the view model tree when the app is shutting down or suspending. Suspension events vary per platform. ReactiveUI uses the `Exit` event for WPF, `ActivityPaused` for Xamarin.Android, `DidEnterBackground` for Xamarin.iOS, `OnLaunched` for UWP.
In this tutorial we are going to build a sample application which demonstrates the use of the [ReactiveUI Suspension](https://reactiveui.net/docs/handbook/data-persistence/) feature with [Avalonia](http://avaloniaui.net/) — a cross-platform .NET Core XAML-based GUI framework. You are expected to be familiar with [the MVVM pattern](https://reactiveui.net/docs/handbook/view-models/) and with [reactive extensions](https://reactiveui.net/docs/reactive-programming/) before reading this note. Steps described in the tutorial should work if you are using Windows 10 or Ubuntu 18 and have .NET Core SDK installed. Let's get started! Source code of the app described in this tutorial is available on [GitHub](https://github.com/reactiveui/ReactiveUI.Samples/tree/a7d06759e27fa17f9c6a77018362a2f8e0c30fa6/avalonia).
Bootstrapping the Project
-------------------------
To see ReactiveUI routing in action, we create a new .NET Core project based on Avalonia application templates. Then we install the `Avalonia.ReactiveUI` package. The package provides platform-specific Avalonia lifecycle hooks, [routing](http://avaloniaui.net/api/Avalonia/RoutedViewHost/) and [activation](http://avaloniaui.net/api/Avalonia/AvaloniaActivationForViewFetcher/) infrastructure. Remember to install [.NET Core](https://dotnet.microsoft.com/learn/dotnet/hello-world-tutorial/intro) and [git](https://git-scm.com/downloads) before executing the commands below.
```
git clone https://github.com/AvaloniaUI/avalonia-dotnet-templates
git --git-dir ./avalonia-dotnet-templates/.git checkout 9263c6b
dotnet new --install ./avalonia-dotnet-templates
dotnet new avalonia.app -o ReactiveUI.Samples.Suspension
cd ./ReactiveUI.Samples.Suspension
dotnet add package Avalonia.ReactiveUI
dotnet add package Avalonia.Desktop
dotnet add package Avalonia
```
Let's run the app and ensure it shows a window displaying "Welcome to Avalonia!"
```
# Use .NET Core version which you have installed.
# It can be netcoreapp2.0, netcoreapp2.1 and so on.
dotnet run --framework netcoreapp3.0
```

Installing Avalonia Preview Builds from MyGet
---------------------------------------------
Latest Avalonia packages are published to [MyGet](https://www.myget.org/) each time a new commit is pushed to the `master` branch of the [Avalonia repository](https://github.com/AvaloniaUI/Avalonia/) on GitHub. To use the latest packages from MyGet in our app, we are going to create a [`nuget.config`](https://docs.microsoft.com/ru-ru/nuget/reference/nuget-config-file) file. But before doing this, we generate an `sln` file for the project created earlier, using [.NET Core CLI](https://docs.microsoft.com/ru-ru/dotnet/core/tools/?tabs=netcore2x):
```
dotnet new sln # Ctrl+C
dotnet sln ReactiveUI.Samples.Suspension.sln add ReactiveUI.Samples.Suspension.csproj
```
Now we create the `nuget.config` file with the following content:
```
xml version="1.0" encoding="utf-8"?
```
Usually, a restart is required to force our IDE to detect packages from the newly added MyGet feed, but reloading the solution should help as well. Then, we upgrade Avalonia packages to the most recent version (or at least to `0.9.1`) using the NuGet package manager GUI, or .NET Core CLI:
```
dotnet add package Avalonia.ReactiveUI --version 0.9.1
dotnet add package Avalonia.Desktop --version 0.9.1
dotnet add package Avalonia --version 0.9.1
cat ReactiveUI.Samples.Suspension.csproj
```
The `ReactiveUI.Samples.Suspension.csproj` file should look somewhat like as follows now:
```
WinExe
netcoreapp3.0
%(Filename)
Designer
```
We create two new folders inside the project root directory, named `Views/` and `ViewModels/` respectively. Next, we rename the `MainWindow` class to `MainView` and move it to the `Views/` folder. Remember to rename references to the edited class in the corresponding XAML file, otherwise, the project won't compile. Also, remember to change the namespace for `MainView` to `ReactiveUI.Samples.Suspension.Views` for consistency. Then, we edit two other files, `Program.cs` and `App.xaml.cs`. We add a call to `UseReactiveUI` to the Avalonia app builder, move the app initialization code to the `OnFrameworkInitializationCompleted` method to conform Avalonia [application lifetime management](https://github.com/AvaloniaUI/Avalonia/wiki/Application-lifetimes) guidelines:
**Program.cs**
```
class Program
{
// The entry point. Things aren't ready yet, so at this point
// you shouldn't use any Avalonia types or anything that
// expects a SynchronizationContext to be ready.
public static void Main(string[] args)
=> BuildAvaloniaApp()
.StartWithClassicDesktopLifetime(args);
// This method is required for IDE previewer infrastructure.
// Don't remove, otherwise, the visual designer will break.
public static AppBuilder BuildAvaloniaApp()
=> AppBuilder.Configure()
.UseReactiveUI() // required!
.UsePlatformDetect()
.LogToDebug();
}
```
**App.xaml.cs**
```
public class App : Application
{
public override void Initialize() => AvaloniaXamlLoader.Load(this);
// The entrypoint for your application. Here you initialize your
// MVVM framework, DI container and other components. You can use
// the ApplicationLifetime property here to detect if the app
// is running on a desktop platform or on a mobile platform (WIP).
public override void OnFrameworkInitializationCompleted()
{
new Views.MainView().Show();
base.OnFrameworkInitializationCompleted();
}
}
```
Before attempting to build the project, we ensure the `using Avalonia.ReactiveUI` directive is added to the top of the `Program.cs` file. Most likely our IDE has already imported that namespace, but if it didn't, we'll get a compile-time error. Finally, it's time to ensure the app compiles, runs, and shows up a new window:
```
dotnet run --framework netcoreapp2.1
```

Cross-platform ReactiveUI Routing
---------------------------------
There are two general approaches of organizing in-app navigation in a cross-platform .NET app — view-first and view model-first. The former approach assumes that the View layer manages the navigation stack — for example, using platform-specific [Frame](https://docs.microsoft.com/en-us/uwp/api/windows.ui.xaml.controls.frame) and [Page](https://docs.microsoft.com/en-us/uwp/api/windows.ui.xaml.controls.page) classes. With the latter approach, the view model layer takes care of navigation via a platform-agnostic abstraction. ReactiveUI tooling is built keeping the view model-first approach in mind. ReactiveUI routing consists of an `IScreen` implementation, which contains the current routing state, several `IRoutableViewModel` implementations and a platform-specific XAML control called `RoutedViewHost`.

The `RoutingState` object encapsulates navigation stack management. `IScreen` is the navigation root, but despite the name, it doesn't have to occupy the whole screen. `RoutedViewHost` reacts to changes in the bound `RoutingState` and embeds the appropriate view for the currently selected `IRoutableViewModel`. The described functionality will be illustrated with more comprehensive examples later.
Persisting View Model State
---------------------------
Consider a search screen view model as an example.

We are going to decide, which properties of the view model to save on application shutdown and which ones to recreate. There is no need to save the state of a [reactive command](https://reactiveui.net/docs/handbook/data-persistence/) which implements the `ICommand` interface. `ReactiveCommand` class is typically initialized in the constructor, its `CanExecute` indicator usually fully depends on view model properties and gets recalculated each time any of those properties change. It's debatable if you were to keep the search results, but saving the search query is a good idea.
**ViewModels/SearchViewModel.cs**
```
[DataContract]
public class SearchViewModel : ReactiveObject, IRoutableViewModel
{
private readonly ReactiveCommand \_search;
private string \_searchQuery;
// We inject the IScreen implementation via the constructor.
// If we receive null, we use Splat.Locator to resolve the
// default implementation. The parameterless constructor is
// required for the deserialization feature to work.
public SearchViewModel(IScreen screen = null)
{
HostScreen = screen ?? Locator.Current.GetService();
// Each time the search query changes, we check if the search
// query is empty. If it is, we disable the command.
var canSearch = this
.WhenAnyValue(x => x.SearchQuery)
.Select(query => !string.IsNullOrWhiteSpace(query));
// Buttons bound to the command will stay disabled
// as long as the command stays disabled.
\_search = ReactiveCommand.CreateFromTask(
() => Task.Delay(1000), // emulate a long-running operation
canSearch);
}
public IScreen HostScreen { get; }
public string UrlPathSegment => "/search";
public ICommand Search => \_search;
[DataMember]
public string SearchQuery
{
get => \_searchQuery;
set => this.RaiseAndSetIfChanged(ref \_searchQuery, value);
}
}
```
We mark the entire view model class with the `[DataContract]` attribute, annotate properties we are going to serialize with the `[DataMember]` attribute. This is enough if we are going to use opt-in serialization mode. Considering serialization modes, opt-out means that all public fields and properties will be serialized, unless you explicitly ignore them by annotating with the `[IgnoreDataMember]` attribute, opt-in means the opposite. Additionally, we implement the `IRoutableViewModel` interface in our view model class. This is required while we are going to use the view model as a part of a navigation stack.
**Implementation details for login view model**
**ViewModels/LoginViewModel.cs**
```
[DataContract]
public class LoginViewModel : ReactiveObject, IRoutableViewModel
{
private readonly ReactiveCommand \_login;
private string \_password;
private string \_username;
// We inject the IScreen implementation via the constructor.
// If we receive null, we use Splat.Locator to resolve the
// default implementation. The parameterless constructor is
// required for the deserialization feature to work.
public LoginViewModel(IScreen screen = null)
{
HostScreen = screen ?? Locator.Current.GetService();
// When any of the specified properties change,
// we check if user input is valid.
var canLogin = this
.WhenAnyValue(
x => x.Username,
x => x.Password,
(user, pass) => !string.IsNullOrWhiteSpace(user) &&
!string.IsNullOrWhiteSpace(pass));
// Buttons bound to the command will stay disabled
// as long as the command stays disabled.
\_login = ReactiveCommand.CreateFromTask(
() => Task.Delay(1000), // emulate a long-running operation
canLogin);
}
public IScreen HostScreen { get; }
public string UrlPathSegment => "/login";
public ICommand Login => \_login;
[DataMember]
public string Username
{
get => \_username;
set => this.RaiseAndSetIfChanged(ref \_username, value);
}
// Note: Saving passwords to disk isn't a good idea.
public string Password
{
get => \_password;
set => this.RaiseAndSetIfChanged(ref \_password, value);
}
}
```
The two view models implement the `IRoutableViewModel` interface and are ready to be embedded into a navigation screen. Now it's time to implement the `IScreen` interface. Again, we use `[DataContract]` attributes to indicate which parts to serialize and which ones to ignore. In the example below, the `RoutingState` property setter is deliberately declared as public — this allows our serializer to modify the property when it gets deserialized.
**ViewModels/MainViewModel.cs**
```
[DataContract]
public class MainViewModel : ReactiveObject, IScreen
{
private readonly ReactiveCommand \_search;
private readonly ReactiveCommand \_login;
private RoutingState \_router = new RoutingState();
public MainViewModel()
{
// If the authorization page is currently shown, then
// we disable the "Open authorization view" button.
var canLogin = this
.WhenAnyObservable(x => x.Router.CurrentViewModel)
.Select(current => !(current is LoginViewModel));
\_login = ReactiveCommand.Create(
() => { Router.Navigate.Execute(new LoginViewModel()); },
canLogin);
// If the search screen is currently shown, then we
// disable the "Open search view" button.
var canSearch = this
.WhenAnyObservable(x => x.Router.CurrentViewModel)
.Select(current => !(current is SearchViewModel));
\_search = ReactiveCommand.Create(
() => { Router.Navigate.Execute(new SearchViewModel()); },
canSearch);
}
[DataMember]
public RoutingState Router
{
get => \_router;
set => this.RaiseAndSetIfChanged(ref \_router, value);
}
public ICommand Search => \_search;
public ICommand Login => \_login;
}
```
In our main view model, we save only one field to the disk — the one of type `RoutingState`. We don't have to save the state of reactive commands, as their availability fully depends on the current state of the router and reactively changes. To be able to restore the router to the exact state it was in, we include extended type information of our `IRoutableViewModel` implementations when serializing the router. We will use `TypenameHandling.All` setting of [Newtonsoft.Json](https://www.newtonsoft.com/json) to achieve this later. We put the `MainViewModel` into the `ViewModels/` folder, adjust the namespace to be `ReactiveUI.Samples.Suspension.ViewModels`.

Routing in an Avalonia App
--------------------------
For the moment, we've implemented the presentation model of our application. Later, the view model classes could be extracted into a separate assembly targeting [.NET Standard](https://docs.microsoft.com/en-us/dotnet/standard/net-standard), so the core part of our app could be reused across multiple .NET GUI frameworks. Now it's time to implement the Avalonia-specific GUI part of our app. We create two files in the `Views/` folder, named `SearchView.xaml` and `SearchView.xaml.cs` respectively. These are the two parts of a single search view — the former one is the UI described declaratively in XAML, and the latter one contains C# code-behind. This is essentially the view for the search view model created earlier.
The XAML dialect used in Avalonia should feel immediately familiar for developers coming from WPF, UWP or XF. In the example above we create a simple layout containing a text box and a button which triggers the search. We bind properties and commands from the `SearchViewModel` to controls declared in the `SearchView`.
**Views/SearchView.xaml**
```
```
**Views/SearchView.xaml.cs**
```
public sealed class SearchView : ReactiveUserControl
{
public SearchView()
{
// The call to WhenActivated is used to execute a block of code
// when the corresponding view model is activated and deactivated.
this.WhenActivated((CompositeDisposable disposable) => { });
AvaloniaXamlLoader.Load(this);
}
}
```
WPF and UWP developers may find code-behind for the `SearchView.xaml` file familiar as well. A call to [`WhenActivated`](https://reactiveui.net/docs/handbook/when-activated/) is added to execute view activation logic. The disposable coming as the first argument for `WhenActivated` is disposed when the view is deactivated. If your application is using *hot observables* (e.g. positioning services, timers, event aggregators), it'd be a wise decision to attach the subscriptions to the `WhenActivated` composite disposable by adding a `DisposeWith` call, so the view will unsubscribe from those hot observables and memory leaks won't take place.
**Implementation details for login view**
**Views/LoginView.xaml**
```
```
**Views/LoginView.xaml.cs**
```
public sealed class LoginView : ReactiveUserControl
{
public LoginView()
{
this.WhenActivated(disposables => { });
AvaloniaXamlLoader.Load(this);
}
}
```
We edit the `Views/MainView.xaml` and `Views/MainView.xaml.cs` files. We add the `RoutedViewHost` control from `Avalonia.ReactiveUI` namespace to the main window XAML layout and bind the `Router` property of `MainViewModel` to the `RoutedViewHost.Router` property. We add two buttons, one opens the search page and another one opens the authorization page.
**Views/MainView.xaml**
```
```
**Views/MainView.xaml.cs**
```
public sealed class MainView : ReactiveWindow
{
public MainView()
{
this.WhenActivated(disposables => { });
AvaloniaXamlLoader.Load(this);
}
}
```
A simple [Avalonia](http://avaloniaui.net/) and [ReactiveUI](https://reactiveui.net/) routing demo app is ready now. When a user presses the search or login buttons, a command which triggers navigation is invoked and the `RoutingState` gets updated. The `RoutedViewHost` XAML control observes the routing state, attempts to resolve the appropriate `IViewFor` implementation from [`Locator.Current`](https://reactiveui.net/docs/handbook/dependency-inversion/). If an `IViewFor` implementation is registered, then a new instance of the control is created and embedded into the Avalonia window.

We register our `IViewFor` and `IScreen` implementations in the `App.OnFrameworkInitializationCompleted` method, using `Locator.CurrentMutable`. Registering `IViewFor` implementations is required for `RoutedViewHost` control to work. Registering an `IScreen` allows our `SearchViewModel` and `LoginViewModel` to property initialize during deserialization, using the parameterless constructor.
**App.xaml.cs**
```
public override void OnFrameworkInitializationCompleted()
{
// Here we register our view models.
Locator.CurrentMutable.RegisterConstant(new MainViewModel());
Locator.CurrentMutable.Register>(() => new SearchView());
Locator.CurrentMutable.Register>(() => new LoginView());
// Here we resolve the root view model and initialize main view data context.
new MainView { DataContext = Locator.Current.GetService() }.Show();
base.OnFrameworkInitializationCompleted();
}
```
Let's launch our application and ensure routing performs as it should. If something goes wrong with the XAML UI markup, [Avalonia XamlIl compiler](https://github.com/kekekeks/XamlIl) will notify us about any errors at compile time. Moreover, XamlIl supports [debugging XAML](https://twitter.com/kekekeks/status/1119530502564847617)!
```
dotnet run --framework netcoreapp3.0
```

Saving and Restoring Application State
--------------------------------------
Now it's time to implement the suspension driver responsible for saving and restoring app state when the app is suspending and resuming. The platform-specific `AutoSuspendHelper` class takes care of initializing things, you, as a developer, only need to create an instance of it in the app composition root. Also, you need to initialize the `RxApp.SuspensionHost.CreateNewAppState` factory. If the app has no saved data, or if the saved data is corrupt, [ReactiveUI](https://reactiveui.net/) invokes that factory method to create a default instance of the application state object.
Then, we invoke the `RxApp.SuspensionHost.SetupDefaultSuspendResume` method, and pass a new instance of `ISuspensionDriver` to it. Let's implement the `ISuspensionDriver` interface using [Newtonsoft.Json](https://www.newtonsoft.com/json) and classes from the `System.IO` namespace.
```
dotnet add package Newtonsoft.Json
```
**Drivers/NewtonsoftJsonSuspensionDriver.cs**
```
public class NewtonsoftJsonSuspensionDriver : ISuspensionDriver
{
private readonly string _file;
private readonly JsonSerializerSettings _settings = new JsonSerializerSettings
{
TypeNameHandling = TypeNameHandling.All
};
public NewtonsoftJsonSuspensionDriver(string file) => _file = file;
public IObservable InvalidateState()
{
if (File.Exists(\_file))
File.Delete(\_file);
return Observable.Return(Unit.Default);
}
public IObservable LoadState()
{
var lines = File.ReadAllText(\_file);
var state = JsonConvert.DeserializeObject(lines, \_settings);
return Observable.Return(state);
}
public IObservable SaveState(object state)
{
var lines = JsonConvert.SerializeObject(state, \_settings);
File.WriteAllText(\_file, lines);
return Observable.Return(Unit.Default);
}
}
```
The described approach has a drawback — some `System.IO` classes won't work with the UWP framework, UWP apps run in a sandbox and do things differently. That's rather easy to resolve — all you need to do is to use `StorageFile` and `StorageFolder` classes instead of `File` and `Directory` when targeting UWP. To read navigation stack from disk, a suspension driver should support deserializing JSON objects into concrete `IRoutableViewModel` implementations, that's why we use the `TypeNameHandling.All` Newtonsoft.Json serializer setting. We register the suspension driver in the app composition root, in the `App.OnFrameworkInitializationCompleted` method:
```
public override void OnFrameworkInitializationCompleted()
{
// Initialize suspension hooks.
var suspension = new AutoSuspendHelper(ApplicationLifetime);
RxApp.SuspensionHost.CreateNewAppState = () => new MainViewModel();
RxApp.SuspensionHost.SetupDefaultSuspendResume(new NewtonsoftJsonSuspensionDriver("appstate.json"));
suspension.OnFrameworkInitializationCompleted();
// Read main view model state from disk.
var state = RxApp.SuspensionHost.GetAppState();
Locator.CurrentMutable.RegisterConstant(state);
// Register views.
Locator.CurrentMutable.Register>(() => new SearchView());
Locator.CurrentMutable.Register>(() => new LoginView());
// Show the main window.
new MainView { DataContext = Locator.Current.GetService() }.Show();
base.OnFrameworkInitializationCompleted();
}
```
The `AutoSuspendHelper` class from the `Avalonia.ReactiveUI` package sets up lifecycle hooks for your application, so the ReactiveUI framework will be aware of when to write application state to disk, using the provided `ISuspensionDriver` implementation. After we launch our application, the suspension driver will create a new JSON file named `appstate.json`. After we make changes in the UI (e.g. type somewhat into the text fields, or click any button) and then close the app, the `appstate.json` file will look similar to the following:
**appstate.json**
Note, that each JSON object in the file contains a `$type` key with a fully qualified type name, including namespace.
```
{
"$type": "ReactiveUI.Samples.Suspension.ViewModels.MainViewModel, ReactiveUI.Samples.Suspension",
"Router": {
"$type": "ReactiveUI.RoutingState, ReactiveUI",
"_navigationStack": {
"$type": "System.Collections.ObjectModel.ObservableCollection`1[[ReactiveUI.IRoutableViewModel, ReactiveUI]], System.ObjectModel",
"$values": [
{
"$type": "ReactiveUI.Samples.Suspension.ViewModels.SearchViewModel, ReactiveUI.Samples.Suspension",
"SearchQuery": "funny cats"
},
{
"$type": "ReactiveUI.Samples.Suspension.ViewModels.LoginViewModel, ReactiveUI.Samples.Suspension",
"Username": "worldbeater"
}
]
}
}
}
```
If you close the app and then launch it again, you'll see the same content on the screen as you've seen before! The described functionality works on each platform supported by [ReactiveUI](https://reactiveui.net/), including UWP, WPF, Xamarin Forms or Xamarin Native.

**Bonus:** The `ISuspensionDriver` interface can be implemented using [Akavache](https://github.com/reactiveui/Akavache) — an asynchronous, persistent key-value store. If you store your data in either the `UserAccount` section or the `Secure` section, then on iOS and UWP your data will be [backed up automatically to the cloud](https://github.com/reactiveui/Akavache#the-magic) and will be available across all devices on which the app is installed. Also, a `BundleSuspensionDriver` exists in the `ReactiveUI.AndroidSupport` package. Xamarin.Essentials [SecureStorage APIs](https://docs.microsoft.com/en-us/xamarin/essentials/secure-storage?tabs=android) could be used to store data as well. You can also store your app state on a remote server or in a platform-independent cloud service.
Useful Links
------------
* Source code of the described app is available on [GitHub](https://github.com/reactiveui/ReactiveUI.Samples/tree/a7d06759e27fa17f9c6a77018362a2f8e0c30fa6/avalonia).
* See [Avalonia documentation](http://avaloniaui.net/docs/) to start learning the framework.
* Read [ReactiveUI Handbook](https://reactiveui.net/docs/handbook/) to discover more awesome features. | https://habr.com/ru/post/462307/ | null | en | null |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.