text
stringlengths
20
1.01M
url
stringlengths
14
1.25k
dump
stringlengths
9
15
lang
stringclasses
4 values
source
stringclasses
4 values
# Разговорный бот на php+prolog #### Введение Многие считают, что язык программирования prolog является сугубо научным и устаревшим языком для обучения студентов. Большинство в университете «напрягали» именно этим языком на предметах, хоть немного приближенных к теме искусственного интеллекта, эта тема не обошла и меня. Стандартная задача, которая мне попалась – оказалась настолько скучной и распространенной для этого языка, что был соблазн «скачать готовую бесплатно без регистрации», но я решил вынести максимум из этого курса и повернуть тему пролога, для написания чего-нибудь практически значимого и интересного. Прочитав достаточно много разной документации, в том числе и посты на хабре о prolog, я пришел к выводу, что пролог является отличным инструментом для обработки предложений формального языка. Я решил, что было бы круто – написать бота, который бы умел отвечать на фразы (может быть даже складно) вконтакте. #### Реализация Первым делом я написал основной функционал бота, т.е. интерфейс, позволяющий мне, как админу — посылать команды для выполнения боту. Список текущих команд: ``` $commands = array('выйди', 'слушать', 'up', 'uptime', 'аптайм', 'last'); ``` Собственно, каждая команда говорит сама за себя. Остановиться следует на двух командах: * слушать %текст% сообщает боту, что нужно поставить в статус песню, где исполнитель – название = %текст%. К делу вообще не относится, просто стало любопытно. * И last – отображает последнее сообщение, отправленное боту. И пользователя, который его отправил. Выглядит это так: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/95e/f99/10f/95ef9910fe84aa955115bf211abcc2ca.png) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/593/500/cf0/593500cf096e57cf1cf8dbc773a806d0.png) Все это делалось в рамках обработки входящих сообщений. Далее, обработка сообщений не от админа, т.е. предложения, которые требуют ответа. Вот тут в дело входит prolog. А точнее, swi-prolog, реализация которого имеется как для windows ( там разрабатывалась ), так и для \*nix (там работает сейчас). Так же плюс swi-prolog в том, что он – интерпретируемый. Следовательно, нужно просто скормить файл со скриптом интерпретатору swi и поймать результат. При этом запомнить входную фразу, и при имеющейся результирующей фразе – записать эту связку в файл. Лист масок лучше представить на примере, для входной строки: ``` Привет, как твои дела? ``` список масок будет выглядеть как: ``` ['*привет*','привет*','*привет','*как*','как*','*как','*твои*','твои*','*твои','*дела*','дела*','*дела’] ``` При этом мы должны запомнить, что это именно вопрос. Для этого список масок обрамляем предикатом request, и сохраняем в файл. Пример: ``` request(‘?’,['*привет*','привет*','*привет','*как*','как*','*как','*твои*','твои*','*твои','*дела*','дела*','*дела’]). ``` Далее, запускаем скрипт, описание алгоритма которого сводится к нескольким строчкам: * Читаем предикат из входного файла (тот самый request) ``` consult('request.txt') ``` А для того, чтобы текст в файле воспринимался как набор предикатов, нужно добавить описание динамических предикатов где-нибудь в заголовке: ``` :-dynamic(request/2). ``` * Читаем базу знаний и получаем список вопросов-ответов и список вопросов без ответов. ``` :-dynamic(question/2). :-dynamic(answer/2). :-dynamic(notanswered/1). :-consult('questionanswerlink.txt'). :-consult('withoutanswer.txt'). ``` * Ищем вопрос\ответ ``` goal2 :- toFile, consult('request.txt'), request(Type, KeyWords),%получаем вопрос и тип вопроса twoFindAllByType(Type, KeyWords, ActualByType), % моя функция, которая получает список строк обратных типу (если тип - вопрос, вернется утвердительное, и наоборот) и в которых имеются KeyWords (наши ключевые маски). str(ActualByType, ActualPhrasesString),%строка из списка toFile(ActualPhrasesString),fail.%запись в файл ``` * если ответ не найден — берем случайный вопрос из списка вопросов (на которых нет ответа) ``` noAnswer :- toFile, consult('request.txt'), %читаем файл request(Type, _), %для каждого предиката берем тип twoAsk(Type, Res),%получаем не отвеченные вопросы str(Res, ActualPhrasesString),write(ActualPhrasesString), %перерабатываем список в строку и сохраняем в файл toFile(S),fail. ``` * Записываем результат другой файл (обычно, результат — несколько фраз) ##### Дополнительные функции: Список в строку ``` str([], _). %для пустого списка - ничего str([H|[]], S):- %для последнего элемента string_concat('', H, S),!. %конкатенация последнего элемента (H) с остальным результатом S и остановка ! str([H|_], String) :- % Для верхнего элемента в списке string_concat(H, '', S),%конкатенация его с S String = S. %отдаем результат в String ``` Сохранение в файл данных ``` toFile(Data) :- open('output.txt', append, OS), toFile(OS, Data). toFile:- open('output.txt', write, OS), close(OS). toFile(OS, Data) :- write(OS,Data), nl(OS), false. toFile(OS, _) :- close(OS). ``` Ну и получение не отвеченных вопросов: ``` twoAsk('.', Res):- %работает только для утвердительных входных вопросов notanswered(R),Res = [R|Res]. %Для каждого предиката notanswered("какой-то вопрос") добавляем его в голову списка Res. ``` Собственно это все, чем занимается скрипт на prolog. Остальные вещи довольно просты: берем случайную строку из результирующего файла, и отдаем её пользователю, заодно записываем вопрос-ответ в файл БЗ. Так же, если бот задал вопрос, а ответа не прозвучало – этот вопрос записывается в базу вопросов, на которых так и не было дано ответа. #### Результат Наверно, это самая ожидаемая часть статьи. Даже учитывая то, что этот вариант бота был написан за 3 дня, с учетом алгоритма вывода фраз, результат может выдавать фразы, зависящие от контекста разговора (иногда). Но, особенно точно он отвечает, при наличии уникальных\малоиспользуемых фраз (оно и понятно). Алгоритм бота – очень кривой, особенно та часть, которая должна быть «умной». К слову сказать, чтобы немного обучить бота, пришлось идти на некоторые неудобства. Например, пару раз писал от имени бота в группах, где девушки продают себя или фотографируют и продают фотографии. Это подействовало, и, как и следовало ожидать – распределение по полу: 98% мужчины, 2% остальные. Но это дало некоторый негативный эффект. Бот начал писать как от имени мужчин, так и от имени женщин. Это путало пользователей, и в итоге в базе знаний содержится достаточно много вопросов, содержащих слова «пол» «твой» «какой» и тому подобные. Но даже учитывая эти неудобства, люди продолжали общаться с ботом, даже не смотря — на высокую скорость ответа (пол секунды — секунда, особенно для знакомых фраз), повторы сообщений, ответы невпопад. Некоторым людям просто необходимо общение, даже если оно не натуральное. А совсем недавно нас даже начали узнавать: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/686/0f1/864/6860f1864fa768782e4f3fd8762a5fb8.jpg) Иногда бот выдавал философские фразы, над которыми можно думать очень долго смотря на небо: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/a0c/a25/08c/a0ca2508c8611ab5f90076036f49cd94.jpg) или нет ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e5b/538/72a/e5b53872a633f32541795b9a0fe1bc46.jpg) Иногда, правда, проскакивает абсолютный бред. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/d25/0dd/325/d250dd32555d7d4c7c02ca5206a687c8.jpg) Но даже так за этим весело следить: вовремя исправился: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e16/403/662/e16403662aced0f0b7cb022d65c02580.png) самой интересно стало: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/bea/4b8/8a0/bea4b88a0cd6e7b223674144071cb76b.jpg) Кроме аккаунта бота, я создал заодно и публичную страницу, на которую отсылал скриншоты наиболее занимательных диалогов, и, большинство диалогов можно прочитать написав в гугле “бот баба vk”, строго +18. Их уже набралось около 150ти. Кстати, если эту статью читают гуру prolog, может они преподадут мне пару уроков, или можно, например, вместе поработать для создания более умного алгоритма работы, конечно, если это кому-то интересно. К величайшему сожалению – текущий алгоритм не позволяет боту обслуживать даже 10 клиентов (очень с трудом), бывает, что процесс обработки прерывается на пару минут, перебирая большую базу знаний с большим количеством входных масок. Поэтому ссылку на самого бота могу дать только паре человек и исключительно в ЛС. Спасибо, что дочитали до этого момента.
https://habr.com/ru/post/205418/
null
ru
null
# Базовый принцип программирования управляемой формы в 1С Цель статьи – показать применение шаблонов [Remote Facade](http://martinfowler.com/eaaCatalog/remoteFacade.html) и [Data Transfer Object](http://martinfowler.com/eaaCatalog/dataTransferObject.html) к структуризации кода, управляемой формы в среде 1С 8.2. #### Введение Начнем с небольшого описания понятия «управляемая форма» и связанных концепций платформы 1С. Знатоки платформы могут пропустить этот раздел. В 2008 году стала доступна новая версия платформы 1С: Предприятие 8.2 (далее Управляемое приложение), которая полностью меняет весь слой работы с интерфейсом. Сюда относится и командный интерфейс, и формы, и оконная система. При этом не только меняется модель разработки пользовательского интерфейса в конфигурации, но и предлагается новая архитектура разделения функциональности между клиентским приложением и сервером. Управляемое приложение поддерживает следующие типы клиентов: * Толстый клиент (обычный и управляемый режим запуска) * Тонкий клиент * Веб-клиент В управляемом приложении используются формы, построенные на новой технологии. Они называются **Управляемые формы**. Для облегчения перехода прежние формы (т.н. Обычные формы) также поддерживаются, но их функциональность не развивается и они доступны только в режиме запуска толстого клиента. Основные отличия управляемых форм для разработчика: * Декларативное, а не «по пикселям» описание структуры. Конкретное размещение элементов выполняется системой автоматически при отображении формы. * Вся функциональность формы описывается в виде **реквизитов** и **команд**. Реквизиты – это данные, с которыми работает форма, а команды – выполняемые действия. * Форма выполняется и на сервере и на клиенте. * В контексте клиента, недоступны практически все прикладные типы, и соответственно невозможно изменить данные в информационной базе. * Для каждого метода или переменной формы обязательно должна быть указана **директива компиляции**, определяющая, место выполнения (клиент или сервер) и доступ к контексту формы. Перечислим директивы компиляции методов формы: * &НаКлиенте * &НаСервере * &НаСервереБезКонтекста * &НаКлиентеНаСервереБезКонтекста Проиллюстрируем перечисленное. На скриншоте пример управляемой формы и ее модуля в режиме разработки. Найдите декларативное описание, реквизиты, директивы компиляции и т.д. ![](https://habrastorage.org/r/w1560/storage1/fd4afb20/f055b07f/c8012a79/67333d21.png) Все дальнейшие рассуждения будут о правой части иллюстрации, о том, как структурировать код модуля и какие принципы позволят реализовать эффективное клиент-серверное взаимодействие. #### Обозначим проблему Прошло уже несколько лет как новая версия платформы 1С активно используется и выпущено множество решений (конфигураций) как фирмой 1С, так и ее многочисленными партнерами. Сложилось ли за это время у разработчиков единое понимание принципов клиент-серверного взаимодействия при создании форм, и изменился ли подход к реализации программных модулей в новых архитектурных реалиях? Рассмотрим структуру кода (модуль формы) в нескольких формах одной типовой конфигурации и попробуем найти закономерности. Под структурой будем понимать секции кода (чаще всего это блоки комментариев) выделенные разработчиком для группировки методов и директивы компиляции этих методов. Пример 1: ``` Секция обработчиков событий Метод – наклиенте Метод – насервере Метод - наклиенте Секция служебных процедур и функций Вспомогательные функции управления вводом ``` Пример 2: ``` Служебные процедуры и функции Документы оплаты Ценности Обработчики событий ``` Пример 3: ``` Служебные процедуры на сервере Служебные процедуры на клиенте Служебные процедуры на сервере без контекста Обработчики событий шапки Обработчики событий команд ``` Пример 4: ``` Процедуры общего назначения Обработчики событий формы Процедуры подсистемы «контактная информация» ``` По сути, структура кода отсутствует, или мягче говоря, она аналогична тому, что было в формах 8.1: * Неинформативные слова «Общие, Служебные, Вспомогательные». * Робкие попытки разделить клиентские и серверные методы. * Часто методы группируются по интерфейсным элементам «Работа с табличной частью Товары, Контактной информацией». * Произвольное расположение методов и групп кода. Например, Обработчики событий могут быть в одной форме вверху, в другой внизу, в третьей вообще не выделены и т.д. * И не будем забывать, что это все в рамках одной конфигурации. * Да бывают конфигурации, в которых слова «Общие, Служебные, Вспомогательные» всегда находятся на одних и тех же местах но… ##### Зачем нужна структура кода? * **Упрощение сопровождения.** * **Упрощение обучения.** * **Фиксация общих/важных/удачных принципов.** * **…ваш вариант** ##### Почему существующий стандарт разработки от фирмы 1С не помогает? Посмотрим опубликованные на дисках ИТС и в различных «Пособиях разработчика…» принципы, рекомендуемые при написании управляемой формы. * Минимизируйте число серверных вызовов. * Максимум вычислений на сервере. * Неконтекстные вызовы сервера быстрее контекстных. * Программируйте с учетом клиент-серверного взаимодействия. * и т.п. Это лозунги, абсолютно верные, но как их реализовать? Как минимизировать число вызовов, что значит программировать в клиент-серверном режиме? #### Шаблоны проектирования или мудрость поколений Клиент-серверное взаимодействие используется в различных программных технологиях не один десяток лет. Ответ на обозначенные в предыдущем разделе вопросы давно известен и суммирован в двух базовых принципах. * **[Remote Facade](http://martinfowler.com/eaaCatalog/remoteFacade.html)** (далее Интерфейс удаленного доступа) * **[Data Transfer Object](http://martinfowler.com/eaaCatalog/dataTransferObject.html)** (далее Объект переноса данных) Слово [Мартину Фаулеру](http://martinfowler.com/), его описание данных принципов: * … *каждый объект, потенциально предназначенный для удаленного доступа, должен иметь **интерфейс с низкой степенью детализации**, что позволит максимально уменьшить количество вызовов, необходимых для выполнения определенной процедуры. … Вместо того, чтобы запрашивать счёт и все его пункты отдельно, надо считать и обновить все пункты счёта за одно обращение. Это влияет на всю структуру объекта.…Запомните: интерфейс удаленного доступа **не содержит логики домена**.* * *…если бы я был заботливой мамой, то обязательно сказал бы своему ребенку: «Никогда не пиши объекты переноса данных!» В большинстве случаев объекты переноса данных представляют собой не более чем **раздутый набор полей** … Ценность этого омерзительного монстра состоит исключительно в возможности **передавать по сети несколько элементов информации за один вызов** — прием, который имеет большое значение для распределенных систем.* ##### Примеры шаблонов в платформе 1С Прикладной программный интерфейс доступный разработчику при разработке управляемой формы, содержит много примеров данных принципов. Например метод ОткрытьФорму(), типичный «огрубленный» интерфейс. ``` ПараметрыОткрытия = Новый Структура("Параметр1, Параметр2, Параметр3", Значение1, Значение2, Значение3); Форма = ОткрытьФорму(ИмяФормы, ПараметрыОткрытия); ``` Сравните с принятым в v8.1 стилем. ``` Форма = ПолучитьФорму(ИмяФормы); Форма.Параметр1 = Значение1; Форма.Параметр2 = Значение2; Форма.Открыть(); ``` В контексте управляемой формы множество «Объектов переноса данных». Можно выделить **системные** и **определяемые разработчиком**. Системные моделируют на клиенте прикладной объект, в виде одного или несколько элементов данных формы. Создать их вне привязки к реквизитам формы нельзя. * ДанныеФормыСтруктура * ДанныеФормыКоллекция * ДанныеФормыСтруктураСКоллекцией * ДанныеФормыДерево Преобразование системных объектов переноса данных в прикладные типы и обратно выполняется методами: * ЗначениеВДанныеФормы() * ДанныеФормыВЗначение() * КопироватьДанныеФормы() * ЗначениеВРеквизитФормы() * РеквизитФормыВЗначение() Часто явное преобразование используется при адаптации существующего решения. Методы могут ожидать (использовать особенности) входные параметры, например ТаблицаЗначений, а не ДанныеФормыКоллекция, или метод был определен в контексте прикладного объекта и стал недоступен для прямого вызова из формы. Пример 1С v8.1: ``` // на клиенте в контексте формы ЗаполнитьКэшПользователей(ПодразделениеСсылка) ``` Пример 1С v8.2: ``` // на сервере в контексте формы ОбработкаОбъект = РеквизитФормыВЗначение("Объект"); ОбработкаОбъект.ЗаполнитьКэшПользователей(ПодразделениеСсылка); ЗначениеВРеквизитФормы(ОбработкаОбъект, "Объект"); ``` Объекты переноса данных, структура которых определяется разработчиком это небольшое подмножество типов доступных и на клиенте и на сервере. Наиболее часто в качестве параметров и результатов методов «огрубленного» интерфейса используются: * Примитивные типы (строка, число, булево) * Структура * Соответствие * Массив * Ссылки на прикладные объекты (уникальный идентификатор и текстовое представление) Пример: метод принимает список заказов для изменения статуса и возвращает клиенту описание ошибок. ``` &НаСервереБезКонтекста Функция СерверИзменитьСтатусЗаказов(Заказы, НовыйСтатус) Ошибки = Новый Соответствие(); // [заказ][описание ошибки] Для Каждого Заказ Из Заказы Цикл НачатьТранзакцию(); Попытка ДокОб = Заказ.ПолучитьОбъект(); …. другие действия, возможно не только с заказом… Исключение ОтменитьТранзакцию(); Ошибки.Вставить(Заказ, ОписаниеОшибки()); КонецПопытки; КонецЦикла; Возврат Ошибки; КонецФункции // СерверИзменитьСтатусЗаказов() ``` #### Структурируем код Главные цели, которые должен отражать модуль управляемой формы и подходы к решению. * **Четкое разделение клиентского и серверного кода.** Не будем забывать, в момент выполнения это два взаимодействующих процесса, в каждом из которых существенно отличается доступный функционал. * **Четкое выделение интерфейса удаленного доступа, какие методы сервера можно вызывать с клиента, а какие нельзя?** Названия методов удаленного интерфейса начинаются с префикса «Сервер». Это позволяет, читая код сразу видеть переход управления на сервер, и упрощает использование контекстной подсказки. Отметим, что официальная рекомендация (ИТС) предлагает именовать методы с постфиксами, например, так ИзменитьСтатусЗаказовНаСервере(). Однако повторим не все серверные методы можно вызывать с клиента, и поэтому более важна логическая доступность, а не место компиляции. Поэтому префиксом «Сервер» отмечаем только методы доступные для клиента, метод-пример назовем СерверИзменитьСтатусЗаказов(). * **Удобочитаемость.** Дело вкуса, принимаем порядок, когда модуль начинается с процедур создания формы на сервере и методов удаленного доступа. * **Сопровождаемость.** Должно быть однозначно определено место для добавления нового кода. Важный момент, автоматически создаваемые конфигуратором заготовки методов добавляются в конец модуля. Т.к чаще всего автоматически создаются обработчики событий элементов формы, то соответствующий блок расположен последним, чтобы не перетаскивать каждый обработчик в другое место модуля. Ниже приведена базовая структура модуля, реализующая перечисленные цели. * Графический вариант – наглядно показывает основной поток выполнения. * Текстовый вариант — это пример оформления шаблона для быстрой вставки структуры в новый модуль формы. ![](https://habrastorage.org/r/w1560/storage1/a7fce6e1/cf8b77d2/2015b397/0d7db5ee.png) ``` //////////////////////////////////////////////////////////////////////////////// // <(c) Автор=""", ИмяПользователя" Дата=""", ДатаВремя,"ДФ=dd.MM.yyyy""/> // <Описание> // // //////////////////////////////////////////////////////////////////////////////// // ПЕРЕМЕННЫЕ МОДУЛЯ //////////////////////////////////////////////////////////////////////////////// // НА СЕРВЕРЕ //******* СОБЫТИЯ НА СЕРВЕРЕ ******* &НаСервере Процедура ПриСозданииНаСервере(Отказ, СтандартнаяОбработка) //Вставить содержимое обработчика КонецПроцедуры //******* ИНТЕРФЕЙС УДАЛЕННОГО ДОСТУПА ******* //******* БИЗНЕС-ЛОГИКА НА СЕРВЕРЕ ******* //////////////////////////////////////////////////////////////////////////////// // ОБЩИЕ МЕТОДЫ КЛИЕНТА И СЕРВЕРА //////////////////////////////////////////////////////////////////////////////// // НА КЛИЕНТЕ //******* БИЗНЕС-ЛОГИКА НА КЛИЕНТЕ ******* //******* КОМАНДЫ ******* //******* СОБЫТИЯ НА КЛИЕНТЕ ******* //////////////////////////////////////////////////////////////////////////////// // ОПЕРАТОРЫ ОСНОВНОЙ ПРОГРАММЫ ``` ##### Связанные вопросы В заключение обозначим несколько направлений, о которых полезно подумать при программировании клиент-серверного взаимодействия. * **Варианты реализации интерфейса удаленного доступа**. Асинхронность, степень детализации... * **Кэширование.** В 1С приняли неудачное архитектурное решение, введя кэширование только на уровне вызова методов общих модулей и не предоставив возможности управления (время актуальности, сброс по требованию). * **Неявные серверные вызовы**. Не забывайте о технологических особенностях, многие «безобидные» операции на клиенте провоцируют платформу на обращение к серверу. * **Предварительная/отложенная загрузка данных.**
https://habr.com/ru/post/134151/
null
ru
null
# Интерпретация summary из statsmodels для линейной регрессии Узнал я о линейной регрессии после того, как встретил деревья, нейронные сети. Когда мы с другом повторно изобретали велосипед, обучая с нуля word2vec и использовали логистическую регрессию с векторами из обученной модели для задачи NER – я активно кричал о том, что линейная регрессия – прошлый век, никому она уже совсем не нужна. Да, проблема была в том, что я совсем не разобрался в вопросе и полез в бой. Но практику в универе нужно было как-то закрывать. После семестра мат. статистики ко мне пришло прозрение. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/502/ec3/dc6/502ec3dc6e6d3ecae2ca3b4d15df0df1.png)В статье мы попробуем применить линейную регрессию к классическим данным с помощью **statsmodels** и посмотреть на все значения **summary**. Стоит упомянуть, что линейная регрессия из **sklearn** ничем не хуже, но в **statsmodels** есть функция **summary**, где уже посчитаны все необходимые коэффициенты для диагностики. **Statsmodels** – это библиотека Python, которая предоставляет возможность оценить множество различных моделей, а также провести статистические тесты и исследования данных. ### Небольшие пояснения *Остатки* - это то же самое, что и ошибка, т.е. отклонение предсказания от истинного значения. В статьях приведен термин *remains*. В тексте может встречаться цифра из списка (в круглых скобках), представленного ниже. Таким образом я отсылаю к источнику. Там вы найдете интересующую вас информацию, которая по тем или иным причинам не приведена здесь. Это в основном является переводом статьи (в источниках вторая ссылка) с небольшими пояснениями. ### Источники Оригинальные статьи/справочники, которые очень помогли мне разобраться с вопросом. 1. [Статья](https://medium.com/swlh/interpreting-linear-regression-through-statsmodels-summary-4796d359035a) кратко расшифровывает summary. 2. [Статья](http://work.thaslwanter.at/Stats/html/statsModels.html) глубоко описывает summary. 3. [Отличный курс](https://stepik.org/course/76/syllabus) по основам математической статистики, брал информацию по условиям применения линейной регрессии. 4. [Симулятор](https://gallery.shinyapps.io/slr_diag/), чтобы посмотреть на поведение ошибки линейной регрессии в зависимости от характера данных. 5. [Пример](https://www.statsmodels.org/0.6.1/examples/notebooks/generated/ols.html) применения **OLS** из документации **statsmodels** (в частности там есть про мультиколлинеарность, как оно влияет на число обусловленности). 6. [Статья](https://towardsdatascience.com/simple-explanation-of-statsmodel-linear-regression-model-summary-35961919868b#:~:text=Covariance%20type%20is%20typically%20nonrobust,with%20respect%20to%20each%20other), откуда взяты виды **covariance type** в **statsmodels**. 7. Из этой [статьи](https://www.lib.tsu.ru/mminfo/2016/Dombrovski/book/chapter-3/chapter-3-3.htm) взял пояснения по ковариационной матрице параметров. 8. [Отсюда](http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/#label_subsection_number_5_3_2) взял пояснения по ковариации признаков линейной регрессии (здесь в целом пояснение про ковариационную матрицу). 9. [Здесь](https://cran.r-project.org/web/packages/HistData/HistData.pdf) можно найти описание используемого датасета Guerry. #### Используемый датасет Используется классический датасет **Guerry** [*(9)*](https://cran.r-project.org/web/packages/HistData/HistData.pdf). В данном случае мы будем использовать переменные **Region, Literacy, Wealth** для предсказания зависимой переменной **Lottery**. ``` import statsmodels.formula.api as smf import statsmodels.api as sm df = sm.datasets.get_rdataset("Guerry", "HistData").data model = smf.ols(formula='Lottery ~ Literacy + Wealth + Region', data=df).fit() print(model.summary()) ``` Про загадочное `'Lottery ~ Literacy + Wealth + Region'` и как это может угрожать вашему психическому здоровью можно почитать [здесь](https://patsy.readthedocs.io/en/latest/formulas.html). Графики зависимостей предикторов от **Lottery:** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/02a/fc7/aaa/02afc7aaa22b590cc8a8550aa91cbebc.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/813/ff5/41e/813ff541e1b9ecc1ec254dfb3fe0b185.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6fe/4fa/614/6fe4fa614ff30411d9b548064273f4e0.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d62/a3b/73a/d62a3b73ac7d5b5c65aa3062cb59bd3d.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4d4/ad4/3dc/4d4ad43dc7ed0751774b66ebd59effa7.png)### Условия применения регрессии 1. **Слабая экзогенность**. Т.е. переменная является фиксированным значением, а не случайной величиной и не подвергнута ошибкам измерения. 2. **Линейность признаков к зависимой переменной**. Это не такое сильное условие, учитывая, что мы можем преобразовывать и/или комбинировать наши фичи. 3. **Гомоскедастичность**. Разные ответы модели выдают одну и ту же ошибку из нормального распределения, с центром в 0. Часто в практике она гетероскедастична. Небольшие поясненияПод ‘разными ответами модели’ имеется ввиду ее отклик на разные данные. Игрушечный пример: представим себе линейную регрессию с одним признаком для описания квадратичной зависимости. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/754/d35/c19/754d35c1950a0ff35a9eefe74a91d158.png)Нетрудно заметить, что чем больше значение признака, тем больше будет ошибка. Она будет выглядеть ожидаемо плохо: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c70/05f/b93/c7005fb931eeea8a39a338145d4ae3f0.png)Это говорит о том, что ошибка гетероскедастична. 4. **Независимость ошибок**. В данном случае предполагается, что два вектора ошибки, где один из них смещен на один элемент влево, не коррелируют друг с другом. Это требование проверяется с помощью критерия **Durbin-Watson**. 5. **Отсутствие** **мультиколлинеарности** в предикторах. **Мультиколлинеарность** - термин для описания двух или более независимых переменных, которые сильно связаны друг с другом и плохо влияют на наш таргет из-за избыточности. Вследствие мультиколлинеарности признаков число обусловленности сильно возрастает. Если требования 2, 3, 4 не выполнены, то применение линейной регрессии не оправдано (скорее всего, зависимость нелинейная) *(3)*. Также вполне вероятен случай, когда на одном отрезке модель объясняет данные хорошо, а на остальных модель не работает. В случае невыполнения 5-го пункта можно, например, применить регуляризацию. **Summary** в **statsmodels** можно разделить на четыре части - *описание данных и модели*, *результаты модели* (насколько хорошо модель описывает данные), *коэффициенты модели, анализ остатков.* ### Описание данных и модели ![Первая часть вывода summary](https://habrastorage.org/r/w1560/getpro/habr/upload_files/efe/245/7a1/efe2457a18b26e8b6644908b95e29e5b.png "Первая часть вывода summary")Первая часть вывода summary**Dep. Variable** - имя зависимой переменной. **Model** - вид обученной модели. **Method** - используемый метод обучения. **Date, Time** - дата обучения **No. Observations** - количество наблюдений в выборке (n). **Df Residuals** - степень свободы (количество наблюдений (**n**) - количество переменных (**k**) - 1). **Df Model** - количество переменных (регрессоров) (k). **Covariance Type** - по умолчанию используется ковариация, которая неустойчива к гетероскедастичности ошибки. Чтобы воспользоваться устойчивой версией, необходимо передать  cov\_type=HC0/HC1/HC2/HC3 [*(6)*](https://towardsdatascience.com/simple-explanation-of-statsmodel-linear-regression-model-summary-35961919868b#:~:text=Covariance%20type%20is%20typically%20nonrobust,with%20respect%20to%20each%20other). Используется для построения матрицы ковариации параметров модели (чтобы её посмотреть, можно вызвать функцию .cov\_params()). На диагонали матриц будет стоять дисперсия оценок коэффициентов, а числа вне главной диагонали равна их ковариациям [*(7)*](https://www.lib.tsu.ru/mminfo/2016/Dombrovski/book/chapter-3/chapter-3-3.htm). С помощью этой матрицы мы можем сделать вывод о линейной зависимости коэффициентов регрессии друг от друга [*(8)*](http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/#label_subsection_number_5_3_2). ### Результаты модели ![Первая часть вывода summary](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4d0/6d8/085/4d06d80852f5fe023691697e5203f477.png "Первая часть вывода summary")Первая часть вывода summary**R-squared** - сколько процентов дисперсии зависимой переменной объяснено вариацией признаков. ![R^2 = \frac{SS_\text{mod}}{SS_\text{tot}},](https://habrastorage.org/getpro/habr/upload_files/e98/007/b63/e98007b638e2c18fa81eb66340b44c8d.svg)где: ![SS_\text{mod} = \sum_{i=1}^n (\hat{y}_i-\bar{y})^2](https://habrastorage.org/getpro/habr/upload_files/a82/29c/1b1/a8229c1b141cedfc4f04b48f23814bdf.svg)![SS_\text{tot} = \sum_{i=1}^n (y_i-\bar{y})^2](https://habrastorage.org/getpro/habr/upload_files/c0a/cfa/d0c/c0acfad0ce303d2a6f2f104c8661d401.svg)![\hat{y}_i](https://habrastorage.org/getpro/habr/upload_files/ae6/456/840/ae6456840ad5d546c6e9fc46f03f4787.svg)— предсказание нашей модели, ![\bar{y}](https://habrastorage.org/getpro/habr/upload_files/251/056/022/2510560224552eb9db6187f2e259aeae.svg)— это среднее по нашему таргету, ![y](https://habrastorage.org/getpro/habr/upload_files/4f2/c5a/e9b/4f2c5ae9b4066100252ab1f0fd8028a4.svg) — наш таргет. **Adj. R-squared** - та же метрика, но со штрафом за большое количество зависимых переменных. При добавлении новых признаков значение R-Squared будет таким же или расти, даже если они совсем не влияют на результат. Данная метрика штрафует за использование каждого дополнительного признака в модели. **F-statistic** - критерий Фишера - статистика, значение которой необходимо для проверки гипотезы о равенстве дисперсий. В данном случае сравнивается модель с нулевыми параметрами (кроме интерсепта) с текущей. ![F = \frac{(SS_\text{mod}/\sigma^2)/DF_\text{mod}}{(SS_\text{res}/\sigma^2)/DF_\text{res}} = \frac{SS_\text{mod}/DF_\text{mod}}{SS_\text{res}/DF_\text{res}} = \frac{MS_\text{mod}}{MS_\text{res}},](https://habrastorage.org/getpro/habr/upload_files/d25/1c7/45b/d251c745b1febcc2267a1e373f927f40.svg)где ![MS_\text{mod} = SS_\text{mod} / DF_\text{mod}](https://habrastorage.org/getpro/habr/upload_files/839/49e/bc8/83949ebc84b75589e906fd4fa954bf5a.svg)![MS_\text{res} = SS_\text{res} / DF_\text{res}](https://habrastorage.org/getpro/habr/upload_files/d02/780/d29/d02780d29bd8771479d10c10a39c7fff.svg)![DF_\text{res} = n - k](https://habrastorage.org/getpro/habr/upload_files/d8e/44c/654/d8e44c654cd5e4654322807a74d423b1.svg)![DF_\text{mod} = k - 1](https://habrastorage.org/getpro/habr/upload_files/d72/a7f/d5d/d72a7fd5dcff920a490012a1136bafc7.svg)![SS_\text{res} = \sum_{i=1}^n (y_i-\hat{y}_i)^2](https://habrastorage.org/getpro/habr/upload_files/c94/84b/8c6/c9484b8c61b413935ebf3deef07ca7be.svg)**Prob. (F-statistic)** - вероятность того, что коэффициенты при всех переменных равны нулю (кроме интерсепта). **Log-likelihood** - насколько хорошо данные описываются моделью. Википедия говорит: > Важно понимать, что по абсолютному значению правдоподобия нельзя делать никаких вероятностных суждений. Правдоподобие позволяет сравнить несколько вероятностных распределений с разными параметрами и оценить в контексте какого из них наблюдаемые события наиболее вероятны.  > > То есть абсолютные значения можно сравнивать между моделями. Мы функцию максимизируем - значит чем больше значение, тем лучше модель описывает данные.  ![\epsilon = y_i - \sum_{k=1}^n \beta_k x_{ik} = y_i - \hat{y}_i \; in \; N(0, \sigma^2)](https://habrastorage.org/getpro/habr/upload_files/781/255/b35/781255b3563452cf19ed40832c28ab9e.svg)![p(\epsilon_i) = \Phi (\frac{y_i - \hat{y}_i}{\sigma})](https://habrastorage.org/getpro/habr/upload_files/053/da8/8dd/053da88dd2346b66a6539099a2dbb00d.svg)![\Pi_{total} = \prod_{i=1}^n p(\epsilon_i)](https://habrastorage.org/getpro/habr/upload_files/984/c38/a43/984c38a43ac12a43bea1a59aff2bacd6.svg)![\begin{split}\begin{aligned} ln(\mathfrak{L}) &=& ln(\Pi_{total}) \\ &=& ln\left[\prod_{i=1}^n \frac{1}{\sigma\sqrt{2 \pi}} \exp \left(\frac{(y_i - \hat{y}_i)^2}{2 \sigma^2}\right)\right] \\ &=& \sum_{i=1}^n\left[log\left(\frac{1}{\sigma \sqrt{2 \pi}}\right)- \left(\frac{(y_i - \hat{y}_i)^2}{2 \sigma^2}\right)\right]\end{aligned}\end{split}](https://habrastorage.org/getpro/habr/upload_files/cff/c8e/f7e/cffc8ef7eb105ba99a7f60815feb2243.svg)![\Phi(z)](https://habrastorage.org/getpro/habr/upload_files/93b/6c5/5b0/93b6c55b01436a167e7b02e5030c4246.svg)- функция распределения вероятностей стандартного нормального распределения. **AIC BIC** - используется для сравнения моделей. Как таковое значение не несёт в себе никакой информации, его можно использовать как критерий для отбора модели, который определяет на сколько сильно модель переобучена. Чем меньше значение - тем лучше модель. **BIC** отличается от **AIC** тем, что он больше штрафует за дополнительные (и не влияющие ни на что) параметры модели. ![AIC = 2*k - 2*ln(\mathfrak{L})](https://habrastorage.org/getpro/habr/upload_files/73c/fb1/7f2/73cfb17f2f4a67e0dcb4dcbd259df123.svg)![BIC = k*ln(N) - 2*ln(\mathfrak{L})](https://habrastorage.org/getpro/habr/upload_files/b16/cbd/525/b16cbd5257c4453db027cc69f8c41045.svg)![\mathfrak{L}](https://habrastorage.org/getpro/habr/upload_files/a43/03e/16c/a4303e16cb6053546b4f7acec0ffd1ed.svg)- значение функции правдоподобия (**likelihood**), ![N](https://habrastorage.org/getpro/habr/upload_files/374/e6d/ea9/374e6dea981d2cd61b9295133c48dc84.svg)— количество наблюдений, ![k](https://habrastorage.org/getpro/habr/upload_files/5cd/405/4f2/5cd4054f2643cc42a20e4a1e75e45ad0.svg)—количество параметров (предикторов). #### Коэффициенты модели ![Вторая часть вывода summary](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b39/b57/965/b39b579654f59b8f7bc9ed236b8f2d85.png "Вторая часть вывода summary")Вторая часть вывода summary**Intercept** - все переменные обнуляются и подбирается константа, наилучшим образом описывающая данные. Все коэффициенты можно вычислить по формуле: ![\beta = (X^{T}X)^{-1}X^{T}y](https://habrastorage.org/getpro/habr/upload_files/658/378/925/65837892565333e5c603a8437f6e962a.svg)где ![\beta](https://habrastorage.org/getpro/habr/upload_files/151/cff/037/151cff037ed2f813e6a623128d316fe3.svg)— параметры модели, ![X](https://habrastorage.org/getpro/habr/upload_files/7e5/6e5/116/7e56e5116d4c3e7dfe00f85a26761f32.svg)— матрица признаков, ![y](https://habrastorage.org/getpro/habr/upload_files/4f6/67e/921/4f667e9211aca62299a5d464ec17305f.svg)— наш таргет. Здесь **Region** была строкой - её **statsmodel** представил с помощью one hot encoding Коэффициент - если отрицательный, то при росте переменной таргет уменьшается. **std err** - дисперсия коэффициента по точкам данных. Вычисляется с помощью матрицы ковариаций по параметрам модели: ![C = cov(\beta) = \sigma^{2} ( X X^{T} )^{-1}](https://habrastorage.org/getpro/habr/upload_files/bd0/d06/f17/bd0d06f175dfcb909eb57824786ea913.svg)где ![\sigma^{2}](https://habrastorage.org/getpro/habr/upload_files/c78/cee/6d2/c78cee6d2d706ff60bd2a3e401ffebc8.svg)— среднеквадратичная ошибка (MSE) остатков. Дисперсия каждого из коэффициентов будет стоять на диагонали данной матрицы. **t** - статистика t-Стьюдента, чем больше — тем лучше измерен коэффициент (чем меньше стандартное отклонение, тем лучше коэффициент описывает зависимость). Обычно t-критерий позволяет нам оценить важность различных предикторов, предполагая, что остатки модели нормально распределены около нуля. Если остатки не ведут себя таким образом, то это говорит о наличии некоторой нелинейности между переменными и о том, что их **t**-тесты *не следует* использовать для оценки важности отдельных предикторов. Рассчитывается следующим образом: ![t_{i} = \beta_{i} / SE_{i,i}](https://habrastorage.org/getpro/habr/upload_files/c03/03d/92c/c0303d92c11ef3772e78d573199fe6e1.svg)![SE_{i,i}](https://habrastorage.org/getpro/habr/upload_files/774/405/9b8/7744059b8f8288339a87ca82844a60cb.svg)— **std err** ![i](https://habrastorage.org/getpro/habr/upload_files/108/28a/376/10828a3766ea1ae1893f24f68ea2bcaa.svg)-го коэффициента. **P>|t|** - если < 0.05, то гипотеза о значимости коэффициента принимается. Например, переменная **Literacy** не влияет на зависимую переменную **Loterry** с вероятностью 37.8% и наши результаты получены случайно. **Доверительные интервалы коэффициента**. Меньший доверительный интервал предполагает, что мы уверены в значении оцениваемого коэффициента или постоянного члена. И наоборот. В данном случае показываются значения, при которых гипотеза о значимости коэффициента не будет отвергнута. Рассчитывается следующим образом: ![CI = \beta_{i} \pm z \cdot SE_{i,i}](https://habrastorage.org/getpro/habr/upload_files/a02/b63/2bf/a02b632bfc56f54498de3e2ed7996ca2.svg)где ![ SE_{i,i}](https://habrastorage.org/getpro/habr/upload_files/760/6ba/1c3/7606ba1c32703786fe15cec43a5aef03.svg)— **std err** i-го коэффициента, ![z](https://habrastorage.org/getpro/habr/upload_files/2b0/52d/385/2b052d3859954100df0c95554e47c816.svg)— критическое значение t-Стьюдента, перед или после которого гипотеза отвергается (при заданном уровне значимости (обычно 5%). ### Анализ остатков ![Вторая часть вывода summary](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b39/b57/965/b39b579654f59b8f7bc9ed236b8f2d85.png "Вторая часть вывода summary")Вторая часть вывода summary**Omnibus** описывает нормальность распределения наших остатков (остатки необъяснённой дисперсии), используя в качестве измерений перекос (skew) (коэффициент симметрии распределения) и эксцесс (kurtosis) (мера остроты случайной величины в горбу). 0 означает полную нормальность. ![F = \frac{\sum_{i=1}^n (\hat{y}_i - \bar{y})^2 / k}{\sum_{j=1}^k \sum_{i=1}^{n_j} (y_{ij}-\hat{y}_i)^2/(n-k-1)}](https://habrastorage.org/getpro/habr/upload_files/65e/a63/b77/65ea63b7723f734508782badb67ef34f.svg)**Prob (Omnibus)** - это статистический тест, измеряющий вероятность нормального распределения остатков. Значение 1 означает совершенно нормальное распределение. **Skew (Перекос)** - это мера симметрии распределения остатков, где 0 означает идеальную симметрию. Рассчитывается следующим образом: ![S = \dfrac{\hat{\mu}_{3}}{\hat{\sigma}^{3}} = \dfrac{ \frac{1}{N} \displaystyle \sum_{i=1}^{N} ( y_{i} - \hat{y}_{i} )^{3} }{ \biggl( \frac{1}{N} \displaystyle \sum_{i=1}^{N} ( y_{i} - \hat{y}_{i} )^{2} \biggr)^{3/2}}](https://habrastorage.org/getpro/habr/upload_files/599/9e6/d56/5999e6d56f7acf0f00110c8759dcbf91.svg)**Kurtosis (Эксцесс)** - измеряет остроту распределения остатков (в горбу) или его концентрацию около 0 на нормальной кривой. Более высокий эксцесс означает меньшее количество выбросов. Рассчитывается следующим образом: ![K = \dfrac{\hat{\mu}_{4}}{\hat{\sigma}^{4}} = \dfrac{ \frac{1}{N} \displaystyle \sum_{i=1}^{N} ( y_{i} - \hat{y}_{i} )^{4} }{ \biggl( \frac{1}{N} \displaystyle \sum_{i=1}^{N} ( y_{i} - \hat{y}_{i} )^{2} \biggr)^{2}}](https://habrastorage.org/getpro/habr/upload_files/3fe/c21/092/3fec210922140841dffd7f444399987a.svg)**Durbin-Watson** - это критерий для проверки наличия [автокорреляции](https://en.wikipedia.org/wiki/Autocorrelation#:~:text=Autocorrelation%2C%20sometimes%20known%20as%20serial,the%20time%20lag%20between%20them.) (спасибо [@promsoft](/users/promsoft)[за поправку](https://habr.com/ru/post/681218/#comment_24624430)) При отсутствии автокорреляции значение критерия находится между 1 и 2. Рассчитывается следующим образом: ![DW = \dfrac{ \displaystyle \sum_{i=2}^{N} ( ( y_{i} - \hat{y}_i ) - ( y_{i-1} - \hat{y}_{i-1} ) )^{2} }{ \displaystyle \sum_{i=1}^{N} ( y_{i} - \hat{y}_{i} )^{2}}](https://habrastorage.org/getpro/habr/upload_files/fb0/725/ad3/fb0725ad3a4fac0d1fad4f9cf23d92b8.svg)На следующих графиках приведены нормальное значение критерия (значение критерия между 1 и 2), и граничные значения (около 0 и около 4) . В заголовке указано значение коэффициента. #### Автокорреляция отсутствует ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ad5/bf5/5cc/ad5bf55ccc3a2237454f670bd6047155.png)#### Левая грань Ошибка представляет собою прямую линию, т.е. вектор ошибки коррелирует с собой же со сдвигом влево. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a19/a25/48c/a19a2548cf63e93c66575d136fa2788a.png)#### Правая грань В данном случае на графике изображена функция вида ![y(n)=(-1)^n, n \in N](https://habrastorage.org/getpro/habr/upload_files/461/f67/a00/461f67a00f24285674c5e61a89c717b6.svg). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bd6/cfd/822/bd6cfd822515f8aa5bcb7ec43f16f377.png)**Jarque-Bera (JB) и Prob (JB)** - альтернативные методы измерения того же значения, что и **Omnibus** и **Prob (Omnibus)**, с использованием асимметрии (перекос) и эксцесса. Нулевая гипотеза – распределение является нормальным, асимметрия равна нулю, а эксцесс равен трем. При небольших выборках тест **Jarque-Bera** склонен отклонять нулевую гипотезу когда она верна. ![JB = \dfrac{N}{6} \biggl( S^{2} + \dfrac{1}{4}(K-3)^{2} \biggr)](https://habrastorage.org/getpro/habr/upload_files/a8f/895/074/a8f895074014fe22d8967f86df9954b0.svg)где![S](https://habrastorage.org/getpro/habr/upload_files/785/63a/973/78563a973424aef7b4184e634cbfaa52.svg)— перекос, ![K](https://habrastorage.org/getpro/habr/upload_files/636/3e0/264/6363e026469b43e99a40833efe993f08.svg)— эксцесс. **Cond. No** (число обусловленности) — это мера чувствительности нашей модели по отношению к входящим данным. То есть при малейшем изменении данных коэффициенты (соответственно и отклик модели) сильно меняется (5). Мультиколлинеарность следует из большого числа обусловленности.  Приблизительно вычисляется c помощью собственных значений матрицы![X](https://habrastorage.org/getpro/habr/upload_files/c7b/01c/adc/c7b01cadcb49a0f355c96cc273336cb7.svg)следующим образом: ![\mu(X) = \frac{\lambda_{max}}{\lambda_{min}}](https://habrastorage.org/getpro/habr/upload_files/cf4/fe7/36b/cf4fe736b07e624e4275c1a729f50d32.svg)### Заключение После того, как вы познали Дзен, предлагаю пути дальнейшего копания: 1. **Логистическая** регрессия**;** 2. **GLM** -обобщение линейной регрессии; 3. **Байесовская** линейная регрессия**;** 4. **Факторный анализ.** #### P.S. Пожалуйста, если есть какие-то неточности, ошибки, дополнения и т.д. — дайте знать, сделаем статью лучше и интереснее!
https://habr.com/ru/post/681218/
null
ru
null
# Что вернёт эта функция в Python? ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/08c/d24/f25/08cd24f25386a8877ca38dd1ceb0b265.jpg)Всем привет! Сегодня хотел бы обсудить очень простой, но, на мой взгляд, интересный вопрос по Python и его внутреннему устройству. Как вы думаете, что вернёт эта функция: ``` def foo(): try: return 1 finally: return 2 ``` Если вам интересно, что получится в результате и как это работает, добро пожаловать под кат. Прежде чем давать ответ, давайте разберёмся, что происходит. Для начала рассмотрим самую простую функцию: ``` def foo(): return 1 ``` Распечатаем её байт код: ``` import dis dis.dis(foo) ``` Мы увидим следующий вывод: ``` 2 0 LOAD_CONST 1 (1) 3 RETURN_VALUE ``` Рассмотрим по шагам: * `LOAD_CONST` загружает константу (в нашем случае `1`) и кладет её на вершину стека. * `RETURN_VALUE` возвращает в вызывающий код значение с вершины стека. *Подробнее о байт-коде Python и его командах рассказано* [*тут*](https://docs.python.org/3/library/dis.html#dis.Instruction)*.* Что же скрывается за мифической фразой «возвращает в вызывающий код»? На самом деле, никакой магии не происходит. Если обратиться к исходному коду CPython, то можно увидеть следующие строчки: ``` switch (opcode) { ... case RETURN_VALUE: { retval = POP(); why = WHY_RETURN; goto fast_block_end; } ... } ``` Как видите, всё очень просто и понятно: мы сохраняем в переменной `retval` значение с вершины стека и переходим к выходу из текущего блока. Теперь мы готовы посмотреть на байт-код функции из нашего исходного примера. Как же она устроена внутри? ``` 2 0 SETUP_FINALLY 8 (to 11) 3 3 LOAD_CONST 1 (1) 6 RETURN_VALUE 7 POP_BLOCK 8 LOAD_CONST 0 (None) 5 >> 11 LOAD_CONST 2 (2) 14 RETURN_VALUE 15 END_FINALLY ``` Опуская излишние подробности, этот код ведёт себя так: 1. Устанавливаем блок `try` и указываем, где находится `finally`. 2. Загружаем константу и возвращаем значение. 3. Выполняем некоторые вспомогательные действия. 4. Наконец идёт блок `finally` (адреса 11, 14, 15), в которым мы снова загружаем константу и делаем `ret`. При исполнении кода сначала отрабатывает часть в блоке `try`, а затем выполняется код из `finally`. Что же происходит, когда мы снова вызовем `RETURN_VALUE`? Правильно, мы просто перезапишем возвращаемое значение `retval` на новое. Ну а функция, разумеется, вернёт `2`. Как видите, даже несмотря кажущуюся неочевидность, Python, на мой взгляд, ведёт себя максимально понятно и логично: блок `finally` выполняется после блока `try` и его возвращаемое значение «более актуально». Однако, разумеется, на практике писать такой код я крайне не рекомендую ;-) ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/07b/c60/115/07bc601159c56e2e0492484ea5a2a21a.jpg)
https://habr.com/ru/post/563764/
null
ru
null
# Как устроены Advanced Custom Fields в Wordpress Часть 1. Немного лирики ----------------------- Чаще всего в сети публикуются материалы по начальному уровню работы с Wordpress. В лучшем случае обсуждаются документированные возможности самого Wordpress и его различных плагинов. Я стою на позиции, что работа с документацией и использованием документированных возможностей — инструментами, которые вам предоставил разработчик — является приоритетной в разработке. Однако иногда документированных возможностей не хватает и как ответ на этот случай появилась эта статья. Advanced Custom Fields (ACF) – один из популярных плагинов Wordpress. Основная задача — создание блоков дополнительной информации к Постам, Страницам и Товарам. Плагин настолько популярен, что вопросы по нему входят в список MustKnow на различных собеседованиях. Ничего не имею против самого плагина — это очень удобный инструмент, с широкими возможностями. Имеет встроенную возможность выводить редактирование статей во фронтенд. Позволяет создавать поля по условию и связывает поля с нужными постами. Например, для новостного сайта вы решили в блоке спортивных новостей создать дополнительный тег с указанием вида спорта, чтобы не забывать это делать, вы создаете поле типа select, которое будет появляться при выборе категории «Спорт» и требуете его обязательного заполнения. Конечно, чтобы описать стандартные возможности ACF мало приведенного примера. Используют ACF в самых различных случаях, документацию плагина вы сможете [найти на официальном сайте](https://www.advancedcustomfields.com/). Для тех, кто ещё не освоил иностранные языки есть неплохой [сайт с документацией на русском языке](https://acfwp.ru/). В моем случае не нашлось достаточных документированных инструментов и пришлось разбираться с устройством ACF. Часть 2. Получаем ACF поля -------------------------- Итак, от прелюдии к делу. Постановка задачи — выводим редактирование товаров во фронтенд, при этом редактирование должно включать в себя возможность редактирования ACF полей связанных с товаром по условию категории. То есть, менеджер добавляя товар должен иметь возможность (или обязанность) заполнить сопутствующую категории товара информацию. Например, в категории «Фрукты» появляется поле «Сорт», а категории «Телефоны» - поле «Бренд» и так далее. Если вы работаете через административную панель, то задача тривиальная. Но у вашего менеджера есть ограничения — пускать его в административную панель никто не собирался. Поэтому функционал административной панели для вас отрезан. Стандартный функционал ACF не предлагает возможности запроса по условиям. Вывод полей происходит в связке с ID поста. Это связано с особенностями сохранения в базе данных. Условие «Категория товара» не привязывается к сохраняемой информации. Поэтому начинаем искать поля и условия. Самая востребованная таблица базы данных posts, что связано с широким набором инструментов разработанных для данной таблицы. Именно в ней и хранятся наши поля. Для полей ACF зарезервированы два типа записей — в колонке ’post\_type’ мы находим поля типов ’acf-field-group’ и ’acf-field’. Первый тип записей, как следует из его названия, отвечает за группу полей, второй тип записей отвечает непосредственно за поле. Связка между ними происходит по полю ’post\_parent’. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/27e/cb0/665/27ecb06654469119308c29e191e608a6.png)Теперь, когда мы знаем где находятся наши поля, необходимо разобраться с условиями. Мы же не планировали выдавать поля списком, тем более, что это и есть наша основная задача — выдавать поля по условию. Всю необходимую нам информацию содержит колонка ’post\_content’. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d62/729/08e/d6272908ed4dfff56fca6b3de9bfa699.png)В ней в формате сериализованного массива сохранены условия и значения. Причем условия выдачи привязаны к группе полей, поэтому для разбора условий вам необходимо получить данные по группе, которые выглядят примерно так: ``` a:12:{s:8:"location";a:1: {i:0;a:1: {i:0;a:3 {s:5:"param";s:13:"post_taxonomy";s:8:"operator";s:2:"==";s:5:"value";s:27:"product_cat:fruit";} } } s:8:"position";s:6:"normal";s:5:"style";s:7:"default";s:15:"label_placement";s:4:"left";s:21:"instruction_placement";s:5:"label";s:14:"hide_on_screen";s:0:"";s:11:"description";s:0:"";s:18:"acfe_display_title";s:0:"";s:13:"acfe_autosync";s:0:"";s:9:"acfe_form";i:0;s:9:"acfe_meta";s:0:"";s:9:"acfe_note";s:0:""; } ``` Вы будете проверять по своим условиям, для понимания всей этой белиберды выделю пункты, которые важны по данному полю: ``` s:5:"param";s:13:"post_taxonomy";s:8:"operator";s:2:"==";s:5:"value";s:27:"product_cat:fruit"; ``` Здесь содержится вся нужная нам информация: * параметр условия "post\_taxonomy"; * значение по условию должно быть "=="; * ну и само значение "product\_cat:fruit"; Теперь мы знаем какую группу полей нам необходимо использовать, можно переходить к самим полям. Выборку полей производим по колонке ’post\_parent’. У нас есть названия и ID полей, но пока мы не знаем типы полей и связанные с ними условия. Вновь переходим к данным поля ’post\_content’, теперь наши данные выглядят немного иначе: ``` a:10: {s:4:"type";s:4:"text";s:12:"instructions";s:0:"";s:8:"required";i:1;s:17:"conditional_logic";i:0;s:7:"wrapper";a:3: {s:5:"width";s:0:"";s:5:"class";s:0:"";s:2:"id";s:0:"";} s:13:"default_value";s:0:"";s:11:"placeholder";s:0:"";s:7:"prepend";s:0:"";s:6:"append";s:0:"";s:9:"maxlength";s:0:"";} ``` Здесь для нас упакованы сведения связанные с выводимым полем: * тип поля — "text"; * обязательное для заполнения — "required"; * класс, длина, значение по-умолчанию, плейсхолдер и т. д. Теперь получив эту информацию мы можем приступить к созданию своего запроса и передаче полей во фронтенд. То есть при выборе категории отправляем запрос в базу данных, находим группу полей по условиям, выбираем поля и подготавливаем форму. Часть 3. Сохраняем информацию ----------------------------- Но остался ещё один вопрос — что делать с полученной информацией? Поэтому нам необходимо разобраться как сохраняется информация ACF. Для дополнительной информации, возможных настроек постов в Wordpress предусмотрена специальная таблица postmeta. В ней хранится самая различная информация и, конечно, разработчики ACF использовали эту возможность. Но следует учесть, что использовали они не прямой подход. Обычная запись в таблице postmeta состоит из 4 полей — уникальный ключ в БД (порядковый номер записи), ID поста с которым связано поле, идентификатор (по которому разработчик получает поле функцией get\_post\_meta () ) и значение. В основном этого достаточно, чтобы иметь связанную информацию. Но ACF разработчики разбили задачу на две составляющие: при сохранении данных ACF вносятся запись с именем поля и со значением. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7fb/0cf/ebd/7fb0cfebdfffb35bd3bf4bf77daa037e.png)ключ \_sort содержит ссылку на post\_name поля ACF из таблицы posts, а запись с ключом sort (без подчеркивания) сохраняется значение поля. --- Вот и всё. Надеюсь, что полученные знания помогут вам в разработке. Всем удачи!
https://habr.com/ru/post/569852/
null
ru
null
# Настройка WiMax интернета и его раздачи другим через Wi-Fi в openSUSE 12.1 #### Введение Во время первой установки любого дистрибутива Linux почти всегда возникают проблемы с получением интернета и его раздачей другим пользователям, если интернет подключен не посредством ethernet. Это часто отталкивает новичков от дальнейшего знакомства и использования линукса. В поисках полного HOWTO по данной теме для opensuse так и не нашел. Методом проб и ошибок получился данный способ. #### Подключение WiMax-интернета В стандартном DVD отсутствуют драйвера для WiMax-модема. Способ подходит для устройств, выполненных на основе чипа Samsung CMC-730. На данный момент поддерживаются следующие устройства: * Samsung SWC-U200 * Samsung SWC-E100 * Samsung SWM-S10R (входит в состав нетбука Samsung NC-10) Рекомендуется заранее скачать RPM отсюда — [software.opensuse.org](http://software.opensuse.org/search?q=madwimax&baseproject=openSUSE%3A12.1&lang=ru&include_home=true&exclude_debug=true#), выбрав i586 — для 32-битной версии openSUSE 12.1, x86\_64 — для 64-битной версии ОС, скинуть его на флешку для дальнейшего использования в свежеустановленной ОС. После установки openSUSE скопируйте с флешки файл в домашнюю директорию пользователя. *В дальнейшем будем считать: 1. Пользовательская домашняя директория- /home/user/ 2. Файл драйверов WiMax-модема — madwimax.rpm 3. wlan0 — Wi-Fi соединение 4. wimax0 — WiMax соединение* Установку произведем в терминале с помощью пакетного менеджера zypper `sudo zypper in /home/user/madwimax.rpm` В большинстве случаев при установке нормально не прописываются DNS'ы, впишем их, заодно поставим консольный текстовый редактор Nano, чтобы потом можно было поправить нужные нам файлы конфигурации `sudo zypper in nano sudo nano /etc/resolv.conf` Смотрим есть ли у нас строчки в файле с nameserver, если нет, то добавляем (по привычке использую сервера openDNS) `nameserver 208.67.222.222 nameserver 208.67.220.220` Сохраним, нажав CTRL+X и подтвердив перезапись. Теперь можно подключать WiMax-модем и наслаждаться интернетом. #### Настройка Wi-Fi для раздачи интернета ##### Установка необходимых пакетов Установим необходимые для настройки пакеты, используя zypper `sudo zypper in hostapd dhcp-server yast2-dhcp-server` ##### Настройка соединения и DHCP-сервера Проверим наличие необходимых нам интерфейсов: wlan0 и wimax0 `/sbin/ifconfig` Все на месте, идем дальше. Заходим в Yast, выбираем Network Settings. Если используется Network Manager, то отключаем его и переходим к управлению с помощью ifup на вкладке Global Options. Выключаем Network Manager по причине того, что он все равно не дружит с драйвером madwimax и подключение не показывает. Переходим во вкладку Overview, редактриуем наше соединение Wi-Fi. Впишем наши настройки: `IP adress - 192.168.0.1 Subnet mask - 255.255.255.0` Нажимаем Next, дальнейшие настройки оставим без изменений. Теперь в Yast открываем DHCP Server, в качестве интерфейса, на котором сервер будет раздавать IP, выбираем wlan0, включив галочку об открытии фаервола для DCHP, далее в Global settings впишем: `Primary Name Server IP - 208.67.222.222 Secondary Name Server IP - 208.67.220.220 Default Gateway (Router) - 192.168.0.1 Далее в Dynamic DHCP пишем: Network - 192.168.0.0 Netmask - 255.255.255.0 Netmask bits - 24 First IP Adress - 192.168.0.2 Last IP Adress - 192.168.0.100` Далее включаем запуск при загрузке, сохраняем все. ##### Настройка SuSEFirewall Открываем консоль и открываем файл настроек фаервола `sudo nano /etc/sysconfig/SuSEfirewall2` Ничего не удаляем, вдруг в дальшейшем захочется допилить что-то под себя. Находим строчки и вводим указанные ниже параметры `#Внутренняя сеть FW_DEV_INT="wlan0" #Включить роутинг FW_ROUTE="yes" #Включить маскарадинг FW_MASQUERADE="yes" #Сеть, которую маскарадим FW_MASQ_NETS="192.168.0.0/24"` Сохраняем и перезапускаем фаерволл `sudo /etc/init.d/SuSEfirewall2_setup restart` ##### Настройка soft AP Скопируем оригинальный конфигурационный файл и открой новый для редактирования `sudo mv /etc/hostapd.conf /etc/hostapdbkp.conf sudo nano /etc/hostapd.conf` Впишем в файл следующее, заменив MYAP и MYPASS на имя своей сети и пароль к ней соответственно `#Интерфейс соединения Wi-Fi interface=wlan0 #Драйвер driver=nl80211 #Имя сети, которую увидят пользователи ssid=MYAP #Регион расположения сети country_code=RU #Режим работы сети (b, g, n) hw_mode=g #Канал работы Wi-Fi. Лучше выбирать в середине, так как 1 и 11 часто забиты channel=9 #Настройки логирования logger_syslog=-1 logger_syslog_level=3 logger_stdout=-1 logger_stdout_level=2 #Отключить отслыку пустого названия сети (SSID) ignore_broadcast_ssid=0 #Аутенфикация auth_algs=1 wpa=2 wpa_key_mgmt=WPA-PSK wpa_passphrase=MYPASS rsn_pairwise=CCMP` Сохраняем файл. Все готово для запуска нашей точки доступа. ##### Финальный шаг. Запуск точки доступа `sudo /usr/sbin/hostapd /etc/hostapd.conf` Подключаем к нашей сети другое устройство и проверяем наличие интернета. Если интернета нет, то проверяем параметры полученные устройством, они должны быть следующими: `IP-адрес - 192.168.0.* // от 2 до 100 Маска - 255.255.255.0 Шлюз - 192.168.0.1 DNS-сервер 1 - 208.67.222.222 DNS-сервер 2 - 208.67.220.220` Если что-то из списка отсутствует, то возвращаемся к тому моменту в статье, где мы это настраивали и проверяем правильность выполненных действий.
https://habr.com/ru/post/134409/
null
ru
null
# Свой Cocaine. Облачная платформа Яндекса Мы уже [рассказывали](http://habrahabr.ru/company/yandex/blog/209324/) на Хабре про облачную инфраструктуру Яндекса. Сегодня пришёл черёд от слов перейти к делу — мы хотим по шагам показать, как можно развернуть собственное облако на Elliptics и Cocaine. [![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e40/0ef/ca5/e400efca5a67bf741ae2ee2468bffbbd.jpg)](http://habrahabr.ru/company/yandex/blog/214069/) Схема ----- Давайте рассмотрим установку небольшого облачка, в котором можно запустить [тестовое приложение](https://github.com/cocaine/cocaine-framework-python/tree/v0.11/examples/flask) использующее **flask**. Это облачко состоит из следующих элементов: * **cocaine-runtime**, запускающий приложения в Docker; * **Docker-registry** для хранения образов приложений; * **Elliptics** в качестве распределенного хранилища приложений, а также конфигурации облака; * **агрегирующая нода cocaine-runtime** — единая точка входа в облако для клиентского кокаинового кода; * **HTTP-frontend** как альтернативный способ для доступа к приложениям. На каждом этапе будем проводить проверки, тестирующие успешность выполнения этапа. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e88/65b/73f/e8865b73fa8aec9dc83ac2d38b3b8120.jpg) Как видно, нам понадобится **5** (можно виртуальных) машинок с ядром не ниже **3.8** для поддержки **Docker**. Необходимые пакеты можно найти в [репозитории](http://repo.reverbrain.com). **Как добавить репозиторий**Создадим **/etc/apt/sources.list.d/reverbrain.list** следующего содержания: ``` deb http://repo.reverbrain.com/precise/ current/amd64/ deb http://repo.reverbrain.com/precise/ current/all/ ``` Подтянем ключ: ``` curl -O http://repo.reverbrain.com/REVERBRAIN.GPG sudo apt-key add REVERBRAIN.GPG ``` Посмотрим, какие пакеты, относящиеся к кокаину, стали доступны: ``` apt-get update apt-cache search cocaine ``` #### 5 минут на Elliptics Мне придется в двух словах описать, как развернуть инсталляцию **Elliptics** из *одной* машины для демонстрации работы нашего кластера. Сразу замечу, что это ни в коем случае нельзя рассматривать в качестве руководства по разворачиванию этой Elliptics для боевого применения. Об этом вам обязательно расскажут ребята, которые и занимаются разработкой Elliptics. Также информацию можно найти в [документации](http://doc.reverbrain.com/elliptics:server-tutorial). В паре команд это выглядит так: ``` sudo apt-get install elliptics=2.24.14.31 elliptics-client=2.24.14.31 mkdir /tmp/history/ && mkdir /tmp/root cp /usr/share/doc/elliptics/examples/ioserv.conf ./tst_ioserv.conf ``` Далее в **tst\_ioserv.conf** нам придется изменить буквально 3 строки. Итак: ``` group = 1 addr = localhost:1025:2-0 192.168.50.201:1025:2-1 // здесь подставьте свой IP indexes_shard_count = 16 ``` После этого запускаем: ``` dnet_ioserv -c tst_ioserv.conf ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/c14/887/b0e/c14887b0eef5ee9265ede751c4ff4c86.png) #### Настройка cocaine-runtime + Docker Приступим к реализации нашего мини-облака с конфигурации машин, непосредственно запускающих код нашего приложения. Ядром инсталляции будет безусловно **cocaine-runtime**. Также необходимо установить сам **Docker** и **cocaine-plugin** для работы с **Docker**. Уточню, что хотя наша цель — запустить приложение в docker-контейнере, мы также запустим приложение как обычный процесс. Контейнеризация — есть благо. Она решает проблемы с окружением для приложения: * зависимости всегда с нами; * нет конфликтов между зависимостями двух приложений; * неизменность окружения в dev, test, prod-средах. Запуск без контейнера применим и удобен, когда нет зависимостей (например, приложение на go) или технической возможности использовать контейнеры (например, ядро ниже требуемой версии и обновить его нельзя). После подключения репозитория установим необходимые пакеты: ``` sudo apt-get install cocaine-runtime libcocaine-core2 libcocaine-plugin-docker2 libcocaine-plugin-elliptics=2.24.14.31 elliptics-client=2.24.14.31 ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/bbd/ed0/deb/bbded0debaf6d1d5b59710d07d94a9fb.png) Для управления приложениями нам необходима утилита **cocaine-tool**. Проще всего ее установить из **PyPI** — стандартного репозитория Python пакетов. Необходимо установить биндинг в Python для **msgpack**. ``` sudo apt-get install msgpack-python ``` А затем **cocaine-tools**. ``` sudo pip install cocaine-tools ``` **А почему msgpack-python не из PyPI?**Msgpack-python имеет две реализации. Одна «pure-Python», вторая — на Cython. При установке из PyPI делается попытка скомпилировать бинарную версию, а в случае неудачи ставится чистая реализация. Плохо то, что эти реализации несовместимы между собой. Мы брали за эталон Cython версию. Чаще всего какая-то из необходимых зависимостей отсутствует и устанавливается чистая реализация, что — в зависимости от версии — приводит к непонятным ошибкам. Так было не всегда, и возможно ситуация исправится в будущем. Docker устанавливаем по описанию в официальной [документации](http://docs.docker.io/en/latest/installation/ubuntulinux/) любым удобным способом. Использован следующий путь: ``` curl -s https://get.docker.io/ubuntu/ | sudo sh ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/36c/4e4/1c2/36c4e41c2097f95c3cd036451a21b701.png) После успешной инсталяции пакетов **cocaine-runtime** стартует с дефолтной конфигурацией, которую нам необходимо изменить. Останавливаем **cocaine-runtime** и переходим к модификации конфигурации. ``` sudo service cocaine-runtime stop ``` Дефолтный файл конфигурации расположен в **/etc/cocaine/cocaine-default.conf** и выглядит так: ``` { "version": 2, "paths": { "plugins": "/usr/lib/cocaine", "runtime": "/var/run/cocaine" }, "services": { "logging": { "type": "logging" }, "storage": { "type": "storage", "args": { "backend": "core" } }, "node": { "type": "node", "args": { "runlist": "default" } } }, "storages": { "core": { "type": "files", "args": { "path": "/var/lib/cocaine" } }, "cache": { "type": "files", "args": { "path": "/var/cache/cocaine" } } }, "loggers": { "core": { "type": "syslog", "args": { "identity": "cocaine", "verbosity": "info" } } } } ``` Сделаем конфигурацию облачной. Для этого необходимо настроить **2** сущности: 1. Сконфигурить работу с распределенным стораджем (в нашем примере — **Elliptics**). Все дело в том, что **cocaine-runtime** вычитывает из storage список запускаемых приложений, профили запуска приложений, манифесты приложений. Если использовать присутствующий «из коробки» файловый storage, то придется поддерживать консистентность этих данных на каждой ноде, что крайне неудобно. В случае распределенного стораджа этот вопрос решается сам собой. 2. Заставить **runtime** сообщать информацию о себе агрегирующим нодам облака. Для экспериментов удобно модифицировать копию предоставляемого конфига «по умолчанию» (например, **/etc/cocaine/cocaine-cloud.conf**). Заставить **cocaine-runtime** сообщать агрегирующим нодам о запущенных на нем приложениях и сервисах можно, добавив секцию network в конфигурацию на одном уровне вложенности с **services**. ``` "network" : { "group": "224.168.2.9" }, "services": { ... } ``` Единственный параметр **group** описывает адрес multicast-группы, в которую будет производиться рассылка оповещений. Конфигурация **storage** выполняется модификацией секций **services/storage** и **storages/core**: ``` "storage": { "type": "elliptics" }, "storages" : { "core": { "type": "elliptics", "args": { "nodes" : { "192.168.50.201" : 1025 }, "io-thread-num" : 8, "wait-timeout" : 30, "check-timeout" : 60, "net-thread-num" : 8, "groups" : [1], "verbosity" : 2 } } } ``` Реализации storage на технологии **Elliptics** обеспечивается соответствующим плагином. К слову, все плагины из наших пакетов ставятся в /usr/lib/cocaine, где их по умолчанию ищет **cocaine-runtime**. Теперь заставим стартовать кокаин с этим конфигом по дефолту. Создаем `/etc/default/cocaine-runtime`: CONFIG\_PATH="/etc/cocaine/cocaine-cloud.conf" Запустим **cocaine-runtime** с новым конфигом, убедимся в том, что процесс работает. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/100/ba6/5b0/100ba65b0a38f73bfdea562aefc8d724.png) После запуска на порту **10053** сервис-локатор этой ноды будет ожидать запросов о доступности приложения. Это своего рода DNS для облачных приложений и сервисов, то есть по имени сервиса или приложения вы узнаете куда надо отправлять запросы, чтобы они были обработаны. Запросить информацию о приложениях на этой ноде можно при помощи команды `cocaine-tool info`. Вывод этой команды пока не потрясает воображение, но запомните его — совсем скоро он изменится. Напомним, что помимо **cocaine-runtime** и плагинов, мы установили **Docker**. Проверим, что он так же успешно запустился: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/1e4/337/0f8/1e43370f80c0376d6b0e2bfee89778d2.png) Предполагаем, что на второй машине будет проделаны аналогичные действия. Итого мы имеем **2** машинки с запущенным **cocaine-runtime**, которые смотрят в общий **storage** — это прекрасно! В этой точке уже вполне можно запускать приложения. Это, конечно, пока совсем не облако, но все же. Засучив рукава, приступим. В первую очередь нам необходимо доставить код приложения в кокаиновый storage. Эта задача решается с легкостью при помощи **cocaine-tool**. Склонируем репозиторий с примером и перейдем внутрь каталога. ``` git clone git@github.com:cocaine/cocaine-framework-python.git -b v0.11 cd cocaine-framework-python/examples/flask/ ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/46a/310/a46/46a310a465b1552d8d327b036848fa18.png) Можно заметить, что помимо кода приложения, здесь расположен **manifest.json**: ``` { "slave": "main.py" } ``` Основная задача этого файла указать платформе, что запускать. Также можно передать **environment**. Для загрузки кода приложения, которое хотим запустить как процесс, в облако необходимо выполнить следующую команду: ``` cocaine-tool app upload --name example ``` **cocaine-tool** запакует Ваше приложение в архив и загрузить в облачное хранилище. А потом мы посмотрим список загруженных приложений. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/b24/594/b87/b24594b87804db79016d49f41e12161c.png) Вот оно, наше приложение! Главное, не забыть установить **flask**, который требует наше приложение. Вот этот недостаток запуска без контейнера. ``` sudo apt-get install python-flask ``` Далее необходимо настроить выделяемые для приложения ресурсы, тип изоляции, управление количеством воркеров и тд. Для этой цели служат профили. Профиль может быть связан с несколькими приложениями. Простейший профиль — пустой JSON `{}`. В этом случае используются параметры по умолчанию. Описание всех доступных опций можно найти в [описании](https://github.com/cocaine/cocaine-core/wiki/profile). Более интересный пример рассмотрим далее, когда будем запускать приложение в контейнере. Назовем наш профиль **default** и загрузим его в облачное хранилище. Проверим, что он загрузился правильно. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d6b/584/2cb/d6b5842cb31c7863af0d38b80d7578fc.png) Наконец-то настал момент, когда можно дернуть рубильник и приложение запустится: ``` cocaine-tool app start --name example --profile default ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/b53/140/4f1/b531404f191d0ac8708d4a2e243fb681.png) Теперь-то вывод команды `cocaine-tool info` изменился. В нем показано, какие приложения запущены на данной ноде и статистика о приложениях. Попробуем послать сообщение в наше приложение. Для этой цели достаточно вот такого небольшого скрипта на питоне: ``` #!/usr/bin/env python from cocaine.services import Service app = Service("example") print(app.enqueue("write", "DATA").get()) print(app.enqueue("read", "DATA").get()) ``` Приложение все еще запущено только на одной ноде, но можно сходить на вторую и запустить его и там. Теперь можно продолжить строить инфраструктуру для приложений в **Docker**. Docker-registry --------------- **Docker-registry** — это ваше приватное хранилище образов (контейнеров) приложений. Более подробно о нем можно почитать в официальной [документации docker](http://docs.docker.io/en/latest/reference/api/registry_index_spec/). **Docker-registry** поддерживает множество бекендов для хранения образов. Ассортимент начинается с записи образов на локальную файловую систему и простирается до хранения образов в **Elliptics**. Самый простой способ запустить **Docker-registry** — это использовать Docker. Для этого нам нужно поставить **Docker** (смотри выше) и дать команду запусти нужный образ. ``` sudo docker run -p 5000:5000 registry ``` Образ **registry** в первый раз загрузится из репозитория, закэшируется и в следующий раз будет запускаться быстро. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ba6/265/205/ba6265205da8913343a5f70b65de85c5.png) После запуска **Docker-registry** будет слушать порт **5000**. Пингуем его: ``` curl "http://192.168.50.4:5000/_ping" ``` На этом настройка завершена. Сборка и деплой приложения в контейнере --------------------------------------- Деплой приложения в случае контейнера будет мало отличаться от «неконтейнерного». Самое главное отличие в том, что для сборки образа необходим **Dockerfile**. По сути он состоит из набора shell-команд, которые необходимо выполнить для формирования внутреннего состояния образа. После этого образ заливается в Docker-registry. Далее любой **Docker**, который хочет запустить контейнер, может загрузить себе образ из registry. Синтаксис **Dockerfile**, доступные команды можно найти здесь. Вместо Dockerfile вы можете предоставить Chef-рецепт или Puppet-манифест, которые будут выполнены внутри контейнера при сборке. В профиле для этого приложения необходимо указать тип изоляции Docker. Для этого создадим новый профиль. ``` { "queue-limit": 1000, "pool-limit": 10, "isolate": { "type": "docker", "args": { "memory_limit": 1000000000, "endpoint": "unix:///var/run/docker.sock", "registry": "registry.cloud.net:5000", "cpu_shares": 0 } }, "concurrency": 200 } ``` Профиль мы разместили в файле именем docker-profile.json, загрузим его с именем docker-profile ``` cocaine-tool profile upload --name docker-profile --profile=docker-profile.json ``` В этом примере мы имеем готовый Dockerfile, и загрузка приложение в облако производиться так: ``` sudo cocaine-tool app upload --docker=unix:///var/run/docker.sock --registry=registry.cloud.net:5000 --manifest manifest-docker.json --name example-docker --timeout 20000 ``` Это не мгновенный процесс, все зависит от размеров вашего образа и сети. Но в результате вы должны увидеть аналогичную надпись. Далее приложение запускается. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f33/8cf/998/f338cf9980c765b798629917a1d7d4fa.png) Упущен из виду один момент — о том, какие приложения cocaine-runtime запускает при старте и как узнаёт об этом. Для этого есть **runlist**. По сути своей этот ассоциативный массив из приложений и их профилей, который **cocane-runtime** читает при старте. Он располагается, как и профили, в **storage**. Так как наборы запускаемых приложений на разных нодах облака могут отличаться, то и ранлисты на них могут быть разные. Имя ранлиста указывается в конфиге **cocaine-runtime** в параметре runlist сервиса node. Конфигурирование агрегирующей ноды ---------------------------------- По сути своей эта часть конфигурации очень похожа на пункт «Настройка cocaine-runtime». Это закономерно, так как в роли агрегирующей ноды выступает **cocaine-runtime**. Всю работу по балансировке в нем выполняет **gateway plugin**. У нас есть две реализации данного плагина. Первая называется **adhoc**. Она доступна «из коробки» и не требует установки дополнительных пакетов. Вторая реализация, используемая нами в боевых условиях, называется **ipvs**. Как видно из названия, она использует одноименную технологию. Adhoc разумно применять в случае, когда нет возможности использовать **ipvs**. И безусловно, можно написать свою реализацию данного плагина, чтобы использовать для балансировки понравившуюся вам технологию. От слов к делу. Устанавливаем пакеты: ``` sudo apt-get install cocaine-runtime libcocaine-core2 libcocaine-plugin-ipvs2 libcocaine-plugin-elliptics=2.24.14.31 elliptics-client=2.24.14.31 ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/a1d/dc5/2d5/a1ddc52d565b092445b61b47d7b1ebea.png) Если нет возможности использовать **ipvs**, то последний из приведенных пакетов ставить нет необходимости. Различия в базовой конфигурации будут незначительны и будут указаны отдельно. Сделать **runtime** агрегирующей нодой позволит добаление секции **network** с подсекцией **gateway**. Предполагаем, что как и прежде, правим копию конфига «по умолчанию». Сервис **storage** конфигурируем аналогично предыдущему пункту — он скоро понадобится. ``` "network": { "group": "224.168.2.9", "gateway": { "type": "ipvs" // adhoc } }, "services"... ``` После перезапуска `sudo service cocane-runtime restart` должен стартовать процесс: ``` cocaine /usr/bin/cocaine-runtime --daemonize --configuration /etc/cocaine/cocaine-gateway.conf --pidfile /var/run/cocaine/runtime.pid ``` На самом деле **gateway** принимает еще ряд параметров (о них можно прочитать в документации). Давайте откроем лог (по умолчанию он пишется в syslog). Можно заметить, что было зарегистрировано подключение двух нод, а потом одна из них выключилась. Вы можете проделать аналогичные операции с вашими бекендами и убедиться, что **discovery** работает. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/516/1b1/b44/5161b1b441b3c1d8a0fa0aacebc5bd65.png) Cocaine-native-proxy -------------------- Cocaine-native-proxy позволяет ходить в облачные приложения по HTTP. Установка и настройка её предельно просты. ``` apt-get install cocaine-native-proxy ``` Затем нам необходимо указать список агрегирующих нод в секции **locators**. В нашем случае такая нода одна. Строго говоря, там можно указать адреса локаторов и нод не работающих в режиме агрегации. Это плохо по той причине, что такая нода ничего не знает о сервисах и приложениях на других нодах, а значит, вы не будете иметь к ним доступ. Более подробное описание параметров можно найти на [github.com/cocaine/cocaine-native-proxy/blob/master/README.md](https://github.com/cocaine/cocaine-native-proxy/blob/master/README.md) ``` { "endpoints": [ "0.0.0.0:8080" ], "backlog": 2048, "threads": 2, "application": { "locators": ["192.168.50.103:10053"], "service_pool": 5, "reconnect_timeout": 180, "request_timeout": 5 } } ``` Точка входа в облако в нашей инсталяции — машина с агрегируещей нодой. Несмотря на то, что HTTP интерфейс вынесен наружу через **cocaine-native-proxy**, на самом деле эта прокси тоже использует агрегирующую ноду. Мы её указывали в конфиге в секции locators. Давайте же попробуем позвать наши приложения двумя способами. HTTP клиент будет использовать обработчик события **http**, а из клиентского кода на Python обработаем события **write** и **read**. В клиентском коде теперь указывается адрес точки входа в облако. В моем случае — 192.168.50.103. ``` #!/usr/bin/env python from cocaine.services import Service app = Service("example", host="192.168.50.103") print(app.enqueue("write", "DATA").get()) print(app.enqueue("read", "DATA").get()) ``` В качестве обработчика события http вызывается приложение на flask. Сейчас в HTTP-proxy поддерживается два способа определения того, в какое приложение какое событие послать. Первый способ предполагает, что переданный URL построен по шаблону: ``///tail?arg=1&args=2. Соответственно URL обрезается в начале. В приложение он поступит в виде /tail?arg=1&args=2`. Это очень простой и примитивный способ. При втором способе решение принимается на основе специальных заголовков **X-Cocaine-Service, X-Cocaine-Event**. Их можно проставлять при помощи **nginx**. Таким образом, следующие два запроса попадают в одинаковые обработчики: ``` curl "http://localhost:8080/read" -H "X-Cocaine-Service: example" -H "X-Cocaine-Event: http" curl "http://localhost:8080/example/http/read" ``` Балансировка между версиями приложения -------------------------------------- Наше облако позволяет запускать одновременно несколько версий одного приложения и производить балансировки нагрузки между ними. Идея заключается в том, что мы объединяем несколько приложений в группу и назначаем им веса в рамках этой группы. Таким образом доступ к приложениям будет осуществляться не по имени приложения, а по имени группы. А в рамках группы выбор будет сделан исходя из веса. Это очень полезная возможность. Располагая ей, можно вводить новые версии приложений в облако, подавая на них лишь часть нагрузки (скажем, 5%). А затем увеличивая эту долю. При этом можно не удалять предыдущую версию приложения. Ведь в случае обнаружения бага в новой версии, можно так же легко вернуть нагрузку обратно, выполнив при этом лишь небольшое число команд. Попробуем воспроизвести этот процесс. Для этого создадим группу для приложения **example**, скажем **exampleGroup**. Добавим в неё приложение **example** с весом **1000**. И попросим ноду обновить списки групп. В логах это видно будет по записи ``` service/locator: adding group 'exampleGroup' ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/eb0/f31/75a/eb0f3175aa4ff104ba55e555836eca0b.png) После этого то же самое приложение будет доступно по имени **exampleGroup**. Для того чтобы проверить, предлагаю изменить тестовое приложение, заменив в app.py приветствие в ручке hello: ``` @app.route('/') def hello(name=None): return "HELLO! I'm version #2" ``` Затем зальём это приложение и запустим его и отредактируем роутинг группу, добавив приложение **example2**. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/506/3fb/239/5063fb239fc7da008bd2ceed7fa65be7.png) Если подергать приложение ``` curl "http://localhost:8080/exampleGroup/http/" ``` То можно заметить, что ответы от разных версий чередуются. Если выставить вес **example2** равным **0**, то нагрузка на него через HTTP-proxy перестанет идти через некоторое время. Оно характеризуется периодом, через который HTTP-proxy обновляет соединения до приложений. Используя клиентский код, изменения заметите сразу. Вместо заключения ----------------- Вот так легко и быстро, как опытный повар готовит спагетти, мы приготовили кокаиновое облако. Теперь при наличии инфраструктуры хочется рассказать о том, как писать приложения для Cocaine на различных языках, как писать свои cервисы, как сделать фреймворк. Но об этом в другой раз.`
https://habr.com/ru/post/214069/
null
ru
null
# «Сложно о простом». Функции-конструкторы — как объекты,(prototype). Объекты,(__proto__). constructor, ={}, как функция-конструктор new Object() В [прошлый раз](http://habrahabr.ru/post/150730/) мы попытались разобраться со следующими вещами: * 1. Не смотря на расхожее мнение «всё в JS является объектами» — это не так, мы выяснили, что из 6 доступных программисту типов данных аж 5 является примитивами и лишь один представляет тип объектов. * 2. Про объекты мы узнали, что это такая структура данных, которая содержит в себе пары «ключ-значение». Значением может быть любой из типов данных (и это будет свойство объекта) или функция (и это будет метод объекта). * 3. А вот примитивы – это не объекты. Хотя с ними и можно работать как с объектом (и это вызывает заблуждение что примитив – это объект), но… * 4. Переменные можно объявить как по простому (литерально) (var a = ‘str’), так и через функцию-конструктор (обёртка)(var a = new String(‘str’)). Во втором случае мы получим уже не примитив, а объект созданный конструктором String(). (что за магический оператор new и что такое функция-конструктор мы узнаем дальше). * 5. Узнали, что именно за счёт создания обёртки над примитивом (new String(‘str’)) c ним можно работать как с объектом. Именно эту обёртку создаёт интерпретатор вокруг примитива, когда мы пытаемся работать с ним как с объектом, но после выполнения операции она разрушается (поэтому примитив никогда не сможет запомнить свойство, которое мы ему присвоим a.test = ‘test’- свойство test исчезнет с обёрткой). * 6. Узнали, что у объектов есть метод toString() который возвращает строковое представление объекта (для типа number valueOf() – вернёт числовое значение). * 7. Поняли, что при выполнении операций конкатенации или математических операциях примитивы могут переопределить свой тип в нужный. Для этого они используют функции-обёртки своих типов, но без оператора new (str = String(str)).(в чём разница и как это работает, поговорим дальше) * 8. И наконец, узнали, что typeof берёт значения из жёстко зафиксированной таблицы (вот откуда ещё одно заблуждение, основанное на typeof null //object). Сегодня я бы хотел рассказать о работе с функциями-конструкторами и свойстве prototype, а так же о работе с порождаемыми ими объектами и их свойством \_\_proto\_\_. Это часто нужно при попытках организовать наследование в JS и для понимание некоторых процессов происходящих в нём. Это даст также понимание какой-то части прототипного наследования. В качестве примера для разбора(пока он может быть не всем понятен) возьмём такой код: Пример1: ``` function A() {} A.prototype.x = 10; a = new A(); console.log(a.x); //10 console.log(a.y); //undefined A.prototype.y = 20; console.log(a.y); //20 /*То есть при таком подходе A.prototype.<свойство> добавления свойств в прототип все эти свойства стразу появляются у экземпляра*/ Пример2: function B() {} B.prototype.x = 10; b = new B(); console.log(b.x); //10 console.log(b.y); //undefined B.prototype = {constructor:B, x:10, y:20}; console.log(b.x); //10 console.log(b.y); //undefined /*А при таком подходе B.prototype = {constructor:B, x:10, y:20}; добавления свойств в прототип с экземпляром ничего не происходит*/ b1 = new B(); console.log(b1.x); //10 console.log(b1.y); //20 /*Зато у последующих потомков появляются все новые свойства*/ b instanceof B; //false b1 instanceof B //true /*Более того оказывается что придедущие потомки уже и не потомки вовсе*/ ``` ##### Функции-конструкторы, как объекты, prototype. Начнём по порядку. Рассмотрим простую на первый взгляд строчку кода. ``` function A() {} ``` Самое первое что можно сказать: «Мы объявили функцию с именем A». Совершенно верно. Но здесь есть нюансы. 1. Не забываем что в JS — практически всё есть Объект. Функция, как оказалось не исключение(это даже два объекта связанные ссылкой). 2. Её можно использовать как функцию-конструктор. В JavaScript нет того, что принято называть классами. Работу классов в JavaScript выполняют функции-конструкторы, которые создают объекты с определенными заданными свойствами. В общем-то говоря любая объект-функция в JS может быть конструктором( я говорю о пользовательских функциях). Их условно можно поделить на три (DF(Функция декларация), FE(Функция выражение), функции созданные конструктором Function()). У всех этих функций есть свои особенности(по этому они разделены на разные группы), но о них я здесь рассказывать не буду, если кому интересно я отвечу лично или напишу отдельно про них в другой раз. Однако у них есть и одна общая черта, которая позволяет им быть конструкторами — это наличие внутренних свойств [[Construct]] и [[Call]], а также явного свойства prototype(о нем ниже). Именно внутренний метод [[Construct]] отвечает за выделения памяти под новый объект и его инициализацию. Однако — это не значит что вызов функции приведёт к созданию объекта, конечно нет. Для этого перед вызовом функции нужно поставить оператор new. Именно new запускает метод [[Construct]] и связанные с ним процессы. ``` function A(){} A(); //просто вызов функции var a = new A(); //вызов функции-конструктора. Экземпляр (a) созданный функцией-конструктором (A) ``` 3. Так же можно сказать что это функция декларация(DF) и прочее, но остальное пока не важно. Итак Функция «A» (из первой строчки первого примера) — это функция-конструктор и по совместительству объект. Раз это объект — она может иметь свойства. Так оно и есть. А раз это функций-конструктор, то она имеет свойство prototype. Свойство prototype — это ссылка на объект, который хранит свойства и методы которые перейдут к экземплярам созданным этой функцией-конструктором. Давайте попробуем всё это отобразить графически. ![](https://habrastorage.org/r/w780q1/storage2/c33/bc5/a11/c33bc5a11887b62421a70f7a8b253144.jpg) По умолчанию объект prototype «пустой» (ну почти пустой, но об это ниже). Выше я сказал что всё что лежит в этом объекте перейдёт в экземпляр, а так же будет доступно потомкам. То есть по умолчанию(если ничего в prototype не дописывать), то в экземпляр «ничего» не перейдёт от функции-конструктора «A». То есть при выполнении кода: ``` function A(){} var a = new A(); ``` мы получим «обычный»( насколько это можно в JS ) объект «а». В JS уже встроено много функций-конструкторов. Это например Number(), String() и т. д. Давайте отвлечёмся ненадолго от примера и поговорим о встроенных функциях-конструкторах и об Объектах в целом. ##### Объекты(\_\_proto\_\_). Из прошлой статьи, мы знаем, что при создании (явно или не явно) объектов одним из встроенных конструкторов Number(), String() или Boolean(), экземпляр получает доступ к некоторым методам характерным данному типу. Например для Number() есть метод toPrecision(). Если посмотреть в консоли на объект созданный конструктором new Number(2), то Вы не обнаружите там этого метода(Вы вообще не обнаружете там методов). Откуда же он берётся? Как раз он и подобные ему методы(к которым должен иметь доступ потомок) и содержатся в prototype-объекте родителя. Но как экземпляр получает к ним доступ? У экземпляра есть свойство \_\_proto\_\_ — это ссылка на prototype-объект родителя. Если при вызове метода, метод не находится в самом экземпляре, происходит переход по ссылке \_\_proto\_\_ в prototype-объект родителя и поиск продолжается там. На самом деле так продолжается и дальше пока не будет встречен null. Попробуем всё это нарисовать: ![](https://habrastorage.org/r/w780q1/storage2/9b0/07b/69a/9b007b69a22e739364bc4a79bf90f132.jpg) Подведя итог можно сказать, что пока всё не сложно: Есть родитель(функция-конструктор), у которой есть ссылка в свойстве prototype на некий объект где хранятся все методы и свойства к которым потомок должен иметь доступ. И есть, собственно, потомок которому при создании через вызов new от родителя передаётся ссылка в свойство \_\_proto\_\_ на тот самый объект с общими свойствами и методами. Для закрепления попробуем рассмотреть пример: ``` function A() {} //Мы создаём функцию-конструктор (пока с «пустым» prototype) A.prototype.x = 10;//Теперь мы добавляем в prototype(через ссылку в сам объект) свойство (x) равное 10 a = new A(); //Создаём экземпляр у которого свойство __proto__ станет ссылкой на объект prototype свойством (x==10) console.log(a.x); //Свойство (x) не будет обнаружено в самом экземпляре (a), но пройдя по ссылке __proto__ интерпретатор найдёт его в объекте prototype. console.log(a.y); // А вот (y) нет ни там ни там. A.prototype.y = 20; //Однако добавив свойство (y) в prototype(через ссылку родителя в сам объект) console.log(a.y); //20 //Интерпретатор сможет найти и это свойство через ссылку __proto__ потомка ``` ##### constructor. Я всегда брал слово (пустой) в кавычки когда говорил («пустой» prototype). Мол когда мы создаём функцию-конструктор function A(){}, то создаётся свойство prototype с ссылкой на «пустой» prototype-объект. На самом деле нет. В prototype всё же кое-что лежит. Во-первых поскольку как я уже говорил prototype — это «простой» Объект, то там лежит свойство \_\_proto\_\_ с ссылкой на prototype функции-конструктора Object() (именно она создаёт всё «простые», самые элементарные объекты), а во-вторых там лежит свойство constructor. Свойство constructor туда добавляет интерпретатор, когда понимает что создаётся функция-конструктор а не просто объект Для начала давайте дополним наш первый рисунок с учётом этих двух фактов. ![](https://habrastorage.org/r/w780q1/storage2/535/8bd/4f8/5358bd4f822532cad13fc9acbf1f9fd9.jpg) Всё что нарисовано серым, нам сейчас особо не нужно — это для более полной картины. Сосредоточимся на свойстве constructor. Как видно из рисунка constructor указывает на саму функцию-конструктор для которой изначально было создано это «хранилище», этот объект. То есть между свойством prototype функции-конструктора и свойством constructor объекта-prototype появляется цикличность — они указывают на объекты друг-друга. Через свойство constructor (если оно всё ещё указывает на конструктор, а свойство prototype конструктора, в свою очередь, всё ещё указывает на первоначальный прототип) косвенно можно получить ссылку на прототип объекта: a.constructor.prototype.x. А можно полуть ссылку к самой функции-конструктору и её свойствам которые были присвоены не в prototype-объект, а конкретно к ней. Например: ``` function A(){} A.own = 'I am A!'; //А как я говорил функция — тоже объект и мы можем добавлять свойства a = new A(); a.own //undefined a.constructor.own // 'I am A!'; ``` ##### ={} — как функция-конструктор (new Object()). Отлично, вроде как всё встало на свои места. Есть «общее хранилище», у родителя и потомка есть ссылки на это хранилище, если свойства нет в самом экземпляре, то интерпретатор перейдя по ссылке поищет его в «общем хранилище». В чём загвоздка?? Посмотрим Пример2: ``` function B() {} B.prototype.x = 10; b = new B(); console.log(b.x); //10 console.log(b.y); //undefined B.prototype = {constructor:B, x:10, y:20}; console.log(b.x); //10 console.log(b.y); //undefined ``` Вроде как всё должно работать. Мы создали функцию-конструктор, задали «общему хранилищу» (prototype(через ссылку)) свойство (x), создали экземпляр, свойство (x) у него есть — всё нормально. Потом мы вообще переопределили свойство родителя prototype, добавив свойства (x) и (y) указали верный constructor. Всё должно работать в «общем хранилище лежит» оба этих свойства, но нет, (y) интерпретатор не находит. WTF?!? Что же здесь за магия происходит? Почему мы не видим этих изменений из потомка этого конструктора? Почему потомок не видит y? Ну во-первых мы переопределяем свойство prototype функции-конструктора(B) и оно начинает ссылаться на новый объект (связь с первоначальным объектом prototype разорвана). Во-вторых обычное присвоение переменной объекта, типа: var a = {}, интерпретатором на самом деле выполняется как var a = new Object(). А это значит, что свойство prototype функции-конструктора теперь содержит совершенно новый объект у которого ссылка constructor отсутствует и чтоб не потерять родителя мы самостоятельно дописываем туда свойство constructor и присваиваем ему самого родителя. А экземпляр сделанный ранее содержит ссылку \_\_proto\_\_ на старый объект prototype где свойства (y) нет. То есть в отличии от Примера1 здесь мы не «добавили в хранилище свойство» и даже не «переписали хранилище заново», мы просто создали новое, разорвав связь с старым, а экземпляр об этом ничего не знает, он всё ещё пользуется старым по своей старой ссылке \_\_proto\_\_. Выглядит это вот так: ![](https://habrastorage.org/r/w780q1/storage2/d53/229/020/d532290208b7dcc1595a20ed20dd117e.jpg) Чёрным цветом — это то что не изменилось и после B.prototype = {constructor:B, x:10, y:20}; Красным — то что удалилось Зелёным — то что добавилось Так же можно добавить немного об instanceof. Как ни странно, но в данном примере b1 будет принадлежать функции-конструктору B, а b — нет. Всё очень просто. Дело в том что instanceof ищет выполнения следующего условия — что бы объект указанный по ссылке \_\_proto\_\_(на любом уровне цепочки)(кружочек с цифрой 1) был равен объекту на который ссылается свойство prototype искомого родителя(кружочек с цифрой 2)(сравните на рисунке чёрный цвет и зелёный). В чёрном цвете это условие уже не выполняется, а в зелёном — выполняется. В нашем случае у экземпляра (b) эта связь разорвана, так как новое свойство prototype искомого родителя(B) ссылается уже на новый объект, а не как раньше. Зато у экземпляра (b1) с этим как видим всё в порядке. ##### Вдогонку По поводу this в теле функции-конструктора и вообще углубляться не буду — об этом в следующей статье. Единственное что скажу, это то, что this при вызове функции как конструктора(через new) будет указывать на создаваемый экземпляр, а при вызове как функции — на глобальный объект. Давайте разберём на примере: ``` function A(str){ this.val = str; } a = new A('test'); //Сдесь свойство val добавится в экземпляр, так как при вызове функции как конструктора this всегда будет указывать на создаваемый экземпляр A('test'); //А тут this — это глобальный объект. И теперь у него добавится свойство val console.log(val) //'test' ``` Как же узнать как вызвали функцию? Через new или нет? Это делается очень просто: ``` function A(str){ if( this instanceof A) //Если this является экземпляром A(то есть вызов через new) this.val = str; //добавить экземпляру свойство val else retur str; //Иначе(при простом вызове функции без new) вернуть строку } ``` Примерно таким образом реализован механизм приведения типов. При выполнении например 1+'1' интерпретатор воспринимает + как конкатенацию строк и пытается привести число 1 в строку. Это происходит с помощью неявного вызова String(1)(без new). А в конструкторе String написана примерно та же конструкция что у нас выше. То есть если вызов произошел без new просто вернуть строку(неявный вызов метода toString()). Таким образом без создания каких либо объектов происходит преобразование типов. Так же хочу добавить следующее, что бы добавить свойство к функции(именно к функции а не к prototype) нужно обратится к ней как к объекту. Например ``` function A(){} A.val = 'str'; ``` Это свойство будет недоступно потомку, так как оно не лежит в prototype, а потомок имеет доступ только туда. Но как говорится «если сильно хочется то можно». Тут то нам и пригодится свойсто объекта prototype — constructor. Оно как мы помним ссылается на саму функцию(если конечно этого специально не меняли). Тогда чтоб получить переменную val нужно обратится к ней так: ``` function A(){} A.val = 'str'; a = new A(); a.constructor.val; //'str' ``` Источники: <https://developer.mozilla.org> <http://dmitrysoshnikov.com/> <http://javascript.ru>
https://habr.com/ru/post/151070/
null
ru
null
# WiFi Enterprise. FreeRadius + FreeIPA + Ubiquiti ![](https://habrastorage.org/r/w780q1/webt/2w/tm/tw/2wtmtwbdgzq2u6yp-ujvywpl4rw.jpeg) Уже были описаны некоторые примеры организации корпоративного WiFi. Здесь я распишу как реализовал подобное решение и проблемы с которыми пришлось столкнуться при подключении на разных устройствах. Будем использовать уже имеющийся LDAP с заведенными пользователями, поднимем FreeRadius и настроим WPA2-Enterprise на контроллере Ubnt. Вроде все просто. Посмотрим… Немного о методах EAP --------------------- Прежде чем приступить к выполнению задачи, надо определиться какой метод аутентификации будем использовать в нашем решении. **Из википедии:** > EAP — фреймворк аутентификации, который часто используется в беспроводных сетях и соединениях точка-точка. Формат был впервые описан в RFC 3748 и обновлён в RFC 5247. > > EAP используется для выбора метода аутентификации, передачи ключей и обработки этих ключей подключаемыми модулями называемыми методами EAP. Существует множество методов EAP, как определенных вместе с самим EAP, так и выпущенных отдельными производителями. EAP не определяет канальный уровень, он только определяет формат сообщений. Каждый протокол использующий EAP имеет собственный протокол инкапсуляции сообщений EAP. **Сами методы:** * LEAP — проприетарный протокол, разработан CISCO. Найдены уязвимости. В настоящее время не рекомендуется использовать * EAP-TLS — хорошо поддерживаемый среди вендоров беспроводных соединений. Является безопасным протоколом, поскольку является преемником SSL стандартов. Настройка клиентской достаточно сложна. Нужен клиентский сертификат помимо пароля. Поддерживается во многих системах * EAP-TTLS — широко поддерживается во многих системах, предлагает хорошую безопасность, используя PKI сертификаты только на сервере аутентификации * EAP-MD5 — другой открытый стандарт. Предлагает минимальную безопасность. Уязвим, не поддерживает взаимную аутентификацию и генерацию ключей * EAP-IKEv2 — основан на Internet Key Exchange Protocol version 2. Обеспечивает взаимную аутентификацию и установление сеансового ключа между клиентом и сервером * PEAP — совместное решение CISCO, Microsoft и RSA Security как открытый стандарт. Широко доступен в продуктах, обеспечивает очень хорошую безопасность. Схож с EAP-TTLS, требуя только сертификат на серверной стороне * PEAPv0/EAP-MSCHAPv2 — после EAP-TLS, это второй широко используемый стандарт в мире. Используется клиент-серверная взаимосвязь в Microsoft, Cisco, Apple, Linux * PEAPv1/EAP-GTC — создан Cisco как альтернатива PEAPv0/EAP-MSCHAPv2. Не защищает аутентификационные данные в любом случае. Не поддерживаются в Windows OS * EAP-FAST — метод, разработанный Cisco для исправления недостатков LEAP. Использует Protected Access Credential (PAC). Полностью не доработан Из всего этого разнообразия, выбор все таки не велик. От метода аутентификации требовалось: хорошая безопасность, поддержка на всех устройствах (Windows 10, macOS, Linux, Android, iOS) и, собственно, чем проще, тем лучше. Поэтому выбор пал на EAP-TTLS в связке с протоколом PAP. Возможно возникнет вопрос — Зачем же использовать PAP? ведь он передает пароли в открытом виде? Да, все верно. Общение между FreeRadius и FreeIPA будет проходить именно в так. В режиме дебага можно отследить как отправляются username и password. Да и пусть отправляются, только у вас есть доступ к серверу FreeRadius. Подробнее о работе EAP-TTLS можно почитать [тут](https://ru.bmstu.wiki/EAP-TTLS_(Tunneled_Transport_Layer_Security)) FreeRADIUS ---------- FreeRadius будем поднимать на CentOS 7.6. Здесь ничего сложного, ставим обычным способом. ``` yum install freeradius freeradius-utils freeradius-ldap -y ``` *Из пакетов ставится версия 3.0.13. Последнюю можно взять на <https://freeradius.org/>* После этого FreeRadius уже работает. Можно в /etc/raddb/users расскоментировать строчку ``` steve Cleartext-Password := "testing" ``` Запустить в сервер в режиме дебага ``` freeradius -X ``` И делаем тестовое подключение с localhost ``` radtest steve testing 127.0.0.1 1812 testing123 ``` Получили ответ *Received Access-Accept Id 115 from 127.0.0.1:1812 to 127.0.0.1:56081 length 20*, значит все хорошо. Идем дальше. Подключаем модуль ***ldap***. ``` ln -s /etc/raddb/mods-available/ldap /etc/raddb/mods-enabled/ldap ``` И сразу его изменим. Нам нужно, чтобы FreeRadius мог обращаться к FreeIPA **mods-enabled/ldap** ``` ldap { server="ldap://ldap.server.com" port=636 start_tls=yes identity="uid=admin,cn=users,dc=server,dc=com" password=********** base_dn="cn=users,dc=server,dc=com" set_auth_type=yes ... user { base_dn="${..base_dn}" filter="(uid=%{%{Stripped-User-Name}:-%{User-Name}})" } ... ``` Перезапускаем radius-сервер и проверяем синхронизацию пользователей LDAP: ``` radtest user_ldap password_ldap localhost 1812 testing123 ``` Редактируем eap в ***mods-enabled/eap*** Здесь добавим два экземпляра eap. Они будут отличаться только сертификатами и ключами. Чуть ниже объясню, почему именно так **mods-enabled/eap** ``` eap eap-client { default_eap_type = ttls timer_expire = 60 ignore_unknown_eap_types = no cisco_accounting_username_bug = no max_sessions = ${max_requests} tls-config tls-common { private_key_file = ${certdir}/fisrt.key certificate_file = ${certdir}/first.crt dh_file = ${certdir}/dh ca_path = ${cadir} cipher_list = "HIGH" cipher_server_preference = no ecdh_curve = "prime256v1" check_crl = no } ttls { tls = tls-common default_eap_type = md5 copy_request_to_tunnel = no use_tunneled_reply = yes virtual_server = "inner-tunnel" } } eap eap-guest { default_eap_type = ttls timer_expire = 60 ignore_unknown_eap_types = no cisco_accounting_username_bug = no max_sessions = ${max_requests} tls-config tls-common { private_key_password=blablabla private_key_file = ${certdir}/server.key certificate_file = ${certdir}/server.crt dh_file = ${certdir}/dh ca_path = ${cadir} cipher_list = "HIGH" cipher_server_preference = no ecdh_curve = "prime256v1" check_crl = no } ttls { tls = tls-common default_eap_type = md5 copy_request_to_tunnel = no use_tunneled_reply = yes virtual_server = "inner-tunnel" } } ``` Далее редактируем ***site-enabled/default***. Интересуют разделы authorize и authenticate. **site-enabled/default** ``` authorize { filter_username preprocess if (&User-Name == "guest") { eap-guest { ok = return } } elsif (&User-Name == "client") { eap-client { ok = return } } else { eap-guest { ok = return } } ldap if ((ok || updated) && User-Password) { update { control:Auth-Type := ldap } } expiration logintime pap } authenticate { Auth-Type LDAP { ldap } Auth-Type eap-guest { eap-guest } Auth-Type eap-client { eap-client } pap } ``` В секции authorize убираем все модули, которые нам не нужны. Оставляем только ldap. Добавляем проверку клиента по username. Именно для этого мы добавляли выше два экземпляра eap. **Multi EAP**Дело в том, что подключая некоторые устройства мы будем использовать системные сертификаты и указывать домен. У нас есть сертификат и ключ от доверенного центра сертификации. Лично по моему мнению такая процедура подключения проще, чем кидать на каждое устройство самоподписанный сертификат. Но и без самоподписанных сертификатов все же не получилось уйти. Samsung девайсы и Android =< 6 версии не умеют использовать системные сертификаты. Поэтому для них создаем отдельный экземпляр eap-guest с самоподписанными сертификатами. Для всех других устройств будем использовать eap-client c доверенным сертификатом. User-Name определяется по полю Anonymous при подключении устройства. Разрешено использовать только 3 значения: Guest, Client и пустое поле. Остальное все отбрасывается. Это настраиватся в политиках. Пример приведу чуть позже Отредактируем секции authorize и authenticate в ***site-enabled/inner-tunnel*** **site-enabled/inner-tunnel** ``` authorize { filter_username filter_inner_identity update control { &Proxy-To-Realm := LOCAL } ldap if ((ok || updated) && User-Password) { update { control:Auth-Type := ldap } } expiration digest logintime pap } authenticate { Auth-Type eap-guest { eap-guest } Auth-Type eap-client { eap-client } Auth-Type PAP { pap } ldap } ``` Далее нужно прописать в политиках, какие имена можно использовать для анонимного входа. Редактируем ***policy.d/filter***. Нужно найти строчки похожие на это: ``` if (&outer.request:User-Name !~ /^(anon|@)/) { update request { Module-Failure-Message = "User-Name is not anonymized" } reject } ``` И ниже в elsif добавить нужные значения: ``` elsif (&outer.request:User-Name !~ /^(guest|client|@)/) { update request { Module-Failure-Message = "User-Name is not anonymized" } reject } ``` Теперь нам нужно переместиться в директорию ***certs***. Сюда нужно положить ключ и сертификат от доверенного центра сертификации, который у нас уже есть и нужно сгенерировать самоподписанные сертификаты для eap-guest. Изменяем параметры в файле ***ca.cnf***. **ca.cnf** ``` ... default_days = 3650 default_md = sha256 ... input_password = blablabla output_password = blablabla ... countryName = RU stateOrProvinceNmae = State localityNmae = City organizationName = NONAME emailAddress = admin@admin.ru commonName = "CA FreeRadius" ``` Такие же значения прописываем в файле ****server.cnf****. Меняем только **commonName**: **server.cnf** ``` ... default_days = 3650 default_md = sha256 ... input_password = blablabla output_password = blablabla ... countryName = RU stateOrProvinceNmae = State localityNmae = City organizationName = NONAME emailAddress = admin@admin.ru commonName = "Server Certificate FreeRadius" ``` Создаем: ``` make ``` Готово. Полученные ***server.crt*** и ***server.key*** у нас уже прописаны выше в eap-guest. И последнее, добавим наши точки доступа в файл ***client.conf***. У меня их 7. Чтобы не добавлять каждую точку отдельно, пропишем только сеть в которой они находятся (у меня точки доступа находятся в отдельном VLAN). ``` client APs { ipaddr = 192.168.100.0/24 password = password_AP } ``` Контроллер Ubiquiti ------------------- На контроллере поднимаем отдельную сеть. Пусть будет 192.168.2.0/24 Идем в настройки -> профиль. Cоздаем новый: ![](https://habrastorage.org/r/w1560/webt/n4/mj/_s/n4mj_shukldt1eogoqnpphaal3e.png) Прописываем адрес и порт radius-сервера и пароль, который прописывали в файле ***clients.conf***: ![](https://habrastorage.org/r/w1560/webt/6x/8e/km/6x8ekm2bbnrzghk0rv5qbdggnam.png) Создаем новое имя беспроводной сети. В качестве метода аутентификации выбираем WPA-EAP (Enterprise) и указываем созданный radius-профиль: ![](https://habrastorage.org/r/w1560/webt/5i/ku/9n/5iku9n_j-r3fqsxvppyekim8aqi.png) Все сохраняем, применяем и идем дальше. Настройка клиентов ------------------ Начнем с самого сложного! ### Windows 10 Сложность сводится к тому, что Windows пока еще не умеет подключаться к корпоративному WiFi по домену. Поэтому приходится вручную закидывать наш сертификат в хранилище доверенных сертификатов. Здесь можно использовать как самоподписанный так и от центра сертификации. Я буду использовать второй. Далее нужно создать новое подключение. Для этого идем в параметры сети и Интернет -> Центр управления сетями и общим доступом -> Создание и настройка нового подключения или сети: ![](https://habrastorage.org/r/w1560/webt/7d/9e/ix/7d9eixr7yfn94zmiv56f1kqpm_o.png) ![](https://habrastorage.org/r/w1560/webt/-z/iy/dp/-ziydpjwwwqxkgisvkxmj4kpfse.png) ![](https://habrastorage.org/r/w1560/webt/jg/hd/w3/jghdw32jkf-d-9gxs71ca2o-q9y.png) Вручную прописываем имя сети и меняем тип безопасности. После нажимаем на *изменить параметры подключения* и во владке Безопасность выбираем проверку подлинности сети — EAP-TTLS. ![](https://habrastorage.org/r/w1560/webt/gq/tg/x6/gqtgx6svylvh5sqmxrcjmovj-10.png) ![](https://habrastorage.org/r/w1560/webt/kn/7l/a8/kn7la8fhk6a2fh8vkjtwvsji1gu.png) ![](https://habrastorage.org/r/w1560/webt/y1/tl/gv/y1tlgv2-xbwqn-lcupnyiwpxz3s.png) Заходим в параметры, прописываем конфиденциальность аутентификации — **client**. В качестве доверенного центра сертификации выбираем добавленный нами сертификат, ставим галочку «Не выдавать пользователю приглашение, если не удается авторизовать сервер» и метод проверки подлинности выбираем — незашифрованный пароль (PAP). ![](https://habrastorage.org/r/w1560/webt/5x/ww/3j/5xww3jjmvmf1rhkdxcqvoxh0l18.png) Далее заходим в дополнительные параметры, ставим галочку на «Укажите режим проверки подлинности». Выбираем пункт «Проверка подлинности пользователя» и нажимаем на *сохранить учетные данные*. Здесь надо будет ввести username\_ldap и password\_ldap ![](https://habrastorage.org/r/w1560/webt/e5/lv/xu/e5lvxualbxusv6ksq1iqwhiodyi.png) ![](https://habrastorage.org/r/w1560/webt/om/he/tc/omhetcqvchjagt5mcqjo_e5hq0m.png) ![](https://habrastorage.org/r/w1560/webt/2p/ni/oc/2pniocysbjtvvzgoa5yqw5ahl_g.png) Все сохраняем, применяем, закрываем. Можно подключаться к новой сети. ### Linux Я проверял на Ubuntu 18.04, 18.10, Fedora 29, 30. Для начала, скачиваем себе сертификат. Я не нашел в Linux, есть ли возможность использовать системные сертификаты и есть ли там вообще такое хранилище. Будем подключаться по домену. Поэтому нужен сертификат удостоверяющего центра, у которого был приобретен наш сертификат. Все подключение делается в одном окне. Выбираем нашу сеть: ![](https://habrastorage.org/r/w1560/webt/_b/bv/ks/_bbvksnhgramkno1xteuugeiicu.png) *anonymous — client domain — домен, на который выпущен сертификат* ### Android #### non-Samsung C 7 версии при подключении WiFi можно использовать системные сертификаты, указав только домен: ![](https://habrastorage.org/r/w1560/webt/ft/ma/cl/ftmaclvd6hgnr6l61f1ntqx4pho.png) *domain — домен, на который выпущен сертификат anonymous — client* #### Samsung Как уже писал выше, Samsung-устройства не умеют использовать системные сертификаты при подключении WiFi, и у них нет возможности подключаться по домену. Поэтому надо вручную добавить корневой сертификат центра сертификации (ca.pem, берем на Radius сервере). Вот здесь будет использовать самоподписанный. Скачиваем сертификат себе на устройство и устанавливаем его. **Установка сертификата**![](https://habrastorage.org/r/w1560/webt/jw/vn/p6/jwvnp6k3hcvgr_-sxahbjjfwuma.png) ![](https://habrastorage.org/r/w1560/webt/vw/-u/2c/vw-u2crpfqhzv2hewbw4fvcm0k8.png) ![](https://habrastorage.org/r/w1560/webt/fn/n-/i6/fnn-i6gkkzzt6w9hxjpv5fgo_sk.png) ![](https://habrastorage.org/r/w1560/webt/xk/pc/-2/xkpc-2wufsgnckjexjhmiv79avy.png) При этом, надо будет установить рисунок разблокировки экрана, пин-код или пароль, если он еще не установлен: ![](https://habrastorage.org/r/w1560/webt/_w/aa/px/_waapxwklsloxwpvo3oe8mrdwek.png) ![](https://habrastorage.org/r/w1560/webt/v6/nx/k1/v6nxk1ts6ej-j8sffb1kpqfx9ae.png) *Я показал сложный вариант установки сертификата. На большинстве устройств достаточно просто нажать на скаченный сертификат.* Когда сертификат установлен, можно переходить к подключению: ![](https://habrastorage.org/r/w1560/webt/rr/9l/vx/rr9lvx4jov8ohepj-hetehl4g1s.png) *сертификат — указываем тот, который устанавливали анонимный пользователь — guest* ### macOS Яблочные устройства из коробки могут подключаться только к EAP-TLS, но все равно нужно закидывать им сертификат. Чтобы указать другой метод подключения, нужно воспользоваться Apple Configurator 2. Соответственно нужно предварительно скачать его на мак, создать новый профиль и добавить все необходимые настройки WiFi. **Apple Configurator**![](https://habrastorage.org/r/w1560/webt/tg/mj/zi/tgmjzi_qpkrel011yzj5q5h23qs.png) ![](https://habrastorage.org/r/w1560/webt/dw/dd/dl/dwdddlobqibczjpygjt1f-cnbp8.png) *Здесь указываем имя своей сети Security Type — WPA2 Enterprise Accepted EAP Types — TTLS User Name и Password — оставляем пустыми Inner Authentication — PAP Outer Identity — client* *Вкладка Trust. Здесь указываем наш домен* Все. Профиль можно сохранять, подписывать и распространять на устройства После того, как профиль готов, его нужно скачать на мак и установить. В процессе установки нужно будет указать usernmae\_ldap и password\_ldap пользователя: ![](https://habrastorage.org/r/w1560/webt/_z/um/7m/_zum7mpbqlszgaq5d9cm6k7-why.png) ![](https://habrastorage.org/r/w1560/webt/hb/iq/ig/hbiqigx3cy7zdklsbnx22zmb0e4.png) ![](https://habrastorage.org/r/w1560/webt/u4/tb/-8/u4tb-8v3jbt9t5gs9zz9tplbnt0.png) ### iOS Процесс аналогичен macOS. Нужно использовать профиль (можно прям такой же как для macOS. Как создавать профиль в Apple Configurator, смотреть выше). Скачиваем профиль, устанавливаем, вводим учетные данные, подключаемся: ![](https://habrastorage.org/r/w1560/webt/pi/gx/3m/pigx3mjskrdwyuk07xs0m6zh-v4.png) ![](https://habrastorage.org/r/w1560/webt/y9/hk/6g/y9hk6gm7k5jkdrvms-stzkdmu9s.png) ![](https://habrastorage.org/r/w1560/webt/ie/xt/a-/iexta-krrvub6rrozdvmk7adh_s.png) ![](https://habrastorage.org/r/w1560/webt/ej/oo/wj/ejoowjqmtjojl31jmau1z3np7mi.png) ![](https://habrastorage.org/r/w1560/webt/pw/s4/en/pws4enrdkqc97p009eglr3wpiy0.png) ![](https://habrastorage.org/r/w1560/webt/zj/z_/5f/zjz_5f7hqthgj52z_nnigigrcm4.png) На этом все. Мы настроили Radius сервер, синхронизировали его с FreeIPA и указали точкам доступа Ubiquiti использовать WPA2-EAP. Возможные вопросы ----------------- **В:** как передавать профиль/сертификат сотруднику? **О:** Все сертификаты/профили я храню на фтп с доступом через веб. Поднял гостевую сеть с ограничением по скорости и доступом только в интернет, за исключением фтп. Аутентификация держится 2 дня, после чего сбрасывается и клиент остается без интернета. Т.о. когда сотрудник хочет подключиться к WiFi, сначало он подключается к гостевой сети, заходит на фтп, скачивает нужный ему сертификат или профиль, устанавливает их, и после может подключаться к корпоративной сети. **В:** почему не использовать схему с MSCHAPv2? она же более безопасная! **О:** во-первых, такая схема хорошо работает на NPS (Windows Network Policy System), в нашей реализации необходимо дополнительно настраивать LDAP (FreeIpa) и хранить хэши паролей на сервере. Доп. настройки делать не желательно, т.к. это может привести к различным проблемам сихронизации УЗ. Во-вторых, хеш представляет собой MD4, так что это не особо повышает безопасность **В:** можно ли авторизовывать устройтсва по mac-адресам? **О:** НЕТ, это не безопасно, злоумышленник может подменить мак-адреса, и тем более авторизация по мак-адресам не поддерживается на многих устройствах **В:** зачем вообще все эти сертификаты использовать? можно же и без них подключаться **О:** сертификаты используются, чтобы авторизовать сервер. Т.е. устройство при подключении проверяет тот ли это сервер, которому можно доверять или нет. Если тот, то аутентификация проходит дальше, если нет, соединение закрывается. Можно подключаться без сертификатов, но если злоумышленик или сосед поднимет у себя дома radius-сервер и точку доступа с таким же именем как у нас, он сможет легко перехватить учетные данные пользователя (не забываем, что они передаются в открытом виде). А когда используется сертификат, враг увидит у себя в логах только наши вымышленные User-Name — guest или client и ошибку типа — Unknown CA Certificate **еще немного про macOS**Обычно на macOS переустановка системы делается через интернет. В режиме восстановления мак надо подключить к WiFi, и здесь не сработает ни наш корпоративный WiFi, ни гостевая сеть. Лично я поднял еще одну сеть, обычную по WPA2-PSK, скрытую, только для технических операций. Либо еще можно заранее сделать загрузочную флешку с системой. Но если мак после 2015 года, надо будет еще найдит адаптер для это флешки)
https://habr.com/ru/post/463225/
null
ru
null
# Hor+vert+ FOV, или адаптивное поле обзора ![](http://habrastorage.org/r/w780q1/storage2/11c/756/677/11c756677807a2f9ed9ec8e5bbf03c36.jpg) Привет всем! Сегодня, когда я тестировал свой порт Quake на планшете, я заметил, что в портретной ориентации смотреть демки не очень приятно из-за узкого поля обзора. Поэтому я решил придумать очень простой, но выглядящий хорошо (по моему мнению) как в портретной, так и в пейзажной ориентации, способ, как это исправить. И назвал я это Hor+vert+ FOV. #### В чём была проблема Так как у моего десктопа широкоформатный монитор, я изначально решил использовать Hor+ FOV вместо Vert-, несмотря на то, что в Quake используется Vert-, поскольку казалось, что я смотрю на мир через увеличительное стекло. *Quake с Vert- FOV на широкоформатном мониторе.* ![](https://habrastorage.org/r/w780q1/storage2/d6e/f29/830/d6ef29830eee9555b4a44b89586727d5.jpg) Hor+ работал нормально до тех пор, пока у меня не появился планшет. Всё выглядело отлично в пейзажной ориентации, но в портретной было уже не приближение, а просто тесно. *Quake с Hor+ FOV в портретной ориентации.* ![](https://habrastorage.org/r/w780q1/storage2/d3c/1fa/56f/d3c1fa56f1fa2f7af20d1774cb637760.jpg) #### Решение А решение оказалось простейшим. Вместо того, чтобы использовать какой-либо из двух типов FOV, я решил совместить эти два типа. Так как Quake был разработан для мониторов с соотношением сторон 4:3, я стал использовать это соотношение как базовое для переключения между двумя режимами. **Если соотношение сторон больше 4:3 (экран широкий) — используется Hor+. Если соотношение сторон меньше или равно 4:3 (экран узкий или близок к квадратному) — используется Vert-.** Но так как задачей было подогнать FOV под узкие экраны, то это значит, что чем уже экран, тем больше должно быть видно. Поэтому для нас Vert- фактически превратился в Vert+. Реализация такого способа занимает одну-единственную проверку на условие. Приведу весь код реализации данного способа из WebQuake. ``` if ((vrect.width * 0.75) <= vrect.height) { R.refdef.fov_x = SCR.fov.value; R.refdef.fov_y = Math.atan(vrect.height / (vrect.width / Math.tan(SCR.fov.value * Math.PI / 360.0))) * 360.0 / Math.PI; } else { R.refdef.fov_x = Math.atan(vrect.width / (vrect.height / Math.tan(SCR.fov.value * 0.82 * Math.PI / 360.0))) * 360.0 / Math.PI; R.refdef.fov_y = SCR.fov.value * 0.82; } ``` Пояснение: * SCR.fov — консольная переменная, обозначающая горизонтальный FOV при соотношении сторон 4:3 (идеальном соотношении сторон для Quake). * Если соотношение сторон меньше или равно 4:3, используем Vert+. Если нет, используем Vert-. * В случае с Vert+, берем горизонтальный FOV из консольной переменной, а вертикальный — рассчитываем по известному алгоритму. * В случае с Hor+, берем вертикальный FOV из консольной переменной, а горизонтальный — рассчитываем. * 0.82 — отношение вертикального FOV к горизонтальному при соотношении 4:3. Чтобы получить вертикальный FOV из консольной переменной, умножаем значение переменной на эту константу. Что из этого получилось: *Пейзажная ориентация — используется Hor+.* ![](http://habrastorage.org/r/w780q1/storage2/0cb/ad2/09c/0cbad209c75bc4c0e9be2fd08bf6e77b.jpg) *Портретная ориентация — используется Vert+.* ![](http://habrastorage.org/r/w780q1/storage2/73a/b1c/934/73ab1c93478bfc6b4869bb85185d0752.jpg) Как вы видите, и приближения здесь нет, и обзор хороший. Но есть одна маленькая проблема. #### Ошибка и её решение Как видно из предыдущего скриншота, модель оружия находится слишком далеко от игрока. Данная проблема присутствует только в том случае, когда используется Vert+ — в Hor+ такой эффект не наблюдается. Так как модель оружия в Quake рисуется отдельно от остальных моделей, ничто не мешает нам переключиться с Vert+ на Hor+ перед тем, как рисовать оружие, а после этого — обратно. *Мир рисуется в Vert+, а оружие — в Hor+.* ![](http://habrastorage.org/r/w780q1/storage2/c97/6a3/829/c976a382935539ae3b38a49ab7a012e9.jpg) Ошибка исправлена. #### Итог и заключение В итоге получилось так, как на первом скриншоте в этом посте. ![](http://habrastorage.org/r/w780q1/storage2/11c/756/677/11c756677807a2f9ed9ec8e5bbf03c36.jpg) Может быть, данная техника и не нова (хотя я пока ещё не встречал ни одной игры, использующей что-то подобное), но она имеет большое значение. Использование адаптивного FOV очень важно в эпоху веб-приложений и мобильных устройств, так как окно браузера может иметь любую прямоугольную форму, а смартфоны и планшеты работают как в горизонтальной, так и в вертикальной ориентации. Спасибо за прочтение.
https://habr.com/ru/post/168077/
null
ru
null
# Обновление библиотеки SPPermission и хейтер — “*Какая-то библиотека, кто-то обновил… Хейтер тут причем? Почему мне, отличному разработчику, нужно тратить время на эту статью?*” мог подумать ты, мой дорогой друг. Не нужно тратить время. Это просто вечернее чтиво с долей несмешных юморесок. Текст будет о библиотеке [RequestPermission](https://github.com/IvanVorobei/SPPermission) и о её загадочном авторе. Начнем с главного — ребрендинг! Библиотека переименована в [SPPermission](https://github.com/IvanVorobei/SPPermission). Уж не знаю, в этом дело или нет, но после изменения названия уже как вторую неделю висит в [топе GitHub](https://github.com/trending/swift). Да-да, такой топ есть, он условный, но все же интересные проекты там можно найти. Автор (загадочная персона), обновил банеры на [странице проекта](https://github.com/IvanVorobei/SPPermission), описание, огромный раздел *донат* вставил. Жадный какой! Но все же перейдем к самому проекту: ![](https://habrastorage.org/webt/g8/b4/pb/g8b4pbkznhzv5e-fhz_rifcodpo.gif) Как можно увидеть из огромного размера гифки *(неправославные 4 мегабайта)*, проект запрашивает список разрешений, есть иконки, текста. Можно даже сказать что выглядит неплохо. ### Устанавливаем Можно просто перетянуть исходники к себе в проект, это папка структурированых файлов. А можно ~~не страдать ерундой~~ встроить библиотеку при помощи *СocoaPods*. Плюсы и минусы рассказывать не буду, не об этом статья. Добавляем в *pod* файл строку: ``` pod 'SPPermission' ``` и обновляем зависимости. Скорее всего, это самый сложный шаг из всех предстоящих) ### Используем Если вы просто перетянули файлы в проект, модуль *SPPermission* уже доступен. Если же вы ~~не страдали ерундой~~ использовали *СocoaPods*, то стоит импортировать в контроллер библиотеку: ``` import SPPermission ``` Теперь в функции *viewDidAppear* вызовем следующую конструкцию: ``` override func viewDidAppear(_ animated: Bool) { super.viewDidAppear(animated) SPPermission.Dialog.request( with: [.camera, .calendar, .notification], on: self ) } ``` Передаем список разрешений и контроллер, на котором будем презентовать диалоговое окно. Остается запустить проект. ### Кастомизация Если ты, дорогой друг, работал с таблицами или коллекциями, то слова *Delegate* и *DataSource* не испугают. А если немного помешан на паттернах, то даже вскрикнешь: — “*Ого! Протоколоориенторованный подход!*” Вот видишь! Видишь? А я же говорил что будет не смешно. Но раз дочитал до этой строки, то пойдем дальше. Начнем с протокола *SPPermissionDialogDataSource*, он будет отвечать за кастомизацию диалогового окна и позволит более лояльно интегрировать библиотеку в проект. Посмотрим на параметры: ``` @objc public protocol SPPermissionDialogDataSource: class { @objc optional var dialogTitle: String { get } @objc optional var dialogSubtitle: String { get } @objc optional var dialogComment: String { get } @objc optional var allowTitle: String { get } @objc optional var allowedTitle: String { get } @objc optional var bottomComment: String { get } @objc optional var showCloseButton: Bool { get } @objc optional func name(for permission: SPPermissionType) -> String? @objc optional func description(for permission: SPPermissionType) -> String? @objc optional func image(for permission: SPPermissionType) -> UIImage? } ``` Если честно, не вижу смысла останавливаться на каждом, так как названия у них говорящие. Разберем пару неоднозначных: *bottomComment* и *showCloseButton*. Первый параметр отвечает за комментарий под диалоговым окном, туда можно поместить, к примеру, подсказку "*Смахните чтобы закрыть*": ![](https://habrastorage.org/r/w780q1/webt/o3/ju/ol/o3juolykpylxcrkpb1jumil_t5s.jpeg) Второй параметр, *showCloseButton*, отвечает за кнопку закрыть в правом верхнем углу экрана. Картинка с примерном у меня тоже есть: ![](https://habrastorage.org/r/w780q1/webt/dx/8z/va/dx8zva68cc4b6zwllgs5yk95ps0.jpeg) Некоторые функции разрешают вернуть *nil*, это необходимо, если не требуется кастомизировать все заголовки / иконки или текста. Достаточно вернуть *nil*, чтобы оставить значение по умолчанию: ``` func description(for permission: SPPermissionType) -> String? { if permission == .calendar { return "Календарь" } еlse { return nil } } ``` Остается передать в основную конструкцию объект *DataSource*: ``` SPPermission.Dialog.request( with: [.camera, .calendar, .microphone, .notification], on: self, dataSource: self ) ``` ### Делегат Он позволяет отследить некоторые события. Заглянем в протокол: ``` @objc public protocol SPPermissionDialogDelegate: class { @objc optional func didHide() @objc optional func didAllow(permission: SPPermissionType) } ``` Мда, не густо… А хотя, что еще надо?) Объяснять при каких событиях будут вызваны функции, думаю, не стоит. Названия говорящие. Обращаю внимание — делегат нужно не забыть указать: ``` SPPermission.Dialog.request( with: [.camera, .calendar, .microphone, .notification], on: self, delegate: self dataSource: self ) ``` ### Разрешения ![](https://habrastorage.org/r/w780q1/webt/og/ow/qt/ogowqtraw3cz4vrwpjjupu4vmuo.jpeg) Список будет пополняться, если есть пожелания или критические замечания по библиотеке, стоит создать новый issue [здесь](https://github.com/IvanVorobei/SPPermission/issues) ### Плюшки Стоит обратить внимание на полезную функцию: ``` func isAllow(_ permission: SPPermissionType) -> Bool ``` Она позволит узнать дал ли пользователь разрешение. Для повышения лояльности рекомендуется запрашивать разрешения не пачкой, а перед использованием. И не более 3-ех! Хотя мне трудно придумать ситуацию где нужно больше) Использовать так: ``` let isAvailableCamera = SPPermission.isAllow(.сamera) ``` ### Зачем было обновлять Старая версия выглядела так, и возможно еще год назад она была ничего: ![](https://habrastorage.org/files/270/1d0/037/2701d00370d74987ae03348cc59d24b0.gif) Собственно год я ее не обновлял (да ладно, не делайте вид что не поняли что я автор библиотеки), а совсем недавно, получив письмо… хотя об этой истории давайте чуть позже. Мы тут серьезными делами занимаемся! ### Архитектура Примерно год назад я написал [статью](https://habr.com/post/326620/), в которой прямо громил любителей неоправданного использования архитектуры. Но так думал только я, и основной посыл был не услышен. Мое стремление упрощать за этот год не остановилось. Когда я задумал редизайн, то понял, проект придется переписывать целиком. Это какая-то буровая установка с возможностью слушать радио, резать овощи и обогреватель на пол ставки. Я это увидел спустя год! Сейчас мне кажется было глупо писать [эту статью](https://habr.com/post/326620/), имея такой сложный пример. Наверное, через ещё один год, я сделаю всё ещё проще. Посмотрим) ### Так что за история? Туториал собсна закончился и мы переходим к болтовне. Несколько недель назад я получил письмо, с просьбой объяснить как работает библиотека. Это был странный вопрос, а так как я библиотеку забросил, то просто ответил шаблонным: — “*Дорогой друг, я не поддерживаю библиотеку сейчас, не имею свободного времени. Всего хорошего*” Вот прямо так и написал, только на забугорском. И забыл. Зайдя с мака, я увидел около десятка!!! сообщений в папке спам. Ну все, явно какой-то портал разошелся, сейчас как отпишусь от их рассылки! А нннет… Мне писал тот же парень, только в этот раз в гневе. В письмах я узнал что я не автор библиотеки (поэтому и не могу подсказать), узнал что такие как я это самые ужасные люди (и нам нужно запретить регистрацию на GitHub), узнал что я хочу много денег за свою никчемную работу. Денег? На старой странице небыло даже формы доната. Но я понял суть, человек был просто зол. Я решил помочь, но не из-за доброты — мне было безумно интересно что такое невероятное было нужно кастомизировать, что спровоцировало огромную волну гнева. Оказалось, он искал метод, который вызывается при закрытии диалогового окна. Моему смеху сквозь слезы небыло предела! Делегат был описан в первой же версии. История грустная, но дальше еще грустнее! Да-да! Я подробно описал лично ему как использовать делегаты, так сказать общий курс. Не упустил возможности съехидничать и сказал что всё это было на главной странице проекта с самого начала. Ответ я получил… но плакать захотелось еще больше: — “*Я недавно начал программировать и не хочу разбираться в документациях. До свидания*” Я долго смеялся. ### Заканчиваем Краткий ликбез введен, для внимательных я оставлю ссылки на [таймлапас с дизайном](https://youtu.be/1mDdX7fQRv4) (я бессовестно слизываю отступы и цвета с эпловских приложений) и [туториал](https://youtu.be/viFDunOdyBg), который покажет все что я здесь описывал, но наглядно. 

Всем успешных миграций на новый Swift!
https://habr.com/ru/post/430886/
null
ru
null
# STM32 и FreeRTOS. 3. Встаем в очередь Раньше: [про потоки](http://habrahabr.ru/post/249273/) и [про семафоры](http://habrahabr.ru/post/249283/) «Вас много, а я одна!» — классическая фраза продавщицы, которую затерроризировали покупатели с вопросами «А есть ...?». Вот и в микроконтроллерах случаются полностью аналогичные ситуации, когда несколько потоков требуют внимания от какой-либо медленной штуки, которая просто физически не способна обслужить всех разом. Возьмем наиболее яркий и богатый проблемами пример, на котором «валятся» большинство неопытных программистов. Есть мощный и достаточно быстрый микроконтроллер. К нему подключен с одной стороны адаптер com-порта, через который пользователь подает команды и получает результаты, а с другой — шаговый двигатель, который согласно этим командам поворачивается на какой-то угол. И конечно же, прикольная кнопочка, которая тоже что-то этакое значит для пользователя. Где можно наловить проблем? Пойдем со стороны пользователя. Com-порт, или USART (universal synchronous/asynchronous receiver/transmitter) — штука очень нежная и капризная. Основной каприз заключается в том, что ее нельзя оставлять без внимания. По одной простой причине — для экономии выводов в 99% случаев выводят только сигналы приема и передачи, оставляя сигналы разрешения приема и передачи (rtr/rts,dtr,cts и прочие) за бортом. И стоит микропроцессору хоть чуть-чуть замешкаться, как символ будет потерян. Судите сами: магические цифры 9600/8N1 говорят нам, что в секунду по линии летит 9600 бод, а один символ кодируется 10 (1 стартовый, 8 данных и 1 стоповый) импульсами. В итоге максимальная скорость передачи составляет 9600/10 = 960 байт в секунду. Или чуть больше одной миллисекунды на байт. А если по ТЗ скорость передачи 115200? А ведь микроконтроллеру надо еще обработать эти данные. Кажется, что все плохо, но в реальности куча устройств работает и не доставляет проблем. Какие же решения применяются? Cамым распространенным (и правильным) решением является перекладка всей работы по приему или передаче символов на плечи микроконтроллера. Делать аппаратный usart порт научились сейчас все, поэтому типовое решение в большинстве случаев выглядит примерно вот так: ``` void URARTInterrupt() { a=GetCharFromUSART(); if(a!=0x13) buffer[count++]=a; else startProcessing(); } ``` Где проблема? Во-первых, проблема в вызове startProcessing. Стоит этой функции хоть чуть-чуть задержаться с работой, как очередной символ будет потерян. Берем STM32L1 (который на минимальной частоте успевает за 1мс обработать всего 84 команды) и при более-менее развесистой логике полученная конструкция будет терять символы. После дружеского похлопывания по голове у нас в студии программист переписывает код так, что бы вместо вызова startProcessing поднимался семафор, который и запускал бы обработку полученных данных. И тут же получил следующую проблему в полный рост: пока startProcessing что-то там перемалывает из буфера, обработчик нового символа начинает планомерно затирать еще не обработанный буфер. После очередного разорванного свитера и скуренной книжки по буферам программист реализует кольцевой буфер с указателями, чем закапывает проблему еще глубже. Обычно где-то на этом месте я замечаю удивленные глаза народа и возмущенные выкрики в духе «ну такие алгоритмы же работают в куче проектов и ничего, никаких проблем». Да, работают. Но в каких проектах? Только в тех, где можно все общение с контроллером перевести на полудуплексный режим, как в рациях. Вот пример диалога пользователя (П) и контроллера (К) *П: ATZ (Контроллер, ты живой?) К: ОК (Ага, я тут) П: М340,1 (Сделай чего-то) (тут может быть пауза, иногда очень большая) К: ОК (Сделал типа)* Где проблемы? Во-первых, нельзя послать несколько команд подряд. Значит либо надо будет менять логику или делать сложные команды с несколькими параметрами. Во-вторых, между запросом и ответом не может быть никаких других запросов и ответов. А вдруг пользователь в процессе движения нажмет кнопку? Что делать? Выход только один — использовать родную природу порта, а именно его асинхронность. В результате диалог между пользователем и контроллером выглядит примерно так *П: ATZ (жив?) К: ОК (ага) П: M340,1 К: К1=1 (кнопку нажали) П: Е333,25,2 (тишина) К: Е=1 (задачу Е выполнил) К: М=1 (задачу М выполнил)* Конечно, логика обработки подобного потока немного усложняется, зато благодаря такой асинхронности мы сразу получаем множество преимуществ перед «классической школой». Во-первых, резко повышается отзывчивость интерфейса с пользователем. Ну работает там где-то моторчик или считается что-то, но это же не повод «замирать» или «тормозить». А когда заказчик понимает, что величина тормозов практически не зависит от мощности контроллера, у него возникают резонные вопросы… Во-вторых, такое поведение ближе к поведению небольшого начальника в реальной жизни. И скопировать такое поведение очень легко — все видели, все участвовали. И наконец, мы разделяем поток управления на «командный» и «статусный». И в результате реализация всяких индикаторов объемов выполнения задачи или углов поворота в реальном времени не представляет трудностей. А теперь со всеми этими задумками взглянем на противоположную сторону — на сторону исполнителя. Он достаточно медлителен, что бы попросту не успеть обработать команды по порядку. И время запуска-остановки моторчика очень большое, поэтому хорошо бы сделать примитивную оптимизацию в духе «если поступило две команды на поворот в одну сторону, то поверни за раз». Что делает обычный программист? Так как он прочитал предыдущие статьи и кучку книжек, то он рисует логику расставляя семафоры по необходимости, а для блокирования одновременного доступа к моторчику использует мутексы. Все хорошо, но код получается громоздкий и тяжело читаемый. Что делать? У нас в studiovsemoe.com мы используем рецепт Шарикова: «В очередь, сукины дети! В очередь!». Опять же, концепция очереди впитывается чуть ли не с молоком матери, поэтому проблем с пониманием никаких. В данном примере можно просто создать три очереди. Первая это команды, полученные от пользователя. В нее засовывается все (ну или после минимальной проверки), что принято со всех входных портов. Вторая это те данные, которые необходимо выдать пользователю. Состояние кнопок, результаты расчетов и так далее. И наконец, третья очередь служит для заданий моторчику/считалке/кому-то еще. А между этими очередями потоки для преобразования данных от пользователя в задания для считалки. Так как в FreeRTOS есть официальные функции для «заглядывания» внутрь очереди, то легко сделать оптимизацию для случаев, когда следующее действие продолжает/повторяет текущее. Итак, всего три очереди, а дикая куча проблем решена. Во-первых, нет даже потенциальной проблемы потери или переписи буфера принятых символов. Правда результатом станет чуть больший расход памяти, но это допустимая цена. Во-вторых, нет проблем с выводом. Все процессы просто пишут в одну очередь, а как выводить, в каком формате и прочее — это уже не их забота. Надо оформлять вывод в рамочку — переписываем одну функцию, а не все, которые что-то могут выводить. Опять же, нет проблем с одновременным/перекрывающимся выводом (когда один поток выводит 12345, а другой qwerty, но пользователь получает что-то типа 1qw234er5ty). И наконец благодаря такому подходу задачи очень легко разделить на более мелкие и раскидать их по потокам/ядрам микропроцессора. А все это означает ускорение разработки и снижение стоимости поддержки. Все рады, все довольны. Что бы не отходить от практики мигания светодиодами, сделаем следующую демонстрацию: создадим очередь, из которой раз в секунду будет забираться элемент (имитация обсчета). По нажатию кнопки в очередь два раза в секунду будет помещаться элемент (управляющие команды). Ну а светодиодики будут показывать загруженность очереди. Опять же, предупреждаю что код для повышения читаемости написан без обработки ошибок, поэтому аккуратней. Где-то в начале кода определим очередь ``` xQueueHandle q; ``` Код зажигания светодиодов поменяем по принципу «в очереди больше Н элементов? зажигаем, если нет, то нет» ``` if(uxQueueMessagesWaiting(q)>1) HAL_GPIO_WritePin(GPIOE,GPIO_PIN_9,GPIO_PIN_SET); else НAL_GPIO_WritePin(GPIOE,GPIO_PIN_9,GPIO_PIN_RESET); osDelay(100); ``` Перед запуском планировщика проинициализируем очередь так, что бы в ней могли «стоять» 8 элементов размером с байт. ``` q = xQueueCreate( 8, sizeof( unsigned char ) ); ``` Ну и код кнопки для помещения символов в очередь ``` if(HAL_GPIO_ReadPin(GPIOA,GPIO_PIN_0)==GPIO_PIN_SET) { unsigned char toSend; xQueueSend( q, ( void * ) &toSend, portMAX_DELAY ); } osDelay(500); ``` Чего не хватает? Воркера, который забирает из очереди задания. Пишем. ``` static void WorkThread(void const * argument) { for(;;) { unsigned char rec; xQueueReceive( q, &( rec ), portMAX_DELAY ); osDelay(1000); } } ``` Как видите, все параметры аналогичны тем, что используются в семафорах, поэтому повторяться не буду. И как обычно, результат проще показать. Код со всеми потрохами доступен по адресу [kaloshin.ru/stm32/freertos/stage3.rar](http://kaloshin.ru/stm32/freertos/stage3.rar) [Следующая часть](http://habrahabr.ru/post/249395/)
https://habr.com/ru/post/249381/
null
ru
null
# ML на Scala с улыбкой, для тех, кто не боится экспериментов ![](https://habrastorage.org/r/w1560/webt/n4/cq/gu/n4cqgunchqczcws7cj09vm0kpiq.png) Всем привет! Сегодня будем говорить о реализации машинного обучения на Scala. Начну с объяснения, как мы докатились до такой жизни. Итак, наша команда долгое время использовала все возможности машинного обучения на Python. Это удобно, есть много полезных библиотек для подготовки данных, хорошая инфраструктура для разработки, я имею в виду Jupyter Notebook. Всё бы ничего, но столкнулись с проблемой распараллеливания вычислений в production, и решили использовать в проде Scala. Почему бы и нет, подумали мы, там есть куча библиотек, даже Apache Spark написан на Scala! При этом, сегодня модели мы разрабатываем на Python, а затем повторяем обучение на Scala для дальнейшей сериализации и использования в production. Но, как говорится, дьявол кроется в деталях. Сразу хочу внести ясность, дорогой читатель, эта статья написана не с целью пошатнуть репутацию Python в вопросах машинного обучения. Нет, основная цель — приоткрыть дверь в мир машинного обучения на Scala, сделать небольшой обзор альтернативного подхода, вытекающего из нашего опыта, и рассказать, с какими трудностями мы столкнулись. На практике оказалось не так уж всё и радостно: не так много библиотек, реализующих классические алгоритмы машинного обучения, а те, что есть — это, зачастую, OpenSource-проекты без поддержки крупных вендоров. Да, безусловно, есть Spark MLib, но он сильно привязан к экосистеме Apache Hadoop, да и тащить его в микросервисную архитектуру уж очень не хотелось. Нужно было решение, которое спасёт мир и вернёт спокойный сон, и оно было найдено! Что нужно? ---------- Когда мы выбирали инструмент для машинного обучения, то исходили из таких критериев: * он должен быть простой; * несмотря на простоту, широкую функциональность никто не отменял; * очень хотелось иметь возможность разрабатывать модели в web-интерпретаторе, а не через консоль или постоянные сборки и компиляции; * наличие документации играет важную роль; * в идеале, чтобы была поддержка, хотя бы отвечающая на github issues. Что мы посмотрели? ------------------ * [Apache Spark MLib](https://spark.apache.org/mllib/): нам не подошёл. Как было сказано выше, этот набор библиотек сильно привязан к стеку Apache Hadoop и самому Spark Core, который слишком много весит, чтобы строить микросервисы на его основе. * [Apache PredictionIO](http://predictionio.apache.org/index.html): интересный проект, много контрибьюторов, есть документация с примерами. По сути, это REST-сервер, на котором крутятся модели. Есть готовые модели, например, классификация текста, запуск которых описан в документации. В документации описано, как можно добавлять и обучать свои модели. Нам не подошёл, так как под капотом используется Spark, и это больше из области монолитного решения, а не микросервисная архитектура. * [Apache MXNet](https://mxnet.incubator.apache.org): интересный фреймворк для работы с нейронными сетями, есть поддержка Scala и Python — это удобно, можно обучать нейронную сеть на Python, а потом сохранённый результат подгружать из Scala при создании production-решения. Мы его используем в production-решениях, об этом есть отдельная статья [тут](https://habr.com/ru/company/mailru/blog/439226/). * [Smile](https://haifengl.github.io/smile/): очень похож на пакет scikit-learn для Python. Есть много реализаций классических алгоритмов машинного обучения, хорошая документация с примерами, поддержка на github, встроенный визуализатор (работает на базе Swing), для разработки моделей можно использовать Jupyter Notebook. Это как раз то, что нужно! Подготовка окружения -------------------- Итак, мы выбрали Smile. Расскажу, как запустить его в Jupyter Notebook на примере алгоритма кластеризации k-means. Первое, что нам нужно сделать — установить Jupyter Notebook с поддержкой Scala. Это можно сделать через pip, или использовать уже собранный и настроенный Docker-образ. Я за более простой, второй вариант. Чтобы подружить Jupyter со Scala, я хотел воспользоваться BeakerX, входящим в состав Docker-образа, доступного в официальном репозитории BeakerX. Этот образ рекомендован в документации Smile, и запустить его можно так: ``` # Официальный образ BeakerX docker run -p 8888:8888 beakerx/beakerx ``` Но здесь поджидала первая неприятность: на момент написания статьи внутри образа beakerx/beakerx был установлен BeakerX 1.0.0, а в официальном github проекта уже доступна версия 1.4.1 (точнее, последний релиз 1.3.0, но в мастере лежит 1.4.1, и она работает :-) ). Понятное дело, что хочется работать с последней версией, поэтому я собрал собственный образ на основе BeakerX 1.4.1. Не буду утомлять вас содержанием Dockerfile, вот [ссылка](https://github.com/AntonYurchenko/docker/blob/master/jupyter-scala/Dockerfile) на него. ``` # Запускаем образ и монтируем в него рабочую директорию mkdir -p /tmp/my_code docker run -it \ -p 8888:8888 \ -v /tmp/my_code:/workspace/my_code \ entony/jupyter-scala:1.4.1 ``` Кстати, для тех, кто будет использовать мой образ, будет небольшой бонус: в директории examples есть пример k-means для случайной последовательности с построением графика (это не совсем тривиальная задача для Scala notebooks). Загрузка Smile в Jupyter Notebook --------------------------------- Отлично, окружение подготовили! Создаём в папке в нашей директории новый Scala notebooks, далее необходимо выкачать из Maven библиотеки для работы Smile. ``` %%classpath add mvn com.github.haifengl smile-scala_2.12 1.5.2 ``` После исполнения кода в его блоке вывода появится список загруженных jar-файлов. Следующий шаг: импортирование необходимых пакетов для работы примера. ``` import java.awt.image.BufferedImage import java.awt.Color import javax.imageio.ImageIO import java.io.File import smile.clustering._ ``` Подготовка данных для кластеризации ----------------------------------- Теперь решим следующую задачу: генерирование изображения, состоящего из зон трёх основных цветов — красного, зелёного и синего (R, G, B). Один из цветов на картинке будет преобладать. Кластеризуем пиксели изображения, возьмём кластер, в котором будет больше всего пикселей, изменим их цвет на серый и построим новое изображение из всех пикселей. Ожидаемый результат: зона преобладающего цвета станет серой, остальный зоны не изменят свой цвет. ``` // Размер изображения будет 640 х 360 val width = 640 val hight = 360 // Создаём пустое изображение нужного размера val testImage = new BufferedImage(width, hight, BufferedImage.TYPE_INT_RGB) // Заполняем изображение пикселями. Преобладающим будет синий цвет. for { x <- (0 until width) y <- (0 until hight) color = if (y <= hight / 3 && (x <= width / 3 || x > width / 3 * 2)) Color.RED else if (y > hight / 3 * 2 && (x <= width / 3 || x > width / 3 * 2)) Color.GREEN else Color.BLUE } testImage.setRGB(x, y, color.getRGB) // Выводим созданное изображение testImage ``` В результате выполнения этого кода выводится вот такая картинка: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/499/b59/811/499b59811386f85ef8c0cf68dd01a396.png) Следующий шаг: преобразуем картинку в набор пикселей. Под пикселем будем понимать сущность с такими свойствами: * координата по широкой стороне (x); * координата по узкой стороне (y); * значение цвета; * опциональное значение класса/номера кластера (до выполнения кластеризации будет пустым). В качестве сущности удобно использовать `case class`: ``` case class Pixel(x: Int, y: Int, rgbArray: Array[Double], clusterNumber: Option[Int] = None) ``` Здесь для значений цвета используется массив `rgbArray` из трёх значений красного, зелёного и синего (например, для красного цвета `Array(255.0, 0, 0)`). ``` // Перегоняем изображение в коллекцию пикселей (Pixel) val pixels = for { x <- (0 until testImage.getWidth).toArray y <- (0 until testImage.getHeight) color = new Color(testImage.getRGB(x, y)) } yield Pixel(x, y, Array(color.getRed.toDouble, color.getGreen.toDouble, color.getBlue.toDouble)) // Выводим первый 10 элементов коллекции pixels.take(10) ``` На этом подготовка данных закончена. Кластеризация пикселей по цветам -------------------------------- Итак, у нас есть коллекция из пикселей трёх основных цветов, поэтому кластеризовать пиксели мы будем на три класса. ``` // Количество кластеров val countColors = 3 // Выполняем кластеризацию val clusters = kmeans(pixels.map(_.rgbArray), k = countColors, runs = 20) ``` В документации рекомендуется задавать параметр `runs` в диапазоне от 10 до 20. При выполнении этого кода будет создан объект типа `KMeans`. В блоке вывода будет информация о результатах кластеризации: ``` K-Means distortion: 0.00000 Clusters of 230400 data points of dimension 3: 0 50813 (22.1%) 1 51667 (22.4%) 2 127920 (55.5%) ``` Один из кластеров действительно содержит больше пикселей, чем остальные. Теперь нужно разметить нашу коллекцию пикселей классами от 0 до 2. ``` // Разметка коллекции пикселей val clusteredPixels = (pixels zip clusters.getClusterLabel()).map {case (pixel, cluster) => pixel.copy(clusterNumber = Some(cluster))} // Выводим 10 размеченных пикселей clusteredPixels.take(10) ``` Перекрашиваем изображение ------------------------- Осталось дело за малым — выделить кластер с наибольшим количеством пикселей и перекрасить все пиксели, входящие в этот кластер, в серый цвет (изменить значение массива `rgbArray`). ``` // Серый цвет val grayColor = Array(127.0, 127.0, 127.0) // Определяем кластер с наибольшим количеством пикселей val blueClusterNumber = clusteredPixels.groupBy(pixel => pixel.clusterNumber) .map {case (clusterNumber, pixels) => (clusterNumber, pixels.size) } .maxBy(_._2)._1 // Перекрашиваем все пиксели кластера в серый val modifiedPixels = clusteredPixels.map { case p: Pixel if p.clusterNumber == blueClusterNumber => p.copy(rgbArray = grayColor) case p: Pixel => p } // Выводим 10 элементов из новой коллекции пикселей modifiedPixels.take(10) ``` Тут нет ничего сложного, просто группируем по номеру кластера (это у нас `Option:[Int]`), считаем количество элементов в каждой группе и вытаскиваем кластер с максимальным количеством элементов. Далее меняем цвет на серый только у тех пикселей, которые относятся к найденному кластеру. Создаём новое изображение и сохраняем результаты ------------------------------------------------ Собираем из коллекции пикселей новое изображение: ``` // Создаём пустое изображение такого же размера val modifiedImage = new BufferedImage(width, hight, BufferedImage.TYPE_INT_RGB) // Наполняем его перекрашенными пикселями modifiedPixels.foreach { case Pixel(x, y, rgbArray, _) => val r = rgbArray(0).toInt val g = rgbArray(1).toInt val b = rgbArray(2).toInt modifiedImage.setRGB(x, y, new Color(r, g, b).getRGB) } // Выводим новое изображение modifiedImage ``` Вот что, в итоге, у нас получилось. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/950/d15/69a/950d1569a1bc51920f4758499a9bbe26.png) Сохраняем оба изображения. ``` ImageIO.write(testImage, "png", new File("testImage.png")) ImageIO.write(modifiedImage, "png", new File("modifiedImage.png")) ``` Заключение ---------- Машинное обучение на Scala существует. Для реализации базовых алгоритмов не обязательно тащить какую-то огромную библиотеку. Представленный выше пример показывает, что при разработке можно не отказываться от привычных средств, тот же Jupyter Notebook можно, без особого труда, подружить со Scala. Конечно же, для полного обзора всех возможностей Smile не хватит одной статьи, да это и не входило в планы. Основную задачу — приоткрыть дверь в мир машинного обучения на Scala — считаю выполненной. Пользоваться ли этими инструментами, и, уж тем более, тащить их в production или нет, решать вам! Ссылки ------ * Dockerfile для образа Jupyter Notebook с поддержкой Scala: <https://github.com/AntonYurchenko/docker/blob/master/jupyter-scala/Dockerfile> * Git с примером: <https://github.com/AntonYurchenko/habr/tree/master/scala-smile-clustering> * Apache Spark MLib: [https://spark.apache.org/mllib](https://spark.apache.org/mllib/) * Apache PredictionIO: [http://predictionio.apache.org](http://predictionio.apache.org/index.html) * Apache MXNet: [https://mxnet.incubator.apache.org](https://mxnet.incubator.apache.org/) * Smile: [https://haifengl.github.io/smile](https://haifengl.github.io/smile/) * Git BeakerX: <https://github.com/twosigma/beakerx>
https://habr.com/ru/post/452914/
null
ru
null
# Интеграция с ЕСИА для .Net: запутаннее, чем кажется Предисловие ----------- Передо мной стояла задача по интеграции нашего сервиса с госуслугами. Казалось ничего сложного не предстоит, но учитывая что наш сервис базируется на технологии ASP.NET всё было не так оптимистично. В начале были поиски.. много поисков, которые привели к множеству разрозненной и чаще всего неактуальной информации. Так же были найдены уже готовые решения, но как заявляли некоторые товарищи на форумах за такое могут и по головке погладить. Поэтому было решено писать самому. Эта статья скорее больше актуализация и дополнение информации из [этой статьи](https://habr.com/ru/post/499016/). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bb2/356/486/bb2356486cac3dbb03123d62c0cd3b74.png)Введение -------- На сайте Минцифр есть методичка максимально раздутая и очень запутанная, но пользоваться ею нам всё равно придётся. Мы будем работать с ЕСИА версии 3.11 (актуальная на момент написания статьи). Кратко наши действия заключаются вот в чем: 1. Регистрация ИС в регистре информационных систем ЕСИА 2. Регистрация ИС в тестовой среде 3. Выполнение доработки системы для взаимодействия с ЕСИА Звучит довольно просто, но каждый шаг целая отдельная история приключений. Регистрация ИС в ЕСИА приключение для бюрократа. Поэтому в этой статье мы немного посмотрим на второй шаг, и детально распишем реализацию. Содержание ---------- * [Настройка ИС](#settings_is) * [Сертификаты ИС](#cert_is) * [Получаем client\_certificate\_hash](#client_certificate_hash) * [Формирование client\_secret](#client_secret) * [Собираем ссылку для авторизации в Госуслугах](#esia_auth_url) * [Получение токена доступа](#get_token) * [Проверка токена](#valid_token) * [Получение данных пользователя из ЕСИА](#get_esia_user) Всё необходимое --------------- Минцифры требуют использование сертифицированного ПО для криптографии. Поэтому мы будем использовать [КриптоПРО CSP](https://www.cryptopro.ru/products/csp) + [КриптоПРО .Net](https://www.cryptopro.ru/products/net) + КриптоПРО .NetSDK. Всё это можно скачать с [офф. сайта КриптоПРО](https://www.cryptopro.ru/). На время разработки лучше использовать триал версию. Наш инвентарь для путешествия: * КриптоПРО CSP * КриптоПРО .Net * КриптоПРО .NetSDK * Контейнер закрытого ключа с сертификатом нашей организации * Много терпения #### Немного о КриптоПРО CSP + .Net Core 5+ Вот тут и начинаются первые проблемы. На момент написания статьи у КриптоПРО .Net нет поддержки .Net Core 5 и выше. Есть сборка под .Net Core 3.1 но и она выглядит сомнительно. Поэтому было решено поднять сервис для .Net Framework 4.8 который будет использовать средства КриптоПРО CSP для подписания с использованием ЭЦП, а так же проверки ответов от ЕСИА. #### Немного о контейнере закрытого ключа и сертификата Когда мы начинали делать эту задачу у нас была КЭП на токене, но как оказалось на нём был неэкспортируемый контейнер. Скажу сразу, что [экспортировать контейнер с такого токена запрещено ФНС](http://publication.pravo.gov.ru/document/view/0001201912280086). Поэтому необходимо заранее получить токен на имя сотрудника с экспортируемым контейнером. Так как его необходимо будет скопировать на сервер. Приступаем ---------- Начнём с того, что вы уже отправили заявку регистрации ИС в ЕСИА и её приняли. А так же отправили заявка на тестовую среду. Приступим к этапу настройки ИС в тестовом кабинете электронного правительства. Вот [ссылка](https://esia-portal1.test.gosuslugi.ru/console/tech/sys.xhtml) на тестовую страницу. Логинимся под тестовой учетной записью тестового пользователя 006(все данные лежат в приложении к работе с тестовой средой), так как он имеет доступ к управлением ИС. ![Кабинет тестовой среды - Технологический порталйт](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f03/046/f93/f03046f9341686eb5827c6ed56bf0804.png "Кабинет тестовой среды - Технологический порталйт")Кабинет тестовой среды - Технологический порталйтЗдесь ищем нашу систему по Мнемонике или полному названию, если таковой нет то создаём. Напротив нашей системы есть две кнопки: Первая кнопка - изменить нашу ИС (информация о ИС, редиректы и тд) Вторая кнопка - наши сертификаты с помощью которых мы подписываем сообщения в ЕСИА ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a37/b8f/770/a37b8f770cedc688211ccc4704080c68.png)### Настройка ИС Есть важный момент в настройки ИС. Это URL системы. Тут мы указываем ссылки куда ЕСИА может делать переадресацию при запросе от нашей ИС. На эти точки будет приходить авторизационный код (Если он указан в запросе). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d76/1f6/c24/d761f6c24086eb5878680e623905dc45.png)### Сертификаты ИС ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c4a/292/a0e/c4a292a0e180a7c3af12cf4e77980504.png)Здесь мы можем загрузить наш сертификаты или же удалить их. Есть один важный момент, каждая ИС может иметь только один уникальный сертификат. А связи с тем, что на тестовой среде все системы регистрируются под одним пользователем и сертификаты тестовые одни на всех часта такая ситуация, что кто-то удаляет у вас сертификат и загружает к себе. А ваши запросы теперь падают с ошибкой) Но если у вас уже готов ЭЦП на сотудника, то лучше используйте её. Реализуем --------- Мы закончили с настройки нашей ИС и можем приступить к реализации. Надеюсь вы уже установили КриптоПРО и всё необходимое для него. Если нет, я подожду... ### Устанавливаем сертификаты Такс~ Всё готово. Качаем сертификаты по ссылке из методички. Специально не буду вставлять, так как может измениться. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8cb/1ea/310/8cb1ea310fba73e31621b289de721e04.png)Здесь нам интересен сертификат ТЕСИА ГОСТ 2012.cer - это сертификат с помощью которого ЕСИА подписывает сообщения отправляя в нашу ИС. (Соответственно для продуктовой среды свой сертификат). Устанавливаем сертификат как доверенный. Здесь ничего сложного думаю разберётесь. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/461/3d9/542/4613d954290d4437cbab75ad6c6441b3.png)Теперь устанавливаем тестовый контейнер и сертификат. Для примера будем использовать предоставленные ЕСИА контейнеры, но вы можете использовать свои. Всё это лежит внутри архива. ![Сам архив со всеми тестовыми контейнерами](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f26/429/ef0/f26429ef0e25bc8e3ecbca6ac254712d.png "Сам архив со всеми тестовыми контейнерами")Сам архив со всеми тестовыми контейнерами![Мы возьмём именно 006 так как на него зарегистрирована наша ИС](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1aa/375/c07/1aa375c0753efa66df9a8c8012348797.png "Мы возьмём именно 006 так как на него зарегистрирована наша ИС")Мы возьмём именно 006 так как на него зарегистрирована наша ИСВ архиве лежит папка d1f73ca5.000 - это контейнер нам необходимо его переместить по пути `C:\Users\User\AppData\Local\Crypto Pro` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1b8/422/4ac/1b84224ac078117308e35a4f580c5146.png)Теперь открываем КриптоПРО CSP. Выбираем установить личный сертификат и указываем Тестовое ведомство Фамилия006 ИО.cer и нажимаем найти автоматически. Выполняем оставшиеся шаги сами. Механизм подписания ------------------- Пожалуй начинается самая важная и самая запутанная часть всего пути. Здесь мы реализуем сервис для работы с подписью. И так делаю выжимку из методических материалов, чтобы Вам не пришлось читать много текста. Для получения авторизационный ссылки - ссылка на которую мы будем переадресовывать пользователя для авторизации в ЕСИА. Нам необходимо собрать ссылку из параметров. 1. `client_id` - наша Мнемоника 2. `client_secret` - Отсоединённая подпись от параметров запроса в кодировке UTF-8 3. `redirect_uri` - ссылка на которую ЕСИА будет переадресовывать пользователя вместе с авторизационным кодом 4. `scope` - перечень запрашиваемой информации. Например `fullname birthdate gender` 5. `response_type` - тип ответа от ЕСИА, в нашем случае это просто строчка `code` 6. `state` - Идентификатор текущего запроса. Генерируется таким образом `Guid.NewGuid().ToString("D");` 7. `timestamp` - время запроса авторизационного кода в формате yyyy.MM.dd HH:mm:ss Z. Генерируется таким образом `DateTime.UtcNow.ToString("yyyy.MM.dd HH:mm:ss +0000");` 8. `client_certificate_hash` - это fingerprint сертификата в HEX-формате. Обозначили наш зоопарк. Самый важный зверь здесь `client_secret` ### Получаем client\_certificate\_hash В методическом указании от Минцифр есть [ссылка на специальную утилиту](http://esia.gosuslugi.ru/public/calc_cert_hash_unix.zip) с помощью которой мы можем получить этот хэш. Разархивировали архив и видим перед нами sh. Windows пользователи не пугаемся, на самом деле тут же лежит .exe файл. Чтобы вычислить хэш нашего сертификат просто необходимо из cmd запустить вот такой скрипт: ``` cpverify.exe test.cer -mk -alg GR3411_2012_256 -inverted_halfbytes 0 ``` ### Формирование client\_secret Такс перед тем как просто получит `client_secret` нам необходимо сделать: * ASP.Net Framework 4.8 WebAPI - тот самый сервис который будет работать с КриптоПРО CSP Пропустим множество шагов создания этого сервиса и перейдём сразу к его настройки для работы с КриптоПРО CSP. Настройка сервиса для работы с КриптоПРО CSPДобавляем ссылки на DLL КриптоПРО. Переходим по пути `C:\Program Files (x86)\Crypto Pro.NET SDK\Assemblies\4.0` Выбираем всё что нам нужно. ([подробная информация](http://cpdn.cryptopro.ru/default.asp?url=content/cpnet/html/08bcd27a-1f1c-4494-a996-37d88776309e.htm)) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b67/bd2/5d5/b67bd25d5cee8f9dec0e967a588f9899.png)Теперь мы имеем доступ к API КриптоПРО CSP из кода .Net Framework Теперь создаём контроллер: Код контроллераИтак нам необходимо получать строку для подписания. Создадим метод ``` const string CertSerialNumber = "01f290e7008caed0904b967783fd0e4ad6"; const string EsiaCertSerialNumber = "0125657e00a1ae59804d92116214e53466"; [HttpGet] public string Get(string msg) { msg = Base64UrlEncoder.Decode(msg); var data = Encoding.UTF8.GetBytes(msg); var client_secret = Sign(data); return client_secret; } ``` Мы заранее укажем константами серийные номера сертификатов. В методе Get получаем строку в Base64Url формате, чтобы спокойно передавать наши длинные сообщения. Декодируем строку из Base64Url в текст. После чего переводим текст в байты используя UTF-8. А теперь подписываем. ``` string Sign(byte[] data) { var gost3411 = new Gost3411_2012_256CryptoServiceProvider(); var hashValue = gost3411.ComputeHash(data); gost3411.Clear(); var signerCert = GetSignerCert(); var SignedHashValue = GostSignHash(hashValue, signerCert.PrivateKey as Gost3410_2012_256CryptoServiceProvider, "Gost3411_2012_256"); var client_secret = Base64UrlEncoder.Encode(SignedHashValue); return client_secret; } ``` И так что мы тут делаем. С помощью ГОСТ 34.11-2012 мы вычисляем хэш нашего сообщения. И используя полученный сертификат подписываем сообщение. ``` X509Certificate2 GetSignerCert() { var store = new X509Store(StoreName.My, StoreLocation.CurrentUser); store.Open(OpenFlags.OpenExistingOnly | OpenFlags.ReadOnly); var certificates = store.Certificates.Find(X509FindType.FindBySerialNumber, CertSerialNumber, false); if (certificates.Count != 1) { return null; } var certificate = certificates[0]; if (certificate.PrivateKey == null) { return null; } return certificate; } ``` Здесь мы открываем наш склад с контейнерами и ищем именно тот где лежит наш сертификат. После чего извлекаем из него сертификат. ``` byte[] GostSignHash(byte[] HashToSign, Gost3410_2012_256CryptoServiceProvider key, string HashAlg) { try { //Создаем форматтер подписи с закрытым ключом из переданного //функции криптопровайдера. var Formatter = new Gost2012_256SignatureFormatter( (Gost3410_2012_256CryptoServiceProvider) key); //Устанавливаем хэш-алгоритм. Formatter.SetHashAlgorithm(HashAlg); //Создаем подпись для HashValue и возвращаем ее. return Formatter.CreateSignature(HashToSign); } catch (CryptographicException e) { Console.WriteLine(e.Message); return null; } } ``` С помощью этого кода как раз и создаётся наша подпись на хэш строки. Здесь используется ГОСТ 34.10-2012. Итак контроллер готов. Теперь переходим в наш основной проект на .Net Core Создаём строку подписания. Просто выполняем конкатенацию параметры без разделителей. Здесь я использую IOptions чтобы брать параметры из appsettings.json. ``` var msg = $"{esiaSettings.Value.ClientId}{esiaSettings.Value.Scope}{timestamp}{state}{redirectUri}"; ``` Мы получил строку для подписания. Теперь нам необходимо эту строку закодировать в Base64Url и отправляем её на подписание в написанный нами заранее сервис ``` private string GetClientSecret(string msg){ var client = new HttpClient(); var msgBase64 = Base64UrlEncoder.Encode(msg); var response = await client.GetAsync($"{cryptoProSettings.Value.BaseUrl}/Get?msg={msgBase64}"); var clientSecret = await response.Content.ReadAsStringAsync(); clientSecret = JsonConvert.DeserializeObject(clientSecret); return clientSecret; } ``` ### Собираем ссылку для авторизации в Госуслугах Наконец-то мы получили этот долгожданный секрет. Но вы могли бы подумать это всё, дальше всё просто и ясно. Не тут то было! Дело в том, что ЕСИА требует Base64 Url Safe кодироку. И она немного отличается от Base64Url кодировки доступной из коробки .Net Итак дело за малым, собираем нашего гомункула из секрета и параметров. Класс помощник для сборки ссылкиВозможно излишне, но мне понравился метод сбора вот таким способом. ``` public class RequestBuilder { List items = new List(); public void AddParam(string name, string value) { items.Add(new RequesItemClass { name = name, value = value }); } public override string ToString() { return string.Join("&", items.Select(a => a.name + "=" + a.value)); } } public class RequesItemClass { public string name; public string value; } ``` Код сборки ссылки ``` async Task UrlBuild(string redirectUri) { using var client = new HttpClient(); var timestamp = DateTime.UtcNow.ToString("yyyy.MM.dd HH:mm:ss +0000"); var state = Guid.NewGuid().ToString("D"); var msg = $"{esiaSettings.Value.ClientId}{esiaSettings.Value.Scope}{timestamp}{state}{redirectUri}"; var clientSecret = await GetClientSecret(msg); var builder = new RequestBuilder(); builder.AddParam("client\_secret", clientSecret); builder.AddParam("client\_id", esiaSettings.Value.ClientId); builder.AddParam("scope", esiaSettings.Value.Scope); builder.AddParam("timestamp", timestamp); builder.AddParam("state", state); builder.AddParam("redirect\_uri", redirectUri); builder.AddParam("client\_certificate\_hash", esiaSettings.Value.ClientCertificateHash); builder.AddParam("response\_type", "code"); builder.AddParam("access\_type", "online"); //Вот тут самый важный момент на который было потрачено множество времени. Просто заменяем символы на безопасные var url = esiaSettings.Value.EsiaAuthUrl + "?" + builder.ToString().Replace("+", "%2B") .Replace(":", "%3A") .Replace(" ", "+"); return url; } ``` Получаем ссылку на подобии вот такой: Здесь `https://esia-portal1.test.gosuslugi.ru/aas/oauth2/v2/ac` ссылка на конечную точку получения авторизационно кода, указана в методическом материале. ``` https://esia-portal1.test.gosuslugi.ru/aas/oauth2/v2/ac?client_secret=v_c33_-LpkyKJbopTEYqBMbGZrBy9r9u1pzbRmMLNlJPcBnPTJj6Xx5DuxXba3EZZoXdMsb0YIwPDCoF0dfYjQ&client_id=MEMONIKA&scope=fullname+birthdate+gender&timestamp=2022.12.23+16%3A37%3A45+%2B0000&state=3a19c4d7-594b-496f-aa6e-970c75a925a4&redirect_uri=https%3A//api.site/users/esia&client_certificate_hash=EED1079A4FF154E117EAA196DCB551930807825DE1DE15EAF7607F354BA47423&response_type=code&access_type=online ``` Теперь перенаправляем пользователя по этой ссылке и ожидаем пока он авторизуется. После авторизации ЕСИА переадресует его на нашу ссылку и отправит туда в виде аргументов авторизационный код и state. ### Получение токена доступа Теперь время получить токен взамен на авторизационный код. Метод для получение токена ``` public async Task GetToken(string authorizationCode, string redirectUrl) { var timestamp = DateTime.UtcNow.ToString("yyyy.MM.dd HH:mm:ss +0000"); var state = Guid.NewGuid().ToString("D"); var msg = $"{esiaSettings.Value.ClientId}{esiaSettings.Value.Scope}{timestamp}{state}{redirectUrl}{authorizationCode}"; var clientSecret = await GetClientSecret(msg); var requestParams = new List> { new KeyValuePair("client\_id", esiaSettings.Value.ClientId), new KeyValuePair("code", authorizationCode), //Здесь мы передаём полученный код new KeyValuePair("grant\_type", "authorization\_code"), //Просто указываем тип new KeyValuePair("state", state), new KeyValuePair("scope", esiaSettings.Value.Scope), new KeyValuePair("timestamp", timestamp), new KeyValuePair("token\_type", "Bearer"), //Какой токен мы хотим получить new KeyValuePair("client\_secret", clientSecret), new KeyValuePair("redirect\_uri", redirectUrl), new KeyValuePair("client\_certificate\_hash", esiaSettings.Value.ClientCertificateHash) }; using var client = new HttpClient(); using var response = await client.PostAsync(esiaSettings.Value.EsiaTokenUrl, new FormUrlEncodedContent(requestParams)); response.EnsureSuccessStatusCode(); var tokenResponse = await response.Content.ReadAsStringAsync(); var token = JsonConvert.DeserializeObject(tokenResponse); if (!await ValidatingAccessToken(token)) { throw new Exception("Ошибка проверки маркера индентификации"); } return token; } ``` Тут всё простенько, снова генерируем `client_secret` указываем остальные параметры и отправляем запрос в ЕСИА на получение токена. Тестовый Uri `https://esia-portal1.test.gosuslugi.ru/aas/oauth2/v3/te` Класс токена ``` public class EsiaAuthToken { /// /// Токен доступа /// [JsonProperty("access_token")] public string AccessToken { get; set; } /// /// Идентификатор запроса /// public string State { get; set; } string[] parts => AccessToken.Split('.'); /// /// Хранилище данных в токене /// public EsiaAuthTokenPayload Payload { get { if (string.IsNullOrEmpty(AccessToken)) { return null; } if (parts.Length < 2) { throw new Exception($"При расшифровке токена доступа произошла ошибка. Токен: {AccessToken}"); } var payload = Encoding.UTF8.GetString(Base64UrlEncoder.DecodeBytes(parts[1])); return JsonConvert.DeserializeObject(payload); } } /// /// Сообщение для проверки подписи /// [Newtonsoft.Json.JsonIgnore] public string Message { get { if (string.IsNullOrEmpty(AccessToken)) { return null; } if (parts.Length < 2) { throw new Exception($"При расшифровке токена доступа произошла ошибка. Токен: {AccessToken}"); } return parts[0] + "." + parts[1]; } } /// /// Сигнатура подписи /// [Newtonsoft.Json.JsonIgnore] public string Signature { get { if (string.IsNullOrEmpty(AccessToken)) { return null; } if (parts.Length < 2) { throw new Exception($"При расшифровке токена доступа произошла ошибка. Токен: {AccessToken}"); } return parts[2]; } } public class EsiaAuthTokenPayload { [JsonConstructor] public EsiaAuthTokenPayload(string tokenId, string userId, string nbf, string exp, string iat, string iss, string client\_id) { TokenId = tokenId; UserId = userId; BeginDate = EsiaHelper.DateFromUnixSeconds(double.Parse(nbf)); ExpireDate = EsiaHelper.DateFromUnixSeconds(double.Parse(exp)); CreateDate = EsiaHelper.DateFromUnixSeconds(double.Parse(iat)); Iss = iss; ClientId = client\_id; } /// /// Идентификатор токена /// [JsonProperty("urn:esia:sid")] public string TokenId { get; private set; } /// /// Идентификатор пользователя /// [JsonProperty("urn:esia:sbj\_id")] public string UserId { get; private set; } /// /// Время начала действия токена /// [JsonPropertyName("nbf")] public DateTime BeginDate { get; private set; } /// /// Время окончания действия токена /// [JsonPropertyName("exp")] public DateTime ExpireDate { get; private set; } /// /// Время выпуска токена /// [JsonPropertyName("iat")] public DateTime CreateDate { get; private set; } /// /// Организация, выпустившая маркер /// [JsonPropertyName("iss")] public string Iss { get; private set; } /// /// Адресат маркера /// [JsonPropertyName("client\_id")] public string ClientId { get; private set; } } } public static class EsiaHelper { public static DateTime DateFromUnixSeconds(double seconds) { var date = new DateTime(1970, 1, 1, 0, 0, 0, 0, DateTimeKind.Utc); return date.AddSeconds(seconds).ToLocalTime(); } } ``` ### Проверка токена Итак помимо того, что нам нужно получить токен, нам так же необходимо проверить его. Сам токен состоит из 3 частей. 1 часть - заголовок JWT токена 2 часть - payload токена, там вся основная информация о токене 3 часть - RAW подпись в формате UTF-8 Код конечной точки для проверки подписи ``` [HttpPost] public bool Verify(VerifyMessage message) { try { return VerifyRawSignString(message.Message, message.Signature); } catch (Exception ex) { return false; } } public class VerifyMessage { public string Signature { get; set; } public string Message { get; set; } } ``` Код проверки подписи на нашем сервисе ``` /// /// Проверка подписи JWT в формате HEADER.PAYLOAD.SIGNATURE. /// /// HEADER.PAYLOAD в формате Base64url /// SIGNATURE в формате Base64url bool VerifyRawSignString(string message, string signature) { var signerCert = GetEsiaSignerCert(); var messageBytes = Encoding.UTF8.GetBytes(message); var signatureBytes = Base64UrlEncoder.DecodeBytes(signature); //Переварачиваем байты, так как используется RAW подпись Array.Reverse(signatureBytes, 0, signatureBytes.Length); using (var GostHash = new Gost3411_2012_256CryptoServiceProvider()) { var csp = (Gost3410_2012_256CryptoServiceProvider) signerCert.PublicKey.Key; //Используем публичный ключ сертификата для проверки return csp.VerifyData(messageBytes, GostHash, signatureBytes); } } ``` Код получения сертификата ЕСИА ``` X509Certificate2 GetEsiaSignerCert() { var store = new X509Store(StoreName.AddressBook, StoreLocation.CurrentUser); store.Open(OpenFlags.OpenExistingOnly | OpenFlags.ReadOnly); var certificates = store.Certificates.Find(X509FindType.FindBySerialNumber, EsiaCertSerialNumber, false); var certificate = certificates[0]; return certificate; } ``` Здесь используем введённые ранее константы. И Получаем сертификат из доверенных сертификатов. Отправка токена на проверку ``` public async Task ValidatingAccessToken(EsiaAuthToken token) { if (token.Payload.ExpireDate <= DateTime.Now || token.Payload.BeginDate >= DateTime.Now || token.Payload.CreateDate >= DateTime.Now || token.Payload.ExpireDate <= token.Payload.BeginDate || token.Payload.CreateDate > token.Payload.BeginDate || token.Payload.CreateDate > token.Payload.ExpireDate || token.Payload.Iss != esiaSettings.Value.ISS || token.Payload.ClientId != esiaSettings.Value.ClientId) { return false; } var client = new HttpClient(); var requestParams = new List> { new KeyValuePair("signature", token.Signature), new KeyValuePair("message", token.Message) }; var response = await client.PostAsync($"{cryptoProSettings.Value.BaseUrl}/Verify", new FormUrlEncodedContent(requestParams)); response.EnsureSuccessStatusCode(); var resultResponse = await response.Content.ReadAsStringAsync(); var result = JsonConvert.DeserializeObject(resultResponse); return result; } ``` Этот код используем в нашем основном сервисе. Проверяем поля токена на актуальность, чтобы его не могли подделать. А потом уже проверяем подпись токена, как указано в методических указаниях. ### Получение данных пользователя из ЕСИА Имея токен мы может отправить запрос на получение данных о пользователе указанных в scope токена. Пример кода, где мы получаем данные пользователя. Здесь esiaUserId содержится в самом токене, это уникальный идентификатор пользователя ЕСИА. Наш токен указываем в заголовке авторизации. ``` public async Task ExecuteAsync(string esiaUserId, string accessToken) { using (var client = new HttpClient()) { client.DefaultRequestHeaders.Clear(); client.DefaultRequestHeaders.Authorization = new AuthenticationHeaderValue("Bearer", accessToken); var response = await client.GetStringAsync($"{esiaSettings.Value.EsiaRestUrl}/prns/{esiaUserId}"); var user = JsonConvert.DeserializeObject(response); user.Id = user.Id ?? esiaUserId; return user; } } ``` Код класса EsiaUser ``` public class EsiaUser { /// /// Идентификатор /// [JsonProperty("oid")] public string Id { get; set; } /// /// Фамилия /// [JsonProperty("firstName")] public string FirstName { get; set; } /// /// Имя /// [JsonProperty("lastName")] public string LastName { get; set; } /// /// Отчество /// [JsonProperty("middleName")] public string MiddleName { get; set; } /// /// Дата рождения /// [JsonProperty("birthdate")] public string Birthdate { get; set; } /// /// Пол /// [JsonProperty("gender")] public string Gender { get; set; } /// /// Подтвержден ли пользователь /// [JsonProperty("trusted")] public bool Trusted { get; set; } } ``` Заключение ---------- Наконец мы закончили интеграцию с ЕСИА. Это был длинный путь полный странных вещей. Неясных решений и множество потраченного времени. Надеюсь этой статьёй я помог Вам реализовать задачу интеграции гораздо быстрее и легче. Спасибо за потраченное время.
https://habr.com/ru/post/708774/
null
ru
null
# Опережающие и ретроспективные проверки в регулярных выражениях ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/a20/018/d0f/a20018d0f8c453792f2d7fe5f5280aee.png)Наткнулся на чрезвычайно простую но интересную задачку, потребовавшую немного выйти за рамки рабоче-крестьянского курса регулярных выражений — и надеюсь краткий рассказ о ней будет полезен тем, кто еще не стал регулярным джедаем. Безусловно, читая документацию регулярных выражений по диагонали вы, как и я — наверняка не раз наталкивались на опережающие и ретроспективные проверки, но без осознания для какой задачи они могут быть нужны — они и не всплывут в памяти когда это нужно. Задача банальная — заменить переводы строк на , за исключением случая, если перед этим шел html-тэг (для простоты только символ >). Отходя от темы — такой алгоритм замены нужен чтобы иметь и автоматическое добавление переводов строки внутри блоков текста в стиле хабра, и при этом не ломать обычную HTML верстку. **Решение в лоб** простое как топор — предыдущий символ — часть заменяемого паттерна, который мы повторно вставляем в результат: ``` preg_replace("/([^>])\n/","\\1 ",$text); ``` И оно в принципе работало целый год пока внезапно не были «канонизированы» переводы строк т.е. чтобы код одинаково работал независимо от операционной системы, любые варианты перевода строк(\n, \r, \r\n) были заменены на \n. Внезапно 2 перевода строки подряд перестали заменятся на 2 Такое поведение вполне разумно (особенно после отладки) — preg\_replace не пытяется еще раз проверять то, что он только что заменил во избежание зацикливания — а нам ведь нужно проверять предыдущий символ. Когда переводы строк были не канонизированы — у нас там на самом деле было \r\n\r\n (0xd 0xa 0xd 0xa, кстати, запоминать последовательность спец.символов можно как **R**etur**N**) — и мы заменяли \n, а \r — оставался, и именно он проверялся регулярным выражением на соответствие '>'. После канонизации, у нас пропадал этот «резерв» в 1 символ, и preg\_replace начинал проверять строку на соответствие регулярному выражению непосредственно с символа \n — и естественно замены не происходило. Именно для решения таких проблем и существуют Look-ahead и Look-behind выражения (с которыми я лично раньше не сталкивался). **Look-ahead & Look-behind Zero-Width Assertions** (опережающие и ретроспективные проверки) — это возможность создать свои аналоги $ и ^: они задают условие, которое должно выполнятся или не выполнятся в начале или конце строки, и не являются частью «сматченого» выражения, т.е. не будут заменены в preg\_replace. Это именно то, что нам нужно для этой задачи. Look-behind — «смотрит» назад, соответственно ставится в начале регулярного выражения. Look-ahead — в конце, и «смотрит» вперед. **Синтаксис у них такой:** (?<=pattern) положительное look-behind условие (? (?=pattern) положительное look-ahead условие (?!pattern) отрицательное look-ahead условие На Look-behind assertions движками регулярных выражений накладываются различные ограничения — в большинстве случаев он должен проверять выражение фиксированной, известной заранее длины (В Java и .NET парсерах ограничения слабее, в JavaScript — не поддерживается вообще, проверяйте документацию). Благодаря [senia](https://habrahabr.ru/users/senia/) мы можем [ознакомиться с исчерпывающей таблицей](http://www.regular-expressions.info/refflavors.html) совместимости различных парсеров регулярных выражений, вот что касается нашей темы: | Feature | .NET | Java | Perl | PCRE | ECMA | Python | Ruby | Tcl ARE | POSIX BRE | POSIX ERE | GNU BRE | GNU ERE | XML | XPath | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | (?=regex) (positive lookahead) | YES | YES | YES | YES | YES | YES | YES | YES | no | no | no | no | no | no | | (?!regex) (negative lookahead) | YES | YES | YES | YES | YES | YES | YES | YES | no | no | no | no | no | no | | (?<=text) (positive lookbehind) | full regex | finite length | fixed length | fixed + altern ation | no | fixed length | no | no | no | no | no | no | no | no | | (? full regex | full regex | finite length | fixed length | fixed + altern ation | no | fixed length | no | no | no | no | no | no | no | | Соответственно, регулярное выражение с использованием отрицательной ретроспективной проверки получается следующее: ``` preg_replace("/(?)\n/"," ",$text); ``` А если переписать для демонстрации с положительной ретроспективной проверкой: («До» должен быть любой символ кроме ">") ``` preg_replace("/(?<=[^>])\n/"," ",$text); ``` Теперь наш код работает и с канонизированными переводами строк, не требуя костылей вроде вставления части регулярного выражения в результат без изменений. PS. На хабре тема уже затрагивалась в статье [Имитируем пересечение, исключение и вычитание, с помощью опережающих проверок, в регулярных выражениях в ECMAScript](http://habrahabr.ru/post/143857/) но название у неё страшное и читать её нужно усидчиво :-)
https://habr.com/ru/post/159483/
null
ru
null
# Разработка WEB-проекта на Node.JS: Часть 2 В [прошлой статье](http://habrahabr.ru/blogs/nodejs/138071/) я начал рассказывать о своём опыте разработки экспериментального WEB-проекта «[Что делать](http://chtodelat.com)?» на Node.JS. Первая часть была обзорной, в ней я постарался раскрыть плюсы и минусы технологии, а также предупредить о проблемах, с которыми, возможно, придётся столкнуться в ходе разработки. В этой статье я подробнее остановлюсь на технических деталях. #### Несколько слов о «хабраэффекте» Честно говоря, после периодических наблюдений за падениями сайтов, ссылки на которые попадают на главную хабра, я ожидал увидеть гораздо более серьёзные цифры. Обе предыдущие статьи побывали на главной странице. Хотя [первая статья](http://habrahabr.ru/blogs/i_am_advertising/137637/) находилась в закрытом блоге «Я пиарюсь» и была видна только его подписчикам, а вторая в профильном блоге «Node.JS» и вызвала довольно продолжительную дискуссию в комментариях — количество людей пришедших на сайт с обоих статей было примерно одинаковым. Одинаково маленьким. ![](https://habrastorage.org/r/w1560/storage2/cc3/7cf/f18/cc37cff1898881cb813ee3ce4542a56d.png) ![](https://habrastorage.org/r/w1560/storage2/f0d/16a/e85/f0d16ae85bafb7b79cc10f417daa5671.png) Эти цифры слишком малы, чтобы говорить о какой-либо серьёзной нагрузке. На самом пике заходов htop показывал приблизительно следующую картину: ![](https://habrastorage.org/r/w1560/storage2/52e/e5f/66a/52ee5f66ad04783f6547a9c03b4569e6.png) Load average иногда доходил до 1, но потом опять спускался до 0.3-0.5. Страницы отдавались быстро. Среднее время генерации страницы, данные для формирования которой есть в memcached — 15-20мс. Если данные в memcached отсутствуют, время генерации увеличивается до 40-100мс, но такое бывает крайне редко. Некоторые посетители тестировали сайт при помощи утилит siege и ab, а также при помощи сервиса LoadImpact. На тот момент я был уверен, что все страницы хорошо кешируется Nginx'ом и эти запросы не доходят до Node.JS. Оказалось, что это было не так. Позже я обнаружил некорректное поведение одного из модулей, которое препятствовало кешированию страниц (подробнее я расскажу об этом далее). Фактически все запросы обслуживал Node.JS и при этом сайт работал стабильно. К сожалению я не знаю, насколько сильно различается «хабраэффект» в зависимости от тематики статьи и тематики сайта, на который установлена ссылка. Но если сайт падает от такого же (ну или даже x2) количества людей, то тут проблема далеко не в выборе технологии. На основании тестов и данных о посещаемости я сделал вывод, что проект довольно устойчив и не упадёт при резком наплыве посетителей. #### Архитектура ##### Железо и ПО Сайт живёт на VPS со скромными характеристиками: * 1 CPU с гарантированной частотой 1200Mhz; * 1024Mb RAM; * 25Gb HDD (для данного проекта этот показатель не играет особой роли). На сервере установлена ОС Ubuntu Server. Я к ней привык, мне удобно с ней работать, поэтому я выбрал именно её. Дополнительное программное обеспечение установлено по минимуму. В данном случае это: * Node.JS — Среда исполнения JavaScript приложений на сервере; * MongoDB — NoSQL СУБД; * Memcached — Кеширующий демон; * Nginx — Frontend-сервер. Версии ПО я стараюсь поддерживать в актуальном состоянии. ##### Конфигурация По умолчанию Node.JS работает в одном потоке, что не совсем удобно и не оптимально, особенно для многоядерных процессоров. Практически сразу появились модули, для удобного запуска нескольких процессов (различные реализации Web Workers). Не сложно было сделать это и с помощью [стандартного API Node.JS](http://nodejs.org/docs/latest/api/child_processes.html#child_process.spawn). С выходом версии 0.6.0 в Node.JS появился новый модуль — [Cluster](http://nodejs.org/docs/latest/api/cluster.html). Он значительно упрощает задачу запуска нескольких процессов Node.JS. API этого модуля позволяет форкать процессы node, net/http-серверы которых будут использовать общий TCP порт. Родительский процесс может управлять дочерними процессами: останавливать, запускать новые, реагировать на неожиданные завершения. Дочерние процессы могут обмениваться сообщениями со своим родителем. Несмотря на то, что c помощью Cluster удобно запускать необходимое количество процессов, я запускаю 2 экземпляра node на разных TCP портах. Делаю я это для того, чтобы при обновлении избежать простоя приложения, иначе во время перезагрузки (которая, к слову, занимает всего несколько секунд), сайт будет недоступен пользователям. Между экземплярами node, нагрузка распределяется при помощи [HttpUpstreamModule](http://wiki.nginx.org/HttpUpstreamModule) Nginx'а. Когда, во время перезагрузки, один из экземпляров становится недоступен, все запросы берёт на себя второй. Nginx настроен так, что для не авторизованных пользователей все страницы сайта кешируются на небольшой промежуток времени — 1 минута. Это позволяет значительно снять нагрузку с Node.JS и при этом отображать актуальный контент довольно быстро. Для авторизованных пользователей время кеширования установлено в 3 секунды. Это совершенно незаметно для обычных пользователей, но спасёт от злоумышленников, пытающихся нагрузить сайт большим количеством запросов содержащих cookie авторизации. ##### Модули При разработке приложений на Node.JS очень часто встаёт вопрос выбора модуля для выполнения той или иной задачи. Для некоторых задач есть уже проверенные, популярные модули, для других — выбор сделать сложнее. Выбирая модуль стоит ориентироваться на количество наблюдателей, количество форков и даты последних коммитов (сейчас речь идёт о GitHub). По этим показателям можно определить жив ли проект. Сильно облегчает данную задачу недавно появившийся сервис [The Node Toolbox](http://toolbox.no.de/). Теперь настало время рассказать о модулях, которые я выбрал для разработки проекта. ###### connect [github.com/senchalabs/connect](https://github.com/senchalabs/connect) Этот модуль является надстройкой над [http-сервером Node.JS](http://nodejs.org/docs/latest/api/http.html#http.Server) и существенно расширяет его возможности. Он добавляет такой функционал, как роутинг, поддержку cookies, поддержку сессий, разбор тела запроса и многое другое, без чего разработка web-приложения на Node.JS, скорее всего, превратится в кошмар. Большинство возможностей connect реализовано в виде plugin'ов. Существуют также множество не менее полезных [plugin'ов для connect](https://github.com/senchalabs/connect/wiki), которые не входят в его стандартную поставку. Добавить недостающий функционал, разработав свой plugin, также довольно просто. Несмотря на популярность данного модуля и на его быстрое развитие, проблема, которая не давала Nginx’у кешировать ответ от Node.JS, находилась именно в нём. По умолчанию директива proxy\_cache в Nginx не кеширует ответы бекэнда если в них присутствует хотябы один из следующих заголовков: * Set-Cookie; * Cache-Control содержащий значения «no-cache», «no-store», «private», или «max-age» с не числовым или нулевым значением; * Expires с датой в прошлом; * X-Accel-Expires: 0. В connect сессии были реализованы так, что заголовок Set-Cookie отправлялся при каждом ответе. Это было сделано для поддержки сессий со временем жизни больше чем время жизни сессии браузера. В PHP, если установить время сессии в конкретное значение — она завершится по истечении этого времени даже если пользователь активен на сайте. Connect использует другую политику — cookie обновляется при каждом запросе и время её жизни начинает отсчитываться от текущего, т.е. пока пользователь активен — сессия не завершится. Подход PHP мне кажется более верным, т.к. сессия всё же не предназначена для длительного хранения данных. Я внёс соответствующие изменения в код и отправил pull request. Далее после [небольшого обсуждения](https://github.com/senchalabs/connect/pull/475) (не пинайте за мой английский) было найдено компромиссное решение — для сессий expires которых не установлен, отправка cookie теперь происходит только один раз. Для сессий с жёстко заданным временем жизни эта проблема пока осталась не решённой. ###### connect-memcached [github.com/balor/connect-memcached](https://github.com/balor/connect-memcached) Данный модуль является plugin'ом для connect. Он добавляет возможность хранения сессий в memcached. Без дополнительных plugin'ов connect умеет хранить сессии только в памяти одного процесса. Этого явно недостаточно для применения в боевых условиях, поэтому для всех популярных хранилищ уже разработаны соответствующие plugin'ы. ###### async [github.com/caolan/async](https://github.com/caolan/async) Без этого модуля писать асинхронный код для Node.JS было бы намного сложнее. В этой библиотеке собраны методы, которые позволяют «жонглировать» асинхронными вызовами и не раздувать код множеством вложенных друг в друга функций. Например, запустить несколько асинхронных вызовов и выполнить некоторое действие по их завершению становится намного проще. Я очень рекомендую ознакомиться с полным набором возможностей этой библиотеки, чтобы избежать в дальнейшем изобретения велосипедов. ###### node-oauth [github.com/ciaranj/node-oauth](https://github.com/ciaranj/node-oauth) Этот модуль реализует протоколы OAuth и OAuth2, что позволяет довольно просто обеспечить авторизацию пользователя на сайте через социальные сети, поддерживающие эти протоколы. ###### node-cron [github.com/ncb000gt/node-cron](https://github.com/ncb000gt/node-cron) Название этого модуля говорит само за себя. Он позволяет выполнять задачи по расписанию. Синтаксис расписаний очень похож на cron к которому все привыкли в linux, но, в отличие от него, node-cron поддерживает секундные интервалы запуска. Т.е можно настроить запуск метода раз в 10 секунд или даже каждую секунду. Такие задачи, как вывод популярных вопросов на главную и публикацию их в Twitter, запускаются при помощи этого модуля. ###### node-twitter [github.com/jdub/node-twitter](https://github.com/jdub/node-twitter) Данный модуль реализует взаимодействие приложения с Twitter API. Для работы он использует вышеописанный модуль node-oauth. ###### node-mongodb-native [github.com/christkv/node-mongodb-native](https://github.com/christkv/node-mongodb-native) Этот модуль является интерфейсом к NoSQL СУБД MongoDB. Среди своих конкурентов он выделяется лучшей проработанностью и быстрым развитием. Открытие нескольких соединение с БД (pool) поддерживается из коробки, что избавляет от написания собственных костылей. На основе этого модуля разработана довольно удобная [ORM Mongoose](https://github.com/LearnBoost/mongoose). ###### node-memcached [github.com/3rd-Eden/node-memcached](https://github.com/3rd-Eden/node-memcached) Это лучший, на мой взгляд, интерфейс доступа к memcached из Node.JS. Он поддерживает несколько серверов memcached и распределение ключей между ними, а также пул соединений. ###### http-get [github.com/SaltwaterC/http-get](https://github.com/SaltwaterC/http-get) Этот модуль предназначен для доступа к удалённым ресурсам по протоколам HTTP/HTTPS. С его помощью скачиваются фотографии пользователей, авторизующихся на сайте через социальные сети. ###### sprintf [github.com/maritz/node-sprintf](https://github.com/maritz/node-sprintf) Небольшой, но очень полезный модуль, который, как видно из его названия, реализует функции sprintf и vsprintf на JavaScript. ###### daemon.node [github.com/indexzero/daemon.node](https://github.com/indexzero/daemon.node) Данный модуль позволяет очень просто сделать из Node.JS приложения демон. С его помощью удобно отвязывать приложение от консоли и перенаправлять вывод в файлы логов. ##### Мой вклад Следующие модули, разработаны мной во время работы над проектом, т.к. на момент их написания мне не удалось найти подходящих на их место готовых решений. Эти модули [опубликованы на GitHub](https://github.com/baryshev) и в каталоге модулей npm. ###### aop [github.com/baryshev/aop](https://github.com/baryshev/aop) Этот модуль пока не претендует на полную реализацию [паттерна AOP](http://ru.wikipedia.org/wiki/%D0%90%D1%81%D0%BF%D0%B5%D0%BA%D1%82%D0%BD%D0%BE-%D0%BE%D1%80%D0%B8%D0%B5%D0%BD%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5). Сейчас он содержит один единственный метод, позволяющий обернуть функцию в аспект, который, при необходимости, может изменять её поведение. Такую технику очень удобно применять для кеширования результатов работы функций. Например у нас есть некая асинхронная функция: ``` var someAsyncFunction = function(num, callback) { var result = num * 2; callback(undefined, result); }; ``` Эта функция часто вызывается и результат её нужно закешировать. Обычно это выглядит прмерно так: ``` var someAsyncFunction = function(num, callback) { var key = 'someModule' + '_' + 'someAsyncFunction' + '_' + num; cache.get(key, function(error, cachedResult) { if (error || !cachedResult) { var result = num * 2; callback(undefined, result); cache.set(key, result); } else { callback(undefined, cachedResult); } }); }; ``` Таких функций в проекте может быть очень много. Код будет сильно раздуваться и становится менее читаемым, появляется большое количество копипаста. А вот так можно сделать тоже самое при помощи aop.wrap: ``` var someAsyncFunction = function(num, callback) { var result = num * 2; callback(undefined, result); }; /** * Первый параметр - ссылка на объект this для обёртки * Второй параметр - функция, которую мы заворачиваем в аспект * Третий параметр - аспект, который будет выполнятся при вызове заворачиваемой функции * Последующие параметры - произвольные параметры, которые получает аспект (используются для настройки его поведения) */ someAsyncFunction = aop.wrap(someAsyncFunction, someAsyncFunction, aspects.cache, 'someModule', 'someAsyncFunction'); ``` Отдельно мы создаём библиотеку aspects и определяем там функцию cache, которая будет отвечать за кеширование всего и вся. ``` module.exports.cache = function(method, params, moduleName, functionName) { var that = this; // Такое формирование ключа кеширования приведено для простоты примера var key = moduleName + '_' + functionName + '_' + params[0]; cache.get(key, function(error, cachedResult) { // Получаем ссылку на callback-функцию (всегда передаётся последним параметром) var callback = params[params.length - 1]; if (error || !cachedResult) { // Результата в кеше не нашли, передаём управление в метод, подменяя callback-функцию params[params.length - 1] = function(error, result) { callback(error, result); if (!error) cache.set(key, result); }; method.apply(that, params); } else { callback(undefined, cachedResult); } }); }; ``` По мере необходимости функционал аспекта можно наращивать. В большом проекте такой подход сильно экономит количество кода и локализует весь сквозной функционал в одном месте. В будущем я планирую расширить эту библиотеку реализацией остальных возможностей паттерна АОП. ###### form [github.com/baryshev/form](https://github.com/baryshev/form) Задача данного модуля — проверка и фильтрация входных данных. Чаще всего это формы, но также это могут быть данные полученные при запросе от внешних API и т.п. Этот модуль включает в себя библиотеку [node-validator](https://github.com/chriso/node-validator) и позволяет в полной мере использовать её возможности. Принцип работы этого модуля такой: каждая форма описывается набором полей на которые навешиваются фильтры (функции влияющие на значение поля) и валидаторы (функции проверяющие значение поля на соответствие условию). При получении данных они передаются в метод формы process. В callback мы получим либо описание ошибки (если какие-либо данные не соответствовали критериям формы) либо объект, содержащий отфильтрованный набор полей и готовый к дальнейшему использованию. Небольшой пример использования: ``` var fields = { text: [ form.filter(form.Filter.trim), form.validator(form.Validator.notEmpty, 'Empty text'), form.validator(form.Validator.len, 'Bad text length', 30, 1000) ], name: [ form.filter(form.Filter.trim), form.validator(form.Validator.notEmpty, 'Empty name') ] }; var textForm = form.create(fields); textForm.process({'text' : 'some short text', 'name': 'tester'}, function(error, data) { console.log(error); console.log(data); }); ``` В данном случае мы получим ошибку ‘Bad text length’ для поля text, т.к. длина переданного текста меньше 30 символов. Фильтры и валидаторы выполняются последовательно, поэтому даже если добавить в конец строки множество пробелов, мы всё равно получим ошибку, т.к. перед проверкой пробелы будут удалены фильтром trim. Как создавать собственные фильтры и валидаторы можно прочитать на [странице node-validator](https://github.com/chriso/node-validator) или посмотреть исходный код.В планах на будущее сделать порт этого модуля для использования в браузере и хорошо задокументировать его возможности. ###### configjs [github.com/baryshev/configjs](https://github.com/baryshev/configjs) Данный модуль предназначен для удобного конфигурирования приложения. Конфигурации хранятся в обычных JS-файлах, это даёт возможность использовать JavaScript при конфигурировании и делает не нужным дополнительный разбор файлов. Можно создавать несколько дополнительных конфигураций для различных окружений (разработка, продакшн, тестирование и т.п.), которые будут расширять и/или изменять основную конфигурацию. ###### localejs [github.com/baryshev/localejs](https://github.com/baryshev/localejs) Этот модуль очень похож на configjs, но предназначен для хранения строк разных локалей для поддержки мультиязычности. Модуль вряд ли подойдёт для приложений с большим количеством текста. В таком случае будет удобнее использовать решения на подобии [GetText](http://ru.wikipedia.org/wiki/Gettext). Кроме средств загрузки необходимой локали, модуль содержит функцию вывода числительных, поддерживающую русский и английский язык. ###### hub [github.com/baryshev/hub/blob/master/lib/index.js](https://github.com/baryshev/hub/blob/master/lib/index.js) Наверное этот модуль может претендовать на звание самого маленького модуля для Node.JS. Он состоит всего из одной строки: module.exports = {}; При этом без него разработка была бы намного сложнее. Этот модуль является контейнером, для хранения объектов во время работы приложения. Он использует особенность Node.JS — при подключении модуль инициализируется только один раз. Все вызовы require(‘moduleName’), сколько бы их ни было в приложении, возвращают ссылку на один и тот же экземпляр модуля, инициализированный при первом упоминании. Фактически он заменяет использование глобального пространства для расшаривания ресурсов между частями приложения. Такая необходимость возникает довольно часто. Примеры: пул соединений с СУБД, пул соединений с кешем, ссылка на загруженную конфигурацию и локаль. Эти ресурсы нужны во многих частях приложения и доступ к ним должен быть простым. При инициализации ресурса он присваивается свойству объекта hub и в дальнейшем к нему можно обратиться из любого другого модуля предварительно подключив к нему hub. ###### connect-response Этот plugin для connect добавляет возможность простой работы с cookies, а также включает в себя шаблонизатор, для формирования ответа пользователю. Я разработал свой шаблонизатор. Получилось довольно неплохо. За основу был взят [шаблонизатор EJS](https://github.com/visionmedia/ejs), но в конечном итоге получился совершенно другой продукт, со своим функционалом, хотя и с похожим синтаксисом. Но это большая тема для отдельной статьи. К сожалению этот модуль ещё не опубликован, т.к. не оформлен должным образом и не все ошибки ещё исправлены. Я собираюсь доделать и опубликовать его в ближайшем будущем, как только появится немного свободного времени. #### Структура приложения Поскольку приложение не использует фреймворки, его структура не завязана на какие-либо правила, кроме общего стиля написания приложений на Node.JS и здравого смысла. Приложение использует модель MVC. Запускаемый файл server.js содержит в себе инициализацию основных ресурсов приложения: запуск http-сервера, настройку connect, загрузку конфигурации и языка, установку соединений с MongoDB и Memcached, подключение контроллеров, установку ссылок на ресурсы, которые необходимо расшарить между модулями — в hub. Здесь же форкается необходимое количество процессов. В master-процессе запускается node-cron, для выполнения задач по расписанию, а в дочерних процессах — http-серверы. В каждом контроллере средствами connect устанавливается привязка url к методу-обработчику. Каждый запрос проходит через цепочку методов, которая создаётся при инициализации connect. Пример: ``` var server = connect(); server.listen(port, hub.config.app.host); if (hub.config.app.profiler) server.use(connect.profiler()); server.use(connect.cookieParser()); server.use(connect.bodyParser()); server.use(connect.session({ store: new connectMemcached(hub.config.app.session.memcached), secret: hub.config.app.session.secret, key: hub.config.app.session.cookie_name, cookie: hub.config.app.session.cookie })); server.use(connect.query()); server.use(connect.router(function(router) { hub.router = router; })); ``` Это удобный механизм, позволяющий очень просто добавлять новое поведение в алгоритм обработки запроса и формирования ответа. Контроллер, при необходимости, вызывает методы модели, которые получают данные из MongoDb или Memcached. Когда все данные для ответа готовы, контроллер даёт команду шаблонизатору на формирование страницы и отправляет сгенерированный html пользователю. #### Заключение Тема разработки WEB-приложений на Node.JS довольно большая и интересная. Изложить её полностью в двух статьях невозможно. Да это, наверное, и не нужно. Я постарался описать основные принципы разработки и указать на возможные проблемы. Этого должно быть достаточно для «вхождения» в тему, а дальше [Google](http://google.com) и [GitHub](http://github.com) придут на помощь. Все ссылки на страницы модулей на GitHub'е, которые я привёл в статье, содержат подробное описание установки модулей и примеры их использования. Спасибо всем, кто дочитал. Мне будет очень интересно услышать отзывы и вопросы в комментариях.
https://habr.com/ru/post/138629/
null
ru
null
# Подведение итогов первого года от JPA Buddy 2021-й год закончился, уже почти прошел первый месяц 2022-го. Прошлый год стал знаменательным для JPA Buddy: первый публичный релиз, встреча с первым пользователем и рост до одного из самых высокорейтинговых плагинов на IntelliJ IDEA Marketplace. А еще завтра у Баддика первая годовщина — ровно год назад вышел первый публичный релиз! В этой статье мы решили поделиться историей, которая стоит за JPA Buddy, достижениями 2021-го года, некоторыми интересными фактами, которые получили от нашего комьюнити, и планами на 2022-й.   ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7a8/872/47d/7a887247d7753f796dd32e23afbbfa90.png)История ------- Для начала пара слов о том, как появился JPA Buddy. Идея плагина для IntelliJ IDEA появилась в 2019 году и она уходит корнями в другой продукт – Jmix (бывший CUBA Platform). Jmix – это фреймворк и прилагающийся к нему инструментарий для быстрой разработки бизнес-приложений. Как можно догадаться, слой доступа к данным в Jmix построен поверх JPA и инструмент разработки – Jmix Studio – позволяет построить модель данных (JPA сущности) при помощи визуального дизайнера практически без написания кода.   ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/31b/860/83f/31b86083fa22f12c13645a0b6bcfea75.jpeg) Этот визуальный дизайнер стал одной из самых любимых фич Jmix Studio, но его можно было использовать только для разработки приложений на фреймворке Jmix. И очевидно, что это сильно ограничивало круг разработчиков, которые бы хотели использовать визуальные инструменты IDE для работы с JPA в своих проектах. В итоге, мы решили выделить эту функциональность в отдельный плагин для IntelliJ IDEA, чтобы облегчить работу всем, кто использует JPA.  Разработка и преодоление трудностей ----------------------------------- JPA – обширная и всеобъемлющая спецификация. Как уже было сказано, JPA Buddy основывался на функциональности Jmix Studio, в ней мы поддерживали довольно ограниченное подмножество фич из спецификации. Очевидно, что поддержка всех аспектов практически невозможна, особенно силами команды из двух разработчиков. Нам пришлось изучить спецификацию от корки до корки и сделать около сотни опросов, чтобы лучше понять, чем именно пользуется большинство разработчиков.  Для спецификации JPA есть несколько имплементаций. Не секрет, что Hibernate занимает доминирующее положение в этом семействе, но его доля далека от 100%. То же самое можно сказать о Spring с его проектом Spring Data JPA – доминирует, но не занимает весь рынок; у нас ещё есть Micronaut, Java EE/Jakarta EE, Eclipse Microprofile и основанные на нем фреймворки: Quarkus, Helidon и т.д. Проблема в том, что для этого многообразия фреймворков JPA Buddy должен генерировать код исключительно в контексте текущей имплементации JPA. Также генерируемый код определяется сопутствующими библиотеками приложения: Lombok, Hibernate Types, MapStruct... не говоря уже о выборе самого языка Java или Kotlin. Научить Баддика всем этим трюкам в условии суперпозиции всех условий было не очень просто, но вполне реально.  ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e4c/c51/a1c/e4cc51a1caaa45232309a636cf0cffbf.jpeg)Изначально внешний вид дизайнера сущностей мы взяли из Jmix Studio. Он был разработан для тех, кто не был знаком с JPA (да и даже с Java не очень), но свою задачу выполнял хорошо. Но в процессе сбора обратной связи сразу стало ясно, что аудитория JPA Buddy будет отличаться от пользователей Jmix – это будут профессиональные Java разработчики. Поэтому, в отличие от Jmix, JPA Buddy никогда не скрывает исходный код под окном визуального дизайнера. Плагин аккуратно предлагает свою помощь в создании кода в соответствии с парадигмами JPA, а генерация кода сопровождается визуальными визардами. В итоге разработчики могут использовать практически все возможности плагина, без необходимости знать и помнить эти возможности наизусть.   В завершение нужно упомянуть, что работа с существующим исходным кодом – та ещё проблема. JPA Buddy – помощник, а не хозяин. Инструмент может давать совет, но не исправлять код без вашего ведома. Нам пришлось делать генерацию кода такой, чтобы не притащить ненужные или неожиданные изменения в существующие исходники. Чтобы это стало возможным, мы «тренировали» JPA Buddy «понимать» код, написанный разработчиком. Это заняло достаточно много времени, пока мы учились разбирать и обрабатывать исходники так, чтобы при этом не ломать плагин.  Миссия ------ Когда мы поняли, что подход Jmix c его визуальными дизайнерами не соответствует ожиданиям целевой аудитории, мы решили явно обозначить основные цели создания JPA Buddy:  * Сделать порог входа для разработчиков как можно ниже * Ускорить разработку в части JPA и всего, что с этим связано * Форсировать применение лучших практик, при условии выбранных разработчиком библиотек, языка и имплементации JPA Что касается генерации кода и инспекций, то мы тщательно изучили предмет, чтобы быть уверенными, что все соответствует спецификации, документации и лучшим практикам. Здесь нужно сказать спасибо Eugen Paraschiv, автору [baeldung.com](https://www.baeldung.com/), а также [Vlad Mihalcea](https://vladmihalcea.com/) и [Thorben Janssen](https://thorben-janssen.com/) – их статьи и видео о JPA, Hibernate и Spring Data бесценным источником информации для всего Java сообщества.  Итоги 2021 года --------------- 2021-был отличным годом для всей команды JPA Buddy. Давайте пробежимся по некоторым итогам:  * Выкатили больше 25 релизов, 6 мажорных версий * Закрыли больше [800 тикетов](https://issues.jpa-buddy.com/issues/JPAB) * Количество загрузок в JetBrains Marketplace: больше 500 тысяч уникальных и больше 1.6 миллиона в целом * Из 95 [отзывов на странице плагина](https://plugins.jetbrains.com/plugin/15075-jpa-buddy/reviews) 91 был на пять звезд, средний рейтинг – 4.9 * Заслужили статус «Recommended Plugin для IntelliJ IDEA» * Запустили собственный [youtube канал](https://www.youtube.com/c/JPABuddy) * Сделали четыре выступления:  + Вместе с [Антоном Архиповым](https://twitter.com/antonarhipov) из JetBrains провели [вебинар по лучшим практикам и частым ошибкам при использовании JPA в Kotlin](https://youtu.be/a_6V8xwiv04) + Совместно с RedGate (компанией, поддерживающей [Flyway](https://flywaydb.org/)) сделали [доклад о проблемах при миграции баз данных](https://youtu.be/fNv1ePRSwns) + В компании с [JUGRu Group обсудили правила, которым мы следовали при разработке JPA Buddy](https://www.youtube.com/watch?v=DKvR35O2xeA&feature=youtu.be) + Сделали [доклад о загадках JPA на конференции Joker](https://live.jugru.org/video?v=MTAwMTA0iiM2ODQ0ijA) * Написали больше 100 страниц [документации](https://www.jpa-buddy.com/documentation/) * Получили больше 1500 сообщений в нашем [канале Discord](https://discord.com/invite/DxRDQPk9rh) * Опубликовали восемь статей в [нашем блоге](https://www.jpa-buddy.com/blog/) * Количество подписчиков в [Twitter](https://twitter.com/JPABuddy) превысило 2022, из 110 стран, количество просмотров твитов за год – более трех миллионов А теперь давайте вспомним всю функциональность, разработанную в 2021-м:  * Визуальные дизайнеры для:  + JPA сущностей + Spring Data JPA репозиториев + Liquibase Changelog-ов + Файлов SQL и миграций Flyway + Генерации DTO и поддержка MapStruct * Помощь в написании кода:  + Поддержка Kotlin + Инспекции для проверки правильности определения сущностей + Инспекции для безопасного использования Lombok + Контекстно-зависимая кодогенерация, доступная по комбинации клавиш * Версионирование баз данных:  + Автоматическая генерация Liquibase скриптов + Автоматическая генерация Flyway миграций + Подсказки и возможность отключения небезопасных миграций * Импорт схемы базы данных:  + Генерация сущностей из таблиц + Добавление атрибутов на основе столбцов таблиц в БД + Кэширование схемы БД для удаленных серверов ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7ac/80d/4de/7ac80d4de6749f44f343190e6e9a40d5.png)Даже сложно поверить, что все это было сделано такой небольшой командой всего за год!   Изучение мнений сообщества разработчиков ---------------------------------------- JPA Buddy – всего лишь инструмент. Именно поэтому мы стараемся фокусироваться на том, чего хотят разработчики и не влезать со своим собсвенным мнением в чужие монастыри. В 2021-м году мы делали несколько опросов, результатами которых хотелось бы поделиться.  ### Lombok Похоже, нет такого Java разработчика, который был бы равнодушен к Lombok’у. Его или любят или ненавидят (ещё есть немного тех, которые про него не слышали :)). Такое радикальное отношение подтверждается и тем фактом, что [твит про Lombok](https://twitter.com/JPABuddy/status/1374989273645076489) стал самым просматриваемым в аккаунте JPA Buddy. Но, к сожалению, Lombok – это ещё и причина самого большого количества типовых ошибок при использовании в определении сущностей JPA. При реализации поддержки Lombok в JPA Buddy, мы набили много шишек. В итоге, помимо новой функциональности в плагине, появилась [статья в блоге](https://www.jpa-buddy.com/blog/lombok-and-jpa-what-may-go-wrong/), в которой мы собрали все советы по использованию Lombok в JPA. Этот пост стал самым читаемым в 2021-м году. Суммарно публикация на DZone и в блоге набрала около 20 тысяч просмотров за апрель.   ### Kotlin Мы анонсировали поддержку Kotlin в конце апреля 2021. На тот момент мы и не думали, что JPA Buddy будет поддерживать тандем из Kotlin и JPA примерно в 15% проектов. А ещё одним сюрпризом стало то, что было невозможно нагуглить более-менее полное руководство по использованию JPA в приложениях, написанных на Kotlin. Когда мы собирали материалы и практики по использованию Kotlin, было немного страшновато видеть, что почти на каждом ресурсе по использованию Kotlin с JPA были примеры кода, которые могли привести к серьезным проблемам в приложении. В некоторых примерах использовались data-классы, а в некоторых – closed классы. Мы решили это исправить и собрать [все практики использования Kotlin c JPA в одной статье](https://www.jpa-buddy.com/blog/best-practices-and-common-pitfalls/). Почти 10 тысяч разработчиков прочли этот материал, в нашем хит-параде эта публикация уверенно занимает второе место.   **Помимо всего этого, мы также сделали несколько опросов в Twitter, ниже – интересные факты и выводы из этих опросов.**  ### Что первично в определении модели данных? [В этом посте](https://twitter.com/JPABuddy/status/1390228017079848960) мы спросили сообщество на предмет того, что является источником истины для построения модели данных. Вышло так: 56% разработчиков сначала меняют таблички в базе, а затем синхронизируют изменения с JPA сущностями, в то время как 44% делают наоборот: сначала меняют модель JPA, а затем обновляют БД.  На тот момент в JPA Buddy уже была возможность генерации скриптов обновления БД. Это делалось путем сравнения JPA модели и базы данных – большое подспорье тем, для кого JPA модель первична. Но получалось, что более половины разработчиков не могли полноценно пользоваться JPA Buddy для генерации обновлений из БД.  ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/0d6/841/b5a/0d6841b5a52bc8ee4fa561593e9ce427.jpeg)Это привело к решению назначить наивысший приоритет задаче импорта схемы данных в JPA модель, и мы даже пересмотрели свой взгляд на то, как это должно выглядеть в продукте. До опроса импорт представлялся как одноразовая операция: разработчик импортировал бы схему данных в JPA модель на начальном этапе разработки проекта, и работал бы дальше только с ней. Результаты опроса показали, что разработчики используют импорт постоянно, после каждого изменения таблиц в базе. Таким образом, было принято решение использовать подход, при котором таблицы (и даже поля) импортировались бы в JPA модель по одной, позволяя пользователю выбирать только необходимые изменения, без перегенерации всего кода JPA сущности.  Надеемся, что JPA Buddy теперь отвечает требованиям обоих лагерей разработчиков: и тем, у кого база – источник истины и тем, у кого это – JPA модель.  ### Flyway vs Liquibase Сейчас JPA Buddy позволяет генерировать скрипты обновления БД и для Liquibase, и для Flyway, однако, в первых версиях мы предлагали поддержку только для Liquibase. Чтобы понять, насколько приоритетна задача поддержки Flyway, мы запустили [следующий опрос](https://twitter.com/JPABuddy/status/1394273496075735040):  ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/d38/87c/8b2/d3887c8b2ab5c954aa40a65b150f9379.jpeg)Как видно, в Java сообществе Flyway выигрывает. После анализа комментариев к опросу, были сделаны следующие выводы:  * Люди выбирают Liquibase из-за возможности отката изменений, загрузки данных из CSV, preconditions, labels и contexts. * Основное преимущество Flyway – очень понятная концепция и простота использования. * Некоторые все ещё верят, что обновление БД – не задача разработчика, а этим должен заниматься администратор базы данных… Правильный маппинг для типа данных SQL Timestamp/Datetime --------------------------------------------------------- Когда мы разрабатывали функциональность импорта таблиц БД в объекты JPA, то нужно было делать отображение типов данных столбцов таблиц в Java типы. И угадайте, про какой тип данных мы спорили больше всего? Конечно же Timestamp/Datetime! Так и не придя к общему знаменателю, мы решили попросить совета у сообщества и сделали [ещё один опрос](https://twitter.com/JPABuddy/status/1407300307638444035):  ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a66/946/6b3/a669466b3590abcdebee66817ff6a1ad.jpeg)Как видите, 63% проголосовали за `LocalDateTime`. Ho! Спасибо [Simon Martinelli](https://twitter.com/simas_ch) и [Corneil du Plessis](https://twitter.com/corneil), они первыми заметили, что правильного ответа здесь нет! Оказалось, что то, что нам было нужно – `java.time.Instant`! Планы на 2022 ------------- Начнем с того, что с 2022-го некоторые фичи JPA Buddy будут доступны только по подписке. Весь год разработка плагина велась на энтузиазме и финансировалась изнутри компании. Спасибо Haulmont за то, что весь 2021 год мы смогли сохранять JPA Buddy полностью бесплатным. Однако, в 2022 мы всё же хотим получить канал стабильного финансирования, чтобы развивать плагин не по остаточному принципу, а более интенсивно. Ориентируемся на 1 апреля. Мы выбрали freemium модель: большая часть функциональности будет бесплатной, включая все визуальные редакторы для сущностей, Spring Data репозиториев, Flyway и Liquibase скриптов. Автоматическая генерация скриптов версионирования для Liquibase и Flyway, а также импорт схемы данных в JPA станут платными: 1,9$ в месяц для индивидуальных пользователей. JPA Buddy останется бесплатным для студентов и для академического использования, а также для обучающих курсов и школ программирования. Также мы предлагаем скидку 50% для учебных и некоммерческих организаций. Мы уверены, что наш инструмент экономит большое количество времени, и пара долларов в месяц окупится уже через несколько дней, если вы будете использовать JPA Buddy.  Во-вторых, мы планируем финализировать функциональность импорта таблиц БД в JPA, чтобы поддерживать не только импорт одиночных таблиц, но и пакетные операции. В идеале нам бы очень хотелось сделать так, чтобы можно было создавать приложение целиком на основе только лишь базы данных: вы указываете схему, а JPA Buddy генерирует все сущности, репозитории и даже REST контроллеры для CRUD операций.  В-третьих, мы планируем новую функциональность: «smart hints» - умные подсказки. Разработчики будут видеть различные советы, которые помогут сделать ваше приложение лучше, например, подсказки для более эффективного маппинга или рекомендации для оптимизации выборки данных.   А в багтрекере у нас ещё есть много того, над чем можно подумать. Мы будем приоритезировать всю эту функциональность в соответствии обратной связью и постепенно добавлять в наш плагин.  Мы видим следующий год ещё более продуктивным! Надеемся, COVID в конце концов покинет нас в 2022-м и мы сможем опять путешествовать по миру, видеться в офлайне, обмениваться идеями, как сделать софт лучше, а разработку – приятнее. Мы благодарим все пятьсот тысяч разработчиков, которые попробовали JPA Buddy в 2021-м году и дважды благодарим тех, кто сообщал нам об ошибках или делился своими соображениями и идеями.
https://habr.com/ru/post/648105/
null
ru
null
# Применение ZIO ZLayer ***В июле OTUS запускает новый курс [«Scala-разработчик»](https://otus.pw/t5r0/), в связи с чем мы подготовили для вас перевод полезного материала.*** ![](https://habrastorage.org/r/w1560/webt/bi/o3/sn/bio3snhbd-ottwrex8wm4oqf-8q.png) --- Новая функция ZLayer в ZIO 1.0.0-RC18+ является значительным улучшением старого паттерна модулей, что делает добавление новых сервисов намного быстрее и легче. Однако при использовании на практике я обнаружил, что может потребоваться какое-то время, чтобы освоить эту идиому. Ниже приведен аннотированный пример финальной версии моего тестового кода, в котором я рассматриваю ряд вариантов использования. Большое спасибо Адаму Фрейзеру за помощь в оптимизации и облагораживании моей работы. Сервисы преднамеренно упрощены, так что, надеюсь, они будут достаточно понятны для быстрого чтения. Я предполагаю, что у вас есть базовое понимание ZIO тестов, а также вы ознакомились с основной информацией касательно модулей. Весь код запускается в zio тестах и представляет собой один файл. Вот его верхушка: ``` import zio._ import zio.test._ import zio.random.Random import Assertion._ object LayerTests extends DefaultRunnableSpec { type Names = Has[Names.Service] type Teams = Has[Teams.Service] type History = Has[History.Service] val firstNames = Vector( "Ed", "Jane", "Joe", "Linda", "Sue", "Tim", "Tom") ``` ### Names Итак, мы добрались до нашего первого сервиса — Names (Имена) ``` type Names = Has[Names.Service] object Names { trait Service { def randomName: UIO[String] } case class NamesImpl(random: Random.Service) extends Names.Service { println(s"created namesImpl") def randomName = random.nextInt(firstNames.size).map(firstNames(_)) } val live: ZLayer[Random, Nothing, Names] = ZLayer.fromService(NamesImpl) } package object names { def randomName = ZIO.accessM[Names](_.get.randomName) } ``` Тут все в рамках типичного модульного паттерна. * Объявите Names как псевдоним типа для Has * В объекте, определите Service как трейт * Создайте реализацию (конечно, вы можете создать несколько), * Создайте ZLayer внутри объекта для данной реализации. Конвенция ZIO имеет тенденцию вызывать их в реальном времени. * Добавляется объект пакета, который обеспечивает удобное для доступа сокращение. В **live** используется `ZLayer.fromService`, который определяется как: ``` def fromService[A: Tagged, B: Tagged](f: A => B): ZLayer[Has[A], Nothing, Has[B] ``` Игнорируя Tagged (это необходимо для работы всего Has/Layers), вы можете видеть, что здесь используется функция *f: A => B* — которая в данном случае является просто конструктором кейс класса для `NamesImpl`. Как вы можете видеть, для работы Names требуется Random из среды zio. Вот тест: ``` def namesTest = testM("names test") { for { name <- names.randomName } yield { assert(firstNames.contains(name))(equalTo(true)) } } ``` Он использует `ZIO.accessM` для извлечения *Names* из среды. `_.get` извлекает сервис. Мы предоставляем *Names* для теста следующим образом: ``` suite("needs Names")( namesTest ).provideCustomLayer(Names.live), ``` `provideCustomLayer` добавляет слой *Names* в существующую среду. ### Teams Суть *Teams* (Команды) заключается в тестировании зависимостей между модулями, которые мы создали. ``` object Teams { trait Service { def pickTeam(size: Int): UIO[Set[String]] } case class TeamsImpl(names: Names.Service) extends Service { def pickTeam(size: Int) = ZIO.collectAll(0.until(size).map { _ => names.randomName}).map(_.toSet ) // да, я знаю, что команда может иметь < размер! } val live: ZLayer[Names, Nothing, Teams] = ZLayer.fromService(TeamsImpl) } ``` Teams выберут команду из доступных names, сделав выбор по *размеру*. Следуя паттернам использования модулей, хотя для работы **pickTeam** нужны *Names*, мы не помещаем его в *ZIO[Names, Nothing, Set[String]]* — вместо этого мы держим на него ссылку в `TeamsImpl`. Наш первый тест прост. ``` def justTeamsTest = testM("small team test") { for { team <- teams.pickTeam(1) } yield { assert(team.size)(equalTo(1)) } } ``` Чтобы запустить его, нам нужно предоставить ему слой Teams: ``` suite("needs just Team")( justTeamsTest ).provideCustomLayer(Names.live >>> Teams.live), ``` *Что такое «>>>»?* Это вертикальная композиция. Она указывает, что нам нужен слой *Names*, которому нужен слой *Teams*. Тем не менее, при запуске этого, есть небольшая проблема. ``` created namesImpl created namesImpl [32m+[0m individually [32m+[0m needs just Team [32m+[0m small team test [36mRan 1 test in 225 ms: 1 succeeded, 0 ignored, 0 failed[0m ``` Возвращаясь к определению `NamesImpl` ``` case class NamesImpl(random: Random.Service) extends Names.Service { println(s"created namesImpl") def randomName = random.nextInt(firstNames.size).map(firstNames(_)) } ``` Таким образом, наш `NamesImpl` создается дважды. Чем это чревато, если наш сервис содержит какой-нибудь уникальный системный ресурс приложения? На самом деле, оказывается, что проблема вовсе не в механизме Layers — слои запоминаются и не создаются несколько раз в графе зависимостей. На самом деле это артефакт тестовой среды. Изменим наш набор тестов на: ``` suite("needs just Team")( justTeamsTest ).provideCustomLayerShared(Names.live >>> Teams.live), ``` Это исправляет проблему, что означает, что слой создается в тесте только один раз **JustTeamsTest** требует только *teams*. Но что, если я хотел получить доступ к *Teams* и *Names*? ``` def inMyTeam = testM("combines names and teams") { for { name <- names.randomName team <- teams.pickTeam(5) _ = if (team.contains(name)) println("one of mine") else println("not mine") } yield assertCompletes } ``` Чтобы это работало, нам нужно предоставить и то, и другое: ``` suite("needs Names and Teams")( inMyTeam ).provideCustomLayer(Names.live ++ (Names.live >>> Teams.live)), ``` Здесь мы используем комбинатор **++** для создания слоя *Names* с *Teams*. Обратите внимание на приоритет оператора и дополнительные скобки ``` (Names.live >>> Teams.live) ``` Вначале, я сам на это попался — в противном случае компилятор будет делать не правильно. ### History History (История) немного сложнее. ``` object History { trait Service { def wonLastYear(team: Set[String]): Boolean } case class HistoryImpl(lastYearsWinners: Set[String]) extends Service { def wonLastYear(team: Set[String]) = lastYearsWinners == team } val live: ZLayer[Teams, Nothing, History] = ZLayer.fromServiceM { teams => teams.pickTeam(5).map(nt => HistoryImpl(nt)) } } ``` Конструктор `HistoryImpl` требует множество *Names*. Но единственный способ получить такое — извлечь его из *Teams*. И для этого требуется ZIO — поэтому мы используем `ZLayer.fromServiceM`, чтобы он дал нам то, что нам нужно. Тест проводится по той же схеме, что и раньше: ``` def wonLastYear = testM("won last year") { for { team <- teams.pickTeams(5) ly <- history.wonLastYear(team) } yield assertCompletes } suite("needs History and Teams")( wonLastYear ).provideCustomLayerShared((Names.live >>> Teams.live) ++ (Names.live >>> Teams.live >>> History.live)) ``` И все. ### Throwable ошибки В приведенном выше коде предполагается, что вы возвращаете ZLayer[R, Nothing, T] — другими словами, конструкция службы среды имеет тип Nothing. Но если он выполняет что-то вроде чтения из файла или базы данных, то, скорее всего, это будет ZLayer[R, Throwable, T] — потому что такого рода вещи часто включают именно тот внешний фактор, который вызывает исключение. Так что представьте себе, что в конструкции Names произошла ошибка. Для ваших тестов есть способ обойти это: ``` val live: ZLayer[Random, Throwable, Names] = ??? ``` затем в конце теста ``` .provideCustomLayer(Names.live).mapError(TestFailure.test) ``` `mapError` превращает объект `throwable` в сбой теста — это то, что вам нужно — он может сказать, что тестовый файл не существует или что-то вроде этого. ### Больше ZEnv кейсов В «стандартные» элементы среды входят Clock (часы) и Random. В наших Names мы уже использовали Random. Но что, если мы также хотим, чтобы один из этих элементов еще больше «понизил» наши зависимости? Для этого я создал вторую версию History — History2 — и здесь для создания экземпляра нужен Clock. ``` object History2 { trait Service { def wonLastYear(team: Set[String]): Boolean } case class History2Impl(lastYearsWinners: Set[String], lastYear: Long) extends Service { def wonLastYear(team: Set[String]) = lastYearsWinners == team } val live: ZLayer[Clock with Teams, Nothing, History2] = ZLayer.fromEffect { for { someTime <- ZIO.accessM[Clock](_.get.nanoTime) team <- teams.pickTeam(5) } yield History2Impl(team, someTime) } } ``` Это не очень полезный пример, но важной частью является то, что строка ``` someTime <- ZIO.accessM[Clock](_.get.nanoTime) ``` заставляет нас предоставлять часы в нужном месте. Теперь `.provideCustomLayer` может добавить наш слой в стек слоев, и он волшебным образом выталкивает Random в Names. Но этого не будет происходить для часов, которые требуются ниже, в History2. Поэтому следующий код НЕ компилируется: ``` def wonLastYear2 = testM("won last year") { for { team <- teams.pickTeam(5) _ <- history2.wonLastYear(team) } yield assertCompletes } // ... suite("needs History2 and Teams")( wonLastYear2 ).provideCustomLayerShared((Names.live >>> Teams.live) ++ (Names.live >>> Teams.live >>> History2.live)), ``` Вместо этого вам нужно предоставить `History2.live` часы в явном виде, что делается следующим образом: ``` suite("needs History2 and Teams")( wonLastYear2 ).provideCustomLayerShared((Names.live >>> Teams.live) ++ (((Names.live >>> Teams.live) ++ Clock.any) >>> History2.live)) ``` `Clock.any` — это функция, которая получает любые часы, доступные сверху. В этом случае это будут тестовые часы, потому что мы не пытались использовать `Clock.live`. ### Исходный код Полный исходный код (за исключением throwable) приведен ниже: ``` import zio._ import zio.test._ import zio.random.Random import Assertion._ import zio._ import zio.test._ import zio.random.Random import zio.clock.Clock import Assertion._ object LayerTests extends DefaultRunnableSpec { type Names = Has[Names.Service] type Teams = Has[Teams.Service] type History = Has[History.Service] type History2 = Has[History2.Service] val firstNames = Vector( "Ed", "Jane", "Joe", "Linda", "Sue", "Tim", "Tom") object Names { trait Service { def randomName: UIO[String] } case class NamesImpl(random: Random.Service) extends Names.Service { println(s"created namesImpl") def randomName = random.nextInt(firstNames.size).map(firstNames(_)) } val live: ZLayer[Random, Nothing, Names] = ZLayer.fromService(NamesImpl) } object Teams { trait Service { def pickTeam(size: Int): UIO[Set[String]] } case class TeamsImpl(names: Names.Service) extends Service { def pickTeam(size: Int) = ZIO.collectAll(0.until(size).map { _ => names.randomName}).map(_.toSet ) // да, я знаю, что команда может иметь < размер! } val live: ZLayer[Names, Nothing, Teams] = ZLayer.fromService(TeamsImpl) } object History { trait Service { def wonLastYear(team: Set[String]): Boolean } case class HistoryImpl(lastYearsWinners: Set[String]) extends Service { def wonLastYear(team: Set[String]) = lastYearsWinners == team } val live: ZLayer[Teams, Nothing, History] = ZLayer.fromServiceM { teams => teams.pickTeam(5).map(nt => HistoryImpl(nt)) } } object History2 { trait Service { def wonLastYear(team: Set[String]): Boolean } case class History2Impl(lastYearsWinners: Set[String], lastYear: Long) extends Service { def wonLastYear(team: Set[String]) = lastYearsWinners == team } val live: ZLayer[Clock with Teams, Nothing, History2] = ZLayer.fromEffect { for { someTime <- ZIO.accessM[Clock](_.get.nanoTime) team <- teams.pickTeam(5) } yield History2Impl(team, someTime) } } def namesTest = testM("names test") { for { name <- names.randomName } yield { assert(firstNames.contains(name))(equalTo(true)) } } def justTeamsTest = testM("small team test") { for { team <- teams.pickTeam(1) } yield { assert(team.size)(equalTo(1)) } } def inMyTeam = testM("combines names and teams") { for { name <- names.randomName team <- teams.pickTeam(5) _ = if (team.contains(name)) println("one of mine") else println("not mine") } yield assertCompletes } def wonLastYear = testM("won last year") { for { team <- teams.pickTeam(5) _ <- history.wonLastYear(team) } yield assertCompletes } def wonLastYear2 = testM("won last year") { for { team <- teams.pickTeam(5) _ <- history2.wonLastYear(team) } yield assertCompletes } val individually = suite("individually")( suite("needs Names")( namesTest ).provideCustomLayer(Names.live), suite("needs just Team")( justTeamsTest ).provideCustomLayer(Names.live >>> Teams.live), suite("needs Names and Teams")( inMyTeam ).provideCustomLayer(Names.live ++ (Names.live >>> Teams.live)), suite("needs History and Teams")( wonLastYear ).provideCustomLayerShared((Names.live >>> Teams.live) ++ (Names.live >>> Teams.live >>> History.live)), suite("needs History2 and Teams")( wonLastYear2 ).provideCustomLayerShared((Names.live >>> Teams.live) ++ (((Names.live >>> Teams.live) ++ Clock.any) >>> History2.live)) ) val altogether = suite("all together")( suite("needs Names")( namesTest ), suite("needs just Team")( justTeamsTest ), suite("needs Names and Teams")( inMyTeam ), suite("needs History and Teams")( wonLastYear ), ).provideCustomLayerShared(Names.live ++ (Names.live >>> Teams.live) ++ (Names.live >>> Teams.live >>> History.live)) override def spec = ( individually ) } import LayerTests._ package object names { def randomName = ZIO.accessM[Names](_.get.randomName) } package object teams { def pickTeam(nPicks: Int) = ZIO.accessM[Teams](_.get.pickTeam(nPicks)) } package object history { def wonLastYear(team: Set[String]) = ZIO.access[History](_.get.wonLastYear(team)) } package object history2 { def wonLastYear(team: Set[String]) = ZIO.access[History2](_.get.wonLastYear(team)) } ``` Если у вас есть более сложные вопросы, обращайтесь в Discord #zio-users или посетите сайт и [документацию](https://zio.dev/) zio. --- [Узнать о курсе подробнее.](https://otus.pw/t5r0/) ---
https://habr.com/ru/post/509438/
null
ru
null
# Реализация VoIP карточной платформы на FreeSWITCH с использованием RADIUS Встала задача избавиться от старого хлама в стойке и реализовать программную версию, слегка забытой, но до сих пор существующей технологии для оказания, как правило, междугородней/международной связи для абонентов других операторов посредством звонка на специальный номер доступа и вводом ПИН кода. Авторизация абонентов проходит через биллинг посредством RADIUS, записи о звонках складываются туда же. Сама по себе платформа мало кому интересна, но когда я писал конфиги, мне очень не хватало примеров использования, надеюсь, этот пример кому-нибудь пригодится. Моя работа лишь поверхностно связана с телефонией, поэтому с Астериском я не очень то и знаком, поэтому при выборе базовой платформы у меня не было каких либо ограничений и предрассудков. Вполне логично было бы реализовать всё на Астериске, особенно учитывая его активное использование в компании, но по горькому опыту, его падения происходят в самый неподходящий момент и простой перезапуск службы не помогает. Поэтому, начитавшись позитивных отзывов и обзоров, платформой был выбран FreeSWITCH. Документации на него конечно гораздо меньше и еще меньше на русском языке, но это не испугало, ведь очень хорошо помнится, как Астериск на закате h323 собирался из нескольких пакетов, в строгом соответствии версий и примеров инсталляций были единицы. Перед началом и в процессе настройки был тщательно изучен [Wiki](http://wiki.freeswitch.org). #### Постановка задачи Есть некоторое количество людей желающих звонить по межгороду выгоднее, чем по тарифам особенно сотового оператора, без каких либо приложений на телефоне или просто с рабочего номера, где нет выхода на «8-ку». Для этого организуется номер доступа (или несколько), куда клиент звонит (далее 555555), проходит авторизацию (по АОН или ПИН коду), слышит свой текущий остаток средств и набирает номер куда хотел позвонить, данные о звонке должны попасть в биллинг для обсчета. Собственно все это уже работало с давних лет (и было мега популярной услугой) на огромной и страшной Cisco AS5300. Предвосхищая критику авторизации по АОН: система предоплатная и больших балансов ни у кого нет – риски минимальные, клиентов мало – трудно догадаться под каким АОН можно звонить бесплатно, звонить через VoIP и подменять номер бесполезно – профит от такого звонка минимальный, местных операторов отследить легко. Что-то вроде схемы сервиса, номера справа это expression для extension’ов: ![](https://habrastorage.org/r/w1560/storage2/bb0/959/b6d/bb0959b6dcc962880eaee76a8ba577d4.png) Ничего сложного, но повозиться пришлось. 1. Абсолютно не привычный для админа формат конфигов в xml, к тому же логика их инклудов по началу кажется очень запутанной. 2. Очень не привычная логика условий condition, в частности меня все время сбивало с толку break=«on-true» (как же так прервать выполнение программы по истине), советую очень внимательно подойти к изучению этого вопроса и всё становится очень даже логично. Если кратко, то break влияет только на процесс охоты (об охоте чуть ниже) и прерывает обработку conditions в текущем extension если условие совпало (true), не совпало (false по умолчанию) или вообще не прерывает и обрабатывает следующее условие в любом случае (never). 3. Все вычисления, кроме примитивных для которых можно установить inline=«true», выполняются только после transfer или execute\_extension. Суть в том что FS обрабатывает XML\_Dialplan в два этапа — охота и выполнение (hunting и executing). Во время охоты выполняются conditions, actions and anti-actions и выбираются приложения которые надо выполнить. Поэтому когда надо получить результаты какого либо сложного приложения надо переходить в другой extension. 4. Нельзя просто так взять и подставить что-то в строку без регулярных выражений и очень смущает отсутствие просто элементарных алгебраических функций. 5. Документация, особенно на модули очень скудная (было эпичным описание функции, которое в апреле исправили: If you don't know what this app does then you should not be using it! :) ). #### Решение Установку FS описывать не буду, там все просто, к тому же стандартно, дополнительно надо только скомпилировать недостающие модули. Все пути буду указывать относительно папки, где установлен FS. Для настройки был выделен отдельный номер и направлен на FS (есть особенность использования нестандартного порта при звонке с внешних серверов – 5080). Создаем профиль для исходящих звонков (для приема достаточно правильного extension в контексте public) через сервер с названием sipgate (IP адрес 10.10.10.10) в conf/sip\_profiles/external/sipgate.xml, в моем случае достаточно без авторизации: ``` ``` Для дальнейшей работы необходимо русифицировать FS и была наполнена папка sounds/ru/RU/elena звуковыми файлами нужного битрейта, в моем случае 8000 ([архив с файлами](http://files.freeswitch.org/freeswitch-sounds-ru-RU-elena-8000-1.0.13.tar.gz)). В файле freeswitch.xml меняем en на ru: ``` ``` Голосовые файлы использовались стандартные и их недостаточно, но с записью пока проблемы. Конфиг dialplan/public.xml был максимально урезан: ``` ``` А в файле conf/dialplan/public/voip\_public.xml пишем extension для входящих вызовов, где сразу же пытаемся его авторизовать по номеру: ``` ``` Отдельное внимание «STEP=fs1» – в моем случае удобнее было сказать билингу что авторизация по АОНу с флагом fs1, а авторизация по ПИН fs1pin. В комментариях упоминается conf/autoload\_configs/rad\_auth.conf.xml (IP адрес RADIUS сервера 10.20.20.20): ``` ``` А теперь вся основная логика в файле conf/dialplan/voip.xml, согласно схеме в начале статьи: ``` xml version="1.0" encoding="utf-8"? ``` Упоминается phrase:voip\_get\_digits и phrase:voip\_get\_pin – «фразы» которые будут говориться клиенту во время ожидания ввода, причем второй можно было сделать и без этого. Хранятся в файле conf/lang/ru/viop.xml: ``` ``` И еще конфиг conf/autoload\_configs/mod\_radius\_cdr.conf.xml, где практически ничего не настраивается и по факту вся логика жестко написана в коде: ``` ``` Мне пришлось немного модифицировать код этого модуля, так как статистика должна сваливаться или по номеру или по логину, а как через этот модуль штатными средствами пропустить свою переменную с флагом используемой авторизации я не нашел. В итоге, когда уже все работало, был жестоко кастрирован общий конфиг FS, дабы сократить итоговый конфиг log/freeswitch.xml.fsxml. По тексту есть тудушки, без них все работает, но если их сделать будет красивее.
https://habr.com/ru/post/189148/
null
ru
null
# Как пройти финальный уровень JS QA Game от SEMrush Привет, меня зовут Тимур, и я написал [QA Game](https://qa.semrush-games.com/) от [SEMrush](https://www.semrush.com/). Вы могли слышать об этой игре, если участвовали в Heisenbug online или видели анонсы игры в Telegram-чатах для тестировщиков. Если коротко, то в QA Game нужно проходить уровни с нарастающей сложностью и отлавливать баги, используя JavaScript. В этой статье я разберу седьмой (финальный и самый сложный) уровень и поделюсь решением победителя игры\*. ![image](https://habrastorage.org/r/w1560/webt/cn/mk/mb/cnmkmbd1llh6fzos1in-qu-morm.png) *\* Пояснение для игроков. QA Game была запущена в 2 потока: в июне и в июле. Максимальное количество баллов за все время набрал Александр из первого потока, поэтому в статье разбираем именно его результаты. Остальных лидеров можно [увидеть по ссылке](https://qa.semrush-games.com/scoreboard).* Что «внутри»: для редактора кода в игре используется библиотека [Ace.js](https://ace.c9.io/) в ней доступны подсветка синтаксиса и автодополнение; для исполнения кода на стороне клиента используется webWorker (был вдохновлен [этой статьей](http://blog.namangoel.com/replacing-eval-with-a-web-worker)). Backend написан на Python & Flask, задеплоен на [Heroku](https://www.heroku.com/). В сумме на написание игры было потрачено около 2 месяцев. Когда я писал QA Game, у меня еще не было опыта с Ace.js & webWorkers, и было интересно их попробовать. Если вы хотите сделать подобную игру, то советую подумать над: * исполнением кода игроков на стороне сервера, а не на стороне клиента, как сделал я; * использованием асинхронного фреймворка для бэкенда. Если бекенд на Python, советую [Quart](https://pypi.org/project/Quart/) или [FastAPI](https://fastapi.tiangolo.com/)). Легенда QA Game --------------- В игре необходимо управлять персонажем ZERO2, который умеет тестировать, искать и исправлять баги. Управление происходит с помощью JavaScript кода, у ZERO2 есть собственный SDK, который заметно упрощает программирование. Например, чтобы протестировать все имеющиеся на уровне фичи, нужно выполнить такой код: ``` let result = scan(); for (f of result.features) { smoke_test(f); } ``` А чтобы после этого исправить все найденные при тестировании баги, такой: ``` result = scan(); for (b of result.bugs) { fix_bug(b); } ``` Каждый новый уровень в игре содержит в себе дополнительные функции и требует применения более сложных алгоритмов; подробный разбор каждого из них [опубликован на GitHub](https://github.com/TimurNurlygayanov/QA_Battle_2020/blob/master/HOW_TO_PASS.md). В этой статье я детально разберу 7 уровень, поскольку именно на нем определялось, кто из игроков получит максимальное количество баллов. Как набрать максимум баллов? Версия создателя игры. --------------------------------------------------- На 7 уровне игрокам нужно исправить и верифицировать максимально возможное количество багов за 120 секунд, при этом: 1. Нажать кнопку RUN можно только 60 раз; 2. Через 120 секунд алгоритм автоматически завершается, баллы больше не начисляются (валидация была и на фронтенде, и на бекенде); 3. За каждый исправленный баг начисляется 100 очков, за исправленный и верифицированный —150 очков; 4. Каждый раз запуск RUN сбрасывает все очки, и новые баги генерируются случайным образом. Чтобы набрать максимальное количество баллов, нужно проанализировать факторы, влияющие на результат: * **Упрощение кода**. Нужно убрать все лишние конструкции и писать понятный код, проверяя его на возможность зацикливания. Многие участники теряли баллы из-за ошибок в коде, приводящих к бесконечным пустым циклам; * **Снижение времени ответа на запрос**. Каждый метод SDK делает запрос к серверу, и в среднем на один запрос тратится 200-400 мс. Чтобы снизить этот показатель, нужно найти подходящий сервер и выполнять запросы с него; * **Оптимизация алгоритма**. Больше всего времени требуется на поиск шагов воспроизведения бага (функция investigate\_bug). Поэтому нужно подумать, как оптимизировать алгоритм, чтобы находить решение за минимальное количество попыток; * **«Распараллеливание» алгоритма**. Стандартный запуск происходит в один поток (один webWorker), и все API-методы синхронные. Можно попробовать «распараллелить» алгоритм. А еще можно просмотреть, возможно ли часть методов сделать асинхронными (спойлер: некоторые можно). ### Оптимизация алгоритма Функция investigate\_bug(bug\_id, steps) возвращает 0, если указанные шаги воспроизведения не верны, 1, если указанные шаги воспроизведения являются началом верной комбинации шагов и 100, если указанные шаги — это полная комбинация шагов для воспроизведения бага. Алгоритм подбора шагов воспроизведения может выглядеть так: ``` function find_steps(bug_id) { let path = ''; let result = 0; while (result != 100) { path += '>'; result = investigate_bug(bug_id, path); if (result === 0) { path = path.slice(0, -1); path += '<'; result = investigate_bug(bug_id, path); } } }; ``` Эту функцию можно ускорить, если для определенной последовательности при получении «0» не перепроверять ту же последовательность, заменяя последний символ. Вместо этого нужно сразу добавить еще один символ к строке и проверять результат для новой строки. Что это значит? Можно “сэкономить” количество вызовов investigate\_bug, применяя такой алгоритм (хотя он будет быстрее работать не для всех случаев): ``` function find_steps2(bug_id) { let path = ""; result = 0; prev_result = 0; // запоминаем результат прошлой итерации, // если мы два раза получили 0, то нужно // проверить предыдущий шаг с другой последовательностью while (result != 100) { result = investigate_bug(bug_id, path + ">"); if (result === 0) { if (prev_result === 0) { result = investigate_bug(bug_id, path + "<"); if (result > 0) { prev_result = 1; path += "<"; } else { // если мы два раза подряд получаем 0, значит // нужно остановиться и проверить path // мы можем получить 100 или 1 здесь result = investigate_bug(bug_id, path); } } else { prev_result = 0; path += "<"; } } else { prev_result = 1; path += ">"; } } ``` Сравним результаты: | Верные шаги воспроизведения | Количество вызовов investigate\_bug в функции find\_steps | Количество вызовов investigate\_bug в функции find\_steps2 | | --- | --- | --- | | >> | 2 | 2 | | << | 4 | 6 | | <<< | 6 | 5 | | >><<>> | 8 | 7 | | <<<<<< | 12 | 12 | Важно отметить, что второй алгоритм не всегда работает быстрее, но для большинства случаев он позволяет найти решение за меньшее количество шагов. Также для некоторых случаев имеет значение какой из символов > или < будет подставляться в первую очередь. Правда, учитывая случайность выбранных комбинаций, можно сделать заключение, что это не даст заметного прироста. Возможно, вы найдете более оптимальный алгоритм? ### «Распараллеливаем» выполнение работы над багами Это можно было сделать 2 способами: 1. Создавать новые webWorkers, и передавать им JavaScript код в строке: ``` let my_code = "console.log('Any JS code which you want to run');"; let bb = new Blob([hidden_js + my_code], { type: 'text/javascript' }); // convert the blob into a pseudo URL let bbURL = URL.createObjectURL(bb); // Prepare the worker to run the code let worker = new Worker(bbURL); ``` При таком подходе остается только решить вопрос синхронизации разных потоков между собой, и тут можно пользоваться свойством функции fix\_bug(bug\_id) — если функция возвращает «0», значит, баг еще не был исправлен. 2. Посмотреть все API методы, которые вызываются SDK методами из JS и сделать свой собственный скрипт на любимом языке программирования. Такой подход хорош тем, что у вас появляется полная свобода действий, возможность легкого запуска решения в несколько потоков, возможность запуска собственного скрипта с сервера, у которого будет минимальная задержка для сетевых запросов. ### Асинхронные функции Проанализировав все SDK функции, можно было заметить, что функцию fix\_bug и verify\_fix можно сделать асинхронными, просто переписав стандартные функции, которые используются в игре: ``` function verify_fix(bug, path) { let xhr = new XMLHttpRequest(); // третий аргумент здесь - true - означает, что запрос должен быть асинхронным xhr.open('POST', "https://qa.semrush-games.com/api/verify_fix", true); xhr.setRequestHeader("Content-Type", "application/x-www-form-urlencoded"); xhr.send("bug=" + bug + "&path=" + path); } function fix_bug(bug, path) { var xhr = new XMLHttpRequest(); xhr.open('POST', "https://qa.semrush-games.com/api/fix_bug", true); xhr.setRequestHeader("Content-Type", "application/x-www-form-urlencoded"); xhr.onreadystatechange = function () { if (this.readyState === XMLHttpRequest.DONE && this.status === 200) { if (this.response.toString().length > 3) { // делаем верификацию сразу, как баг был исправлен: verify_fix(bug, path); } } }; xhr.send("bug=" + bug.toString()); } ``` Как набрать максимум баллов? Версия победителя. ----------------------------------------------- Победителем стал Александр, набравший 28 050 баллов. Он рассказал, как удалось этого достичь, далее повествование от первого лица. Когда я подключился к игре, то в ней еще было мало участников (меньше 10). После нескольких попыток моя программа получила больше 11000 очков и заняла первое место с большим отрывом. Но так как само решение было достаточно тривиальным, то я понимал, что на первом месте я останусь не надолго, поэтому стал думать как улучшить программу. Сначала я посмотрел, что больше всего влияет на скорость работы, оказалось, что 99% времени занимали запросы к серверу. Каждый запрос занимал примерно 110-120 мс. Соответственно было 3 основных варианта ускорения программы: * Улучшение алгоритма и уменьшение количества запросов к серверу; * Использование асинхронных запросов к серверу; * Уменьшение времени одного запроса. От второго варианта я отказался, так как это выходило бы за рамки условий задачи и исходного синхронного API. Уменьшить количество запросов к серверу можно было несколькими способами, но все они давали лишь небольшой прирост (в сумме несколько десятков процентов). Поэтому я стал думать, как уменьшить время одного запроса. Посмотрел где развернут сервер игры, оказалось что в AWS в Дублине (пинг до Дублина из моего города >100мс). Сначала я хотел арендовать сервер в этом датацентре и запустить программу прямо с соседней стойки. Но так как у меня был свободный сервер в Германии, то для начала решил запустить программу оттуда. Установил DE, VNC, Firefox, запустил программу — и меньший пинг сразу увеличил количество заработанных очков в 2 раза. И так как отрыв от остальных был очень большой, то дальше результат я решил не улучшать. Вот такая история. Типичные ошибки участников -------------------------- В качестве послесловия поделюсь несколькими типичными ошибками, которые не давали участникам получить больше баллов: * Бесконечные циклы по одному и тому же списку уже исправленных багов. Если алгоритм не запоминает уже исправленные баги и исправляет их по несколько раз, время тратится впустую; * Ошибки в циклах с подбором шагов воспроизведения для багов. В результате этого циклы становились бесконечными. Многие участники использовали ограничение в 100 символов при поиске шагов воспроизведения, хотя максимальная длина строки для воспроизведения багов была 10 символов; * Не все участники пробовали запустить свои алгоритмы по несколько раз, и при запуске одного и того же алгоритма 2-3 раза можно было бы получить чуть больше баллов за счет другого распределения багов и других последовательностей для воспроизведения багов. Буду рад ответить на вопросы об игре и увидеть ваши варианты решения седьмого уровня.
https://habr.com/ru/post/511124/
null
ru
null
# Smarty — простой способ разобраться в структуре чужих шаблонов Зачастую приходится разбираться в какой-нибудь самописной CMS которая устроена совершенно неочевидным для вас образом. Иногда куча времени уходит на то, чтобы понять из какого шаблона берется тот или иной кусок текста. Разобраться с шаблонами поможет [префильтр](http://www.smarty.net/manual/en/advanced.features.prefilters.php) смарти, префильтр это функция которая вызывается перед компиляцией каждого шаблона. `// Объявляем функцию function smarty_marktpl($tpl_source, &$smarty) {     $tpl_path = $smarty->template_dir.$smarty->_current_file;     return "".$tpl_source.""; } // И регистрируем ее в качестве префильтра $smarty->register_prefilter('smarty_marktpl');` Теперь остается только посмотреть код сгенерированной страницы и сразу становится понятно что откуда взялось.
https://habr.com/ru/post/94754/
null
ru
null
# Как сделать таск-трекер под себя на low-code конструкторе ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/85c/21d/e8b/85c21de8bc941b5980f16864b6d5c0a5.jpg)Писать с нуля и поддерживать веб-приложения, тем более для бизнеса – сложная и муторная задача. При этом готовые решения часто бывает сложно подстроить под свои нужды. Возьмём таск-менеджеры: джира медленная, дорогая и часто слишком сложная, Trello слишком простой, а персональные таск-менеджеры не дают нужного взаимодействия с командой. Мы написали свой low-code конструктор, на котором наши партнеры собирают CRM и ERP-решения для бизнеса, и на котором создавать и дорабатывать решения могут даже студенты. Давайте попробуем создать на нём простой, но почти полноценный и при этом расширяемый продукт, выходящий за рамки таск-менеджера из учебника по очередному фреймворку. TL;DR — вот что у нас получится к концу статьи (и 3 часа работы) ---------------------------------------------------------------- ![Интерфейс получившегося таск-трекера](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/c10/994/843/c10994843c6fcb613d0ce533f1c5a47a.jpg "Интерфейс получившегося таск-трекера")Интерфейс получившегося таск-трекераЧто хотим от таск-трекера ------------------------- На первом этапе от нашей разработки много не нужно: * Он должен быть многопользовательским — мы хотим вести таски всей команды. * У задач может быть только один ответственный. Почему один? Для простоты, а если понадобится сделать несколько, то это реализуется дополнительной таблицей-связью и небольшими изменениями в собранных пользовательских представлениях. * Задачи можно представить в виде канбан-доски, обычной таблицы или дерева — смотря как кому будет удобнее. * Для каждой задачи есть простой лог изменений статуса и возможность оставлять комментарии. Без системы версий, предыдущих историй и тому подобного. * Дашборд с парой графиков на всякий случай. Кажется, что это тоже нужно. Общая мысль — для начала будем собирать что-то максимально простое. Все следующие хотелки если и появятся, то уже в процессе использования системы, а докрутить их — обычно дело на 15 минут. Создаем интерфейс ----------------- В нашем low-code конструкторе пользовательские представления создаются c помощью SQL-подобного языка [FunQL](https://wiki.ozma.io/ru/docs/funql). По сути в нём к обычным SQL-запросам добавляются атрибуты для настройки пользовательского интерфейса и немного синтаксического сахара — например, стрелка для обращения к связанным записям без JOIN. Внутри конструктора такой запрос оптимизируется и транспилируется в SQL, и к нему автоматически применяются права доступа конкретного пользователя – почти как ROW LEVEL SECURITY в традиционных БД, но с некоторыми расширениями. Сами представления похожи на функции — принимают аргументы и возвращают результат запроса. Что будем создавать в первой версии системы: * Канбан-доска (с задачами) * Формы (для задачи и для человека-сотрудника) * Таблицы (с задачами и с людьми) * Дерево (с задачами) * Меню (страница со ссылками на все остальные представления) * Дашборды (графики по данным в базе) Настраиваем канбан-доску ------------------------ Наш выбор — это таск-менеджер с доской с карточками сгруппированными по статусам. Это самый популярный способ оценить объем работ и их состояние. Поэтому начнем с канбана. ![Вот что должно у нас получиться после этого этапа. Выглядит уже почти как таск-менеджер :)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4df/ca9/641/4dfca9641bdf30a30046700cff8455fb.png "Вот что должно у нас получиться после этого этапа. Выглядит уже почти как таск-менеджер :)")Вот что должно у нас получиться после этого этапа. Выглядит уже почти как таск-менеджер :)[Вот тут](https://x-pm-ru.ozma.org/views/pm/tasks_board?is_archived=false) можно посмотреть страницу с канбан-доской в демке. А [тут](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22pm%22&name=%22tasks_board%22) посмотреть на FunQL запрос для создания этой страницы. Теперь чуть подробнее по шагам, как мы к этому пришли. С помощью FunQL опишем пользовательское представление для отображения данных о всех задачах в виде доски. Каждая запись из результата FunQL-запроса отображается как отдельная карточка. Для канбан-представления достаточно указать только поле, по которому карточки будут разбиваться на столбцы (в нашем случае задачи группируются по статусу, но настроить это можно как угодно). По умолчанию все поля, указанные в блоке SELECT запроса, будут отображаться на карточке, а те, которые не нужны, можно скрыть атрибутом поля `visible = false`. Для каждого поля можно выбрать подпись, иконку и выделить значение цветом по определенной логике, например, как просроченные задачи на скриншоте выше. Простой запрос для создания представления типа "канбан-доска" ``` SELECT /* User view type */ @type = 'board', /* User view title */ @title = 'Задачи', subject @{ /* Material design icon */ icon = 'subject' }, status @{ /* Group entries by this field */ board_group = true, /* Do not display status field on the card */ visible = false }, start_date @{ icon = 'date_range' }, due_date @{ icon = 'flag', cell_variant = CASE WHEN due_date < $$transaction_time THEN 'warning' END }, priority @{ icon = 'priority_high' }, responsible_contact @{ icon = 'person' }, "order" @{ /* Use the value from the "order" field as a sorting number for all entries */ board_order = true, visible = false } FROM pm.tasks ``` В таком канбане уже можно перемещать карточки, а система сама будет менять значения полей, которые отвечают за колонку карточки и порядок в ней. Канбан, как и другие представления, работает и в браузерах на мобильных устройствах. После этого добавим несколько базовых фильтров, чтобы можно было делать выборку задач, не открывая код представления. Фильтры мы реализуем через аргументы в представлении, которые по умолчанию они будут равны `NULL`. Чаще всего задачи требуется фильтровать по ответственным, приоритету, статусу или сроку. Остальные фильтры можно добавить потом, если понадобится. Добавляем к запросу аргументы представления и правильно обрабатываем их в блоке WHERE ``` { /* Arguments of the user view */ $responsible array(reference(base.people)) null @{ caption = 'Ответственный', /* Available values in popup will be restricted with the results of the specified user view */ options_view = &base.ref_base_people_view }, $status array(enum('backlog', 'new', 'in_progress', 'done')) null @{ caption = 'Статус', text = array mapping WHEN 'backlog' THEN 'Идеи' WHEN 'new' THEN 'Новое' WHEN 'in_progress' THEN 'В работе' WHEN 'done' THEN 'Завершено' END, }, $priority array(enum('low', 'medium', 'high', 'urgent')) null @{ caption = 'Приоритет', text = array mapping WHEN 'low' THEN 'Низкий' WHEN 'medium' THEN 'Средний' WHEN 'high' THEN 'Высокий' WHEN 'urgent' THEN 'Критичный' END }, $is_archived bool null @{ caption = 'Архив' }, /* другие аргументы */ }: SELECT /* ... */ FROM pm.tasks WHERE ($responsible IS NULL OR responsible_contact = ANY($responsible)) AND ($status IS NULL OR status = ANY($status)) AND ($priority IS NULL OR priority = ANY($priority)) AND ($is_archived IS NULL OR is_archived = $is_archived) ``` Добавим сверху несколько кнопок для быстрого применения фильтров к представлению — “Мои” для отображения задач текущего пользователя, “Просрочено” — для отображения задач, срок которых уже наступил, “Не завершено” — для всех незакрытых задач. Фактически эти кнопки ведут на тот же самый юзервью, но передают в него разные аргументы. Добавляем к запросу атрибут @buttons и задаем в нём настройки для кнопок ``` @buttons = [ { /* Caption of the button */ caption: 'Статус', /* Material design icon code */ icon: 'filter_alt', /* Show button at the top right corner on PCs */ display: 'desktop', buttons: [ { caption: 'Просрочено', icon: 'flag', /* Reference to the user view */ ref: &pm.tasks_board, /* New values for arguments */ args: { status: ['backlog', 'new', 'in_progress'], due_date_to: $$transaction_time, is_archived: false, responsible: $responsible, parent_task: $parent_task }, target: 'top' }, { caption: 'Не завершено', icon: 'notifications', ref: &pm.tasks_board, args: { status: ['new', 'in_progress'], is_archived: false, responsible: $responsible, parent_task: $parent_task }, target: 'top' }, { caption: 'Все', icon: 'filter_list_alt', ref: &pm.tasks_board, args: { is_archived: false, responsible: $responsible, parent_task: $parent_task }, target: 'top' } ] } ] ``` В финале добавим ссылки на создание новой записи в отдельном окне прямо из канбан-колонки и укажем какую форму открыть при клике на карточку. Добавляем ссылки на другие представления ``` /* Reference to the user view opened by clicking the "Open entry in modal" button */ @row_link = &pm.task_form, /* Set the user view used for creating new entries */ @card_create_view = { /* Reference to the user view */ ref: &pm.task_form, /* Default values for the entry being created */ default_values: { responsible_contact: $responsible, parent_task: $parent_task } } ``` На этом с канбаном вроде всё. Итоговый запрос для нашего канбана получился таким ``` { /* Arguments of the user view */ $responsible array(reference(base.people)) null @{ caption = 'Ответственный', /* Available values in popup will be restricted with the results of the specified user view */ options_view = &base.ref_base_people_view }, $status array(enum('backlog', 'new', 'in_progress', 'done')) null @{ caption = 'Статус', text = array mapping WHEN 'backlog' THEN 'Идеи' WHEN 'new' THEN 'Новое' WHEN 'in_progress' THEN 'В работе' WHEN 'done' THEN 'Завершено' END }, $priority array(enum('low', 'medium', 'high', 'urgent')) null @{ caption = 'Приоритет', text = array mapping WHEN 'low' THEN 'Низкий' WHEN 'medium' THEN 'Средний' WHEN 'high' THEN 'Высокий' WHEN 'urgent' THEN 'Критичный' END }, $parent_task reference(pm.tasks) null @{ caption = 'Надзадача' }, $start_date_from datetime null @{ caption = 'Дата начала с' }, $start_date_to datetime null @{ caption = 'Дата начала до' }, $due_date_from datetime null @{ caption = 'Срок с' }, $due_date_to datetime null @{ caption = 'Срок до' }, $is_archived bool null @{ caption = 'Архив' } }: SELECT /* User view type. See also: https://wiki.ozma.io/ru/docs/funapp/board */ @type = 'board', /* User view title */ @title = 'Задачи', /* "Filters" panel is hidden by default */ @show_argument_editor = false, /* "Filters" button will be showed on top of the board */ @show_argument_button = true, /* Reference to the user view opened by clicking the "Open entry in modal" button */ @row_link = &pm.task_form, /* Set the user view used for creating new entries */ @card_create_view = { /* Reference to the user view */ ref: &pm.task_form, /* Default values for the entry being created */ default_values: { responsible_contact: $responsible, parent_task: $parent_task } }, /* Specifications of the interface buttons */ @buttons = [ /* ... */ ], subject @{ /* Material design icon */ icon = 'subject' }, status @{ /* Group entries by this field */ board_group = true, /* Do not display status field on the card */ visible = false, }, start_date @{ icon = 'date_range', }, due_date @{ icon = 'flag' }, priority as priority_raw @{ /* Display the icon specified in the default attributes for the "priority" field */ icon = priority.@icon, }, responsible_contact @{ icon = 'person' }, parent_task @{ icon = 'account_tree' }, "order" @{ /* Use the value from the "order" field as a sorting number for all entries */ board_order = true, visible = false, }, FROM pm.tasks WHERE ($is_archived IS NULL OR is_archived = $is_archived) AND ($responsible IS NULL OR responsible_contact = ANY($responsible)) AND (($parent_task IS NULL AND parent_task IS NULL) OR parent_task = $parent_task) AND ($status IS NULL OR status = ANY($status)) AND ($priority IS NULL OR priority = ANY($priority)) AND ($start_date_to IS NULL OR start_date <= $start_date_to) AND ($start_date_from IS NULL OR start_date >= $start_date_from) AND ($due_date_to IS NULL OR due_date <= $due_date_to) AND ($due_date_from IS NULL OR due_date <= $due_date_to) ORDER BY "order", is_archived, completed_datetime DESC NULLS FIRST, due_date NULLS LAST, id ``` Всё написанное после `@` — это атрибуты для настройки отображения.  У нас есть два типа атрибутов —  атрибуты представления (юзервью), например,  `@title`, `@row_link` и прочие, и атрибуты колонок — `@{ visible = false }`.  Атрибуты для колонок могут задаваться не только в запросе, но и в настройках по умолчанию для каждой колонки (таблица `public.default_attributes`). Так мы можем не указывать в каждой таблице названия полей, цветовые выделения и прочее. Ещё есть атрибуты аргументов – через них мы задаем названия у фильтров `{ $is_archived bool null @{ caption = 'Архив' }}` Пилим формы ----------- ![Форма задачи с большим блоком для заметок, комментами и подзадачами](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9b4/f99/f2c/9b4f99f2cf71bbe1aa6e18d742889ba6.png "Форма задачи с большим блоком для заметок, комментами и подзадачами")Форма задачи с большим блоком для заметок, комментами и подзадачами[Так](https://x-pm-ru.ozma.org/views/pm/task_form?id=45) выглядит форма задачи в демо-инстансе. А [это](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22pm%22&name=%22task_form%22) её FunQL запрос. Делаем всё по очереди: 1. **Создадим карточку (форму) задачи.** FunQL-запрос для формы почти такой же, как запрос для канбана или таблицы за одним исключением — он возвращает одну запись по `id`, который передается форме в качестве аргумента. 2. **Разобьем форму на блоки**, расположим поля и другие контролы по блокам так, чтобы и на мобилке, и на ПК было удобно работать с задачей. 3. **Добавим на форму таймлайн с комментариями** — если всё правильно настроить (написать триггеры), то при изменении конкретной задачи в таймлайне будут отображаться ивенты об изменениях. 4. Ниже **встроим на форму доску с подзадачами этой задачи.** 5. **Кнопка “Архивировать”/”Разархивировать”** - сейчас меняет статус значения поля "Архив" на  `true` или `false`, но позже можно будет прикрутить на них более сложную логику. В итоге получится какой-то такой запрос для формы ``` { $id reference(pm.tasks) }: SELECT /* User view type */ @type = 'form', /* User view title */ @title = $id=>__main, /* Form block sizes. This form has three blocks - two first row blocks with the ratio of 7 to 5, and the third block occupying the second row */ @block_sizes = array[ 7, 5, 12 ], @buttons = [ { caption: 'Архивировать запись', /* Show button at the top right corner on PCs */ display: 'desktop', /* Show button only if the record is not archived */ visible: NOT $id=>is_archived, /* Set material design icon */ icon: 'archive', /* Color variant for the button */ variant: 'outline-danger', action: { schema: 'user', name: 'archive_record' }, args: { entity: { schema: 'pm', name: 'tasks' }, is_archived: true, id: $id } }, { caption: 'Разархивировать запись', display: 'desktop', visible: $id=>is_archived, icon: 'archive', variant: 'outline-success', action: { schema: 'user', name: 'archive_record' }, args: { entity: { schema: 'pm', name: 'tasks' }, is_archived: false, id: $id } } ], subject @{ /* Display input control in the first block */ form_block = 0 }, description @{ form_block = 0, /* Use multiline WYSIWYG editor */ text_type = 'wysiwyg', /* Set control height to 400 px */ control_height = 400 }, parent_task @{ form_block = 0, }, status @{ form_block = 1 }, responsible_contact @{ form_block = 1 }, priority @{ form_block = 1 }, start_date @{ form_block = 1, default_value = $$transaction_time }, due_date @{ form_block = 1 }, /* Arrange nested user views on the form */ { /* Reference to the nested user view */ ref: &pm.tasks_board, /* Arguments that will be passed to the nested user view */ args: { parent_task: $id } } as subtasks @{ /* Display user view control on the form */ control = 'user_view', /* Display user View control in the first block */ form_block = 4, /* Caption for the nested User View. User view @title will be replaced with this caption */ caption = 'Подзадачи' }, { ref: &pm.notes_for_task_timeline, args: { id: $id } } as notes @{ control = 'user_view', form_block = 1, caption = 'Комментарии' } FROM pm.tasks WHERE id = $id FOR INSERT INTO pm.tasks ``` В готовой форме можно создавать новые и редактировать существующие записи. Система связывает выбираемые данные с исходными записями, так что одного `SELECT` вполне достаточно для отображения, а для создания мы явно указываем желаемую сущность в конструкции `FOR INSERT INTO`. Отображение задач в виде таблицы (куда же без нее) -------------------------------------------------- ![Таблица задач](https://habrastorage.org/r/w1560/getpro/habr/upload_files/33d/140/423/33d14042384e4568344b488a293c3708.png "Таблица задач")Таблица задач[Ссылка на таблицу с задачами.](https://x-pm-ru.ozma.org/views/pm/tasks_table?is_archived=false&start_date_to=%222025-01-01T06%3A00%3A00.000Z%22) [Ссылка на код запроса, который эту таблицу создал.](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22pm%22&name=%22tasks_table%22) Делаем всё так же, как и с канбаном — напишем FunQL-запрос для отображения данных, добавим несколько фильтров, добавим несколько кнопок с “сохраненными” фильтрами в верхнюю панель. В таблице еще будет не лишним настроить пагинацию для отображения по 25 записей на странице. В финале еще добавим ссылки на создание новой записи прямо из таблицы или в отдельном окне, и ссылки на другие представления, где это необходимо. FunQL-запрос для создания таблицы задач ``` { /* Arguments of the user view */ $is_archived bool null @{ caption = 'Архив' }, $responsible array(reference(base.people)) null @{ caption = 'Ответственный', /* Available values in popup will be restricted with the results of the specified user view */ options_view = &base.ref_base_people_view }, $parent_task reference(pm.tasks) null @{ caption = 'Надзадача' }, $status array(enum('backlog', 'new', 'in_progress', 'done')) null @{ caption = 'Статус', text = array mapping WHEN 'backlog' THEN 'Идеи' WHEN 'new' THEN 'Новое' WHEN 'in_progress' THEN 'В работе' WHEN 'done' THEN 'Завершено' END, }, $priority array(enum('low', 'medium', 'high', 'urgent')) null @{ caption = 'Приоритет', text = array mapping WHEN 'low' THEN 'Низкий' WHEN 'medium' THEN 'Средний' WHEN 'high' THEN 'Высокий' WHEN 'urgent' THEN 'Критичный' END }, $start_date_from datetime null @{ caption = 'Дата начала с' }, $start_date_to datetime null @{ caption = 'Дата начала до' }, $due_date_from datetime null @{ caption = 'Срок с' }, $due_date_to datetime null @{ caption = 'Срок до' } }: SELECT /* User view type. See also: https://wiki.ozma.io/ru/docs/funapp/table */ /* This table can be displayed as a tree is case of all filters are null. More info about tree view: https://wiki.ozma.io/ru/docs/funapp/tree */ @type = 'table', /* User view title */ @title = 'Задачи', /* "Filters" panel is hidden by default */ @show_argument_editor = false, /* "Filters" button will be showed on the top of the board */ @show_argument_button = true, /* Set the user view used for creating new entries */ @create_link = &pm.task_form, /* Reference to the user view opened by clicking the "Open entry in modal" button */ @row_link = &pm.task_form, /* Disable ability to create new child record if parent task is not null and it was archived */ @soft_disabled = $parent_task=>is_archived, /* Set pagination options */ @lazy_load = { pagination: { /* Show 25 rows per page */ per_page: 25 } }, /* Specifications of the interface buttons */ @buttons = [ { /* Caption of the button */ caption: 'Ответственный', /* Material design icon code */ icon: 'people', /* Show button at the top right corner on PCs */ display: 'desktop', buttons: [ { caption: 'Я', ref: &pm.tasks_table, icon: 'person', /* Apply a "light gray" color variant to the button if there is no person associated with the current user */ /* $$user_id returns ID of the current user */ variant: CASE WHEN (SELECT COUNT(1) FROM base.people WHERE user = $$user_id) = 0 THEN 'light' END, args: { responsible: ( SELECT array_agg(id) FROM base.people WHERE user = $$user_id ), status: $status, start_date_to: $start_date_to, start_date_from: $start_date_from, due_date_to: $due_date_to, due_date_from: $due_date_from, is_archived: $is_archived, parent_task: $parent_task, priority: $priority }, /* Open link full screen */ target: 'top' }, { caption: 'Все', ref: &pm.tasks_table, icon: 'people', args: { responsible: null, status: $status, start_date_to: $start_date_to, start_date_from: $start_date_from, due_date_to: $due_date_to, due_date_from: $due_date_from, is_archived: $is_archived, parent_task: $parent_task, priority: $priority }, target: 'top' } ] }, { caption: 'Статус', icon: 'filter_alt', display: 'desktop', buttons: [ { caption: 'Просрочено', icon: 'flag', ref: &pm.tasks_table, args: { status: ['backlog', 'new', 'in_progress'], due_date_to: $$transaction_time, is_archived: false, responsible: $responsible, parent_task: $parent_task }, target: 'top' }, { caption: 'Не завершено', icon: 'notifications', ref: &pm.tasks_table, args: { status: ['new', 'in_progress'], is_archived: false, responsible: $responsible, parent_task: $parent_task }, target: 'top' }, { caption: 'Завершено', icon: 'done_all', ref: &pm.tasks_table, args: { status: ['done'], is_archived: false, responsible: $responsible, parent_task: $parent_task }, target: 'top' }, { caption: 'Все', icon: 'filter_list_alt', ref: &pm.tasks_table, args: { is_archived: false, responsible: $responsible, parent_task: $parent_task }, target: 'top' }, { caption: 'Архив', icon: 'delete', ref: &pm.tasks_table, args: { is_archived: true, responsible: $responsible, parent_task: $parent_task }, target: 'top' } ] }, { /* Open board with tasks instead of tasks table */ caption: 'Доска', tooltip: 'Отображать задачи в виде канбан-доски', icon: 'sticky_note_2', variant: 'dark', display: 'desktop', ref: &pm.tasks_board, /* Use filters from tasks table for tasks board */ args: { is_archived: $is_archived, parent_task: $parent_task, status: $status, priority: $priority, start_date_from: $start_date_from, start_date_to: $start_date_to, due_date_from: $due_date_from, due_date_to: $due_date_to, responsible: $responsible }, target: 'top' }, ], subject @{ /* Set column width to 350 px */ column_width = 350, }, status @{ column_width = 100 }, priority @{ column_width = 100 }, start_date @{ column_width = 100, default_value = $$transaction_time /* $$transaction_time returns current timestamp */ }, due_date @{ column_width = 100 }, description @{ column_width = 300 }, responsible_contact @{ column_width = 150 }, parent_task @{ /* Set $parent_task argument value as a default value for "parent_task" field */ default_value = $parent_task, /* Display column "parent_task" only if $parent_task argument value is null */ visible = $parent_task IS NULL }, completed_datetime @{ column_width = 125, visible = ($status = array['done']) }, completed_person @{ column_width = 125, visible = ($status = array['done']) } FROM pm.tasks WHERE ($is_archived IS NULL OR is_archived = $is_archived) AND ($responsible IS NULL OR responsible_contact = ANY($responsible)) AND ($parent_task IS NULL OR parent_task = $parent_task) AND ($status IS NULL OR status = ANY($status)) AND ($priority IS NULL OR priority = ANY($priority)) AND ($start_date_to IS NULL OR start_date <= $start_date_to) AND ($start_date_from IS NULL OR start_date >= $start_date_from) AND ($due_date_to IS NULL OR due_date <= $due_date_to) AND ($due_date_from IS NULL OR due_date <= $due_date_to) ORDER BY is_archived, status.@order_number, /* Return an attribute "order_numer" value for the "status" column field */ completed_datetime DESC NULLS FIRST, start_date NULLS LAST, id /* Set the main entity */ FOR INSERT INTO pm.tasks ``` Одного `SELECT` по-прежнему достаточно для редактирования, удаления и добавления записей. Работать будет даже с `JOIN` и `UNION` в запросах. Деревья - простая вложенная структура тасков -------------------------------------------- ![Древовидная таблица для отображения задач и их подзадач](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fef/787/485/fef787485bf04bce06919a2ba87644ca.png "Древовидная таблица для отображения задач и их подзадач")Древовидная таблица для отображения задач и их подзадачОтображение задач в виде дерева можно посмотреть [тут.](https://x-pm-ru.ozma.org/views/pm/tasks_table?is_archived=false) FunQL запрос у дерева и таблицы один и тот же. [Он тут.](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22pm%22&name=%22tasks_table%22) Древовидная таблица — это обычная таблица, которая отображает родительские и дочерние задачи в виде списка с любым уровнем вложенности. Проще говоря, это иерархия, подзадачи и подподзадачи (и сколько угодно ещё уровней вложенности). Сделать из таблицы задач таблицу с древовидной структурой задач и подзадач можно с помощью одного дополнительного атрибута для поля `parent_task @{ tree_parent_ids = true }`. Тогда фронтенд по умолчанию будет отрисовывать все задачи в виде дерева, ориентируясь по записям, связанным через колонку.  По умолчанию дерево строится от корневых записей, где `parent_task = null`. Чтобы построить дерево от произвольной записи, нужно изменить запрос, добавив в него рекурсию. Просто добавим этот атрибут в код таблицы - зачем пилить два разных представления, если можно обойтись одним. Только оставим условие, чтобы дерево отключалось при применении фильтров. Меню - точка входа и быстрый доступ ко всем функциям ---------------------------------------------------- Фактически меню —  это просто набор ссылок, внешних или на другие представления.  После логина пользователь попадает на страницу `/user/main` , поэтому мы сделали на этой странице главное меню — ссылки на представления для быстрого доступа. ![В меню мы оставили минимум кнопок](https://habrastorage.org/r/w1560/getpro/habr/upload_files/81f/0d6/0b0/81f0d60b0ea189349527e6040ad8b517.png "В меню мы оставили минимум кнопок")В меню мы оставили минимум кнопокПосмотреть, как выглядит главное меню можно [в демо-инстансе.](https://x-pm-ru.ozma.org/views/user/main) [FunQL запрос для создания меню](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22user%22&name=%22main%22) тоже есть. Чтобы сделать такое меню, создадим ссылки на задачи всех пользователей и на задачи текущего пользователями в виде доски и таблицы. После этого добавим ссылку на меню администратора и ссылку на небольшой дашборд со списком сотрудников, чтобы можно было быстро его отредактировать. Код представления меню — это тоже FunQL-запрос: ``` SELECT /* User view type.See also: https://wiki.ozma.io/ru/docs/funapp/menu */ @type = 'menu', /* Menu title */ @title = 'Главное меню', @menu_centered = true, menu.blocks FROM ( VALUES ([ { /* Menu block name */ name: 'Все задачи', /* Block width size = 3/12 */ size: 3, /* Block content */ content: [{ /* Caption for the link */ name: 'Отчеты', /* Reference to the linked user view */ ref: &pm.dashboard, /* Icon for the link */ icon: 'monitor_heart' }, { name: 'Доска: Все задачи', ref: &pm.tasks_board, /* Arguments passed to the user view */ args: { is_archived: false, }, icon: 'sticky_note_2', }, { name: 'Таблица: Все задачи', ref: &pm.tasks_table, args: { is_archived: false, }, icon: 'table_chart', }] }, { name: 'Мои задачи', size: 3, content: [{ name: 'Доска: Мои задачи', ref: &pm.tasks_board, args: { is_archived: false, responsible: (SELECT array_agg(id) FROM base.people WHERE user = $$user_id) /* $$user_id returns ID of the current user */ }, icon: 'sticky_note_2', }, { name: 'Таблица: Мои задачи', ref: &pm.tasks_table, args: { is_archived: false, responsible: (SELECT array_agg(id) FROM base.people WHERE user = $$user_id) }, icon: 'table_chart', badge: { value: (SELECT COUNT(id) FROM pm.tasks WHERE responsible_contact = ANY((SELECT id FROM base.people WHERE user = $$user_id))), variant: 'danger' } }] }, { name: 'Другое', size: 3, content: [{ name: 'Люди', ref: &base.people_table, icon: 'person', badge: { value: (SELECT COUNT(1) FROM base.people WHERE NOT is_archived), variant: 'info' } }, { name: 'Настройки', ref: &admin.main, icon: 'settings', }] }, ]) ) AS menu(blocks) ``` Дашборд - красивые графики, которые любят все --------------------------------------------- ![Аналитика, которую мы заслужили](https://habrastorage.org/r/w1560/getpro/habr/upload_files/194/e45/849/194e45849ca5a4872bf75c77be3be3e7.png "Аналитика, которую мы заслужили")Аналитика, которую мы заслужилиДля первой версии добавим 4 графика, которые могут пригодиться на старте: * донат-график с количеством открытых задач, чтобы видеть, сколько всего нужно сделать; * столбики с открытыми задачами по ответственным, чтобы смотреть кто это должен делать; * график активности закрытых задач, чтобы мониторить, что задачи всё-таки закрываются; * донат-график с завершенными задачами по приоритетам, чтобы оценить, насколько быстро их нужно было закрыть. Остальные графики будем добавлять в процессе работы, как только они понадобятся. Но в самом начале нам достаточно этих четырёх. Графики встраиваются через iframe – мы пишем страницу на HTML и передаем ей данные из базы. Это значит, что мы можем выбрать любую библиотеку для визуализации данных и подключить ее во вложенной странице, а веб-приложение будет передавать в iframe значение выбранного поля. Так можно делать виджеты для редактирования данных самостоятельно, например, с интеграцией в системы поиска адресов. Все обрабатывается на фронте, поэтому важно получить из базы уже посчитанные данные, чтобы потом на js их надо было только отрисовать. Для простоты выбрали [https://nvd3.org](https://nvd3.org/) - набор компонентов, использующих [https://d3js.org](https://d3js.org/): * <https://nvd3.org/examples/pie.html> * <https://nvd3.org/examples/multiBar.html> * <https://nvd3.org/examples/line.html> Создаем четыре формы с единственным контролом на каждой из них типа iframe. Немного дорабатываем код для графиков, собираем контролы с графиками на одну форму, чтобы получился простенький дашборд Дашборд с демо-данными смотреть [тут.](https://x-pm-ru.ozma.org/views/pm/dashboard) А FunQL-запрос, который объединил четыре графика в один, [тут.](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22pm%22&name=%22dashboard%22) [FunQL-запрос, который собирает данные из базы и передает их в iframe.](https://x-pm-ru.ozma.org/views/admin/iframe_markup_form?id=10) [Код iframe-markup-а для одного из графиков со скриншота выше.](https://x-pm-ru.ozma.org/views/pm/tasks_by_statuses_chart_pie?status=%5B%22backlog%22,%22new%22,%22in_progress%22%5D) [Все остальные графики.](https://x-pm-ru.ozma.org/views/admin/iframe_markups_table) Допиливаем мелочи ----------------- Неупомянутыми остались еще несколько пользовательских представлений (как обычно, все запросы на языке FunQL): * [Таблица пользователей](https://x-pm-ru.ozma.org/views/base/people_table) + [запрос](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22base%22&name=%22people_table%22) * [Форма пользователей](https://x-pm-ru.ozma.org/views/base/person_form?id=1) + [запрос](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22base%22&name=%22person_form%22) * [Комментарии и лог изменений задачи](https://x-pm-ru.ozma.org/views/pm/notes_for_task_timeline?id=10) (тот самый встроенный на форму задачи таймлайн) + [запрос](https://x-pm-ru.ozma.org/views/funapp/user_view_by_name?schema=%22pm%22&name=%22notes_for_task_timeline%22) Настраиваем автоматику ---------------------- Триггеры и функции в [ozma.io](http://ozma.io) пишутся на JavaScript. Внутри доступен полный [API для работы с базой](https://bitbucket.org/ozma-io/ozma-api/src/master/src/serverside/api.d.ts), при этом вся операция происходит в одной транзакции. Триггеры работают так же, как и в других реляционных базах данных, и позволяют отменить операцию или изменить её аргументы. Функции можно вызывать по кнопкам из интерфейса, или из внешнего сервиса по API — они также могут возвращать произвольные данные. Используя триггеры, функции и их интеграцию в интерфейс, можно создавать полноценные веб-приложения. К триггерам и действиям также применяются права доступа, но внутри можно выполнять и привилегированные запросы — так можно реализовывать служебные автоматические поля, если не хватает другого функционала. Кнопки ------ Чтобы автоматизировать любой процесс, в том числе создание, изменение или удаление записей в правильном порядке, мы используем “экшены”. На языке нашего проекта, это функции на JS, которые можно дёрнуть из любого представления, передав ей произвольные данные. В самом простом варианте таск-трекера нам не нужно автоматизировать сложные процессы (их у нас просто нет), но для примера можно рассмотреть экшн “архивации” записи. Он простой, и всего лишь меняет значение поля `is_archived` с `true` на `false` и обратно для всех записей, айдишники которых в него передали. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c5b/5a5/934/c5b5a59345ff13743491b7cd9bc508c4.png)Пишем код экшна ``` export default async function archiveRecord(args) { const ids = args.ids ?? [args.id]; if (!('is_archived' in args)) throw 'Неправильно задано действие'; for (const id of ids) { try { // FunDB API function call await FunDB.updateEntity( // updateEntity: ( args.entity, // ref: IEntityRef, id, // id: number, { is_archived: args.is_archived } // args: Record ); // ) => Promise; } catch(e) { throw 'Неправильно задано действие'; } } return { ok: true } } ``` Теперь надо как-то вызывать экшн из интерфейса Дописываем кнопки с вызовом экшна на форму задачи ``` /* pm.task_form */ @buttons = [ { caption: 'Архивировать запись', display: 'desktop', visible: NOT $id=>is_archived, icon: 'archive', variant: 'outline-danger', action: { schema: 'user', name: 'archive_record' }, args: { entity: { schema: 'pm', name: 'tasks' }, is_archived: true, id: $id } }, { caption: 'Разархивировать запись', display: 'desktop', visible: $id=>is_archived, icon: 'archive', variant: 'outline-success', action: { schema: 'user', name: 'archive_record' }, args: { entity: { schema: 'pm', name: 'tasks' }, is_archived: false, id: $id } } ] ``` А потом то же самое - из таблицы задач ``` /* pm.tasks_table */ @buttons = [ { /* Set is_archived = true for all selected records */ caption: 'Архивировать выделенные записи', /* Display button when records are selected with a check mark */ display: 'selectionPanel', /* Display button only if $is_archived argument value is false */ visible: NOT $is_archived, icon: 'archive', variant: 'danger', action: { schema: 'user', name: 'archive_record' }, args: { entity: { schema: 'pm', name: 'tasks' }, is_archived: true }, }, { caption: 'Разархивировать выделенные записи', display: 'selectionPanel', visible: $is_archived, icon: 'unarchive', variant: 'success', action: { schema: 'user', name: 'archive_record' }, args: { entity: { schema: 'pm', name: 'tasks' }, is_archived: false } } ] ``` Ссылка на [код экшна user.archive\_record](https://acmeinc-pm.ozma.org/views/admin/action_form?id=9). [Вызов этого экшна](https://x-pm-ru.ozma.org/views/pm/tasks_board?is_archived=false&__0=funapp%2Fuser_view_by_name&__0_schema=%22pm%22&__0_name=%22task_form%22) на форме задачи по нажатию на кнопку в верхней панели. [Вызов экшна из таблицы](https://x-pm-ru.ozma.org/views/pm/tasks_table?is_archived=false&__0=funapp%2Fuser_view_by_name&__0_schema=%22pm%22&__0_name=%22tasks_table%22) задач при выделении одной или нескольких записей галочками. Триггеры (продолжение автоматизации) ------------------------------------ Напишем триггер, который при изменении задачи будет добавлять в таблицу “notes\_for\_tasks” информацию об этом в удобном для понимания виде: Триггер срабатывает на обновление статуса, приоритета или значения поля "Архив" ``` import { getPersonName } from 'admin/user_info.mjs'; export default async function insertNote(event, args) { const taskId = event.source.id; const now = new Date(); const author = await getPersonName() ?? args.author; /* append status change event */ if ('status' in args) { const msg = args.status ? `изменил(а) статус задачи на \"${args.status}\"` : `убрал(а) статус задачи`; await addNote(taskId, now, author, msg); } /* append priority change event */ if ('priority' in args) { const msg = args.priority ? `изменил(а) приоритет задачи на \"${args.priority}\"` : `убрал(а) приоритет задачи`; await addNote(taskId, now, author, msg); } /* append archive change event */ if ('is_archived' in args) { const msg = args.is_archived ? `переместил(а) задачу в Архив` : `вернул(а) задачу из Архива`; await addNote(taskId, now, author, msg); } return true; } /* add entity into "pm"."notes_for_tasks" table */ async function addNote(taskId, date, author, message) { await FunDB.insertEntity({ schema: 'pm', name: 'notes_for_tasks' }, { note_datetime: date, author: author, message: message, type: 'event', task: taskId } ); } ``` Теперь при изменении, например, статуса задачи с `id = 101` с `“Новое”` на `“В работе”` сработает триггер, который вставит в таблицу `notes_for_tasks` новую запись: ``` { note_datetime:`2022-01-01 10:00:00`, author: `Петя`, message:`изменил(а) статус задачи на "В работе"`, type: 'event', task: 101 } ``` Эта информация и так фиксируется в логах, но чтобы всегда иметь эти данные вместе с записью и избежать медленных селектов по многомиллионным таблицам с логами — храним их структурированно для задач. Аналогичные триггеры есть для “Дата создания”, “Кто создал” и “Дата изменения”, “Кто изменил”. Ссылка на [код триггера](https://x-pm-ru.ozma.org/views/admin/trigger_form?id=5) для вставки заметок/комментариев. Другой пример - [триггер, заполняющий поля "Дата завершения" и "Кто завершил" для задачи.](https://x-pm-ru.ozma.org/views/admin/trigger_form?id=3) [Список всех триггеров в демо-решении.](https://x-pm-ru.ozma.org/views/admin/triggers_table) Про схему базы данных --------------------- Глядя на наш код может возникнуть вопрос — а куда мы вообще SELECT-ы пишем? Где база данных? А как создавать еще таблицы или изменять колонки? Вернемся немного в начало и пройдемся по структуре базы для нашего таск-трекера и тому, как её создать и настроить.  Внутри [ozma.io](http://ozma.io) — реляционная база данных на основе PostgreSQL, поэтому для хранения данных, естественно, нужно заранее придумать структуру базы. Разрабатываем её с учетом возможного расширения и рисуем [в Миро](https://miro.com/app/board/uXjVOrWrtSM=/)  ![Схема базы данных в Миро — тоже простом инструменте, когда нужно быстро набросать что-то рабочее и одновременно понятное](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e5f/2e0/2a9/e5f2e02a916813c52771de5f3cf5191f.png "Схема базы данных в Миро — тоже простом инструменте, когда нужно быстро набросать что-то рабочее и одновременно понятное")Схема базы данных в Миро — тоже простом инструменте, когда нужно быстро набросать что-то рабочее и одновременно понятноеЧтобы впоследствии добавление новых модулей было менее болезненным, сразу делим сущности на несколько схем. Схемы, как и в других базах данных, это наборы таблиц и других сущностей, например: * в схеме `pm` — все сущности, связанные с задачами: Задачи (`tasks`) и Комментарии  (`notes_for_tasks`) * в схеме `base` будут Контакты (`contacts`) и унаследованные от них Люди (`people`) и Организации (`organizations`). Наследование позволяет ссылаться на контакт из других сущностей – внутри системы люди и организации находятся в одной таблице.  *На самом деле “Организации” на первый взгляд кажутся бесполезными, мы их нигде не используем. Но когда-нибудь наступит момент, когда рядом с задачей нужно будет хранить ссылку на заказчика или провайдера или конкурента, а еще их телефоны и адреса. Лучше подстраховаться и заложить правильную архитектуру с самого начала, сэкономив своё драгоценное время впоследствии.* * схема `public` системная, и её менять нельзя, поэтому ей не уделяем много внимания. В ней нам интересна сущность Пользователи (`users`), т.к. тут хранится и настраивается список пользователей, у которых есть доступ к решению. Параллельно думаем над необходимой автоматикой: * Нужны будут несколько триггеров для заполнения полей, например “Дата создания”, “Кто создал”, “Дата изменения”, “Кто изменил” для таблиц задач (`pm.tasks`) и контактов (`base.contacts`) * И ещё нужны будут пара триггеров, чтобы вставлять кастомные ивенты в таблицу `pm.notes_for_tasks` Готовим таблицы, поля и связи в БД ---------------------------------- Заводим в админке конструктора схемы, сущности и поля, как нарисовали до этого  в схеме. Система автоматически создаст схемы, таблицы и поля в базе данных. ![Форма сущности pm.tasks в админке решения ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f8a/b83/1ad/f8ab831adf3418ac20260f324089ea4e.png "Форма сущности pm.tasks в админке решения ")Форма сущности pm.tasks в админке решения Вся информация о самой базе данных (о схемах, таблицах, полях, триггерах и остальном) лежит в схеме `public`. > Еще в самом начале развития конструктора мы создали набор пользовательских представлений для взаимодействия с этими сущностями и объединили их в схеме `admin`. Это не системная схема, в чистом новом решении её нет – весь интерфейс администрирования написан внутри самого конструктора.  > > Актуальная версия лежит в [открытом доступе](https://wiki.ozma.io/ru/administration/admin-schema), поэтому чаще админы либо пользуются ей, либо (гораздо реже) пишут свой интерфейс для редактирования сущностей, полей, триггеров и всего остального. > > Можно посмотреть на [список полей сущности tasks в демке](https://x-pm-ru.ozma.org/views/admin/column_fields_table?entity=28). Список всех схем решения можно посмотреть [тут](https://x-pm-ru.ozma.org/views/admin/schemas_table), а список сущностей [тут](https://x-pm-ru.ozma.org/views/admin/entities_table). Что не вошло в статью --------------------- Чтобы не растягивать статью до бесконечности, мы не стали описывать разграничение доступов, пользовательские роли и уведомления о задачах на почту и в телеграм. Если такое будет интересно — напишите в комментариях, расскажем, как это сделать самому. Можно еще кстати [выгружать локально себе весь код решения](https://wiki.ozma.io/ru/administration/save_restore), править его в виде кода и разворачивать обратно в озму. Как решение может расти дальше? ------------------------------- * Добавим “Клиентов” и историю взаимодействия с ними; * Создадим сущность “Сделки” и воронки продаж; * Настроим представления для менеджеров и руководителей, а потом настроим их роли; * Напишем больше CRM-дашбордов. Ещё соберём финансовый модуль. Но может и не соберём, если в работе будем справляться без него. Что под капотом? ---------------- | | | | --- | --- | | Платформа | Linux (NixOS/nixops), PostgreSQL | | Бэкенд | F# (.NET Core), свой диалект SQL с компилятором в pgSQL | | Фронтэнд | TypeScript/Vue.js | О нас ----- Озма придумана двумя студентами из бауманки Кириллом Маркиным и Николаем Амиантовым. Большие куски статьи и демо-пример написала Ирина Горохова. Спасибо Константину, Ренату Дарыбаеву, Даниилу и Любови за большой вклад в проект, Михаилу Полянину за помощь с текстом и Роману Белякову за иллюстрации. Расскажите, чего вам не хватает в своем таск-трекере. Как думаете, будет удобно собирать на платформе такие решения под свои хотелки? Может ли быть полезна такая штука?
https://habr.com/ru/post/673874/
null
ru
null
# Наблюдательный пост пессимиста: технические и концептуальные решения в системе мониторинга Lamoda Всем привет! Меня зовут Александр Афенов, я работаю в Lamoda. Эта статья по мотивам моего доклада с HighLoad 2019, запись которого лежит [тут](https://youtu.be/oUdZOwX0Ilw). Раньше я был тимлидом, и в моем ведении была пара критикал-сервисов. И если в них что-то шло не так, это останавливало реальные бизнес-процессы. Например, заказы переставали уходить в сборку на складе. Недавно я стал дирекшн-лидом и теперь отвечаю за три команды вместо одной. У каждой из них в ведении есть IT-система. Мне хочется понимать, что происходит в каждой системе и что может сломаться. В этой статье я поговорю о том, * что мы мониторим, * как мы мониторим, * и самое главное: что мы делаем с результатами этих наблюдений. ![image](https://habrastorage.org/r/w1560/webt/xg/2a/ne/xg2anezxqa4nttrfu3aueq0byuk.png) В Lamoda много систем. Все они релизятся, в них что-то меняется, что-то случается с техникой. И хочется иметь хотя бы иллюзию того, что мы легко локализуем поломку. Меня постоянно бомбит оповещениями, в которых я пытаюсь разобраться. Дабы уйти от абстракций и перейти к конкретике, расскажу первый пример. Время от времени что-то взрывается: хроники одного пожара ========================================================= Одним теплым летним утром без объявления войны, как это обычно бывает, у нас сработал мониторинг. В качестве алертинга мы используем Icinga. Алерт сказал, что у нас осталось 50 ГБ жесткого диска на сервере СУБД. Скорее всего, 50 гигабайт – это капля в море, и она закончится очень быстро. Мы решили посмотреть, сколько именно свободного места осталось. Надо понимать, что это не виртуалки, а железные сервера, и база под большой нагрузкой. Там стоит 1.5-терабайтная SSD. Скоро эта память скоро подойдет к концу: её хватит на 20-30 дней. Это очень мало, нужно оперативно решать проблему. Потом мы дополнительно проверили, сколько на самом деле израсходовалось памяти за 1-2 дня. Оказывается, что 50 гигабайт хватит примерно на 5-7 дней. После чего сервис, который работает с этой базой, предсказуемо закончится. Мы начинаем думать о последствиях: что срочно заархивируем, какие данные удалим. У департамента Data analytics есть все бекапы, поэтому можно спокойно дропнуть всё старше 2015 года. Пробуем удалить и вспоминаем, что MySQL так с полпинка не сработает. Удаленные данные – это замечательно, но размер файла, выделенного под таблицу и на DB, не меняется. MySQL потом использует это место. То есть проблема не решилась, места не стало больше. Пробуем другой подход: миграцию табличек с быстрых заканчивающихся SSD на более медленные. Для этого выделяем таблички, которые много весят, но под маленькой нагрузкой, и используем мониторинг Percona. Перевезли таблицы и уже думаем о том, чтобы переехать самими серверами. После второго переезда сервера занимают не 1.5, а 4 терабайта SSD. Мы потушили этот пожар: организовали переезд и, конечно, пофиксили мониторинг. Теперь warning будет срабатывать не на 50 гигабайтах, а на половине терабайта, а критическое значение мониторинга – на 50 гигабайтах. Но в действительности это лишь затыкание тылов одеялом. На какое-то время его хватит. Но если мы допустим повторения ситуации, не раздробив базу на части и не задумавшись о шардинге, всё кончится плохо. Предположим, что дальше мы сменили сервера. На каком-то этапе потребовалось рестартануть мастер. Наверное, в этом случае появятся ошибки. В нашем случае даун-тайм был порядка 30 секунд. Но запросы идут, писать некуда, посыпались ошибки, сработал мониторинг. Мы используем систему мониторинга Prometheus – и видим в нём, что подскочила метрика 500-х ошибок или количество ошибок при создании заказа. Но мы не знаем деталей: какой именно заказ не создался, и тому подобные вещи. Дальше расскажу, как мы работаем с мониторингами, чтобы не попадать в такие ситуации. Ревью мониторингов и внятное описание для службы поддержки ========================================================== У нас есть несколько направлений и показателей, за которыми мы наблюдаем. В офисе везде висят телевизоры, на которых есть множество разных технических и бизнесовых меток, за которыми, кроме разработчиков, следит служба поддержки. В этой статье я говорю о том, как у нас есть, и добавляю то, к чему мы хотим прийти. Это относится и к ревью мониторингов. Если бы мы регулярно проводили инвентаризацию нашего «имущества», то могли обновить всё устаревшее и зафиксить, не допуская повторения факапа. Для этого нужен внятный список. У нас в репозитории есть конфиг-айсинги с алертами, где сейчас 4678 строк. Из этого списка сложно понять, о чем говорит каждый конкретный мониторинг. Допустим, наша метрика называется db\_disc\_space\_left. Служба поддержки не сразу поймет, о чём тут речь. Что-то про свободное место, здорово. Хотим копнуть глубже. Смотрим на конфиг этого мониторинга и понимаем, откуда он берется. ``` pm_host: "{{ prometheus_server }}" pm_query: ”mysql_ssd_space_left" pm_warning: 50 pm_critical: 10 pm_nanok: 1 ``` У этой метрики есть название, собственные ограничения, когда включать warning-мониторинг, алерт, чтобы сообщить о критической ситуации. Мы используем соглашение о наименовании метрик. В начале каждой метрики есть название системы. Благодаря этому, становится понятной зона ответственности. Если метрику заводит тот, кто отвечает за систему, сразу понятно, к кому идти. Алерты сыпятся в телеграмм или слак. Служба поддержки реагирует на них первой в режиме 24/7. Ребята смотрят, что конкретно взорвалось, нормальная ли это ситуация. У них есть инструкции: * те, которые даются на смену, * и инструкции, которые зафиксированы в confluence на постоянной основе. По названию взорвавшегося мониторинга можно найти, что он значит. Для самых критичных описано, что сломалось, каковы последствия, кого необходимо поднять. Также у нас есть сменные дежурства в командах, отвечающих за ключевые системы. В каждой команде есть тот, кто постоянно доступен. Если что-то случилось, его поднимают. Когда сработал алерт, службе поддержки нужно быстро узнать всю ключевую информацию. Было бы классно, чтобы к сообщению об ошибке прикладывалась ссылка на описание мониторинга. Например, чтобы там была такая информация: 1. описание этого мониторинга в понятных, сравнительно простых терминах; 2. адрес, где он расположен; 3. объяснение, что это за метрика; 4. последствия: чем всё закончится, если мы не исправим ошибку; 5. У нас временами полыхают мониторинги, на которые можно забить, и ничего не произойдет. Возможно, это мониторинги, сделанные зря. Здесь нужен понятный экшн-пойнт, что делать. Также было бы удобно сразу посмотреть динамику трафика в интерфейсе Прометея. Такие описания хотелось бы сделать по каждому мониторингу. Они помогут выстраивать ревью и вносить корректировки. Мы внедряем эту практику: в конфиге айсинга уже есть ссылочка на confluence с этой информацией. Я занимался одной системой почти 4 года, по ней в основном нет таких описаний. Поэтому сейчас я собираю знания воедино. Описания также решают проблему неосведомленности команды. У нас есть инструкции по большинству алертов, где написано, что ведет к определенному бизнес-импакту. Вот почему мы должны оперативно разобраться в ситуации. Критичность возможных инцидентов определяют служба поддержки совместно с бизнесом. Приведу пример: если сработал мониторинг расхода оперативной памяти на сервере RabbitMQ сервиса обработки заказов – это означает, что сервис очередей может упасть через несколько часов или даже минут. А это, в свою очередь, остановит множество бизнес-процессов. В результате, клиенты безуспешно будут ждать оформления заказов, SMS/push-оповещений, смены статусов и много другого. Обсуждение мониторингов с бизнесом часто происходит после серьезных инцидентов. Если что-то сломалось, мы собираем комиссию с представителями направления, которого зацепило нашим релизом или инцидентом. На встрече разбираем причины инцидента, как сделать так, чтобы он никогда не повторился, какой ущерб мы понесли, сколько денег потеряли и на чем. Бывает так, что нужно подключить бизнес для решения проблем, созданных для клиентов. Там обсуждаем проактивные действия: какой мониторинг завести, чтобы этого не повторялось. Служба поддержки наблюдает за значениями метрик при помощи telegram-бота. Когда появляется новый мониторинг, сотруднику поддержки нужен простой инструмент, который позволит узнать, где сломалось и что с этим делать. Ссылка на описание в алерте решает эту задачу. Вижу факап как наяву: используем Sentry для разбора полётов =========================================================== Недостаточно просто узнать об ошибке, хочется видеть подробности. Наш стандартный use case таков: выкатили релиз и получили алерты от K8S-стека. Благодаря мониторингу мы смотрим на состояние подов: какие версии приложения выкатились, чем закончился деплой, все ли хорошо. Дальше мы заглядываем в РММ, что у нас с базой и с нагрузкой на нее. По Grafana и бордам мы смотрим на количество коннектов к Rabbit. Он клевый, но умеет протекать, когда заканчивается память. Мы мониторим эти штуки, а потом проверяем Sentry. Он позволяет наблюдать в онлайне, как образом разворачивается очередное фиаско со всеми деталями. В этом случае мониторинг после релиза сообщает, что сломалось и как именно. В РНР-проектах мы используем raven-клиент, дополнительно обогащаем данными. Sentry это всё красиво агрегирует. И мы видим динамику по каждому факапу, как часто он происходит. А еще смотрим на примерах, какие запросы не удались, какие эксепшены вылезли. ![image](https://habrastorage.org/r/w1560/webt/jg/pw/sm/jgpwsmd31vjavrdzwitmwpwfhvm.png) Приблизительно так это выглядит. Я вижу, что на очередном релизе ошибок стало резко больше, чем обычно. Мы проверим, что конкретно сломалось. А потом, если нужно, по контексту достанем неудавшиеся заказы и их починим. У нас есть классная штука – привязка к Jira. Это тикет-трекер: нажал кнопочку, и в Jira создался таск об ошибке со ссылкой на Sentry и стек-трейсом этой ошибки. Задача помечается определенными лейблами. Один из разработчиков принес толковую инициативу – «Чистый проект, чистый Sentry». На планировании мы каждый раз закидываем в спринт хотя бы 1-2 задачи, созданных из Sentry. Если в системе всё время что-то сломано, то Sentry завалена миллионами мелких глупых ошибок. Мы регулярно чистим их, чтобы нечаянно не пропустить по-настоящему серьёзные. Полыхает по любому поводу: избавляемся от мониторингов, на которые все забивают =============================================================================== * *Привыкание к ошибкам* Если что-то постоянно мигает и выглядит сломанным, это дает ощущение ложной нормы. Служба поддержки может заблуждаться, думая, что ситуация адекватная. И когда сломается что-то серьезное, это проигнорируют. Как в басне про мальчика, кричавшего: «Волки, волки!». Классический кейс – наш проект, который отвечает за ордер-процессинг. Он работает с системой автоматизации склада и передает туда данные. Эта система релизится обычно в 7 утра, после чего у нас вспыхивают мониторинги. Все привыкли к этому и забивают, что не очень хорошо. Было бы разумно потюнить эти мониторинги. Например, связать релиз конкретной системы и некоторых алертов через Прометей, просто не врубать лишнюю сигнализацию. * *Мониторинг не учитывает бизнес-показатели* Система обработки заказов передает данные на склад. Мы добавили мониторинги в эту систему. Ни один из них не стрелял, и кажется, что все нормально. Счётчик показывает, что данные уходят. В этом кейсе используется soap. В действительности счетчик может выглядеть так: зелененькая часть – это входящие обмены, желтые – исходящие. ![image](https://habrastorage.org/r/w1560/webt/kh/wh/2y/khwh2yntlukisghcs1qc3sgfcq8.png) У нас был кейс, когда данные действительно угодили, но кривые. Заказы не были оплачены, но их пометили как оплаченные. То есть покупатель сможет забрать их бесплатно. Кажется, что это страшно. Но веселее наоборот: человек приходит забрать оплаченный заказ, а его просят заплатить ещё раз из-за ошибки в системе. Чтобы избежать этой ситуации, мы наблюдаем не только за техникой, но и за метриками бизнеса. У нас есть конкретный мониторинг, который следит за количеством заказов, требующих оплаты при получении. Любые серьезные скачки в этой метрике покажут, если что-то пошло не так. Мониторинг бизнес-показателей – это очевидная вещь, но про неё частенько забывают при выпуске новых сервисов, в том числе и мы. Все обмазывают новые сервисы сугубо техническими метриками, связанными с дисками, процом, чем угодно. У нас как интернет-магазина есть критически важная штука – это количество созданных заказов. Мы знаем, сколько люди обычно покупают с поправкой на маркетинговые акции. Поэтому при релизах мы следим за этим показателем. Еще важная штука: когда клиент многократно заказывает доставку на один и тот же адрес, мы не мучаем его общением с колл-центром, а автоматически подтверждаем заказ. Сбой в системе сильно влияет на клиентский опыт. За этой метрикой мы тоже следим, поскольку релизы разных систем могут сильно на нее влиять. Наблюдаем за реальным миром: заботимся о здоровом спринте и нашей работоспособности =================================================================================== Чтобы бизнес следил за разными показателями, мы запилили небольшую систему Real Time Dashboard. Изначально она делалась с другой целью. У бизнеса есть план, сколько заказов мы хотим продать в конкретный день грядущего месяца. Эта система показывает соответствие планов и сделанного по факту. Для графика она берет данные из продакшн-базы, читает оттуда на лету. Однажды у нас развалилась реплика. Там не было мониторинга, поэтому мы не успели об этом узнать. Но бизнес увидел, что мы не выполняем план на 10 условных единиц заказов, и прибежал с комментариями. Мы начали разбираться в причинах. Оказалось, что из сломанной реплики читаются неактуальные данные. Это кейс, в котором бизнес наблюдает за интересными показателями, и мы помогаем друг другу при возникновении проблем. Расскажу про ещё один мониторинг реального мира, который давно на разработке и постоянно тюнится каждой командой. У нас есть Jira Viewer – она позволяет наблюдать за процессом разработки. Система предельно простая: РНР фреймворк Symfony, который ходит в Jira Api и забирает оттуда данные о задачах, спринтах и так далее, в зависимости от того, что было дано на вход. Jira Viewer регулярно пишет метрики, связанные с командами и их проектами, в Prometeus. Там они мониторятся, алертятся и оттуда выводятся в Grafana. Благодаря этой системе мы следим за Work in progress. * Мы мониторим, как долго задача находится в работе с момента in progress и до выкатывания в прод. Если число слишком большое, теоретически это говорит о проблеме с процессами, командой, описанием задач и так далее. Срок жизни задачи – важная метрика, но самой по себе ее недостаточно. * Ещё можно смотреть на здоровье спринта. Допустим, он кончается, а невыполненных задач осталось слишком много. Либо есть проблемы с логированием времени, если у вас принято его логировать. * Нехватка релизов – слишком много задач в статусе ready for release, но никуда не уехали. Этот кейс у нас бывает из-за код-фриза перед большой акцией, такой как «Черная Пятница». * Мониторим просадку в тестировании: когда куча задач висит на тестинг, за этим никто предметно не наблюдает. Эта метрика снимает ручную работу с менеджера или тимлида. * Состояние беклогов тоже поддаётся мониторингу. Недавно мы взяли технический беклог одного проекта и сократили с 400 задач до 150. Мы просто поняли, что многое не будет сделано, и отменили их. * Я мониторил в своей команде количество пулл-реквестов от разработчиков во внерабочее время. В частности, после 8 вечера. И когда метрика выстреливает, это тревожный знак: человек либо что-то не успевает, либо вкладывает слишком много сил и рано или поздно просто перегорит. ![image](https://habrastorage.org/r/w1560/webt/g7/zk/tk/g7zktk2onavge06akvjz90ngx24.png) На скриншоте видно, как Jira Viewer выдает данные. Это страница, где есть суммарная информация о статусах задачек из спринта, сколько весит каждая, и тому подобное. Такие штуки тоже собираются и летят в Прометей. Не только технические метрики: что мы уже мониторим, что можем мониторить и зачем это всё нужно =============================================================================================== Чтобы собрать это все воедино, я предлагаю мониторить совместно и технику, и метрики, имеющие отношение к процессам, разработке и бизнесу. Одних технических метрик недостаточно. * Мы взяли за правило, что когда выкатываем новую систему или новый бизнес-процесс, заранее формируем новый Grafana-борд. На эту доску выводятся все критичные метрики этой системы. Также заводятся наперед алерты, оповещения и так далее, чтобы мы предвосхищали проблемы на старте. * Мы отслеживаем тренды: делаем мониторинги, которые наблюдают ситуацию в долгосрочной перспективе. Однажды мы увидели, как постепенно растет количество коннектов к нашей базе, благодаря чему выяснили проблему с crontab и переехали на supervisor. Так практика смотреть на долгосрочные изменения чиселок в Прометее привела к спасению системы. Правда, при этом мы породили еще один серьезный инцидент, но это бывает. * Ревью мониторингов – штука, которая позволяет подчищать подобного рода истории и устранить древнее зло, которое заводилось непонятно зачем. * Я предлагаю исключать ложные срабатывания: чтобы не было ситуаций, когда что-то полыхает, хотя на самом деле не должно. Очень важно, чтобы у людей не замыливался взгляд. * В целом стоит делать так, чтобы алерты действительно отражали состояние данных по системе. Моя проблема в последний год – в Sentry скопилось несколько страниц ошибок. Какие-то из них случаются миллионами раз, и это хочется убрать. Я хочу видеть по-настоящему важные вещи, требующие устранения. А ещё чтобы в Sentry не попадало то, что является нормальным поведением, и чтобы там не было старых ошибок. * Документировать метрики и объяснять их важность. Очень плохо, когда никто кроме автора метрики не понимает, почему она важна и что нужно чинить. * Решать проблемы, а не затыкать тылы одеялом. Важно не просто тюнить мониторинги, поднимая пороговые значения из-за того, что в системе что-то постепенно разваливается. Я предлагаю действительно устранять первопричину алертов и не допускать повторения уже случившихся факапов.
https://habr.com/ru/post/508904/
null
ru
null
# Как мы находим проблемные релизы с помощью Graphite и Moira. Опыт Яндекс.Денег Привет, Хабр! Вдоволь наотдыхавшись после длинных праздников, мы снова готовы причинять вам пользу всеми доступными способами. Коллегам из IT-департамента всегда есть что рассказать, и сегодня мы делимся с вами докладом Александра Призова, системного администратора Яндекс.Денег, с митапа JavaJam. > Как мы выстроили поток обратной связи для обнаружения проблемных релизов с помощью Graphite и Moira. Расскажем, как собирать и анализировать метрики о количестве ошибок в приложении. — Всем привет, меня зовут Александр Призов, я работаю в отделе автоматизации эксплуатации в Яндекс.Деньгах, и сегодня я расскажу вам о том, как мы собираем, обрабатываем, анализируем информацию о нашей системе. У вас, наверное, мог возникнуть вопрос, почему доклад называется The Second Way (название доклада на митапе — прим. ред). Все достаточно просто. В основе DevOps лежит ряд принципов, которые, условно, разделены на три группы. **Первый путь** — принцип потока. **Второй путь** включает в себя принцип обратной связи. **Третий путь** — непрерывное обучение и экспериментирование. Как правило, в терминах разработки и эксплуатации программных продуктов под обратной связью подразумевается телеметрия, которую мы собираем о нашей системе, и наиболее распространенным случаем является сбор и обработка метрик. Для чего нам нужны эти метрики? С помощью метрик мы получаем обратную связь от системы и можем знать, в каком состоянии находится наша система, всё ли идет хорошо, как наши изменения повлияли на ее работу, и необходимо ли какое-то вмешательство для решения тех или иных проблем. Какие метрики мы собираем? -------------------------- Мы собираем метрики с трех уровней. *Бизнес-уровень* включает в себя показатели, интересные, с точки зрения каких-либо бизнес-задач. Например, мы можем получить ответы на вопросы, такие, сколько пользователей у нас зарегистрировано, как часто пользователи логинятся в нашу систему, какое количество активных пользователей у нашего мобильного приложения. Следующий уровень — *уровень приложения*. Метрики данного уровня чаще всего просматриваются разработчиками, потому что эти показатели дают ответ на вопрос, как хорошо работает наше приложение, как быстро оно обрабатывает запросы, есть ли просадки в производительности. Сюда включаются время ответа, количество запросов, длина очереди и ещё много чего. И, наконец, *уровень инфраструктуры*. Здесь все предельно ясно. С помощью этих метрик мы можем оценить количество потребляемых ресурсов, как их спрогнозировать и выявить проблемы, связанные с инфраструктурой. Теперь в двух словах опишу то, как мы эти метрики отправляем, обрабатываем и где храним. Рядом с приложением у нас находится коллектор метрик. В нашем случае это сервис Heka, который слушает порт UDP и ожидает на вход метрики в формате StatsD. Формат StatsD выглядит следующим образом: ![](https://habrastorage.org/r/w1560/webt/le/81/nz/le81nz05apfzg1z55ruxwhaue_q.png) То есть мы определяем название метрики, указываем значение этой метрики, это 1, 26 и так далее, и указываем его тип. Всего у StatsD порядка четырех или пяти типов. Если вам вдруг интересно, вы можете сами детально посмотреть [описание этих типов](https://github.com/etsy/statsd/blob/master/docs/metric_types.md). ![](https://habrastorage.org/r/w1560/webt/fn/vl/ma/fnvlma7zzczcko8ucurdce7dhew.png) После того, как приложение отправило данные Heka, метрики агрегируются за определенное время. В нашем случае это 30 секунд, после чего Heka отправляет данные в carbon-c-relay, которая осуществляет функцию фильтрации, маршрутизации, модификации метрик, который, в свою очередь, отправляет метрики в наш storage, мы используем clickhouse (да, он не тормозит), а также в Moira. Если кто не знает, это такой сервис, который позволяет настроить определенные триггеры для метрик. О Moira я поговорю чуть позже. Итак, мы просмотрели, какие метрики мы собираем, как мы их отправляем и обрабатываем. И следующим логичным этапом является анализ этих метрик. Как мы анализируем метрики? --------------------------- Приведу реальную ситуацию, где анализ метрик дал нам ощутимые результаты. В качестве примера возьмем наш релизный процесс. В общем виде он включает в себя следующие этапы. ![](https://habrastorage.org/r/w1560/webt/ob/my/pb/obmypbobncrdmgxutbxbetxom3o.png) Релиз развертывается на канареечный хост. На него приходится порядка пяти процентов пользовательского трафика. После того, как релиз на канареечный хост завершен, мы оповещаем ответственного за релиз о том, что ему следует проверить все ли в порядке с релизом. И он должен дать реакцию, среагировать на этот релиз и нажать на кнопку с решением о том, стоит ли этот релиз катить дальше, либо его следует откатывать. Не трудно догадаться, что в данной схеме имеется существенный недостаток, а именно то, что мы ожидаем реакции ответственного. Если ответственный в настоящий момент по каким-то причинам не может оперативно среагировать, то если релиз у нас с багами, то какое-то время пять процентов трафика приходит на проблемную ноду. Если с релизом все в порядке, то мы попросту тратим время на ожидание, и тем самым тормозим релизный процесс. > Без багов — тормозим релизный процесс > > С багами — аффектим пользователей С пониманием этой проблемы мы решили выяснить, можно ли автоматизировать процесс принятия решения о том, является ли релиз проблемным или нет. Мы, конечно же, обратились к нашим разработчикам, чтобы понять, как происходит проверка релиза. Оказалось, и кажется достаточно логичным, что основным индикатором того, что релиз проблемный, является увеличение количества ошибок в логах этого приложения. Как поступали разработчики? Они открывали Kibana, делали выборку по уровню ERROR блока приложения, и в случае, если они видели списки, то считали, что с приложением что-то идет не так. Стоит упомянуть, что логи нашего приложения хранятся в Elastic, и, кажется, что всё выглядит достаточно просто. Логи у нас в Elastic, нам осталось только сформировать запрос в Elastic, сделать выборку и понять на основе этих данных, является ли релиз проблемным или нет. Но это решение нам показалось не очень хорошим. Почему не Elastic? ------------------ В первую очередь, мы обеспокоились о том, что мы могли не оперативно получать данные из Elastic. Бывают такие случаи, например, при нагрузочном тестировании, когда у нас идет большой поток данных, а кластер может не справляться, и, в конечном счете, происходит задержка в отправке логов примерно 10-15 минут. Также были второстепенные причины, например, отсутствие унифицированного названия для индексов. Это нужно было учитывать в средстве автоматизации. А также приложения на разных платформах могли иметь разный формат логов. Мы задумались, почему бы не попробовать сделать какие-то метрики, на основе которых мы можем принимать решение, является релиз проблемным или нет. В то же время, мы не хотели обременять наших разработчиков, чтобы они вносили изменения в кодовую базу. И, как нам кажется, мы нашли довольно-таки элегантное решение с помощью добавления дополнительного appender в log4j. **Как это выглядит** ``` xml version="1.0" encoding="UTF-8" ? app\_name.logs.%level:1|c ... ``` Сначала мы определяем формат метрики, которую отправляем. Ниже описан дополнительный appender, который отправляет записи в формате, который у нас указан выше, в порт 8125 по UDP, то есть в Heka. Что нам это дает? Log4j на каждую запись в логе отправляет метрику типа Counter, с заданным уровнем записи ERROR, INFO, WARN и так далее. Однако мы быстро осознали, что отправка метрики на каждую запись в логах может создавать достаточно существенную нагрузку, и написали библиотеку, которая агрегирует метрики за определенное время и отправляет уже агрегированную метрику в сервис Heka. Собственно, этот appender мы добавляем в loggers, и с помощью данного подхода мы теперь знаем, сколько наше приложение пишет логов разбивки по уровням, имеем унифицированное название для метрик, вне зависимости от того, какая платформа используется. Мы с легкостью можем понять, сколько ошибок в логе приложения. И, наконец, мы смогли автоматизировать процесс принятия решения о проблемном релизе. Автоматизация ------------- ![](https://habrastorage.org/r/w1560/webt/ip/6j/ek/ip6jekzqqxrfswkbbwuvagplgqe.png) Вместо ручной проверки после релиза мы ждем пять минут, после чего собираем данные о количестве записей в логах приложения. После запускаем скрипт, который на основе двух выборок, до релиза и после, принимает решение, является ли релиз проблемным. Тем самым мы сократили количество времени, которое тратим на принятие решения, до пяти минут. Помимо того, что информация о количестве ошибок в логах полезна во время релиза, приятным бонусом для нас оказалось то, что она также полезна в процессе эксплуатации. Так, например, мы можем визуализировать количество ошибок в логах в Grafana и фиксировать аномальные всплески в логах приложений. ![](https://habrastorage.org/r/w1560/webt/gy/16/mc/gy16mcxb5mwvi10zwrb8mbwnlwk.png) Здесь используется достаточно простая математическая модель. Зеленая линия — это количество ошибок в логах приложения. Темно-красная — это медиана, умноженная на коэффициент чувствительности. В случае, когда количество ошибок в логах пересекают медиану, у нас срабатывает триггер, при срабатывании которого отправляется нотификация через Moira. ![](https://habrastorage.org/r/w1560/webt/qz/eb/3o/qzeb3oasmipjyjyeapvo6vb7ody.png) Как я и обещал, расскажу немного про Moira, как это работает. Мы определяем целевые метрики, которые мы хотим наблюдать. Это количество ошибок и скользящая медиана, а также условия, при которых этот триггер сработает, то есть когда количество ошибок в логах превышает медиану, умноженную на коэффициент чувствительности. При срабатывании триггера разработчику приходит уведомление о том, что зафиксирован аномальный всплеск ошибок в приложении, и следует предпринять какие-то действия. ![](https://habrastorage.org/r/w1560/webt/o7/da/bm/o7dabmq35xnknjkgkkxbjd6o2ak.png) Что мы имеем в итоге? Мы разработали общий механизм для всех наших backend-приложений, которые позволяют получить информацию о количестве записей в логах заданного уровня. Также с помощью метрик о количестве ошибок в логах приложения мы смогли автоматизировать процесс принятия решения о том, является релиз проблемным или нет. А также написали библиотеку для log4j, которой вы можете воспользоваться, если захотите попробовать подход, который я описывал. Ссылка на библиотеку чуть ниже. На этом у меня, пожалуй, все. Спасибо. ### Полезные ссылки [Log4j-count-appender](http://github.com/yandex-money-tech/log4j-count-appender) [Moira](https://moira.readthedocs.io/en/latest/)
https://habr.com/ru/post/436512/
null
ru
null
# Ежедневный backup Atlassian JIRA и Confluence для Windows ![](https://habrastorage.org/r/w1560/storage1/1b311ed2/13bbaed6/b3a5fa06/9a4e8709.png) ![](https://habrastorage.org/r/w1560/storage1/0229a6c8/55d14a50/798ad8d7/20d0a1e9.png) **Задача:** * Ежедневный backup mysql базы данных для JIRA и Confluence; * Ежедневный backup директорий с attachments; * Архивирование всех сделанных backup'ов; * Удаление старых backup'ов. Оговорюсь, что мне это нужно было сделать для Windows и я понимаю, что для Linux все делается проще и быстрее. Также если вы являетесь администратором, то данный топик вряд ли будет вам интересен и ничего нового вы не узнаете. Но можете использовать написанное, как готовое и проверенное решение. Для начала определимся с переменными: ``` ::Директория с вашими Attachments для JIRA или Confluence set attachments="C:\Program Files\Atlassian\Application Data\JIRA\data" ::Директория, куда будут сохраняться ежедневные backups set backup_folder=D:\Backups\Atlassian\JIRA\daily_backups ::Путь к файлу mysqldump.exe set mysqldump_path="C:\Program Files\MySQL\MySQL Server 5.5\bin\mysqldump.exe" :: Пользователь MySQL set dbuser=root :: Пароль пользователя MySQL set dbpass= :: База данных, которую мы хотим бэкапить (JIRA или Confluence) set dbname=jiradb ``` Каждый бэкап должен иметь уникальное имя, для его генерации можно использовать год, месяц, день и временной интервал. ``` For /f "tokens=2-4 delims=/ " %%a in ('date /t') do (set dt=%%c-%%a-%%b) For /f "tokens=1-4 delims=:." %%a in ('echo %time%') do (set tm=%%a%%b%%c%%d) set backupdate=%1%dt%_%tm% set date_folder=%1%dt% ``` Вы можете корректировать ваше имя как вам удобно, в моем случае формат такой: [db name].YYYY-MM-DD\_tt Переменную **date\_folder** я завел для того, чтобы каждый день создавалась папка YYYY-MM-DD и в нее складывались backups. Соответственно если директории нету, то создаем ее: ``` if exist %backup_folder%\%date_folder% GOTO NODIR mkdir %backup_folder%\%date_folder% :NODIR ``` Далее, выполняем обычный backup базы данных при помощи mysqldump, архивируем при помощи 7zip и удаляем заархивированный файл. ``` %mysqldump_path% --user=%dbuser% --password=%dbpass% --databases %dbname% > "%backup_folder%\%date_folder%\%dbname%.%backupdate%.sql" "zip\7za.exe" a -tzip "%backup_folder%\%date_folder%\%dbname%.%backupdate%.zip" "%backup_folder%\%date_folder%\*.sql" del "%backup_folder%\%date_folder%\*.sql" ``` Не забываем заархивировать папку с attachments: ``` "zip\7za.exe" a -tzip %backup_folder%\%date_folder%\attachments.%backupdate%.zip %attachments% ``` И все что нам остается это удалить старые директории (старше 14 дней). ``` forfiles -p %backup_folder% -s -d -14 -c "cmd /c if @isdir == TRUE rd /s /q @path" ``` Все что нам остается это скормить этот bat файл Windows Task Sheduler и указать, чтобы таск срабатывал каждый день. P.S. Если таск не срабатывает, проверьте, чтобы стояла галочка, что таск должен выполняться даже тогда, когда пользователь, от чьего имени запускается таск, не залогинен, и что у этого пользователя есть права на запись. Также, не забудьте указать, чтобы таск выполнялся в директории, в которой лежит скрипт. (Для тасков это необязательный параметр, но без этого таск отрабатывал, но скрипт не запускал.) P.P.S. Если кому скрипт оказался полезным, то его можно скачать здесь: [download](http://dl.dropbox.com/u/135608/jira_confluence_backup_win.zip)
https://habr.com/ru/post/131893/
null
ru
null
# Yota-роутер или wimax2wifi за 15 минут. Вариант 2. Так как в текущий момент проживаю в только что построенном доме, то не имею возможности пока подключиться к нормальному высокоскоростному интернету. В качестве решения данной проблемы был куплен модем Yota, так как WiMax на текущий момент бесплатен (3G от Билайн тоже не плох, но все равно дороговат). И все было бы шикарно и в шоколоде, если бы не наличие дома 2х ноутбуков и одного кпк, которые активно использовались и нуждались в подключении к интернету. Вариант с использованием одного ноутбука в качестве роутера довольно быстро надоел, поэтому было принято решение о покупке WiFi роутера. Порывшись на просторах интернета я первоначально выбрал модель Asus wl-500gp v2, к тому же в этот момент как раз была написана статья [Yota-роутер или wimax2wifi за 15 минут](http://habrahabr.ru/blogs/WiMAX/53790/). Но почитав форум [wl500g.info](http://wl500g.info/), я нашел более бюджетный вариант для себя. И так встречаем WiFi роутер [D-Link Dir 320](http://www.dlink.ru/ru/products/5/786.html). Прелесть данной модели заключается в том, что он является аналогом роутера Asus WL-500gP V2 c уменьшенной с 8 Мб до 4 Мб флэш памятью. Выполнен роутер на процессоре BCM5354, объем ОЗУ — 32 Мб, флэш — 4 мегабайта, 1 порт USB, 1 внутренний COM порт. При этом его цена в 2 раза меньше цены Asus, при почти такой же функциональности. Кроме того были куплены простенький usb-hab и флешка на 512Мб (хаб будет подключен к единственному usb порту роутера, а флешка использована для расширения флеш памяти). **Этап 1. *Немного магии и плясок с бубном для превращения D-Link в Asus.*** Почитав [ветку](http://wl500g.info/showthread.php?t=17641) форума wl500g.info, где достаточно подробно написан способ перепрошивки, я сделал следущее. Скачал с [сайта](http://wl500g.googlecode.com/) последнюю версию [прошивки](http://wl500g.googlecode.com/files/WL500gpv2-1.9.2.7-d-r191.trx) для WL-500gPv2. Сохранил ее в папке C:\bin, переименовав в firmware.bin. В папке C:\bin создал файл install.bat со следющим содержимым `@Echo Off :BEGIN ping -n 1 -w 1 192.168.0.1 If errorlevel 1 Goto BEGIN If errorlevel 0 Goto FLASH Goto END :FLASH Echo *** Start Flashing **** tftp -i 192.168.0.1 put firmware.bin :END` Изменил адрес адрес сетевого интерфейса компьютера 192.168.0.2/255.255.255.0 и подключил сетевой кабель роутера, не включая питание роутера. Запустив командную строку ПУСК->Выполнить-> cmd и перейдя в папку cd c:\bin, выполнил командный файл install.bat C:\bin>install.bat Включил следом питание роутера. Далее можем наблюдать процесс прошивки, который займет буквально несколько секунд и окончится вывовдом в коммандной строке `Обмен пакетами с 192.168.0.1 по 32 байт: Превышен интервал ожидания для запроса. Статистика Ping для 192.168.0.1: Пакетов: отправлено = 1, получено = 0, потеряно = 1 (100% потерь), <<< SKIP >>> <<< SKIP >>> <<< SKIP >>> <<< SKIP >>> Обмен пакетами с 192.168.0.1 по 32 байт: Ответ от 192.168.0.1: число байт=32 время=4мс TTL=100 Статистика Ping для 192.168.0.1: Пакетов: отправлено = 1, получено = 1, потеряно = 0 (0% потерь), Приблизительное время приема-передачи в мс: Минимальное = 4мсек, Максимальное = 4 мсек, Среднее = 4 мсек *** Start Flashing **** Успешная передача: 3092480 байт за 11 сs, 281134 байт/с C:\bin>` Далее ждем около 1-2 минут, пока не загорится индикатор статуса роутера. И делаем сброс настроек по умолчанию, выключив питание роутера, затем нажав кнопку сброса и не отпуская ее включив питание, через 5 секунд отпустив кнопку сброса. В настройках сетевего соединения на компьютере устанавливаем автоматическое получение адреса и, зайдя телнетом (C:\bin>telnet 192.168.1.1) на роутер(логин и пароль admin), вводим следующие команды: `nvram set vlan2hwname=et0 nvram set wan0_ifnames=vlan2 nvram set wan0_ifname=vlan2 nvram set wan_ifnames=vlan2 nvram set wan_ifname_t=vlan2 nvram set wan_ifname=vlan2 nvram set wandevs=vlan2 nvram commit reboot` Теперь у нас роутер гордо именует себя Asus Wl500gp. Дальнейшее обновление прошивки выполняется через web интерфейс. Для обладателей linux перепрошивка также возможна. Для этого также нужно задать статический адрес подключения (при наличии NetworkManager отключить его временно, так как он долго устанавливает соединение). И выполнить следующие команды: `$ cd /path/to/firmware.bin/directory $ tftp tftp> binary tftp> trace tftp> rexmt 1 tftp> connect 192.168.0.1 tftp> put firmware.bin` Следом включив питание роутера. **Этап 2. *Активация yota-модема.*** Данный этап будет полностью аналогичен предыдущей статье [Yota-роутер или wimax2wifi за 15 минут](http://habrahabr.ru/blogs/WiMAX/53790/) за исключением пары моментов. За неимением кабеля с нормальным интернетом, пришлось подключить Wimax модем к ноутбуку, расшарить интернет и соединить этот ноутбук с Wan портом роутера, настроив на роутере подключение. Второй ноутбук был подключен через ethernet к роутеру и с него выполнялись все команды. Также в этот момент подключаем к роутеру usb хаб и вставляем в него флешку. Также я изменил скрипт для запуска на роутере на следующий: `umount /opt umount /tmp/mnt/disc0_1 echo -e -n d\n1\nn\np\n1\n512\nw | fdisk /dev/scsi/host0/bus0/target0/lun0/part1 < /tmp/fdisk.cfg mke2fs -j /dev/scsi/host0/bus0/target0/lun0/part1 mount -o sync,noatime,rw /dev/scsi/host0/bus0/target0/lun0/part1 /opt cd /tmp wget lvk.cs.msu.su/~lasaine/madwimax/wl500g/libusb-1.0-mipsel.tgz wget lvk.cs.msu.su/~lasaine/madwimax/wl500g/madwimax-latest-mipsel.tgz wget lvk.cs.msu.su/~lasaine/madwimax/wl500g/udhcpc-script.tgz cd / tar -xzf /tmp/libusb-1.0-mipsel.tgz tar -xzf /tmp/madwimax-latest-mipsel.tgz tar -xzf /tmp/udhcpc-script.tgz rm /tmp/libusb-1.0-mipsel.tgz /tmp/madwimax-latest-mipsel.tgz /tmp/udhcpc-script.tgz mkdir -p /usr/local/sbin/ echo "#!/bin/sh" > /usr/local/sbin/post-mount echo "mount -o sync,noatime,rw /dev/scsi/host0/bus0/target0/lun0/part1 /opt" >> /usr/local/sbin/post-mount echo "mount -o bind /tmp/mnt/disc0_1 /opt" >> /usr/local/sbin/post-mount #в оригинале было echo "insmod /lib/modules/tun.o" >> /usr/local/sbin/post-mount echo "insmod tun" >> /usr/local/sbin/post-mount echo "(while true; do /opt/sbin/madwimax -qof; sleep 10; done) &" >> /usr/local/sbin/post-mount chmod +x /usr/local/sbin/post-mount ipkg.sh update ipkg.sh install ipkg-opt flashfs save flashfs commit flashfs enable reboot` После этих действий, подключив WiMax адаптер к Usb хабу роутера, получим настроенный интернет. P.S. Для тех, кто не хочет терять время, но готов получить такой же результат, в продаже появились готовые комплекты для подключения к Yota Wimax. [D-Link Dir 320](http://www.linuxcenter.ru/shop/wimax/devices/d-link_dir_320/) и [ASuS WL 500gP v1/v2](http://www.linuxcenter.ru/shop/wimax/devices/asus_wl500gpv2_alone/).
https://habr.com/ru/post/54689/
null
ru
null
# Юнит-тесты в Cocoa ![](https://habrastorage.org/r/w1560/storage1/690c752e/ee738c9d/88f535d3/f6e22d79.png) Ниже описаны основы использования OCUnit — фреймворка для создания юнит-тестов, интегрированного в Xcode. Чтобы наглядно попробовать описываемые вещи, код можно [скачать](http://b2.ge.tt/9zH3oV8/InvertString.zip) сразу. Писал до эпохи Xcode 4, поэтому картинки немного устарели. Итак, например, у нас есть некая категория, которая расширяет стандартный класс NSString и добавляет метод по перевертыванию своего содержимого: ``` //ExtendedString.h #import @interface NSString (Extended) - (NSString \*)invert; @end ``` ``` //ExtendedString.m #import "ExtendedString.h" @implementation NSString (Extended) - (NSString *)invert { NSUInteger length = [self length]; NSMutableString *invertedString = [NSMutableString stringWithCapacity: length]; while (length > (NSUInteger)0) { unichar c = [self characterAtIndex: --length]; [invertedString appendString: [NSString stringWithCharacters: &c length: 1]]; } return invertedString; } @end ``` Добавляем к проекту новый таргет. Пусть он называется «Tests»: ![](https://habrastorage.org/r/w1560/storage1/48139985/1521c082/fc1666c0/52bd38a9.png) ![](https://habrastorage.org/r/w1560/storage1/3f0a1228/85814ab6/1ba93a47/a4bf4bbc.png) Добавляем в проект специальный фреймворк для юнит-тестов — SenTestingKit: ![](https://habrastorage.org/r/w1560/storage1/a55e785f/5159720d/38af5e5c/69592da5.png) Его нужно добавить только к таргету Tests: ![](https://habrastorage.org/r/w1560/storage1/3ee829c8/1f971c2d/b52296ba/9cf8aefa.png) Создаем группу для исходников с названием Tests и добавляем в нее новые тест-файлы. К стати, в папке с проектом лучше всего тоже создать физическую подпапку Tests и там уже размещать исходники с тестами: ![](https://habrastorage.org/r/w1560/storage1/2333e443/a67227de/a9dad105/f647443d.png) ![](https://habrastorage.org/r/w1560/storage1/10f2d610/03949148/e39c1fef/caa44f33.png) Назовем его понятным образом — ExtendedString\_Test.m — и добавим к таргету Tests: ![](https://habrastorage.org/r/w1560/storage1/642d4a5c/75d22470/8a9165b3/56f83545.png) Кроме того, к этому таргету Tests нужно будет присовокупить исходники самого тестируемого класса, а не только тестов. В итоге, структура таргетов в проекте будет выглядеть так: ![](https://habrastorage.org/r/w1560/storage1/b0158f65/cc8b6107/652c6f89/135931bd.png) Приведем код тестов, снабдив его необходимыми комментариями: ``` //ExtendedString_Test.h #import //используем тестовый фреймворк //а вот если бы мы сделали не категорию, а нормальный класс, //то на месте этого комментария следовало бы написать что-то типа: //@class MyClass; //и использовать MyСlass внутри объявления нижеследующего ExtendedString\_Test //там, где сейчас NSString @interface ExtendedString\_Test : SenTestCase //все тест-классы обязаны наследовать это { NSString \*\_string; } @end ``` ``` //ExtendedString_Test.m #import "ExtendedString_Test.h" #import "ExtendedString.h" //не забудем про подопытный класс @implementation ExtendedString_Test - (void)setUp //это запускается первым, можно настроить подопытные классы и посоздавать объекты { _string = [[NSString alloc] initWithString: @"Hello world!"]; STAssertNotNil(_string, @"Construct error!"); //сразу проверяем, все ли в порядке } - (void)tearDown //это запускается последним, можно удалить объекты { [_string release]; } - (void)testInvertString //это обычный тестовый метод { STAssertEqualObjects(@"Hello world!", _string, @"String is not initialized!"); //проверяем оригинал STAssertEqualObjects(@"!dlrow olleH", [_string invert], @"String is not inverted!"); //проверяем перевертыш } @end ``` Если все ОК, то сборка таргета Tests просто пройдет успешно. Если какой-то из ассертов окажется невалидным, во время сборки будет показана ошибка, как если бы это была ошибка компиляции. Примерно так: ![](https://habrastorage.org/r/w1560/storage1/e69038fe/65933a99/33a6bb00/517b1d12.png) Теперь, как эта кухня работает? Во время сборки таргета с тестами создается специальный бандл с расширением octest. Следующем шагом в сборке этого таргета стоит запуск скрипта следующего содержания: ${SYSTEM\_DEVELOPER\_DIR}/Tools/RunUnitTests Эта штука в свою очередь запускает вложенные скрипты, но все, в конечном итоге, сводится к вызову /Developer/Tools/otest с определенными параметрами. Последний загружает в себя наш тестовый бандл, находит там классы-наследники SenTestCase и дергает за метод setUp в начале, tearDown в конце, а между ними он вызывает все методы, название которых начинается со слова «test». Да-да, Objective-C такое позволяет :) Поэтому все тесты нужно начинать с приставки «test». К стати, octest можно запустить и вручную. Например так: `export OBJC_DISABLE_GC=YES #выключим Garbage Collector arch -i386 /Developer/Tools/otest ~/InvertString/build/Debug/Tests.octest #укажем явно архитектуру (i386), а то может ругаться` Вывод будет примерно такой: `objc[22721]: GC: forcing GC OFF because OBJC_DISABLE_GC is set objc[22721]: GC: forcing GC OFF because OBJC_DISABLE_GC is set Test Suite '/Users/ium/InvertString/build/Debug/Tests.octest(Tests)' started at 2011-07-01 18:46:45 +0300 Test Suite 'ExtendedString_Test' started at 2011-07-01 18:46:45 +0300 /Users/ium/InvertString/Tests/ExtendedString_Test.m:21: error: -[ExtendedString_Test testInvertString] : 'Hello world' should be equal to 'Hello world!' String is not initialized! 2011-07-01 18:46:45.240 otest[22721:80f] !dlrow olleH /Users/ium/InvertString/Tests/ExtendedString_Test.m:22: error: -[ExtendedString_Test testInvertString] : '!dlrow olle' should be equal to '!dlrow olleH' String is not inverted! Test Case '-[ExtendedString_Test testInvertString]' failed (0.003 seconds). Test Suite 'ExtendedString_Test' finished at 2011-07-01 18:46:45 +0300. Executed 1 test, with 2 failures (0 unexpected) in 0.003 (0.003) seconds Test Suite '/Users/ium/InvertString/build/Debug/Tests.octest(Tests)' finished at 2011-07-01 18:46:45 +0300. Executed 1 test, with 2 failures (0 unexpected) in 0.003 (0.010) seconds` Ну, это для варианта с ошибками, естественно. Оно все вываливается в лог, к стати (Build > Build Results). Получив такое на sdterr во время сборки, Xcode немедленного его парсит, находит ключевое слово «error:» c предваряющими его именем файла и номером строки, и красиво подсвечивает нам ошибки, как на предыдущей картинке. Набор макросов для проверки утверждений следующий: ``` STFail(description, ...) //это просто способ вывести сообщение об ошибке, очень полезно, где ассертами не обойтись STAssertNil(a1, description, ...) STAssertNotNil(a1, description, ...) STAssertTrue(expression, description, ...) STAssertFalse(expression, description, ...) STAssertEqualObjects(a1, a2, description, ...) //эти объекты равны по содержанию, копии друг друга STAssertEquals(a1, a2, description, ...) //это физически один объект STAssertEqualsWithAccuracy(left, right, accuracy, description, ...) STAssertThrows(expression, description, ...) STAssertThrowsSpecific(expression, specificException, description, ...) STAssertThrowsSpecificNamed(expr, specificException, aName, description, ...) STAssertNoThrow(expression, description, ...) STAssertNoThrowSpecific(expression, specificException, description, ...) STAssertNoThrowSpecificNamed(expr, specificException, aName, description, ...) STAssertTrueNoThrow(expression, description, ...) STAssertFalseNoThrow(expression, description, ...) ``` Названия говорят сами за себя, кроме прокомментированных. Троеточие работает как подстановка параметров в форматную строку description. Там как обычно, знак процента. Для углубления своих знаний рекомендую прочесть официальную [документацию](http://developer.apple.com/library/ios/#documentation/Xcode/Conceptual/ios_development_workflow/135-Unit_Testing_Applications/unit_testing_applications.html) и вот [это](http://cocoawithlove.com/2009/12/sample-mac-application-with-complete.html). **Удачи!**
https://habr.com/ru/post/129896/
null
ru
null
# Пробуем контрактное программирование С++20 уже сейчас ![](https://habrastorage.org/r/w1560/webt/ow/o1/yv/owo1yvuvpymi1w4uoa1olkjoo0g.png) В С++20 появилось контрактное программирование. На текущий момент ни один компилятор ещё не реализовал поддержку этой возможности. Но есть способ уже сейчас попробовать использовать контракты из C++20, так как это описано в стандарте. ### TL;DR *Есть форк clang, поддерживающий контракты. На его примере я рассказываю как пользоваться контрактами, чтобы как только фича появилась в вашем любимом компиляторе, вы сразу же могли начать её использовать.* Про контрактное программирование уже написано много, но в двух словах расскажу что это такое и для чего нужно. Логика Хоара ------------ В основе парадигмы контрактов лежит логика Хоара ([1](https://ru.wikipedia.org/wiki/%D0%9B%D0%BE%D0%B3%D0%B8%D0%BA%D0%B0_%D0%A5%D0%BE%D0%B0%D1%80%D0%B0), [2](https://habr.com/ru/post/268013/)). Логика Хоара – это способ формального доказательства корректности алгоритма. Она оперирует такими понятиями, как предусловие, постусловие и инвариант. С практической точки зрения, использование логики Хоара это, во-первых, способ формального доказательства корректности программы в тех случаях, когда ошибки могут привести к катастрофе или гибели людей. Во-вторых, способ повысить надёжность программы, наряду со статическим анализом и тестированием. Контрактное программирование ---------------------------- ([1](https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BD%D1%82%D1%80%D0%B0%D0%BA%D1%82%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5), [2](https://habr.com/ru/post/38612/)) Основная идея контрактов в том, что по аналогии с контрактами в бизнесе, для каждой функции или метода описываются договорённости. Эти договорённости должны соблюдать как вызывающая сторона, так и вызываемая. Неотъемлемой частью контрактов является как минимум два режима сборки – отладочный и продуктовый. В зависимости от режима сборки контракты должны себя вести по разному. Наиболее распространённой практикой является проверка контрактов в отладочной сборке и их игнорирование в продуктовой. Иногда в продуктовой сборке контракты тоже проверяются и их невыполнение может, например, вести к генерации исключения. Основное отличие использования контрактов от «классического» подхода в том, что вызывающая сторона должна соблюдать предусловия вызываемой стороны, которые описываются в контракте, а вызываемая должна соблюдать свои постусловия и инварианты. Соответственно, вызываемая сторона не обязана проверять корректность передаваемых её параметров. Эта обязанность возлагается контрактом на вызывающую сторону. Несоблюдение контрактов должно быть обнаружено на этапе тестирования и дополняет все виды тестов: модульные интеграционные и т. д. На первый взгляд, использование контрактов ведёт к усложнению разработки и ухудшает читаемость кода. На самом деле, всё как раз наоборот. Приверженцам статической типизации будет проще всего оценить пользу контрактов, потому что простейшим их вариантом является описание типов в сигнатуре методов и функций. Итак, какую пользу дают контракты: * Улучшают читаемость кода за счёт явного документирования. * Повышают надёжность кода, дополняя собой тестирование. * Позволяют компиляторам использовать низкоуровневые оптимизации и генерировать более быстрый код в расчёте на соблюдение контракта. В последнем случае несоблюдение контракта в релизной сборке может вести к UB. Контрактное программирование в C++ ---------------------------------- Контрактное программирование реализовано во многих языках. Наиболее яркие примеры, это [Eiffel](https://www.eiffel.org/doc/eiffel/ET-_Design_by_Contract_%28tm%29%2C_Assertions_and_Exceptions), где парадигма была впервые реализована, и [D](https://dlang.org/spec/contracts.html), в D контракты являются частью языка. В C++, до стандарта C++20, контракты можно было использовать в виде отдельных библиотек. Такой подход имеет ряд недостатков: * Весьма неуклюжий синтаксис с использованием макросов. * Отсутствие единого стиля. * Невозможность использования контрактов компилятором для оптимизации кода. В основе библиотечных реализаций обычно лежит использование старого доброго assert'а и препроцессорных директив, проверяющих наличие флага компиляции. Использование контрактов в таком виде, действительно делает код уродливым и нечитаемым. Это одна из причин, почему использование контрактов в C++ мало практикуется. Забегая вперёд, покажу как в C++20 будет выглядеть использование контрактов. А затем, разберём всё это подробнее: ``` int f(int x, int y) [[ expects: x > 0 ]] // precondition [[ expects: y > 0 ]] // precondition [[ ensures r: r < x + y ]] // postcondition { int z = (x - x%y) / y; [[ assert: z >= 0 ]]; // assertion return z + y; } ``` Пробуем ------- К сожалению, на текущий момент ни один из широко используемых компиляторов ещё не реализовал поддержку контрактов. Но есть выход. *ARCOS research group* из *Universidad Carlos III de Madrid* реализовали экспериментальную поддержку контрактов в форке clang++. Чтобы не «писать код на бумажке», а иметь возможность сразу же попробовать новые возможности в деле, мы можем собрать этот форк и с его помощью пробовать приводимые ниже примеры. Инструкция по сборке описана в readme репозитория на Гитхабе <https://github.com/arcosuc3m/clang-contracts> ``` git clone https://github.com/arcosuc3m/clang-contracts/ mkdir -p clang-contracts/build/ && cd clang-contracts/build/ cmake -G "Unix Makefiles" -DLLVM_USE_LINKER=gold -DBUILD_SHARED_LIBS=ON -DLLVM_USE_SPLIT_DWARF=ON -DLLVM_OPTIMIZED_TABLEGEN=ON ../ make -j8 ``` У меня не возникло проблем при сборке, но компиляция исходников занимает очень много времени. Для компиляции примеров вам нужно будет явно указать путь к бинарнику clang++. Например, у меня это выглядит примерно так ``` /home/valmat/work/git/clang-contracts/build/bin/clang++ -std=c++2a -build-level=audit -g test.cpp -o test.bin ``` Я подготовил примеры, чтобы вам было удобно исследовать контракты на примерах реального кода. Предлагаю, прежде чем приступить к чтению следующего раздела, склонировать и скомпилировать примеры. ``` git clone https://github.com/valmat/cpp20-contracts-examples/ cd cpp20-contracts-examples make CPP=/path/to/clang++ ``` Здесь `/path/to/clang++` путь к бинарнику `clang++` вашей сборки экспериментального компилятора. Кроме самого компилятора, ARCOS research group подготовили свою версию [Compiler Explorer](http://fragata.arcos.inf.uc3m.es/) для своего форка. Контрактное программирование в C++20 ------------------------------------ Теперь ничего не мешает нам приступить к исследованию возможностей, которые даёт контрактное программирование, и сразу пробовать эти возможности в деле. Как уже было сказано выше, контракты строятся из предусловий, постусловий и инвариантов (утверждений). В C++20 для этого используются атрибуты со следующим синтаксисом ``` [[contract-attribute modifier identifier: conditional-expression]] ``` Где `contract-attribute` может принимать одно из следующих значений: **expects**, **ensures** или **assert**. `expects` используется для предусловий, `ensures` для постусловий и `assert` для утверждений. `conditional-expression` – это булево выражение, проверяемый в контракте предикат. `modifier` и `identifier` могут быть опущены. Зачем нужен `modifier` я напишу чуть ниже. `identifier` используется только с `ensures` и служит для представления возвращаемого значения. Предусловия имеют доступ к аргументам. Постусловия имеют доступ к возвращаемому функцией значению. Для этого используется синтаксис ``` [[ensures return_variable: expr(return_variable)]] ``` Где `return_variable` любое валидное выражение для переменной. Другими словами, предусловия предназначены, чтобы объявлять ограничения, накладываемые на принимаемые функцией аргументы, а постусловия для того, чтобы объявлять ограничения, накладываемые на возвращаемое функцией значение. Считается, что *предусловия* и *постусловия* являются частью интерфейса функции, в то время как *утверждения* являются частью её реализации. Предикаты предусловий всегда вычисляются непосредственно перед выполнением функции. Постусловия выполняются сразу же после передачи функцией управления вызывающему коду. Если в функции происходит выброс исключения, то постусловия не будет проверяться. Постусловия проверяются только в случае нормального завершения функции. Если при проверке выражения в контракте возникло исключение, то будет вызван `std::terminate()`. Предусловия и постусловия всегда описываются вне тела функции и не могут иметь доступ к локальным переменным. Если предусловия и постусловия описывают контракт для публичного метода класса, они не могут иметь доступ к приватным и защищённым полям класса. Если метод класса защищённый, то к защищённым и публичным данным класса доступ есть, а к приватным нет. Последнее ограничение совершенно логично, если учесть, что контракт является частью интерфейса метода. Утверждения (инварианты) всегда описываются в теле функции или метода. По дизайну они являются частью реализации. И, соответственно, могут иметь доступ ко всем доступным данным. В том числе, к локальным переменным функции и приватным и защищённым полям класса. [пример 1](https://github.com/valmat/cpp20-contracts-examples/blob/master/example1.cpp) Определим два предусловия, одно постусловие и один инвариант: ``` int foo(int x, int y) [[ expects: x > y ]] // precondition #1 [[ expects: y > 0 ]] // precondition #2 [[ ensures r: r < x ]] // postcondition #3 { int z = (x - x%y) / y; [[ assert: z >= 0 ]]; // assertion return z; } int main() { std::cout << foo(117, 20) << std::endl; std::cout << foo(10, 20) << std::endl; // <-- contract violation #1 std::cout << foo(100, -5) << std::endl; // <-- contract violation #2 return 0; } ``` [пример 2](https://github.com/valmat/cpp20-contracts-examples/blob/master/example2.cpp) Предусловие публичного метода не может ссылаться на защищённое или приватное поле: ``` struct X { //protected: int m = 5; public: int foo(int n) [[expects: n < m]] { return n*n; } }; ``` Не допускается модификация переменных внутри выражений, описываемых атрибутами контракта. Если это нарушено, будет UB. Выражения, описываемые в контрактах, не должны иметь побочных эффектов. Хотя компиляторы могут это проверять, такая обязанность на них не возлагается. Нарушение этого требования считается неопределённым поведением. ``` struct X { int m = 5; int foo(int n) [[ expects: n < m++ ]] // UB: Modifies variable m { int k = n*n; [[ assert: ++k < 100 ]] // UB: Modifies variable k return n*n; } }; ``` Требование не изменять состояние программы в выражениях контрактов станет очевидно чуть ниже, когда я расскажу про уровни модификаторов контрактов и режимы сборки. Сейчас просто отмечу, что корректная программа должна работать так же, как если бы контрактов вообще не было. Как я отмечал выше, в контракте можно указывать сколько угодно предусловий и постусловий. Все они будут проверены по порядку. Но предусловия всегда проверяются до выполнения функции, а постусловия сразу после выхода из неё. Это означает, что в первую очередь всегда проверяются предусловия, как проиллюстрировано в следующем примере: ``` int foo(int n) [[ expects: expr(n) ]] // # 1 [[ ensures r: expr(r) ]] // # 4 [[ expects: expr(n) ]] // # 2 [[ expects: expr(n) ]] // # 3 [[ ensures r: expr(r) ]] // # 5 {...} ``` Выражения в постусловиях могут ссылаться не только на возвращаемое функцией значение, но и на аргументы функции. ``` int foo(int &n) [[ ensures: expr(n) ]]; ``` В этом случае можно опустить идентификатор возвращаемого значения. Если постусловие ссылается на аргумент функции, то этот аргумент рассматривается *в точке выхода из функции*, а не в точке входа, как в случае с предусловиями. Нет никакого способа ссылаться на оригинальное (в точке входа в функцию) значение в постусловии. [пример](https://github.com/valmat/cpp20-contracts-examples/blob/master/example3.cpp): ``` void incr(int &n) [[ expects: 3 == n ]] [[ ensures: 4 == n ]] {++n;} ``` Предикаты в контрактах могут ссылаться на локальные переменные, только если время жизни этих переменных соответствует времени вычисления предиката. Например, для `constexpr` функции нельзя ссылаться на локальные переменные, если только они не известны во время компиляции. [пример](https://github.com/valmat/cpp20-contracts-examples/blob/master/example4.cpp): ``` int a = 1; constexpr int b = 100; constexpr int foo(int n) [[ expects: a <= n ]] // error: `a` is not constexpr [[ expects: n < b ]] // OK { [[assert: n > 2*a]]; // error: `a` is not constexpr [[assert: n < 2*b]]; // OK return 2*n; } ``` ### Контракты для указателей на функцию Нельзя определить контракты для указателя на функцию, но указателю на функцию можно присвоить адрес функции, для которой определён контракт. [пример](https://github.com/valmat/cpp20-contracts-examples/blob/master/example5.cpp): ``` int foo(int n) [[expects: n < 10]] { return n*n; } int (*pfoo)(int n) = &foo ``` Вызов `pfoo(100)` приведёт к нарушению контракта. ### Контракты при наследовании Классическая реализация концепции контрактов предполагает, что предусловия могут быть ослаблены в подклассах, постусловия и инварианты могут быть усилены в подклассах. В реализации C++20 это не так. Во-первых, инварианты в C++20 являются частью реализации, а не интерфейса. По этой причине, их можно как усилить, так и ослабить. Если в реализации виртуальной функции `assert` отсутствует, то он не будет унаследован. Во-вторых, требуется, чтобы при наследовании функции были [ODR](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE_%D0%BE%D0%B4%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BE%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F) идентичны. А, поскольку предусловия и постусловия являются частью интерфейса, то в наследнике они должны в точности совпадать. При этом, описание предусловий и постусловий при наследовании можно опустить. Но если они объявлены, то должны в точности совпадать с определением в базовом классе. [пример](https://github.com/valmat/cpp20-contracts-examples/blob/master/example6-inheritance.cpp): ``` struct Base { virtual int foo(int n) [[ expects: n < 10 ]] [[ ensures r: r > 100 ]] { return n*n; } }; struct Derived1 : Base { virtual int foo(int n) override [[ expects: n < 10 ]] [[ ensures r: r > 100 ]] { return n*n*2; } }; struct Derived2 : Base { // Inherits contracts from Base virtual int foo(int n) override { return n*3; } }; ``` **Замечание** К сожалению, пример выше [не работает](https://github.com/arcosuc3m/clang-contracts/issues/18) в экспериментальном компиляторе как ожидается. Если у `foo` из `Derived2` опустить контракт, то он не будет унаследован из базового класса. Кроме того, компилятор позволяет определить для подкласса контракт несовпадающий с контрактом базового. Ещё одна [ошибка](https://github.com/arcosuc3m/clang-contracts/issues/20) экспериментального компилятора: синтаксически правильной должна быть запись ``` virtual int foo(int n) override [[expects: n < 10]] {...} ``` Однако в таком виде я получил ошибку компиляции ``` inheritance1.cpp:20:36: error: expected ';' at end of declaration list virtual int foo(int n) override ^ ; ``` и пришлось заменить на ``` virtual int foo(int n) [[expects: n < 10]] override {...} ``` Думаю, это связано с особенностью экспериментального компилятора, и в релизных версиях компиляторов будет работать синтаксически верный код. ### Модификаторы контрактов Проверки предикатов контрактов могут нести дополнительные вычислительные расходы. Поэтому распространённой практикой является проверка контрактов в девелоперской и тестовой сборках и их игнорирование в релизной сборке. Для этих целей стандарт предлагает три уровня модификаторов контрактов. С помощью модификаторов и ключей компилятора программист может управлять тем, какие контакты будут проверяться в сборке, а какие игнорироваться. * `default` – этот модификатор используется по умолчанию. Предполагается, что вычислительная стоимость проверки выполнения выражения с этим модификатором *небольшая*, по сравнению со стоимостью вычисления самой функции. * `audit` – этот модификатор предполагает, что вычислительная стоимость проверки выполнения выражения *значительна* по сравнению со стоимостью вычисления самой функции. * `axiom` – этот модификатор используется, если выражение носит декларативный характер. Не проверяется во время выполнения. Служит для документирования интерфейса функции, использования статическими анализаторами и оптимизатором компилятора. Выражения с модификатором `axiom` никогда не вычисляются во время выполнения. Пример ``` [[expects: expr]] // Неявно default [[expects default: expr]] // Явно default [[expects axiom : expr]] // Run-time проверки не выполняются [[expects audit : expr]] // Вычислительно дорогая проверка ``` Используя модификаторы, можно определить какие проверки в каких версиях ваших сборок будут использоваться, а какие будут отключены. Стоит отметить, что если даже проверка не выполняется, компилятор вправе использовать контракт для низкоуровневых оптимизаций. И хотя проверка контракта может быть отключена флагом компиляции, нарушение контракта ведёт к неопределённому поведению программы. На усмотрение компилятора, могут быть предоставлены средства для включения проверок выражений, помеченных как `axiom`. В нашем случае, это опция компилятора ``` -axiom-mode= ``` `-axiom-mode=on` *включает* режим аксиом и, соответственно, *выключает* проверку утверждений с идентификатором `axiom`, `-axiom-mode=off` *выключает* режим аксиом и, соответственно, *включает* проверку утверждений с идентификатором `axiom`. [пример](https://github.com/valmat/cpp20-contracts-examples/blob/master/example7-axiom.cpp): ``` int foo(int n) [[expects axiom: n < 10]] { return n*n; } ``` Программа может быть скомпилирована с тремя разными уровнями проверки: * `off` выключает все проверки выражений в контрактах * `default` проверяются только выражения с модификатором `default` * `audit` расширенный режим, когда выполняются все проверки с модификатором `default` и `audit` Как именно реализовывать установку уровня проверки отводится на усмотрение разработчиков компилятора. В нашем случае, для этого используется опция компилятора ``` -build-level= ``` По умолчанию используется `-build-level=default` Как уже было сказано, компилятор может использовать контракты для низкоуровневых оптимизаций. По этой причине, не смотря на то, что во время выполнения некоторые предикаты в контрактах (в зависимости от уровня проверки) могут не вычисляться, их невыполнение ведёт к неопределённому поведению. Примеры применения уровней сборки отложу до следующего раздела, там их можно будет сделать наглядными. ### Перехват нарушения контракта В зависимости от того, с какими опциями собирается программа, в случае нарушения контракта могут быть разные сценарии поведения. По умолчанию нарушение контракта ведёт к падению программы, вызову `std::terminate()`. Но программист может переопределить это поведение, предоставив свой обработчик и указав компилятору на необходимость продолжать работу программы после нарушения контракта. При компиляции можно установить обработчик *violation handler*, вызываемый при нарушении контракта. Способ реализации установки обработчика отводится на усмотрение создателей компилятора. В нашем случае это ``` -contract-violation-handler= ``` Сигнатура обработчика должна иметь вид ``` void(const std::contract_violation& info) ``` или ``` void(const std::contract_violation& info) noexcept ``` `std::contract_violation` эквивалентна следующему определению: ``` struct contract_violation { uint_least32_t line_number() const noexcept; std::string_view file_name() const noexcept; std::string_view function_name() const noexcept; std::string_view comment() const noexcept; std::string_view assertion_level() const noexcept; }; ``` Таким образом, обработчик позволяет получить достаточно исчерпывающую информацию о том, где именно и при каких условиях произошло нарушение контракта. Если обработчик *violation handler* задан, то, в случае нарушения контракта, по умолчанию, сразу после его выполнения будет вызван `std::abort()` (Без указания обработчика вызывается `std::terminate()`). Стандарт предполагает, что компиляторы предоставляют средства, позволяющие программистам продолжить выполнение программы после нарушения контракта. Способ реализации этих средств остаётся на усмотрение разработчиков компилятора. В нашем случае, это опция компилятора ``` -fcontinue-after-violation ``` Опции `-fcontinue-after-violation` и `-contract-violation-handler` могут быть установлены независимо друг от друга. Например, можно установить `-fcontinue-after-violation`, но не устанавливать `-contract-violation-handler`. В последнем случае, после нарушения контракта программа просто продолжит работу. Возможность продолжения работы программы после нарушения контракта специфицирована стандартом, но нужно подходить с осторожностью к этой возможности. Технически, поведение программы после нарушения контракта не определено, даже если программист явно указал, что программа должна продолжать работать. Это связано с возможностью компилятора выполнять низкоуровневые оптимизации в рассчёте на выполнение контрактов. В идеале, если произошло нарушение контракта, нужно как можно скорее записать диагностическую информацию и завершить работу программы. Нужно точно понимать, что вы делаете позволяя программе работать после violation. Определим [свой обработчик](https://github.com/valmat/cpp20-contracts-examples/blob/master/violation_handler.h) и с его помощью перехватим нарушение контракта ``` void violation_handler(const std::contract_violation& info) { std::cerr << "line_number : " << info.line_number() << std::endl; std::cerr << "file_name : " << info.file_name() << std::endl; std::cerr << "function_name : " << info.function_name() << std::endl; std::cerr << "comment : " << info.comment() << std::endl; std::cerr << "assertion_level : " << info.assertion_level() << std::endl; } ``` И рассмотрим [пример](https://github.com/valmat/cpp20-contracts-examples/blob/master/example8-handling.cpp) нарушения контракта: ``` #include "violation_handler.h" int foo(int n) [[expects: n < 10]] { return n*n; } int main() { foo(100); // <-- contract violation return 0; } ``` Скомпилируем программу с опциями `-contract-violation-handler=violation_handler` и `-fcontinue-after-violation` и запустим ``` $ bin/example8-handling.bin line_number : 4 file_name : example8-handling.cpp function_name : foo comment : n < 10 assertion_level : default ``` Теперь можно привести примеры, демонстрирующие поведение программы при нарушении контракта при разных уровнях сборки и режимах контрактов. Рассмотрим следующий [пример](https://github.com/valmat/cpp20-contracts-examples/blob/master/example9.cpp): ``` #include "violation_handler.h" int foo(int n) [[ expects axiom : n < 100 ]] [[ expects default : n < 200 ]] [[ expects audit : n < 300 ]] { return 2 * n; } int main() { foo(350); // audit foo(250); // default return 0; } ``` Если собрать его с опцией `-build-level=off` то как и ожидается, контракты не будут проверяться. Собрав с уровнем `default` (с опцией `-build-level=default`), получим следующий вывод: ``` $ bin/example9-default.bin line_number : 5 file_name : example9.cpp function_name : foo comment : n < 200 assertion_level : default line_number : 5 file_name : example9.cpp function_name : foo comment : n < 200 assertion_level : default ``` И сборка с уровнем `audit` даст: ``` $ bin/example9-audit.bin line_number : 5 file_name : example9.cpp function_name : foo comment : n < 200 assertion_level : default line_number : 6 file_name : example9.cpp function_name : foo comment : n < 300 assertion_level : audit line_number : 5 file_name : example9.cpp function_name : foo comment : n < 200 assertion_level : default ``` #### Замечания `violation_handler` может бросать исключения. В этом случае можно настроить программу так, чтобы нарушение контракта вело к выбросу исключения. Если функция, у которой описаны контракты, помечена как `noexcept` и при проверке контракта вызван `violation_handler`, который бросает исключение, то будет вызван `std::terminate()`. [Пример](https://github.com/valmat/cpp20-contracts-examples/blob/master/example11.cpp) ``` void violation_handler(const std::contract_violation&) { throw std::exception(); } int foo(int n) noexcept [[ expects: n > 0 ]] { return n*n; } int main() { foo(0); // <-- std::terminate() when violation handler throws an exception return 0; } ``` Если компилятору передан флаг: не продолжать выполнение программы после нарушения контракта (`continuation mode=off`), но обработчик violation handler бросает исключение, то будет принудительно вызвана `std::terminate()`. ### Заключение Контракты относятся к неинтрузивным проверкам времени выполнения. Они играют очень важную роль в обеспечении качества выпускаемого программного обеспечения. C++ используется очень широко. И наверняка найдётся достаточное количество претензий к спецификации контрактов. На мой субъективный взгляд, реализация получилась довольно удобной и наглядной. Контракты C++20 позволят сделать наши программы ещё более надёжными, быстрыми и понятными. С нетерпением жду их реализацию в компиляторах. --- PS В личке мне подсказывают, что [вероятно](https://github.com/jensmaurer/papers/issues/162) в окончательной редакции стандарта `expects` и `ensures` заменят на `pre` и `post`, соответственно.
https://habr.com/ru/post/443766/
null
ru
null
# Нагрузочное тестирование на Gatling *Статья публикуется от имени Перфильева Алексея,* [akaaxel](https://habr.com/users/akaaxel/) ![image alt](https://habrastorage.org/files/57a/dd4/14e/57add414efc14e22923213a2b23b9aa2)[Gatling](http://gatling.io/#/) – это framework для проведения нагрузочного тестирования. Он основан на трех технологиях: Scala, Akka и Netty. В этой статье мы: 1. Посмотрим, как установить и начать использовать Gatling. 2. Разберем синтаксис скриптов Gatling на языке Scala. 3. Напишем небольшой тест, где используем основные функции Gatling. Запустим тестовый скрипт при помощи sbt и сохраним отчет. ### Почему Gatling Большинство специалистов для нагрузки используют Jmeter — до тех пор, пока не понадобится нагружать сокеты. Мы нашли [плагин для Jmeter.](https://github.com/maciejzaleski/JMeter-WebSocketSampler) Плагин показал плохую производительность: программа работала нестабильно уже при ста открытых коннектах. Gatling стал хорошей заменой: он содержит программный интерфейс нагрузки сокетов и выдерживает до 5000 открытых соединений без сбоев. Когда мы познакомились с Gatling — его синтаксисом и возможностями — стали переводить все скрипты с Jmeter на Gatling. ### Подготовка к работе с Gatling Устанавливаем [Scala SDK и SBT](https://habrahabr.ru/post/231971/), чтобы создавать скрипты и запускать их в IDE — например, в IntelliJ IDEA с поддержкой SBT проектов. Структура проекта: ![](https://habrastorage.org/r/w1560/files/0d1/fdc/dcc/0d1fdcdcc8b84be0943659a71b2d5b39.png) Скрипт размещаем в */src/test/scala/*. Чтобы запустить симуляцию из-под sbt, добавляем в plugins.sbt строчку: ``` addSbtPlugin("io.gatling" % "gatling-sbt" % "2.2.0") ``` В build.sbt добавляем: ``` enablePlugins(GatlingPlugin) libraryDependencies += "io.gatling.highcharts" % "gatling-charts-highcharts" % "2.2.2" % "test" libraryDependencies += "io.gatling" % "gatling-test-framework" % "2.2.2" % "test" ``` Idea выдаст [ошибку на строку enablePlugins(GatlingPlugin)](https://github.com/JetBrains/intellij-sbt/blob/master/idea-plugin/src/main/scala/org/jetbrains/sbt/language/SbtAnnotator.scala#L41), но эта проблема IDE. Теперь мы готовы разработать скрипт нагрузки. ### Синтаксис Любой скрипт на Gatling состоит из двух частей: конфигурации и самого профиля. #### **Конфигурация:** Задаем файл с данными о пользователях, которые нагрузят систему: ``` val users = ssv(fileName).circular ``` *ssv (semicolon separated values )* — формат файла. Ему не обязательно совпадать с расширением файла. [В документации](http://gatling.io/#/cheat-sheet/2.2.3) можно посмотреть другие поддерживаемые форматы файлов. *fileName* — строка с абсолютным именем файла ( C:\data\users.csv ) *circular* — метод обхода значений в файле. У нас: когда доходим до последней строки с пользователем, возвращаемся в начало. Дальше задаем конфиг http — он будет работать для всех запросов: ``` val httpConf = http .baseURL("https://www.tinkoff.ru/ ") .acceptHeader("*/*") .acceptEncodingHeader("gzip, deflate, br") .acceptLanguageHeader("ru-RU,ru;q=0.8,en-US;q=0.5,en;q=0.3") .userAgentHeader("Mozilla/5.0 (Windows NT 6.1; WOW64; rv:47.0) Gecko/20100101 Firefox/47.0") .check(status is 200) ``` Здесь задаем нужные хедеры, базовый URL и другие настройки: например, указываем прокси или отключаем кеширование. Создаем сценарий: ``` val basicLoad = scenario("BASIC_LOAD").feed(users).during(20 minutes) { exec(BasicLoad.start) } setUp( basicLoad.inject(rampUsers(1000) over (20 minutes)) .protocols(httpConf)) .maxDuration(21 minutes) ``` Конфигурация должна содержаться в классе, расширяющий класс Simulation ``` package load import io.gatling.core.scenario.Simulation class LoadScript extends Simulation{ // Здесь наш конфиг } ``` Посмотрите на [полный проект.](https://github.com/akaAXeL/exampleLoad) Мы создаем сценарий, где используем наших пользователей и конфиг http. За 20 минут скрипт прогонит профиль BasicLoad.start. Если сервер повиснет, на 21-й минуте прогон принудительно завершится. Мы получим отчет по всем данным, которые успели попасть в лог. #### **Профиль нагрузки:** ``` object BasicLoad { val start = exec( http("HTTP Request auth") .post("/rest/session-start") .formParam("login", "${login}") .formParam("password", "${password}") ) .exec( http("HTTP Request getSkills") .get("/rest/skills") .check(jsonPath("$.id").saveAs("idSkill")) ) .exec( http("HTTP Request getResults") .get("/rest/results") .check(jsonPath("$.id").saveAs("idResult")) ) .repeat(15) { exec(session => { println("Some Log") val tmp = getTen() session.set("ten",tmp) }) .exec( http("HTTP Request completedtasksreport skill") .get("/rest/v2/completedtasksreport/") .queryParam("dateFrom", "${data}") .queryParam("excludeNoAnswer", "false") .queryParam("orderBy", "ResultDate") .queryParam("orderDesc", "true") .queryParam("skip", "0") .queryParam("take",_.attributes.getOrElse("ten",None)) .queryParam("skillIds", "${idSkill}") ) .exec( http("HTTP Request completedtasksreport result") .get("/rest/v2/completedtasksreport/") .queryParam("dateFrom", "${data}") .queryParam("excludeNoAnswer", "false") .queryParam("orderBy", "ResultDate") .queryParam("orderDesc", "true") .queryParam("skip", "0") .queryParam("take", _.attributes.getOrElse("idSkill",None)) .queryParam("resultId", "${idResult}") ) .exec( http("HTTP Request completedtasksreport skill and result") .get("/rest/v2/completedtasksreport/") .queryParam("dateFrom", "${data}") .queryParam("excludeNoAnswer", "false") .queryParam("orderBy", "ResultDate") .queryParam("orderDesc", "true") .queryParam("skip", "0") .queryParam("take", _.attributes.getOrElse("idSkill",None)) .queryParam("skillIds", "${idSkill}") .queryParam("resultId", "${idResult}") ) } } ``` *exec* — метод, по которому нагрузочный профиль выполняет единичное действие. Например, отправляет запрос, открывает сокет, отправляет сообщение по сокету или выполняет анонимную функцию. *http(samplerName: String).(get|post|put…)* отправляет необходимый запрос http. В функции метода http указываем относительный путь. Базовый url мы уже указали при настройке конфига http. Далее указываем параметры запроса — *queryParam | formParam*. check проверяет ответ. Можно проверить заголовок ответа. Мы также используем check, когда хотим проверить и сохранить тело ответа или его отдельные элементы. Любые действия можно выполнить с помощью конструкции: ``` exec( session => { // ваш код }) ``` Внутри этого блока мы ограничиваемся только возможностями Scala. Сессия, с которой мы работаем, уникальна для каждого юзера (потока). Поэтому можно задать для сессии параметры через set, чтобы они были доступны в других блоках exec. Получить доступ к заданным параметрам можно через вызов ``` "${idSkill}" ``` или ``` _.attributes.getOrElse("idSkill",None) ``` ### Запуск и отчет Запускаем Gatling с помощью sbt. `> sbt > gatling:testOnly load.LoadScript` Во время запуска в консоль будут поступать данные в формате: `2017-02-02 10:49:27 20s elapsed ---- BASIC_LOAD -------------------------------------------------------------------- [--------------------------------------------------------------------------] 0% waiting: 0 / active: 10 / done:0 ---- Requests ------------------------------------------------------------------ > Global (OK=5155 KO=0 ) > HTTP Request auth (OK=111 KO=0 ) > HTTP Request getSkills (OK=111 KO=0 ) > HTTP Request getResults (OK=111 KO=0 ) > HTTP Request completedtasksreport skill (OK=1610 KO=0 ) > HTTP Request completedtasksreport result (OK=1607 KO=0 ) > HTTP Request completedtasksreport skill and result (OK=1605 KO=0 )` Если какие-нибудь методы упадут, мы сразу увидим ошибку: `status.find.is(200), but actually found 500 1 (100,0%)` и запись в KO. После прогона отчет попадет в папку */target/gatling/SCRIPT\_NAME-TIMESTAMP*. В отчете мы видим все необходимые графики, включая персентили, количество запросов в секунду и распределение времени ответа. Также отчет содержит таблицу с полной информацией по методам: ![](https://habrastorage.org/r/w1560/files/2d1/12f/e57/2d112fe57e8c421bb8ca98e0561ad685.png) Если нас интересует конкретный метод, отдельно смотрим статистику по нему: ![](https://habrastorage.org/r/w1560/files/10f/2bc/a25/10f2bca257354c3f83e1e12e89ab74ad.png) ### Нагрузочное тестирование с чужой машины Если запуск скрипта и анализ результатов проводит ваш коллега, подготовьте его машину: 1. Скачайте [архив](https://repo1.maven.org/maven2/io/gatling/highcharts/gatling-charts-highcharts-bundle/2.2.3/gatling-charts-highcharts-bundle-2.2.3-bundle.zip). Распакуйте и скопируйте свой скрипт в папку */user-files/simulations/*. 2. Откройте папку */bin* и запустите *gatling.*. 3. Выберите свой скрипт в командной строке, нажмите нужную цифру. После этого начнется нагрузка. Результаты попадут в папку */results*. Чтобы посмотреть их, откройте *index.html* в любом браузере. В архиве вы найдете утилиту *recorder*. С ее помощью можно сгенерировать скрипт двумя способами: * на основе архива HAR — дамп-вкладки network в окне разработчика в браузере * используя утилиту в качестве прокси между браузером и веб-сервером Генерация скрипта с использованием рекордера не идеальна — в скрипте много «воды» и нет функций проверки ответов. Отчет трудно читать, методы в нем называются *request\_0, request\_1* и т. д. ### Что дальше В статье мы поговорили только об основных функциях Gatling. Это гибкий фреймворк, его возможности намного шире. В следующей статье: 1. Рассмотрим нагрузку сокетов. 2. Разберем рандомные ветвления. 3. Зададим RPS. 4. Сравним производительность Gatling с Jmeter. Напишите в комментариях, что вы хотели бы обсудить подробнее.
https://habr.com/ru/post/323316/
null
ru
null
# Portable Prism Посвящается фанатам [группы Microsoft Patterns&Practices](http://pnp.azurewebsites.net/en-us/) и просто любителям такой полезной штуки как [Microsoft PRISM](http://compositewpf.codeplex.com/). Разработчики, которые в своей практике встречались с Microsoft PRISM, вероятно, имеют двоякое мнение об этом фреймворке. С одной стороны, в своей по номеру 4-й, а по порядку 3-й, версии – это очень мощный и гибкий инструмент для создания композитных приложений, а с другой стороны довольно непонятная и запутанная библиотека. Но можно на PRISM взглянуть и просто как на реализацию шаблона MVVM, чем PRISM для Windows Phone по сути и является. Мне такая реализация MVVM очень нравится и когда я познакомился с Portable Class Library, я понял, что мне нужен портативный PRISM. Благо исходники PRISM доступны и переделать его на Portable Library было не очень сложной задачей. #### Портирование Задача собственно состояла в том, чтобы вынести всё общее в портативную часть и всё остальное в специфичную для платформы. Но, кроме того, что мне нравится PRISM, мне ещё нравится использовать его с MEF, а [MEF](http://mef.codeplex.com/) как раз с появлением PCL2.0 появился и для WinRT в виде [Microsoft.Composition](http://nuget.org/packages/Microsoft.Composition/). *К стати, кто не знает, Microsoft.Composition построен на PCL и при желании его можно построить для PCL и использовать в Windows Phone 8 или прямо в портативной библиотеке. Правда вот последней версии исходников, по которым построен NuGet пакет Microsoft.Composition, я на [сайте проекта на Codeplex](http://mef.codeplex.com/SourceControl/list/changesets) не нашёл.* Так что расширения MEF для PRISM для WinRT пришлось хорошенько изменить с тем чтобы PRISM смог работать с Microsoft.Composition. Тем не менее большинство модульных тестов удалось оставить сделав небольшие изменения. #### Абстрагирование и Fody Кто фундаментально разбирался с тем как работает PRISM знает, что там есть композитные события работа которых требует Dispatcher, а он ведь разный на разных платформах. Кроме того в версии для .NET использовался тип [WeakReference](http://msdn.microsoft.com/en-us/library/system.weakreference.aspx), которого нет на некоторых платформах. И мне не хотелось бы, вынуждать того, кто будет использовать Portable PRISM каждый раз писать какой-то инициализирующий код, который бы внедрил эти зависимости. И тут я узнал, что у каждой .NET сборки есть инициализатор – фактически статический конструктор, который выполняется единожды при загрузке сборки в приложение, но так просто его не пропишешь… И тут мне на помощь пришёл великолепный инструмент австралийца Саймона Кроппа ([Simon Cropp](http://simoncropp.com/)), [Fody](http://visualstudiogallery.msdn.microsoft.com/074a2a26-d034-46f1-8fe1-0da97265eb7a). *Этот проект родился из проекта расширения для Visual Studio [Notify Property Weaver](http://visualstudiogallery.msdn.microsoft.com/bd351303-db8c-4771-9b22-5e51524fccd3), который позволял, используя Mono.Cecil после построения, переписать свойства классов которые были наследниками INotifyPropertyChanged так, чтобы они сами вызывали событие изменения свойства при изменении его значения.* [Fody](http://visualstudiogallery.msdn.microsoft.com/074a2a26-d034-46f1-8fe1-0da97265eb7a) стал более универсальным продолжением [Notify Property Weaver](http://visualstudiogallery.msdn.microsoft.com/bd351303-db8c-4771-9b22-5e51524fccd3)’а, к которому можно подключить разные подключаемые модули которые перепишут определённую часть сборки. Для [Fody](http://visualstudiogallery.msdn.microsoft.com/074a2a26-d034-46f1-8fe1-0da97265eb7a) уже [написано](https://github.com/Fody) много [полезных модулей](http://nuget.org/packages?q=fody), которые можно поставить через NuGet в конкретный проект. Одним из таких плагинов является [ModuleInit.Fody](http://nuget.org/packages/ModuleInit.Fody/), который умеет прописать в инициализатор сборки вызов метода Initialize статического класса ModuleInitializer. ``` internal static class ModuleInitializer { public static void Initialize() { InitializeCompositePresentationEvent(); InitializeWeakEventHandlerManager(); } private static void InitializeCompositePresentationEvent() { var dispatcher = new Lazy(() => new DefaultDispatcher()); EventBase.InitializeDispatcher(dispatcher); } private static void InitializeWeakEventHandlerManager() { EventHandlerManager.Current = new WeakEventHandlerManager(); } } ``` Чем я благополучно и воспользовался. *Забавно, но [ModuleInitalizer'ы не работают в Windows Phone 7](https://connect.microsoft.com/VisualStudio/feedback/details/775602/wp7-1-1-module-initializers-are-not-executed-for-assemblies). И такое впечатление, что никто не собирается исправлять этот баг. Хорошо теперь хоть [статические конструкторы работают в подключаемых сборках](https://connect.microsoft.com/VisualStudio/feedback/details/722944/windows-phone-static-constructor-is-not-executed-for-class-in-separate-assembly).* #### Особенности порта **WinRT** В версию для WinRT не включены [регионы](http://msdn.microsoft.com/en-us/library/ff921098(v=pandp.40).aspx). У меня не было в них необходимости, а написать адаптер для Frame не возможно, так что я решил эту функциональность не переносить. Тем не менее исходники в проекте есть. Так что, вдруг кому-то понадобится их добавить, вы можете это сделать. **Windows Phone 8** В PRISM для Windows Phone 8 я в общем то скопировал функциональность PRISM для Windows Phone 7 добавив лишь WeakEvent так как он теперь доступен в Windows Phone SDK 8.0 и удалил классы касающиеся AppBar так как реализованы они там крайне криво. Я думаю, что гораздо лучше для работы с AppBar использовать библиотеку [Cimbalino](http://cimbalino.org/). #### Что сейчас доступно? И так какие же NuGet пакеты есть: * [Portable PRISM — Portable](https://nuget.org/packages/PortablePrism.Portable/) * [Portable PRISM — Portable — Interactivity](https://nuget.org/packages/PortablePrism.Portable.Interactivity/) * [Portable PRISM — WinRT](https://nuget.org/packages/PortablePrism.WinRT/) * [Portable PRISM — WinRT MEF extensions](https://nuget.org/packages/PortablePrism.WinRT.MEF/) * [Portable PRISM — Windows Phone 8](https://nuget.org/packages/PortablePrism.WP8/) * [Portable PRISM — Windows Phone 8 — Interactivity](https://nuget.org/packages/PortablePrism.WP8.Interactivity/) #### Что дальше? Я надеюсь, что мои пакеты будут полезны тем кому нравится PRISM или кто хочет что-либо реализованное с использованием PRISM перенести на новую платформу. Если кому-то нужны другие части PRISM в виде портативной версии, например, расширения для Unity для WinRT вы можете клонировать [проект Portable PRISM на GitHub](https://github.com/xperiandri/PortablePrism) и добавить их. Если не сможете построить проект, пишите. Я ещё не разобрался, как настроить .gitignore так, чтобы информация о NuGet пакетах коммитилась, а сами пакеты – нет, и их можно было повторно скачать. Так что, кто знает, как это сделать, подскажите, пожалуйста.
https://habr.com/ru/post/169471/
null
ru
null
# 11 библиотек (наборов компонентов) для React Native, о которых стоит знать в 2018-м В начале года мы опубликовали несколько материалов о популярных наборах компонентов для [React](https://habrahabr.ru/company/ruvds/blog/346090/), [Angular](https://habrahabr.ru/company/ruvds/blog/346218/) и [Vue](https://habrahabr.ru/company/ruvds/blog/346220/). Сегодня мы представляем вашему вниманию перевод статьи из той же серии, посвящённой React Native. Учитывая непрекращающийся рост популярности React, и то, что мобильные приложения и [PWA](https://blog.bitsrc.io/what-is-a-pwa-and-why-should-you-care-388afb6c0bad) становятся всё востребованнее, неудивителен тот факт, что [React Native](https://facebook.github.io/react-native/) привлекает всё большее внимание сообщества разработчиков. [![](https://habrastorage.org/r/w780q1/webt/_c/lx/w9/_clxw9h3ggu76xr83bp-69drvye.jpeg)](https://habr.com/company/ruvds/blog/420613/) Фреймворк React Native очень похож на React в том плане, что его применение подталкивает программиста к созданию пользовательских интерфейсов с использованием изолированных компонентов. Наборы таких компонентов, предназначенные для разработки интерфейсов, дают разработчикам готовые модули, использование которых помогает экономить время, ускоряя работу. Здесь мы обсудим одиннадцать наборов компонентов, которые отличаются хорошей поддержкой их создателей. Они, надеемся, пригодятся всем, кому приходится разрабатывать интерфейсы на React Native 1. NativeBase ------------- [NativeBase](https://github.com/GeekyAnts/NativeBase) — это кросс-платформенный набор компонентов пользовательского интерфейса для React Native. ![](https://habrastorage.org/getpro/habr/post_images/dd8/4fd/703/dd84fd703ecd2a12bddb4d1142e012fe.gif) *NativeBase* О серьёзной популярности NativeBase говорит то, что данный проект набрал около 10 тысяч звёзд на GitHub, и то, что у него имеется около тысячи форков. NativeBase даёт в распоряжение программистов десятки кросс-платформенных компонентов. При использовании NativeBase можно, без дополнительных усилий, применять любые нативные библиотеки сторонних разработчиков, да и вокруг самого этого проекта сложилась обширная экосистема, в которой имеется много всего полезного — от [средств](https://reactnativeseed.com/) для создания базовых проектов, до [инструментов](https://nativebase.io/nativebase-customizer) для разработки тем, служащих для настройки внешнего вида компонентов NativeBase. 2. React Native Elements ------------------------ Набор кросс-платформенных компонентов [React Native Elements](https://github.com/react-native-training/react-native-elements) собрал около 12 тысяч звёзд на GitHub. Компоненты из этого набора, полностью созданного средствами JavaScript, поддаются тонкой настройке. ![](https://habrastorage.org/getpro/habr/post_images/8ca/d52/21b/8cad5221b0715f1df9a8866f27898538.gif) *React Native Elements* Авторы набора [заявляют](https://medium.com/react-native-training/introducing-react-native-elements-e3d78389b7ea), что самое главное в React Native Elements — это структура компонентов, а не их дизайн. Это означает, что для настройки некоего компонента и подготовки его к работе нужно совсем немного шаблонного кода. При этом у того, кто использует эти компоненты, имеется возможность полностью контролировать их внешний вид. Такой подход к компонентам может привлечь внимание к ним широких слоёв веб-программистов — от начинающих, до опытных. [Вот](https://react-native-training.github.io/react-native-elements/) демонстрационное приложение, построенное на базе React Native Elements, с помощью которого можно увидеть компоненты этого набора в действии. 3. Shoutem UI Toolkit --------------------- Набор инструментов для разработки интерфейсов [Shoutem](https://shoutem.github.io/ui/), собравший около 3,5 тысяч звёзд на GitHub, состоит из трёх частей. Это — [компоненты](https://github.com/shoutem/ui) пользовательского интерфейса, [темы](https://github.com/shoutem/theme), и [анимации](https://github.com/shoutem/animation) компонентов. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ccc/b76/6f1/cccb766f1bd4257b76f82e5e9508fc49.png) *Shoutem* Shoutem даёт разработчикам набор кросс-платформенных компонентов, предназначенных для iOS и Android. Все компоненты созданы с учётом возможности их совместного использования. Их внешний вид можно [настраивать](http://github.com/shoutem/theme). У каждого компонента, кроме того, имеется стандартный стиль, согласующийся со стилем других компонентов. Это даёт возможность создания комплексных компонентов без необходимости вручную настраивать сложные системы стилей. 4. UI Kitten ------------ Набор компонентов [UI Kitten](https://github.com/akveo/react-native-ui-kitten), обладатель примерно 3 тысяч звёзд на GitHub, даёт в распоряжение разработчика React Native-компоненты, поддающиеся тонкой настройке и подходящие для повторного использования. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/40b/947/94f/40b94794f798542e87c85df665f5a214.png) *UI Kitten* В основе UI Kitten лежит идея перемещения определения стилей в определённое место, что помогает повторно использовать компоненты и облегчает настройку их внешнего вида. Темы, применяемые к компонентам, довольно легко менять, что называется, «на лету», передавая им разные наборы переменных. [Вот](https://expo.io/@akveo/ui-kitten-explorer-app) демонстрационный проект, поэкспериментировав с которым, можно познакомиться с UK Kitten поближе. 5. React Native Material UI --------------------------- Проект [React Native Material UI](https://github.com/xotahal/react-native-material-ui), имеющий около 2 тысяч звёзд на GitHub, даёт в распоряжение веб-разработчика набор компонентов пользовательского интерфейса, реализующих идеи Material Design от Google и поддающихся настройке. При работе с React Native Material UI стоит учесть то, что эта библиотека использует единственный JS-объект, называемый `uiTheme`, который, для обеспечения максимального уровня настраиваемости, передаётся через контекст. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/7f8/b21/110/7f8b21110afa913349cfd305598aad24.png) *React Native Material UI* По умолчанию объект `uiTheme` основывается на теме `lightTheme`, которую можно найти [здесь](https://github.com/xotahal/react-native-material-ui/blob/master/src/styles/themes/light.js). А [вот](https://github.com/xotahal/react-native-material-ui/blob/master/docs/Components.md) — список компонентов библиотеки с примерами их использования. 6. React Native Material Kit ---------------------------- Хотя пакет [React Native Material Kit](https://github.com/xinthink/react-native-material-kit) опубликован в NPM в декабре 2017 года, этот набор компонентов, имеющий около 4 тысяч звёзд на GitHub, стоит того, чтобы обратить на него внимание. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/454/aad/3cb/454aad3cbf0a68df59b8bbf47356ee68.png) *React Native Material Kit* React Native Material Kit предлагает разработчику коллекцию простых и удобных компонентов пользовательского интерфейса и тем, реализующих концепцию Material Design от Google. Почему этот набор компонентов достоин внимания? Всё дело в его простоте, и в том, что в нём нет ничего лишнего, создающего информационный «шум». Однако надо отметить, что из-за того, что эта библиотека не особенно активно поддерживается, пользоваться ей следует с осторожностью. 7. Nachos UI ------------ Библиотека [Nachos UI](https://github.com/nachos-ui/nachos-ui), имеющая около 1,5 тысяч звёзд на GitHub, предлагает разработчикам набор из более чем 30 настраиваемых компонентов, которые, помимо применения их в мобильной среде в составе React Native-приложений, подходят и для разработки веб-приложений с использованием [react-native-web](https://github.com/necolas/react-native-web). ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/1fe/330/126/1fe33012637e06585e636cc48369eaf5.png) *Nachos UI* Nachos UI поддерживает prettier, yarn и тестирование средствами jest. Эта приятная, качественно написанная библиотека, даёт в распоряжение всех желающих компоненты, обладающие интересным дизайном, и глобальный менеджер тем. 8. React Native UI Library -------------------------- Работой над проектом [React Native UI Library](https://github.com/wix/react-native-ui-lib) занимаются в [Wix](https://twitter.com/WixEng?ref_src=twsrc%5Egoogle%7Ctwcamp%5Eserp%7Ctwgr%5Eauthor). Он представляет собой ультрасовременный набор инструментов для разработки пользовательских интерфейсов и библиотеку компонентов для React Native. React Native UI Library поддерживает, без дополнительных усилий со стороны программиста, [react-native-animatable](https://github.com/oblador/react-native-animatable) и [react-native-blur](https://github.com/react-native-community/react-native-blur). ![](https://habrastorage.org/getpro/habr/post_images/2f1/e80/25f/2f1e8025f6d260d88b430539423eddb2.gif) ![](https://habrastorage.org/getpro/habr/post_images/751/a79/c82/751a79c8253a5a3f6f12418adebf7726.gif) *React Native UI Library* Эта библиотека включает в себя набор предустановок стилей (среди них — Colors, Typography, Shadows, Border Radius и другие), которые транслируются в модификаторы. [Вот](https://github.com/wix/react-native-ui-lib/tree/master/demo) пример использования React Native UI Library. 9. React Native Paper --------------------- Кросс-платформенная библиотека компонентов [React Native Paper](https://github.com/callstack/react-native-paper), обладающая примерно 1,5 тысячами звёзд на GitHub, следует идеям Material Design от Google. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e8b/470/5b5/e8b4705b50149f05407b71437c9a17b6.png) *React Native Paper* Этот набор компонентов поддерживает [глобальные темы](https://callstack.github.io/react-native-paper/theming.html). При необходимости, для того, чтобы избавиться от неиспользуемых модулей этого набора, можно воспользоваться соответствующим плагином для babel. [Вот](https://expo.io/@satya164/react-native-paper-example) пример использования React Native Paper. 10. React Native Vector Icons ----------------------------- Проект [React Native Vector Icons](https://github.com/oblador/react-native-vector-icons), собравший около 10 тысяч звёзд на GitHub, представляет собой [обширную коллекцию](https://oblador.github.io/react-native-vector-icons/) настраиваемых значков для React Native-приложений, подходящих для использования на различных платформах. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/146/c05/696/146c0569680de3129b3ab77567f722bc.png) *React Native Vector Icons* Значки из React Native Vector Icons применяются в тысячах приложений. Вполне возможно, что они пригодятся и вам. 11. Teaset ---------- В библиотеку [Teaset](https://github.com/rilyu/teaset), собравшую около 1300 звёзд на GitHub, входит более 20 компонентов, написанных на чистом JS (ES6). ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/cf5/b84/b4d/cf5b84b4daccf72b7ce8b2cc4e649a20.png) *Teaset* Проект не может похвастаться богатой документацией, но простота имеющихся в нём компонентов, ориентированных на обслуживание базовых потребностей React Native-приложений, и их приятный внешний вид, позволяют говорить о том, что на Teaset, по крайней мере, стоит взглянуть. Итоги ----- В начале этого материала мы говорили о том, что React Native привлекает всё большее внимание сообщества разработчиков за счёт распространённости React и популярности мобильных приложений. Поэтому неудивительно то, что число достойных разработок, реализующих наборы компонентов или вспомогательные инструменты для создания React Native-приложений, никак нельзя ограничить теми, что мы рассмотрели выше. Если вы занимаетесь поиском чего-то подобного для своего React Native-приложения, вот ещё несколько проектов, на которые стоит обратить внимание: * [React-Virgin](https://github.com/Trixieapp/react-virgin) * [Ignite CLI](https://github.com/infinitered/ignite) * [Snowflake](https://github.com/bartonhammond/snowflake) * [panza](https://github.com/panza-org/panza) * [Material React Native](https://github.com/binggg/mrn) * [iOS 10 iPhone GUI](https://facebook.design/ios10) * [React Native Calendars](https://github.com/wix/react-native-calendars) * [react-native-progress](https://github.com/oblador/react-native-progress) * [react-native-spinkit](https://github.com/maxs15/react-native-spinkit) * [lottie-react-native](https://github.com/react-community/lottie-react-native) * [React Native Material Design](https://github.com/react-native-material-design/react-native-material-design) **Уважаемые читатели!** Если вы разрабатываете мобильные приложения на базе React Native, просим рассказать о том, какие наборы компонентов и вспомогательные средства вы для этого используете. [![](https://habrastorage.org/r/w1560/files/1ba/550/d25/1ba550d25e8846ce8805de564da6aa63.png)](https://ruvds.com/ru-rub/#order)
https://habr.com/ru/post/420613/
null
ru
null
# Фантастические плагины, vol. 1. Теория Жизнь с многомодульным проектом не так уж проста. Чтобы избежать рутины создания нового модуля мы создали собственный плагин для Android Studio. В процессе реализации мы столкнулись с отсутствием практической документации, перепробовали несколько подходов и откопали множество подводных камней. Получилось две статьи: “Теория” и [“Практика”](https://habr.com/ru/company/hh/blog/463611/). Встречайте! ![image](https://habrastorage.org/r/w1560/webt/an/fg/dp/anfgdpffwxapeeei7coineoxdvk.png) О чем буду говорить? ==================== * Зачем плагин? Почему плагин? + Составление чек-листа + Варианты автоматизации чек-листа * Основы разработки плагинов + Actions + Разработка UI в плагинах + Выводы * Внутренности IDEA: компоненты, PSI + Внутреннее устройство IDEA + PSI + Выводы Зачем плагин? Почему плагин? ============================ Если вы разрабатываете многомодульный Android-проект, то знаете, какая это рутина – каждый раз создавать новый модуль. Вам нужно создать модуль, настроить в нем Gradle, добавить зависимости, дождаться синхронизации, не забыть что-то исправить в application-модуле – на все это уходит очень много времени. Нам захотелось автоматизировать рутину, и мы начали с составления чек-листа того, что делаем каждый раз, когда создаем новый модуль. 1. Во-первых, мы создаем сам модуль через меню File -> New -> New module -> Android library. ![image](https://habrastorage.org/r/w1560/webt/eo/nt/tk/eonttksy33ofpojuctkl8aoghuo.png) 2. Прописываем пути к модулю в файле settings.gradle, потому что у нас есть несколько видов модулей – core-модули и feature-модули, которые лежат в разных папках. **Прописываем пути к модулям** ``` // settings.gradle include ':analytics project(':analytics').projectDir = new File(settingsDir, 'core/framework-metrics/analytics) ... include ':feature-worknear' project(':feature-worknear').projectDir = new File(settingsDir, 'feature/feature-worknear') ``` 3. Меняем константы *compileSdk*, *minSdk*, *targetSdk* в сгенерированном *build.gradle*: заменяем их на константы, которые определены в рутовом *build.gradle*. **Меняем константы в build.gradle нового модуля** ``` // Feature module build.gradle … android { compileSdkVersion rootProject.ext.targetSdkVersion defaultConfig { minSdkVersion rootProject.ext.minSdkVersion targetSdkVersion rootProject.ext.targetSdkVersion ... } } ``` Примечание: эту часть работы мы недавно вынесли в наш Gradle-плагин, который помогает в несколько строк настроить все необходимые параметры *build.gradle* файла. 4. Поскольку весь новый код пишем на Kotlin, стандартно подключаем два плагина: *kotlin-android* и *kotlin-kapt*. Если модуль каким-то образом связан с UI, дополнительно подключаем модуль *kotlin-android-extensions*. **Подключаем плагины Kotlin-а** ``` // Feature module build.gradle apply plugin: 'com.android.library' apply plugin: 'kotlin-android' apply plugin: 'kotlin-android-extensions' apply plugin: 'kotlin-kapt' ``` 5. Подключаем общие библиотеки и core-модули. Core-модули – это, например, logger, аналитика, какие-то общие утилиты, а библиотеки – RxJava, Moxy и многие другие. **Подключаем общие библиотеки и модули** ``` // Feature module build.gradle dependencies { def libraries = rootProject.ext.deps compileOnly project(':logger') compileOnly project(':analytics') … // Kotlin compileOnly libraries.kotlin // DI compileOnly libraries.toothpick kapt libraries.toothpickCompiler } ``` 6. Настраиваем kapt для Toothpick-а. [Toothpick](https://github.com/stephanenicolas/toothpick) – это наш основной DI-фреймворк. Скорее всего вам известно: чтобы в релизной сборке использовать не рефлексию, а кодогенерацию, вам нужно донастроить annotation processor, чтобы он понимал, где брать фабрики для создаваемых объектов: **Настраиваем annotation processor для Toothpick** ``` // Feature module build.gradle defaultConfig { ... javaCompileOptions { annotationProcessorOptions { arguments = [ toothpick_registry_package_name: "ru.hh.feature_worknear" ] } } ... ``` Примечание: в hh.ru мы используем первую версию Toothpick, во второй [убрали возможность использовать кодогенерацию](https://github.com/stephanenicolas/toothpick/wiki/Factory-and-Member-Injector-registries). 7. Донастраиваем kapt для Moxy внутри созданного модуля. [Moxy](https://github.com/moxy-community/Moxy) – наш основной фреймворк для создания MVP в приложении, и [его нужно немножко докручивать](https://github.com/Arello-Mobile/Moxy/wiki/Multiple-modules), чтобы он мог работать в многомодульном проекте. В частности, прописать пакет созданного модуля в аргументы kapt-а: **Настраиваем kapt для Moxy** ``` // Feature module build.gradle android { ... kapt { arguments { arg("moxyReflectorPackage", "ru.hh.feature_worknear") } } ... ``` Примечание: мы уже перешли на [новую версию Moxy](https://github.com/moxy-community/Moxy), и эта часть кодогенерации потеряла свою актуальность. 8. Генерируем кучу новых файлов. Имею ввиду не те файлы, которые создаются автоматически (AndroidManifest.xml, build.gradle, .gitignore), а общий каркас нового модуля: интеракторы, репозитории, DI-модули, презентеры, фрагменты. Этих файлов очень много, они в начале имеют одну и ту же структуру, и создавать их – рутина. ![image](https://habrastorage.org/r/w1560/webt/j2/f5/sz/j2f5szalxm1nmgg4yj9kivxpdfs.png) 9. Подключаем наш созданный модуль к application-модулю. В этом шаге нужно не забыть донастроить Toothpick в build.gradle файле application-модуля. Для этого мы дописываем пакет созданного модуля в специальный аргумент annotation processor-а – *toothpick\_registry\_children\_package\_names*. **Донастраиваем Toothpick** ``` // App module build.gradle defaultConfig { … javaCompileOptions { annotationProcessorOptions { arguments = [ toothpick_registry_package_name: "ru.hh.android", toothpick_registry_children_package_names: [ "ru.hh.analytics", "ru.hh.feature_worknear", ... ].join(",") ] } } … ``` После этого донастраиваем Moxy в application-модуле. У нас есть класс, который отмечен аннотацией **@RegisterMoxyReflectorPackages** – туда мы добавляем название пакета созданного модуля: **Настраиваем MoxyReflectorStub** ``` // App module file @RegisterMoxyReflectorPackages( "ru.hh.feature_force_update", "ru.hh.feature_profile", "ru.hh.feature_worknear" ... ) class MoxyReflectorStub ``` И, в конце концов, не забываем подключить созданный модуль в блок *dependences* application-модуля: **Добавление dependencies** ``` // Application module build.gradle dependencies { def libraries = rootProject.ext.deps implementation project(':logger') implementation project(':dependency-handler') implementation project(':common') implementation project(':analytics') implementation project(':feature_worknear') ... ``` У нас получился чек-лист из девяти пунктов. Поскольку пунктов много, велика вероятность что-то забыть. А после этого часами гадать, что же произошло и почему проект не собирается. Мы решили, что так жить нельзя и нужно что-то менять. Варианты автоматизации чек-листа -------------------------------- После составления чек-листа мы начали искать варианты автоматизации его пунктов. Первым вариантом стала попытка сделать **“Ctrl+C, Ctrl+V”**. Мы попробовали найти реализацию создания модуля Android Library, которая доступна нам “из коробки”. В папке с Android Studio (для MacOs: */Applications/Android\ Studio.app/Contents/plugins/android/lib/templates/gradle-projects/*) можно отыскать специальную папку с шаблонами тех проектов, которые вы видите при выборе пункта File -> New -> New Module. Мы попробовали скопировать шаблон NewAndroidModule, поменяв id внутри файла *template.xml.ftl*. После чего запустили IDE, начали создавать новый модуль, и… Android Studio крашнулась, потому что список модулей, которые вы видите в меню создания нового модуля, жестко захардкожен, примитивным копи-пастом его изменить нельзя. При попытке взять и добавить, удалить или изменить какой-то элемент, Android Studio просто крашится. ![image](https://habrastorage.org/r/w1560/webt/ym/ww/sw/ymwwsw1rzibvaxwrhkqkwd5fqyk.png) Вторым вариантом автоматизации чек-листа мы рассматривали [движок шаблонов FreeMarker](https://freemarker.apache.org/). После неудачной попытки копипаста мы решили посмотреть на шаблоны модулей повнимательнее и обнаружили под капотом FreeMarker-овские шаблоны. Что такое FreeMarker подробно рассказывать не буду – есть [хорошая статья от RedMadRobot](https://habr.com/ru/company/redmadrobot/blog/274897/) и [видео с MosDroid от Леши Быкова](https://www.youtube.com/watch?v=H-gRJ3xsan0). Но если кратко – это движок для генерации файлов при помощи шаблонов и специальной Map-ки java-объектов. Вы подаете на вход шаблоны, объекты, и FreeMarker на выходе генерирует код. Но посмотрим еще раз на чек-лист: ![image](https://habrastorage.org/r/w1560/webt/nf/hl/81/nfhl811qacot1f4j_pt2fhsmm8k.png) Если приглядеться, то можно заметить, что он делится на две большие группы задач: * Задачи генерации нового кода (1, 3, 4, 5, 6, 7, 8) и * Задачи модификации существующего кода (2, 7, 8, 9) И если с задачами из первой группы FreeMarker справляется на ура, то со второй не справляется совсем. В качестве небольшого примера: в текущей реализации интеграции FreeMarker в Android Studio при попытке вставить в файл settings.gradle строчку, которая не начинается со слова 'include', [студия будет крашиться](https://github.com/JetBrains/android/blob/master/android/src/com/android/tools/idea/templates/RecipeMergeUtils.java#L75). Тут мы поймали грустного, и решили отказаться от использования FreeMarker. После неудачи с FreeMarker-ом возникла идея написать свою консольную утилиту для выполнения чек-листа. Внутри Intellij IDEA есть возможность использовать терминал, так почему бы и нет? Напишем скрипт на баше, всего делов: ![image](https://habrastorage.org/r/w1560/webt/t0/2h/ki/t02hki4jlkvs_7eaqisfbuqnyb0.png) Но коль скоро мы хотим иметь возможность гибко настраивать создаваемый модуль, нам придется вводить множество различных флажков, которые будет не очень удобно печатать в консоли. После этого мы сделали как бы шаг назад и вспомнили, что мы работаем внутри Intellij IDEA. А как она устроена? Есть некоторое ядро классов, движок, к которому прикреплено множество плагинов, которые добавляют нужную нам функциональность. Кто из вас видит на скриншоте больше, чем два подключенных плагина? ![image](https://habrastorage.org/r/w1560/webt/rf/fr/dm/rffrdmuui00uxtruelogjpor_le.png) **Куда смотреть-то?..**![image](https://habrastorage.org/r/w1560/webt/0m/uw/ua/0muwuamgty0p8kri2ywhq3dsbaw.png) Здесь их подключено как минимум три. Если вы работаете с Kotlin, то у вас включен Kotlin-плагин. Если работаете в проекте с Gradle, то включен и Gradle-плагин. Если работаете в проекте с системой контроля версий – Git, SVN или еще что-нибудь, – у вас включен соответствующий плагин для интеграции этой VCS. Мы посмотрели в [официальный репозиторий плагинов](https://plugins.jetbrains.com/search?correctionAllowed=true&orderBy=&pr=&search=) JetBrains, и оказалось, что официально зарегистрированных плагинов уже более 4000! Почти весь мир пишет плагины, и эти плагины могут делать все, что угодно: начиная от интеграции в IDEA какого-либо языка программирования и заканчивая специфичными тулзами, которые могут быть запущены изнутри IDEA. Короче, мы решили написать свой плагин. Основы разработки плагинов ========================== Переходим к основам разработки плагинов. Для начала вам потребуются всего три вещи: 1. [IntelliJ IDEA](https://www.jetbrains.com/idea/download/), минимум Community Edition (Можно работать и в Ultimate-версии, но особых преимуществ при разработке плагинов, это не даст); 2. Подключенный к ней [Plugin DevKit](https://www.jetbrains.org/intellij/sdk/docs/basics/getting_started/setting_up_environment.html) – это специальный плагин, который добавляет возможность писать другие плагины; 3. И любой JVM-ный язык, на котором вы хотите писать плагин. Это может быть Kotlin, Java, Groovy – что угодно. Начинаем с создания проекта плагина. Выбираем **New project**, пункт **Gradle**, отмечаем галочкой **IntelliJ Platform Plugin** и создаем проект. ![image](https://habrastorage.org/r/w1560/webt/je/rf/wd/jerfwdeqfmpzdef-_cypw4wahw8.png) Примечание: Если вы не видите галочки IntelliJ Platform Plugin – это означает, что у вас не установлен Plugin DevKit. После заполнения необходимых полей мы увидим пустую структуру плагина. ![image](https://habrastorage.org/r/w1560/webt/i2/sy/59/i2sy59dpr0pi8nlmhfyhson20h8.png) Давайте посмотрим на него внимательней. Он состоит из: * Папок, в которых вы будете писать код будущего проекта; (*main/java*, *main/kotlin*, etc); * *build.gradle* файла, в котором вы будете объявлять зависимости вашего плагина от каких-то библиотек, а также будете настраивать такую вещь, как [*gradle-intellij-plugin*](https://github.com/JetBrains/gradle-intellij-plugin). [*gradle-intellij-plugin*](https://github.com/JetBrains/gradle-intellij-plugin) – Gradle-овый плагин, который позволяет использовать Gradle в качестве системы сборки плагина. Это удобно, потому что почти каждый Android-разработчик знаком с Gradle и умеет с ним работать. Кроме того, gradle-intellij-plugin добавляет в ваш проект полезные gradle-таски, в частности: * runIde – эта задача запускает отдельный инстанс IDEA с плагином, который вы разрабатываете, чтобы вы могли его отлаживать; * buildPlugin – собирает zip-архив вашего плагина, чтобы вы могли его распространять либо локально, либо через официальный репозиторий IDEA; * verifyPlugin – эта задача проверяет ваш плагин на наличие грубых ошибок, которые могут не позволить ему интегрироваться в Android Studio или еще какую-то IDEA. Что еще полезного дает *gradle-intellij-plugin*? С его помощью становится проще добавлять зависимости от других плагинов, но про это мы поговорим чуть позже, а пока я могу сказать, что *gradle-intellij-plugin* – ваш бро, пользуйтесь им. Вернемся к структуре плагина. Самый важный файл любого плагина – [*plugin.xml*](https://www.jetbrains.org/intellij/sdk/docs/basics/plugin_structure/plugin_configuration_file.html). **plugin.xml** ``` com.experiment.simple.plugin Hello, world My company My first ever plugin - try to open Hello world dialog<br> com.intellij.modules.lang org.jetbrains.kotlin org.intellij.groovy ``` Это файл, который содержит в себе: * Метаданные вашего плагина: идентификатор, название, описание, информацию о вендоре, change log * Описание зависимостей от других плагинов; * Еще здесь можно указывать версию IDEA, с которой ваш плагин будет корректно работать * Также здесь описывают *Actions*. ### Actions Что такое [Actions](https://www.jetbrains.org/intellij/sdk/docs/basics/plugin_structure/plugin_actions.html)? Предположим, вы открыли меню для создания нового файла. На самом деле, каждый элемент этого меню был добавлен каким-то плагином: ![image](https://habrastorage.org/r/w1560/webt/al/8y/kg/al8ykgojltbksqkuqu5l8cww4fw.png) Actions – это точки входа в ваш плагин для пользователей. Каждый раз, когда пользователь нажимает на пункт меню, вы получаете управление внутри плагина, можете отреагировать на это нажатие и сделать то, что необходимо. Как создаются Actions? Давайте напишем простой Action, который будет показывать диалог с сообщением "Hello, World". **OpenHelloWorldAction** ``` class OpenHelloWorldAction : AnAction() { override fun actionPerformed(actionEvent: AnActionEvent) { val project = actionEvent.project Messages.showMessageDialog( project, "Hello world!", "Greeting", Messages.getInformationIcon() ) } override fun update(e: AnActionEvent) { super.update(e) // TODO - Here we can update our action (for example, disable it) } override fun beforeActionPerformedUpdate(e: AnActionEvent) { super.beforeActionPerformedUpdate(e) // TODO - This method calls right before 'actionPerformed' } } ``` Для создания Action-а мы, во-первых, создаем класс, который наследуется от класса *AnAction*. Во-вторых, мы должны переопределить метод actionPerformed, куда приходит специальный параметр класса *AnActionEvent*. Этот параметр содержит в себе данные о контексте выполнения вашего Action-а. Под контекстом понимается проект, в котором вы работаете, файл, который сейчас открыт у пользователя в редакторе кода, выбранные в дереве проекта элементы и другие данные, которые могут помочь в обработке ваших задач. Чтобы показать "Hello, world"-диалог, мы сначала получаем проект (как раз из параметра *AnActionEvent*), а затем используем утилитный класс *Messages* для показа диалогового окна. Какие [дополнительные возможности](https://www.jetbrains.org/intellij/sdk/docs/basics/action_system.html) внутри Action-а у нас есть? Мы можем переопределить два метода: *update* и *beforeActionPerformedUpdate*. Метод *update* вызывается каждый раз, когда меняется контекст выполнения вашего Action-а. Почему он может вам пригодиться: например, для обновления пункта меню, который был добавлен вашим плагином. Пусть вы написали Action, который может работать только с Kotlin-овскими файлами, а пользователь сейчас открыл Groovy-файл. Тогда в методе update вы можете сделать ваш action недоступным. Метод *beforeActionPerformedUpdate* похож на метод update, но вызывается прямо перед *actionPerformed*. Это последняя возможность повлиять на ваш Action. Документация рекомендует не выполнять в этом методе ничего “тяжелого”, чтобы он выполнялся, как можно скорее. Еще Actions можно привязывать к определенным элементам интерфейса IDEA и задавать им дефолтные комбинации клавиш для вызова – подробнее про это рекомендую почитать [вот тут](https://www.jetbrains.org/intellij/sdk/docs/basics/getting_started/creating_an_action.html). ### Разработка UI в плагинах Если вам нужен свой собственный дизайн диалогов, придется потрудиться. Мы разрабатывали свой UI, потому что хотели иметь удобный графический интерфейс, в котором можно было бы отметить несколько галочек, иметь селектор для значений enum-а и прочее. Plugin DevKit для разработки UI добавляет несколько action-ов, таких как *GUI form* и *Dialog*. Первый создает нам пустую форму, второй – форму с двумя кнопками: *Ok* и *Cancel*. ![image](https://habrastorage.org/r/w1560/webt/wd/bx/3r/wdbx3rhggovpfv-fey53fucs2aw.png) Окей, [дизайнер форм есть](https://www.jetbrains.com/help/idea/creating-and-opening-forms.html), но он… так себе. По сравнению с ним даже Layout designer в Android Studio выглядит удобным и хорошим. Весь UI разрабатывается на такой библиотеке, как Java Swing. Этот дизайнер форм генерирует человекочитаемый XML-файл. Если у вас не получается что-то сделать в дизайнере форм (пример: вставить несколько контролов в одну и ту же ячейку сетки и скрыть все контролы, кроме одного), нужно идти в этот файл и менять его – IDEA подцепит эти изменения. Почти каждая форма состоит из двух файлов: первый имеет расширение *.form*, это как раз и есть XML-файл, второй – это так называемый [*Bound class*](https://www.jetbrains.com/help/idea/bound-class.html), который можно писать на Java, Kotlin, да на чем хотите. Он выступает в роли контроллера формы. Неожиданно, но писать на Java его гораздо проще, чем на других языках. Потому что, например, тулинг для Kotlin-а пока не такой совершенный. При добавлении новых компонентов в работе с Java-классом эти компоненты автоматически добавляются в класс, а при изменении имени компонента в дизайнере, оно подтягивается автоматом. Зато в случае с Kotlin компоненты не добавляются – никакой интеграции не происходит, можно что-нибудь забыть и не понимать, почему ничего не работает. ### Резюмируем основы * Для создания плагина потребуется: IDEA Community Edition, подключенный к ней Plugin DevKit и Java. * gradle-intellij-plugin – ваш бро, он сильно упростит вам жизнь, рекомендую его использовать. * Не пишите собственный UI, если нет необходимости. В IDEA есть много утилитных классов, которые позволяют из коробки создать свой собственный UI. Если вам нужно что-то сложное – готовьтесь потрудиться. * В плагине может быть сколько угодно Action-ов. Один и тот же плагин может добавлять много функциональности вашей IDEA. Внутренности IDEA: компоненты, PSI ================================== Поговорим про кишочки IDEA, про то, как она устроена внутри. Рассказываю для того, чтобы у вас в голове ничего не рассыпалось, когда я буду объяснять практическую часть, и чтобы вы понимали, откуда что берется. Как устроена IDEA? На первом уровне иерархии стоит такой класс, как [*Application*](https://upsource.jetbrains.com/idea-ce/file/idea-ce-185284cee6096791c8bd0de0a9436d1eceac28bc/platform/core-api/src/com/intellij/openapi/application/Application.java). Это отдельный инстанс IDEA. На каждый инстанс IDEA создается один объект класса Application. Например, если вы запускаете одновременно AppCode, Intellij IDEA, Android Studio, у вас получатся три отдельных инстанса класса Application. Этот класс предназначен для обработки потока ввода-вывода. **Место Application в иерархии**![image](https://habrastorage.org/r/w1560/webt/rw/_y/vm/rw_yvmpfn1hyekftipxwuq-qxn8.png) Следующий уровень – класс [*Project*](https://upsource.jetbrains.com/idea-ce/file/idea-ce-322db66a1225cd23e828c7872db8ab187776220b/platform/core-api/src/com/intellij/openapi/project/Project.java). Это наиболее близкое понятие к тому, что вы видите, открывая новый проект в IDEA. Обычно Project нужен для получения других компонентов внутри IDEA: утилитных классов, менеджеров и многого другого. **Место Project в иерархии**![image](https://habrastorage.org/r/w1560/webt/xv/ku/z6/xvkuz6ezzzd5w5_c9suloyafcza.png) Следующий уровень детализации – класс [*Module*](https://upsource.jetbrains.com/idea-ce/file/idea-ce-4f9b5f89b2a19ce700b1373a465c16b28ed8ad52/platform/core-api/src/com/intellij/openapi/module/Module.java). В общем случае, модуль – это иерархия классов, сгруппированных в одну папку. Но здесь под модулями мы понимаем Maven-модули, Gradle-модули. Этот класс нужен, во-первых, для определения зависимостей между модулями, во-вторых – для поиска классов внутри этих модулей. **Место Module в иерархии**![image](https://habrastorage.org/r/w1560/webt/zr/vs/ah/zrvsahicec7gak2sfqhox2ldts0.png) Следующий уровень детализации – класс [*VirtualFile*](https://upsource.jetbrains.com/idea-ce/file/idea-ce-c7e453646ff4e8b28cac88459c8d4271b1032ec8/platform/core-api/src/com/intellij/openapi/vfs/VirtualFile.java). Это [абстракция над реальным файлом](https://www.jetbrains.org/intellij/sdk/docs/basics/architectural_overview/virtual_file.html), который лежит у вас на диске. Каждому реальному файлу может соответствовать несколько инстансов *VirtualFile*, но все они равны между собой. При этом, если реальный файл удален, то *VirtualFile* не удалится самостоятельно, а просто станет невалидным. **Место VirtualFile в иерархии**![image](https://habrastorage.org/r/w1560/webt/z8/4y/hq/z84yhqyl6tzv-1uwc_ersyhmqv0.png) С каждым *VirtualFile* связана такая сущность, как [*Document*](https://www.jetbrains.org/intellij/sdk/docs/basics/architectural_overview/documents.html). Она представляет собой абстракцию над текстом вашего файла. *Document* нужен, чтобы вы могли отслеживать события, связанные с [изменением текста файла](https://www.jetbrains.org/intellij/sdk/docs/basics/architectural_overview/documents.html): пользователь вставил строчку, удалил строчку, и т.д., и т.п. **Место Document в иерархии**![image](https://habrastorage.org/r/w1560/webt/fr/nc/qg/frncqgrdpc3xgtnn_txrhlvdcv0.png) Чуть сбоку от этой иерархии стоит класс [*Editor*](https://upsource.jetbrains.com/idea-ce/file/idea-ce-4f9b5f89b2a19ce700b1373a465c16b28ed8ad52/platform/editor-ui-api/src/com/intellij/openapi/editor/Editor.java) – это редактор кода. У каждого проекта может быть один *Editor*. Он нужен, чтобы вы могли отслеживать события, связанные с редактором кода: пользователь выделил строчку, где стоит каретка, и так далее. **Место Editor в иерархии**![image](https://habrastorage.org/r/w1560/webt/fk/kj/l-/fkkjl-c-t5nyehcwt6j-ywdhwf0.png) Последняя вещь, о которой я хотел поговорить – это [*PsiFile*](https://upsource.jetbrains.com/idea-ce/file/idea-ce-d044aaf846d6011959d1f72e0212115297e2e441/platform/core-api/src/com/intellij/psi/PsiFile.java). Это тоже абстракция над реальными файлами, но с точки зрения [представления элементов кода](https://www.jetbrains.org/intellij/sdk/docs/basics/architectural_overview/psi.html). PSI расшифровывается как Program Structure Interface – интерфейс структуры программы. **Место PsiFile в иерархии**![image](https://habrastorage.org/r/w1560/webt/ho/kn/l0/hoknl08rk2giwbxure86b3pqcva.png) А из чего состоит каждая программа? Рассмотрим обычный Java-класс. **Обычный Java-класс** ``` package com.experiment; import javax.inject.Inject; class SomeClass { @Inject String injectedString; public void someMethod() { System.out.println(injectedString); } } ``` Он состоит из указания пакета, импортов, классов, полей, методов, аннотаций, ключевых слов, типов данных, модификаторов, идентификаторов, ссылок на методы, выражений и токенов. И для каждого элемента существует своя абстракция [*PsiElement-ов*](https://www.jetbrains.org/intellij/sdk/docs/basics/architectural_overview/psi_elements.html). То есть каждая ваша программа состоит из *PsiElement-ов*. ![image](https://habrastorage.org/r/w1560/webt/ps/oa/2t/psoa2timve59g__naf1rrskzfdm.png) В свою очередь, [PsiFile](https://www.jetbrains.org/intellij/sdk/docs/basics/architectural_overview/psi_files.html) представляет собой древовидную структуру, где у каждого элемента может быть родитель и множество потомков. ![image](https://habrastorage.org/r/w1560/webt/mi/4j/f2/mi4jf2mdcqjc1huurmu2ca0hsfi.png) Хочется упомянуть, что PSI не равняется **абстрактному синтаксическому дереву**. Абстрактное синтаксическое дерево – это дерево представления вашей программы после прохождения парсером вашей программы, и оно **отвязано** от какого-либо языка программирования. PSI же, наоборот, **привязан** к конкретному языку программирования. Когда вы работаете с Java-классом, то имеете дело с джавовыми PsiElement-ами. Когда работаете с Groovy-классом — с PsiElement-ами языка Groovy, и так далее. Это важно учитывать, потому что если вы попытаетесь работать с неправильными PSI-элементами внутри какого-то языка программирования, то плагин будет работать не так, как вы хотите, – будет стрелять и крашиться. Почему еще важно знать про PSI – потому что PSI-структурой пронизана вся IDEA. Если при работе с кодом существующих программ вы не учитываете эту структуру, попробуете работать в обход, то ваш плагин будет работать совсем не так, как вы ожидаете. Про это я еще отдельно упомяну в практической части. ### Резюмируем часть про внутренности IDEA * PSI нужен для представления программы внутри IDEA; * PSI-структурой пронизана вся IDEA, о ней знают все плагины и вы тоже должны про нее знать; * Для каждого языка программирования существует своя собственная коллекция PsiElement-ов. На этом с теорией я закончу, впереди вас ждет [практическая часть](https://habr.com/ru/company/hh/blog/463611/). Чуть ниже я прикрепил список полезных и интересных ссылок на тему плагиностроения. Дополнительные материалы по плагиностроению ------------------------------------------- **Список статей*** [Про создание плагина для учета времени](https://habr.com/ru/post/270309/) * [Начало большого цикла статей, дополняющего документацию по плагинам](https://habr.com/ru/post/187106/) * [Создание собственного Tool window](https://habr.com/ru/post/281851/) * [Про расширение функциональности редактора кода](https://habr.com/ru/post/178217/) * [Маленький пример создания собственного плагина](https://habr.com/ru/post/148996/) * [Про добавление нового типа файла в IntelliJ IDEA](https://habr.com/ru/post/149100/) * [Про добавление возможности навигации по файлам внутри IDEA](https://habr.com/ru/post/161877/) * [Разработка своей ленты с картинками внутри IntelliJ IDEA](https://habr.com/ru/post/150829/) * С помощью плагинов, кстати, [можно встроиться](https://speakerdeck.com/marcosholgado/write-your-own-android-studio-plugin-and-automate-everything?slide=132) в меню создания новых модулей. Советую просмотреть всю презентацию, там показывается много интересных вещей. * Видео с [доклада на Droidcon Italy 2017](https://www.youtube.com/watch?v=znDROg5CzZw), в котором, помимо всего прочего, рассказывают, как можно из плагина создать диалог из FreeMarker-ного шаблона. У меня не получилось сходу повторить опыт докладчиков, но может быть вам повезет больше. * [Недавний доклад с KotlinConf](https://www.youtube.com/watch?v=j2tvi4GbOr4), в котором ребята из Square рассказывают о доработках своего плагина для SQLDelight, которые позволили им поддержать работу и с Java, и с Kotlin.
https://habr.com/ru/post/463583/
null
ru
null
# 111 Сегодня, в день программиста, нам преподнесли довольно оригинальный подарок: пользователь [lebnik](http://habrahabr.ru/users/lebnik/) [обвинил нас в том](http://habrahabr.ru/post/151325/), что один из его постов был нами скрыт в черновики и подвергнут изменению содержимого на «111». Поскольку речь зашла о нашей репутации, мы решили разобраться в ситуации — ведь сделать подобное не мог ни один модератор сайта и ни один из сотрудников компании. ![](https://habrastorage.org/r/w1560/storage2/118/e51/9e9/118e519e9c8fd5d437b79cd0367d297b.png) Самое «страшное», что делают в подобных случаях модераторы — переносят публикацию в соответствующий хаб (в 99% случаях посты переносятся в «Я пиарюсь» или «Я негодую»), а в случае нарушения в публикации правил сайта, она скрывается в черновики, а её автор переводится в режим «Read Only» с соответствующим уведомлением. Одно из обвинений [lebnik](http://habrahabr.ru/users/lebnik/) в наш адрес касалось ещё и того, что его запросы игнорировались службой поддержки — именно отсюда мы и решили начать расследование тайного заговора. В качестве программного обеспечения для обратной связи мы используем **Live Agent** от Quality Unit — отличное и многофункциональное решение, в котором много возможностей для оперативного решения пользовательских проблем. Первым делом ввели в поиске по заявкам все упомянутые адреса пользователя. Никаких результатов — это значит, что заявок не было, так как абсолютно все заявки рассматриваются и остаются в системе. Для полноты картины мы проверили Event Log хелпдеска — там по всем трём адресам тоже было пусто. ![](https://habrastorage.org/r/w1560/storage2/5d7/1d1/bd0/5d71d1bd0e1c36c35dcf6aceb1032678.png) Проблема нашлась, когда мы проверили папку «Спам» в почтовом аккаунте Google Apps (мы используем фильтры Gmail). Помимо многочисленного спама (в том числе из-за которого мы и перешли с почтового адреса на веб-форму), там были и обращения пользователей. Сейчас они перенесены во «Входящие» и мы обязательно ответим на каждое обращение. Многие заявки оказались неактуальными — повторные обращения пользователей, по всей видимости, “проходили”. Конечно, это скорее наша недоработка, что мы не начинали утро с проверки папки «Спам» в системной почте, с которой письма переадресовывались в helpdesk. Все негодования по поводу того, что «суппорт не отвечает» — лишь по этой причине, на все дошедшие письма мы всегда отвечаем (что удивительно, большинство адресов в «Спаме» были с почты на Gmail). Едем дальше. На Хабре ведутся логи всех изменений поста, ниже приведены логи изменений записи с id 149924, озаглавленной «Яндекс.Деньги мошенничество»: **Посмотреть историю изменений поста** ``` mysql> select num, user_id, remote_ip, post_id, from_unixtime(time_created), substr(data, 1, 400) from post_revisions where post_id=149924 \G *************************** 1. row *************************** num: 1 user_id: 58133 remote_ip: 2960188111 post_id: 149924 from_unixtime(time_created): 2012-08-20 22:42:33 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:50;}s:10:"userformat";N;s:13:"is_collective";s:1:"1";s:14:"is_corporative";N;s:10:"is_private";N;s:12:"is_published";s:1:"1";s:11:"tags_string";s:53:"мошенничество, яндекс-деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36474:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу, компания Яндекс.Деньги \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 2. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 2 user\_id: 58133 remote\_ip: 2960188111 post\_id: 149924 from\_unixtime(time\_created): 2012-08-20 23:02:52 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:50;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";N;s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:53:"мошенничество, яндекс-деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36564:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу, компания Яндекс.Деньги \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 3. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 3 user\_id: 58133 remote\_ip: 2960188111 post\_id: 149924 from\_unixtime(time\_created): 2012-08-20 23:03:18 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:50;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";N;s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:53:"мошенничество, яндекс-деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36611:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу, компания Яндекс.Деньги \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 4. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 4 user\_id: 58133 remote\_ip: 2960188111 post\_id: 149924 from\_unixtime(time\_created): 2012-08-20 23:30:07 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:50;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";N;s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:53:"мошенничество, яндекс-деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36613:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу, компания Яндекс.Деньги \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 5. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 5 user\_id: 3 remote\_ip: post\_id: 149924 from\_unixtime(time\_created): 2012-08-21 10:40:01 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:9743;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";s:1:"1";s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:53:"мошенничество, яндекс-деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36613:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу, компания Яндек \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 6. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 6 user\_id: 58133 remote\_ip: 2965381334 post\_id: 149924 from\_unixtime(time\_created): 2012-08-21 10:54:24 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:9743;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";s:1:"1";s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:53:"мошенничество, яндекс-деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:35821:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу, компания Яндек \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 7. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 7 user\_id: 58133 remote\_ip: 2965381334 post\_id: 149924 from\_unixtime(time\_created): 2012-08-22 11:10:27 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:9743;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";s:1:"1";s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:81:"мошенничество, яндекс-деньги, яндекс, деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:35896:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 8. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 8 user\_id: 58133 remote\_ip: 1209779521 post\_id: 149924 from\_unixtime(time\_created): 2012-09-04 03:35:06 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:9743;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";s:1:"1";s:12:"is\_published";N;s:11:"tags\_string";s:3:"111";s:5:"title";s:2:"11";s:4:"text";s:4:"1111";s:18:"translation\_author";N;s:4:"link";N;s:12:"answers\_type";N;s:11:"active\_till";N;s:20:"podcast\_external\_url";N;s:11:"podcast\_url";N;} \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 9. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 9 user\_id: 58133 remote\_ip: 1209779521 post\_id: 149924 from\_unixtime(time\_created): 2012-09-04 03:43:27 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:9743;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";s:1:"1";s:12:"is\_published";N;s:11:"tags\_string";s:1:"1";s:5:"title";s:2:"11";s:4:"text";s:4:"1111";s:18:"translation\_author";N;s:4:"link";N;s:12:"answers\_type";N;s:11:"active\_till";N;s:20:"podcast\_external\_url";N;s:11:"podcast\_url";N;} \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 10. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 10 user\_id: 58133 remote\_ip: 2965381334 post\_id: 149924 from\_unixtime(time\_created): 2012-09-12 10:29:39 substr(data, 1, 400): a:15:{s:4:"hubs";a:2:{i:0;i:591;i:1;i:9743;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";s:1:"1";s:12:"is\_published";N;s:11:"tags\_string";s:81:"мошенничество, яндекс-деньги, яндекс, деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36909:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу со \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 11. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 11 user\_id: 58133 remote\_ip: 2965381334 post\_id: 149924 from\_unixtime(time\_created): 2012-09-12 12:02:53 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:23;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";N;s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:81:"мошенничество, яндекс-деньги, яндекс, деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36909:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу, компан \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 12. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 12 user\_id: 58133 remote\_ip: 2965381334 post\_id: 149924 from\_unixtime(time\_created): 2012-09-12 12:34:26 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:23;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";N;s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:81:"мошенничество, яндекс-деньги, яндекс, деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36623:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу, компан \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* 13. row \*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\* num: 13 user\_id: 3 remote\_ip: post\_id: 149924 from\_unixtime(time\_created): 2012-09-12 13:16:18 substr(data, 1, 400): a:15:{s:4:"hubs";a:1:{i:0;i:9743;}s:10:"userformat";N;s:13:"is\_collective";s:1:"1";s:14:"is\_corporative";N;s:10:"is\_private";s:1:"1";s:12:"is\_published";s:1:"1";s:11:"tags\_string";s:81:"мошенничество, яндекс-деньги, яндекс, деньги";s:5:"title";s:52:"Яндекс.Деньги мошенничество";s:4:"text";s:36623:"Позавчера у меня украли 25 000 яндекс-денег (все что имелось), и я начал разбираться. Сразу сообщу 13 rows in set (0.01 sec) ``` **Легенда:** user\_id — идентификатор пользователя, редактировавшего пост (58133 — Lebnik, 3 — один из модераторов Хабра (deniskin)). IP 1209779521 => 72.27.197.65 => Cable and Wireless Jamaica, JM; IP 2965381334 => 176.192.32.214 => Net By Net, RU; IP 2960188111 => 176.112.226.207 => ITC Electron Ltd, RU; IP => IP модератора, скрыт НЛО. **Итак, что же всё это значит?** 1 — пользователь создал пост на «Хабре» с российского ip-адреса (2012-08-20 вечер, 176.112.226.207); 2-4 — пост был отредактирован автором с того же ip-адреса (2012-08-20 вечер, 176.112.226.207); 5 — модератор перенёс пост в «Я негодую» (2012-08-21 утро); 6-7 — пост немного отредактирован, тоже из России (2012-08-21 утро, 176.192.32.214); 8-9 — пост убран в черновики, его содержимое заменено на 11 с ямайского ip-адреса (2012-09-04, три ночи, 72.27.197.65); 10-12 — пользователь отредактировал пост из России (2012-09-12 обед, 176.192.32.214); 13 — модератор вновь перенес пост из хаба «Яндекс» в «Я негодую» (2012-09-12 обед). Мы видим здесь два варианта: либо злоумышленник увёл у пользователя автора статьи пароль от «Хабрахабра» (возможно, вместе с паролем от аккаунта в системе «Яндекс.Деньги» и другими сервисами, если использовался один и тот же пароль) и с помощью него отредактировал пост; либо злоумышленник — сам [Lebnik](http://habrahabr.ru/users/lebnik/), странным образом решивший разыграть драму (мы этого не утверждаем, но и не можем этого не предположить). Ниже приложен фрагмент лога nginx с запросами с ямайского IP-адреса: **Фрагмент лога nginx** ``` 72.27.197.65 - - [04/Sep/2012:03:26:23 +0400] "GET /login/ HTTP/1.0" 200 4694 "http://habrahabr.ru/" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:26:24 +0400] "GET /core/captcha/ HTTP/1.0" 200 9176 "http://habrahabr.ru/login/" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:27:10 +0400] "POST /json/auth/login/ HTTP/1.0" 200 54 "http://habrahabr.ru/login/" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:27:12 +0400] "GET / HTTP/1.0" 200 78374 "http://habrahabr.ru/login/" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:28:13 +0400] "GET /hubs/ HTTP/1.0" 500 0 "http://habrahabr.ru/" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:28:18 +0400] "GET / HTTP/1.0" 200 78585 "http://habrahabr.ru/login/" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:28:21 +0400] "GET /posts/top/ HTTP/1.0" 500 0 "http://habrahabr.ru/" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:28:25 +0400] "GET /posts/top/ HTTP/1.0" 500 0 "-" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:28:37 +0400] "GET /posts/top/ HTTP/1.0" 200 32584 "-" "Mozilla/5.0 (Windows NT 5.2) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.83 Safari/537.1" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:29:34 +0400] "GET /login/ HTTP/1.0" 200 4694 "http://habrahabr.ru/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:29:37 +0400] "GET /core/captcha/ HTTP/1.0" 200 9969 "http://habrahabr.ru/login/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:30:14 +0400] "POST /json/auth/login/ HTTP/1.0" 200 54 "http://habrahabr.ru/login/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:30:15 +0400] "GET / HTTP/1.0" 200 78396 "-" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:30:36 +0400] "GET /hubs/ HTTP/1.0" 200 41766 "http://habrahabr.ru/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:31:04 +0400] "GET /hub/infosecurity/ HTTP/1.0" 200 118476 "http://habrahabr.ru/hubs/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:31:40 +0400] "GET /users/lebnik/ HTTP/1.0" 200 24154 "http://habrahabr.ru/hub/infosecurity/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:32:13 +0400] "GET /post/149924 HTTP/1.0" 301 268 "-" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:32:15 +0400] "GET /post/149924/ HTTP/1.0" 200 1555326 "-" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:34:20 +0400] "GET /topic/edit/149924/ HTTP/1.0" 200 68843 "http://habrahabr.ru/post/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:35:01 +0400] "GET /json/suggest/?type=tags&query=111 HTTP/1.0" 200 127 "http://habrahabr.ru/topic/edit/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:35:06 +0400] "POST /json/topic/?action=save HTTP/1.0" 200 47 "http://habrahabr.ru/topic/edit/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:35:07 +0400] "GET /post/149924/ HTTP/1.0" 200 37522 "-" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:36:17 +0400] "GET /topic/edit/149924/ HTTP/1.0" 200 28929 "http://habrahabr.ru/post/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:36:49 +0400] "POST /json/topic/?action=save HTTP/1.0" 200 172 "http://habrahabr.ru/topic/edit/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:36:53 +0400] "POST /json/topic/?action=save HTTP/1.0" 200 172 "http://habrahabr.ru/topic/edit/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:37:01 +0400] "GET /users/lebnik/ HTTP/1.0" 200 24152 "http://habrahabr.ru/topic/edit/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:37:31 +0400] "GET /users/lebnik/topics/ HTTP/1.0" 200 21681 "http://habrahabr.ru/users/lebnik/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:37:46 +0400] "GET /settings/ HTTP/1.0" 200 49194 "http://habrahabr.ru/users/lebnik/topics/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:37:48 +0400] "GET /uploader/?t=avatar_image&name=avatar HTTP/1.0" 200 1275 "http://habrahabr.ru/settings/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:40:01 +0400] "GET /tracker/ HTTP/1.0" 200 17816 "http://habrahabr.ru/settings/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:40:29 +0400] "GET /post/149924/ HTTP/1.0" 200 37530 "-" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:41:05 +0400] "GET /search/?q=%5B111%5D⌖_type=posts HTTP/1.0" 200 20858 "http://habrahabr.ru/post/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:42:20 +0400] "GET /topic/edit/149924/ HTTP/1.0" 200 28929 "http://habrahabr.ru/post/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:43:02 +0400] "POST /json/topic/?action=save HTTP/1.0" 200 75 "http://habrahabr.ru/topic/edit/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:43:27 +0400] "POST /json/topic/?action=save HTTP/1.0" 200 47 "http://habrahabr.ru/topic/edit/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:43:28 +0400] "GET /post/149924/ HTTP/1.0" 200 37546 "-" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:43:51 +0400] "GET /users/Lebnik/ HTTP/1.0" 200 24152 "http://habrahabr.ru/post/149924/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:44:14 +0400] "GET /sandbox/47259/ HTTP/1.0" 200 21392 "-" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} 72.27.197.65 - - [04/Sep/2012:03:45:09 +0400] "GET /logout/Lebnik/431795170/ HTTP/1.0" 301 244 "http://habrahabr.ru/sandbox/47259/" "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" [habrahabr.ru] {Bonnie} ``` #### Резюмируя **Первое.** Мы никогда не удаляем и не производим вандальных действий с постами наших пользователей. **Второе.** Все обращения в службу поддержки не остаются без внимания — если долгое время нет ответа, то, скорее всего, ваше письмо просто не дошло до нас. **Третье.** В связи с тем, что публикации в хабе «Я негодую» в основном порождают драмы, склоки, разборки и прочую грязь, мы приняли решения удалить его и перенести все опубликованные в нем посты в оффтопик-хаб «Чулан». Мы считаем, что все личные проблемы (будь то кражи данных или денег, смс-мошенничество или некачественное предоставление услуг) следует решать в компетентных органах. Мы не собираемся больше тратить время на выяснение деталей и обстоятельств той или иной драмы. Поскольку речь касается нашей репутации, нам было интересно выяснить правду в этом вопросе, но в дальнейшем у нас нет желания оправдываться и доказывать, что мы белые и пушистые — мы хотим, как и вы, работать, развивать ресурс и не тратить время на контрпродуктивные вещи. Всех с праздником!
https://habr.com/ru/post/151358/
null
ru
null
# Как компания D-Link предоставляет исходные коды прошивок **Приветствую хабрчане!** У меня на работе есть несколько стареньких маршрутизаторов ***D-Link DI-524UP H/W Ver.: A1***, выпускавшихся в *2005-2006* годах и доставшихся мне по наследству от прошлого админа. Понятно, что эти устройства отслужили свое, устарели как морально, так и физически и давно лежат на полке, но меня подкупило то, что у этой модели есть *USB* порт, и в основу прошивки положена операционная система *Linux*. К сожалению, разработчики стоковой прошивки довольно сильно ограничили возможности для работы с *USB* портом: *DI-524UP не работает с USB модемами, флешками и внешними накопителями HDD*. Альтернативные, более функциональные и современные прошивки, такие как *OpenWRT* или *DD-WRT* существуют для устройств на таком же процессоре как и у *DI-524UP — Realtek RTL8650B*, но не поддерживают чип, отвечающий за работу *Wi-Fi RTL8185L*. Перспектива отказаться от беспроводного интернета меня не устраивает, а разбираться с добавлением поддержки *RTL8185L* и полной компиляцией *DD-WRT* или *OpenWRT* под мое железо показалась достаточно сложной задачей. Я подумал, что бы было неплохо попробовать немного переработать стоковую прошивку — добавить функциональности, скомпилировать и установить отдельные пакеты с программным обеспечением, на сколько хватит памяти в устройстве, пересобрать ядро и включить необходимую поддержку железа для *USB* порта. В конце *2013* года в некоторых моделях маршрутизаторов D-link обнаружена *уязвимость безопасности — программная закладка*, позволяющая злоумышленникам получить контроль над устройством. Подробности [обсуждались](http://habrahabr.ru/post/197314/) уже ранее на хабре. Естественным образом, в более ранней версии v.1.05 [прошивки](http://ftp.dlink.ru/pub/Router/DI-524UP/Firmware/A1/DI-524UP-dlink-v1.05.bix) от *15.11.2007* и ее исходных [кодах](http://tsd.dlink.com.tw/temp/download/2992/GPL_SourceCode_DI-524up_v1.05.tgz) от *25.03.2008* и более ранних эта закладка присутствует. После поднятого шума в конце *2013* года, компания *D-Link* выпустила обновления прошивки для *DI-524UP Ax* версия [v1.08b1](ftp://ftp2.dlink.com/PRODUCTS/DI-524UP/REVA/DIR-524UP_REVAx_FIRMWARE_1.08.B01.ZIP) и [v1.08b2](ftp://ftp2.dlink.com/PRODUCTS/DI-524UP/REVA/DI-524UP_REVAx_FIRMWARE_1.08.B02.ZIP) в которых закрыла данную уязвимость. Исходные коды этих прошивок производитель не выложил в открытый доступ. Т.к. в основу прошивки устройства входит ядро *Linux* и свободное программное обеспечение, то по условиям лицензии *GPL*, разработчик должен по требованию других лиц предоставлять свои исходные коды. Я [запросил](http://forum.dlink.ru/viewtopic.php?f=3&t=166302) исходные коды прошивки *v1.08* на форуме производителя. Через некоторое время появились ссылки на исходные [коды](http://ftp.dlink.ru/pub/Router/DI-524UP/GPL/GPL_Release_DI-524up_v1.08_b02.tgz) прошивки v1.08b2. Скачав и распаковав архивы, я решил пофайлово сравнить исходные коды версий *v1.05* и *v.1.08*. Полученный результат несколько меня озадачил. Найденные отличия приведены ниже под спойлером: **Отличия содержимого архивов исходных кодов прошивок версий v1.05 и v1.08b2**`diff -r ./1.05/GPL_Di524up/ ./1.08/GPL_Di524up/` `Только в ./1.08/GPL_Di524up/: D-Link` `Только в ./1.08/GPL_Di524up/: GPL` `Только в ./1.08/GPL_Di524up/: Offer` `Только в ./1.08/GPL_Di524up/user/goahead-2.1.4: original` `diff -r ./1.05/GPL_Di524up/vendors/Realtek/Di524up/Product.mk ./1.08/GPL_Di524up/vendors/Realtek/Di524up/Product.mk` `1,2c1,2` `< VERSIONPKG = v1.01` `< ALPHA_VERSION = v4.0.0b10` `---` `> VERSIONPKG = v1.08` `> ALPHA_VERSION = v5.0.1b02` `Только в ./1.08/GPL_Di524up/: Written` `mips-toolchain:/opt/_compare# ls -la ./1.08/GPL_Di524up/D-Link ./1.08/GPL_Di524up/GPL ./1.08/GPL_Di524up/Offer ./1.08/GPL_Di524up/user/goahead-2.1.4/original ./1.08/GPL_Di524up/Written` `-rw-r--r-- 1 root root 0 2014-08-07 12:11 ./1.08/GPL_Di524up/D-Link` `-rw-r--r-- 1 root root 0 2014-08-07 12:11 ./1.08/GPL_Di524up/GPL` `-rw-r--r-- 1 root root 0 2014-08-07 12:11 ./1.08/GPL_Di524up/Offer` `-rw-r--r-- 1 root root 0 2014-08-07 12:11 ./1.08/GPL_Di524up/user/goahead-2.1.4/original` `-rw-r--r-- 1 root root 0 2014-08-07 12:11 ./1.08/GPL_Di524up/Written` Таким образом, товарищи разработчики «схитрили» и просто **переписали в исходных кодах прошивки номер версии с v1.05 (?1.01) на v.1.08b2** и пытаются выдать их за последнюю версию. Об этих «манипуляциях» я [задал](http://forum.dlink.ru/viewtopic.php?f=3&t=166990) вопрос в техническую поддержку компании D-link. **UPD (27.12.2014)** С [сайта](http://tsd.dlink.com.tw/) убраны «исходные коды версии v1.05», подал запрос на восстановление в общем доступе исходных кодов именно этой версии — v1.05. **UPD2 (19.01.2014)** Похоже под v1.05 была выложена v1.01, поэтому её убрали с сайта, кроме того, если посмотреть под спойлером выше: `< VERSIONPKG = v1.01` `< ALPHA_VERSION = v4.0.0b10` в коде версии не соответствуют заявленным. **Продолжение следует...** **Ссылки**[Описание устройства на официальном сайте D-Link.](http://www.dlink.ru/ru/products/5/1216.html) [Описание устройства на WikiDevi.](https://wikidevi.com/wiki/D-Link_DI-524UP) Различные FTP сервера с прошивками к устройству [ftp://ftp.dlink.eu](ftp://ftp.dlink.eu/Products/di/di-524up/) [ftp://ftp.dlink.ru](ftp://ftp.dlink.ru/pub/Router/DI-524UP/) [ftp://ftp2.dlink.com](ftp://ftp2.dlink.com/PRODUCTS/DI-524UP/REVA/) [О лицензии GPL](https://ru.wikipedia.org/wiki/GNU_General_Public_License) [Официальные исходные коды для D-link DI-524UP](http://tsd.dlink.com.tw/downloads2008detail.asp) [Описание уязвимости.](http://www.devttys0.com/2013/10/reverse-engineering-a-d-link-backdoor/) [Официальная рекомендация по устранению уязвимости обновлением прошивки до версии v1.08b2.](http://www.dlink.com/uk/en/support/security) [FTP где я собрал подборку прошивок к устройству](ftp://83.149.7.238/pub/) Мои сообщения на форуме D-link [часть 1](http://forum.dlink.ru/viewtopic.php?f=3&t=166302) [часть 2](http://forum.dlink.ru/viewtopic.php?f=3&t=166990).
https://habr.com/ru/post/236997/
null
ru
null
# Реализация honeypot на маршрутизаторах Cisco ![](https://habrastorage.org/r/w780q1/webt/w8/x1/n-/w8x1n-0iyfkeg1-5jzexhxudfrq.jpeg) Пришла в голову мысль сделать на маршрутизаторе Cisco некое подобие известного пакета fail2ban, используя средства только самого маршрутизатора. Работает это так. В списке доступа, прикреплённом к интерфейсу граничного интернет-маршрутизатора, создаются правила-ловушки. Когда правило срабатывает, в лог записывается событие. Каждая строка такого события содержит специальную метку, чтобы их легче было отобрать. Лог анализируется, и все попавшие в ловушку IP адреса заносятся в специальную объектную группу. Эту группу можно использовать в том же списке доступа, чтобы забанить доступ злоумышленникам уже ко всем IP адресам и портам нашей сети. Для понимания этой статьи нужно знать, что такое списки доступа (access lists), и для чего они нужны, а также знать, как использовать в списках доступа объектные группы (object-group). #### Ловушки в списке доступа Например, напишем правило для входящего списка доступа, под которое попадают все попытки залезть из интернета на телнет порт наших устройств. Обратите внимание, что в конце правила, проставляется уникальная метка «HONEYPOT001». По ней потом мы будем искать срабатывания в логе. ``` ip access-list extended acl-WAN-In … deny tcp any any eq telnet log HONEYPOT001 … ``` Важно правильно выбрать критерии для ловушек. Попытки подключиться извне по 23-му порту (телнет), пожалуй, самые распространенные. В этом случае, объектная группа моментально будет заполнена IP адресами ботов со всего интернета, а память, выделяемая под списки доступа, просто закончится. Можно отлавливать попытки подключиться к вашему оборудованию по 22-му порту (ssh). Их на порядок меньше, чем по телнету. Можно отлавливать попытки обращения к какому-либо одному вашему устройству. Большое количество ботов лезет на порт 7547, пытаясь подключиться по протоколу CPE WAN Management. Ещё одним вариантом будет отлавливать попытки использования Smart Install Client, включенного на порту 4786. Также, можно сделать ловушку на 80-м порту, выбрав IP адрес, на котором у вас нет web-сервера. Тут главное, чтобы в неё не попались роботы поисковиков. Вот пример ловушки на IP адресе [192.0.2.10]. ``` ip access-list extended acl-WAN-In … deny tcp any host 192.0.2.10 eq www log HONEYPOT002 … ``` #### Анализ лога Логирование на маршрутизаторе, разумеется, должно быть заранее включено, тогда в лог попадает, что-то вроде этого: ``` 225435: Jan 11 08:57:13.838: %SEC-6-IPACCESSLOGP: list acl-WAN-In denied tcp 123.199.32.7(59472) -> 192.0.2.9(23), 1 packet [HONEYPOT001] ``` Мы видим, что с внешнего IP адреса [123.199.32.7] пошла попытка обращения на 23-й порт нашего IP адреса [192.0.2.9]. Метка «HONEYPOT001» в строке тоже присутствует. Кстати, [123.199.32.7] — реальный пойманный во время написания статьи злоумышленник. Для разбора лога будем использовать Embedded Event Manager (EEM) – инструмент автоматизации задач и настройки поведения программного обеспечения, встроенный в Cisco IOS. В конфигурационном режиме маршрутизатора создадим апплет, который анализирует лог и, при нахождении в строке лога метки «HONEYPOT001», вырезает IP адрес злоумышленника и добавляет этот адрес в объектную группу hosts BlackList. ``` event manager applet honeypot event syslog occurs 1 pattern "HONEYPOT001" action 100 regexp "([0-9]+\.[0-9]+\.[0-9]+\.[0-9]+)" "$_syslog_msg" result IP_address action 200 if $_regexp_result eq "1" action 210 cli command "enable" action 220 cli command "conf t" action 230 cli command "object-group network hosts-BlackList" action 240 cli command "h $IP_address" action 250 cli command "end" action 260 syslog msg "IP address $IP_address added to blacklist" action 270 end action 300 cli command "exit" ``` * когда в логе встречается очередная строка с меткой «HONEYPOT001», происходит событие; * в самом обработчике события из строки лога по шаблону «([0-9]+\.[0-9]+\.[0-9]+\.[0-9]+)» вырезается IP адрес атакующего, и присваивается переменной IP\_address (action 100); * если адрес успешно вырезан, и никаких проблем с разбором строки не случилось (action 200), то выполняются консольные команды, добавляющие IP адрес в объектную группу (action 210 – 250); * в лог делается запись о сработке ловушки (action 260). #### Блокировка доступа Первое, что приходит в голову – это использовать объектную группу для полной блокировки злоумышленников ко всем ресурсам нашей сети. Правило блокировки должно находиться в списке доступа выше правила с ловушкой, чтобы забаненный IP адрес не попадался в ловушку снова и снова. ``` ip access-list extended acl-WAN-In … deny ip object-group hosts-BlackList any … deny tcp any any eq telnet log HONEYPOT001 … ``` #### Амнистия Рано или поздно, объектная группа превысит все допустимые размеры, поэтому придется делать амнистию вычищая из нее старые IP адреса. Для этого напишем апплет, который будет это делать, например, один раз в неделю в полночь в воскресенье. На пути написания нам встретятся два подводных камня. Нельзя удалить объектную группу, которая используется в списке доступа. Поэтому сначала нужно выяснить номер строки списка доступа, в котором используется группа. В нашем примере это строка 60. Этот номер будем использовать, чтобы удалить строчку с группой из списка доступа, а потом вернуть назад на прежнее место. Нельзя создать пустую объектную группу. Поэтому сразу при создании группы мы добавим в нее IP адрес [255.255.255.255]. Этот адрес никогда не пересылается маршрутизаторами, соединяющими локальную сеть с другими сетями, поэтому мы не ожидаем соединений с него. ``` event manager applet DeleteBlackList event timer cron name timer-cron1 cron-entry "@weekly" action 100 cli command "enable" action 200 cli command "conf t" action 210 cli command "ip access-list ext acl-WAN-In" action 215 cli command "no 60" action 220 cli command "exit" action 225 cli command "no object-group net hosts-BlackList" action 230 cli command "object-group net hosts-BlackList " action 240 cli command "host 255.255.255.255" action 245 cli command "exit" action 250 cli command "ip access-list ext acl-WAN-In" action 255 cli command "60 deny ip object-group hosts-BlackList any" action 260 cli command "exit" action 265 cli command "end" action 300 syslog msg "Completed" action 400 cli command "exit" ``` * удаляем из списка доступа правило с объектной группой. (action 210 – 220); * удаляем саму группу (action 225); * создаем объектную группу заново, и вставляем в нее широковещательный IP адрес. (action 230 – 245); * возвращаем в список доступа правило на старое место. (action 250 – 260). #### Что делать, если не поддерживаются метки в списке доступа Многие IOS-ы, несмотря на то, что функция «ACL Syslog Correlation» в них заявлена, не разрешают помечать метками строки списков доступа. В этом случае можно воспользоваться так называемыми сгенерированными хэш-значениями. (device-generated hash value), которые будут добавляться в строки сообщений лога. Если же IOS-не поддерживает оба варианта, тогда придется немного усложнить разбор. Модифицируем правило с ловушкой в списке доступа. Вместо «log» будем использовать «log-input». ``` ip access-list extended acl-WAN-In … deny tcp any any eq telnet log-input … ``` В этом случае в лог будет дополнительно попадать информация о названии физического интерфейса и, возможно, об MAC адресе маршрутизатора-соседа, переславшего пакет. Например, в лог попадает вот такое сообщение: ``` Jan 11 00:20:23 172.25.100.43 2394768: Jan 10 20:20:22.808: %FMANFP-6-IPACCESSLOGP: SIP1: fman_fp_image: list acl-WAN-In denied tcp 123.199.32.7(7537) Port-channel1.88-> 192.0.2.9(23), 1 packet ``` Тогда правило активации события примет вот такой вид: ``` event syslog occurs 1 pattern "Port-channel1\.88-> 192\.0\.2\." ``` #### Что почитать Про однозначную идентификацию правил, сгенерировавших сообщение в лог: [ACL Syslog Correlation](https://www.cisco.com/c/en/us/td/docs/ios-xml/ios/sec_data_acl/configuration/15-sy/sec-data-acl-15-sy-book/sec-acl-syslog.pdf) Про Embedded Event Manager: [Embedded Event Manager Configuration Guide](https://www.cisco.com/c/en/us/td/docs/ios-xml/ios/eem/configuration/15-mt/eem-15-mt-book.pdf)
https://habr.com/ru/post/436280/
null
ru
null
# Composer & Packagist 101 ![image](https://habrastorage.org/r/w1560/files/d09/226/c53/d09226c536e54f66a4c0ebcf17f158f0.png) Привет, Хабр! Сегодня я хотел бы поговорить с вами о знакомых опытным PHP-девелоперам, но загадочных для новичков, штуках — Composer и Packagist. Не сомневаюсь, что для многих здесь текст не станет откровением. Материал для тех, кому с описанным ниже только предстоит столкнуться. Вы — PHP-разработчик, и вам нужен хороший менеджер зависимостей — как npm или Bundler? Вам надоело мучаться с pear? И вы не хотите вручную качать библиотеки с сайтов и обновлять все зависимости? Тогда самое время познакомиться с Composer и Packagist. #### Основы Начнем с объяснения, что такое Composer, а чуть позже поговорим и про Packagist. Composer — изначально менеджер зависимостей для PHP на уровне проекта. Это значит, что теперь нам не нужно мучиться с когда-то популярным pear, потому что для каждого проекта нужны свои версии библиотек и прочего. Теперь с помощью Composer все зависимости будут установлены в папку vendor в корне вашего проекта, и проекты не будут конфликтовать. Каждому проекту будет доступен свой набор установленных зависимостей. Также в composer.json можно задать секцию scripts. Если грамотно ее использовать, можно получить легкий деплой-менеджер. Но изучение этой секции оставляю вам в качестве домашнего задания :). Как это работает? Нужно просто создать файл composer.json в корне проекта и заполнить его согласно документации. Требуемый минимум в этом файле — набор зависимостей. По сути, это просто json-объект, ключ в котором — название нужного пакета, а значение — нужная для проекта версия. Для указания версий используется semver. Например, если для проекта нужны PHP минимум версии 5.4 и библиотека для логгирования monolog 1.9.\*, нужно указать следующий объект require. ``` "require": { "php": ">=5.4.0", "monolog/monolog": "1.9.*" } ``` Дальше просто нужно в командной строке выполнить команду composer update, и все новые зависимости будут подгружены в папку vendor, и вы сможете их использовать. Да, целиком PHP Composer не подтянет, но проверит, чтобы установленный на машине PHP был нужной версии. А если речь идет о библиотеках, Composer скачает пакет подходящей версии в папку vendor. Представьте ситуацию: мы наконец-то внедрили в свой проект Composer, вовсю его используем, в общем, мы — молодцы! Но в какой-то момент приходим к ситуации, когда и у разработчиков и на сервере стоят разные версии библиотек. Как быть? Для этого composer рядом с composer.json создает файл composer.lock. В него после команды composer update записывается точная информация о версиях, которые установлены. Его нужно закоммитить в систему контроля версий, и таким образом все разработчики, а также на сервере можно просто выполнить команду composer install, и будут установлены все библиотеки точно таких версий, которые описаны в этом файле. #### Пишем свой пакет Любой желающий разработчик имеет право создать свой composer пакет и выложить в Open Source. Этот процесс я и хочу описать дальше. Composer пакет по сути — это набор файлов, которые можно подключить в любой проект. Всё это можно отсортировать по папкам, как Вам только захочется. Главное, настроить автозагрузку composer. Какая же структура Composer пакета? Обязательным файлом для любого пакета является composer.json. Это файл в котором хранится вся информация про данный пакет: название, описание, список зависимостей, тип лицензии, и так далее. Вот пример composer.json простого пакета. ``` { "name": "dataart/package", "type": "library", "description": "Composer package by DataArt", "license": "MIT", "require": { "php": ">=5.4.0", "illuminate/support": "~4.2" }, "autoload": { "psr-4": { "Dataart\\Package\\": "src/" } } } ``` Name — имя пакета (формат vendor/name). Type — тип пакета, данный пакет — библиотека Description — описание пакета. License — тип лицензии. Require — список зависимостей данного пакета. Для него требуется версия PHP не менее 5.4.0 и пакет illuminate/support. Все версии описываются по semver. Autoload — настройки автозагрузки. В данном случае указано, что неймспейс Dataart\Package начинается в папке src. Т. е. у всех файлов, которые лежат в папке src, должен быть неймспейс Dataart\Package. Если, например, хотите создать класс User и сохранить файл класса в папке Models, неймспейс класса User должен быть Dataart\Package\Models. В папке src хранятся все нужные для работы пакета файлы. Рекомендуется рядом с папкой src сделать папку tests, и покрыть библиотеку тестами. Далее вся папка, в которой лежит composer.json, должна быть закоммичена на Github. Можно на Bitbucket, но все используют именно Github. Также composer имеет некоторое количество консольных команд, которые призваны ускорить работу с ним. ##### init запустит для вас интерактивную инициализацию composer проекта и, задав несколько основных вопросов, сгенерирует composer.json-файл. ##### install считывает composer.json, разрешает зависимости и устанавливает их в папку vendor. Если в папке есть файл composer.lock, будут использованы точные версии, указанные в файле. Это даёт возможность всем разработчикам иметь одинаковые версии всех библиотек. ##### update используется, чтобы получить новые версии пакетов, тем самым обновить composer.lock. Также используется, если добавились новые зависимости. Может использоваться также с параметрами. composer update vendor/package1 vendor/package2 обновит только два пакета. Также можно обновить все пакеты одного вендора командой composer update vendor/\* ##### require добавляет новые зависимости из командой строки. Например, composer require vendor/package:2.\* vendor/package2:dev-master. Если не указать версию, composer автоматически подтянет последнюю стабильную версию. ##### remove точная противоположность require. ##### dump-autoload обновить autoloader, если появились новые классы или правила автолоадинга. К командам install, update и dump-autoload можно добавить ключ —optimize-autoloader (-o), чтобы конвертировать правила автозагрузки psr-0/4 в «карту классов», чтобы ускорить автозагрузку. Рекомендуется для production окружения. #### Open Source It Закоммитили? Круто, но composer всё равно почему-то не находит пакет и не может его подтянуть для другого проекта. Как быть? Да, можно указывать конкретные адреса svn/git репозиториев в composer.json, но это неудобно. Намного удобнее иметь какой-то центральный пункт, где есть соответствия пакетов с их адресами репозиториев. Это [Packagist](https://packagist.org/). Он используется для публикации composer пакетов. Опубликовать свой пакет туда очень легко. Достаточно зарегистрироваться на сервисе (или используя Github аккаунт через oAuth2), далее перейти по ссылке Submit Package, указать URL репозитория, а Packagist всё остальное сам подтянет и периодически будет проверять репозиторий на наличие новых версий. Как происходит версионирование? Версионировать надо согласно системе [semver](http://semver.org/). А указывать версии пакетов, используя тэги в системе контроля версий. Всё очень просто! Создавайте свои пакеты, публикуйте их и становитесь полноценным участником Open Source сообщества. Установить composer можно на [getcomposer.org](https://getcomposer.org/). Посмотреть все доступные PHP-пакеты можно на [packagist.org](http://packagist.org).
https://habr.com/ru/post/255739/
null
ru
null
# Использование нативных Places от Apple ![image](https://habrastorage.org/r/w1560/webt/wg/mk/7p/wgmk7pk9kfkatujkomconugqpg8.png)Несколько лет назад я работал над проектом, который должен был иметь схожие функции со Snapchat и при этом быть узко тематическим Instagram-подобным приложением. Проект разрабатывался только под одну платформу — iOS. Естественно, во время разработки основной фичи — публикация фотографий, клиент внезапно захотел дополнительно добавить возможность отмечать место, где было сделано фото. В большинстве случаев, многие сразу вспоминают про Places API от Google и Facebook, но клиента не устраивал тот факт, что данные решения имели определенные лимиты. Поэтому после дополнительного ресерча, был найден еще один альтернативный вариант от Apple — [CLPlacemark](https://developer.apple.com/documentation/corelocation/clplacemark), который был бесплатным, и в документации на тот момент не было упоминаний о лимитах для ежедневного использования. Поскольку разработка для других платформ вообще изначально не планировалась, это казалось очень подходящим вариантом. Документация Apple показывает, что CLPlacemark может предоставлять много подробностей о точке, а так же есть [метод](https://developer.apple.com/documentation/corelocation/clgeocoder/1423509-geocodeaddressstring) у [CLGeocoder](https://developer.apple.com/documentation/corelocation/clgeocoder) который позволяет легко, по названию места, вернуть массив CLPlacemark с нужными данными. Как оказалось, работает это все не настолько радужно. Исходный код выглядел примерно так: ``` import CoreLocation let geocoder = CLGeocoder() func findPlace(name: String) { geocoder.geocodeAddressString(name) { placemarks, error in print(placemarks) } } findPlace(name: “New”) ``` При таком простом раскладе, geocoder всегда возвращает массив CLPlacemark, но загвоздка оказалась в том, что этот массив никогда не содержит более одного элемента. В итоге, на весь экран, где ожидался большой список плейсментов вроде: New York, New Zeland, Магазин New Balance и т.п, я получал только один какой-то элемент, который даже не всегда был релевантным тому, что я вводил. После некоторой безуспешной борьбы с CLGeocoder мне коллега подсказал: “А ты не думал попробовать посмотреть, может у MapKit есть подобная возможность?” Как оказалось, MapKit имеет [MKLocalSearch](https://developer.apple.com/documentation/mapkit/mklocalsearch), где мы можем получать массив [MKPlacemark](https://developer.apple.com/documentation/mapkit/mkplacemark), который наследуется от CLPlacemark. Схема, выглядела вполне рабочей, поэтому я начал пробовать этот подход: ``` import MapKit let request = MKLocalSearchRequest() var localSearch: MKLocalSearch? func findPlace(name: String) { request.naturalLanguageQuery = text localSearch = MKLocalSearch(request: request) localSearch?.start { (searchResponse, _) in guard let items = searchResponse?.mapItems else { return } print(items) } } findPlace(name: “New) ``` **Результат**![](https://habrastorage.org/r/w780q1/webt/ca/lz/7l/calz7lugmo8zxu97zizbenvnqbi.jpeg) В данном случае, я получал в ответ массив с уже 10 элементами CLPlacemark. Такой результат выглядел более приемлемым, потому что в результате предоставлялся достаточный перечень. Но далеко не всегда, при начале ввода названия какого-либо из заведений, расположенных рядом, оно сразу показывало нужный результат. К примеру, рядом со мной находится Domino's Pizza. Мне хотелось, что бы когда я ввожу в строке такой запрос, в первую очередь получать заведения как можно ближе ко мне. Я принялся изучать, на основе чего формируется массив, и как его можно улучшить. Я определил несколько вещей, которые могут влиять на выбор параметров: 1. IP адрес с которого делается запрос к Apple. При включенном VPN объекты в выдаче были уже более приближены к локации VPN сервера. 2. Текущая локация пользователя. Если будут передаваться в запрос текущие координаты пользователя, то результаты получатся намного точнее. 3. Системный язык устройства. **Пример без VPN**![](https://habrastorage.org/r/w780q1/webt/t1/zt/os/t1ztoss0yanftclwrzckdemegda.jpeg) **Примеры с VPN****New York** ![](https://habrastorage.org/r/w780q1/webt/c_/yj/bp/c_yjbpjus2nwmag4dm33cbotuai.jpeg) **Toronto** ![](https://habrastorage.org/r/w780q1/webt/qv/by/rf/qvbyrf2bv3xlwjgf7f7dbn6d--i.jpeg) **Kyiv** ![](https://habrastorage.org/r/w780q1/webt/br/7-/uj/br7-uj3dnanlwpoxfu5edxigfb4.jpeg) **London** ![](https://habrastorage.org/r/w780q1/webt/vt/4i/yt/vt4iyt0qhs0bcltjduaf53gz3pk.jpeg) **Frankfurt** ![](https://habrastorage.org/r/w780q1/webt/he/8x/hd/he8xhd7wg_er5xusctuvya1w138.jpeg) Вполне возможно, есть и другие факторы, которые могут влиять на результаты поиска, но мне было этого достаточно для достижения нужного результата. Дальнейшим ходом разработки было использование текущей локации девайса. ``` import UIKit import MapKit import CoreLocation final class ViewController: UIViewController, CLLocationManagerDelegate { private let locationManager = CLLocationManager() private let request = MKLocalSearch.Request() private var localSearch: MKLocalSearch? private var region = MKCoordinateRegion() override func viewDidLoad() { super.viewDidLoad() if CLLocationManager.locationServicesEnabled() { locationManager.delegate = self locationManager.desiredAccuracy = kCLLocationAccuracyBest locationManager.requestWhenInUseAuthorization() locationManager.startUpdatingLocation() } } func searchPlace(_ place: String) { localSearch?.cancel() request.naturalLanguageQuery = place request.region = region localSearch = MKLocalSearch(request: request) localSearch?.start { [weak self] response, error in let mapItems = response.mapItems // получаем ответ в формате MKMapItem } } // MARK: - CLLocationManagerDelegate func locationManager(_ manager: CLLocationManager, didUpdateLocations locations: [CLLocation]) { guard let lastLocation = locations.last else { return } let span = MKCoordinateSpan(latitudeDelta: 0.5, longitudeDelta: 0.5) region = MKCoordinateRegion(center: lastLocation.coordinate, span: span) } } ``` **Результат**Текущая локация девайса — Мадрид, интернет провайдер Vodafone ES ![](https://habrastorage.org/r/w780q1/webt/rb/fp/5u/rbfp5uei98rnxz9iqfcso_nm2-y.jpeg) В методе делагата didUpdateLocations, мы создаем [MKCoordinateSpan](https://developer.apple.com/documentation/mapkit/mkcoordinatespan). Если я правильно понял документацию Apple, то чем меньше значение мы ставим latitude/longitude Delta, тем более узким (и точным) будет указываться наш текущий регион, поскольку он является своеобразным зумом на наших текущих координатах в MapKit. После этого, действительно, приоритет выдачи изменился и мне показывало в первую очередь те места, которые рядом со мной. Осталось только сделать более красивыми названия в списке. Так как иногда, некоторые свойства у CLPlacemark могут иметь одинаковые названия, в итоге это будет не очень красиво выглядеть: New York, New York, NY. Для этого необходимо создать отдельную Структуру, которая будет формировать красивое название в списке. ``` import Foundation import MapKit struct Placemark { let location: String init(item: MKMapItem) { var locationString: String = "" if let name = item.name { locationString += "\(name)" } if let locality = item.placemark.locality, locality != item.name { locationString += ", \(locality)" } if let administrativeArea = item.placemark.administrativeArea, administrativeArea != item.placemark.locality { locationString += ", \(administrativeArea)" } if let country = item.placemark.country, country != item.name { locationString += ", \(country)" } location = locationString } } ``` Тогда уже в ответе на поиск, мы можем легко смапить CLPlacemark в созданную структуру и передать ее в список. ``` localSearch?.start { [weak self] searchResponse, error in guard let items = searchResponse?.mapItems else { return } // Конвертируем CLPlacemark в созданную структуру let placemarks = items.map { Placemark(item: $0) } } ``` Теперь выдача смотрится более элегантно и ее можно уже использовать в проекте для отметок своих посещенных локаций. Один из основных недостатков заключается в том, что использовать данное решение можно только если проект заточен под iOS/Mac OS. Если же проект подразумевает разработку для других платформ, я бы рекомендовал использовать решение от [Google](https://developers.google.com/places/web-service/search) или [Facebook](https://developers.facebook.com/docs/places/). Так же, не во всех регионах идеально определяются все локации. Итоговый код проекта вы можете посмотреть в [репозитории](https://github.com/iTehdrew/ApplePlacemarkExample).
https://habr.com/ru/post/462465/
null
ru
null
# Выведите подход «infra-as-code» на новый уровень ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/4f7/74f/3e2/4f774f3e2d9446904b096f95822364da.jpg)«Spacelift» - это специализированная совместимая с [Terraform](https://www.terraform.io/) платформа CI/CD для подхода «Инфраструктура как код». Она была разработана и внедрена опытными DevOps-инженерами на основе их предыдущего опыта с крупномасштабными ПО - а именно с помощью нескольких десятков команд, сотен инженеров и десятков тысяч облачных ресурсов. При этом стартовать работу со Spacelift очень легко. Можно начать с нуля, и менее чем за одну минуту перейти к полному управлению вашего облачного хранилища без какой-либо предварительной подготовки. Она прекрасно интегрируется с такими крупными платформами как [GitHub](https://docs.spacelift.io/integrations/source-control/github) и [AWS](https://docs.spacelift.io/integrations/cloud-providers/aws). ### Нужен ли другой CI/CD для вашей инфраструктуры? Да, мы уверены, что это хорошая идея. Мы не живем в идеальном мире, где одной CI-системы будет достаточно, чтобы охватить все варианты использования. Обычные CI-настройки помогут вам начать легко, но Terraform имеет довольно необычную модель исполнения и тяготеет к сохранению состояния. Также остерегайтесь значительных радиусов поражения, если что-то пойдет не так. Мы думаем, что «Spacelift» предлагает идеальное сочетание универсальности обычного CI и методологическую строгость специализированного, ориентированного на безопасность инфраструктурного инструмента – этого достаточно, чтобы попробовать платформу, даже если в настоящее время вы довольны настройкой CI/CD в формате **«**Инфраструктура как код». В следующих разделах мы попытаемся отразить главные вызовы в запуске Terraform в системе CI общего назначения, а также покажем, как Spacelift отвечает на них. В конечном счете, всё это, в основном, про два аспекта – коллаборацию и безопасность. ### Коллаборация > Погодите, разве CI строится не ради коллаборации? > > Да, предполагая инструменты и настройки без сохранения состояния. Управление сборкой с отсутствием состояния и их тестирование – это то, в чём обычный процесс CI чрезвычайно хорош. Но многие из нас знают, что правильное развертывание осуществить сложнее. И вряд ли это сюрприз. Они могут быть с отслеживанием состояния, так как могут зависеть от того, что уже было запущено. «Terraform» и ваша инфраструктура в целом - это **наиболее яркий пример системы с сохранением состояния** (“[state](https://www.terraform.io/language/state)” даже  отдельно прописано как одна из ключевых концепций продукта). В CI обычно возникают трудности с этим. В действительности они не понимают рабочие процессы, которыми управляют, поэтому они не могут, например, преобразовать определенные виды задач, как «terraform apply», который внедряет действительные изменения в вашу инфраструктуру. Поскольку ваша CI-система озадачена, управляя ими параллельно, она становится уязвимой. Но то, что она делает с terraform, не что иное, как катастрофа – ваше состояние запутано и больше не представляет какую либо реальность. Распутывание этой неразберихи может занять целую вечность. > Но вы можете добавить этапы утверждения вручную > > Да, вы можете. Но весь смысл вашей CI/CD-системы - автоматизировать вашу работу. Прежде всего, для высококвалифицированного и мотивированного профессионала становиться человекосемафором для ПО не есть самое лучшее применение. Кроме того, чрезмерная зависимость от людей для отслеживания процессов неизбежно приведет к ошибкам с высокими затратами, потому что мы, люди, гораздо больше подвержены ошибкам, чем хорошо запрограммированные машины. В конечном итоге, использовать правильный инструмент для выполнения задачи намного дешевле, чем становиться частью этого инструмента. > Но вы можете сделать [состояние заблокированным](https://www.terraform.io/language/state/locking)! > > Да, мы понимаем ваше предложение. В теории, это отличная функция. На практике же она имеет свои ограничения. Во-первых, для работы в команде это сложно. Ваш CI не сериализует задачи, которые могут записывать состояние, и блокировка состояния означает что все параллельные задачи за исключением одной просто потерпят неудачу. По умолчанию это безопасный вариант, но не лучший опыт для разработчика. И чем больше люди работают в вашей инфраструктуре, тем более разочаровывающим станет этот процесс. И это только применение изменений. По умолчанию, выполнение “terraform plan” блокирует состояние тоже. Поэтому в действительности вы не можете управлять множественными CI задачами параллельно, даже если они предназначены только для предварительного просмотра изменений, потому что каждый из них попытается заблокировать состояние. Да, вы можете работать в обход, не блокируя состояние напрямую в CI-задачах, которые, вы знаете, не внесут каких-либо изменений состояния, но на этом этапе вы уже вложили столько работы в создание пайплайна, который при лучшем раскладе является ненадежной и требует от вас ручной синхронизации. И это мы еще даже не обсудили безопасность. ### Безопасность «Terraform» используется, чтобы управлять инфраструктурой, которая, как правило, нуждается в учетных данных. Обычно в очень привилегированных, иногда - в административных учетных данных. И они могут причинить много вреда. Особенность CI в том, что вам нужно предоставить эти учётные данные, и, сделав это однажды, у вас не будет способа проконтролировать, как они используются. И это то, что делает CI важным – в конце концов, он позволяют вам запускать произвольный код, как правило, основанный на некоторых конфигурационных файлах, которые вы зарегистрировали в вашем коде «Terraform». Ну, и что же остановит какого-нибудь шутника при добавлении `terraform destroy -auto-approve` как дополнительного CI-шага? Или распечатки учетных данных и использования их для майнинга выбранной криптовалюты? > Способы уволиться есть и получше > > …Скажете вы, и мы согласны. Всё-таки, эти задачи проверяются. И даже если бы мы были недовольными работниками, мы бы все равно не сделали что-то настолько глупое. Мы получили бы «SSH session» и таким образом утекли бы эти драгоценные учетные данные. Поскольку вы вряд ли меняете их каждый день, мы приятно проведем время до использования их в наших пагубных целях. Но это всё будет невозможно с «Spacelift BTW», который генерирует [одноразовые временные полномочия](https://docs.spacelift.io/integrations/cloud-providers/aws) для главных облачных провайдеров. > Но никто не делает так! > > Да, не сказать, что такие истории у всех на слуху. Много ошибок возникает с благонамеренными людьми. Но в мире инфраструктуры даже крошечная ошибка может быть причиной огромных сбоев - как та опечатка, которую мы однажды допустили в конфигурации DNS. Вот почему Spacelift добавляет дополнительный уровень [политики](https://docs.spacelift.io/concepts/policy/), который позволяет вам контролировать – отдельно от вашего инфраструктурного проекта – [какой код может быть выполнен](https://docs.spacelift.io/concepts/policy/run-initialization-policy), [какие изменения могут быть совершены](https://docs.spacelift.io/concepts/policy/terraform-plan-policy), [когда и кем](https://docs.spacelift.io/concepts/policy/stack-access-policy). Это полезно не только для вашей защиты от злоумышленников, но и позволяет вам применить [систему автоматической проверки кода](https://docs.spacelift.io/concepts/policy/terraform-plan-policy#automated-code-review). P.S.: В telegram-канале [**DevOps FM**](https://t.me/devops_fm) мы публикуем новости мира DevOps - присоединяйся!
https://habr.com/ru/post/687346/
null
ru
null
# Алгоритмы для веб-разработчиков простыми словами (часть 3) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/091/805/d53/091805d53a7d5571bf8be9266f93cc62.png)Здравствуйте, друзья! Мы продолжаем разбирать максимально простым языком алгоритмы и структуры данных на JavaScript. Тема нашей сегодняшней статьи — рекурсия. Для многих разработчиков рекурсия кажется чем-то очень сложным и непонятным, но не переживайте, не так страшен черт, как его малюют. И сегодня мы узнаем, как устроена рекурсия, а также разберем алгоритм сортировки массива под названием Quick Sort или, как еще его называют, быстрая сортировка Хоара. Как вы уже догадались, этот алгоритм рекурсивный. Если вы еще не читали нашу первую статью (про алгоритмы поиска и Big O нотацию), то можете найти ее [здесь](https://habr.com/ru/company/gnivc/blog/683128/). Ссылку на вторую статью (про алгоритмы сортировки и оценку сложности алгоритмов по скорости и памяти) вы можете найти [здесь](https://habr.com/ru/company/gnivc/blog/689770/). А сейчас давайте перейдем к теме статьи. ### Рекурсия Рекурсия, если максимально упростить, это вызов функцией самой себя. Этот приём программирования можно использовать, когда есть возможность разбить задачу на несколько более простых подзадач. И, написав решение этой подзадачи в функции и вызывая такую функцию рекурсивно, мы можем все эти подзадачи итеративно решить. Давайте взглянем на простой пример. У нас есть простая функция обратного отсчёта: ``` function countDown(n) {   for (let i = n; i > 0; i--) {     console.log(i);   }   console.log('Финиш'); } ``` Данная функция принимает аргументом число `n` и выводит на экран числовую последовательность от `n` до 1 включительно, а в конце, после завершения работы цикла, выводит на экран слово «Финиш». Давайте вызовем эту функцию, передав в нее число 3. В консоли мы получим следующий результат: «3 2 1 Финиш». ``` countDown(3); // 3 2 1 Финиш ``` Теперь перепишем эту функцию на рекурсивный манер: ``` function countDownRecursive(n) {   if (n <= 0) {     console.log('Финиш');     return;   }   console.log(n);   countDownRecursive(n - 1); } ``` Разберемся, как эта функция работает. Первым делом, чтобы не получить бесконечный цикл вызовов функции и как результат ошибку «stack overflow», которая говорит нам о превышении лимита вызовов для функции в стеке, нужно определить так называемый базовый случай. Базовый случай — это условие, при котором наша функция должна перестать вызывать саму себя рекурсивно. Так как наш цикл работал до тех пор, пока `i > 0`, то здесь условие для прерывания цикла должно быть следующим: ``` if (n <= 0) {   console.log('Финиш');   return; } ``` То есть, как только `n` будет меньше или равно нулю, мы перестаем рекурсивно вызывать функцию и выходим из нее. Перед выполнением оператора `return` необходимо будет вызвать наш `console.log('Финиш')`, потому что именно это действие и будет последним в работе функции. По сути, базовый случай работает как оператор `break` в циклах, то есть прерывает вызов функцией самой себя, чтобы мы могли вернуть результат ее выполнения. ``` function countDownRecursive(n) {   if (n <= 0) {     console.log('Финиш');     return;   }   console.log(n); // Выводим в консоль n   countDownRecursive(n - 1); } ``` Дальше мы выводим в консоль текущее значение числа `n`. И, следующим шагом, снова вызываем нашу функцию `countDownRecursive()` и передаем в нее `n - 1`. Как вы помните, в примере с циклом `for`, на каждой итерации цикла мы уменьшали число `i` на единицу `(i--)`, поэтому здесь, по аналогии, передаем `n - 1`. Запустим функцию и получим в консоли следующий результат: ``` countDownRecursive(3); // 3 2 1 Финиш ``` Результат, как вы видите, аналогичен результату работы простой функции `countDown`. Давайте теперь чуть подробнее разберём, как работает рекурсивная функция. ### Как работает рекурсивная функция ``` function countDownRecursive(n) {   if (n <= 0) {     console.log('Финиш');     return;   }   console.log(n);   countDownRecursive(n - 1); } countDownRecursive(3); // 3 2 1 Финиш ``` Итак, сначала мы вызываем функцию `countDownRecursive` со значением 3. ``` countDownRecursive(3); ``` Базовый случай не отрабатывает, потому что `n > 0`. Мы выводим число 3 в консоль и дальше снова вызываем функцию, передав в нее `n - 1`, то есть 3 - 1 или просто число 2. ``` countDownRecursive(3);   countDownRecursive(2); ``` Повторяем эту процедуру, пока не дойдем до нуля: ``` countDownRecursive(3);   countDownRecursive(2);     countDownRecursive(1);       countDownRecursive(0); // Отрабатывает базовый случай! ``` И вот здесь уже срабатывает базовый случай. Так как `0 === 0`, выводим в консоль слово «Финиш» и дальше срабатывает оператор `return`. ``` countDownRecursive(3);   countDownRecursive(2);     countDownRecursive(1);       countDownRecursive(0); // Отрабатывает базовый случай!       return;     return;   return; return; ``` Дальше происходит завершение работы всех предыдущих функций (потому что неявно завершенная функция возвращает `undefined`, то есть как только выполнение нашей функции доходит до закрывающей фигурной скобки, происходит `return undefined`). Здесь вы можете подумать, что это всё очень сложно, и почему бы не использовать такой понятный и простой цикл `for`? Важно отметить, что, действительно, не везде нужно применять рекурсию. Но бывают задачи, где рекурсивное решение выглядет очень элегантно и занимает гораздо меньше строчек кода, чем с использованием традиционных циклов. Давайте разберем один из таких примеров. ### Числа Фибоначчи Как вы знаете, ряд Фибоначчи — это числовая последовательность, первые два числа которой являются единицами, а каждое последующее за ними число является суммой двух предыдущих. Автором данной числовой последовательности был Леонардо Пизанский (более известный под прозвищем Фибоначчи) из итальянского города Пизы — один из крупнейших математиков средневековой Европы. Вот так ряд Фибоначчи выглядит на практике: ``` 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181 //...и так далее до бесконечности. ``` Иногда перед первой единицей добавляют еще и ноль, но мы не будем рассматривать данный случай, а рассмотрим классический ряд Фибоначчи, как в средневековых книгах ([но только без кроликов](https://ru.wikipedia.org/wiki/%D0%A7%D0%B8%D1%81%D0%BB%D0%B0_%D0%A4%D0%B8%D0%B1%D0%BE%D0%BD%D0%B0%D1%87%D1%87%D0%B8)). Наша задача — написать функцию, которой можно передать номер элемента ряда Фибоначчи, и на выходе из функции получить значение этого элемента. Допустим, мы ищем 10-ый элемент в последовательности. Значением этого элемента будет 55. Для 12-го элемента значением будет 144 и так далее. Вот так будет выглядеть эта функция, написанная с применением рекурсии: ``` const fibonachi = (n) => {   if (n < 2) {     return n;   }   return fibonachi(n - 1) + fibonachi(n - 2); }; console.log(fibonachi(6)); // 8 ``` В результате работы функции в консоли мы получим число 8. Можете это проверить: если вы посмотрите на ряд Фибоначчи выше, то увидите, что значением 6-го элемента в ряду будет число 8. Давайте разберём, как работает данная функция. ``` const fibonachi = (n) => {   // Реализация функции }; ``` Объявляем стрелочную функцию `fibonachi`, которая принимает аргументом число искомого элемента в ряду — `n`. ``` const fibonachi = (n) => {   if (n < 2) {     return n;   } }; ``` Далее определяем базовый случай, т.е. условие, при котором выходим из рекурсии. Так как мы будем последовательно уменьшать число `n` (об этом ниже), то нет смысла делать это бесконечно. Как только `n` оказывается меньше 2, то это значит, что мы достигли начала ряда Фибоначчи, а значит дальше нам двигаться не нужно и можно возвращать `n` обратно вызывающему коду. ``` const fibonachi = (n) => {   if (n < 2) {     return n;   }   return fibonachi(n - 1) + fibonachi(n - 2); }; console.log(fibonachi(6)); // 8 ``` Если же базовый случай не отработал, то снова вызываем функцию, передав в ее аргументы `n - 1` и `n - 2` соответственно, и складываем результат этих функций между собой по следующей формуле: `F(n) = F(n - 1) + F(n - 2)`. Эта формула позволяет нам найти число из ряда Фибоначчи. Так как каждое число равно сумме двух предыдущих чисел в цепочке, то именно эту формулу мы реализовали в нашей функции. Если вам до конца не понятно объяснение данного алгоритма, то, во-первых, это абсолютно нормально, а во-вторых, можете посмотреть подробное видео, объясняющее работу данной функции [здесь](https://www.youtube.com/watch?v=F4HNO4rCQ2c&ab_channel=KhanAcademyRussian). ### Быстрая сортировка Хоара А теперь рассмотрим более сложный алгоритм. Он называется быстрая сортировка (Quick Sort) или сортировка Хоара. Данный алгоритм был разработан английским информатиком Тони Хоаром во время работы в МГУ в 1960 году. И вот здесь как раз будет применяться рекурсия. Как вы помните, в предыдущей статье мы с вами разбирали широко известный в узких кругах алгоритм — пузырьковую сортировку. Ее единственный недостаток — это крайне низкая эффективность. Быстрая же сортировка является улучшенной версией подобных алгоритмов сортировки с помощью прямого обмена. Итак, в чем суть. Имеется неотсортированный массив чисел `arr`. ``` const arr = [-5, 23, 7, 5, 3, -12, -29, 21, 54, 35, 0]; ``` Наша задача написать функцию, которая будет принимать в себя аргументом этот массив и возвращать его полностью отсортированным по возрастанию. Быстрая сортировка относится к алгоритмам из серии «разделяй и властвуй». Небольшое отступление. Алгоритмы типа «[разделяй и властвуй](https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D0%B7%D0%B4%D0%B5%D0%BB%D1%8F%D0%B9_%D0%B8_%D0%B2%D0%BB%D0%B0%D1%81%D1%82%D0%B2%D1%83%D0%B9_(%D0%B8%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%82%D0%B8%D0%BA%D0%B0))» (англ. divide and conquer) — это парадигма разработки алгоритмов, заключающаяся в рекурсивном разбиении решаемой задачи на две или более подзадачи того же типа, но меньшего размера, и комбинировании их решений для получения ответа к исходной задаче. Разбиения выполняются до тех пор, пока все подзадачи не окажутся элементарными. Наш алгоритм будет сводиться к следующим шагам: 1. Выбираем элемент из массива и считаем его опорным (в англоязычной литературе его называют pivot). 2. Сортируем элементы в массиве таким образом, чтобы элементы меньше опорного размещались в подмассиве перед ним, а большие или равные — в подмассиве после. 3. Рекурсивно применяем первые два шага к двум подмассивам слева и справа от опорного элемента. Т.е. дробим наш массив на подмассивы и сортируем их относительно опорного элемента, пока в этих подмассивах не останется по одному элементу или меньше. Рекурсия не применяется к массиву, в котором только один элемент или отсутствуют элементы. Это как раз и будет базовым условием, при котором мы прервем рекурсию. Вот [здесь](https://visualgo.net/en/sorting/) вы можете увидеть визуализацию работы быстрой сортировки (а также многих других алгоритмов). А вот так выглядит реализация сортировки Хоара на JavaScript: ``` const arr = [-5, 23, 7, 5, 3, -12, -29, 21, 54, 35, 0]; function quickSort(arr) {   if (arr.length <= 1) {     return arr;   }   let pivotIndex = Math.floor(arr.length / 2);   let pivot = arr[pivotIndex];   let less = [];   let greater = [];   for (let i = 0; i < arr.length; i++) {     if (i === pivotIndex) continue;     if (arr[i] < pivot) {       less.push(arr[i]);     } else {       greater.push(arr[i]);     }   }   return [...quickSort(less), pivot, ...quickSort(greater)]; } console.log(quickSort(arr)); ``` #### Подробный разбор алгоритма сортировки Хоара Давайте подробно разберём, как работает данная сортировка. ``` const arr = [-5, 23, 7, 5, 3, -12, -29, 21, 54, 35, 0]; function quickSort(arr) {   // Реализация алгоритма } ``` Создаем функцию `quickSort()` и передаем аргументом неотсортированный массив. Дальше, как вы помните, необходимо определить базовый случай выхода из рекурсии. ``` const arr = [-5, 23, 7, 5, 3, -12, -29, 21, 54, 35, 0]; function quickSort(arr) {   // Базовый случай выхода из рекурсии   if (arr.length <= 1) {     return arr;   } } ``` Так как нам предстоит дробить основной массив на подмассивы и сортировать элементы в этих подмассивах относительно опорного элемента (об этом ниже), то как только такие подмассивы будут содержать по одному элементу или будут пустыми, нам нет смысла дальше продолжать разбивать их на более мелкие части, поэтому здесь мы выйдем из рекурсии. ``` const arr = [-5, 23, 7, 5, 3, -12, -29, 21, 54, 35, 0]; function quickSort(arr) {   if (arr.length <= 1) {     return arr;   }   // Индекс опорного элемента в массиве   let pivotIndex = Math.floor(arr.length / 2);   // Опорный элемент   let pivot = arr[pivotIndex]; } ``` Теперь определим индекс в массиве так называемого опорного элемента. Для этого создадим переменную `pivotIndex`, передадим в функцию `Math.floor` длину массива, поделим результат на 2 и получившееся число присвоим переменной `pivotIndex`. Функция `Math.floor`, как вы знаете, округляет результат в меньшую сторону: ``` Math.floor(5.5); // 5 ``` Затем определим сам опорный элемент. Для этого кладем в переменную `pivot` значение массива по индексу `pivotIndex`. В массиве `arr` значением `pivotIndex` будет 5 (длина массива — 11. 11 делим на 2 и округляем в меньшую сторону, получаем 5). Значением `pivot` будет -12. ``` const arr = [-5, 23, 7, 5, 3, -12, -29, 21, 54, 35, 0]; function quickSort(arr) {   if (arr.length <= 1) {     return arr;   }   let pivotIndex = Math.floor(arr.length / 2);   let pivot = arr[pivotIndex];   // Сюда положим все элементы меньше опорного   let less = [];   // Сюда положим все элементы больше опорного   let greater = []; } ``` Дальше нужно объявить два пустых подмассива `less` и `greater`. В массив `less` будем сохранять все элементы, которые меньше опорного, а в `greater` все элементы, которые больше опорного. Дальше в цикле `for` мы пробегаем по всем элементам массива и сравниваем каждый элемент с опорным. ``` const arr = [-5, 23, 7, 5, 3, -12, -29, 21, 54, 35, 0]; function quickSort(arr) {   if (arr.length <= 1) {     return arr;   }   let pivotIndex = Math.floor(arr.length / 2);   let pivot = arr[pivotIndex];   let less = [];   let greater = [];   for (let i = 0; i < arr.length; i++) {     // Пропускаем итерацию, если индекс текущей итерации совпадает // с индексом опорного элемента     if (i === pivotIndex) continue;     // Если опорный элемент больше элемента в массиве, добавляем // этот элемент в массив less     if (arr[i] < pivot) {       less.push(arr[i]);       // Иначе добавляем его в массив greater     } else {       greater.push(arr[i]);     }   } } ``` Затем у нас идут три условия. В первом условии мы сравниваем индекс текущей итерации цикла с индексом опорного элемента в массиве. Если они совпадают, то текущую итерацию цикла мы завершаем с помощью ключевого слова `continue`, так как нам не нужно добавлять опорный элемент в один из наших подмассивов. Далее во втором условии мы сравниваем элемент массива с опорным элементом. Если опорный элемент больше, то добавляем наш текущий элемент массива в массив `less`. В противном же случае, добавляем текущий элемент массива в массив `greater` (третье условие). В итоге, после завершения цикла `for`, у нас на выходе будет 2 массива: `less` с числами меньше опорного и `greater` с числами больше опорного или равными ему. И дальше мы возвращаем массив, в который разворачиваем результат рекурсивного выполнения функции, принимающей в качестве аргумента массив `less`. Дальше вставляем наш опорный элемент `pivot`, а после снова разворачиваем результат выполнения функции для массива `greater`. ``` const arr = [-5, 23, 7, 5, 3, -12, -29, 21, 54, 35, 0]; function quickSort(arr) {   if (arr.length <= 1) {     return arr;   }   let pivotIndex = Math.floor(arr.length / 2);   let pivot = arr[pivotIndex];   let less = [];   let greater = [];   for (let i = 0; i < arr.length; i++) {     if (i === pivotIndex) continue;     if (arr[i] < pivot) {       less.push(arr[i]);     } else {       greater.push(arr[i]);     }   }   // Рекурсивно вызываем функцию quickSort, передаем туда наши   // массивы и разворачиваем результат в возвращаемый массив,   // не забывая вставлять посередине опорный элемент   return [...quickSort(less), pivot, ...quickSort(greater)]; } // Выводим в логи результат работы функции console.log(quickSort(arr)); ``` Когда функция доходит до базового случая, рекурсивный вызов функции заканчивается и все одиночные массивы соединяются в один большой отсортированный массив. Выведем в консоль результат работы функции и убедимся в этом. Быстрая сортировка в среднем и лучшем случае выполняется за `Θ(n * log(n))` и `Ω(n * log(n))` соответственно. В худшем случае время выполнения алгоритма занимает `О(n^2)`. Более подробно про лучшее, среднее и худшее время выполнения алгоритма быстрой сортировки можно прочитать [здесь](https://ru.wikipedia.org/wiki/%D0%91%D1%8B%D1%81%D1%82%D1%80%D0%B0%D1%8F_%D1%81%D0%BE%D1%80%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%BA%D0%B0). На этом мы закончили третью статью из нашего цикла статей по алгоритмам. Спасибо за внимание и до новых встреч!
https://habr.com/ru/post/696054/
null
ru
null
# Задача для разработчика, или как мы без вендора ручные сканеры прошивали Всем привет. Мы, Виктор Антипов и Илья Алешин, сегодня расскажем о своем опыте работы с USB-девайсами через Python PyUSB и немного о реверс-инжиниринге. ![](https://habrastorage.org/r/w780q1/webt/j4/ux/va/j4uxvafzrna4qe-37a6miqsyg1u.jpeg) ### Предыстория В 2019 году вступило в силу Постановление Правительства РФ № 224 «Об утверждении Правил маркировки табачной продукции средствами идентификации и особенностях внедрения государственной информационной системы мониторинга за оборотом товаров, подлежащих обязательной маркировке средствами идентификации, в отношении табачной продукции». Документ объясняет, что с 1 июля 2019 года производители обязаны маркировать каждую пачку табака. А прямые дистрибьюторы должны получать данную продукцию с оформлением универсального передаточного документа (УПД). Магазинам, в свою очередь, необходимо регистрировать продажу маркированной продукции через кассу. Также с 1 июля 2020 года оборот немаркированной табачной продукции запрещен. Это означает, что все пачки сигарет должны маркироваться специальным штрихкодом Datamatrix. Причем – важный момент – выяснилось, что Datamatrix будет не обычный, а инверсный. То есть не черный код на белом, а наоборот. Мы протестировали наши сканеры, и оказалось, что большую их часть нужно перепрошивать/переобучать, иначе они просто не в состоянии нормально работать с этим штрихкодом. Такой поворот событий гарантировал нам сильную головную боль, потому что у нашей компании очень много магазинов, которые разбросаны по огромной территории. Несколько десятков тысяч касс – и крайне мало времени. Что было делать? Варианта два. Первый: инженеры на объекте вручную перепрошивают и донастраивают сканеры. Второй: работаем удаленно и, желательно, охватываем сразу много сканеров за одну итерацию. Первый вариант нам, очевидно, не подходил: пришлось бы потратиться на выезды инженеров, да и контролировать и координировать процесс в таком случае сложно. Но самое главное – работали бы люди, то есть потенциально мы получали множество ошибок и, скорее всего, не укладывались в срок. Второй вариант всем хорош, если бы не одно но. У некоторых вендоров не оказалось необходимых нам инструментов удаленной перепрошивки для всех требуемых ОС. А так как сроки поджимали, пришлось думать своей головой. Дальше расскажем, как мы разрабатывали инструменты для ручных сканеров под ОС Debian 9.x (у нас все кассы на Debian). ### Разгадать загадку: как прошить сканер *Рассказывает Виктор Антипов.* Официальная утилита, которую предоставил вендор, работает под Windows, причем только с IE. Утилита умеет прошивать и настраивать сканер. Так как целевая система у нас Debian, то поставили на Debian usb-redirector server, на Windows usb-redirector client. При помощи утилит usb-redirector сделали проброс сканера с Linux машины, на Windows машину. Утилита от вендора под Windows увидела сканер и даже его нормально прошила. Таким образом, сделали первый вывод: от ОС ничего не зависит, дело в протоколе перепрошивки. Ок. На Windows-машине запустили перепрошивку, на Linux-машине сняли dump. Запихнули dump в WireShark и… взгрустнули (часть деталей dump я опущу, они никакого интереса не представляют). Что нам показал dump: ![](https://habrastorage.org/r/w1560/webt/5c/ut/sa/5cutsausebu86kbucq6rfksz7wu.png) ![](https://habrastorage.org/r/w1560/webt/9z/ex/jo/9zexjowdglq6cjc88ln5r6tlkcs.png) Адреса 0000-0030, судя по Wireshark, – служебная информация USB. Нас интересовала часть 0040-0070. Из одного кадра передачи ничего не было понятно, за исключением символов MOCFT. Эти символы оказались символами из файла прошивки, как, впрочем, и остальные символы до окончания кадра (выделен файл прошивки): ![](https://habrastorage.org/r/w1560/webt/yb/ls/mf/yblsmf2htqk4n-lsa3u702yy5vm.png) Что означали символы fd 3e 02 01 fe, лично я, как и Илья, понятия не имел. Посмотрел следующий кадр (служебная информация здесь удалена, выделен файл прошивки): ![](https://habrastorage.org/r/w1560/webt/r3/sr/ut/r3srutakf1ioytxspf1zurv9pww.png) Что стало ясно? Что первые два байта – некая константа. Все последующие блоки это подтвердили, но до окончания блока передачи: ![](https://habrastorage.org/r/w1560/webt/j7/t6/ux/j7t6uxe8auhqxaxp5azeolv5jwm.png) Этот кадр тоже ввел в ступор, так как сменилась константа (выделил) и, как ни странно, имелась часть файла. Размер переданных байт файла показывал, что было передано 1024 байта. Что значили остальные байты – я снова не знал. Первым делом, как старый BBS-ник, я пересмотрел стандартные протоколы передачи. 1024 байта ни один протокол не передавал. Начал изучать матчасть и наткнулся на протокол 1К Xmodem. Он позволял передавать 1024, но c нюансом: поначалу лишь 128, и только при отсутствии ошибок протокол увеличивал количество передаваемых байт. У меня же сразу была передача 1024 байта. Решил изучать протоколы передачи, а конкретно Х-модем. Вариаций модема было две. Во-первых, формат пакета XMODEM с поддержкой CRC8 (оригинальный XMODEM): ![](https://habrastorage.org/r/w1560/webt/wu/dq/7w/wudq7w7yg59duxo2ok3rcng5bga.png) Во-вторых, формат пакета XMODEM с поддержкой CRC16 (XmodemCRC): ![](https://habrastorage.org/r/w1560/webt/i2/cz/j3/i2czj3nd212vhlbms9uqrysd5xa.png) С виду похоже, за исключением SOH, номера пакета и CRC и длины посылки. Посмотрел начало второго блока передачи (и снова увидел файл прошивки, но уже с отступом в 1024 байта): ![](https://habrastorage.org/r/w1560/webt/5v/lk/nb/5vlknbhbecr2d3d7uigb19dh_cg.png) Увидел знакомый заголовок fd 3e 02, но следующие два байта уже изменились: было 01 fe, а стало 02 fd. Тут я заметил, что второй блок теперь нумеруется 02 и таким образом понял: передо мной нумерация блока передачи. Первая 1024 передача – 01, вторая – 02, третья – 03 и так далее (но в hex, естественно). Но что означает изменение с fe на fd? Глаза видели уменьшение на 1, мозг напоминал, что программисты считают с 0, а не с 1. Но тогда почему первый блок 1, а не 0? Ответа на этот вопрос я так и не нашел. Зато понял, как считается второй блок. Второй блок – это не что иное как FF –(минус) номер первого блока. Таким образом, второй блок обозначался как = 02 (FF-02) = 02 FD. Последующее чтение дампа подтвердило мою догадку. Тогда стала вырисовываться следующая картина передачи: Начало передачи fd 3e 02 – Start 01 FE – счетчик передачи Передача (34 блока, передается 1024 байта) fd 3e 1024 байта данных (разбитые на блоки по 30 байт). Окончание передачи fd 25 Остатки данных для выравнивания до 1024 байта. Как выглядит кадр окончания передачи блока: ![](https://habrastorage.org/r/w1560/webt/dm/ee/t9/dmeet9sttaokhdirciuxag4p9y4.png) fd 25 – сигнал к окончанию передачи блока. Далее 2f 52 – остатки файла до размера 1024 байта. 2f 52, судя по протоколу, – контрольная сумма 16-bit CRC. По старой памяти сделал на С программу, которая дергала из файла 1024 байта и считала 16-bit CRC. Запуск программы показал, что это не 16-bit CRC. Снова ступор – примерно на три дня. Все это время я пытался понять, что это может быть такое, если не контрольная сумма. Изучая англоязычные сайты, я обнаружил, что для X-модем используется свой подсчет контрольной суммы – CRC-CCITT (XModem). Реализаций на C данного подсчета я не нашел, но нашел сайт, который в online считал данную контрольную сумму. Перекинув на веб-страничку 1024 байта своего файла, сайт показал мне контрольную сумму, которая полностью совпала с контрольной суммой из файла. Ура! Последняя загадка решена, теперь нужно было сделать свою прошивалку. Далее я передал свои знания (а они остались только у меня в голове) Илье, который знаком с мощным инструментарием – Python. ### Создание программы *Рассказывает Илья Алешин.* Получив соответствующие инструкции, я очень «обрадовался». С чего начать? Правильно, с начала.  Со снятия дампа с USB порта. Запускаем USB-pcap <https://desowin.org/usbpcap/tour.html> Выбираем порт, к которому подключено устройство, и файл, куда сохраним dump. ![](https://habrastorage.org/r/w1560/webt/ga/ax/xp/gaaxxp3qdqajous7didfd7gwkg8.png) Подключаем сканер к машине, где установлено родное ПО EZConfigScanning для Windows. ![](https://habrastorage.org/r/w1560/webt/ol/oo/le/olooleeirgestw3q0gzvhqvzr58.png) В нем находим пункт отправки команд на устройство. Но как быть с командами? Где их взять? При старте программы оборудование опрашивается автоматически (это мы увидим чуть позже). И еще были обучающие штрихкоды из официальных документов оборудования. DEFALT. Это и есть наша команда. ![](https://habrastorage.org/r/w1560/webt/8v/dv/gf/8vdvgfiuthogftttgzdsxym22_4.png) Необходимые данные получены. Открываем dump.pcap через wireshark. Блок при старте EZConfigScanning. Красным отмечены места, на которые надо обратить внимание. ![](https://habrastorage.org/r/w1560/webt/wp/ju/0x/wpju0xwxz9_hgex0jnnyttjxqpa.png) ![](https://habrastorage.org/r/w1560/webt/nw/6s/so/nw6ssotdpggn37qvn9kvayxhxde.png) Увидев все это в первый раз, я упал духом. Куда копать дальше – непонятно. Немного мозгового штурма и-и-и… Ага! В дампе **out** – это **in**, а **in** это **out**. Погуглил, что такое URB\_INTERRUPT. Выяснил, что это метод передачи данных. И таких методов 4: control, interrupt, isochronous, bulk. О них можно почитать отдельно. А endpoint адреса в интерфейсе USB-девайса можно получить либо через команду «lsusb –v», либо средствами pyusb. Теперь надо найти все устройства с таким VID. Можно искать конкретно по VID:PID. ![](https://habrastorage.org/r/w1560/webt/fn/xp/i_/fnxpi_m69b43p6yzpeoh3atps0q.png) Выглядит это так: ![](https://habrastorage.org/r/w1560/webt/g0/h4/td/g0h4tdpscytduyzmj4xqe31r5s4.png) ![](https://habrastorage.org/r/w1560/webt/d4/wf/5k/d4wf5k6asqr5nvofve-ntd5sm4g.png) Итак, у нас появилась нужная информация: команды P\_INFO. или DEFALT, адреса, куда записать команды endpoint=03 и откуда получить ответ endpoint=86. Осталось только перевести команды в hex. ![](https://habrastorage.org/r/w1560/webt/io/wf/ui/iowfuid0hhvl6q6zpb9kfds3tny.png) ![](https://habrastorage.org/r/w1560/webt/0p/gr/2j/0pgr2jw1u6tj5vqetitjg3g6chw.png) Так как устройство у нас уже найдено, отключим его от ядра… ![](https://habrastorage.org/r/w1560/webt/ji/xy/84/jixy849fy7l81g9tenjxpf7uymo.png) …и выполним запись в endpoint c адресом 0x03, ![](https://habrastorage.org/r/w1560/webt/qx/v0/nt/qxv0nttjmnddvekfmbnfq9vebfi.png) … а затем зачитаем ответ из endpoint с адресом 0x86. ![](https://habrastorage.org/r/w1560/webt/kj/xn/e2/kjxne2x9ab6spmxnk2ac3bnroc4.png) Структурированный ответ: ``` P_INFOfmt: 1 mode: app app-present: 1 boot-present: 1 hw-sn: 18072B44CA hw-rev: 0x20 cbl: 4 app-sw-rev: CP000116BBA boot-sw-rev: CP000014BAD flash: 3 app-m_name: Voyager 1450g boot-m_name: Voyager 1450g app-p_name: 1450g boot-p_name: 1450g boot-time: 16:56:02 boot-date: Oct 16 2014 app-time: 08:49:30 app-date: Mar 25 2019 app-compat: 289 boot-compat: 288 csum: 0x6986 ``` Эти данные мы видим в dump.pcap. ![](https://habrastorage.org/r/w1560/webt/cr/z5/2y/crz52y_j0alhcohhokmry0bx7t8.png) ![](https://habrastorage.org/r/w1560/webt/-s/np/cv/-snpcv4opok9jdsrj8thkshno_4.png) ![](https://habrastorage.org/r/w1560/webt/qj/dq/zl/qjdqzlcwogon9yts12p5awr32ha.png) Отлично! Переводим системные штрихкоды в hex. Все, функционал обучения готов. Как быть с прошивкой? Вроде, все то же самое, но есть нюанс. Сняв полный дамп процесса перепрошивки, мы примерно поняли, с чем имеем дело. Вот статья про XMODEM, которая очень помогла понять, как это общение происходит, пусть и в общих чертах: <http://microsin.net/adminstuff/others/xmodem-protocol-overview.html> Рекомендую прочесть. Посмотрев в дамп, можно увидеть, что размер кадра – 1024, а размер URB-data – 64. ![](https://habrastorage.org/r/w1560/webt/wi/o6/uj/wio6ujyvlj_bnltlngxf24k9evk.png) Следовательно – 1024/64 – получаем 16 строк в блоке, читаем файл прошивки по 1 символу и формируем блок. Дополняя 1 строку в блоке спецсимволами fd3e02 + номер блока. 14 следующих строк дополняем fd25 +, с помощью XMODEM.calc\_crc() вычисляем контрольную сумму всего блока (потребовалось немало времени, чтобы понять, что “FF – 1” – это CSUM) и последнюю, 16-ю, строку дополняем fd3e. Казалось бы, все, читай файл прошивки, бей на блоки, отключай сканер от ядра и засылай в девайс. Но не все так просто. Сканер нужно перевести в режим прошивки, отправив ему NEWAPP = '\\xfd\\x0a\\x16\\x4e\\x2c\\x4e\\x45\\x57\\x41\\x50\\x50\\x0d'. Откуда эта команда?? Из дампа. ![](https://habrastorage.org/r/w1560/webt/au/sd/nd/ausdnd16ikur6ajzdiyk9-ntklw.png) Но мы не можем отправить в сканер целый блок из-за ограничения в 64: ![](https://habrastorage.org/r/w1560/webt/db/k6/qg/dbk6qgrapgsxiwdo9jyxqd0svwu.png) Ну и сканер в режиме перепрошивки NEWAPP не принимает hex. Поэтому придется каждую строку переводить bytes\_array ``` [253, 10, 22, 78, 44, 78, 69, 87, 65, 80, 80, 13, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0] ``` И уже эти данные отправлять в сканер. Получаем ответ: ``` [2, 1, 0, 0, 0, 6, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0] ``` Если свериться со статьей про XMODEM, станет понятно: данные приняты. ![](https://habrastorage.org/r/w1560/webt/po/fd/gj/pofdgjvcgns7oxdeonuldkqbptg.png) После того как все блоки переданы, завершаем передачу END\_TRANSFER = '\xfd\x01\x04'. Ну а так как эти блоки для обычных людей никакой информации не несут, сделаем по умолчанию прошивку в скрытом режиме. И на всякий случай через tqdm организуем прогресбар. ![](https://habrastorage.org/r/w1560/webt/da/18/g1/da18g1axnll2zps9qpx2s7opkha.png) Собственно, дальше дело за малым. Остается только обернуть решение в скрипты для массового тиражирования в четко заданное время, чтобы не тормозить процесс работы на кассах, и добавить логирование. ### Итог Потратив кучу времени и сил ~~и волос на голове~~, мы сумели разработать нужные нам решения, к тому же уложились в срок. При этом сканеры перепрошиваются и переобучаются теперь централизованно, мы четко контролируем весь процесс. Компания сэкономила время и средства, а мы получили бесценный опыт реверс-инжиниринга оборудования такого типа.
https://habr.com/ru/post/490748/
null
ru
null
# Почему я больше не рекомендую Julia ![](https://habrastorage.org/r/w1560/webt/ka/6f/y1/ka6fy1o-ao8cpequvuoy_3c0aki.png) Много лет я пользовался языком программирования [Julia](https://julialang.org/) для преобразования, очистки, анализа и визуализации данных, расчёта статистики и выполнения симуляций. Я опубликовал несколько опенсорсных пакетов для работы с такими вещами, как [поля расстояний со знаком](https://github.com/JuliaGraphics/SignedDistanceFields.jl), [поиск ближайших соседей](https://github.com/yurivish/LowDimNearestNeighbors.jl) и [паттерны Тьюринга](https://github.com/yurivish/TuringPatterns.jl) (а [также](https://github.com/JuliaWeb/Hyperscript.jl) с [другими](https://github.com/yurivish/Treaps.jl)), создавал визуальные объяснения таких концепций Julia, как [broadcasting](https://julia-guide.netlify.app/broadcasting) и [массивы](https://observablehq.com/@yurivish/julia-array-notation), а ещё применял Julia при создании генеративной графики для моих [визиток](https://yuri.is/cardcrafting). Какое-то время назад я перестал пользоваться Julia, но иногда мне задают о нём вопросы. Когда люди спрашивают меня, я отвечаю, что больше не рекомендую его. Мне подумалось, что стоит написать, почему. После многолетнего использования Julia я пришёл к выводу, что в его экосистеме слишком много багов корректности и сочетаемости, и это не позволяет использовать этот язык в контекстах, где важна корректность. По моему опыту, Julia и его пакеты имеют наибольшую частоту серьёзных багов корректности из всех использованных мной программных систем, а ведь я начинал программировать с Visual Basic 6 в середине 2000-х. Наверно, будет полезно привести конкретные примеры. Вот проблемы корректности, о которых я составил отчёты: * [Сэмплирование плотности вероятности даёт некорректный результат](https://github.com/JuliaStats/Distributions.jl/issues/1241) * [Сэмплирование массива может давать результаты со смещением](https://github.com/JuliaStats/StatsBase.jl/issues/642) * [Функция произведения может давать некорректные результаты для 8-битных, 16-битных и 32-битных integer](https://github.com/JuliaLang/julia/issues/39183) * [Подгонка гистограммы под массив Float64 может давать некорректные результаты](https://github.com/JuliaStats/StatsBase.jl/issues/616) * [`Базовые функции sum!`, `prod!`, `any!` и `all!` могут возвращать некорректные результаты без сообщения об ошибке](https://github.com/JuliaLang/julia/issues/39385) Вот похожие проблемы, о которых сообщали другие люди: * [Summarystats возвращает квантили NaN для массивов со средним значением 0](https://github.com/JuliaStats/StatsBase.jl/pull/632) * [OrderedDict может повреждать ключи](https://github.com/JuliaCollections/OrderedCollections.jl/issues/71) * [Ошибка смещения на единицу в dayofquarter() в високосные годы](https://github.com/JuliaLang/julia/pull/36543) * [Некорректные результаты симуляции при использовании типа number с величиной ошибки](https://github.com/JuliaPhysics/Measurements.jl/issues/64) * [Pipeline со stdout=IOStream выполняет запись не по порядку](https://github.com/JuliaLang/julia/issues/36069) * [`Неверные результаты, поскольку некоторые методы copyto!` не выполняют проверку на наложение](https://github.com/JuliaLang/julia/issues/39460) * [Неверный поток управления if-else](https://github.com/JuliaLang/julia/issues/41096) Я сталкивался с багами подобного уровня серьёзности достаточно часто, поэтому это заставило меня подвергнуть сомнению корректность любых вычислений умеренной сложности на Julia. Особенно справедливо это было при использовании нового сочетания пакетов или функций — комбинирование функциональности из нескольких источников было существенным источником багов. Иногда проблемы возникают из-за несочетаемых друг с другом пакетов, в других случаях к неожиданному сбою приводит неожиданное сочетание возможностей Julia внутри одного пакета. Например, я выяснил, что евклидово расстояние из пакета Distances [не работает с векторами Unitful](https://github.com/JuliaStats/Distances.jl/issues/201). Другие люди обнаружили, что функция Julia для запуска внешних команд [не работает с подстроками](https://github.com/JuliaLang/julia/issues/36406). Кто-то выяснил, что поддержка отсутствующих значений Julia [в некоторых случаях ломает матричное умножение](https://github.com/JuliaLang/julia/issues/39362). И что макрос стандартной библиотеки `@distributed` [не работал с OffsetArray](https://github.com/JuliaLang/julia/issues/34870). [OffsetArray](https://github.com/JuliaArrays/OffsetArrays.jl) вообще оказался серьёзным источником багов корректности. Пакет предоставляет тип массива, использующий гибкую [функцию настраиваемых индексов](https://julialang.org/blog/2017/04/offset-arrays/) Julia, позволяющую создавать массивы, индексы которых не обязаны начинаться с нуля или единицы. Их использование часто приводит к доступу к памяти out-of-bounds, с которым вы могли встречаться в C или C++. Если повезёт, это приведёт к segfault, а если нет, то результаты будут неверными без сообщений об ошибках. Однажды я нашёл [баг в ядре Julia](https://github.com/JuliaLang/julia/issues/39379), который может привести к доступу к памяти out-of-bounds, даже если и пользователь, и создатели библиотеки написали корректный код. Я отправил множество отчётов о проблемах индексации в организацию JuliaStats, занимающуюся обслуживанием статистических пакетов наподобие [Distributions](https://juliahub.com/ui/Packages/Distributions/xILW0/0.25.58), от которого зависят 945 пакетов, и [StatsBase](https://juliahub.com/ui/Packages/StatsBase/EZjIG/0.33.16), от которого зависят 1660 пакетов. Вот некоторые из них: * [Большинство методов сэмплирования небезопасно и некорректно в случае наличия смещённых осей](https://github.com/JuliaStats/StatsBase.jl/issues/646) * [Выравнивание распределения DiscreteUniform может вернуть некорректный ответ без сообщения об ошибке](https://github.com/JuliaStats/Distributions.jl/issues/1253) * [counteq, countne, sqL2dist, L2dist, L1dist, L1infdist, gkldiv, meanad, maxad, msd, rmsd и psnr со смещёнными индексами могут возвращать некорректные результаты](https://github.com/JuliaStats/StatsBase.jl/issues/638) * [Некорректное использование @inbounds может вызывать неверный расчёт статистики](https://github.com/JuliaStats/Distributions.jl/issues/1265) * [Colwise и pairwise могут возвращать некорректные расстояния](https://github.com/JuliaStats/Distances.jl/issues/206) * [Отображение вектора Weights, оборачивающего массив со смещением, выполняет доступ к памяти out-of-bounds](https://github.com/JuliaStats/StatsBase.jl/issues/643) Первопричиной этих проблем является не сама индексация, а её совместное использование с другой фичей Julia под названием `@inbounds`, позволяющей Julia удалять проверки границ при доступе к массивам. Пример: ``` function sum(A::AbstractArray) r = zero(eltype(A)) for i in 1:length(A) @inbounds r += A[i] # ← 🌶 end return r end ``` Показанный выше код выполняет итерации `i` от 1 до длины массива. Если передать массив с необычным диапазоном индексов, код выполнит доступ к памяти out-of-bounds: операции доступа к массив аннотированы `@inbounds`, что убирает проверку границ. Этот код показывает, как **неправильно** использовать `@inbounds`. Однако многие годы это был официальный пример по **правильному** использованию `@inbounds`. Этот пример был расположен прямо над предупреждением о том, почему он неправилен: ![](https://habrastorage.org/r/w1560/webt/pl/zk/vb/plzkvbywvm88s5e7hckvtly0ziy.png) [Эту проблему](https://github.com/JuliaLang/julia/issues/39367) уже устранили, однако вызывает беспокойство то, что `@inbounds` можно так легко использовать неверно, что приводит к незаметному повреждению данных и некорректным математическим результатам. По моему опыту, подобные ошибки касаются не только математической части экосистемы Julia. Я сталкивался с багами библиотек в процессе выполнения повседневных задач, например, при [кодировании](https://github.com/quinnj/JSON3.jl/issues/63) [JSON](https://github.com/JuliaLang/julia/issues/34249), отправке [HTTP-запросов](https://github.com/JuliaWeb/HTTP.jl/issues/626), использовании [файлов Arrow](https://github.com/apache/arrow-julia/issues/101) [совместно](https://github.com/apache/arrow-julia/issues/102) с DataFrames и [редактировании](https://github.com/fonsp/Pluto.jl/issues/826) [кода](https://github.com/fonsp/Pluto.jl/issues/751) [Julia](https://github.com/fonsp/Pluto.jl/issues/836) в реактивной среде ноутбуков [Pluto](https://github.com/fonsp/Pluto.jl). Когда мне стало интересно, репрезентативен ли мой опыт, множество пользователей Julia поделилось со мной похожими историями. Недавно стали появляться и публичные отчёты о подобном опыте. Например, в [этом посте](https://kidger.site/thoughts/jax-vs-julia/) Патрик Киджер описывает свои попытки использовать Julia для исследований машинного обучения: > На Julia Discourse довольно часто встречаются посты «Библиотека XYZ не работает», на которые следуют ответы одного из мейнтейнеров библиотеки: «Это апстрим-баг в новой версии a.b.c библиотеки ABC, от которой зависит XYZ. Мы запушим исправление ASAP». Вот каким был опыт Патрика по выявлению бага корректности (выделено мной): > Чётко помню момент, когда одна из моих моделей Julia отказывалась обучаться. Я много месяцев пыталась заставить её работать, пробуя все трюки, которые мог придумать. > > > > В конце концов, я нашёл ошибку: **Julia/Flux/Zygote возвращал некорректные градиенты**. После того, как я потратил так много энергии на указанные выше пункты 1 и 2, на этом пункте я просто сдался. Спустя ещё два часа разработки я успешно обучил модель… в PyTorch. В [обсуждении](https://discourse.julialang.org/t/state-of-machine-learning-in-julia/74385/4) этого поста другие пользователи писали, что у них тоже был похожий опыт. [@Samuel\_Ainsworth](https://discourse.julialang.org/t/state-of-machine-learning-in-julia/74385/13): > Как и @patrick-kidger, я пострадал от багов с некорректными градиентами в Zygote/ReverseDiff.jl. Это стоило мне недель жизни и заставило меня серьёзно пересмотреть уровень своего опыта во всей системе Julia AD. За все годы работы PyTorch/TF/JAX я ни разу не столкнулся с багом некорректных градиентов. [@JordiBolibar](https://discourse.julialang.org/t/state-of-machine-learning-in-julia/74385/21): > С момента, когда я начал работать с Julia, у меня возникло два бага с Zygote, замедливших мою работу на много месяцев. С другой стороны, это заставило меня погрузиться в код и многое узнать о библиотеках, которые я использую. Но я оказался в ситуации, когда нагрузка стала слишком большой и я тратил много времени на отладку кода вместо того, чтобы проводить климатические исследования. Учитывая чрезвычайную обобщённость Julia, не очевидно, *можно ли* решить проблемы корректности. В Julia нет формального понятия интерфейсов, в generic-функциях часто в пограничных случаях семантика не указывается, а природа самых общих косвенных интерфейсов не сделана чёткой (например, в сообществе Julia нет согласия по поводу того, что является числом). В сообществе Julia множество способных и талантливых людей, щедро делящихся своим временем, трудом и опытом. Однако подобные систематические проблемы редко удаётся исправить снизу вверх, и мне кажется, что руководство проекта не согласно, что существует серьёзная проблема корректности. Оно соглашается с существованием отдельных несвязанных друг с другом проблем, но не с паттерном, который подразумевают эти проблемы. Например, в то время, когда экосистема машинного обучения Julia была ещё более незрелой, один из создателей языка с энтузиазмом рассказывал об использовании Julia в продакшене для беспилотных автомобилей: ![](https://habrastorage.org/r/w1560/webt/ka/6f/y1/ka6fy1o-ao8cpequvuoy_3c0aki.png) И хотя с тех пор, как я перестал быть активным участником, отношение к этому могло измениться, следующая цитата ещё одного создателя языка, произнесённая примерно в то же время, стала хорошей иллюстрацией разницы восприятий (выделено мной): > Думаю, самый важный вывод здесь заключается не в том, что Julia — отличный язык (хотя это и так) и что его нужно использовать для всего (хотя это и не самая плохая идея), а в том что его архитектура сделала важный шаг к возможности повторного использования кода. **На самом деле в Julia вы можете взять обобщённые алгоритмы, написанные одним человеком, и собственные типы, написанные другими людьми, и просто использовать и эффективным образом.** Это серьёзно повышает ставки уровня повторного использования кода в языках программирования. Проектировщикам языков не нужно копировать все возможности Julia, но им, по крайней мере, стоит понимать, почему он так хорошо работает, и стремиться к тому же уровню повторного использования кода в архитектурах будущего. Каждый раз, когда появляется пост с критикой Julia, люди из сообщества обычно быстро пишут в ответ, что раньше были проблемы, но сейчас всё существенно улучшилось и большинство проблем уже устранено. Примеры: * В 2016 году: [«Проблемы, перечисленные в этом посте, устранены».](https://news.ycombinator.com/item?id=11073642) * В 2018 году: [«Когда начинал знакомство с языком, я тоже жаловался на „ковбойскую“ культуру, которую наблюдал в среде Julia-разработчиков, но те времена уже прошли».](https://news.ycombinator.com/item?id=17726336) * В 2020 году: [«В 2016 году да. Но теперь проблемы уже решены».](https://news.ycombinator.com/item?id=22138071) * В 2021 году: [«В Julia нет технического принуждения к согласованности, однако семантическое значение generic-функций соблюдается большинством и обобщённый код работает».](https://news.ycombinator.com/item?id=27921467) * В 2022 году: [«Разумеется, баги есть, но ни один из них не является серьёзным».](https://news.ycombinator.com/item?id=30939963) Эти ответы в своём узком контексте часто кажутся разумными, но в целом из-за них настоящие ситуации кажутся приуменьшенными, а глубокие проблемы остаются непризнанными и нерешёнными. Мой опыт взаимодействия с языком и сообществом за прошедший десяток лет намекает, что, по крайней мере, с точки зрения базовой корректности язык Julia сейчас ненадёжен и не находится на пути к становлению надёжным. В большинстве случаев использования, на которые нацелена команда разработчиков Julia, риски попросту не стоят выгод. Десять лет назад создатели языка Julia рассказали миру о [вдохновляющих и амбициозных целях](https://julialang.org/blog/2012/02/why-we-created-julia/). Я по-прежнему верю, что однажды их можно будет достичь, но без пересмотра паттернов, приведших проект в текущее состояние, это невозможно.
https://habr.com/ru/post/666332/
null
ru
null
# Тестирование производительности веб-сервиса в рамках Continuous Integration. Опыт Яндекса Почти всех новых сотрудников Яндекса поражают масштабы нагрузок, которые испытывают наши продукты. Тысячи хостов с сотнями тысяч запросов в секунду. И это только один из сервисов. При этом отвечать на запросы мы должны за доли секунды. Даже незначительное изменение в продукте может оказать существенное влияние на производительность, поэтому важно тестировать и оценивать влияние своего кода на сервис. В нашем сервисе рекламных технологий тестирование работает в рамках методологии Continuous integration, более подробно об организации которой мы расскажем 25 октября на мероприятии [Яндекс изнутри](https://events.yandex.ru/events/meetings/25-oct-2018/?_openstat=zxzlbnrzozi1mtaxods7agficg&utm_source=habr&utm_campaign=testing151018), а сегодня мы поделимся с читателями Хабра опытом автоматизации оценки важных продуктовых метрик, связанных с производительностью сервиса. Вы узнаете, как доверить анализ машине, а не следить за ними на графиках. Поехали! ![](https://habrastorage.org/r/w780q1/webt/iz/tt/0g/iztt0gctohbgmc0liwkarkwteye.jpeg) Речь не пойдет о том, как протестировать сайт. Для этого есть немало онлайн-инструментов. Сегодня мы поговорим о высоконагруженном внутреннем бэкенд-сервисе, который является частью большой системы и готовит информацию для внешнего сервиса. В нашем случае – для страниц поисковой выдачи и сайтов партнеров. Если наш компонент не успевает отвечать, то информацию от него просто не отдадут пользователю. А значит, компания потеряет деньги. Поэтому очень важно отвечать вовремя. Какие важные показатели сервера можно выделить? * **Request per second (RPS)**. Счастье одного пользователя нам, конечно же, важно. Но что, если к вам пришел не один, а тысячи пользователей. Сколько запросов в секунду может выдержать ваш сервер и не упасть? * **Time per request**. Контент сайта должен отрисовываться как можно быстрее, чтобы пользователю не надоело ждать, и он не ушел в магазин за попкорном. В нашем случае он не увидит важную часть информации на странице. * **Resident set size (RSS)**. Обязательно следим за тем, сколько ваша программа потребляет памяти. Если сервис съест всю память, вряд ли можно будет говорить об отказоустойчивости. * **HTTP-ошибки**. Итак, давайте по порядку. ### Request per second Наш разработчик, который долгое время занимался вопросами нагрузочного тестирования, любит говорить про критический ресурс системы. Давайте разберемся, что это такое. У каждой системы есть свои конфигурационные характеристики, которые определяют работу. Например, длина очереди, время ожидания ответа, threads-worker pool и т.д. И вот может так случиться, что ёмкость вашего сервиса упирается в какой-то из этих ресурсов. Можно провести эксперимент. Увеличивать по очереди каждый ресурс. Ресурс, увеличение которого повысит ёмкость вашего сервиса, и будет для вас критическим. В хорошо сконфигурированной системе, чтобы поднять ёмкость, придется увеличить не один ресурс, а несколько. Но такой всё равно можно "нащупать". Будет отлично, если вы сможете настроить свою систему так, чтобы все ресурсы работали в полную силу, а сервис укладывался в заданные ему временные рамки. Чтобы оценить, сколько запросов в секунду выдержит ваш сервер, нужно направить в него поток запросов. Так как у нас этот процесс встроен в CI-систему, мы используем очень простую "пушку", с ограниченной функциональностью. Но из открытого ПО для этой задачи отлично подойдет Яндекс.Танк. У него есть подробная [документация](https://tech.yandex.ru/tank/). В подарок к Танку идёт [сервис](https://overload.yandex.net) для просмотра результатов. *Небольшой офтоп.* У Яндекс.Танка достаточно богатая функциональность, не ограниченная автоматизацией обстрела запросами. Он также поможет собрать метрики вашего сервиса, построить графики и прикрутить модуль с нужной вам логикой. В общем, очень рекомендуем познакомиться с ним. Теперь в Танк нужно скормить запросы, чтобы ими обстрелять наш сервис. Запросы, которыми вы будете обстреливать сервер, могут быть однотипные, искусственно созданные и размноженные. Однако куда точнее будут измерения, если вы сможете собрать реальные пул запросов от пользователей за некоторый интервал времени. Ёмкость можно измерять двумя способами. **Открытая модель нагрузки (стресс-тестирование)** Сделать "пользователей", то есть несколько потоков, которые будут отправлять запрос в вашу систему. Нагрузку мы будем давать не постоянную, а наращивать или даже подавать её волнами. Тогда это приблизит нас к реальной жизни. Наращиваем RPS и ловим точку, в которой обстреливаемый сервис “пробьёт” SLA. Таким образом можно найти пределы работы системы. Для расчета количества пользователей можно воспользоваться формулой Литтла (о ней можно почитать [тут](https://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%BA%D0%BE%D0%BD_%D0%9B%D0%B8%D1%82%D1%82%D0%BB%D0%B0)). Опуская теорию, формула выглядит так: RPS = 1000 / T \* workers, где • T – среднее время обработки запроса (в миллисекундах); • workers – количество потоков; • 1000 / T запросов в секунду – такое значение выдаст однопоточный генератор. **Закрытая модель нагрузки (нагрузочное тестирование)** Берём фиксированное количество “пользователей”. Нужно настроить так, чтобы входная очередь, соответствующая конфигурации вашего сервиса, была всегда забита. При этом делать число потоков больше, чем лимит очереди, бессмысленно, так как мы будем упираться в это число, а остальные запросы будут отбрасываться сервером с 5xx ошибкой. Cмотрим, сколько запросов в секунду конструкция сможет выдать. Такая схема в общем случае не похожа на реальный поток запросов, но она поможет показать поведение системы при максимальной нагрузке и оценить её пропускную способность на текущий момент. Для подавляющего большинства систем (где критический ресурс не имеет отношения к обработке соединений) результат будет одинаковый. При этом у закрытой модели шум меньше, потому что система всё время теста находится в интересующей нас области нагрузки. Мы при тестировании нашего сервиса используем закрытую модель. После отстрела пушка выдает нам, сколько запросов в секунду наш сервис смог выдать. Яндекс.Танк этот показатель тоже легко подскажет. ### Time per request Если вернуться к предыдущему пункту, то становится очевидно, что при такой схеме оценивать время ответа на запрос не имеет никакого смысла. Чем сильнее мы нагрузим систему, тем сильнее она будет деградировать и тем дольше будет отвечать. Поэтому для тестирования времени ответа подход должен быть другим. Для получения среднего времени ответа воспользуемся тем же Яндекс.Танком. Только теперь зададим RPS, соответствующий среднему показателю вашей системы в продакшене. После обстрела получим времена ответов каждого запроса. По собранным данным можно посчитать процентили времен ответов. Дальше нужно понять, какой процентиль мы считаем важным. Например, мы отталкиваемся от продакшена. Мы можем оставить 1% запросов на ошибки, неответы, дебажные запросы, которые отрабатывают долго, проблемы с сетью и т.п. Поэтому мы считаем значимым время ответа, в которое вмещается 99% запросов. ### Resident set size Непосредственно наш сервер работает с файлами через [mmap](https://ru.wikipedia.org/wiki/Mmap). Измеряя показатель RSS, мы хотим знать, сколько памяти программа забрала у операционной системы за время работы. В Linux пишется файл /proc/PID/smaps – это расширение, основанное на картах, показывающее потребление памяти для каждого из отображений процесса. Если вы ваш процесс использует tmpfs, то в smaps попадёт как анонимная, так и неанонимная память. В неанонимную память входят, например, файлы, подгруженные в память. Вот пример записи в smaps. Указан конкретный файл, а его параметр Anonymous = 0kB. ``` 7fea65a60000-7fea65a61000 r--s 00000000 09:03 79169191 /place/home/.../some.yabs Size: 4 kB Rss: 4 kB Pss: 4 kB Shared_Clean: 0 kB Shared_Dirty: 0 kB Private_Clean: 4 kB Private_Dirty: 0 kB Referenced: 4 kB Anonymous: 0 kB AnonHugePages: 0 kB Swap: 0 kB KernelPageSize: 4 kB MMUPageSize: 4 kB Locked: 0 kB VmFlags: rd mr me ms ``` А это пример анонимного выделения памяти. Когда процесс (тот же mmap) делает запрос в операционную систему на выделение определенного размера памяти, ему выделяется адрес. Пока процесс занимает только виртуальную память. В этот момент мы ещё не знаем какой физический кусок памяти выделится. Мы видим безымянную запись. Это пример выделения анонимной памяти. У системы запросили размер 24572 kB, но им не воспользовались и фактически заняли только RSS = 4 kB. ``` 7fea67264000-7fea68a63000 rw-p 00000000 00:00 0 Size: 24572 kB Rss: 4 kB Pss: 4 kB Shared_Clean: 0 kB Shared_Dirty: 0 kB Private_Clean: 0 kB Private_Dirty: 4 kB Referenced: 4 kB Anonymous: 4 kB AnonHugePages: 0 kB Swap: 0 kB KernelPageSize: 4 kB MMUPageSize: 4 kB Locked: 0 kB VmFlags: rd wr mr mw me ac ``` Так как выделенная неанонимная память никуда не денется после остановки процесса, файл не удалится, то такой RSS нас не интересует. Перед тем, как начать отстрел по серверу, мы суммируем RSS из /proc/PID/smaps, выделенный под анонимную память, и запоминаем его. Проводим обстрел, аналогичный тестированию time per request. После окончания считаем RSS ещё раз. Разница между начальным и конечным состоянием и будет количество памяти, которое использовал ваш процесс во время работы. ### HTTP-ошибки Не забывайте следить за кодами ответов, которые во время тестирования возвращает сервис. Если что-то в настройке теста или окружения пошло не так, и вам на все запросы сервер вернул 5хх и 4хх ошибки, то смысла в таком тесте было не много. Мы следим за долей плохих ответов. Если ошибок много, то тест считается невалидным. ### Немного о точности измерений А теперь самое важное. Давайте вернёмся к предыдущим пунктам. Абсолютные величины посчитанных нами метрик, оказывается, не так уж нам и важны. Нет, конечно же, вы можете добиваться стабильности показателей, учтя все факторы, погрешности и флуктуации. Параллельно написать научную работу на эту тему (кстати, если кто искал себе такую, эта может быть неплохим вариантом). Но это не то, что нас интересует. Нам важно влияние конкретного коммита на код относительно предыдущего состояния системы. То есть важна разница метрик от коммита к коммиту. И вот тут необходимо настроить процесс, который будет сравнивать эту разницу и при этом обеспечит стабильность абсолютной величины на этом интервале. Окружение, запросы, данные, состояние сервиса – все доступные нам факторы должны быть зафиксированы. Вот эта система и работает у нас в рамках Continuous integration, обеспечивая нас информацией о всевозможных изменениях, которые произошли в рамках каждого коммита. Несмотря на это, всё зафиксировать не удастся, останется шум. Уменьшить шум мы можем, очевидно, увеличив выборку, то есть произвести несколько итераций отстрела. Далее, после отстрела, скажем, 15 итераций, можно посчитать медиану получившейся выборки. Кроме того, необходимо найти баланс между шумом и длительностью отстрела. Мы, например, остановились на погрешности в 1%. Если вы хотите выбрать более сложный и точный статистический метод в соответствии со своими требованиями, рекомендуем [книгу](https://www.amazon.com/100-Statistical-Tests-Gopal-Kanji/dp/141292376X), в которой перечислены варианты с описанием, когда и какой применяется. ### Что ещё можно сделать с шумом? Отметим, что немаловажную роль в таком тестировании занимает среда, в которой вы проводите тесты. Тестовый стенд должен быть надежным, на нём не должны быть запущены другие программы, так как они могут приводить к деградации вашего сервиса. Кроме того, результаты могут и будут зависеть от профиля нагрузки, окружения, базы данных и от различных “магнитных бурь”. Мы в рамках одного теста коммита проводим несколько итераций на разных хостах. Во-первых, если вы пользуетесь облаком, то там может происходить что угодно. Даже если облако специализированное, как наше, всё равно там работают служебные процессы. Поэтому полагаться на результат от одного хоста нельзя. А если хост у вас железный, где нет, как в облаке, стандартного механизма поднятия окружения, то его можно вообще один раз случайно сломать и так и оставить. И врать он будет вам всегда. Поэтому мы гоняем наши тесты в облаке. Из этого, правда, вытекает другой вопрос. Если ваши измерения производятся каждый раз на разных хостах, то результаты могут немного шуметь и из-за этого в том числе. Тогда можно нормировать показания на хост. То есть по историческим данным собрать “коэффициент хоста” и учитывать его при анализе результатов. Анализ исторических данных показывает, что "железо" у нас разное. В слово "железо" тут входят версия ядра и последствия uptime (по-видимому, не перемещаемые объекты ядра в памяти). Таким образом, каждому "хосту" (при перезагрузке хост "умирает" и появляется "новый") ставим в соответствие поправку, на которую умножаем RPS перед агрегацией. Поправки считаем и обновляем крайне топорным способом, подозрительно напоминающим некоторый вариант обучения с подкреплением. Для заданного вектора похостовых поправок считаем целевую функцию: * в каждом тесте считаем стандартное отклонение "поправленных" полученных результатов RPS * берем от них среднее с весами равными ![$exp((testtimestamp - now) / tau) $](https://habrastorage.org/getpro/habr/formulas/bd3/45c/050/bd345c050df623b2ecb78f808c94230b.svg), * у нас tau = 1 неделя. Дальше одну поправку (для хоста, у которого сумма этих весов наибольшая) фиксируем в 1.0 и ищем значения всех остальных поправок, дающие минимум целевой функции. Чтобы провалидировать результаты на исторических данных, считаем поправки на старых данных, считаем поправленный результат на свежих, сравниваем с неисправленным. Ещё один вариант корректировки результатов и уменьшения шума – это нормировка на "синтетику". Перед запуском трестируемого сервиса запустить на хосте “синтетическую программу”, по работе которой можно оценить состояние хоста и рассчитать поправочный коэффициент. Но в нашем случае мы используем поправки по хостам, а эта идея так и осталась идеей. Возможно, кому-то из вас она приглянется. Несмотря на автоматизацию и все её плюсы, не забывайте о динамике ваших показателей. Важно следить, чтобы сервис не деградировал во времени. Маленькие просадки можно не заметить, они могут накопиться, и на большом временном промежутке ваши показатели могут просесть. Вот пример наших графиков, по которым мы смотрим на RPS. Он показывает относительное значение на каждом проверенном коммите, его номер и возможность посмотреть откуда был отведен релиз. ![](https://habrastorage.org/r/w1560/webt/qu/lj/_h/qulj_hvry8sfubkrt285xlzidsq.png) ![](https://habrastorage.org/r/w1560/webt/gp/76/o9/gp76o9rgelvep5u8rrpyoricmfs.png) Если вы дочитали статью, значит, вам точно будет интересно [посмотреть](https://www.youtube.com/watch?v=gws7L3EaeC0) доклад про Яндекс.Танк и анализ результатов нагрузочного тестирования. Также напоминаем, что более подробно об организации Continuous integration мы расскажем 25 октября на мероприятии [Яндекс изнутри](https://events.yandex.ru/events/meetings/25-oct-2018/?_openstat=zxzlbnrzozi1mtaxods7agficg&utm_source=habr&utm_campaign=testing151018). Приходите в гости!
https://habr.com/ru/post/425867/
null
ru
null
# Сборка библиотеки Microsoft Detours под Visual Studio 2008 ![](https://habrastorage.org/r/w1560/storage2/05f/bf0/f86/05fbf0f8656cbb89867fb314c481bae2.png)О прекрасной библиотеке [Microsoft Detours](http://research.microsoft.com/en-us/projects/detours/) тут [уже](http://habrahabr.ru/blogs/asm/125623/) [писали](http://habrahabr.ru/blogs/cpp/122735/). Её возможности и правда впечатляют, есть только одно но: библиотеку нужно собирать из исходников (что вообще не характерно для библиотек на платформе Windows и тем более для продуктов Microsoft). Более того, внятную инструкцию как это сделать найти трудно (я так и не смог), а штатный make-файл при сборке с помощью Visual Studio 2008 выдаёт кучу ошибок. Собрав наконец Detours, я решил написать (для себя — на будущее) инструкцию по сборке. Если кому-то она сэкономит пару минут — буду рад. 1. Качаем [Microsoft Detours](http://research.microsoft.com/en-us/downloads/d36340fb-4d3c-4ddd-bf5b-1db25d03713d/default.aspx). 2. Устанавливаем (всё по-умолчанию). 3. Переходим в папку проекта, открываем файл **samples\common.mak** в любом текстовом редакторе (полный путь к этому файлу у меня: **C:\Program Files\Microsoft Research\Detours Express 3.0\samples\common.mak**). Внимание — если вы используете Vista\Win7 с включенным UAC — вам понадобится редактор, запущенный с привилегиями администратора («Run as administrator»). 4. Находим строку ``` rc /nologo /fo$(@) /i$(INCD) $(*B).rc ``` и заменяем её на ``` rc /fo$(@) /i$(INCD) $(*B).rc ``` т.е. убираем "/nologo" 5. Запускаем консоль Visual Studio с привилегиями администратора: Пуск->All programs->Microsoft Visual Studio 2008->Visual Studio Tools->Visual Studio 2008 Command Prompt — «Run as administrator» 6. Переходим в папку Microsoft Detours ``` cd "C:\Program Files\Microsoft Research\Detours Express 3.0" ``` 7. Объявляем переменную окружения с целевой платформой ``` set DETOURS_TARGET_PROCESSOR=x86 ``` 8. Билдим nmake all На выходе получаем собранную библиотеку и все примеры из папки samples. Удачи в использовании.
https://habr.com/ru/post/139344/
null
ru
null
# Отладка в Django Новичкам в Django будет полезно узнать об очень полезном инструменте отладки — **debug-toolbar**. Он настолько крут, что его называют **Firebug for Django**. На больших проектах без него (или другого отладчика) не обойтись. Debug-toolbar — это набор панелей, появляющихся на странице в режиме отладки. ![Google Development](https://habrastorage.org/r/w1560/getpro/habr/post_images/a05/778/88f/a0577888f465c357e3e72312902b38e4.png) Набор панелей можно менять. На данный момент доступны 9 штук. Вот некоторые подробности: ### Version Показывает версию Django. Эту панель я обычно отключаю, т. к. версию знаю и без подсказок, а места на экране и так мало. ### Timer Время выполнения приложения и число переключений контекста. ![Timer](https://habrastorage.org/r/w1560/getpro/habr/post_images/248/406/2ef/2484062ef612a9cc41acce14b01a7e19.png) Очень вредная вкладка. Если держать эти цифры всегда перед глазами, проект не получиться сдать в срок — всегда будет казаться, что все операции выполняются как минимум в 10 раз дольше, чем могли бы. **Помните: «Преждевременная оптимизация — корень всех зол».** ### SettingsVars Тут можно увидеть все настройки Django из файла settings.py данного приложения. Не знаю, есть ли в этом большая пользя — конфиг всегда можно и в файле посмотреть. ### Headers Теоретически, тут должны быть заголовки HTTP-запроса, который привел к отображению исследуемой страницы. Но на самом деле на этой панели я вижу список серверных переменных окружения: ![HTTP Headers](https://habrastorage.org/r/w1560/getpro/habr/post_images/0c9/78c/2e9/0c978c2e97bd639be613c19a4cee9df6.png) Нужны не часто, но хорошо, когда такая информацию есть под рукой. ### Request Тут можно посмотреть cookies для этого домена, Django session variables, а также переменные, переданные в GET/POST-запросе. Вы сможете это себе представить и без картинки. ### Template Панель информации о шаблоне, с помощью которого происходит вывод. Наверное, хорошо работает при использовании родного шаблонизатора Django. А для посторонних работает только просмотр контекстов: ![HTTP Headers](https://habrastorage.org/r/w1560/getpro/habr/post_images/101/ca6/e63/101ca6e6321fa7c2e1dda56918157e03.png) ### SQLDebug Мощная штука. Показывает все запросы к БД, время их выполнения и полную трассировку. ![SQL Debug](https://habrastorage.org/r/w1560/getpro/habr/post_images/f99/b7a/759/f99b7a7594962ca3e42e958f11bba502.png) Это позволяет выявить проблемный по производительности запрос и легко найти его даже в самом запутанном приложении с наследованием шаблонов. Работает для любого шаблонизатора, вроде бы. Кстати, любой запрос можно выполнить прямо из панели, а также попросить его Explain или даже Profile (если БД поддерживает). ![SQL Debug](https://habrastorage.org/r/w1560/getpro/habr/post_images/1a0/659/260/1a0659260aebdcc9145209877adaddf5.png) ### Cache Панель позволяет просматривать акты записи и чтения из кеша, полученную информацию, потраченное время и другую статистику кеширования: ![Cache](https://habrastorage.org/r/w1560/getpro/habr/post_images/771/557/62f/77155762f9689ab43dbacfa1b2c1dd52.png) Например, на этой картинке видно, что была попытка взять ключ update\_sites из кеша, но он оказался пустым (кеш был просроченным). Затем случилась запись в кеш новых данных. Хочется верить, что в колонке Time верный порядок цифр и размерность. ### Logging Это как console.log('Привет'). Выводит отладочные сообщения Python-модуля logging. Чтобы получить отладочный вывод, нужно подключить модуль и что-то в него сказать: `import logging     logging.info('Пороки этого мира суть метафоры добродетелей мира грядущего.')`
https://habr.com/ru/post/50221/
null
ru
null
# Приручение SphinxSearch с помощью слона ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/4ae/15b/5c1/4ae15b5c1c063346f7e06525a9923474.png) Добрый день, хаброжители! Представляю вашему вниманию расширение для PostgreSQL, позволяющее отправлять поисковые запросы на Sphinx из PostgreSQL и получать результаты этих запросов. Подробности реализации и ссылка на репозиторий под катом. ### Предисловие В одном крупном web проекте потребовалось использование полнотекстового [движка Sphinx](http://sphinxsearch.com/). И все бы хорошо, если бы не потребовалось результаты запросов от Sphinx дополнительно сортировать по хитро заданным правилам внутри базы. И тут встал очевидный вопрос: как? Тут напрашиваются как минимум два варианта: * Делать полнотекстовый запрос в Sphinx, результаты сортировать в приложении; * Воспользоваться мощью SQL в PostgreSQL для получения данных поисковых запросов из Sphinx в табличной форме с возможностью дополнительной обработки в базе. Взвесив все плюсы и минусы указанных вариантов, было реализовано расширение sphinxlink. Идея реализации была честно подсмотрена с расширения [dblink](https://www.postgresql.org/docs/10/static/contrib-dblink-function.html). ### Функции расширения и детали реализации Как и в dblink, управление всем осуществляется с помощью SQL функций, написанных на C. Клиентский протокол взаимодействия с Sphinx соответствует протоколу взаимодействия mysql, а это значит, что мы можем использовать самую обыкновенную библиотеку mysql-client для подключения к Sphinx. Для подключения к серверу Sphinx используется функция *sphinx\_connect()*: ``` SELECT * FROM sphinx_connect('myconn'); sphinx_connect ---------------- OK (1 строка) ``` Подключения создаются в статической области памяти бэкенда в виде структуры HTAB, поэтому при закрытии закрытии сессии все созданные соединения к Sphinx будут закрыты. Для просмотра списка открытых соединений с Sphinx и параметров подключения используется функция *sphinx\_connections()*: ``` SELECT * FROM sphinx_connections(); conname | host | port ---------+-----------+------ myconn | 127.0.0.1 | 9306 (1 строка) ``` А теперь, как отправлять поисковые запросы и получать результаты. Получение результатов поискового запроса в табличной форме реализовано в функции *sphinx\_query()*. Важно при этом указать название столбцов и их типов данных для корректного формирования результата. Например, создадим индекс в Sphinx со следующей структурой: ``` DESC myindex; +---------+--------+ | Field | Type | +---------+--------+ | id | bigint | | content | field | | title | string | +---------+--------+ ``` В поле *content* будут лежать тексты документов (например, рассказы А.П. Чехова), в поле *title* — название рассказа, поле *id* — идентификатор текста (служебное поле в Sphinx). ``` SELECT * FROM sphinx_query('myconn', 'SELECT weight(), * FROM myindex WHERE MATCH(''красота'')') AS (weight integer, docid integer, title text); weight | docid | title --------+-------+------- 1680 | 3 | Дома (1 строка) ``` Для запроса метаинформации по последнему запросу используется функция *sphinx\_meta()*: ``` SELECT * FROM sphinx_meta('myconn'); varname | value -------------+-------- total | 1 total_found | 1 time | 0.000 keyword[0] | красот docs[0] | 1 hits[0] | 1 (6 строк) ``` Данная функция сделана для удобства. Аналогичного эффекта можно добиться, послав запрос *SHOW META* с помощью функции *sphinx\_query()*. Для закрытия ненужного соединения используется функция *sphinx\_disconnect()*: ``` SELECT * FROM sphinx_disconnect('myconn'); sphinx_disconnect ------------------- OK (1 строка) ``` ### Планы реализации У текущей реализации модуля есть ряд недостатков: * Параметры подключений не сохраняются при завершении сессии PostgreSQL — хотелось бы иметь режим работы, при котором параметры соединения сохранялись в реальную таблицу с целью их получения; * Все описанное справедливо для запросов на чтение индексов Sphinx, но нет функции управления RT индексами; * Ваши предложения? Традиционно для подобных постов, оставляю ссылку на github: [sphinxlink](https://github.com/dimv36/sphinxlink). Комментарии и предложения горячо приветствуются. Спасибо за внимание!
https://habr.com/ru/post/347700/
null
ru
null
# Как я закрыл трехлетний issue в TypeScript ![](https://habrastorage.org/r/w780q1/webt/iw/u6/24/iwu624zqqotvo05frkqgtk1wqjq.jpeg) Всё началось с моего желания описать структуру сообщений между web worker'ами. К сожалению, на тот момент встроенные возможности TypeScript этого не позволяли. Я засучил рукава и решил это исправить. Суть проблемы ------------- Попробуйте написать простой воркер и повесить на него слушателя событий. Посмотрите, какие типы выведет компилятор для параметров функции обратного вызова: ``` new Worker().addEventListener('message', (message) => { message // MessageEvent message.data // any }) ``` В поле `data` находятся именно те данные, что вы, автор кода, отправляете. И именно тип этого поля хочется определять. ### Изучаем MessageEvent поближе MessageEvent — интерфейс, описывающий сообщения при коммуникации между вкладками, воркерами, сокетами, WebRTC каналами и т.д. В экосистеме TypeScript этот интерфейс является частью `lib.dom.ts` и `lib.webworker.d.ts`, и описан следующим образом: ``` interface MessageEvent extends Event { readonly data: any; readonly lastEventId: string; readonly origin: string; readonly ports: ReadonlyArray; readonly source: MessageEventSource | null; } ``` Опытные разработчики сразу увидят тут проблему. Этот интерфейс не [Generic](https://www.typescriptlang.org/docs/handbook/generics.html) — поле `data` описано строго как **any**, и мы никак не можем на это повлиять извне. Решив поискать информацию по этому поводу в репозитории TypeScript я быстро нашел [issue](https://github.com/microsoft/TypeScript/issues/19370) в котором описана эта проблема. И даже больше — автор предложил решение. Но за почти **три года**, оно так и не было имплементировано. Я засучил рукава, и решил сделать это. Всего-то и нужно что привести интерфейс MessageEvent, в файлах **lib/lib.dom.d.ts** и **lib/lib.webworker.d.ts** к такому виду: ``` interface MessageEvent extends Event { readonly data: T; readonly lastEventId: string; readonly origin: string; readonly ports: ReadonlyArray; readonly source: MessageEventSource | null; } ``` Сделаем это. Изучаем TypeScript Instructions for Contributing Code ----------------------------------------------------- В нем есть целый раздел посвященный изменениям в файлах **lib.d.ts**. Оттуда узнаём две вещи: 1. Файлы в папке **lib/** напрямую изменять нельзя. Там находятся last-known-good версии и они периодически обновляются на основе соответствующих файлов из папки **src/lib/**. Вот в них то и нужно вносить правки. В нашем случае это **src/lib/dom.generated.d.ts** и **src/lib/webworker.generated.d.ts** 2. Практически все файлы в директории **src/lib/** можно просто отредактировать. За исключением генерируемых (**.generated.d.ts**). Такие файлы создаются с помощью утилиты [TSJS-lib-generator](https://github.com/microsoft/TSJS-lib-generator) и мы должны вносить правки именно в неё. ### Изучаем TSJS-lib-generator TSJS-lib-generator — это инструмент (написанный на TS) который принимает все известные Microsoft Edge веб-интерфейсы и преобразовывает их в набор TypeScript интерфейсов. При этом существует возможность переопределить характеристики каких-либо интерфейсов, удалить некоторые или добавить новые. Все эти правила описываются в json формате в файлах **addedTypes.json**, **overridingTypes.json** и **removedTypes.json**. ### Правило для изменения MessageEvent Нам нужно **изменить существующий** интерфейс, поэтому будем редактировать **overridingTypes.json**. К сожалению, я не нашел подробной документации о синтаксисе этих файлов, но существующих примеров было достаточно для понимания концепции. Итак, в **overridingTypes.json** в свойстве `interfaces` добавляем новый интерфейс, пока что без каких либо свойств: ``` { "interfaces": { "interface": { "MessageEvent": {} } } } ``` Пробуем запустить сборку и проверим, что ничего не сломалось: ``` npm run build ``` TSJS-lib-generator сгенерирует те самые **\*.generated.d.ts** файлы. И сейчас они должны быть идентичны **\*.generated.d.ts** файлам в репозитории TS. Добавляем свойство `type-parameters`, тем самым превращая MessageEvent в Generic: ``` { "interfaces": { "interface": { "MessageEvent": { "type-parameters": [ { "name": "T", "default": "any" } ] } } } } ``` Запускаем сборку и проверяем результат: ``` interface MessageEvent extends Event { readonly data: any; readonly lastEventId: string; readonly origin: string; readonly ports: ReadonlyArray; readonly source: MessageEventSource | null; } ``` Уже ближе к тому, что мы в итоге хотим получить. Добавим описание свойства `data` и сигнатуры конструктора: ``` { "interfaces": { "interface": { "MessageEvent": { "name": "MessageEvent", "type-parameters": [ { "name": "T", "default": "any" } ], "properties": { "property": { "data": { "name": "data", "read-only": 1, "override-type": "T" } } }, "constructor": { "override-signatures": [ "new(type: string, eventInitDict?: MessageEventInit): MessageEvent" ] } } } } } ``` И вуаля! Генерируется в точности то, что нам необходимо. ``` interface MessageEvent extends Event { readonly data: T; readonly lastEventId: string; readonly origin: string; readonly ports: ReadonlyArray; readonly source: MessageEventSource | null; } ``` Далее дело за малым: * Запустить тесты. * Оформить Pull Request в соответствии со всеми правилами описанными в [Contribution Guidelines](https://github.com/microsoft/TSJS-lib-generator/tree/af75df4264964bac7e8acb7f359866b151ec94e4#contribution-guidelines). * И подписать [CLA](https://cla.opensource.microsoft.com/microsoft/TSJS-lib-generator?pullRequest=860) от Microsoft. Итог ---- Спустя неделю с момента отправки [мой Pull Request](https://github.com/microsoft/TSJS-lib-generator/pull/860) был принят. 12.06.2020 были обновлены `**src/lib/**dom.generated.d.ts` и `**src/lib/**webworker.generated.d.ts` в репозитории TypeScript. А на момент написания статьи все правки перенесены в `**lib/**lib.dom.ts` и `**lib/**lib.webworker.d.ts` и уже доступны в [TypeScript Nightly](https://www.typescriptlang.org/play/index.html?ts=Nightly#code/HYUw7gBA6g9gTgaxHAFAcjQSgHQEMAm+AogG4jAAuAMgJYDOF5y6AtiHXbgOYhoA0EFGw7cQALggBZdpx6lyFADzAAriwBGyANoBdAHyYIAXj0QA3gCgI1iMNkgrNu6Oz5cFXBYC+mIA).
https://habr.com/ru/post/507522/
null
ru
null
# Как Airbnb ошиблась и зачем строила Wall ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e44/e85/722/e44e85722d92a829f502feca5a9f5e8b.jpg)Чтобы ускорить принятие решений и лучше поддерживать мониторинг метрик бизнеса, в Airbnb внедрили сертификацию всех метрик и наборов данных, написали рекомендации о проверках качества данных, но не обеспечили их выполнение. О возникшей из-за этого проблеме и её решении рассказываем к старту флагманского [курса по Data Science](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_190921&utm_term=lead). --- Добавление проверок качества данных в конвейер стало стандартной практикой в нашем рабочем процессе инженерии данных и помогло нам обнаружить многие критические проблемы качества данных на ранних этапах конвейера. Расскажем о проблемах, с которыми мы столкнулись при добавлении большого количества проверок данных (на качество данных, точность, полноту и аномалии) для предотвращения ошибок в данных в масштабах всей компании, и как это побудило нас создать фреймворк, чтобы добавлять проверки легко. Проблемы -------- Когда мы ввели процесс сертификации аналитических данных [Midas](https://medium.com/airbnb-engineering/data-quality-at-airbnb-870d03080469), мы создали рекомендации о том, какие проверки качества данных необходимо добавить, но не обеспечили их выполнение. В результате каждая команда инженеров по обработке данных приняла свой собственный подход. ### 1. Подходы В экосистеме аналитических данных Airbnb мы используем Apache Airflow для планирования заданий ETL или конвейеров данных. В качестве различных механизмов выполнения широко используются Hive SQL, Spark SQL, Scala Spark, PySpark и Presto. Однако, поскольку команды начали создавать одинаковые проверки качества данных в разных механизмах выполнения, мы столкнулись с другими проблемами: * Не было централизованного способа посмотреть покрытие данных проверками. * Изменение рекомендаций по проверке данных требовало изменений во множестве мест кодовой базы по всей компании. * Реализации, рассчитанные на будущее, практически невозможно было масштабировать. Команды изобретали колесо, один и тот же код распространялся по всей кодовой базе. ### 2. Дублирование усилий Разным командам часто требовалось создавать инструменты, отвечающие их собственным требованиям к различным проверкам данных. Каждая команда Data Engineering начала создавать инструменты проверки данных отдельно от других. Хотя инструменты надёжно работали и удовлетворяли потребности бизнеса, такой подход был проблематичным по нескольким причинам: * Мы начали создавать несколько фреймворков параллельно. * Системы проверки данных стали дорогостоящими в обслуживании и привели к накладным расходам. * Недостающие функции и отсутствие гибкости/расширяемости затрудняли повторное использование. ### 3. Сложный код DAG Airflow Каждая проверка была добавлена как отдельная задача в Airflow, как часть конвейера ETL. Файлы Airflow DAG вскоре стали огромными. Операционные накладные расходы на эти проверки выросли до такой степени, что их стало трудно поддерживать: * Не было поддержки блокирующих и неблокирующих проверок. Незначительные сбои при проверке или ложные срабатывания часто блокировали SLA критически важных конвейеров данных. * Логика ETL и проверки данных тесно сплелись и стали непригодными для повторного использования. * Обслуживание стало сложным с операционной точки зрения: мы отслеживали зависимости вручную, что также затрудняло добавление проверок. Определение требований ---------------------- Чтобы устранить эти недостатки инструментария, мы задались целью создать единый фреймворк проверки данных, который отвечал бы следующим требованиям и обеспечивал бы более высокую степень удобства использования: * Расширяемость: в Airbnb используется методология проверки данных Unify. * Управление через конфигурацию: определение проверок в виде файлов в формате YAML для ускорения разработки. * Простота: упрощённый интерфейс для ускоренного внедрения в масштабах компании. Фреймворк Wall -------------- Wall — способ писать автономные проверки качества данных. Это основа, призванная защитить наши аналитические решения от ошибок в плохих данных и обеспечить достоверность данных по всему Airbnb. Wall написан на языке Python поверх Apache Airflow. Пользователи могут добавлять проверки качества данных в свои группы Airflow DAG, написав простой файл конфигурации и вызвав в своей группе DAG вспомогательную функцию. * Wall предоставляет большинство имеющихся в компании механизмов проверки качества и обнаружения аномалий в рамках общей структуры, что значительно облегчает стандартизацию проверок данных. * Он поддерживает шаблонизированную пользовательскую бизнес-логику на основе SQL, проверки точности и расширяемую библиотеку предопределенных проверок. * Wall управляется конфигурацией — для добавления проверок не требуется код. * Проверки могут использоваться в конвейере ETL по схеме [Stage-Check-Exchange](https://airflow.apache.org/docs/apache-airflow/1.10.2/concepts.html?highlight=branch%20operator#subdags) или как отдельные проверки. * Фреймворк можно расширять — любая команда может добавить свои специфические для команды проверки в Wall довольно легко, следуя модели с открытым исходным кодом (по согласованию с командой Data Engineering Paved Path). * Бизнес-пользователи могут легко добавлять проверки качества без создания DAG Airflow или задач для каждой проверки. * Wall заботится о проверках на основе SQL и создании задач по обнаружению аномалий. Он также заботится о создании задач стадии и обмена и установке соответствующих зависимостей от проверок в отделенной манере. Поэтому после перехода на Wall конвейеры ETL были значительно упрощены, и мы наблюдали случаи, когда удавалось избавиться более чем от 70 % кода DAG. Архитектура Wall ---------------- В соответствии с нашими ключевыми требованиями фреймворк можно расширять. Он состоит из трёх основных компонентов — WallApiManager, WallConfigManger и WallConfigModel. ![Внутренняя архитектура Wall](https://habrastorage.org/r/w1560/getpro/habr/upload_files/328/459/7cf/3284597cf066c8a8e67d5705eebe7473.png "Внутренняя архитектура Wall")Внутренняя архитектура Wall### WallApiManager Wall Api Manager — это публичный интерфейс для организации проверок и обменов с помощью Wall. Пользователи Wall используют это только из своих файлов DAG. Он принимает на вход путь к папке config и поддерживает широкий спектр ETL-операций, таких как Spark, Hive и т. д. ### WallConfigManager Wall Config Manager анализирует и проверяет файлы конфигурации проверки, а затем вызывает соответствующие модели CheckConfigModels для создания списка задач Airflow. Wall в основном использует проверки Presto для генерации проверок данных. ### CheckConfigModel Каждая проверка — это отдельный класс, который наследуется от BaseCheckConfigModel. Классы CheckConfigModel в основном отвечают за проверку параметров и генерацию заданий Airflow для проверки. CheckConfigModel делает фреймворк расширяемым. Различные команды могут добавлять свои собственные CheckConfigModel, если существующие модели не поддерживают их сценарии использования. Основные характеристики ----------------------- Wall обеспечил следующие ключевые особенности, о которых мы говорили выше. ### Гибкость * Конфигурации могут быть расположены в том же репозитории, где команды уже определяют свои DAG конвейеров данных — команды или владельцы DAG могут решить, где они будут расположены. Команды могут использовать либо отдельный файл YAML для каждой таблицы, либо один файл YAML для группы таблиц для определения проверок. * Каждая модель конфигурации проверки может определять произвольный набор параметров и при необходимости переопределять параметры. Одни и те же конфигурации проверки могут быть оркестрованы, а также могут выполняться по-разному в зависимости от контекста работы, т. е. как часть stage-check-exchange ETL или в качестве предварительных и пост-проверок. * Свойство проверки может быть иерархическим (т. е. он может быть определено на уровне команды, файла, таблицы или на уровне проверки). Значения свойств нижнего уровня переопределяют значения верхнего уровня. Команды могут определять настройки по умолчанию на уровне команды в общем файле YAML вместо дублирования одних и тех же конфигураций и проверок в разных файлах. * В случае проверок stage-check-exchange пользователи могут указать блокирующие и неблокирующие проверки. Это делает Wall гибче в адаптации новых проверок. ### Расширяемость * Новый тип проверки модели легко адаптировать к работе. Wall поддерживает широко используемые механизмы проверки/валидации данных. * Каждая модель конфигурации проверки отделена от другой и может определять свой собственный набор параметров, валидаций, логику генерации проверки, предварительную обработку и т. д. * Модели контрольных конфигураций могут быть разработаны сообществом инженеров данных при сотрудничестве с командой Data Engineering Paved Path. ### Простота * Простота копирования-вставки для применения аналогичных проверок в различных таблицах или контекстах. * Модели проверки интуитивно понятны. * Проверки отделены от определения DAG и конвейера ETL, поэтому их можно обновлять без обновления ETL. * Легко проверить всё сразу. Добавление проверки Wall ------------------------ На самом высоком уровне, чтобы организовать конвейер ETL с проверкой данных, пользователям необходимо написать конфигурацию YAML и вызвать API Wall из своей группы DAG. ![Диаграмма взаимодействия пользователей и Wall](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2e3/5a8/1b8/2e35a81b84482ce04216bd4bb88aa5a1.png "Диаграмма взаимодействия пользователей и Wall")Диаграмма взаимодействия пользователей и WallВот насколько легко добавить проверку: предположим, вы хотите проверить, что раздел таблицы foo.foo\_bar в wall\_tutorials\_00 DAG не пуст. Сделать это можно так: 1. Выберите папку для добавления конфигураций проверки, например projects/tutorials/dags/wall\_tutorials\_00/wall\_checks. Создайте в этой папке конфигурацию проверки (например foo.foo\_bar.yml) с таким содержанием: ``` primary_table: foo.foo_bar emails: ['subrata.biswas@airbnb.com'] slack: ['#subu-test'] quality_checks: - check_model: CheckEmptyTablePartition name: EmptyPartitionCheck ``` Файл DAG wall\_tutorials\_00.py обновляется, чтобы создать прверки на основе конфигурации. ``` from datetime import datetime from airflow.models import DAG from teams.wall_framework.lib.wall_api_manager.wall_api_manager import WallApiManager args = { "depends_on_past": True, "wait_for_downstream": False, "start_date": datetime(2020, 4, 24), "email": ["subrata.biswas@airbnb.com",], "adhoc": True, "email_on_failure": True, "email_on_retry": False, "retries": 2, } dag = DAG("wall_tutorials_00", default_args=args) wall_api_manager = WallApiManager(config_path="projects/tutorials/dags/wall_tutorials_00/wall_checks") # Invoke Wall API to create a check for the table. wall_api_manager.create_checks_for_table(full_table_name="foo.foo_bar", task_id="my_wall_task", dag=dag) ``` **Валидация и тестирование** Теперь в списке задач wall\_tutorials\_00 вы увидите такие, созданные Wall задачи: ``` ``` Wall создал задачу SubDagOperator и NamedHivePartitionSensor для таблицы в основном DAG (wall\_tutorials\_00) и инкапсулировал проверки в подграф. Чтобы получить список задач, вам нужно посмотреть задачи подграфа, т. е. выполнить list\_tasks для wall\_tutorials\_00.my\_wall\_task dag. Вернётся такой список: ``` ``` > Вероятно, вы заметили, что Wall создал в подграфе несколько задач DummyOperator и одну задачу PythonOpearator. Это требовалось, чтобы обслуживать потоки выполнения, то есть блокирующие и неблокирующие проверки, зависимости, валидацию и т. п. Эти задачи можно игнорировать, а также удалить или изменить в будущем: у них нет зависимостей. > > Протестировать задачу проверки можно как задачу Airflow: ``` airflow test wall_tutorials_00.my_wall_task EmptyPartitionCheck_foo.foo_bar {ds} ``` Wall в экосистеме данных Airbnb ------------------------------- Интегрировать Wall с другими инструментами экосистемы данных Airbnb было критически важно для долгосрочного успеха. Чтобы инструменты интегрировались легко, мы опубликовали результаты этапа  «check» как события Kafka, на которые другие инструменты могут подписаться. Диаграмма ниже показывает интеграцию инструментов с Wall: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b0a/61d/b6a/b0a61db6a19cab4564aae4cca32b70e1.png)Заключение ---------- Wall обеспечивает соответствие высоким стандартам качества данных Airbnb, благодаря ему планка стандартов не снижается. Включение стандартизованных, но расширяемых проверок, которые легко распространить на нашу распределённую организацию инженерии данных, обеспечивает всей компании надёжные, заслуживающие доверия данные. Чтобы не дублировать усилия в изучении науки о данных, вы можете обратить внимание на наш [флагманский курс](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_190921&utm_term=conc), где вы научитесь решать проблемы бизнеса. Также вы можете перейти на страницы [других курсов](https://skillfactory.ru/catalogue?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=sf_allcourses_190921&utm_term=conc), чтобы узнать, как мы готовим специалистов в других направлениях IT. * [Профессия Data Scientist (24 месяца)](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_190921&utm_term=cat) * [Курс по Data Engineering (2,5 месяца)](https://skillfactory.ru/data-engineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dea_190921&utm_term=cat) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0e3/39f/648/0e339f6485db7d9e91c5eb71bd1829e9.png)Другие профессии и курсы**Data Science и Machine Learning** * [Профессия Data Scientist](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_190921&utm_term=cat) * [Профессия Data Analyst](https://skillfactory.ru/data-analyst-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=analytics_dapr_190921&utm_term=cat) * [Курс «Математика для Data Science»](https://skillfactory.ru/matematika-dlya-data-science#syllabus?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mat_190921&utm_term=cat) * [Курс «Математика и Machine Learning для Data Science»](https://skillfactory.ru/matematika-i-machine-learning-dlya-data-science?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_matml_190921&utm_term=cat) * [Курс по Data Engineering](https://skillfactory.ru/data-engineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dea_190921&utm_term=cat) * [Курс «Machine Learning и Deep Learning»](https://skillfactory.ru/machine-learning-i-deep-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mldl_190921&utm_term=cat) * [Курс по Machine Learning](https://skillfactory.ru/machine-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_ml_190921&utm_term=cat) **Python, веб-разработка** * [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_190921&utm_term=cat) * [Курс «Python для веб-разработки»](https://skillfactory.ru/python-for-web-developers?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_pws_190921&utm_term=cat) * [Профессия Frontend-разработчик](https://skillfactory.ru/frontend-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fr_190921&utm_term=cat) * [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_webdev_190921&utm_term=cat) **Мобильная разработка** * [Профессия iOS-разработчик](https://skillfactory.ru/ios-razrabotchik-s-nulya?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_ios_190921&utm_term=cat) * [Профессия Android-разработчик](https://skillfactory.ru/android-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_andr_190921&utm_term=cat) **Java и C#** * [Профессия Java-разработчик](https://skillfactory.ru/java-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_java_190921&utm_term=cat) * [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer-testirovshik-po?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_qaja_190921&utm_term=cat) * [Профессия C#-разработчик](https://skillfactory.ru/c-sharp-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cdev_190921&utm_term=cat) * [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-razrabotchik-na-unity-i-c-sharp?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_gamedev_190921&utm_term=cat) **От основ — в глубину** * [Курс «Алгоритмы и структуры данных»](https://skillfactory.ru/algoritmy-i-struktury-dannyh?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_algo_190921&utm_term=cat) * [Профессия C++ разработчик](https://skillfactory.ru/c-plus-plus-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cplus_190921&utm_term=cat) * [Профессия Этичный хакер](https://skillfactory.ru/cyber-security-etichnij-haker?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_hacker_190921&utm_term=cat) **А также:** * [Курс по DevOps](https://skillfactory.ru/devops-ingineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_devops_190921&utm_term=cat)
https://habr.com/ru/post/578786/
null
ru
null
# Как в проекте заменить jQuery на D3 Создавая визуализации или интерактивные страницы, мы часто используем комбинацию из jQuery и D3. Причём в основном используется D3, а из jQuery берут небольшой набор функций для манипуляций с DOM. И хотя в D3 есть мощные возможности – селекторы и обёртка для ajax, часто нам не хватает каких-то функций из jQuery. Мы покажем, как можно заменить jQuery, используя D3 повсеместно. В результате ваш код упростится, объём проекта уменьшится, и вы не будете смешивать разные подходы, а будете использовать функции так, как принято в D3. Для начала рассмотрим, в чём эти две библиотеки сходятся. Это удобно для тех, кто уже знает jQuery, и хочет изучить D3. #### Схожести ##### Селекторы Обе библиотеки основаны на простых в использовании, но богатых на возможности селекторах. jQuery ``` $('.foo').addClass('foobar'); $('.foo').removeClass('foobar'); ``` D3 ``` d3.selectAll('.foo').classed('foobar', true); d3.selectAll('.foo').classed('foobar', false); ``` ##### Управление стилями и атрибутами jQuery ``` $('.foo').attr('data-type', 'foobar'); $('.foo').css('background', '#F00'); ``` D3 ``` d3.selectAll('.foo').attr('data-type', 'foobar'); d3.selectAll('.foo').style('background', '#F00'); ``` ##### Ajax Синтаксис немного отличается, но, как у D3, так и у jQuery есть хорошие обёртки для ajax. jQuery ``` $.getJSON('http://url-to-resource.json', doSomething); $.ajax({ url: 'http://url-to-resource.txt', dataType: 'text', type: 'GET', success: doSomething }); ``` D3 ``` d3.json('http://url-to-resource.json', doSomething); d3.text('http://url-to-resource.txt', doSomething); ``` ##### Управление классами Часто бывает необходимо управлять классами элементов DOM, например, чтобы переключать стили. jQuery ``` $('.foo').addClass('foobar'); $('.foo').removeClass('foobar'); ``` D3 ``` d3.selectAll('.foo').classed('foobar', true); d3.selectAll('.foo').classed('foobar', false); ``` ##### Append и Prepend Вставка дочерних узлов – функция важная, особенно при визуализации входных данных. Это делать легко и просто: jQuery ``` $('.foo').append(''); $('.foo').prepend(''); ``` D3 ``` d3.selectAll('.foo').append('div'); d3.selectAll('.foo').insert('div'); ``` ##### Отслеживание событий Одинаковый синтаксис предназначен для отслеживания событий на выбранных элементах. jQuery ``` $('.foo').on('click', clickHandler); ``` D3 ``` d3.selectAll('.foo').on('click', clickHandler); ``` ##### Удаление элементов Иногда вам требуется удаление элементов из DOM. Вот как это делается: jQuery ``` $('.foo').remove(); ``` D3 ``` d3.selectAll('.foo').remove(); ``` ##### Выборка подмножества элементов Вы можете выбрать дочерние элементы из более крупной выборки jQuery ``` $('.foo').find('.bar'); ``` D3 ``` d3.selectAll('.foo').selectAll('.bar'); ``` ##### Управление содержимым Для изменения содержимого узла DOM можно использовать следующие функции. jQuery ``` $('.foo').text('Hello World!'); $('.foo').html('Hello'); ``` D3 ``` d3.selectAll('.foo').text('Hello World!'); d3.selectAll('.foo').html('Hello'); ``` #### Различия Теперь рассмотрим функции, которые есть в jQuery, но отсутствуют в D3. Для каждой из них приводится простое решение на её замену, а также более общий вариант использования, который может пригодиться вам в любом месте вашего приложения, использующий фирменные цепочки D3. ##### Активация событий и настраиваемые события (trigger events and custom events) Одно из преимуществ jQuery – удобство работы с событиями. Можно запускать или отслеживать настраиваемые события для любого элемента на странице. К примеру, можно запустить настраиваемое событие с некими данными для вашего документа, и отслеживать его в коде: ``` //слушаем $(document).on('dataChange', function(evt, data) { //do something with evt and data console.log(data.newData); }); //включаем событие $(document).trigger('dataChange', { newData: 'Hello World!' }); ``` В D3 это не поддерживается напрямую, но всегда можно добиться такого поведения. Простой вариант (если в хэндлере вам не нужно d3.event): ``` //слушаем d3.select(document).on('dataChange', function(data) { console.log(d3.event); //null console.log(data.newData); }); //включаем событие d3.select(document).on('dataChange')({ newData: 'Hello World!' }); ``` Более общий подход – добавить функцию в объект d3, чтобы её можно было использовать на любой выборке. ``` d3.selection.prototype.trigger = function(evtName, data) { this.on(evtName)(data); } ``` Добавление этой функции в D3 позволяет вам получить функцию-триггер, напоминающую таковую в jQuery, которую можно использовать следующим образом: ``` d3.select(document).on('dataChange', function(data) { console.log(data); }); ``` d3.select(document).trigger('dataChange', {newData: 'HelloWorld!'}); ##### after() и before() При помощи jQuery можно вставлять элементы сразу после всех элементов выборки. Рассмотрим код: ``` * List * List * List ``` Можно использовать следующий простой код для вставки нового элемента после каждого элемента списка: ``` $('li').after('- Item '); ``` И вот что мы получим: ``` * List * Item * List * Item * List * Item ``` В D3 придётся пройти по всем элементам выборки и добавить их через JavaScript: ``` d3.selectAll('li').each(function() { var li = document.createElement('li'); li.textContent = 'Item'; this.parentNode.insertBefore(li, this.nextSibling); }) ``` Лучший вариант – сделать функцию общего назначения, добавляющую элементы на основании имени тэга и возвращающую новую выборку из созданных элементов, чтобы затем их можно было редактировать: ``` d3.selection.prototype.after = function(tagName) { var elements = []; this.each(function() { var element = document.createElement(tagName); this.parentNode.insertBefore(element, this.nextSibling); elements.push(element); }); return d3.selectAll(elements); } ``` Добавив следующее в ваш код, можно будет использовать функцию after() почти так же, как это делается в jQuery: ``` d3.selectAll('li') .after('li') .text('Item') //тут можно сделать со вставленными элементами что-нибудь ещё ``` Функция before() выглядит почти также, с той лишь разницей, что элементы вставляются до выборки. ``` d3.selection.prototype.before = function(tagName) { var elements = []; this.each(function() { var element = document.createElement(tagName); this.parentNode.insertBefore(element, this); elements.push(element); }); return d3.selectAll(elements); } ``` ##### empty() Это просто — функция jQuery удаляет все дочерние узлы в выборке. * List-Item * List-Item * List-Item ``` $('ul').empty(); ``` И в результате: ``` ``` В D3 для этого нужно очистить внутренний HTML у выбранного элемента: ``` d3.selectAll('ul').html(''); ``` D3 часто используют для работы с SVG. В этом случае такой код не сработает, поскольку там не поддерживается innerHTML. Поэтому лучше не вызывать html(), а выбрать все дочерние узлы и удалить их: ``` d3.selectAll('ul').selectAll('*').remove(); ``` Код общего назначения будет простой. Я выбрал для функции другое имя, нежели используемое в jQuery, поскольку в D3 уже есть своя функция empty(). ``` d3.selection.prototype.clear = function() { this.selectAll('*').remove(); return this; } ``` Теперь можно очищать выборку почти так же, как в jQuery: ``` d3.selectAll('#foo').clear(); ``` ##### appendTo() В jQuery эта функция работает почти так же, как функция append() в D3, но она добавляет предшествующие выбранные элементы в другую выборку. Чтобы сделать это в D3, необходимо пройти по всем элементам в обоих выборках и добавить элементы друг к другу. Если у вас есть несколько целей, к которым надо добавлять выборку, придётся склонировать объекты, чтобы получить поведение, схожее с jQuery. Вот что у меня получилось: ``` d3.selection.prototype.appendTo = function(selector) { var targets = d3.selectAll(selector), targetCount = targets[0].length, _this = this, clones = []; targets.each(function() { var currTarget = this; _this.each(function() { if(targetCount > 1) { var clone = this.cloneNode(true); currTarget.appendChild(clone); clones.push(clone); } else { currTarget.appendChild(this); } }); }); if(targetCount > 1) { this.remove(); } return clones.length > 0 ? d3.selectAll(clones) : this; } ``` Используя её, можно добавлять множественные элементы в DOM. Пример работы: ``` some element some other element ``` Теперь вызываем appendTo() на всех элементах, у которых есть класс «foo», чтобы добавить их к целям. ``` d3.selectAll('.foo').appendTo('.target'); ``` Что будет в DOM: ``` some element some other element some element some other element ``` Функция возвращает добавленные элементы, чтобы с ними можно было работать и далее. К примеру, изменение фона: d3.selectAll('.foo').appendTo('.target').style('background', '#f00'); ##### length() Иногда полезно знать, сколько элементов есть в вашей выборке. в jQuery есть свойство по имени length ``` ``` ``` $('.foo').length; //2 ``` То же самое – в D3: ``` d3.selection.prototype.length = function() { return this[0].length; } ``` С таким кодом можно делать так: ``` d3.selectAll('.foo').length() //2 ``` ##### toggleClass() Как уже говорилось, в D3 можно использовать функцию classed, чтобы управлять именами классов. Но в D3 нет функции для переключения имён классов, которая частенько используется в jQuery. Её реализация может быть такой: ``` d3.selection.prototype.toggleClass = function(className) { this.classed(className, !this.classed(className)); return this; } ``` ##### eq() Чтобы отфильтровать выборку нескольких элементов и выбрать только узел с заданным индексом, в jQuery можно использовать функцию eq(). Её довольно просто сделать и для D3. Делаем подвыборку из элементов на основании индекса и возвращаем заново сделанную выборку: ``` d3.selection.prototype.eq = function(index) { return d3.select(this[0][index]); } ``` ##### show() / hide() / toggle() Используются для изменения видимости элемента на странице. Они просто меняют стили у выбранных элементов. А в функции toggle() сначала необходимо проверить, виден ли данный элемент. Показать скрытый: ``` d3.selection.prototype.show = function() { this.style('display', 'initial'); return this; } ``` Спрятать видимый: ``` d3.selection.prototype.hide = function() { this.style('display', 'none'); return this; } ``` Переключить видимость: ``` d3.selection.prototype.toggle = function() { var isHidden = this.style('display') == 'none'; return this.style('display', isHidden ? 'inherit' : 'none'); } ``` ##### moveToFront(), moveToBack() Этих функций часто не хватает в D3, но с jQuery они не связаны. D3 часто используют для работы с SVG. При этом, в отличие от HTML, в SVG порядок элементов определяет их видимость. Поэтому часто нам не хватает функциональности для перемещения выборки в SVG назад или вперёд. Для этого мы расширим выборки D3 следующими функциями: ``` d3.selection.prototype.moveToFront = function() { return this.each(function(){ this.parentNode.appendChild(this); }); }; d3.selection.prototype.moveToBack = function() { return this.each(function() { var firstChild = this.parentNode.firstChild; if (firstChild) { this.parentNode.insertBefore(this, firstChild); } }); }; ``` Использовать их крайне просто – выбираем элемент svg и двигаем его, куда нужно: ``` d3.select('svg rect') .moveToFront() .moveToBack(); ``` Надеемся, что вышеописанное окажется полезным в тех проектах, в которых излишнее использование jQuery можно заменить простыми решениями на D3. А уже расширенную версию D3 с включёнными функциями можно взять на GitHub.
https://habr.com/ru/post/264861/
null
ru
null
# Очередной метод снизить объем SPA приложения (webpack) Так уж случилось, что в последнее время мне приходится осваивать новые инструменты. Очередным таким инструментом стал *webpack*. Инструмент интересный, но после переезда с Google Closure \* для меня стало загадкой, почему *webpack* не ужимает имена классов, как это делает Google Closure Stylesheets. За день, на коленке, мною был написан plugin который вполне не плохо реализовал этот функционал. Более подробное описание ниже. И так начнем с ТЗ. Это делается, во первых, для себя, во вторых, для тех кто еще не понял, что ту происходит, но каким-то образом попал на эту страницу. Лично я люблю писать большие и ~~красивые~~ длинные имена классов, по которым сразу понятно, что происходит. Например: ``` .header { position: fixed; top: 0; ... } .header a { display: block; float: right; ... } .sidebar { float:right; max-width: 30%; ... } .sidebar a { font-size: 16px; .... } ``` Но можно же сократить *header* до *h*, a *sidebar* до *s*, таким образом сэкономив не мало байт не только в CSS, но и JS файлах, т.к. скорее всего ваш JS будет содержать селекторы по именам классов. Однако от такого сокращения будет страдать читаемость кода, а как следствие и скорость разработки. По этому надо создать инструмент для проведения данной замены автоматически. #### Небольшое пояснение как это работает в Closure Google Closure состоит из нескольких инструментов, один из которых Google Closure Stylesheets, который является и препроцессором и постпроцессором для таблиц стилей. Как препроцессор он аналогичен всем своим собратьям, но больше всего он похож на SCSS/SASS. Как постпроцессор он парсит имена классов создавая словарь замен и заменяет все имена классов на их короткие обозначения. На пример, код выше станет: ``` .a { position: fixed; top: 0; ... } .a a { display: block; float: right; ... } .b { float:right; max-width: 30%; ... } .b a { font-size: 16px; .... } ``` А словарь замен будет: ``` { "header": "a", "sidebar": "b" } ``` На самом деле функционала там намного больше, но статья не о том. Есть еще Closure Templates, неплохой шаблонизатор, в котором надо отметить все имена классов специальной директивой, что бы потом применить словарь замен к шаблонам. Например: ``` {namespace test} /** * Test template * */ {template .test} Header[Home](#)[About](#) ... Sidebar ``` Так же не надо забывать, что у нас есть JS в котором тоже надо «доработать» имена всех CSS классов: ``` var header = goog.dom.getElementByClass(goog.getCssName('header')); var sidebar = goog.dom.getElementByClass(goog.getCssName('sidebar')); ``` И только когда мы исправим все исходники и отправим их на компиляцию, вместе со словарем замен, то все заработает. Главный недостаток этого метода, что словарь собран по CSS, т.е. если у вас есть класс который используется только для выборки DOM элемента из JS, то в словарь он может не попасть (а может и попасть, но оговорюсь, что данная статья не обзор Closure Tools). #### Вернемся к плагину Раскидывать везде функции, мне показалось не очень удобно, по этому я решил задавать имена классов по маске **\_\_\_<%className%>\_\_**. Таким образом стили придут к виду: ``` .___header__ { position: fixed; top: 0; ... } .___header__ a { display: block; float: right; ... } .___sidebar__ { float:right; max-width: 30%; ... } .___sidebar__ a { font-size: 16px; .... } ``` А работа с DOM в JS, на примере jQuery: ``` var header = $('.___header__'); var sidebar = $('.___sidebar__'); ``` На примере React: ``` function Header(props) { return ( {props.children} ); } ``` На примере Backbone: ``` module.exports = Backbone.View.extend({ tagName: 'div', className: '___header__' }); ``` **UPD:** Для Angular [пример](https://github.com/Leoperd87/angular-ng-class-test) получился толстым. Оговорюсь сразу, что конструкции типа: ``` var genClassName = function(v) { return '___' + v + '__'; } module.exports = Backbone.View.extend({ tagName: 'div', className: genClassName('header') }); ``` работать не будут. Также как и стили: ``` [class*="bold"] { font-weight:bolder; } ``` #### Первые шаги Установив пакет: ``` npm install --save cssrename-webpack-plugin ``` И немного доработав *webpack.config.js*: ``` const CssRenameWebpackPlugin = require('cssrename-webpack-plugin'); ... module.exports = { ... plugins: [ CssRenameWebpackPluginConfig, ... ] }; ``` В процессе сборки появится строчка: «Profit: 355» Которая будет сообщать о том сколько байт было сэкономлено. #### Неудобства и их решения Но если в ~~животном~~ разнообразном мире JS существует огромное количество библиотек, которые одним парсером не покрыть, то вот CSS в этом вопросе значительно гуманнее, и распарсить его (CSS) значительно проще. В простейшем виде это будет одно регулярное выражение. По этому почему бы не добавить подобный loader который избавит нас от добавления нижних подчеркиваний хотя бы к CSS. ``` npm install --save cssrename-loader ``` Очередные мутации *webpack.config.js*: ``` module.exports = { module: { loaders: [ { test: /\.css$/, loader: "style-loader!css-loader!cssrename-loader" } ] } }; ``` [То что получилось с тестовым проектом](http://codepen.io/anon/pen/KNXLEr) **Update:** Писать я хотел не об этом, но видимо надо добавить. Далее рассмотрены только стили, выигрыш по JS и шаблонам так просто не посчитать. Для Google Closure Stylesheets: | Сайт/Файл | Оригинальный объем/zip | Полученный объем/zip | Процент экономии(zip) | | --- | --- | --- | --- | | [acss.io](https://acss.io/) bundle.488facb7.css | 13.8KB/4.4KB | 13.3KB/4.0KB | ≈9% | | [getbem.com/introduction](http://getbem.com/introduction/) getbem.com.1.0.0.css | 13.3KB/3.3KB | 12KB/3.1KB | ≈6% | | Bootstrap | 121.2KB/18.7KB | 96.9KB/16.7KB | ≈10% | | [habrahabr.ru](https://habrahabr.ru/) global\_main.css | 212.3KB/30.6KB | 155.2KB/26.9KB | ≈13% | [Пруф](https://github.com/Leoperd87/css-diff) Что «не пролезло» в Google Closure Stylesheets: Для Atomic пришлось сделать две замены по регулярным выражениям: ``` \\\(((?:(?!\\\)).)*?)\\\) => --$1-- \\. => -- ``` Для BEM «не пролезло»: ``` @supports (display: -moz-box) { [class*=LineClamp] { display: block } } @-webkit-keyframes bounce { 0% { -webkit-transform: translateY(-100%); transform: translateY(-100%); -webkit-filter: blur(5px); filter: blur(5px) } 100%, 40% { -webkit-transform: translateY(0); transform: translateY(0) } 60% { -webkit-transform: translateY(-10%); transform: translateY(-10%) } } @keyframes bounce { 0% { -webkit-transform: translateY(-100%); transform: translateY(-100%); -webkit-filter: blur(5px); filter: blur(5px) } 100%, 40% { -webkit-transform: translateY(0); transform: translateY(0) } 60% { -webkit-transform: translateY(-10%); transform: translateY(-10%) } } ``` Из Bootstrap «не пролезло»: ``` border-top: 4px solid \9; @media all and (transform-3d),(-webkit-transform-3d) @-ms-viewport { width: device-width } ``` Из Хабра «не пролезло»: ``` @charset "UTF-8"; @-moz-document url-prefix() { .search-field__select { text-indent: .01px; text-overflow: '' } } ```
https://habr.com/ru/post/316464/
null
ru
null
# Схема разделения секретной визуальной информации Доброго времени суток, Хабрапользователи! Визуальная криптография [1] впервые была введена Мони Наором и Ади Шамиром в 1994 году [3]. Она используется для шифрования изображения или текста, представленного в виде изображения. Основная идея модели визуальной криптографии состоит в разбиении исходного изображения на несколько шифрованных («теневых» изображений, shadow images), каждое из которых не дает никакой информации об исходном изображении кроме, может быть, его размера (изображение – а-ля «белый шум»). При наложении шифрованных изображений друг на друга, можно получить исходное изображение. Таким образом, для декодирования не требуется специальных знаний, высокопроизводительных вычислений и даже компьютера (в случае, если распечатать теневые изображения на прозрачных пленках). В случае использования этого алгоритма в компьютерных системах, наложить все части изображения друг на друга можно используя логические операции AND, OR, XOR (или установив более высокую степень прозрачности в графическом редакторе). Данная технология обладает криптоустойчивостью за счет того, что при разделении исходного изображения на множество шифроизображений происходит случайным образом. ![](https://habrastorage.org/r/w1560/storage2/c0f/093/ffb/c0f093ffb33eecfd161121e10bea6b6a.png) Рисунок 1. Возможные состояния пикселя при (2, 2)-визуальной схеме секретного обмена Приложением таких технологий является защита от копирования и проверка подлинности (авторских прав, *watermarking*), отслеживание электронных бланков при удаленном голосовании, шифрование финансовых документов, управление ключами доступа и совместное использование паролей. ##### Алгоритм визуальной криптографии Наор и Шамир продемонстрировали (*k, n*)-визуальную схему секретного обмена, где изображение было разбито на n частей, таким образом, что кто-либо, обладавший любыми k частями мог расшифровать его, в то время как любые *k-1* частей не давали никакой информации о содержании исходного изображения. Когда все *k* частей будут наложены друг на друга, мы увидим исходное изображение [3]. Для того чтобы разбить исходное черно-белое изображение на *n* частей, каждый пиксель изображения представляется в виде некоторого количества меньших частей (*subpixels*). Количество белых и черных частей всегда одинаковое. Если пиксель делится на две части, то получается один белый и один черный блок. Если пиксель делится на четыре равные части, то получаем два белых и два черных блока. Рассмотрим (2, 2)-визуальную схему секретного обмена, т.е. исходное изображение разбивается на два теневых изображения, каждое из которых представляет собой изображение белого шума, но при наложении дают исходное изображении. Каждый пиксель исходного изображения будем разбивать на четыре части, таким образом, если размер исходного изображения был *M×N*, то размеры теневых изображений будут *2M×2N*. На рисунке 1 показано, что пиксель, разделенный на четыре части, может иметь шесть разных состояний. Если пиксель на первом слое имеет одно положение, пиксель на втором слое в свою очередь может иметь два положения: идентичное либо инвертированное пикселю первого слоя. Если пиксель части 2 идентичен пикселю части 1, то пиксель, полученный в результате наложения обоих теневых изображений, будет наполовину белый и наполовину черный. Такой пиксель называют серым или пустым. Если пиксели части 1 и части 2 противоположны, то пиксель, полученный в результате наложения, будет полностью черным. Он будет являться информационным. Опишем процесс получения теневых изображений для исходного изображения для схемы (2, 2): для каждого пикселя исходного изображения, для первого теневого изображения *случайным образом* выбирается одно из шести возможных состояний пикселя, приведенных на рисунке 1. Состояние пикселя второго теневого изображения выбирается идентичным или симметричным состоянию пикселя первой «тени» в зависимости от того, белый или черный это был пиксель в исходном изображении соответственно. Схожим образом можно построить любую (*k, n*) визуальную схему секретного обмена [3]. Теоретически, этот алгоритм может быть эффективно использован для безопасного обмена сообщениями по сети, если множество возможных сообщений не очень большое (например, множество различных сигналов тревоги). Реализовать такой обмен можно следующим образом. Пусть и на стороне источника сообщений имеются только все первые теневые изображения из пары (изображения 1), а на стороне приемника сообщений – только все вторые изображения из пары теневых изображений (изображения 2). Каждое теневое изображение – совершенно случайное и, при попадании в руки злоумышленника в отдельности (без второго изображения из пары), не дает никакой информации. При получении одного из теневых изображений 1 приемник последовательно накладывает его на изображения из своего множества и находит первое семантически нагруженное изображение-сообщение (исходящий от источника сообщений конкретный тревожный сигнал). ##### Matlab-реализация алгоритма Matlab-функция, выполняющая разделения исходного двоичного изображения на два теневых «в лоб», использующая 4 (из 6 возможных, см. рис. 6) состояния пикселя будет иметь следующий вид: ``` function [S1,S2] =getShdwImg(Img) % получение теневых изображений S1 и S2 из исходного бинарного изображения (Img) % % получаем размер исходного изображения [m,n] = size(Img); % запасаемся памятью для каждого теневого изображения :) S1= zeros(2*m,2*n); S2= zeros(2*m,2*n); % для каждого пикселя исходного изображения - действуем согласно Рис. 1 % Примечание: for i=1:m-1 for j=1:n-1 r = randi(4); if(Img(i,j)==1) switch r case 1, S1(2*i,2*j)=1; S1(2*i+1,2*j)=1; S1(2*i,2*j+1)=0; S1(2*i+1,2*j+1)=0; S2(2*i,2*j)=1; S2(2*i+1,2*j)=1; S2(2*i,2*j+1)=0; S2(2*i+1,2*j+1)=0; case 2, S1(2*i,2*j)=0; S1(2*i+1,2*j)=0; S1(2*i,2*j+1)=1; S1(2*i+1,2*j+1)=1; S2(2*i,2*j)=0; S2(2*i+1,2*j)=0; S2(2*i,2*j+1)=1; S2(2*i+1,2*j+1)=1; case 3, S1(2*i,2*j)=0; S1(2*i+1,2*j)=1; S1(2*i,2*j+1)=1; S1(2*i+1,2*j+1)=0; S2(2*i,2*j)=0; S2(2*i+1,2*j)=1; S2(2*i,2*j+1)=1; S2(2*i+1,2*j+1)=0; case 4, S1(2*i,2*j)=1; S1(2*i+1,2*j)=0; S1(2*i,2*j+1)=0; S1(2*i+1,2*j+1)=1; S2(2*i,2*j)=1; S2(2*i+1,2*j)=0; S2(2*i,2*j+1)=0; S2(2*i+1,2*j+1)=1; end else switch r case 1, S1(2*i,2*j)=1; S1(2*i+1,2*j)=1; S1(2*i,2*j+1)=0; S1(2*i+1,2*j+1)=0; S2(2*i,2*j)=0; S2(2*i+1,2*j)=0; S2(2*i,2*j+1)=1; S2(2*i+1,2*j+1)=1; case 2, S1(2*i,2*j)=0; S1(2*i+1,2*j)=0; S1(2*i,2*j+1)=1; S1(2*i+1,2*j+1)=1; S2(2*i,2*j)=1; S2(2*i+1,2*j)=1; S2(2*i,2*j+1)=0; S2(2*i+1,2*j+1)=0; case 3, S1(2*i,2*j)=0; S1(2*i+1,2*j)=1; S1(2*i,2*j+1)=1; S1(2*i+1,2*j+1)=0; S2(2*i,2*j)=1; S2(2*i+1,2*j)=0; S2(2*i,2*j+1)=0; S2(2*i+1,2*j+1)=1; case 4, S1(2*i,2*j)=1; S1(2*i+1,2*j)=0; S1(2*i,2*j+1)=0; S1(2*i+1,2*j+1)=1; S2(2*i,2*j)=0; S2(2*i+1,2*j)=1; S2(2*i,2*j+1)=1; S2(2*i+1,2*j+1)=0; end end end end ``` Функция `getShdwImg` разбивает исходное изображение так, как показано на Рис. 1, с единственной разницей только в том, что в двоичных изображениях Matlab — черные пиксели изображения равну нулю, а белые, соответственно, равны единице. Ниже приведен код Matlab-скрипта, демонстрирующий работу алгоритма разделения секретной визуальной информации. ``` close all % считываем исходное RGB-изображение и преобразуем его в бинарное biImg = imread('nordavind_logo.jpg'); biImg = rgb2gray(biImg); level = graythresh(biImg); % пороговая фильтрация по Отсу (Otsu) biImg = im2bw(biImg,level); % выводим результат на экран figure(1) imshow(biImg); title(['Original binary image']); % получаем два теневых изображения [S1,S2] =getShdwImg(biImg); % выводим их на экран figure(2) imshow(S1); title(['Shadow image S1']); % figure(3) imshow(S2); title(['Shadow image S2']); % выводим на экран результат их наложения друг на друга % различными способами figure(4) % imshow(or(S1, S2)); % imshow(and(S1,S2)); imshow(~xor(S1, S2)); % операция “~”(NOT) используется, чтобы получить черный текст на белом фоне, а не наоборот title(['Superimposed image']); ``` ##### Результаты Ниже приведены результаты выполнение операции кодирования и декодирования исходного «секретного» изображения. Рассматриваются различные операции совмещения полученных из исходного теневых изображений: с помощью XOR (Рис. 6), AND (Рис. 7) и OR (Рис. 8). ![](https://habrastorage.org/r/w1560/storage2/8c7/4d1/37d/8c74d137d14ca2e78918150b3ff4c500.png) Рисунок 2. Исходное изображение ![](https://habrastorage.org/r/w1560/storage2/cf6/37b/7ea/cf637b7ea3ff6b235907f68735b0fb94.png) Рисунок 3. После преобразования изображения в ч/б ![](https://habrastorage.org/r/w1560/storage2/a8b/3ba/525/a8b3ba525fd539c727c0f7ae38b81949.png) Рисунок 4. Теневое изображение 1 ![](https://habrastorage.org/r/w1560/storage2/676/3d0/057/6763d0057595cbc4f59e1821c53ce73c.png) Рисунок 5. Теневое изображение 2 ![](https://habrastorage.org/r/w1560/storage2/60e/517/fee/60e517fee579658a12c4b30e4bc0d162.png) Рисунок 6. Результат для NOT(XOR(S1, S2)) ![](https://habrastorage.org/r/w1560/storage2/e14/a3d/12f/e14a3d12f078aeadc6832b85510605c5.png) Рисунок 7. Результат для AND(S1, S2) ![](https://habrastorage.org/r/w1560/storage2/c76/8f1/158/c768f115895fc3215ba4dd763094a71c.png) Рисунок 8. Результат для OR(S1, S2) ##### Заключение (*k, n*)-визуальная схема разделения секретной информации является криптостойкой до тех пор, пока *k* частей изображения не попадут в руки злоумышленника. Если же перехвачено менее *k* частей, то расшифровка исходного изображения – невозможна. Если в процессе использования данной системы полностью соблюдается случайный подход к разбитию пикселей на блоки, то визуальная криптография предлагает абсолютную надежность и секретность. Здесь был рассмотрен классический алгоритм визуальной криптографии. На сегодняшний день существует множество улучшенных моделей этого алгоритма, например, для кодирования цветных изображений [4, 6], или схемы, где, вместо теневых изображений в виде белого шума, используются семантически значимые изображения [5], а также схемы визуальной криптографии на основе техник стеганографии [2, 7]. ##### Ссылки 1. [en.wikipedia.org/wiki/Visual\_cryptography](http://en.wikipedia.org/wiki/Visual_cryptography) 2. [ru.wikipedia.org/wiki/%D0%A1%D1%82%D0%B5%D0%B3%D0%B0%D0%BD%D0%BE%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%8F](http://ru.wikipedia.org/wiki/%D0%A1%D1%82%D0%B5%D0%B3%D0%B0%D0%BD%D0%BE%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%8F) 3. M. Naor and A. Shamir. Visual cryptography. In EUROCRYPT’94. — Springer-Verlag Berlin, 1995. 4. D. Jin, W.Q. Yan, and M.S. Kankanhalli. Progressive color visual cryptography. In Journal Of Electronic Imaging, 2005.— Vol. 14, Issue 3. 5. Feng Liu and ChuanKun Wu. Embedded extended visual cryptography schemes. — China, 2006. 6. Y.C. Hou. Visual cryptography for color images. In Pattern Recognition, 2003. 7. Ritesh Murherjee, Nabin Ghoshal. Steganography based visual cryptography. – Berlin: Springer-Verlag, 2013.
https://habr.com/ru/post/177355/
null
ru
null
# Google News and Leo Tolstoy: visualizing Word2Vec word embeddings using t-SNE ![](https://habrastorage.org/webt/6c/ux/7m/6cux7mvmp3phb8d8efjwmqrb_yc.gif) Everyone uniquely perceives texts, regardless of whether this person reads news on the Internet or world-known classic novels. This also applies to a variety of algorithms and machine learning techniques, which understand texts in a more mathematical way, namely, using high-dimensional vector space. This article is devoted to visualizing high-dimensional Word2Vec word embeddings using t-SNE. The visualization can be useful to understand how Word2Vec works and how to interpret relations between vectors captured from your texts before using them in neural networks or other machine learning algorithms. As training data, we will use articles from Google News and classical literary works by Leo Tolstoy, the Russian writer who is regarded as one of the greatest authors of all time. We go through the brief overview of t-SNE algorithm, then move to word embeddings calculation using Word2Vec, and finally, proceed to word vectors visualization with t-SNE in 2D and 3D space. We will write our scripts in Python using Jupyter Notebook. T-distributed Stochastic Neighbor Embedding =========================================== T-SNE is a machine learning algorithm for data visualization, which is based on a nonlinear dimensionality reduction technique. The basic idea of t-SNE is to reduce dimensional space keeping relative pairwise distance between points. In other words, the algorithm maps multi-dimensional data to two or more dimensions, where points which were initially far from each other are also located far away, and close points are also converted to close ones. It can be said that t-SNE looking for a new data representation where the neighborhood relations are preserved. The detailed description of the t-SNE entire logic can be found in the original article [1]. The Word2Vec Model ================== To begin with, we should obtain vector representations of words. For this purpose, I selected Word2vec [2], that is, a computationally-efficient predictive model for learning multi-dimensional word embeddings from raw textual data. The key concept of Word2Vec is to locate words, which share common contexts in the training corpus, in close proximity in the vector space in comparison with others. As input data for visualization, we will use articles from Google News and a few novels by Leo Tolstoy. Pre-trained vectors trained on part of Google News dataset (about 100 billion words) was published by Google at [the official page](https://code.google.com/archive/p/word2vec/), so we will use it. ``` import gensim model = gensim.models.KeyedVectors.load_word2vec_format('GoogleNews-vectors-negative300.bin', binary=True) ``` In addition to the pre-trained model, we will train another model on Tolstoy’s novels using Gensim [3] library. Word2Vec takes sentences as input data and produces word vectors as an output. Firstly, it is necessary to download pre-trained Punkt Sentence Tokenizer, which divides a text into a list of sentences considering abbreviation words, collocations, and words, which probably indicate a start or end of sentences. By default, NLTK data package does not include a pre-trained Punkt tokenizer for Russian, so we will use third-party models from [github.com/mhq/train\_punkt](https://github.com/mhq/train_punkt). ``` import re import codecs def preprocess_text(text): text = re.sub('[^a-zA-Zа-яА-Я1-9]+', ' ', text) text = re.sub(' +', ' ', text) return text.strip() def prepare_for_w2v(filename_from, filename_to, lang): raw_text = codecs.open(filename_from, "r", encoding='windows-1251').read() with open(filename_to, 'w', encoding='utf-8') as f: for sentence in nltk.sent_tokenize(raw_text, lang): print(preprocess_text(sentence.lower()), file=f) ``` On the Word2Vec training stage the following hyperparameters were used: * Dimensionality of the feature vector is 200. * The maximum distance between analyzed words within a sentence is 5. * Ignores all words with the total frequency lower than 5 per corpus. ``` import multiprocessing from gensim.models import Word2Vec def train_word2vec(filename): data = gensim.models.word2vec.LineSentence(filename) return Word2Vec(data, size=200, window=5, min_count=5, workers=multiprocessing.cpu_count()) ``` Visualizing Word Embeddings using t-SNE ======================================= T-SNE is quite useful in case it is necessary to visualize the similarity between objects which are located into multidimensional space. With a large dataset, it is becoming more and more challenging to make an easy-to-read t-SNE plot, so it is common practice to visualize groups of the most similar words. Let us select a few words from the vocabulary of the pre-trained Google News model and prepare word vectors for visualization. ``` keys = ['Paris', 'Python', 'Sunday', 'Tolstoy', 'Twitter', 'bachelor', 'delivery', 'election', 'expensive', 'experience', 'financial', 'food', 'iOS', 'peace', 'release', 'war'] embedding_clusters = [] word_clusters = [] for word in keys: embeddings = [] words = [] for similar_word, _ in model.most_similar(word, topn=30): words.append(similar_word) embeddings.append(model[similar_word]) embedding_clusters.append(embeddings) word_clusters.append(words) ``` ![](https://habrastorage.org/webt/uc/1k/o6/uc1ko6efgx_d-wnbwolgdabifl8.gif) *Fig. 1. The effect of various perplexity values on the shape of words clusters.* Next, we proceed to the fascinating part of this paper, the configuration of t-SNE. In this section, we should pay our attention to the following hyperparameters. * *The number of components*, i.e. the dimension of the output space. * *Perplexity value*, which in the context of t-SNE, may be viewed as a smooth measure of the effective number of neighbors. It is related to the number of nearest neighbors that are employed in many other manifold learners (see the picture above). According to [1], it is recommended to select a value between 5 and 50. * *The type of initial initialization* for embeddings. ``` tsne_model_en_2d = TSNE(perplexity=15, n_components=2, init='pca', n_iter=3500, random_state=32) embedding_clusters = np.array(embedding_clusters) n, m, k = embedding_clusters.shape embeddings_en_2d = np.array(tsne_model_en_2d.fit_transform(embedding_clusters.reshape(n * m, k))).reshape(n, m, 2) ``` It should be mentioned that t-SNE has a non-convex objective function, which is minimized using a gradient descent optimization with random initiation, so different runs produce slightly different results. Below you can find a script for creating a 2D scatter plot using Matplotlib, one of the most popular libraries for data visualization in Python. ![](https://habrastorage.org/r/w1560/webt/34/9y/7h/349y7hxuanvvttqfxkpb48j4n-q.png) *Fig. 2. Clusters of similar words from Google News (preplexity=15).* ``` from sklearn.manifold import TSNE import matplotlib.pyplot as plt import matplotlib.cm as cm import numpy as np % matplotlib inline def tsne_plot_similar_words(labels, embedding_clusters, word_clusters, a=0.7): plt.figure(figsize=(16, 9)) colors = cm.rainbow(np.linspace(0, 1, len(labels))) for label, embeddings, words, color in zip(labels, embedding_clusters, word_clusters, colors): x = embeddings[:,0] y = embeddings[:,1] plt.scatter(x, y, c=color, alpha=a, label=label) for i, word in enumerate(words): plt.annotate(word, alpha=0.5, xy=(x[i], y[i]), xytext=(5, 2), textcoords='offset points', ha='right', va='bottom', size=8) plt.legend(loc=4) plt.grid(True) plt.savefig("f/г.png", format='png', dpi=150, bbox_inches='tight') plt.show() tsne_plot_similar_words(keys, embeddings_en_2d, word_clusters) ``` In some cases, it can be useful to plot all word vectors at once in order to see the whole picture. Let us now analyze Anna Karenina, an epic novel of passion, intrigue, tragedy, and redemption. ``` prepare_for_w2v('data/Anna Karenina by Leo Tolstoy (ru).txt', 'train_anna_karenina_ru.txt', 'russian') model_ak = train_word2vec('train_anna_karenina_ru.txt') words = [] embeddings = [] for word in list(model_ak.wv.vocab): embeddings.append(model_ak.wv[word]) words.append(word) tsne_ak_2d = TSNE(n_components=2, init='pca', n_iter=3500, random_state=32) embeddings_ak_2d = tsne_ak_2d.fit_transform(embeddings) ``` ``` def tsne_plot_2d(label, embeddings, words=[], a=1): plt.figure(figsize=(16, 9)) colors = cm.rainbow(np.linspace(0, 1, 1)) x = embeddings[:,0] y = embeddings[:,1] plt.scatter(x, y, c=colors, alpha=a, label=label) for i, word in enumerate(words): plt.annotate(word, alpha=0.3, xy=(x[i], y[i]), xytext=(5, 2), textcoords='offset points', ha='right', va='bottom', size=10) plt.legend(loc=4) plt.grid(True) plt.savefig("hhh.png", format='png', dpi=150, bbox_inches='tight') plt.show() tsne_plot_2d('Anna Karenina by Leo Tolstoy', embeddings_ak_2d, a=0.1) ``` ![](https://habrastorage.org/r/w1560/webt/j5/hn/82/j5hn8285nih2kwlop_badd2lzlk.png) ![](https://habrastorage.org/r/w1560/webt/x6/jc/i7/x6jci7vka7-efczouqxpiqueisq.png) *Fig. 3. Visualization of the Word2Vec model trained on Anna Karenina.* The whole picture can be even more informative if we map initial embeddings in 3D space. In this time let us have a look at War and Peace, one of the vital novel of world literature and one of Tolstoy’s greatest literary achievements. ``` prepare_for_w2v('data/War and Peace by Leo Tolstoy (ru).txt', 'train_war_and_peace_ru.txt', 'russian') model_wp = train_word2vec('train_war_and_peace_ru.txt') words_wp = [] embeddings_wp = [] for word in list(model_wp.wv.vocab): embeddings_wp.append(model_wp.wv[word]) words_wp.append(word) tsne_wp_3d = TSNE(perplexity=30, n_components=3, init='pca', n_iter=3500, random_state=12) embeddings_wp_3d = tsne_wp_3d.fit_transform(embeddings_wp) ``` ``` from mpl_toolkits.mplot3d import Axes3D def tsne_plot_3d(title, label, embeddings, a=1): fig = plt.figure() ax = Axes3D(fig) colors = cm.rainbow(np.linspace(0, 1, 1)) plt.scatter(embeddings[:, 0], embeddings[:, 1], embeddings[:, 2], c=colors, alpha=a, label=label) plt.legend(loc=4) plt.title(title) plt.show() tsne_plot_3d('Visualizing Embeddings using t-SNE', 'War and Peace', embeddings_wp_3d, a=0.1) ``` ![](https://habrastorage.org/r/w1560/webt/ch/jm/os/chjmos082qn6ktw9afdeavbz6_a.png) *Fig. 4. Visualization of the Word2Vec model trained on War and Peace.* The Results =========== This is what texts look like from the Word2Vec and t-SNE prospective. We plotted a quite informative chart for similar words from Google News and two diagrams for Tolstoy’s novels. Also, one more thing, GIFs! GIFs are awesome, but plotting GIFs is almost the same as plotting regular graphs. So, I decided not to mention them in the article, but you can find the code for the generation of animations in the sources. The source code is available at [Github](https://github.com/sismetanin/word2vec-tsne). The article was originally published in [Towards Data Science](https://towardsdatascience.com/google-news-and-leo-tolstoy-visualizing-word2vec-word-embeddings-with-t-sne-11558d8bd4d). References ========== 1. L. Maate and G. Hinton, “Visualizing data using t-SNE”, Journal of Machine Learning Research, vol. 9, pp. 2579–2605, 2008. 2. T. Mikolov, I. Sutskever, K. Chen, G. Corrado and J. Dean, “Distributed Representations of Words and Phrases and their Compositionality”, Advances in Neural Information Processing Systems, pp. 3111–3119, 2013. 3. R. Rehurek and P. Sojka, “Software Framework for Topic Modelling with Large Corpora”, Proceedings of the LREC 2010 Workshop on New Challenges for NLP Frameworks, 2010.
https://habr.com/ru/post/449984/
null
en
null
# Создание игр для NES на ассемблере 6502: Picture Processing Unit (PPU) ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/2bb/2a9/0a4/2bb2a90a47aceecd01c315c29cb6f64f.png) **Оглавление** Оглавление ---------- ### Часть I: подготовка * [Введение](https://habr.com/ru/post/596449/) * [1. Краткая история NES](https://habr.com/ru/post/596449/) * [2. Фундаментальные понятия](https://habr.com/ru/post/596475/) * [3. Приступаем к разработке](https://habr.com/ru/post/596475/) * [4. Оборудование NES](https://habr.com/ru/post/596583/) * [5. Знакомство с языком ассемблера 6502](https://habr.com/ru/post/597837/) * [6. Заголовки и векторы прерываний](https://habr.com/ru/post/597887/) * [7. Зачем вообще этим заниматься?](https://habr.com/ru/post/597957/) * [8. Рефакторинг](https://habr.com/ru/post/597997/) ### Часть II: графика * [9. PPU](https://habr.com/ru/post/599107/) * [10. Спрайтовая графика](https://habr.com/ru/post/599333/) * [11. Язык ассемблера: ветвление и циклы](https://habr.com/ru/post/599369/) * [12. Циклы на практике](https://habr.com/ru/post/599373/) * [13. Графика фона](https://habr.com/ru/post/599413/) * [14. Движение спрайтов](https://habr.com/ru/post/599433/) * [15. Скроллинг фона](https://habr.com/ru/post/599695/) 9. Picture Processing Unit (PPU) -------------------------------- Содержание: * Палитры * Таблицы паттернов * Спрайты * Фоны «Игра» для NES состоит из трёх компонентов: отображаемой на экране графики, пользовательского ввода через какой-нибудь контроллер и звука для музыки и звуковых эффектов. Игра использует пользовательский ввод для изменения отображаемой графики и воспроизводимого звука, пока пользователь не отключит систему. В этой серии глав мы рассмотрим каждый из этих трёх компонентов, начав с того, как NES отображает графику. Палитры ------- Как вы можете помнить из Главы 4, NES использует для всей своей графики фиксированный набор из 64 цветов. ![](https://habrastorage.org/r/w1560/webt/bw/z0/ue/bwz0ue06cxf9mhdccp-thpwtq5u.png) *Палитра цветов NES.* Эти цвета используются для заполнения ячеек в восьми четырёхцветных *палитрах*. Четыре палитры используются для отрисовки объектов фона (background), а оставшиеся четыре — для отрисовки объектов *спрайтов* переднего плана (foreground). Каждый отрисовываемый на экране элемент использует одну из этих палитр, то есть в одном графическом объекте может быть максимум 4 из 64 возможных цветов. Таблицы паттернов ----------------- Что же такое «графические объекты»? NES не позволяет разработчикам выполнять попиксельную отрисовку. При разрешении 256x240 пикселей для каждого экрана графики потребовалось бы задание 61440 пикселей цветовой информации, а такой объём слишком велик для размера памяти консоли. Поэтому базовой единицей графики NES является «тайл» (tile) размером 8x8 пикселей. Один экран графики имеет ширину 32 тайлов и высоту 30 тайлов (960 тайлов). CHR-ROM на картридже NES содержит две *таблицы паттернов*, каждая из которых состоит из 256 тайлов размером 8x8. Одна таблица паттернов используется для графики фона, вторая — для спрайтовой графики. [Ещё один вариант — использовать тайлы 8x16 (шириной 8 пикселей и высотой 16 пикселей), как это сделано в играх наподобие *The Legend of Zelda*. Хотя это уменьшает количество тайлов, которые можно хранить в таблицах паттернов, зато позволяет применять тайлы из другой таблицы в качестве и фона, и спрайта. В некоторых играх преимущество возможности использования тайлов в обоих слоях может перевесить недостаток меньшего количества тайлов. Эти проблемы в основном становятся несущественными благодаря использованию чипов мэпперов, позволяющих выполнять переключение банков с графикой таблиц паттернов. Подробнее о них мы поговорим позже в этой книге.] Каждый тайл в таблице задаётся двумя «битовыми плоскостями» (bit plane), определяющими, какой цвет палитры (0-3) используется для каждого пикселя тайла. Одна битовая плоскость определяет «младший бит» (low bit) каждого пикселя в тайле, а вторая — «старший бит» (high bit). (Как вы можете помнить, два бита позволяют задать четыре значения, соответствующих четырём цветам палитры.) Каждый тайл занимает 16 байт памяти, то есть 8 КБ памяти чипа CHR-ROM хватает ровно на 512 тайлов двух таблиц паттернов. Благодаря тому, что указывается индекс палитры, а не сам цвет, тайлы занимают меньше памяти и могут при необходимости использоваться с разными палитрами. ![](https://habrastorage.org/r/w1560/webt/qm/ud/i0/qmudi0n49ij-zx_bjf_y2xamyqo.png) *Пример тайла таблицы паттернов. Байты `$xxx0`-`$xxx7` задают «младший бит» каждого пикселя, а байты `$xxx8`-`$xxxf` задают «старший бит» каждого пикселя.* Всё, что игра для NES отрисовывает на экране, содержится в её таблицах паттернов. [Ситуация сложнее, если используются CHR-RAM или переключение банков, однако всё отрисовываемое, строго говоря, в тот или иной момент присутствует в таблицах паттернов.] У консоли нет «системного шрифта»: если вам нужно отрисовать текст в игре для NES, то придётся создавать тайлы шрифта в таблице паттернов. (Именно поэтому в большинстве игр для NES, особенно в первых, шрифты «кричали» в верхнем регистре.) Из-за ограниченности места под тайлы также было важно их эффективное многократное использование. Возможность использования тайлов различными способами или хитрое применение смены палитр может обеспечить игре большее визуальное разнообразие даже в условиях ограничений памяти CHR-ROM. ![](https://habrastorage.org/r/w1560/webt/tj/7n/wr/tj7nwrsct-ivlhgoxtoijyhgdow.png) ![](https://habrastorage.org/r/w1560/webt/fp/_7/ih/fp_7ihehb-nd5xdl-hbvoar2yxk.png) *Таблицы спрайтов и фонов из *Super Mario Bros.*. Всё, что отрисовывается в этой игре, присутствует в двух таблицах, в том числе сам Марио (в первых пяти строках таблицы спрайтов), все враги в игре, графика текста и очков (первые три столбца таблицы фонов), а также множество разных труб, растений и замков.* Спрайты ------- Спрайты представляют собой слой «переднего плана» графики. Каждый спрайт — это отдельный тайл, который можно разместить в любом месте экрана с точностью до пикселя. Также спрайты можно зеркально отражать по вертикали или горизонтали (но не вращать), а каждый спрайт может указывать, какую из четырёх палитр спрайтов он будет использовать. Однако эта гибкость имеет свою цену: из-за ограничений памяти и времени обработки NES одновременно может отображать только 64 спрайта, а в каждой растровой строке (горизонтальной строке пикселей) может отрисовываться только восемь спрайтов. Если вы играли в разные игры на NES, то, вероятно, замечали мерцание, при котором некоторые спрайты быстро появляются и исчезают, как будто это сделано ненамеренно. *Пример мерцания спрайтов из *Mega Man II** Это мерцание возникает из-за того, что в одной растровой строке отрисовывается слишком много спрайтов. Так как PPU может отрисовывать в каждой растровой строке не больше восьми спрайтов, все спрайты после первых восьми не отрисовываются. Однако эффект мерцания — это осознанный выбор разработчика игры, помогающий игроку. Мерцание возникает, когда разработчик выбирает, *какие именно* восемь спрайтов идут первыми в каждой растровой строке. Благодаря этому игрок может видеть все спрайты в растровой строке, только не все одновременно. В противном случае спрайты врагов могли оказываться совершенно невидимыми, что было бы нечестно. При отрисовке спрайтов на экран любой пиксель тайла, который использует первый цвет палитры (с индексом 0) отрисовывается прозрачным, что позволяет отображаться фоновому слою. Это означает, что в каждом спрайте можно использовать только три цвета. Благодаря использованию прозрачности можно накладывать друг на друга спрайты с разными цветовыми палитрами, создавая графику из большего количества цветов. ![](https://habrastorage.org/r/w1560/webt/gz/ea/qk/gzeaqkl15bokhf0qd_q7qlrratu.png) Наложенные друг на друга спрайты, используемые для создания многоцветной графики. Лица Мегамена не видно, потому что спрайт не отрисовывается из-за ограничения, связанного с растровыми строками. Обратите внимание, что отсутствующая область не квадратная, потому что применена прозрачность, благодаря которой смешиваются спрайты лица и шлема. Фоны ---- Спрайты обладают большой гибкостью ценой того, что они могут покрывать только небольшую площадь экрана. В фонах реализован противоположный компромисс. Фон может заполнить весь экран — 960 тайлов размером 8x8, но тайлы фона должны быть привязаны к сетке, и тому же страдают от дополнительных ограничений применения палитр. Слой фона можно прокручивать (скроллить) с инкрементом в 1, но все тайлы движутся вместе. Отдельные части экрана нельзя прокручивать по-разному, если только не использовать хитрые обновления посередине кадра (например, IRQ растровых строк «Sprite Zero Hit»). ### Таблицы имён Фоны задаются при помощи *таблиц имён* (nametables), находящихся в памяти PPU. Каждая таблица имён имеет размер 960 байт, и каждый из этих байт хранит номер тайла одного из 256 тайлов из таблицы паттернов фона. В таблице распределения памяти PPU есть место под четыре таблицы имён, выстроенные в виде квадрата, что теоретически означает, что одновременно можно задать фон размером в четыре экрана телевизора. ![](https://habrastorage.org/r/w1560/webt/zp/s6/5j/zps65jlefqt6pyqkmtaqt4mhs0s.png) *Четыре таблицы имён с указанным для каждой первым адресом памяти PPU.* Я написал *«теоретически»*, потому что Famicom проектировалась дешёвой (как говорилось в Главе 1), а в то время память была очень дорогой. В качестве компромисса у Famicom/NES есть достаточно физической памяти для размещения *двух* таблиц имён. Это «реальные» таблицы имён, работающие ожидаемым образом. Диапазоны памяти для двух остальных таблиц имён используются в качестве «зеркал» реальных таблиц имён, поэтому запрос байта памяти из зеркала возвращает байт из соответствующей реальной таблицы имён. Разработчик может задавать, какие две таблицы имён являются «реальными», а какие «зеркальными». На аппаратном картридже NES это реализовано площадкой припоя на одном или двух контактах платы картриджа. Для эмуляторов параметр отзеркаливания игры является частью её заголовка iNES. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f3a/d1d/623/f3ad1d6233a784edda7945263aefa8fd.jpg) *Внутренности картриджа *Balloon Fight*. Красным прямоугольником показаны контакты «V»/«H»; в зависимости от того, какая из пар контактов соединена припоем, игра использует вертикальное или горизонтальное зеркалирование. Изображение взято из [NES Cart Database](http://bootgod.dyndns.org:7777).* Зеркалирование может быть *вертикальным* или *горизонтальным*. При вертикальном зеркалировании таблицы имён 1 и 2 являются «реальными», а 3 и 4 — зеркалами. Это обеспечивает разработчику два экрана, левый и правый, что идеально подходит для игр с горизонтальным скроллингом. Горизонтальное зеркалирование делает таблицы имён 1 и 3 «реальными», а таблицы имён 2 и 4 зеркалами. При горизонтальном зеркалировании получается два экрана, верхний и нижний, что подходит для игр с вертикальным скроллингом. [В старых играх для NES зеркалирование пропаивалось аппаратно, а в более новых картриджах с добавленными чипами мэпперов разработчик имеет возможность менять зеркалирование в любой момент. Например, чип MMC1 позволяет игре *Metroid* переключаться между вертикальным и горизонтальным зеркалированием, когда игрок проходит через дверь, благодаря чему есть части уровня с горизонтальным и вертикальным скроллингом.] ### Таблицы атрибутов Таблица имён — это всего лишь список номеров тайлов. Чтобы раскрасить каждый тайл палитрой, нужен второй тип таблицы. В конце каждой таблицы имён есть 64-байтная область, называемая *таблицей атрибутов* (attribute table), которая задаёт палитру, используемую для каждого тайла фона. 960 + 64 = 1024 байт, то есть каждая пара таблицы имён/таблицы атрибутов занимает один килобайт памяти. Так как таблица атрибутов занимает всего 64 байта, в ней недостаточно места для задания палитры для каждого тайла фона. Каждый байт таблицы атрибутов задаёт цвета палитры для шестнадцати тайлов фона квадратом четыре на четыре. Биты 0-1 каждого байта задают палитру, используемую для верхних левых тайлов размером два на два, биты 2-3 — верхние правые, биты 4-5 — нижние левые, а биты 6-7 задают палитру для нижних правых. Это означает, что кроме привязки тайлов фона к сетке есть и привязка цветовой информации к собственной сетке. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/2bb/2a9/0a4/2bb2a90a47aceecd01c315c29cb6f64f.png) *Иллюстрация того, как каждый байт таблицы атрибутов определяет палитры для шестнадцати тайлов фона.* Из-за ограничений таблиц атрибутов объекты фона обычно отрисовываются частями по 2x2 тайла. Такие крупные объекты называются *метатайлами*. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d39/0df/fc7/d390dffc77c74c88e4e8f56932b6f853.png) *Блок с вопросительным знаком (?) из *Super Mario Bros.* — пример метатайла.* Также из-за сетки таблицы атрибутов в очень немногих играх для NES изометрическая графика. Отрисовка фонов под углом может вызывать ошибки цветов, когда большая часть фона пересекает границу таблицы атрибутов. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/334/66b/aa3/33466baa3adb13df7e89cdc293e2b83a.jpg) *Фоны из *Snake, Rattle 'n Roll* (1990 год). Из-за границ таблицы атрибутов один тайл голубой «стены» отображается как тёмно-синий, потому что является частью той же палитры 2x2, что и тёмно-синий треугольник.* [Создание игр для NES на ассемблере 6502: спрайтовая графика](https://habr.com/ru/post/599333/)
https://habr.com/ru/post/599107/
null
ru
null
# Реверс-инжиниринг режима разработчика Animal Crossing ![Using the code on a real GameCube](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b4d/fe4/7f0/b4dfe47f0139ba1af039decfb6274524.jpg) Прошлым летом я приступил к реверс-инжинирингу игры Animal Crossing для GameCube. Я хотел исследовать возможность создания модов для этой игры. Кроме того, мне хотелось задокументировать процесс, чтобы создать туториалы для людей, заинтересованных в хакинге ROM-ов и обратной разработке. В этом посте я расскажу о отладочных функциях разработчика, которые остались в игре, а также поделюсь тем, как я обнаружил чит-комбо, с помощью которых их можно разблокировать. ### new\_Debug\_mode Изучая оставшиеся отладочные символы, я заметил имена функций и переменных, содержащих слово «debug», и решил, что будет интересно посмотреть, остался ли в игре какой-то отладочный функционал. Если мне удастся активировать функции отладки или разработки, это поможет мне и в процессе создания модов. Первой функцией, на которую я обратил внимание, была `new_Debug_mode`. Она вызывается функцией `entry`, которая запускается сразу после завершения экрана с логотипом Nintendo. Всё, что она делает — это размещает байтовую структуру `0x1C94` и сохраняет указатель на неё. После её вызова в `entry` в размещённой структуре по смещению `0xD4` сразу перед вызовом `mainproc` задаётся значение 0. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/63e/fbc/0af/63efbc0af9ebfb4eeb2c3b42feddcbed.png) Чтобы посмотреть, что происходит, когда значение не равно нулю, я пропатчил инструкцию `li r0, 0` по адресу `80407C8C`, заменив её на `li r0, 1`. Сырые байты инструкции `li r0, 0` — это `38 00 00 00`, где назначаемое значение находится в конце инструкции, поэтому я просто смог заменить байты на `38 00 00 01` и получить `li r0, 1`. В качестве более надёжного способа сборки инструкций можно использовать что-нибудь типа `kstool`: `$ kstool ppc32be "li 0, 1" li 0, 1 = [ 38 00 00 01 ]` В эмуляторе Dolphin этот патч можно применить, перейдя во вкладку «Patches» в свойствах игры и введя его следующим образом: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e65/ecb/706/e65ecb7061c9470c9a9b71c4aad8e506.png) После присвоения значения 1 в нижней части экрана появился интересный график: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/be5/cab/e1f/be5cabe1fe1df63d0534c092d49ca8f9.png) Он выглядел как индикатор производительности: небольшие полосы внизу экрана то увеличивались, то уменьшались. (Позже, когда я посмотрел на названия функций, отрисовывающих этот график, обнаружил, что на самом деле они отображают метрики использования ЦП и памяти.) Это было здорово, но не особо полезно. После присвоения значения 1 мой город перестал загружаться, поэтому здесь больше ничего нельзя было сделать. ### Zuru mode Я снова начал искать другие отсылки к функциям отладки, и несколько раз наткнулся на нечто под названием «zuru mode». Ветви блоков кода с функционалом отладки часто проверяли переменную `zurumode_flag`. ![game_move_first function](https://habrastorage.org/r/w1560/getpro/habr/post_images/88e/4d4/63c/88e4d463c3ea3474d3b67e2cf8367ee2.png) `zzz_LotsOfDebug` (название я придумал сам) в показанной выше функции `game_move_first` вызывается только когда `zurumode_flag` не равен нулю. Поискав функции, связанные с этим значением, я обнаружил такие: * `zurumode_init` * `zurumode_callback` * `zurumode_update` * `zurumode_cleanup` На первый взгляд их назначение загадочно, они жонглируют битами в смещениях переменной под названием `osAppNMIBuffer`. Вот как на первый взгляд выглядела работа этих функций: #### zurumode\_init * Присваивает `zurumode_flag` значение 0 * Проверяет несколько битов в `osAppNMIBuffer` * Сохраняет указатель на функцию `zurumode_callback` в структуре `padmgr` * Вызывает `zurumode_update` #### zurumode\_update * Проверяет несколько битов в `osAppNMIBuffer` * В зависимости от значения этих битов обновляет `zurumode_flag` * Выводит строку формата в консоль ОС. Подобное обычно полезно для придания контекста коду, но в строке было множество непечатаемых символов. Единственным распознаваемым текстом были «zurumode\_flag» и "%d". ![zuru mode format string](https://habrastorage.org/r/w1560/getpro/habr/post_images/268/f99/093/268f99093e0f9dec2a19bfc22be95ac7.png) Предположив, что это может быть японский текст с многобайтовой кодировкой символов, я пропустил строку через инструмент распознавания кодировки и выяснил, что строка закодирована Shift-JIS. В переводе строка просто обозначала «Значение zurumode\_flag изменилось с %d на %d». Это не даёт нам особо много новой информации, но зато теперь мы знаем, что используется Shift-JIS: в двоичных файлах и таблицах строк гораздо больше строк в этой кодировке. #### zurumode\_callback * Вызывает `zerumode_check_keycheck` * Проверяет несколько битов в `osAppNMIBuffer` * Куда-то выводит значение `zurumode_flag` * Вызывает `zurumode_update` `zerumode_check_keycheck` пока нам не встречалась из-за другого написания… что же это такое? ![zerumode_check_keycheck](https://habrastorage.org/r/w1560/getpro/habr/post_images/49e/ca7/1fd/49eca71fdd3cefb01b01c578a93bbe72.png) Огромная сложная функция, которая выполняет гораздо больше работы над битами со значениями без названий. В этот момент я решил сделать шаг назад и изучить другие отладочные функции и переменные, потому что не был уверен в важности zuru mode. Кроме того, я не понимал, что здесь означает «key check». Возможно ли, что это криптографический ключ? ### Обратно к отладке Примерно в это время я заметил проблему с моим способом загрузки отладочных символов в IDA. Файл `foresta.map` на диске игры содержит множество адресов и имён функций и переменных. Сначала я не увидел, что адреса для каждого раздела заново начинаются с нуля, поэтому написал простой скрипт, добавляющий запись имени для каждой строки файла. Я написал новые скрипты IDA, чтобы исправить загрузку символьных таблиц для разных разделов программы: `.text`, `.rodata`, `.data` и `.bss`. В разделе `.text` находятся все функции, поэтому я сделал так, чтобы на этот раз при задании имени скрипт автоматически распознавал функции по каждому адресу. В разделах данных он теперь создавал сегмент для каждого двоичного объекта (например `m_debug.o`, который должен был стать скомпилированным кодом для чего-то под названием `m_debug`), и задавал пространство и названия для каждого фрагмента данных. Это дало мне гораздо больше информации, однако пришлось вручную задавать тип данных для каждого фрагмента данных, потому что я задавал каждый объект данных как простой байтовый массив. (Оглядываясь назад, я понимаю, что лучше было бы предполагать, что кратные 4 байтам фрагменты содержали 32-битные целые числа, потому что их было много, и многие содержали адреса функций и данных, важных для построения перекрёстных ссылок.) Изучая новый сегмент `.bss` на наличие `m_debug_mode.o`, я обнаружил несколько переменных вида `quest_draw_status` и `event_status`. Это интересно, потому что я хотел, чтобы в режиме отладки отображалась полезная информация, а не только график производительности. К счастью, из этих записей данных существовали перекрёстные ссылки на огромный фрагмент кода, проверяющий `debug_print_flg`. С помощью отладчика в эмуляторе Dolphin я установил точку останова в том месте функции, где проверялось `debug_print_flg` (по адресу `8039816C`), чтобы понять, как работает эта проверка. Но программа так ни разу и не перешла в эту точку останова. Проверим, почему так происходит: эта функция вызывается `game_debug_draw_last`. Угадайте, какое значение проверяется перед её условным вызовом? `zurumode_flag`! Какого чёрта происходит? ![zurumode_flag check](https://habrastorage.org/r/w1560/getpro/habr/post_images/257/048/964/257048964f9e8265670952e66868fc83.png) Я установил точку останова на этой проверке (`80404E18`) и она сразу же сработала. Значение `zurumode_flag` было равно нулю, поэтому при обычном выполнении программа пропустила бы вызов этой функции. Я вставил вместо инструкции ветвления NOP (заменил её инструкцией, которая ничего не делает), чтобы проверить, что происходит при вызове функции. В отладчике Dolphin это можно сделать, поставив игру на паузу, нажав правой клавишей на инструкции и выбрав «Insert nop»: ![Dolphin debugger NOPping](https://habrastorage.org/r/w1560/getpro/habr/post_images/2e6/f00/8d1/2e6f008d1dcf1be707b1961e05df2e71.png) Ничего не произошло. Затем я проверил, что происходит внутри функции, и обнаружил ещё одну конструкцию ветвления, которая обходила всё интересное, происходящее по адресу `803981a8`. Я тоже вставил вместо неё NOP, и в верхнем правом углу экрана появилась буква «D». ![Debug mode letter D](https://habrastorage.org/r/w1560/getpro/habr/post_images/a18/9a0/816/a189a0816b08438ad5b85c09adaac57c.png) В этой функции по адресу `8039816C` (я назвал её `zzz_DebugDrawPrint`), есть ещё куча интересного кода, но он не вызывается. Если посмотреть на эту функцию в виде графа, то можно увидеть, что там есть серия операторов ветвления, пропускающих блоки кода на протяжении всей функции: ![Branches in zzz_DebugDrawPrint](https://habrastorage.org/r/w1560/getpro/habr/post_images/236/131/4bb/2361314bbb4165b8e1c82386e8c50533.png) Вставив NOP вместо нескольких других конструкций ветвления, я начал видеть на экране разные интересные вещи: ![More debug stuff getting printed](https://habrastorage.org/r/w1560/getpro/habr/post_images/0db/c19/008/0dbc1900844131d0c3d7f507f2b61b63.png) Следующий вопрос заключался в том, как активировать этот функционал отладки без изменения кода. Кроме того, в некоторых конструкциях ветвления в этой функции отрисовки отладки снова встречается `zurumode_flag`. Я добавил ещё один патч, чтобы в `zurumode_update` флагу `zurumode_flag` всегда присваивалось значение 2, потому что когда он не сравнивается с 0, то сравнивается конкретно со значением 2. После перезапуска игры я увидел в правом верхнем углу экрана такое сообщение «msg. no». ![message number display](https://habrastorage.org/r/w1560/getpro/habr/post_images/97d/16e/a0b/97d16ea0b169c72dd86ab623e0e3f977.png) Число 687 — это идентификатор записи самого последнего отображавшегося сообщения. Я проверил его с помощью программы просмотра таблиц, которую написал в самом начале анализа, но вы можете проверить его также с помощью [редактора строковых таблиц с полным GUI](https://github.com/jamchamb/ac-editor-stringtables), который я написал для хакинга ROM-ов. Вот как выглядит это сообщение в редакторе: ![Message 687 in the string table editor](https://habrastorage.org/r/w1560/getpro/habr/post_images/cad/e3f/378/cade3f3785a86e9bf335a144fe16a338.png) В этот момент стало понятно, что от исследования zuru mode уже было не отвертеться — он непосредственно связан с функциями отладки игры. ### Снова возвращаемся к Zuru mode `zurumode_init` инициализирует несколько вещей: * `0xC(padmgr_class)` присваивается значение адреса `zurumode_callback` * `0x10(padmgr_class)` присваивается значение адреса самого `padmgr_class` * `0x4(zuruKeyCheck)` присваивается значение последнего бита в слове, загруженном из `0x3C(osAppNMIBuffer)`. Я разобрался, что такое `padmgr`, это сокращение от «gamepad manager». Это значит, что возможно существование особого сочетания клавиш (кнопок), которое можно ввести на геймпаде для активации zuru mode, или какого-то отладочного устройства или функции консоли разработчика, которую можно использовать для отправки сигнала для его активации. `zurumode_init` выполняется только при первой загрузке игры (при нажатии кнопки reset он не срабатывает). Установив точку останова по адресу `8040efa4`, в котором происходит присвоение значения `0x4(zuruKeyCheck)`, мы можем увидеть, что при загрузке без нажатия клавиш присваивается значение 0. Если заменить его на 1, то происходит интересная вещь: ![Title screen with zuru mode](https://habrastorage.org/r/w1560/getpro/habr/post_images/9dc/5f5/0fb/9dc5f50fbd68beb624745d0704a18383.png) В правом верхнем углу снова появляется буква «D» (на этот раз зелёная, а не жёлтая), а также отображается некая информация сборки: `[CopyDate: 02/08/01 00:16:48 ] [Date: 02-07-31 12:52:00] [Creator:SRD@SRD036J]` Патч, всегда устанавливающий в начале для `0x4(zuruKeyCheck)` значение 1, выглядит так: `8040ef9c 38c00001` Похоже, что это правильный способ инициализации zuru mode. После этого могут понадобиться различные действия, чтобы добиться отображения определённой отладочной информации. Запустив игру, погуляв по ней и поговорив с деревенским жителем, мы не увидим никаких упомянутых выше сообщений (за исключением буквы «D» в углу). Наиболее вероятными подозреваемыми являются `zurumode_update` и `zurumode_callback`. #### zurumode\_update `zurumode_update` впервые вызывается в `zurumode_init`, а затем постоянно вызывается функцией `zurumode_callback`. Она снова проверяет последний бит `0x3C(osAppNMIBuffer)` и потом на основании этого значения обновляет `zurumode_flag`. Если бит равен нулю, то флагу присваивается значение нуля. Если нет, то выполняется следующая инструкция, при этом полным значением `0x3c(osAppNMIBuffer)` является `r5`: `extrwi r3, r5, 1, 28` Она извлекает 28-й бит из `r5` и сохраняет его в `r3`. Затем к результату прибавляется 1, то есть конечный результат всегда равен 1 или 2. Потом `zurumode_flag` сравнивается с предыдущим результатом, зависящим от того, сколько из 28-х и последних битов задано в `0x3c(osAppNMIBuffer)`: 0, 1 или 2. Это значение записывается `zurumode_flag`. Если оно ничего не меняет, то функция завершает работу и возвращает текущее значение флага. Если оно изменяет значение, то выполняется гораздо более сложная цепочка блоков кода. Выводится сообщение на японском: то самое «Значение zurumode\_flag сменилось с %d на %d», о котором мы говорили выше. Затем вызывается серия функций с разными аргументами, зависящими от того, стал ли флаг равным нулю, или нет. Ассемблерный код этой части однообразен, поэтому я покажу её псевдокод: ``` if (flag_changed_to_zero) { JC_JUTAssertion_changeDevice(2) JC_JUTDbPrint_setVisible(JC_JUTDbPrint_getManager(), 0) } else if (BIT(nmiBuffer, 25) || BIT(nmiBuffer, 31)) { JC_JUTAssertion_changeDevice(3) JC_JUTDbPrint_setVisible(JC_JUTDbPrint_getManager(), 1) } ``` Заметьте, что если флаг равен нулю, то `JC_JUTDbPrint_setVisible` передаётся агрумент 0. Если флаг не равен нулю И бит 25 или бит 31 заданы в `0x3C(osAppNMIBuffer)`, то функции `setVisible` передаётся аргумент 1. Это первый ключ к активации zuru mode: последний бит `0x3C(osAppNMIBuffer)` должен иметь значение 1, чтобы отобразить отладочную информацию и присвоить `zurumode_flag` ненулевое значение. #### zurumode\_callback `zurumode_callback` находится по адресу `8040ee74` и вероятно вызывается функцией, связанной с геймпадом. После вставки точки останова в отладчике Dolphin стек вызовов показывает нам, что она и в самом деле вызывается из `padmgr_HandleRetraceMsg`. Одно из первых её действий — выполнение `zerucheck_key_check`. Эта функция сложна, но похоже, что в целом она предназначена для считывания и обновления значения `zuruKeyCheck`. Прежде чем переходить к функции keycheck, я решил проверить, как это значение используется в остальной части функции callback. Затем она снова проверяет какие-то биты в `0x3c(osAppNMIBuffer)`. Если бит 26 задан, или если бит 25 задан и `padmgr_isConnectedController(1)` возвращает ненулевое значение, то последнему биту в `0x3c(osAppNMIBuffer)` присваивается значение 1! Если не задан ни один из этих битов, или бит 25 задан, но `padmgr_isConnectedController(1)` возвращает 0, то функция проверяет, равен ли байт по адресу `0x4(zuruKeyCheck)` нулю. Если равен, то она обнуляет последний бит в исходном значении и записывает его обратно в `0x3c(osAppNMIBuffer)`. Если нет, то она всё равно присваивает последнему биту значение 1. В псевдокоде это выглядит так: ``` x = osAppNMIBuffer[0x3c] if (BIT(x, 26) || (BIT(x, 25) && isConnectedController(1)) || zuruKeyCheck[4] != 0) { osAppNMIBuffer[0x3c] = x | 1 // set last bit } else { osAppNMIBuffer[0x3c] = x & ~1 // clear last bit } ``` После этого, если бит 26 не задан, функция переходит к вызову `zurumode_update`, а затем завершает работу. Если бит задан, тогда если `0x4(zuruKeyCheck)` не равно нулю, то она загружает строку формата, в которой выводит следующее: «ZURU %d/%d». #### Подведём промежуточный итог Вот, что происходит: `padmgr_HandleRetraceMsg` вызывает `zurumode_callback`. Я предполагаю, что это «handle retrace message» означает, что она просто сканирует нажатия клавиш контроллера. При каждом сканировании она может вызывать серию различных callback. При выполнении `zurumode_callback` она проверяет текущие нажатия клавиш (кнопок). Похоже, она проверяет конкретную кнопку или сочетание кнопок. Последний бит в NMI Buffer обновляется в зависимости от конкретных битов в его текущем значении, а также от значения одного из байтов `zuruKeyCheck` (`0x4(zuruKeyCheck)`). Затем выполняется `zurumode_update` и проверяет этот бит. Если он равен 0, то флагу zuru mode присваивается значение 0. Если он равен 1, то флаг режима изменяется на 1 или 2, в зависимости от того, задан ли бит 28. **Существует три способа активации zuru mode:** 1. Бит 26 задан в `0x3C(osAppNMIBuffer)` 2. Бит 25 задан в `0x3C(osAppNMIBuffer)` и контроллер подключен к порту 2 3. `0x4(zuruKeyCheck)` не равен нулю #### osAppNMIBuffer Заинтересовавшись тем, что значит `osAppNMIBuffer`, я начал искать «NMI» и нашёл в контексте Nintendo ссылки на «non-maskable interrupt» (немаскируемое прерывание). Оказывается, имя этой переменной целиком упоминается в документации разработчика для Nintendo 64: > osAppNMIBuffer — это 64-байтный буфер, очищаемый при холодном перезапуске. Если система перезагружается из-за NMI, состояние этого буфера не меняется. По сути, это небольшой фрагмент памяти, сохраняемый при «мягком» перезапуске (кнопкой reset). Игра может использовать этот буфер для хранения любых данных, пока консоль включена в сеть. Оригинальная Animal Crossing была выпущена на Nintendo 64, поэтому логично, что в коде должно было появиться нечто подобное. Если мы перейдём к двоичному файлу `boot.dol` (всё показанное выше находилось в `foresta.rel`), то в его функции `main` есть множество ссылок на `osAppNMIBuffer`. При беглом просмотре видно, что есть серия проверок, которая может привести к заданию значений разных битов `0x3c(osAppNMIBuffer)` с помощью операций OR. Интересными могут оказаться следующие значения операндов OR: * Бит 31: 0x01 * Бит 30: 0x02 * Бит 29: 0x04 * Бит 28: 0x08 * Бит 27: 0x10 * Бит 26: 0x20 Мы помним, что биты 25, 26 и 28 особо интересны: 25 и 26 определяют, включён ли zuru mode, а бит 28 определяет уровень флага (1 или 2). Бит 31 тоже интересен, но похоже, что он изменяется в зависимости от значений остальных. ##### Бит 26 Первым делом: по адресу `800062e0` есть инструкция `ori r0, r0, 0x20` со значением буфера в `0x3c`. Она задаёт бит 26, что всегда приводит ко включению zuru mode. ![Setting bit 26](https://habrastorage.org/r/w1560/getpro/habr/post_images/b5c/b3c/207/b5cb3c207a61dc20dd12e6724f25099b.png) Чтобы бит был задан, восьмой байт, возвращаемый от `DVDGetCurrentDiskID`, должен быть равен `0x99`. Этот идентификатор расположен в самом начале образа диска игры, и загружается в память по адресу `80000000`. В обычном розничном релизе игры ID выглядит так: `47 41 46 45 30 31 00 00 GAFE01..` Заменив патчем последний байт идентификатора на `0x99`, мы получим при запуске игры следующую картину: ![Game version ID 0x99](https://habrastorage.org/r/w1560/getpro/habr/post_images/da6/c58/c90/da6c58c90515fefb62ed8cf766ad8776.png) А в консоли ОС выводится следующее: `06:43:404 HW\EXI_DeviceIPL.cpp:339 N[OSREPORT]: ZURUMODE2 ENABLE 08:00:288 HW\EXI_DeviceIPL.cpp:339 N[OSREPORT]: osAppNMIBuffer[15]=0x00000078` Все другие патчи можно убрать, после чего в правом верхнем углу экрана снова появится буква D, но никакие отладочные сообщения больше не активируются. ##### Бит 25 Бит 25 используется совместно с выполнением проверки порта контроллера 2. Что приводит к его включению? ![Bit 25 and 28](https://habrastorage.org/r/w1560/getpro/habr/post_images/ddf/d00/4a1/ddfd004a1488ec21842c90581ef177fc.png) Оказывается, он должен использовать ту же проверку, что и для бита 28: версия должна быть больше или равна `0x90`. Если бит 26 задан (ID равен `0x99`), то оба этих бита также будут заданы, а zuru mode всё равно активируется. Однако если версия находится в интервале от `0x90` до `0x98`, то zuru mode не включается мгновенно. Вспомним проверку, выполняемую в `zurumode_callback` — режим будет включен, только если задан бит 25 *и* `padmgr_isConnectedController(1)` возвращает ненулевое значение. После подключения контроллера к порту 2 (аргумент `isConnectedController` имеет нулевую индексацию) активируется zuru mode. На начальном экране появляются буква D и информация о сборке, а мы… можем управлять отображением отладки с помощью кнопок второго контроллера! Некоторые кнопки выполняют действия, не только изменяющие отображение, но и, например, увеличивающие скорость игры. #### zerucheck\_key\_check Последней загадкой остаётся `0x4(zuruKeyCheck)`. Оказывается, что это значение обновляется огромной сложной функцией, которую я показывал выше: ![zerumode_check_keycheck](https://habrastorage.org/r/w1560/getpro/habr/post_images/49e/ca7/1fd/49eca71fdd3cefb01b01c578a93bbe72.png) С помощью отладчика эмулятора Dolphin мне удалось определить, что значение, проверяемое этой функцией — это набор битов, соответствующий нажатиям кнопок на втором контроллере. Отслеживание нажатий кнопок хранится в 16-битном значении в `0x2(zuruKeyCheck)`. Когда контроллер не подключен, значение равно `0x7638`. 2 байта, содержащих флаги нажатий кнопок контроллера загружаются и затем обновляются в начале `zerucheck_key_check`. Новое значение передаётся с регистром `r4` функцией `padmgr_HandleRetraceMsg`, когда она вызывает функцию callback. ![key check end](https://habrastorage.org/r/w1560/getpro/habr/post_images/f98/478/318/f984783181e592098f8beef9c22cef23.png) Ближе к концу `zerucheck_key_check` есть ещё одно место, где обновляется `0x4(zuruKeyCheck)`. Оно не появлялось в списке перекрёстных ссылок потому, что использует в качестве базового адреса `r3`, и мы можем узнать значение `r3` только посмотрев на то, какое значение ему присваивается перед вызовом этой функции. По адресу `8040ed88` значение `r4` записывается в `0x4(zuruKeyCheck)`. Прямо перед этим но записывается из того же места и затем XOR-ится с 1. Задача этой операции — переключать значение байта (а на самом деле — последнего бита) между 0 и 1. (Если значение 0, то результат XOR с 1 будет 1. Если значение 1, то результат будет 0. См. таблицу истинности для XOR.) ![key check end](https://habrastorage.org/r/w1560/getpro/habr/post_images/048/c32/eb1/048c32eb12dda64c878fa7b9f0bd7ddc.png) Раньше, когда я изучал значения в памяти, я не замечал этого поведения, но попробую разбить эту инструкцию в отладчике, чтобы понять, что происходит. Исходное значение загружается по адресу `8040ed7c`. Не касаясь кнопок контроллеров, я не попаду в эту точку останова на начальном экране. Чтобы попасть в этот блок кода, значение `r5` должно стать равным `0xb` до инструкции ветвления, которая идёт перед точкой останова (`8040ed74`). Из множества различных путей, ведущих к этому блоку, только один присваивает `r5` значение `0xb` перед ней, по адресу `8040ed68`. ![Setting r5 to 0xb](https://habrastorage.org/r/w1560/getpro/habr/post_images/04c/926/959/04c926959999b5f6facfc8920f6a212f.png) Заметьте, что для того, чтобы достичь блока, присваивающего `r5` значение `0xB`, прямо перед этим значение `r0` должно быть равно `0x1000`. Следуя по блокам вверх по цепочке до начала функции, мы можем увидеть все ограничения, необходимые для достижения этого блока: * 8040ed74: значение `r5` должно быть равно `0xB` * 8040ed60: значение `r0` должно быть равно `0x1000` * 8040ebe8: значение `r5` должно быть равно `0xA` * 8040ebe4: значение `r5` должно быть меньше `0x5B` * 8040eba4: значение `r5` должно быть больше `0x7` * 8040eb94: значение `r6` должно быть равно 1 * 8040eb5c: значение `r0` должно не быть равно 0 * 8040eb74: значения кнопок порта 2 должны измениться ![Tracing the code path](https://habrastorage.org/r/w1560/getpro/habr/post_images/28e/2fa/9f3/28e2fa9f3d35b1c6146f816120dee72b.png) Здесь мы достигли точки, в которой загружаются старые значения кнопок и сохраняются новые значения. Затем идёт пара операций, применяемая к новым и старым значениям: `old_vals = old_vals XOR new_vals old_vals = old_vals AND new_vals` Операция XOR помечает все биты, изменившиеся между двумя значениями. Затем операция AND маскирует новый ввод, чтобы установить в состояние 0 все биты, которые в данным момент не заданы. Результатом в `r0` является набор новых битов (нажатий кнопок) в новом значении. Если он не пуст, то мы на верном пути. Чтобы `r0` имела значение `0x1000`, должен измениться четвёртый из 16 битов отслеживания кнопок. Вставив точку останова после операции XOR/AND, я выяснил, что такое состояние вызывает кнопка START. Следующий вопрос заключается в том, как получить `r5`, чтобы она изначально была равна `0xA`. `r5` и `r6` загружаются из `0x0(zuruKeyCheck)` в начале функции проверки клавиш и обновляются ближе к концу, когда мы не попадаем в блок кода, включающий `0x4(zuruKeyCheck)`. Есть несколько мест перед этим, где `r5` присваивается значение `0xA`: * `8040ed50` * `8040ed00` * `8040ed38` ##### 8040ed38 * `8040ed34`: значение `r0` должно быть равно `0x4000` (нажата кнопка B) * `8040ebe0`: значение `r5` должно быть равно `0x5b` * `8040eba4`: значение `r5` должно быть больше `0x7` * дальше всё идёт как раньше… `r5` должна начинаться с `0x5b` ##### 8040ed00 * `8040ecfc`: значение `r0` должно быть равно `0xC000` (нажаты A и B) * `8040ebf8`: значение `r5` должно быть >= 9 * `8040ebf0`: значение `r5` должно быть меньше 10 * `8040ebe4`: значение `r5` должно быть меньше `0x5b` * `8040eba4`: `r5` должно быть больше `0x7` * дальше всё идёт как раньше… `r5` должна начинаться с 9 ##### 8040ed50 * `8040ed4c`: значение `r0` должно быть равно `0x8000` (нажата кнопка A) * `8040ec04`: значение `r5` должно быть меньше `0x5d` * `8040ebe4`: значение `r5` должно быть больше `0x5b` * `8040eba4`: значение `r5` должно быть больше `0x7` * дальше всё идёт как раньше… `r5` должна начинаться с `0x5c` Похоже, существует какое-то состояние между нажатиями кнопок, после чего необходимо ввести определённую последовательность комбо из кнопок, заканчивающееся нажатием на START. Похоже, что A и/или B должны идти прямо перед START. Если проследить путь кода, задающего `r5` значение 9, то возникает паттерн: `r5` — это увеличивающееся значение, которое может или увеличиться, когда в `r0` находится подходящее значение, или обнулиться. Самые странные случаи, когда это не значение в интервале от `0x0` до `0xB`, возникают при обработке шагов с несколькими кнопками, например, при одновременном нажатии A и B. Человек, пытающийся ввести это комбо, обычно не может нажать обе кнопки в точно в одинаковое время при отслеживании нажатий геймпада, поэтому приходится обрабатывать ту из кнопок, которая нажата первой. Продолжаем исследовать разные пути кода: * `r5` принимает значение 9, когда нажата RIGHT по адресу `8040ece8`. * `r5` принимает значение 8, когда нажата правая кнопка C по адресу `8040eccc`. * `r5` принимает значение 7, когда нажата левая кнопка C по адресу `8040ecb0`. * `r5` принимает значение 6, когда нажата LEFT по адресу `8040ec98`. * `r5` принимает значение 5 (а r6 принимает значение 1), когда нажата DOWN по адресу `8040ec7c`. * `r5` принимает значение 4, когда нажата верхняя кнопка C по адресу `8040ec64`. * `r5` принимает значение 3, когда нажата нижняя кнопка C по адресу `8040ec48`. * `r5` принимает значение 2, когда нажата UP по адресу `8040ec30`. * `r5` принимает значение 1 (а `r6` принимает значение 1), когда нажата Z по адресу `8040ec1c`. Текущая последовательность имеет вид: Z, UP, C-DOWN, C-UP, DOWN, LEFT, C-LEFT, C-RIGHT, RIGHT, A+B, START Перед проверкой Z проверяется ещё одно условие: хотя новая нажатая кнопка должна быть Z, текущие флаги должны быть равны `0x2030`: должны быть также нажаты левый и правый бамперы (они имеют значения `0x10` и `0x20`). Кроме того, UP/DOWN/LEFT/RIGHT — это кнопки D-pad, а не аналогового стика. #### Чит-код Полное комбо имеет такой вид: 1. Удерживаем бамперы L+R и нажимаем Z 2. D-UP 3. C-DOWN 4. C-UP 5. D-DOWN 6. D-LEFT 7. C-LEFT 8. C-RIGHT 9. D-RIGHT 10. A+B 11. START Работает! Подключите контроллер ко второму порту и введите код, после чего появится информация отладки. После этого можно начать нажимать кнопки на втором (или даже третьем) контроллере, чтобы выполнять разные действия. Это комбо будет работать без патчинга номера версии игры. Его можно даже использовать в обычной розничной копии игры без каких-либо читерских инструментов или модов консоли. Повторный ввод комбо отключает режим zuru mode. ![Using the code on a real GameCube](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b4d/fe4/7f0/b4dfe47f0139ba1af039decfb6274524.jpg) Сообщение «ZURU %d/%d» в `zurumode_callback` используется для вывода состояния этой комбинации, если вы вводите её, когда ID диска уже равен `0x99` (вероятно, в целях отладки самого чит-кода). Первое число — это ваша текущая позиция в последовательности, соответствующая `r5`. Второе принимает значение 1, когда удерживаются определённые кнопки последовательности, они могут соответствовать тому, когда `r6` присваивается значение 1. Большинство сообщений не объясняет, что они делают на экране, поэтому чтобы понять их предназначение, необходимо найти обрабатывающие их функции. Например, длинная строка из синих и красных звёздочек в верхней части экрана — это заполнители для отображения состояния различных квестов. Когда квест активен, там появляются какие-то числа, сообщающие о состоянии квеста. Чёрный экран, отображаемый при нажатии на Z — это консоль для вывода отладочных сообщений, а конкретно для низкоуровневых аспектов, таких как выделение памяти, ошибки кучи и другие плохие исключения. По поведению `fault_callback_scroll` можно предположить, что она используется для отображения этих ошибок до перезапуска системы. Она не запускает никакие из этих ошибок, но может заставить их вывести пару мусорных символов с несколькими NOP. Думаю, в дальнейшем это будет очень полезно для вывода собственных сообщений отладки: ![JUTConsole garbage characters](https://habrastorage.org/r/w1560/getpro/habr/post_images/b06/755/a33/b06755a33e0b0b8b010b7cbff7a26594.png) Проделав всё это, я выяснил, что попадание в режим отладки патчингом ID версии на `0x99` уже известно другим людям: <https://tcrf.net/Animal_Crossing#Debug_Mode>. (Также по ссылке есть хорошие примечания о том, что обозначают различные сообщения, и рассказывается о других вещах, которые можно сделать с контроллером в порте 3.) Однако, насколько я знаю, чит-комбинацию пока никто не публиковал. На этом всё. Есть и другие функции разработчика, которые я бы хотел исследовать, такие как отладочный экран карты и экран выбора эмулятора NES, и способы их активации без использования патчей. ![Map select screen](https://habrastorage.org/r/w1560/getpro/habr/post_images/258/eb3/445/258eb3445236357c201c343d6c8ae4ba.png) Кроме того, я опубликую статьи о реверс-инжиниринге систем диалогов, событий и квестов с целью создания модов.
https://habr.com/ru/post/413967/
null
ru
null
# Статический анализ IntelliJ IDEA против человеческого разума Не так давно я изучал вывод статического анализатора IntelliJ IDEA для Java-кода и наткнулся на интересный случай. Так как соответствующий фрагмент кода не является open source, я его анонимизировал и отвязал от внешних зависимостей. Будем считать, что он выглядел так: ``` private static List process(Map options, List inputs) { List res = new ArrayList<>(); int cur = -1; for (String str : inputs) { if (str.startsWith("-")) if (options.containsKey(str)) { if (cur == -1) cur = options.get(str); } else if (options.containsKey("+" + str)) { if (cur == -1) cur = res.isEmpty() ? -1 : res.remove(res.size() - 1); if (cur != -1) res.add(cur + str.length()); } } return res; } ``` Код как код, что-то преобразуется, что-то делается, но статическому анализатору он не понравился. Здесь мы видим целых два предупреждения: ![Code screenshot](https://habrastorage.org/r/w1560/webt/oy/nx/zp/oynxzpyjinplzjyvflkbwjid8xw.png) На выражении `res.isEmpty()` IDE говорит, что условие всегда истинно, а на `cur` выдается, что присваивание бессмысленно, так как то же самое значение уже лежит в этой переменной. Нетрудно видеть, что проблема с присваиванием — прямое следствие первой проблемы. Если `res.isEmpty()` действительно всегда истинно, то строка редуцируется до ``` if (cur == -1) cur = -1; ``` Это и в самом деле излишне. Вот только почему выражение всегда истинно? Ведь `res` — это список, он заполняется в этом же цикле. Количество итераций цикла и то, в какие ветки мы зайдем, зависит от входных параметров, которых IDE знать не может. Мы же могли добавить элемент в `res` на предыдущей итерации, и тогда список не будет пустым. Я увидел этот код впервые и довольно много времени потратил, чтобы разобраться с этим случаем. Поначалу я был почти убежден, что наткнулся на баг в анализаторе, и мне его придется исправлять. Давайте посмотрим, так ли это. Для начала пометим все строчки, где меняется состояние метода. Это изменение переменной `cur` или изменение списка `res`: ``` private static List process(Map options, List inputs) { List res = new ArrayList<>(); int cur = -1; for (String str : inputs) { if (str.startsWith("-")) if (options.containsKey(str)) { if (cur == -1) cur = options.get(str); // A } else if (options.containsKey("+" + str)) { if (cur == -1) cur = res.isEmpty() ? -1 : // B res.remove(res.size() - 1); // C if (cur != -1) res.add(cur + str.length()); // D } } return res; } ``` Строки `'A'` и `'B'` (`'B'` — это первая ветка условного оператора) изменяют переменную `cur`, `'D'` изменяет список, а `'C'` (вторая ветка условного оператора) изменяет и список, и переменную `cur`. Для нас существенно, лежит ли в `cur` -1 и является ли список пустым. То есть надо следить за четырьмя состояниями: ![](https://habrastorage.org/r/w1560/webt/zz/bv/bt/zzbvbtfjrox1wmrvjm7-zhvnwxc.png) Строка `'A'` меняет `cur`, если там до этого было `-1`. Причем мы не знаем, будет в результате `-1` или нет. Поэтому возможны два варианта: ![](https://habrastorage.org/r/w1560/webt/el/qa/xa/elqaxagjyhxmrmypo9hcgloh_xa.png) Строка `'B'` тоже работает, только если `cur` равно `-1`. При этом, как мы уже заметили, она в принципе ничего не делает. Но отметим все-таки это ребро для полноты картины: ![](https://habrastorage.org/r/w1560/webt/vw/zd/wm/vwzdwmqm5hd2apb38p87r00z_vy.png) Строка `'C'`, как и предыдущие, работает при `cur == -1` и меняет его произвольно (как и `'A'`). Но при этом она еще может непустой список `res` превратить в пустой, или оставить непустым, если там было больше одного элемента. ![](https://habrastorage.org/r/w1560/webt/wf/s1/37/wfs137xdsscb9p0naoe3lrjb9xm.png) Наконец, строка `'D'` увеличивает размер списка: пустой она может превратить в непустой, либо непустой увеличить. Непустой в пустой она превратить не может: ![](https://habrastorage.org/r/w1560/webt/nm/aj/l2/nmajl255y34yw-d3rxxkhanakg4.png) Что это нам дает? Ровным счетом ничего. Совершенно непонятно, почему условие `res.isEmpty()` всегда истинно. На самом деле, мы начали неправильно. В этом случае недостаточно отслеживать состояние каждой переменной отдельно. Тут играют важную роль коррелированные состояния. К счастью, в связи с тем, что `2+2 = 2*2`, у нас их тоже только четыре: ![](https://habrastorage.org/r/w1560/webt/wv/mo/np/wvmonphwjgopmouzrld0ydm-ao4.png) Двойной рамкой я отметил начальное состояние, которое мы имеем при входе в метод. Что ж, пробуем все заново. `'A'` меняет либо сохраняет `cur` при любом `res`, `res` при этом не меняется: ![](https://habrastorage.org/r/w1560/webt/qp/a7/nf/qpa7nfxohi1mvz63r4kxcdgtifm.png) `'B'` работает только при `cur == -1 && res.isEmpty()` и ничего не делает. Добавляем: ![](https://habrastorage.org/r/w1560/webt/oz/lo/zy/ozlozyk9nh0j6ss3mfve5l1cpv0.png) `'C'` работает только при `cur == -1 && !res.isEmpty()`. При этом и `cur`, и `res` меняются произвольно: после `'C'` мы попадаем в любое состояние: ![](https://habrastorage.org/r/w1560/webt/b7/jm/dk/b7jmdkb-c5kqax0m6kyxevslyfi.png) Наконец, `'D'` может начаться в `cur != -1 && res.isEmpty()` и сделать список непустым, либо начаться в `cur != -1 && !res.isEmpty()` и там же и остаться: ![](https://habrastorage.org/r/w1560/webt/qn/l4/h6/qnl4h6qs-sizqozc2rn-ecl4hwe.png) На первый взгляд кажется, что стало только хуже: граф стал сложнее, и непонятно, как его использовать. Но на самом деле мы близки к разгадке. Стрелочки теперь показывают весь возможный поток исполнения нашего метода. Так как мы знаем, из какого состояния мы начали, давайте прогуляемся по стрелочкам: ![](https://habrastorage.org/r/w1560/webt/ye/au/jm/yeaujmkezkujggymcc20xa679_m.png) И тут обнаруживается весьма любопытная вещь. Мы не можем попасть в левый нижний угол. А раз мы в него попасть не можем, значит, мы не можем пройтись ни по одной стрелке `'C'`. То есть строчка `'C'` действительно недостижима, а `'B'` при этом может выполняться. Это возможно, только если условие `res.isEmpty()` действительно всегда истинно! Анализатор IntelliJ IDEA полностью прав. Извини, анализатор, зря я думал, что ты глючный. Просто ты настолько умный, что мне, простому человеку, трудно за тобой успеть. В нашем анализаторе нет никаких “хайповых” технологий искусственного интеллекта, а используются подходы control flow analysis и data flow analysis, которым уже не менее полувека. Тем не менее он действительно порой делает весьма нетривиальные выводы. Впрочем, это и понятно: строить графы и гулять по ним у машин давно получается лучше, чем у людей. Тут есть важная нерешенная задача: недостаточно просто сказать человеку, что у него в программе ошибка. Кремниевый мозг должен объяснить биологическому, почему он так решил, причем так чтобы биологический мозг понял. Если у кого-то есть гениальные идеи, как это сделать, я буду рад вас выслушать. Если же вы готовы сами реализовать ваши идеи, наша команда не откажется с вами посотрудничать! Один из acceptance-тестов перед вами: для этого примера объяснение должно генерироваться автоматически. Это может быть текст, граф, дерево, картинка с котиками — все что угодно, лишь бы человеку было понятно. Остается открытым вопрос, что же все-таки имел в виду автор метода, и как код должен на самом деле выглядеть. Ответственные за подсистему сообщили мне, что эта часть несколько заброшена, и они сами не в курсе, как это исправить или лучше вообще удалить.
https://habr.com/ru/post/472932/
null
ru
null
# Снижаем размерность ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e11/d99/c24/e11d99c24a38d09f27c359904ca44ebe.jpg) Всем привет! Рассмотрю два популярных алгоритма уменьшения размерности, а именно T-distributed Stochastic Neighbor Embedding (t-SNE) и Uniform Manifold Approximation and Projection (UMAP). Их удобно использовать, когда необходимо визуализировать данные с большим количеством параметром (также будем называть это размерностью данных). Оба алгоритма осуществляют преобразование данных большой размерности в меньшую. На выходе, обычно, получают два измерения, оси которых или расстояния между полученным объектами не поддаются прямой интерпретации, в отличии, например, от метода главных компонент (Principal component analysis, PCA). Указанное выше не значит, что PCA лучше рассматриваемых нами алгоритмов. По своей сути они различны. PCA является линейным алгоритмом, присваивающим равные веса всем попарным расстояниям. Что касается t-SNE и UMAP, то они не линейны, и умеют определять приоритеты расстояний между соседями, что дает возможность выявить внутреннюю двумерность данных. При этом отличие t-SNE от UMAP заключается в том, что последний лучше сохраняет глобальную структуру при выводе итоговых результатов. Сравним оба алгоритма на примере базы изображений COIL-20, созданной сотрудниками лаборатории CAVE Колумбийского университета, США. База содержит изображения 20 предметов по 76 штук изображений на каждый из 20 предметов Рис 1. ![Рис.1](https://habrastorage.org/r/w1560/getpro/habr/upload_files/516/b40/00b/516b4000be2d6c303531d70d4af0439d.png "Рис.1")Рис.1 Для того, чтобы иметь возможность применить рассматриваемые алгоритмы необходимо изображения предобработать, например, привести их в пиксельные значения. Используем для этого код ниже. ``` data = [] path = 'datasets/coil-20-proc/' for file in os.listdir(path): im = Image.open('datasets/coil-20-proc/'+file) pixels = list(im.getdata()) cl = int(file.split('__')[0][3:]) data.append([cl] + pixels) df = pd.DataFrame(data) df.columns = ['label'] + ['a{}'.format(i) for i in range(df.shape[1]-1)] ``` Мы получили матрицу с параметрами рассматриваемых изображений и теперь можем применять t-SNE и UMAP. ``` tsne = TSNE() embedding_tsne = tsne.fit_transform(df.drop('label', axis = 1)) umap = UMAP() embedding_umap = umap.fit_transform(df.drop('label', axis = 1)) ``` ![Рис.2](https://habrastorage.org/r/w1560/getpro/habr/upload_files/654/429/c15/654429c15d3a924d81afda677ecbc6ca.png "Рис.2")Рис.2 Заметно, что UMAP уплотнил данные и развел большинство из них сильнее, чем t-SNE (рис 2). При этом UMAP затратил на работу 29 секунд, а t-SNE около 103 секунд. С этой точки зрения UMAP выглядит предпочтительнее. Однако, существует мнение, что такое сравнение не корректно, из-за стохастического характера t-SNE. Для нивелирования данного момента необходимо сделать t-SNE детерминированным, инициализировав через PCA. Давайте попробуем это сделать, применив PCA также к UMAP. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/190/ed9/e79/190ed9e79fd55a9498e3c19c68f7ba9d.png) Хотя данные изображения визуально выглядят приятнее, но получились они менее плотные (рис.3). Попытки поработать с параметрами алгоритмов t-SNE и UMAP в контексте инициализации через PCA существенного изменения изображений выше не дали. Таким образом можно сделать вывод, что для нашего случая применение PCA не оправдано. А значит вывод о предпочтительности UMAP, остается прежним. Давайте рассмотрим основные параметры алгоритма UMAP: A) n\_components – это размерность итоговых данных. Для двухмерного представления необходимо установить значение 2, для трехмерного, соответственно, 3. B) n-neighbours – определяет работу алгоритма с глобальной структурой данных. Значение по умолчанию установлено 15. Чем большая величина задается, тем большее количество соседних значений рассматривает UMAP, то есть смещает свое внимание с локальной структуры данных в пользу глобальной. ![Рис. 4](https://habrastorage.org/r/w1560/getpro/habr/upload_files/586/400/176/5864001767267981e88808963bfdf48c.png "Рис. 4")Рис. 4 На рисунке 4 видно, что данные лучше всего разделились при значениях n\_neighbors равным пяти и восьми. Это обусловлено небольшим размером рассматриваемого нами датасета. C) min\_dist – параметр задает минимальное расстояние для точек в итоговом представлении меньшей размерности. По умолчанию величина 0.1. ![Рис. 5](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e4a/8bb/cf2/e4a8bbcf29680986359d9cda8bf7f0d5.png "Рис. 5")Рис. 5 При устремлении параметра к нулю алгоритм начинает искать различия внутри полученных кластеров. При увеличении – внутренние различия стираются и структура данных представляется в виде единого целого (рис.5). D) spread – задает максимальное расстояние между точками в группе. По умолчанию значение равно 1. В сочетании с min\_dist определяет на сколько сгруппированы и разгруппированы точки. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/573/4a2/157/5734a2157e44019c0159052009bd54da.png) В сочетании с min\_dist, позволяет более тонко балансировать между отражением внутренней структуры и глобальной картины. (рис.6) В завершении хотелось бы добавить, что UMAP успешно справляется не только с картинками, но и векторизованными текстами, социологическими опросами и т.п., позволяя сразу сформировать общее представление о данных, не вчитываясь в них. Данный инструмент значительно превосходит конкурентов по скорости и лучше отражает внутреннюю структуру данных.
https://habr.com/ru/post/651403/
null
ru
null
# Работа с базой данных MS SQL средствами Go для начинающих В данный момент язык Go становится все популярнее и популярнее с каждым днем. На Хабре все чаще появляются статьи на тему, которые интересно читать не только прожженным спецам-програмистам, но и системным администраторам. Я работаю системным администратором и проявляю интерес к Go, так как нам часто приходится писать скрипты на bash (shell) для автоматизации своих действий и увеличения времени на поедание печенек и заливания кофе в наш щупленький организм. Хотелось бы поделиться небольшим опытом о том, как не программист писал небольшую программу на Go. Приступим. В компании, в которой я работаю есть некая программа, которая используется всеми. В ее основе лежит база на сервере MS SQL 2008. В прекрасный момент (для меня не очень) шеф заявляет, что надо написать программу, в которой нужные люди будут смотреть определенный данные из той самой базы. Для работы с базами данных есть пакеты **database/sql** и **code.google.com/p/odbc**. Их и будем использовать. Так же не забываем, что надо установить ODBC драйвер, через который и будем работать с MS SQL. Для Windows это делается через **Odbcad32.exe** путем добавления клиентского DSN. Для Linux немного сложнее, но это не входит в рамки статьи. Думаю, Google вам поможет. Вот таким у нас получается список пакетов, которым будем пользоваться на первом этапе. ``` import ( "database/sql" "fmt" "log" _ "code.google.com/p/odbc" ) ``` Пробуем соединиться с базой и выполнить запрос, дабы достать нужные нам данные. ``` package main import ( _ "code.google.com/p/odbc" "database/sql" "fmt" "log" ) var ( name_otdel string query string ) func main() { db, err := sql.Open("odbc", "DSN=DBS0") if err != nil { fmt.Println("Error in connect DB") log.Fatal(err) } query = "select t.DepartmentNAME from dbo.oms_Department t where t.rf_LPUID = 1078" rows, err := db.Query(query) if err != nil { log.Fatal(err) } for rows.Next() { if err := rows.Scan(&name_otdel); err != nil { log.Fatal(err) } fmt.Println(name_otdel) } defer rows.Close() } ``` Как видно из программы, все не так сложно и даже такие люди, как я (мало понимаем в программировании), могут постепенно учиться писать на Go. Правда, есть один нюанс. При разворачивании сервера баз данных MS SQL Server обычно не трогают настройки кодировок и она в большей части мест стоит windows1251. Это доставляет некое неудобство, так как в Go все работает в UTF8. В связи с этим мы будем применять дополнительные пакеты, не входящие в состав Go, для перекодировки windows1251 в UTF8. Поэтому, если вы запустите нашу программу, то увидите белеберду в консоли вместо русских букв. Чтобы это избежать, давайте воспользуемся пакетами **golang.org/x/text/encoding/charmap, golang.org/x/text/transform** **Полная программа с перекодировкой из cp1251 в UTF8** ``` package main import ( "database/sql" "fmt" "io/ioutil" "log" "strings" "golang.org/x/text/encoding/charmap" "golang.org/x/text/transform" _ "code.google.com/p/odbc" ) var ( name_otdel string name_utf string query string ) func main() { db, err := sql.Open("odbc", "DSN=DBS0") if err != nil { fmt.Println("Error in connect DB") log.Fatal(err) } query = "select t.DepartmentNAME from dbo.oms_Department t where t.rf_LPUID = 1078" rows, err := db.Query(query) if err != nil { log.Fatal(err) } for rows.Next() { if err := rows.Scan(&name_otdel); err != nil { log.Fatal(err) } sr := strings.NewReader(name_otdel) tr := transform.NewReader(sr, charmap.Windows1251.NewDecoder()) buf, err := ioutil.ReadAll(tr) if err != nil { log.Fatal(err) } name_utf = string(buf) fmt.Println(name_utf) } defer rows.Close() } ``` Конечный результат: ![](https://habrastorage.org/r/w1560/files/b51/228/723/b512287230334d00b5e8ccd24fe00970.png) Видим и радуемся, что все читается и данные из базы вытаскиваются. Хочу заметить, если в запросе на выходе будут два или больше столбцов, например, фамилия, имя и отчество, то не забываем их указывать в rows.Scan именно в том порядке, что и в SQL запросе. Чему мы научились после прочтения этой статьи? Получили базовые знания для работы с базами данными. Дальше можно будет их обрабатывать, сортировать или выводить в браузере и т.д. и т.п. Статья не рассчитана на опытных программистов и написана специально для людей, которые только начинают изучать довольно интересный язык Go.
https://habr.com/ru/post/253365/
null
ru
null
# HTML/CSS/JS + Node.js + node-webkit = Кроссархитектурные приложения ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8f4/a9c/78e/8f4a9c78ecca4dd9f35c1e74d4e959d7.png) С ростом популярности node.js он становится всё более привлекательным для разработки приложений. По крайней мере я в последнее время очень часто использую эту технологию для быстрой разработки оных. И на данный момент, технологически нет никаких препятствий для разработки кроссплатформенных приложений на одном языке. И не только классических Web-приложений (клиент-сервер) но и десктопных. 1. Если нужен быстрый старт, ставим express ``` npm install express ``` 2. Создаём файл server.js примерно следующего содержания: ``` var express = require('express'); var http = require('http'); var index = require('./routes/index.js'); var app = express(); // Куча всяких настроек express`а app.get('/', index.index); http.createServer(app).listen(app.get('port'), function(){ console.log('Express server listening on port ' + app.get('port')); }); ``` 3. Создаём файл index.js и кладём его в папку routes ``` exports.index = function(req, res){ res.render('index', {}); }; ``` 4. Создаём index.ejs (я использую ejs как шаблонизатор) и кладём его в папку view ``` Hello world Hello world! ============ ``` Вуаля! Запускаем ``` node server.js ``` Остаётся скопировать файлы на сервер, настроить nginx на проксирование запросов к нашему сервису… ну это Вы знаете. Но ведь не всегда есть желание или возможность возится с сервером. И даже если запускать проект локально… много возни. Хочется чего-нибудь «из коробки». Чтобы кликнул мышкой на ярлыке и приложение запустилось. Проект [node-webkit](https://github.com/rogerwang/node-webkit), анонсирование которого [имеется](http://habrahabr.ru/post/178353/) на хабре, пригодится для сборки подобного. Суть технологии в том, чтобы можно было внедрить api node.js в клиентский javascript-код. Т.е. вы можете соединяться с БД и файловой системой из клиентского кода напрямую, без посредников. Звучит заманчиво, и кстати работает, но мне не очень по душе такое смешение. Получается исключительно десктопное приложение. Мне по нраву другой вариант. Приложение выполнено в классическом для web-приложений стиле: клиентский код и серверный. И я должен иметь возможность запускать его как на сервере, предоставляя многопользовательский доступ и как локальное (однопользовательское) приложение. Вот рецепт: 1. node-webkit должен знать о стартовой html-странице которую он будет отображать первой. дописываем в package.json следующее ``` "main": "nw-start.html" ``` 2. nw-start.html будет следующего содержания ``` function bodyOnLoad(){ require('./server.js'); window.location.assign('http://localhost:3000/'); } Loading... ============ ``` 3. Весь код server.js сделаем immediate-функцией. ``` (function startServer(){ var express = require('express'); var app = express(); .... http.createServer(app).listen(app.get('port'), function(){ console.log('Express server listening on port ' + app.get('port')); }); })(); ``` 4. Упаковываем весь проект в zip-архив nw-project.zip 5. Запускаем ``` nw nw-project.zip ``` ![](https://habrastorage.org/r/w1560/storage2/cc6/587/495/cc6587495c967062eee7cdb6d136ff62.png) После недолгой паузы во время которой загружается «серверная» часть ![](https://habrastorage.org/r/w1560/storage2/00f/b2e/b21/00fb2eb21aa94c8786c290b9f164f82c.png) Суть происходящего достаточно проста. node-webkit загружает стартовую страницу. После этого выполняется клиентская функция bodyOnLoad. bodyOnLoad загружает модуль server.js (вызов node.js require). Вызов приводит к исполнению кода в server.js и, следственно, запуску http-сервера. Осталось только сменить URL страницы, что и делает window.location.assign('http://localhost:3000/'). Подобный подход позволяет не меняя архитектуры web-приложения сделать его desktop-версию. Правда надо понимать, что за эту простоту придётся заплатить некоторой производительностью… ведь обмен данными будет происходить не напрямую, а через сетевые запросы. Удачных выходных…
https://habr.com/ru/post/181670/
null
ru
null
# Восстановление пароля D-Link DPH-400S или история небольшого хака Ко мне, через двух знакомых, обратился директор одного таксопарка с просьбой сбросить пароль от IP-телефона *D-Link DPH-400S*. Историю телефона я не знаю и интересоваться не стал, но, как я понял, есть работающее и настроенное оборудование (в том числе и этот многоканальный телефон), которое никто не обслуживает. Пароли тоже никто не знает. А есть желание настроить интеграцию с компьютером, которую определенные люди сделать могут, но для этого нужен пароль от телефона. Как мне сказал директор, уже полдесятка людей заявили, что без сброса настроек это невозможно. Оказалось всё же возможно. А о том, как получилось восстановить пароль — небольшая история под катом. > *Если кто-то попал сюда в поисках способа восстановления пароля, а читать мою историю не хочет, то можно сразу читать с жирного заголовка ниже*. > > Когда я услышал про эту задачу, сразу пришли в голову две стандартных мысли — поискать штатный способ сброса пароля без полного обнуления конфига и, конечно же, пароли по-умолчанию. Ибо, с чем черт не шутит, и кто знает, что за «специалисты» уже приходили смотреть телефон. Первый вариант быстро отпал — инструкция такого варианта не предлагала, а на официальном форуме D-Link на этот вопрос было предложено одно решение — полный сброс настроек. И этот вариант директор сразу забраковал. Поэтому оставалось надеяться на удачу — нагуглил несколько вариантов паролей от самого телефона через кнопочный интерфейс и штук 5 паролей от веб-доступа и, вооружившись Kali Linux (на случай, если всё же по-хорошему телефон сдаться не захочет) пошел к «заказчику». В первую очередь попробовал заготовленные пароли на самом телефоне — мимо. Ну что же, может веб интерфейс меня порадует? Спросил у сотрудников IP-адрес телефона — в ответ получил удивленное лицо и фразу о том, что понятия об этом не имеют. И это вселяло надежду, что он всё же не поменян. Подключившись к коммутатору, который стоял рядышком с телефоном, с помощью nmap-а быстренько нашел нужную мне цель, но и тут меня ждало разочарование — пароли для веб-интерфейса тоже не подошли. Следующее, и, на тот момент, последнее, что было по плану — надежда на слабый пароль. Глянув в исходники страницы входа, чтобы зарядить брутфорс формы через гидру (THC-Hydra), немного ужаснулся, обнаружив там экранов 10-15 JavaScript-кода. Оказывается, чтобы не отправлять пароль в открытом виде через HTTP, он, силой программистов D-Link-а, уходит в следующем виде: ``` + md5( + ":" + + ":" + ) ``` Реализация md5 на JavaScript тоже прилагалась. По всей видимости, дешевая замена HTTPS. Не стал даже проверять, каждый ли раз выдается новая соль (*а это, скажу немного забегая вперед, в данном случае возможно — пароль-то хранится в открытом виде*) или replay-атакам могут стать серьезной угрозой для «HTTPS от D-Link», т.к. решил пока больше не мучить web-сервис, ибо не было никакого желания готовить специальный словарь для брутфорса. Куда больше было желания побрутфорсить telnet, который тоже шел в стандартной комплектации и отключен не был. Однако скорость брутфорса в 20-30 паролей в секунду немного расстроила. Запустил словарик топ-500 паролей и решил подождать, снова понадеявшись на удачу. Заскучав минуты через 3 после начала брута, решил пройтись по телефону Nessus-ом. Однако в результатах скана были только открытые порты, что сразу показалось странным, так как, как минимум на использование telnet-а он должен был выругаться. Оказывается, по умолчанию Nessus не сканирует сетевые принтеры, телефоны и прочие дохлые устройства, чтобы они не умерли под его напором. Поставив нужную галочку снова запустил скан и тут же увидел ожидаемое желтое сообщение о том, что используется небезопасный протокол telnet. Потом ещё одно, весьма предсказуемое «IP Forwarding Enabled» — логично, через него ведь можно подключать компьютер, если не хватает портов в коммутаторе. А после я увидел уже что-то интересное: ![](https://habrastorage.org/r/w1560/files/b29/d4c/d81/b29d4cd81429478bb1cb384ac7676520.png) Описание уязвимости говорило о том, что на порту 17185/udp висит сервис отладки VxWorks, через который есть возможность читать память устройства. Да, это действительно может быть полезно. И модуль для Metasploit-а, как оказалось, есть [в наличии](https://www.rapid7.com/db/modules/auxiliary/admin/vxworks/wdbrpc_memory_dump). **Кому нужно сбросить пароль, могут начинать читать отсюда:** Остается дело за малым, слить дамп памяти и надеяться на то, что пароль лежит там в открытом виде. Запускаем Metasploit: > > ``` > msfconsole > ``` > Выбираем нужный модуль: > > ``` > use auxiliary/admin/vxworks/wdbrpc_memory_dump > ``` > Настроек у модуля весьма мало: ![](https://habrastorage.org/r/w1560/files/234/5a4/deb/2345a4deb3e14b01b009edbb91e0a220.png) Достаточно указать только IP-адрес ~~жертвы~~ телефона, из которого нужно выковырять пароль. Пусть будет 192.168.1.177: > `set rhost 192.168.1.177` Далее запускаем модуль командой run и видим, как начинает загружаться дамп памяти: ![](https://habrastorage.org/r/w1560/files/2c9/576/b8e/2c9576b8ec3e44e2b925036839bb9115.png) Поиск пароля в дампе решил начать конечно же со strings. Предполагая, что логин «admin» бывшие владельцы данного устройства менять не стали, сразу решил грепнуть по предполагаемому логину, выводя по 5 строчек до и после слова «admin». В итоге получилась команда > > ``` > strings vxworks_memory.dmp | grep -A 5 -B 5 admin > ``` > Которая, о чудо, сразу дала нужный результат: ![](https://habrastorage.org/r/w1560/files/a17/642/062/a17642062a75450fa07cedb6b86afc08.png) При этом, несмотря на то, что текста вывелось достаточно много, нужный мне результат был почти в самом низу, даже полоску прокрутки не пришлось трогать. И в открытом виде… Победа! **P.S.** Кстати, пароль-то был не плох — 12 символов, большие/маленькие буквы и цифры и с виду — абсолютно случайные. Похоже тот кто его ставил, знал о важности парольной защиты. Но, похоже, не знал, что обновлять прошивки устройств не менее важно…
https://habr.com/ru/post/321286/
null
ru
null
# 4 способа импортировать пакет в Go Декларативная часть импорта пакетов в Go достаточно скучная и обыденная. Всего лишь нужно указать директиву **`import`** и перечислить импортируемые пакеты. Современные IDE делают эту работу за Вас — сами подставляют пакеты в этот раздел, что очень удобно. Кроме того, они сворачивают этот блок, чтобы он не мешал обозревать код. Я же советую развернуть этот блок, и изучить его внимательно — возможно Вы найдете там нечто необычное: ``` package main import ( "github.com/vigo5190/goimports-example/a" foo "github.com/vigo5190/goimports-example/a" . "github.com/vigo5190/goimports-example/b" _ "github.com/vigo5190/goimports-example/c" ) ``` Если стандартный импорт, импорт с синонимом и **`_`** я встречал, то импорт с **`.`** я до этого не видел. Для начало стоит вспомнить как же запускаются программы на Go. Первое и самое важное — в корне проекта ( для библиотек и пакетов иначе) лежит файл **`main.go`**, который при разработке запускают командой  ``` go run main.go ``` Отличительная особенность этого файла в том, что декларируемый в нём пакет должен быть **`main`**. ``` package main import ( "fmt" ) func main() { fmt.Println("Hello habr.com!") } ``` По сути, точкой входа в программу является **`func main()`** в пакете **`main`**. Но это поведение можно немного *хакнуть*. Для этого придумана функция **`func init()`**. Эта функция выполнится перед выполнением **`func main()`**. Эту функцию так же можно писать в Ваших пакетах. Она всегда будет выполняться при импорте пакета (если быть точным — она выполнится один раз при первом импорте пакета в вашей программе). Так же стоит понимать, что **`init()`** выполнится и при запуске тестов этого пакета. Примеры пакетов =============== Пакет **`a`** лишь экспортирует переменную, но не инициализирует её. **github.com/vigo5190/goimports-example/a** ``` package a var Foo string ``` Пакет **`b`** экспортирует переменную и инициализирует её в **`init()`**. **github.com/vigo5190/goimports-example/b** ``` package b var Foo string func init() { Foo = "bar" } ``` Пакет **`c`** экспортирует переменную, инициализирует её в **`init()`** и выводит значение в stdout. **github.com/vigo5190/goimports-example/c** ``` package c import "fmt" var Foo string func init() { Foo = "bar" fmt.Printf("%#v\n", Foo) } ``` Импорт "простой" ================ В этом примере мы импортируем 2 пакета и выводим в stdout значения экспортированных переменных. ``` package main import ( "fmt" "github.com/vigo5190/goimports-example/a" "github.com/vigo5190/goimports-example/b" ) func main() { fmt.Printf("%#v\n", a.Foo) fmt.Printf("%#v\n", b.Foo) } ``` Получим ``` go run main.go "" "bar" ``` Что собственно происходит в этом коде. В разделе **`import`** импортируется 2 пакета **`a`** и **`b`**. В пакете **`a`** объвлена переменная со значением по умолчанию (для строк — пустая строка). В пакете **`b`** значение переменной было проинициализировано в **`init()`** значением `"bar"`. Для обращения к переменным каждого пакета используется запись вида **`<имя_пакета>.<имя_поля>`** . Импорт c синонимом ================== ``` package main import ( "fmt" "github.com/vigo5190/goimports-example/a" foo "github.com/vigo5190/goimports-example/b" bar "github.com/vigo5190/goimports-example/a" ) func main() { fmt.Printf("%#v\n", a.Foo) fmt.Printf("%#v\n", foo.Foo) fmt.Printf("%#v\n", bar.Foo) } ``` Получим ``` go run main.go "" "bar" "" ``` Как видно из примера пакету **`b`** присвоен синоним **`foo`**. При этом пакет **`a`** импортировался несколько раз — второй раз под псевдонимом **`bar`**. Пакеты импортируют, задавая синонимы, в нескольких случаях: * Имя импортируемого пакета неудобное/некрасивое/… и хочется использовать другое; * Имя импортируемого пересекается с именем другого пакета; * Хочется бесшовно подменить пакет — интерфейсы пакетов должны совпадать. **Пример оправданного использования синонима**Например, при импорте **`github.com/sirupsen/logrus`**: ``` package db import( log "github.com/sirupsen/logrus" ) ``` Импорт c подчеркиванием ======================= ``` package main import ( "fmt" "github.com/vigo5190/goimports-example/a" _ "github.com/vigo5190/goimports-example/c" ) func main() { fmt.Printf("%#v\n", a.Foo) } ``` Получим ``` go run main.go "bar" "" ``` Как видно по коду, мы импортируем два пакета: **`a`** и **`c`**. При этом перед пакетом **`c`** стоит **`_`** и в самом коде пакет никак не используется. Такой прием используется для того, чтобы выполнить **`init()`** из пакета. В нашем примере в выводе на первой строке появился **`"bar"`**, по той причине, что этот вывод находится в функции инициализации пакета **`c`**. **Пример оправданного использования \_**Например, при импорте **`github.com/lib/pq`**: ``` package db import( _ "github.com/lib/pq" ) ``` в **`init()`** `lib/pq` такой код: ``` func init() { sql.Register("postgres", &Driver{}) } ``` который зарегистрирует драйвер. Импорт c точкой =============== ``` package main import ( "fmt" "github.com/vigo5190/goimports-example/a" . "github.com/vigo5190/goimports-example/b" ) func main() { fmt.Printf("%#v\n", a.Foo) fmt.Printf("%#v\n", Foo) } ``` Получим ``` go run main.go "" "bar" ``` Импорт с точкой добавляет все экспортируемые поля пакета в текущий скоуп (точнее говоря область видимости файла). И теперь Вы можете работать с полями импортированного пакет так, как будто они у вас в пакете. Такой опцией стоит пользоваться очень осторожно — пример ниже. **Пример 1** ``` package main import ( . "fmt" ) func main() { Println("Hello, habr.com!") } ``` Получим: ``` Hello, habr.com! ``` **Пример 2** ``` package main import ( . "fmt" . "math" ) func main() { Printf("%v\n", Sqrt(9)) } ``` Получим: ``` 3 ``` Импорт c точкой (и ошибкой) =========================== ``` package main import ( "fmt" . "github.com/vigo5190/goimports-example/a" . "github.com/vigo5190/goimports-example/b" ) func main() { fmt.Printf("%#v\n", Foo) } ``` Получим ``` go run main.go # command-line-arguments ./main.go:7:2: Foo redeclared during import "github.com/vigo5190/goimports-example/b" previous declaration during import "github.com/vigo5190/goimports-example/a" ./main.go:7:2: imported and not used: "github.com/vigo5190/goimports-example/b" ``` Как видно из вывода, при импорте в текущую область видимости пакетов с пересекающимися полями мы получим ошибку компиляции. Поэтому подумайте лишний раз перед тем как использовать такой импорт — можно получить ошибку совершенно неожиданно. Итого ===== Несмотря на жесткие ограничения синтаксиса, в Go можно делать достаточно много нестандартных вещей. Рассмотренные выше особенности импорта демонстрируют, что всего парой операторов можно очень сильно изменить поведение программы. Главное, при использование всех этих возможностей *не выстрелить себе в ногу*. И помните, что лучше написать простой и понятный код, чем сложный и "крутой". P.S. ---- Примеры кода, с которым можно поиграться [лежат на гитхабе](https://github.com/vigo5190/goimports-example).
https://habr.com/ru/post/413563/
null
ru
null
# jParallax — псевдо 3D интернет ![3dd](http://chernev.ru/wp-content/uploads/3dd.gif) Как-то я видел забавный дизайн с обезьяной, позади которой очень занимательный фон который динамически менялся при изменении размера окна брузера. Это достигалось за счет движения нескольких параллельных слоев. ![diagram_parallax](http://chernev.ru/wp-content/uploads/diagram-parallax.png) С помощью этого эффекта можно создавать множество очень интересных штук(ссылки на интересные штуки прилагаются ниже). Кроме того, я хочу поделится с вами очень интересным скриптом который практически автоматизирует процесс создания параллельных слоев. #### jParallax Как Вы уже, скорее всего, заметили по приставке «j», это ничто иное как плагин для jQuery. jParallax захватывает дочерние элементы блока, к которому нужно применить этот эффект, и передвигает их при наведении и перемещении мыши. Размер плагина в несжатом виде всего 12 килобайт. #### Работаем с jParallax jParallax, как и практически все плагины для jQuery, сводят всю возню с кодом на нет. Для начала мы должны скачать саму библиотеку и подключить ее к вашей страничке. Затем создаем блок, к примеру, с id `parallax`, в котором будут находится несколько изображений к которым вы хотите применить этот эффект. Теперь дописываем строчку, после которой всё уже, в принципе, работает: ``` jQuery('#parallax').jparallax(); ``` Кроме того можно изменять скорость анимации, положение слоев по умолчанию и т.п., о чем вы можете весьма подробно почитать на оф. сайте плагина. > [Посмотреть замечательное демо #1](http://webdev.stephband.info/parallax_demos.html) > > [Посмотреть замечательное демо #2](http://test.stephband.info/parallax_0.5/climber.html) > > [Посмотреть замечательное демо #3](http://test.stephband.info/parallax_0.6/test.html) > > [Посетить оф. сайт плагина jParallax](http://webdev.stephband.info/parallax.html) > > > > [Подписаться на заметки от Чернева](http://feeds.feedburner.com/chernev) > >
https://habr.com/ru/post/38389/
null
ru
null
# Системы инициализации Unix и Linux после SysV До середины 2000-х никому в голову не приходило менять [sysvinit](https://wiki.archlinux.org/index.php/SysVinit), почти никому. Gentoo с самого начала создавала и развивала [OpenRC](https://wiki.gentoo.org/wiki/OpenRC). Все изменилось с появлением [launchd](http://web.archive.org/web/20070704235452/http://developer.apple.com/macosx/launchd.html) в Mac OS X. Разработчики Ubuntu бросились создавать [Upstart](http://upstart.ubuntu.com/), в котором были позаимствованы некоторые идеи из `launchd`. Дело шло ни шатко ни валко, но тут случился [systemd](https://www.freedesktop.org/wiki/Software/systemd/) и смешал все карты. Но кто же был истинным первопроходцем? ![](https://habrastorage.org/r/w1560/files/a4a/af6/bd4/a4aaf6bd497e421dab1dfa2c28867623.png) Daniel J. Bernstein математик и специалист по криптографии, автор популярного MTA [qmail](http://cr.yp.to/qmail.html) и множества других менее известных программ, среди которых выделяется [daemontools](http://cr.yp.to/daemontools.html). Для множества современных систем инициализации *daemontools* являлся примером и вдохновителем. Прошу внутрь для того, чтобы познакомиться с самой элегантной, простой и влиятельной системой управления службами в Unix / Linux. ### DJB и Daemontools > *Уравнения Максвелла для управления процессами на Unix ОС*. Внимание — **не следует путать** *daemontools* написанный DJB с программой-тезкой [DAEMON Tools](https://www.daemon-tools.cc/deu/home) для монтирования iso образов и создания виртуальных CD/DVD дисков. Daniel J. Bernstein создал свою программу в 1997 г. Последний стабильный релиз был в июле 2001 г. Сейчас, когда в Linux сообществе наблюдается раскол из-за systemd, самое время вспомнить каким может быть настоящий инит в духе принципов и философии Unix. В этом смысле дзен-программист DJB является воплощением минимализма и простоты, а бритва Оккама у него встроена в клавиатуру. Его решения основательны и элегантны, на этом фундаменте он строит надежное, безопасное ПО, которое потребляет минимальное количество ресурсов ОС. Вот некоторые особенности его стиля работы. * Самый большой файс исходного кода `multilog.c` имеет всего лишь 13898, нет не строк, а байтов. Команда `wc` указывает лишь на 617 строк кода. * Большинство функций имеют меньше 30 строк. * Принцип — никогда ничего **не парсить**. * Принцип — использовать все, что дает ОС и не изобретать велосипеды. Почему такие странные принципы, и еще с учетом того, что автор исповедует их фанатично? Строительный материал *daemontools* — директории, процессы, FIFO, исполняемые файлы. Это дает массу преимуществ в разработке и отладке приложения: * Тестировать запуск службы проще простого — если запустится исполняемый файл `./run`, то и служба тоже запустится. * Можно использовать любой язык программирования, не только Bash. Сгодится даже скомпилированный бинарник. * Понятно, что и как делает программа даже без подробного прочтения документации и изучения исходного кода. * Парсить разнообразные текстовые структуры — на удивление [трудная задача](https://ru.wikipedia.org/wiki/Bashdoor), если это делать по уму. Автор избегает этого, умело используя иерархическое свойство файловой системы Unix для воссоздания структуры переменных среды `ключ=значение`. #### Сравнительная таблица DT Стоит обратить внимание на неортодоксальную структуру директорий *daemontools*, ничтоже сумняшеся программа создает каталоги в корне файловой системы Unix. DJB прописал в коде программы директории`/service`, `/command` и рекомендует создать `/package` для исходников программы. Это считается весьма дурным тоном в Unix и Linux, создатели дистрибутивов всеми силами избегают этого, также как и пользователи с правами root. | **features** | **inittab** | **ttys** | **init.d** | **rc.local** | **/service** | | --- | --- | --- | --- | --- | --- | | Easy service installation and removal | No | No | Yes | No | Yes | | Easy first-time service startup | No | No | No | No | Yes | | Reliable restarts | Yes | Yes | No | No | Yes | | Easy, reliable signalling | No | No | No | No | Yes | | Clean process state | Yes | Yes | No | No | Yes | | Portability | No | No | No | No | Yes | Давайте пробежимся по таблице самовосхваления *daemontools*. Начнем с первой строчки. Действительно создание и удаление нового сервиса проще простого, добавил, или удалил новую директорию в `/service` вместе с файлом `./run` и на этом все. Сравните со скриптами sysvinit и остальных инитов, чтобы оценить простоту такого способа достичь того же самого. Второй пункт менее убедителен в том смысле, что конечно же проще когда сервис и в первый раз стартует автоматически, но в остальных системах инициализации и управления службами достаточно одной команды для первого старта службы. Возможность перезапустить завершившийся сервис в автоматическом режиме была на тот момент момент большим шагом вперед. На сегодняшний день это уже в порядке вещей. Четвертая позиция — сигналы. Команда `svc`, как показано ниже, позволяет послать службе практически любой сигнал POSIX стандартов. Последние две позиции кажутся несколько надуманными, не совсем понятно как *daemontools* восстанавливает состояние процесса в отличие от остальных инитов. Непонятно также, почему автор только свою программу считает переносимой на другие платформы. #### Структура DT По словам автора: *daemontools* — это набор инструментов для управления службами UNIX. Основными отличиями от традиционных инитов (структуры директорий rcX.d, rc.d, rc.local и пр.) является способность перезапустить сервис в случае его падения и наличие программы ведения и ротации логов — multilog. Также, multilog позволяет вести лог вывода программ, не умеющих перенаправлять вывод в `syslog`. Таким образом, можно запускать как сервис программы, для этого вовсе не предназначенные. *Внутреннее устройство daemontools, граница обведена красной прерывистой линией.* ![](https://habrastorage.org/r/w1560/files/52d/157/55e/52d15755e9f5455e8f983ec0fbbb2abc.png) Теперь немного о принципах работы программы. В самом начале системный инит запускает `svscanboot`, который затем запускает программу `svscan` в ново-созданной директории `svscan`. Далее `svscanboot` перенаправляет вывод запущенного `svscan` в отладочный процесс `readproctitle`. Ядром *daemontools* являются всего две программы: `svscan` и `supervise`. Первая запускается с единственным аргументом по выбору, а вторая — с обязательным ключом. **Svscan** служит для запуска и слежения за сервисами. Каждые 5 секунд `Svscan` проверяет каталог `/service`, если другой не задан, на наличие новых подкаталогов. Если такие будут обнаружены, запускается новая копия `supervise` для каждого каталога. **Supervise** является, в соответствии с названием, контролирующем процессом. Он вызывается с параметром, в котором содержится имя каталога и в нем ищет скрипт `./run`, который и запускает. Если по каким-то причинам `./run` перестал исполняться, то тогда `supervise` его перезапустит после небольшой паузы — чтобы не создавать дополнительной нагрузки на ОС. `Supervise` не перезапустит `./run`, если в каталоге будет обнаружен файл `./down`. `Supervise` создает в каталоге сервиса подкаталог `./supervise`, в котором хранятся данные о процессе. Эти данные могут быть прочитаны с помощью утилиты `svstat`. Для управления сервисом служит программа `svc`. Синтаксис команды `svc` и опции представлены ниже. ``` svc options services ``` * -u: Up, запустить сервис, в случае останова — перезапустить. * -d: Down, остановить сервис. * -t: Terminate, посылает сервису сигнал TERM. * -k: Kill, посылает сервису сигнал KILL. * -p: Pause, посылает сервису сигнал STOP. * -c: Continue, посылает сервису сигнал CONT. * -h: Hangup, посылает сервису сигнал HUP. * -a: Alarm, посылает сервису сигнал ALRM. * -h: Interrupt, посылает сервису сигнал INT. * -x: Exit, `supervise` завершит работу как только `./run` или его потомок завершится. * -o: Once, запустить сервис, но не перезапускать после его завершения. Есть еще одно обстоятельство, если в рабочем каталоге `supervise` содержится подкаталог `./log`, в котором есть `./log/run`, то тогда будет запущена еще одна копия `supervise` и создан канал между `./run` и `./log/run`. Попробуем добавить сервис sshd. ``` #!/bin/sh # перенаправить stderr в stdout exec 2>&1 # с опцией -D sshd выполняется явно, с опцией -e отладка пишется в stderr exec /usr/sbin/sshd -D -e ``` В таком случае структура директорий может выглядеть так. ``` - service/ |- ngetty/ | |- run | |- log/ | |- run |- sshd/ | |- run | |- log/ | |- run |- squid/ | |- run | |- log/ | |- run ``` После того, как `svscan` пробежится по этому списку мы получим дерево процессов, в котором процессы `service` следят за сервисами и логированием. ``` -svscan-+-service-+-ngetty | `-log-service +-service-+-sshd | `-log-service +-service-+-crond | `-log-service ``` #### Зависимости между службами Несмотря на то, что программа не поддерживает зависимости между различными службами, есть способ добиться учета зависимостей, используя для этого `svok` следующим образом. ``` #!/bin/sh svok postgres || (echo "waiting for postgres..." && exit 1) exec 2>&1 exec python3 your-web-app.py ``` * svok — проверяет, запущена ли определенная служба. Ничего не выводит в `stdout` и `stderr`, если служба запущена, то тогда программа возвращает код 0, в противном случае — код 100. В данном примере программа на python запустится только в том случае, если стартовал postgres, если же последний пока не поднялся, скрипт завершится и затем через определенно время `svscan` его перезапустит. Когда же postgres наконец поднимется, python запустит веб приложение. #### Квотирование сервиса С помощью утилиты `softlimit` можно ограничить предоставленные данному сервису ресурсы. ``` #!/bin/sh exec 2>&1 # сменить пользователя на foo, ограничить стек 4096 байтами, открытые # файловые дескрипторы 15 и количество процессов 1: exec setuidgid foo softlimit -n 4096 -o 15 -p 1 \ bar -n ``` * softlimit — запускает программу с ресурсными ограничениями. #### Логирование Если у вас есть некая программа `foo`, которая не ведет логов, вы без труда сделаете это с помощью `multilog`, собрав в отдельном файле вывод `stdout` и `stderr` с временными метками. ``` [root@home: +5] cd /service/foo && mkdir log [root@home: +5] cd log && mkdir main [root@home: +5] nano run.new #пишем в файл #!/bin/sh exec 2>&1 exec multilog t ./main [root@home: +5] chmod u+x run.new [root@home: +5] mv run.new run [root@home: +5] cd /service [root@home: +5] svc -t foo ``` Из другого терминала запускаем: ``` tail -fn0 /service/foo/main/current ``` ### Последователи daemontools Мало кто сегодня использует DT, но можно смело сказать, что Daniel J. Bernstein стал для многих примером, а дело его живет и здравствует. Вот неполный список его последователей. * [daemontools-encore](http://untroubled.org/daemontools-encore/) — Разработчик Bruce Guenter, является дальнейшим развитием DT. Не полноценный инит, также как и оригинал. * [runit](http://smarden.org/runit/) — Разработчик Gerrit Pape, умеет параллельно запускать службы. [Хабрапост](https://habrahabr.ru/post/83775/). * [s6](http://skarnet.org/software/s6/index.html) — Полноценный асинхронный инит с PID 1. * [nosh](http://homepage.ntlworld.com/jonathan.deboynepollard/Softwares/nosh.html) — Легковесный гипервизор процессов для BSD и Linux, умеет параллельно запускать и останавливать службы. #### Использованные материалы 1. [Celebrating Daemontools](http://blog.infinitenegativeutility.com/2015/2/celebrating-daemontools) 2. [Daemontools Intro](http://www.troubleshooters.com/linux/djbdns/daemontools_intro.htm) 3. [Введение в Daemontools](http://lithium.opennet.ru/daemontools.html) 4. [A history of modern init systems (1992-2015)](http://blog.darknedgy.net/technology/2015/09/05/0/)
https://habr.com/ru/post/327728/
null
ru
null
# Дайджест интересных новостей и материалов из мира PHP за последние две недели № 27 (22 сентября — 6 октября 2013) ![](https://habrastorage.org/r/w780q1/storage3/e5b/5e6/bb3/e5b5e6bb399d4b80a1c5526703109c10.jpg) Предлагаем вашему вниманию очередную подборку с ссылками на новости и материалы. Кстати, вчера исполнился ровно год с момента публикации [первого PHP-дайджеста](http://habrahabr.ru/company/zfort/blog/153769/) на Хабре. Огромное спасибо всем, кто так или иначе помогал создавать дайджесты, спасибо разработчикам за замечательные инструменты, авторам за их полезные статьи, а главное спасибо вам за то, что до сих пор читаете! ### Новости и релизы * [Zend PHP 5.5 Certification](http://shop.zend.com/en/zend-certification/zend-php5-certification-voucher.html) — Стала доступна обновленная сертификация для PHP-разработчиков от Zend. Были [добавлены](http://www.zend.com/services/certification/php-certification/) новые темы и расширены некоторые старые. Кроме того доступна [сертификация по Symfony](https://sensiolabs.com/en/symfony/certification.html) от SensioLabs. * ![habr](https://habrastorage.org/r/w1560/storage2/c57/b92/af4/c57b92af4ee0d37f787c211a068b1b95.png) [PHP Frameworks Day 2013](http://habrahabr.ru/events/3382/) — Напомню, что 12 октября в Киеве пройдет PHP-конференция, специальным гостем которой станет лично Расмус Лердорф. * [Zephir Blog](http://blog.zephir-lang.com/) — У Zephir появился свой блог, в котором регулярно будут публиковаться новости и материалы. * [Отменено голосование по PSR-4](https://groups.google.com/forum/#!msg/php-fig/NWfyAeF7Psk/_e3vpSLX0ckJ) — Результаты аннулированы и голосование временно закрыто пока стандарт не будет доработан. * [Принято предложение по улучшению синтаксиса функций с переменным числом аргументов](https://wiki.php.net/rfc/variadics#vote) — С результатом голосования 36 «за» и 1 «против», предложение принято и новый синтаксис будет доступен уже в PHP 5.6. ### PHP * [RFC: Автоматическая инициализация свойств](https://wiki.php.net/rfc/automatic_property_initialization) — Предложение добавить некий синтаксический сахар для конструкторов, позволяющий автоматически присваивать значения свойствам: `public function __construct($this->x, $this->y, $this->z) {}` * [RFC: Анонимные классы](https://wiki.php.net/rfc/anonymous_classes) — Концепция анонимных классов известная и хорошо опробованная, но есть ли необходимость в них в PHP? * [RFC: Вложенные классы](https://wiki.php.net/rfc/nested_classes) — В продолжение предыдущему предложению. * [Порядок вычисления в PHP — анализ странного поведения](https://gist.github.com/nikic/6699370) — Может показаться, что порядок вычисления выражений в PHP определяется [приоритетом и ассоциативностью операторов](http://php.net/manual/ru/language.operators.precedence.php), но это не так. Подробнее о том, что же происходит на самом деле, читайте в отличном посте от Никиты Попова. * ![ru](https://habrastorage.org/storage2/c72/991/4ca/c729914ca9c21661c5abd81052c6a10e.gif) [Статистика 2013 — PHP сегодня и завтра](http://blogerator.ru/page/statistika-2013-php-segodnja-i-zavtra-populjarnost-trendy-frejmvorki) — Анализ статистики по PHP и фреймворкам, а также о причинах роста популярности PHP в последнее время. * ![video](https://habrastorage.org/storage3/976/d3e/38a/976d3e38a34b003f86f91795524af9f8.gif) [Все, что вам необходимо знать о кэшировании опкода](http://daveyshafik.com/archives/68838-everything-you-need-to-know-about-opcode-caches.html) — Отличный скринкаст об опкод-кэшировании в PHP. Рекомендуется также ознакомиться с оригинальным документом, на основе которого и был сделан скринкаст: [PHP Performance I: Everything You Need to Know About OpCode Caches](https://engineyard.zendesk.com/entries/26902267) ### Инструменты * [Syngr](https://github.com/hassankhan/Syngr) — Библиотека, которая является попыткой собрать разнообразие функций PHP в одно целое и предоставить объектный подход. Например `$string = new String('hello world'); echo $string->uppercase()->substring(0, 6)->replace(' ', '?')->trim('?');` и прочее. * [Eden](http://eden.openovate.com/) — Библиотека, созданная для быстрого прототипирования проектов на PHP. Позволяет быстро интегрировать сторонние API. * [OpCacheGUI](https://github.com/PeeHaa/OpCacheGUI) — Графический интерфейс для OpCache из PHP 5.5. * [Tonic](https://github.com/peej/tonic) — Библиотека, предназначенная для создания RESTful веб-приложений. ### Материалы для обучения * ![video](https://habrastorage.org/storage3/976/d3e/38a/976d3e38a34b003f86f91795524af9f8.gif) [Непрерывная интеграция на PHP: от нуля до Jenkins](https://www.youtube.com/watch?v=PklYO2vYIfc) — Скринкаст с туториалом по установке и использованию Jenkins для реализации процесса непрерывной интеграции в PHP-приложении. Имеется также [текстовая версия](http://programmingarehard.com/2013/09/26/zero-to-jenkins.html). * [Функциональное программирование на PHP](http://net.tutsplus.com/tutorials/php/functional-programming-in-php/) — Базовые концепции функциональной парадигмы и их применение в PHP. Посты по теме уже были [тут](http://www.sitepoint.com/functional-programming-and-php/) и [тут](http://habrahabr.ru/post/167181/) ![habr](https://habrastorage.org/r/w1560/storage2/c57/b92/af4/c57b92af4ee0d37f787c211a068b1b95.png). * [Профилирование PHP-приложений с помощью XHGui](http://techportal.inviqa.com/2013/10/01/profiling-php-applications-with-xhgui/) — Туториал по установке, настройке и использованию XHGui — графического интерфейса для XHProf. * [Журнал Web & PHP за октябрь 2013](http://webandphp.com/October2013) — В свежем выпуске журнала несколько интересных статей на тему PHP и веб-разработки: Symfony2 CMF, Twig, Sylius, продвинутый тюнинг MySQL-запросов и другие. * [DTrace и PHP](https://blogs.oracle.com/opal/entry/dtrace_with_php_update), [2](https://blogs.oracle.com/opal/entry/using_php_dtrace_on_oracle), [3](https://blogs.oracle.com/opal/entry/dtrace_php_using_oracle_linux) — Серия статей в блоге Oracle об использовании [DTrace](http://ru.wikipedia.org/wiki/DTrace) с PHP. * [Использование трейтов в Zend Framework 2](http://www.maltblue.com/php/using-traits-for-code-reuse-in-zend-framework-2) — Небольшой пост с примером практического применения трейтов. * [Создаем вебсайт с помощью Laravel и Recurly](http://habrahabr.ru/post/195690/) ![habr](https://habrastorage.org/r/w1560/storage2/c57/b92/af4/c57b92af4ee0d37f787c211a068b1b95.png), [2](http://www.sitepoint.com/creating-subscription-based-website-laravel-recurly-2/) — Хороший туториал в двух частях по созданию вебсайта с возможностью подписки по различным планам и реализацией регулярных платежей на основе сервиса Recurly. Вторая часть, к сожалению, пока не переведена. * Обзор Symfony2-компонентов: [HttpFoundation](http://blog.servergrove.com/2013/09/23/symfony2-components-overview-httpfoundation/), [HttpKernel](http://blog.servergrove.com/2013/09/30/symfony2-components-overview-httpkernel/) — Серия небольших постов о базовых компонентах из Symfony2. * [Коллекции в PHP](http://www.sitepoint.com/collection-classes-in-php/) — Небольший туториал по реализации классов коллекций на PHP. Более интересная реализация уже [была на Хабре](http://habrahabr.ru/post/144182/) ![habr](https://habrastorage.org/r/w1560/storage2/c57/b92/af4/c57b92af4ee0d37f787c211a068b1b95.png). * [Файловая система медленна](http://www.eschrade.com/page/more-on-the-file-system-is-slow/) — Автор описывает небольшой эксперимент и тестирование файловой системы на запись 1 млн. строк в лог-файл на диске и в ОЗУ. Файловая система медленна, но это не то, о чем следует думать PHP-разработчикам в первую очередь. * [Развертывание PHP-приложений на Engine Yard](https://blog.engineyard.com/2013/deploying-php-applications-on-engine-yard-a-how-to) — Подробный туториал по развертыванию всех компонентов PHP-приложения на популярный PaaS-хостинг. * [API-ориентированное веб-приложение на Backbone, Require.js и Slim](http://systemsarchitect.net/api-based-web-application-with-backbone-require-js-and-slimmvc-framework/) — Пример небольшого одностраничного приложения, реализованного с использованием популярных JavaScript-библиотек и PHP-микрофрейморка Slim. * ![video](https://habrastorage.org/storage3/976/d3e/38a/976d3e38a34b003f86f91795524af9f8.gif) [PuPHPet и Digital Ocean](https://www.youtube.com/watch?v=dHkTxWffGGA) — Видео, в котором полностью продемонстрирован процесс использования PuPHPet и создание конфигураций инстансов (дроплетов) для весьма популярного в последнее время облачного хостинга [Digital Ocean](https://www.digitalocean.com/). * [Публичные свойства, геттеры и сеттеры, или магия?](http://russellscottwalker.blogspot.co.uk/2013/09/public-properties-getters-and-setters.html) — Существуют различные мнения по поводу способов получения доступа к свойствам классов. Автор рассматривает преимущества и недостатки использования каждого из подходов. * [Git-хуки](http://www.sitepoint.com/git-hooks-fun-profit/) — Несколько примеров использования системы хуков в Git, например, автоматический запуск Composer. * [Автоматическая отправка почты с помощью PHP, Swiftmailer и Twig](http://gonzalo123.com/2013/09/23/sending-automated-emails-with-php-swiftmailer-and-twig/) — Хороший туториал по использованию Swiftmailer и Twig в PHP-приложении. * [Даты с неделями по стандарту ISO 8601](http://derickrethans.nl/iso-8601-weeks.html) — В посте автор делится информацией о некоторых особенностях обработки дат в формате ISO 8601 в PHP. * [Миф о нетестируемости контроллеров](http://www.brandonsavage.net/the-myth-of-the-untestable-controller/) — Автор делает попытку развенчать миф о нетестируемости контроллеров и дает советы по преодолению этой проблемы. * [Устанавливаем HHVM на Ubuntu](http://shout.setfive.com/2013/09/23/php-installing-hiphop-php-on-ubuntu/) — Небольшая инструкция по установке альтернативной реализации PHP от Facebook. * [Насколько быстр HipHop PHP?](http://shout.setfive.com/2013/10/04/how-fast-hiphop-php/) — И сразу интересный тест, который внезапно показал у HHVM более низкую производительность чем у оригинального интерпретатора. Исследование показало что виной тому реализация функции str\_getcsv. * [Туториалы по CodeIgniter](http://www.catswhocode.com/blog/awesome-tutorials-to-master-codeigniter) — Подборка туториалов по все еще популярному фреймворку. Когда же объявится новый владелец фреймворка? * [Классика в новом стиле: BDD-спецификации в PHPUnit](http://codeception.com/10-04-2013/specification-phpunit) — Пост о том, как с помощью небольших инструментов [Specify](https://github.com/Codeception/Specify) и [Verify](https://github.com/Codeception/Verify) добавить в PHPUnit немного BDD-стиля а-ля [Jasmine](http://pivotal.github.io/jasmine/). * ![ru](https://habrastorage.org/storage2/c72/991/4ca/c729914ca9c21661c5abd81052c6a10e.gif) [Unit Tests. Data Provider без головной боли](http://fightmaster.github.io/blog/2013/10/05/unit-tests-data-provider-without-a-headache.html) — Автор делится опытом, полученным в результате реализации множества модульных тестов. * ![ru](https://habrastorage.org/storage2/c72/991/4ca/c729914ca9c21661c5abd81052c6a10e.gif) [Код ревью](http://fightmaster.github.io/blog/2013/09/25/code-review.html) — Несколько советов и рекомендаций по процессам ревью кода. * [Ответственность за зависимости](https://igor.io/2013/09/24/dependency-responsibility.html) — Igor Wiedler пишет о том, почему не следует слепо доверять сторонним библиотекам и использовать их при первой же возможности. * [Двухфакторная аутентификация с помощью Clef](http://websec.io/2013/09/26/Two-Factor-with-Wave-Using-Clef.html) — Небольшой туториал по интеграции с сервисом [Clef](https://getclef.com/). Ранее также были примеры для [Yubikey](http://websec.io/2013/03/05/Two-Factor-the-Yubikey-Way.html), [Google Authenticator](http://websec.io/2013/01/11/Googles-Two-Factor-Auth-Online-Offline.html), [Duo Security](http://websec.io/2013/01/09/Two-Factor-Auth-Integration-with-Duo-Security.html), [Authy](http://websec.io//2013/01/07/Easy-Two-Factor-with-Authy.html). * ![habr](https://habrastorage.org/r/w1560/storage2/c57/b92/af4/c57b92af4ee0d37f787c211a068b1b95.png) [Интеграция веб-сервисов в популярные cms](http://habrahabr.ru/company/cackle/blog/195136/) — Ребята из Cackle делятся опытом создания расширений для интеграции своего сервиса в популярные CMS. * ![habr](https://habrastorage.org/r/w1560/storage2/c57/b92/af4/c57b92af4ee0d37f787c211a068b1b95.png) [Расширение для PHP или все будет в Zephir'e](http://habrahabr.ru/post/194838/) — Небольшой туториал по созданию HelloWorld-PHP-расширения на Zephir. * ![habr](https://habrastorage.org/r/w1560/storage2/c57/b92/af4/c57b92af4ee0d37f787c211a068b1b95.png) [Генератор utf-8 json на php с поддержкой unicode 6](http://habrahabr.ru/post/195806/) — Реализация полноценной поддержки юникода в json\_encode для PHP < 5.4. * ![habr](https://habrastorage.org/r/w1560/storage2/c57/b92/af4/c57b92af4ee0d37f787c211a068b1b95.png) [Хэширование паролей в PHP 5.5 с использованием нового API](http://habrahabr.ru/post/194972/) — Об этом уже писали много раз, еще одна статья в копилку. * [Шпаргалка по Composer](http://composer.json.jolicode.com/) — Удобная страничка с подсказками по Composer. * ![ru](https://habrastorage.org/storage2/c72/991/4ca/c729914ca9c21661c5abd81052c6a10e.gif) [Внедрение версионной миграции базы данных в PHP проекте](http://webdev-tales.ru/post/62178815430/doctrine-migrations-in-php-project) — Туториал по использованию Doctrine Migration Tool для реализации механизма миграций в вашем PHP-приложении. * [Абстрактные классы, абстрактные методы, интерфейсы?](http://programmingarehard.com/2013/10/03/abstract-interfaced-what.html) — Пост о том, что есть что, и когда что использовать. * [Laravel 4 API](https://medium.com/on-coding/c643022433ad) — Продолжение серии исчерпывающих туториалов по Laravel 4. Ранее уже было об [аутентификации в Laravel 4](https://medium.com/on-coding/e8d93c9ce0e2), [Access Control List](https://medium.com/on-coding/a7f2fa1f9791) и о [развертывании](https://medium.com/on-coding/3bed5d0e645e). * ![video](https://habrastorage.org/storage3/976/d3e/38a/976d3e38a34b003f86f91795524af9f8.gif) [Cкринкасты по Laravel 4](https://laracasts.com/) — Обновился сайт, на котором регулярно публикуются скринкасты по Laravel 4. * [Аспектно-ориентированное программирование в Yii](http://go.aopphp.com/blog/2013/09/28/aspect-oriented-programming-with-yii/) — Туториал по использованию библиотеки Go! AOP в Yii Framework. * [Исправляем CSRF-уязвимость в PHP-приложениях](http://resources.infosecinstitute.com/fixing-csrf-vulnerability-in-php-application/) — CSRF одна из 10 самых эксплуатируемых уязвимостей веб-приложений по версии [OWASP](https://www.owasp.org/index.php/Category:OWASP_Top_Ten_Project). В посте о том, что такое CSRF, рекомендации по разработке приложений защищенных от CSRF, а также обзор полезных PHP-инструментов. ### Материалы c прошедших конференций * [PHPNW 2013](http://joind.in/event/view/1381/slides#event-tabs) — Слайды 23-х докладов с прошедшей в Манчестере конференции. Обратите внимание на доклад от Igor Wiedler: [Dysfunctional Programming](https://speakerdeck.com/igorw/dysfunctional-programming-phpnw13). * [Воспринимаем PHP серьезно](https://raw.github.com/strangeloop/StrangeLoop2013/master/slides/sessions/Adams-TakingPHPSeriously.pdf) (PDF) — Слайды доклада от одного из разработчиков HHVM. В докладе проанализированы сильные стороны, которые, будь то намеренно или случайно, сделали PHP доминирующим языком в своей нише. Также освещены попытки Facebook устранить недостатки PHP, при этом сохранив достоинства. [Быстрый поиск по всем дайджестам](http://pronskiy.github.io/php-digest/) ← [Предыдущий выпуск](http://habrahabr.ru/company/zfort/blog/194728/)
https://habr.com/ru/post/196538/
null
ru
null
# Сказ о тотальном переборе, или Томительное ожидание декрипта ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/99a/f2b/0c1/99af2b0c1cab8cf0f9ebd241b1b98d16.png)Приветствую жителей Хабра! Итак, новые «криптографические игрища» пришли по мою душу. Поэтому сегодня поговорим о занудном упражнении, ориентированном на полный перебор паролей, реализации тривиального многопоточного брутера силами C++ и OpenMP, а также кратко об использовании криптобиблиотеки CryptoPP и стороннего модуля fastpbkdf2 (для Си и Плюсов) в своих проектах. Го под кат, печеньки out there! > *ДИСКЛЕЙМЕР.* Перебирать чужие пароли **нельзя**, читать тексты, адресованные не вам, **нельзя**, создавать и распространять вредоносное ПО с целью неправомерного доступа к компьютерной информации **нельзя**. Наказуемо согласно УК РФ. Dixi. ### Разбор условия Вещественная обёртка задачи представляет из себя небольшую карточку со следующим текстом: `SGFzaGVkU2FsdCg4Ynl0ZXNJblVURjE2TEUpQ291bnRlckNpcGhlcnRleHRB RVMyNTZFQ0J8MWE0MDhhYTVhZjkzMDkxOGRkYjkyNzQ3NDBhMDJjMmJkM2Vl N2NkNjU3MDQwMDAwMDQxN2E2Nzc4Yzc3YzYwZjcxMGJlNTNiNmViODQ0ZDg0 MmUwZWEwZGYwNDA2NTU4NWEzMzIzYTUwZjc2OGY1N3xQb3NzaWJsZVBhc3N3 b3JkUGF0dGVybnN8RERMTExMTEx8RExMTExMTER8TExMRERMTEx8TExMTExM REQ=` Зачем в Base64? Преподавателем на это было отвечено: «Чтобы варианты условий не повадно выбирать было». Не очень-то и хотелось. Также на словах была передана информация об используемом алгоритме преобразования пароля в ключ (PBKDF2\_HMAC\_SHA1) и сформулированы простые условия игры: «Подобрать пароль для восстановления сообщения, зашифрованного блочным шифром. Пароль не словарный, может состоять из цифр и маленьких букв латинского алфавита, соль — только из маленьких букв». Давайте посмотрим, что скрывает кодировка: `HashedSalt(8bytesInUTF16LE)CounterCiphertextAES256ECB|1a408a a5af930918ddb9274740a02c2bd3ee7cd6570400000417a6778c77c60f71 0be53b6eb844d842e0ea0df04065585a3323a50f768f57|PossiblePassw ordPatterns|DDLLLLLL|DLLLLLLD|LLLDDLLL|LLLLLLDD` Что мы видим? Первая часть сообщения (до первого вертикального слэша), вероятно, представляет из себя порядок следования данных, непосредственно указанных во второй части: хеш-значение соли (с информацией о кодировке в скобках), счетчик итераций для PBKDF2, используемый блочный шифр и режим шифрования. AES добрался до меня и здесь, [кто бы мог подумать...](https://habrahabr.ru/post/339910/) Третья часть и до конца — потенциальные маски нужного пароля, где L — буква (letter), D — цифра (digit). Также определено, что пароль состоит из 8-ми символов. Вроде звучит логично, теперь было бы неплохо структурировать полученную информацию. Проанализируем второй блок сообщения. В задании нет информации об используемой функции хеширования соли, поэтому сделаем предположение, что это SHA1, т. к. это единственная широко используемая криптографическая хеш-функция с длиной выхода 20 байт (только этот размер идеально ложится под остальное разбиение). Также, очевидно, что счетчик представлен в *little endian*, по крайней мере очень хочется так думать, ибо 0x57040000 = 1459879936 итераций PBKDF2 — не самая лучшая перспектива для перебора… И, наконец, остается два блока AES по 16 байт каждый. Следовательно, имеем такую картину: `1A408AA5AF930918DDB9274740A02C2BD3EE7CD6` — хеш соли (20 байт); `0x00000457 = 1111` — счетчик итераций PBKDF2; `0417a6778c77c60f710be53b6eb844d8` — первый блок шифртекста (16 байт); `42e0ea0df04065585a3323a50f768f57` — второй блок шифртекста (16 байт). ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/13e/c0c/2b0/13ec0c2b042a35248e4c2923f08dc21b.png) ### Восстановление соли Окей, для начала напишем ~~быдло~~быстро-скрипт для восстановления соли. Благо, 4 символа (aka 8 байт в UTF-16) переберутся за секунды, поэтому воспользуемся пайтоном, не мудрствуя лукаво: ``` #!/usr/bin/env python3 # -*- coding: utf-8 -*- # Usage: python3 crack_salt_hash.py from hashlib import sha1 from itertools import product ALPH = 'abcdefghijklmnopqrstuvwxyz' SIZE = 4 TOTAL = len(ALPH)**SIZE def crack_hash(func, output, enc): progress = 0 for salt in product( *([ALPH]*SIZE) ): if func(''.join(salt).encode(encoding=enc)).hexdigest() == output: print(progress+1, 'of', TOTAL) return ''.join(salt) progress += 1 if progress % 10000 == 0: print(progress, 'of', TOTAL) return None if __name__ == '__main__': print(crack_hash(sha1, '1a408aa5af930918ddb9274740a02c2bd3ee7cd6', 'UTF-16LE')) ``` По прошествии 3-х секунд, имеем результат: "*dukg*". С учетом 2-байтовой кодировки конечная форма соли (пригодная для ввода в PBKDF2) будет иметь вид "***d**\x00**u**\x00**k**\x00**g**\x00*". ### Криптографические нужды Теперь предстоит выбрать инструменты для работы с криптографией. По порядку: сперва подумаем о получении ключа из пароля, затем о расшифровании сообщения. Для решения обоих вопросов сразу на ум приходят два возможных варианта: OpenSSL либо Crypto++ (он же CryptoPP). Оба пакета широко известны и с ними нетрудно работать на C++ (выбор языка пришел сам собой исходя необходимости высокой скорость перебора). ### Генерация ключей Забегая немного вперед, стоит сказать, что стандартная функция PKCS5\_PBKDF2\_HMAC\_SHA1 из OpenSSL при заданном счетчике в 1111 итераций показала среднюю скорость в 1000 ключей/с при параллельной работе на 4-ядерном Intel Core i5 2.60GHz. Не самый лучший результат, посему было решено поискать альтернативное «прокаченное» решения для генерации ключей. Таким решением стала библиотека [fastpbkdf2](https://github.com/ctz/fastpbkdf2) от стороннего разработчика. Библиотека основана на том же OpenSSL (реализации самих хеш-функций оттуда), однако, согласно описанию, использует «различные оптимизации во внутреннем цикле *for*» при высчитывании PBKDF2. Такое объяснение меня вполне устраивает, к тому же производительность возросла примерно в 3,45 раза: теперь перебор идет со скоростью в 3450 паролей/с. Модуль написан на Си и требует компилятор, поддерживающий C99, поэтому для встраивания его (модуля) в проект на Плюсах, скомпилируем из исходников и создадим динамическую библиотеку как: ``` $ gcc fastpbkdf2.c -fPIC -std=c99 -O3 -c -g -Wall -Werror -o fastpbkdf2.o $ gcc -shared -lcrypto -o libfastpbkdf2.so fastpbkdf2.o ``` И теперь для запуска конечного брутера (который мы пока не написали, но уже придумали для него оригинальное название — "*bruter.cxx*"), нужно будет скормить ему сию библиотеку, написав: ``` $ g++ bruter.cxx -o bruter -L"/path/to/libfastpbkdf2.so" -Wl,-rpath="/path/to/libfastpbkdf2.so" -lfastpbkdf2 ``` В конце добавим *Makefile* для автоматизации. Прикинем теперь, как будет происходить проверка валидности пароля: ``` bool checkPassword( uint8_t* password, const uint8_t* ciphertext, uint8_t* decrypted, int& decryptedLength ) { uint8_t key[KEY_LENGTH]; fastpbkdf2_hmac_sha1( password, PASSWORD_LENGTH, salt, SALT_LENGTH, iterations, key, KEY_LENGTH ); decryptedLength = CryptoPP_Decrypt_AES_256_ECB( ciphertext, (uint8_t*) key, decrypted ); if (isPrintable(decrypted, decryptedLength)) return true; return false; } ``` где `CryptoPP_Decrypt_AES_256_ECB` — не написанная еще функция расшифрования. Возвращаемое значение — *истина*/*ложь*, в зависимости от исхода проверки критерия. Критерий же верного декрипта — печатаемость всех символов открытого текста, оценка критерия лежит на функции `isPrintable` (см. полный листинг в Заключении). ### Расшифрование сообщения Для расшифрования сообщения обратимся за помощью к библиотеки [Crypto++](https://github.com/weidai11/cryptopp). Следуя порядку работы с блочными шифрами в рамках данного пакета, выполним следующие действия: создадим функциональный объект для расшифрования AES в режиме ECB (decryptor), инициализируем его ключом (размер ключа определяет версию AES — в нашем случае AES-256), назначим выходной буфер и выполним операцию преобразования шифртекста в открытый текст по алгоритму, который содержит decryptor. Также мы предполагаем, что добивание блока (*PADDING*) не использовалось вовсе, ибо условие умалчивает о формате добивания. Следовательно, длина исходного сообщение должна быть кратной длине одного блока AES. ``` int CryptoPP_Decrypt_AES_256_ECB( const uint8_t* ciphertext, uint8_t* key, uint8_t* plaintext ) { ECB_Mode::Decryption decryptor; decryptor.SetKey(key, AES::MAX\_KEYLENGTH); ArraySink ps(&plaintext[0], PLAINTEXT\_LENGTH); ArraySource( ciphertext, CIPHERTEXT\_LENGTH, true, new StreamTransformationFilter( decryptor, new Redirector(ps), StreamTransformationFilter::NO\_PADDING ) ); return ps.TotalPutLength(); } ``` Возвращать функция будет длину дешифрованного сообщения. ### Новая информация Пока в течении дня возился с подготовительными работами, описанными выше, на почту прилетело письмо от автора, в котором сообщалось, что «всплыла новая информация, касательно структуры пароля». В общих словах сообщалось, что при создании парольной фразы пользователь по ошибке зажал *Shift* во время ввода единицы и буквы "**q**". Перефразируя сообщение, получим символ "**!**" (на месте цифры) и букву "**Q**" (на месте буквы), как гарантированные составляющие пароля. Для пользователя новость не самая лучшая, но для нас просто замечательная: это подразумевает существенное сужение области перебора. Численную оценку преимущества, которое так удачно было получено, проведем чуть позже, когда будем оценивать время, необходимое на полный перебор. ### Параллельный брутер Дело за малым: остается написать управляющую функцию и ввести элемент многопоточности. Для распараллеливания вычислений будем использовать прагмы OpenMP. Общее количество паролей для перебора — известная величина. Для примера рассмотрим одну из четырех моделей паролей (с учетом того, что одна из цифр — на самом деле "!", а одна из букв — «Q»): ![$|DDLLLLLL|=|\boldsymbol{!}D\boldsymbol{Q}LLLLL|=\widehat{A}^5_{26}*\widehat{A}^1_{10}*2*6=$](https://habrastorage.org/getpro/habr/formulas/8dc/c7e/f20/8dcc7ef20c97d04682f2e377a8bc731e.svg) ![$=(26*26*26*26*26)*(10) * (2*6)=26^5*120\approx1.43*10^9$](https://habrastorage.org/getpro/habr/formulas/f00/302/600/f00302600b316906b473712a97be26ef.svg) Первые две скобки — количество размещений с повторениями из 26 по 5 и из 10 по 1 соответственно (5 букв и 1 цифра), множители в третьих скобках — перестановка "!" (может стоять на *двух* позициях) и перестановка «Q» (может стоять на *шести* позициях). Полную область перебора определим, домножив результат на 4, получая ![$\approx5,7*10^9$](https://habrastorage.org/getpro/habr/formulas/9eb/973/66f/9eb97366f8057cb15463e417ed0f5917.svg) или 5,7 млрд. Так как границы области определены, для выработки паролей воспользуемся вложенными циклами *for* и прагмой *omp parallel for* с параметром *collapse()* для «схлопывания» множественных петель в одну большую. Нужно помнить, что для того, чтобы пользоваться *collapse()*, необходимо поддерживать «идеальную вложенность» циклов. Это означает, что каждый следующий цикл (кроме последнего, разумеется) содержит в себе только очередную инструкцию *for*, а все операции выполняются в последнем по вложенности цикле. Также, перед тем, как приступать к написанию кода, обратим внимание на интересную особенность: каждая следующая модель пароля является циклическим сдвигом на 1 или 3 позиции другой модели. Приняв это к сведению, мы сможем проще организовать перебор паролей из *каждой* модели за одну итерацию цикла: ``` void Parallel_TotalBruteForce( uint8_t* goodPassword, uint8_t* goodDecrypted, int& goodDecryptedLength ) { uint8_t alp[27] = { 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u', 'v', 'w', 'x', 'y', 'z', '\0' }; uint8_t num[11] = { '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', '\0' }; #ifdef WITH_OPENMP omp_set_num_threads(myOMP_THREADS); #endif uint64_t progress = 0; bool notFinished = true; #pragma omp parallel for shared(progress, notFinished) collapse(8) for (int a = 0; a < 2; a++) for (int b = 2; b < 8; b++) for (int c = 0; c < 26; c++) for (int d = 0; d < 26; d++) for (int e = 0; e < 26; e++) for (int f = 0; f < 26; f++) for (int g = 0; g < 26; g++) for (int h = 0; h < 10; h++) { if (notFinished) { uint8_t password[9]; password[PASSWORD_LENGTH] = '\0'; uint8_t indeces[6] = { 2,3,4,5,6,7 }; memmove(indeces+b, indeces+b+1, 5-b); uint8_t decrypted[100]; int decryptedLength; password[ a] = '!'; // 0-1 password[ !a] = num[h]; // 0-1 password[ b] = 'Q'; // 2-7 password[indeces[0]] = alp[c]; // 2-7 password[indeces[1]] = alp[d]; // 2-7 password[indeces[2]] = alp[e]; // 2-7 password[indeces[3]] = alp[f]; // 2-7 password[indeces[4]] = alp[g]; // 2-7 if ( // DDLLLLLL checkPassword( password, ciphertext, decrypted, decryptedLength ) || // DLLLLLLD checkPassword( rotateLeft(password, 1), ciphertext, decrypted, decryptedLength ) || // LLLLLLDD checkPassword( rotateLeft(password, 1), ciphertext, decrypted, decryptedLength ) || // LLLDDLLL checkPassword( rotateLeft(password, 3), ciphertext, decrypted, decryptedLength ) ) { #pragma omp critical { memcpy( goodPassword, password, 9 ); memcpy( goodDecrypted, decrypted, decryptedLength ); goodDecryptedLength = decryptedLength; notFinished = false; } } if (progress % PROGRESS_SEP == 0) cout << progress << " of " << TOTAL << endl; progress += STEP; } } } ``` Флаг `notFinished` используется для выхода из *for*. Такой подход более свойственен для работы с *pthread* напрямую, в OpenMP для этого есть `#pragma omp cancel`, однако меня компилятор засыпал предупреждениями, природа которых мне не до конца ясна, поэтому было решено использовать флаг. Теперь посмотрим на производительность полученной системы и оценим время, необходимое на полный перебор. ### Оценка производительности и поиск бо́льших мощностей Как уже говорилось выше, при параллельной работе на 4-ядерном Intel Core i5 2.60GHz была достигнута скорость, примерно равная 3450 паролей/с. Всего 5,7 млрд. паролей, отсюда нехитрые вычисления дают оценку в 19 дней работы машины при условии, что нужный нам пароль окажется последним из всего множества. Не лучшая перспектива. Самое время для маленького читерства. Воспользуемся небезызвестным сервисом облачных вычислений Amazon EC2. Выберем инстанс для вычислений с ЦПУ-преимуществом (характеристики приведены на скриншоте ниже) и посмотрим производительность. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/e29/3c2/220/e293c2220677c7cfaf1f6eaf37ef2df1.png) Подняв количество потоков с 4 до 36 (+ более шустрые серверные процы), получили прирост в скорости аж в 10 раз даже несмотря на замедление работы сервиса из-за недавнего наката анти-Meltdown патчей. Подняв два инстанса таких виртуалок по спотовой цене в $0,37/ч получим возможность перебрать все множество за 24 часа, выложив при этом $17,76 (или около 1 тыс. руб. по текущему состоянию курса). Недешевое удовольствие для учебной задачки, но спортивный интерес все же победил, поэтому готов поделиться результатами. Но прежде посмотрим ради интереса, сколько бы времени потребовалось, если бы «неожиданно не всплыла» дополнительная информация об ошибках пользователя при вводе. В этом случае мощность общего множества паролей записывалась бы как: ![$|DDLLLLLL|*4=\widehat{A}^6_{26}*\widehat{A}^2_{10}*4=(26*26*26*26*26*26)*(10*10)*4\approx1.24*10^{11}$](https://habrastorage.org/getpro/habr/formulas/465/1c7/e89/4651c7e8960148c2cac95c0dee072b3d.svg) Следовательно, для *полного* перебора на скорости 3450 п/с ушло бы больше *года* при использовании ЭВМ на процессоре, указанном в начале раздела, в многопоточном режиме и больше *четырёх лет* при работе в один поток [из цикла «Ужасы нашего Городка»]. ### Результаты Восстановленный пароль: "`ldQ9!nwd`". Открытый текст: `2E2B2A602A2B2C20594F552044495341524D4544204D4521202C2B2A602A2B2E`. Сообщение: ".+\*`\*+, YOU DISARMED ME! ,+\*`\*+.". Декрипт был получен чуть больше чем за 1/2 суток. При используемом подходе со сдвигами одной модели пароля относительно других получилась такая картина: успешной оказалась та итерация, когда первой сгенерировалась комбинация "*9!nwdldQ*" (из модели ![$DDLLLLLL$](https://habrastorage.org/getpro/habr/formulas/2ab/25e/ac5/2ab25eac56922cf3555b92a1df7fb1dd.svg)), и после трех циклических сдвигов влево на проверку ушел нужный пароль. ### Заключение, исходные коды Новый год ознаменовался достаточно необычным для меня опытом, благодарность автору за сбалансированную игру ;) Полный код брутера под спойлером: **bruter.cxx** ``` /** * @file bruter.cxx * @author Sam Freeside \* @date 2018-01 \* \* @brief Brute forcing 4 password patterns: "DDLLLLLL", "DLLLLLLD", "LLLLLLDD", "LLLDDLLL" \*/ /\*\* \* LEGAL DISCLAIMER \* \* bruter.cxx was written for use in educational purposes only. \* Using this tool without prior mutual consistency can be considered \* as an illegal activity. It is the final user's responsibility \* to obey all applicable local, state and federal laws. \* \* The author assume no liability and is not responsible for any misuse or \* damage caused by this tool. \*/ #include #include #include #include #include #include #include #include "cryptopp/filters.h" #include "cryptopp/files.h" #include "cryptopp/modes.h" #include "cryptopp/hex.h" #include "cryptopp/aes.h" #include "lib/fastpbkdf2.h" #define myOMP\_THREADS 4 // == CPU(s) = [Thread(s) per core] \* [Core(s) per socket] \* [Socket(s)] #define myOMP\_SCHEDULE\_CHUNKS 4 #define TOTAL 5703060480 // == 26\*26\*26\*26\*26\*10 \* 2\*6 \* 4 #define STEP 4 #define PROGRESS\_SEP 1000000 using namespace std; using namespace CryptoPP; const uint8\_t ciphertext[100] = { 0x04, 0x17, 0xA6, 0x77, 0x8C, 0x77, 0xC6, 0x0F, 0x71, 0x0B, 0xE5, 0x3B, 0x6E, 0xB8, 0x44, 0xD8, 0x42, 0xE0, 0xEA, 0x0D, 0xF0, 0x40, 0x65, 0x58, 0x5A, 0x33, 0x23, 0xA5, 0x0F, 0x76, 0x8F, 0x57 }; const int PLAINTEXT\_LENGTH = 32; const int CIPHERTEXT\_LENGTH = 32; const int SALT\_LENGTH = 8; const int PASSWORD\_LENGTH = 8; const int KEY\_LENGTH = 32; const uint8\_t salt[SALT\_LENGTH] = { 'd', 0x00, 'u', 0x00, 'k', 0x00, 'g' }; const uint32\_t iterations = 0x00000457; // == 1111 void Parallel\_TotalBruteForce( uint8\_t\* goodPassword, uint8\_t\* goodDecrypted, int& goodDecryptedLength ); int CryptoPP\_Decrypt\_AES\_256\_ECB( const uint8\_t\* ciphertext, uint8\_t\* key, uint8\_t\* plaintext ); bool checkPassword( uint8\_t\* password, const uint8\_t\* ciphertext, uint8\_t\* decrypted, int& decryptedLength ); uint8\_t\* rotateLeft( uint8\_t\* password, int n ); bool isPrintable( uint8\_t\* text, int textLength ); int main() { uint8\_t goodPassword[9] = { '\*','\*','\*','\*','\*','\*','\*','\*', '\0' }; uint8\_t goodDecrypted[100]; int goodDecryptedLength = 0; HexEncoder encoder(new FileSink(cout)); cout << "[\*] Ciphertext:" << endl; encoder.Put(ciphertext, CIPHERTEXT\_LENGTH); encoder.MessageEnd(); cout << endl << endl; Parallel\_TotalBruteForce(goodPassword, goodDecrypted, goodDecryptedLength); cout << endl << "[+] Decrypted block:" << endl; encoder.Put(goodDecrypted, goodDecryptedLength); encoder.MessageEnd(); cout << endl; goodDecrypted[goodDecryptedLength++] = '\0'; cout << "[+] Decrypted string:" << endl; cout << '\"' << goodDecrypted << '\"' << endl; cout << "[+] Password:" << endl; cout << '\"' << goodPassword << '\"' << endl << endl; return 0; } void Parallel\_TotalBruteForce( uint8\_t\* goodPassword, uint8\_t\* goodDecrypted, int& goodDecryptedLength ) { uint8\_t alp[27] = { 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u', 'v', 'w', 'x', 'y', 'z', '\0' }; uint8\_t num[11] = { '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', '\0' }; #ifdef WITH\_OPENMP omp\_set\_num\_threads(myOMP\_THREADS); #endif uint64\_t progress = 0; bool notFinished = true; #pragma omp parallel for shared(progress, notFinished) collapse(8) for (int a = 0; a < 2; a++) for (int b = 2; b < 8; b++) for (int c = 0; c < 26; c++) for (int d = 0; d < 26; d++) for (int e = 0; e < 26; e++) for (int f = 0; f < 26; f++) for (int g = 0; g < 26; g++) for (int h = 0; h < 10; h++) { if (notFinished) { uint8\_t password[9]; password[PASSWORD\_LENGTH] = '\0'; uint8\_t indeces[6] = { 2,3,4,5,6,7 }; memmove(indeces+b, indeces+b+1, 5-b); uint8\_t decrypted[100]; int decryptedLength; password[ a] = '!'; // 0-1 password[ !a] = num[h]; // 0-1 password[ b] = 'Q'; // 2-7 password[indeces[0]] = alp[c]; // 2-7 password[indeces[1]] = alp[d]; // 2-7 password[indeces[2]] = alp[e]; // 2-7 password[indeces[3]] = alp[f]; // 2-7 password[indeces[4]] = alp[g]; // 2-7 if ( // DDLLLLLL checkPassword( password, ciphertext, decrypted, decryptedLength ) || // DLLLLLLD checkPassword( rotateLeft(password, 1), ciphertext, decrypted, decryptedLength ) || // LLLLLLDD checkPassword( rotateLeft(password, 1), ciphertext, decrypted, decryptedLength ) || // LLLDDLLL checkPassword( rotateLeft(password, 3), ciphertext, decrypted, decryptedLength ) ) { #pragma omp critical { memcpy( goodPassword, password, 9 ); memcpy( goodDecrypted, decrypted, decryptedLength ); goodDecryptedLength = decryptedLength; notFinished = false; } } if (progress % PROGRESS\_SEP == 0) cout << progress << " of " << TOTAL << endl; progress += STEP; } } } uint8\_t\* rotateLeft( uint8\_t\* password, int n ) { rotate(&password[0], &password[n], &password[PASSWORD\_LENGTH]); return password; } bool checkPassword( uint8\_t\* password, const uint8\_t\* ciphertext, uint8\_t\* decrypted, int& decryptedLength ) { uint8\_t key[KEY\_LENGTH]; fastpbkdf2\_hmac\_sha1( password, PASSWORD\_LENGTH, salt, SALT\_LENGTH, iterations, key, KEY\_LENGTH ); decryptedLength = CryptoPP\_Decrypt\_AES\_256\_ECB( ciphertext, (uint8\_t\*) key, decrypted ); if (isPrintable(decrypted, decryptedLength)) return true; return false; } int CryptoPP\_Decrypt\_AES\_256\_ECB( const uint8\_t\* ciphertext, uint8\_t\* key, uint8\_t\* plaintext ) { ECB\_Mode::Decryption decryptor; decryptor.SetKey(key, AES::MAX\_KEYLENGTH); ArraySink ps(&plaintext[0], PLAINTEXT\_LENGTH); ArraySource( ciphertext, CIPHERTEXT\_LENGTH, true, new StreamTransformationFilter( decryptor, new Redirector(ps), StreamTransformationFilter::NO\_PADDING ) ); return ps.TotalPutLength(); } bool isPrintable( uint8\_t\* text, int textLength ) { // OuKSJJRlqS7Tqzn+r9GZ4g== for (int i = 0; i < textLength; i++) if (!isprint(text[i])) return false; return true; } ``` Код мейкфайла, как обещано, под вторым спойлером: **Makefile** ``` CXXTARGET = bruter CXXSOURCES = $(wildcard *.cxx) CXXOBJECTS = $(patsubst %.cxx, %.o, $(CXXSOURCES)) CSOURCES = $(wildcard */*.c) CHEADERS = $(wildcard */*.h) COBJECTS = $(patsubst %.c, %.o, $(CSOURCES)) SHARED_LIB = lib/libfastpbkdf2.so CXX = g++ CC = gcc CXXFLAGS += -std=c++11 -O3 -c -g -Wall CXXLIBS += -L"./lib" -Wl,-rpath="./lib" -lfastpbkdf2 -L"/usr/lib" -lssl -lcrypto -lcryptopp CFLAGS += -fPIC -std=c99 -O3 -c -g -Wall -Werror -Wextra -pedantic CLIBS += -lcrypto .PHONY: all default openmp clean .PRECIOUS: $(CXXSOURCES) $(CSOURCES) ($CHEADERS) $(SHARED_LIB) default: $(CXXTARGET) @echo "=> Project builded" all: clean openmp $(CXXTARGET): $(SHARED_LIB) $(CXXOBJECTS) @echo "=> Linking project files" @echo "(CXX) $?" @$(CXX) $(CXXOBJECTS) $(CXXLIBS) -o $@ $(CXXOBJECTS): $(CXXSOURCES) @echo "=> Compiling project files" @echo "(CXX) $?" @$(CXX) $(CXXFLAGS) $< -o $@ $(SHARED_LIB): $(COBJECTS) @echo "=> Creating shared library" @echo "(CC) $?" @$(CC) -shared $< -o $@ $(COBJECTS): $(CSOURCES) $(CHEADERS) @echo "=> Compiling fastpbkdf2 sources" @echo "(CC) $?" @$(CC) $(CFLAGS) $(CLIBS) $< -o $@ openmp: CXXFLAGS += -fopenmp -DWITH_OPENMP openmp: CXXLIBS += -fopenmp openmp: CFLAGS += -fopenmp -DWITH_OPENMP openmp: default @echo "WITH OPENMP" clean: @rm -rfv *.o */*.o $(SHARED_LIB) $(CXXTARGET) @echo "=> Cleaning done" ``` Спасибо за внимание, всем добра!
https://habr.com/ru/post/346572/
null
ru
null
# Вся правда об ОСРВ. Статья #20. Семафоры: вспомогательные службы и структуры данных ![](https://habrastorage.org/r/w780q1/webt/jd/m4/f3/jdm4f3ytpbghajx290do1pujcpa.jpeg) В этой статье продолжается обзор семафоров. Вспомогательные службы семафоров -------------------------------- Nucleus RTOS имеет четыре вызова API, предоставляющие функционал, связанный с семафорами: сброс семафора, получение информации о семафоре, получение количества семафоров в приложении и получение указателей на все семафоры в приложении. Первые три из них реализованы в Nucleus SE. Предыдущие статьи серии: [Статья #19. Семафоры: введение и базовые службы](https://habr.com/post/429156/) [Статья #18. Группы флагов событий: вспомогательные службы и структуры данных](https://habr.com/post/428890/) [Статья #17. Группы флагов событий: введение и базовые службы](https://habr.com/post/428131/) [Статья #16. Сигналы](https://habr.com/post/427439/) [Статья #15. Разделы памяти: службы и структуры данных](https://habr.com/post/426477/) [Статья #14. Разделы памяти: введение и базовые службы](https://habr.com/post/426425/) [Статья #13. Структуры данных задач и неподдерживаемые вызовы API](https://habr.com/post/425353/) [Статья #12. Службы для работы с задачами](https://habr.com/post/424713/) [Статья #11. Задачи: конфигурация и введение в API](https://habr.com/post/424481/) [Статья #10. Планировщик: дополнительные возможности и сохранение контекста](https://habr.com/post/423967/) [Статья #9. Планировщик: реализация](https://habr.com/post/422615/) [Статья #8. Nucleus SE: внутреннее устройство и развертывание](https://habr.com/post/422617/) [Статья #7. Nucleus SE: введение](https://habr.com/post/418601/) [Статья #6. Другие сервисы ОСРВ](https://habr.com/post/418677/) [Статья #5. Взаимодействие между задачами и синхронизация](https://habr.com/post/415429/) [Статья #4. Задачи, переключение контекста и прерывания](https://habr.com/post/415427/) [Статья #3. Задачи и планирование](https://habr.com/post/415329/) [Статья #2. ОСРВ: Структура и режим реального времени Статья #1. ОСРВ: введение.](https://habr.com/post/414093/) ### Сброс семафора Этот вызов API сбрасывает семафор в его начальное, неиспользуемое состояние. Данная функция API необычна по сравнению с функциями других объектов ядра, так как несмотря на то, что она выполняет сброс, она не просто устанавливает счетчик в начальное значение, а в вызове передается новое начальное значение счетчика. Любая задача, которая была приостановлена на семафоре, возобновляется и возвращает код **NUSE\_SEMAPHORE\_WAS\_RESET** в Nucleus SE, а в Nucleus RTOS – **NU\_SEMAPHORE\_RESET**. ***Вызов для сброса семафора в Nucleus RTOS*** Прототип служебного вызова: **STATUS NU\_Reset\_Semaphore(NU\_SEMAPHORE \*semaphore, UNSIGNED initial\_count);** Параметры: **semaphore** – указатель на предоставленный пользователем блок управления семафором; **initial\_count** – значение, в которое будет установлен семафор. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_SEMAPHORE** – некорректный указатель на семафор. ***Вызов для сброса семафора в Nucleus SE*** Этот вызов API поддерживает основной функционал Nucleus RTOS API. Прототип служебного вызова: **STATUS NUSE\_Semaphore\_Reset(NUSE\_SEMAPHORE semaphore, U8 initial\_count);** Параметры: **semaphore** – индекс (ID) сбрасываемого семафора; **initial\_count** – значение, в которое будет установлен семафор. Возвращаемое значение: **NUSE\_SUCCESS** – вызов был успешно завершен; **NUSE\_INVALID\_SEMAPHORE** – некорректный индекс семафора. ***Реализация сброса семафора в Nucleus SE*** Основная задача функции API **NUSE\_Semaphore\_Reset()** – установить соответствующий элемент **NUSE\_Semaphore\_Counter[]** в указанное значение (после проверки параметров). Если блокировка задач активирована, для разблокировки задач необходим следующий код: ``` while (NUSE_Semaphore_Blocking_Count[semaphore] != 0) { U8 index; /* check whether any tasks are blocked */ /* on this semaphore */ for (index=0; index ``` Каждая приостановленная на семафоре задача помечается как «готовая», а код приостановки задачи возвращает **NUSE\_SEMAPHORE\_WAS\_RESET**. После того, как этот процесс завершен, если используется планировщик Priority, вызов инициализирует **NUSE\_Reschedule()**, так как одна или несколько задач с более высоким приоритетом могли перейти в готовое состояние и ожидают возобновления. ### Информация о семафоре Этот служебный вызов возвращает информацию о семафоре. Реализация этого вызова в Nucleus SE отличается от Nucleus RTOS тем, что возвращается меньше информации, т. к. именование объектов и порядок приостановки не поддерживается, а сама приостановка задач может быть отключена. ***Вызов для получения информации о семафоре в Nucleus RTOS*** Прототип служебного вызова: **STATUS NU\_Semaphore\_Information(NU\_SEMAPHORE \*semaphore, CHAR \*name, UNSIGNED \*current\_count, OPTION \*suspend\_type, UNSIGNED \*tasks\_waiting, NU\_TASK \*\*first\_task);** Параметры: **semaphore** – указатель на блок управления семафора, о котором требуется предоставить информацию; **name** – указатель на 8-символьное имя семафора, с включенным в эту область нулевым терминирующим байтом; **current\_count** – указатель на переменную, которая примет текущее значение счетчика семафора; **suspend\_type** – указатель на переменную, которая примет тип приостановки задачи, может принимать значения **NU\_FIFO** и **NU\_PRIORITY**; **task\_waiting** – указатель на переменную, которая примет количество приостановленных задач в семафоре; **first\_task** – указатель на переменную типа **NU\_TASK**, которая примет указатель на блок управления первой приостановленной задачи. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_SEMAPHORE** – некорректный указатель на семафор. ***Вызов для получения информации о семафоре в Nucleus SE*** Этот вызов API поддерживает основной функционал Nucleus RTOS API. Прототип служебного вызова: **STATUS NUSE\_Semaphore\_Information(NUSE\_SEMAPHORE semaphore, U8 \*current\_count, U8 \*tasks\_waiting, NUSE\_TASK \*first\_task);** Параметры: **semaphore** – индекс семафора, о котором требуется предоставить информацию; **current\_count** – указатель на переменную, которая примет текущее значение счетчика семафора; **tasks\_waiting** – указатель на переменную, которая примет количество приостановленных на этом семафоре задач (ничего не возвращается, если поддержка приостановки задач отключена); **first\_task** – указатель на переменную типа **NUSE\_TASK**, которая примет индекс первой приостановленной задачи (ничего не возвращается, если поддержка приостановки задач отключена). Возвращаемое значение: **NUSE\_SUCCESS** – вызов был успешно завершен; **NUSE\_INVALID\_SEMAPHORE** – некорректный индекс семафора; **NUSE\_INVALID\_POINTER** – один или несколько параметров указателя некорректны. ***Реализация получения информации о семафоре в Nucleus SE*** Реализация этого вызова API довольно проста: ``` NUSE_CS_Enter(); *current_count = NUSE_Semaphore_Counter[semaphore]; #if NUSE_BLOCKING_ENABLE *tasks_waiting = NUSE_Semaphore_Blocking_Count[semaphore]; if (NUSE_Semaphore_Blocking_Count[semaphore] != 0) { U8 index; for (index=0; index ``` Функция возвращает статус семафора. Затем, если функциональность блокировки API-вызовов активирована, возвращается количество ожидающих задач и индекс первой из них (в противном случае этим параметрам присваивается значение 0). ### Получение количества семафоров Этот служебный вызов возвращает количество семафоров в приложении. В Nucleus RTOS это значение меняется со временем и возвращаемое значение соответствует текущему количеству семафоров, а в Nucleus SE возвращаемое значение устанавливается на этапе сборки и больше не меняется. ***Вызов для счетчика семафоров в Nucleus RTOS*** Прототип служебного вызова: **UNSIGNED NU\_Established\_Semaphores(VOID);** Параметры: Отсутствуют. Возвращаемое значение: Количество созданных семафоров в приложении. ***Вызов для счетчика семафоров в Nucleus SE*** Этот вызов API поддерживает основной функционал Nucleus RTOS API. Прототип служебного вызова: **U8 NUSE\_Semaphore\_Count(void);** Параметры: Отсутствуют. Возвращаемое значение: Количество сконфигурированных семафоров в приложении. ***Реализация счетчиков семафоров в Nucleus SE*** Реализация этого вызова API довольно проста: возвращается значение символа **#define** **NUSE\_SEMAPHORE\_NUMBER**. Структуры данных ---------------- Семафоры используют два или три массива структур данных (в ОЗУ и ПЗУ), которые, как и все другие объекты Nucleus SE, являются набором таблиц, размер которых зависит от количества семафоров в приложении и выбранных параметров. Настоятельно рекомендую, чтобы код приложения не использовал прямой доступ к этим структурам данных, а обращался к ним через предоставляемые функции API. Это позволит избежать несовместимости с будущими версиями Nucleus SE и нежелательных побочных эффектов, а также упростит портирование приложения на Nucleus RTOS. Для лучшего понимания принципа работы кода служебных вызовов и для отладки ниже дан подробный обзор структур данных. ### Данные в ОЗУ Эти данные имеют следующую структуру: **NUSE\_Semaphore\_Counter[]** – массив типа **U8**, имеющий одну запись для каждого сконфигурированного семафора, в нем хранится значение счетчика. **NUSE\_Semaphore\_Blocking\_Count[]** – массив типа **U8**, содержит счетчики заблокированных на каждом семафоре задач. Этот массив существует, только если активирована функциональность блокировки API вызовов. **NUSE\_Semaphore\_Counter[]** инициализируется в начальное значение (смотри «Данные в ПЗУ» ниже), а **NUSE\_Semaphore\_Blocking\_Count[]** зануляется при помощи **NUSE\_Init\_Semaphore()** при запуске Nucleus SE. Одна из следующих статей предоставит полное описание процедур запуска Nucleus SE. Ниже приведены определения этих структур данных в файле **nuse\_init.c**. ``` RAM U8 NUSE_Semaphore_Counter[NUSE_SEMAPHORE_NUMBER]; #if NUSE_BLOCKING_ENABLE RAM U8 NUSE_Semaphore_Blocking_Count[NUSE_SEMAPHORE_NUMBER]; #endif ``` ### Данные в ПЗУ Структура данных: **NUSE\_Semaphore\_Initial\_Value[]** – массив типа **U8**, имеющий одну запись для каждого семафора, это начальные значения семафоров. Эта структура данных объявляется и инициализируется (статически) в **nuse\_config.c**: ``` ROM U8 NUSE_Semaphore_Initial_Value[NUSE_SEMAPHORE_NUMBER] = { /* semaphore initial count values */ }; ``` ### Объем памяти для семафоров Как и у всех объектов ядра Nucleus SE, объем данных, необходимый для семафоров, предсказуем. Объем памяти в ПЗУ (в байтах) для всех семафоров в приложении равен **NUSE\_SEMAPHORE\_NUMBER**. Объем памяти в ОЗУ (в байтах) для всех семафоров в приложении при активированных вызовах API блокировки может быть вычислен следующим образом: `NUSE_SEMAPHORE_NUMBER * 2` В противном случае он равен **NUSE\_SEMAPHORE\_NUMBER**. Нереализованные вызовы API -------------------------- Три вызова API для семафоров, которые присутствуют в Nucleus RTOS, не реализованы в Nucleus SE. ### Создание семафоров Этот вызов API создает семафор. В нем нет необходимости в Nucleus SE, так как семафоры создаются статически. Прототип служебного вызова: **STATUS NU\_Create\_Semaphore(NU\_SEMAPHORE \*semaphore, CHAR \*name, UNSIGNED initial\_count, OPTION suspend\_type);** Параметры: **semaphore** – указатель на предоставленный пользователем блок управления семафором, он используется для управления семафорами в других API вызовах; **name** – указатель на 8-символьное имя семафора, с включенным терминирующим нулевым байтом; **initial\_count** – начальное значение семафора; **suspend\_type** – указывает принцип приостановки задачи на семафоре. Может принимать значения **NU\_FIFO** и **NU\_PRIORITY**, соответствующие принципу FIFO (First-in-First-Out) и порядку приоритета приостановки задач. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_SEMAPHORE** – говорит, что указатель на блок управления семафором нулевой (**NULL**) или уже используется; **NU\_INVALID\_SUSPEND** – некорректный параметр **suspend\_type**. ### Удаление семафора Этот вызов API удаляет ранее созданный семафор. В нем нет необходимости в Nucleus SE, так как семафоры создаются статически и не могут быть удалены. Прототип служебного вызова: **STATUS NU\_Delete\_Semaphore(NU\_SEMAPHORE \*semaphore);** Параметры: **semaphore** – указатель на блок управления семафором. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_SEMAPHORE** – некорректный указатель на семафор. ### Указатели на семафоры Этот вызов API формирует последовательный список указателей на все семафоры в системе. В нем нет необходимости в Nucleus SE, так как семафоры идентифицируются простым индексом, а не указателем. Прототип служебного вызова: **UNSIGNED NU\_Semaphore\_Pointers(NU\_SEMAPHORE \*\*pointer\_list, UNSIGNED maximum\_pointers);** Параметры: **pointer\_list** – указатель на массив указателей **NU\_SEMAPHORE**, этот массив заполняется указателями на семафоры; **maximum\_pointers** – максимальное количество указателей в массиве. Возвращаемое значение: Количество указателей **NU\_SEMAPHORE** в массиве. Совместимость с Nucleus RTOS ---------------------------- Как и в случае со всеми другими объектами Nucleus SE, целью было обеспечение максимальной совместимости кода приложений с Nucleus RTOS. Семафоры не являются исключением и, с точки зрения пользователя, они реализованы также, как и в Nucleus RTOS. Есть и определенная несовместимость, которую я посчитал допустимой с учетом того, что финальный код станет более понятным и более эффективным с точки зрения объема требуемой памяти. В остальном, вызовы API Nucleus RTOS могут быть практически напрямую использованы как вызовы Nucleus SE. ### Идентификаторы объектов В Nucleus RTOS все объекты описываются структурами данных (блоками управления), имеющими определенный тип. Указатель на этот блок управления служит идентификатором семафора. Я решил, что в Nucleus SE для эффективного использования памяти необходим другой подход: все объекты ядра описываются набором таблиц в ОЗУ и/или ПЗУ. Размер этих таблиц определяется количеством сконфигурированных объектов каждого типа. Идентификатор конкретного объекта – индекс в этой таблице. Таким образом, я определил **NUSE\_SEMAPHORE** в качестве эквивалента **U8**, переменная (а не указатель) этого типа служит идентификатором семафора. С этой небольшой несовместимостью легко справиться, если код портируется с Nucleus SE на Nucleus RTOS и наоборот. Обычно над идентификаторами объектов не выполняются никакие операции, кроме перемещения и хранения. Nucleus RTOS также поддерживает присвоение имен семафорам. Эти имена используются только при отладке. Я исключил их из Nucleus SE, чтобы сэкономить память. ### Размер счетчика В Nucleus RTOS счетчик семафора имеет тип **unsigned**, который обычно представляет из себя 32-битную переменную. В Nucleus SE счетчик 8-битный, но это можно легко изменить. Обычно, в Nucleus RTOS проверка на переполнение семафора не производится. Вызов Nucleus SE API не позволит присвоить счетчику значения выше 255. ### Нереализованные вызовы API Nucleus RTOS поддерживает восемь служебных вызовов для работы с семафорами. Из них три не реализованы в Nucleus SE. Детали этих вызовов, а также решение об их исключении из Nucleus SE были описаны выше. В следующей статье будут рассматриваться почтовые ящики. **Об авторе:** Колин Уоллс уже более тридцати лет работает в сфере электронной промышленности, значительную часть времени уделяя встроенному ПО. Сейчас он — инженер в области встроенного ПО в Mentor Embedded (подразделение Mentor Graphics). Колин Уоллс часто выступает на конференциях и семинарах, автор многочисленных технических статей и двух книг по встроенному ПО. Живет в Великобритании. Профессиональный [блог Колина](http://blogs.mentor.com/colinwalls), e-mail: colin\_walls@mentor.com.
https://habr.com/ru/post/429588/
null
ru
null
# Делаем джойстик из Windows Phone #### Небольшая предыстория. ![image](https://habrastorage.org/r/w1560/files/5aa/b62/b21/5aab62b21dcd49fba68fe163eeff8f79.png)Однажды вечером подошел ко мне сын и сказал, что хочет поиграть в Марио. Летом у бабушки на даче он любил «зарубиться» в дождливую погоду. А за окном как раз дождь. Не долго думая я скачал ему первый попавшийся эмулятор 8-ми битной приставки и игру. Однако, оказалось, что удовольствие от игры на клавиатуре совсем не то. Идти покупать джойстик было уже поздно. И тогда я подумал, что можно обойтись и без него. Под рукой у нас была старенькая Nokia Lumia, ее размеры и форма примерно совпадали с нашими нуждами. Было решено написать джойстик. Сын отправился рисовать дизайн на листе бумаги в клеточку, а папа пошел варить кофе и думать, как бы осуществить эту идею с наименьшими временными затратами. Я решил пойти по пути наименьшего (с моей точки зрения) сопротивления. Эмулятору приставки в настройках надо указывать нажатые кнопки, значит наше приложение должно нажимать кнопки. Нажатие кнопок можно эмулировать при помощи старого доброго WINAPI. Конечной идеей стало клиент-серверное приложение. Клиент (телефон) при нажатии на кнопку посылает запрос на сервер, который, в свою очередь, в зависимости от того что пришло эмулирует нажатие или отпускание кнопки клавиатуры. Связь же осуществляется через сокеты. Вроде все просто. Начинаем делать. #### Серверная часть Поставили на форму textbox c одноименным именем textBox. В нем будем показывать, что приходит с телефона. ![image](https://habrastorage.org/r/w1560/files/333/7b1/585/3337b1585f634828ae0e8512ee48e195.png) Начинаем работать с сокетами. Первым делом подключаем их: ``` using System.Net; using System.Net.Sockets; ``` Заводим сокет и буфер в который все будет приходить: ``` public partial class ServerForm : Form { private Socket _serverSocket, _clientSocket; private byte[] _buffer; ``` Пишем функцию, которая запускает наш сервер. ``` private void StartServer() { try { _serverSocket = new Socket(AddressFamily.InterNetwork, SocketType.Stream, ProtocolType.Tcp); _serverSocket.Bind(new IPEndPoint(IPAddress.Any, 3333)); _serverSocket.Listen(0); _serverSocket.BeginAccept(new AsyncCallback(AcceptCallback), null); } catch (Exception ex) { MessageBox.Show(ex.Message, Application.ProductName, MessageBoxButtons.OK, MessageBoxIcon.Error); } } ``` И соответственно стартуем его в самом начале. ``` public ServerForm() { InitializeComponent(); StartServer(); } ``` Подключаем работу с клавиатурой и пишем пару функций: одна нажимает клавишу, другая — отпускает. ``` [ DllImport("user32.dll")] private static extern void keybd_event(byte bVk, byte bScan, int dwFlags, int dwExtraInfo); private const int KEYEVENTF_EXTENDEDKEY = 1; private const int KEYEVENTF_KEYUP = 2; public static void KeyDown(Keys vKey) { keybd_event((byte)vKey, 0, KEYEVENTF_EXTENDEDKEY, 0); } public static void KeyUp(Keys vKey) { keybd_event((byte)vKey, 0, KEYEVENTF_KEYUP, 0); } ``` Пробуем получить что-нибудь и, если все в порядке, то дописываем в textBox то что получили и нажимаем (отпускаем) кнопку. ``` private void ReceiveCallback(IAsyncResult AR) { try { int received = _clientSocket.EndReceive(AR); Array.Resize(ref _buffer, received); string text = Encoding.ASCII.GetString(_buffer); // нажимаем или отпускаем кнопку AppendToTextBox(text); // ------------------ Array.Resize(ref _buffer, _clientSocket.ReceiveBufferSize); _clientSocket.BeginReceive(_buffer, 0, _buffer.Length, SocketFlags.None, new AsyncCallback(ReceiveCallback), null); } catch (Exception ex) { MessageBox.Show(ex.Message, Application.ProductName, MessageBoxButtons.OK, MessageBoxIcon.Error); } } ``` Функция для эмуляции нажатия и отпускания кнопки в зависимости от того что пришло: ``` private void AppendToTextBox(string text) { MethodInvoker invoker = new MethodInvoker(delegate { string text_before = text; string exitW = text; //нажимаем if (text == "a") { KeyUp(Keys.D); KeyDown(Keys.A); textBox.Text += text + " "; } //отжимаем if (text == "a1" ) { KeyUp(Keys.A); textBox.Text += text + " "; } }); this.Invoke(invoker); } ``` В процессе тестирования было обнаружено, что кнопка «вперед» может по непонятным причинам залипать. В таком случае игрок рефлекторно нажимает «назад», пытаясь притормозить. Для того чтобы была такая возможность при нажатии «назад» мы на всякий случай поднимаем кнопку «вперед». ``` if (text == "a") { KeyUp(Keys.D); KeyDown(Keys.A); textBox.Text += text + " "; } ``` Причина залипания кнопки непонятна. #### Клиентская часть Поиграть в Mario хотелось все сильнее, поэтому было решено настройку подключения и подключение сделать на том же экране. Сверху разместили поля для ввода ip адреса и порта кнопку подключения и textblock, показывающий статус. В качестве кнопок управления были взяты стандартные AppBarButton, которые сын сам и расставил, в соответствии с собственным же дизайном. По его же идее от стандартного фона было решено отказаться. Дизайн закончен. Осталось сделать чтобы все это заработало. ![image](https://habrastorage.org/r/w1560/files/e02/7be/b7f/e027beb7f56a4d2da08d11cbdeb717a4.png) Подрубаем сокеты: ``` using Windows.Networking.Sockets; using Windows.Networking; using Windows.Storage.Streams; ``` Открываем новый сокет: ``` StreamSocket clientSocket = new StreamSocket(); ``` Пробуем подключиться: ``` private async void btnConnect_Click(object sender, RoutedEventArgs e) { HostName host = new HostName(textBoxIP.Text); string port = textBoxPort.Text; if (connected) { StatusText.Text = "уже подключен"; return; } try { StatusText.Text = "попытка подключения ..."; await clientSocket.ConnectAsync(host, port); connected = true; StatusText.Text = "подключение установлено" + Environment.NewLine; } catch (Exception exception) { if (SocketError.GetStatus(exception.HResult) == SocketErrorStatus.Unknown) { throw; } StatusText.Text = "не удалось установить подключение: "; closing = true; clientSocket.Dispose(); clientSocket = null; } } ``` Отправляем данные на сервер: ``` private async void sendkey(string key) { if (!connected) { StatusText.Text = "необходимо подключение"; return; } try { StatusText.Text = "попытка отправки данных ..."; DataWriter writer = new DataWriter(clientSocket.OutputStream); writer.WriteString(key); await writer.StoreAsync(); StatusText.Text = "отправка успешна" + Environment.NewLine; writer.DetachStream(); writer.Dispose(); } catch (Exception exception) { if (SocketError.GetStatus(exception.HResult) == SocketErrorStatus.Unknown) { throw; } StatusText.Text = "Не удалось оправить данные "; closing = true; clientSocket.Dispose(); clientSocket = null; connected = false; } } ``` Внезапно возникла проблема. События Click у кнопки возникает не в момент ее нажатия, а в момент ее отпускания после нажатия. После непродолжительного копания в msdn, было решено использовать GotFocus в качестве нажатия, а Click в качестве отпускания кнопки, впоследствии для этих же целей было добавлено событие PointerReleased (это позволило отпускать одну кнопку при зажатой другой). При отпускании кнопки фокус все равно остается на ней, чтобы этого избежать, мы его передаем любому другому элементу, в данном случае это кнопка, не участвующая в управлении с именем btnConnect: ``` //посылаем значения кнопок //вверх private void gotFocusUp(object sender, RoutedEventArgs e) { sendkey("w"); } private void lostFocusUp(object sender, RoutedEventArgs e) { sendkey("w1"); btnConnect.Focus(FocusState.Programmatic); } private void lostFocusUp(object sender, PointerRoutedEventArgs e) { sendkey("w1"); btnConnect.Focus(FocusState.Programmatic); } ``` #### Результат ![image](https://habrastorage.org/r/w1560/files/14f/9f2/4c9/14f9f24c99be465c95412aa09594c2c4.png) Плюсы: Марио бегает и прыгает, спасает принцессу. Сын доволен. Дальнейшие планы: 1. Сделать поиск сервера на телефоне. 2. Разобраться с залипаниями (хоть товарищи и говорят, что залипания добавляют реалистичности, и вовсе не баг, а фича). 3. Перерисовать дизайн. 4. Добавить возможность играть вдвоем 5. Причесать код. (не нравится мне количество if в серверной части и то что для каждой кнопки свои почти одинаковые события в клиенте) [Ссылка для тех, кому интересно, на gitHub.](https://github.com/babilonsuxx/joystick-pc.git)
https://habr.com/ru/post/274271/
null
ru
null
# Spring JPA репозитории в CUBA ![](https://habrastorage.org/r/w1560/webt/_8/cc/h0/_8cch0_nvkzgoi2u1vailg4oiio.png) *Тема статьи достаточно узконаправленная, но, возможно, окажется полезной тем, кто разрабатывает свои собственные хранилища данных и думает об интеграции со Spring Framework.* ### Предпосылки Разработчики обычно не очень любят менять свои привычки (зачастую, в список привычек входят и фреймворки). Когда я начал работать с [CUBA](https://www.cuba-platform.com/), мне не пришлось учить слишком много всего нового, активно включаться в работу над проектом можно было почти сразу. Но была одна вещь, над которой пришлось посидеть подольше — это была работа с данными. В Spring есть несколько библиотек, которые можно использовать для работы с БД, одна из наиболее популярных — [spring-data-jpa](https://docs.spring.io/spring-data/jpa/docs/current/reference/html/), которая позволяет в большинстве случаев не писать SQL или JPQL. Нужно всего лишь создать специальный интерфейс с методами, которые названы [специальным образом](https://docs.spring.io/spring-data/data-commons/docs/current/reference/html/#repository-query-keywords) и Spring сгенерирует и выполнит за вас всю оставшуюся часть работы по выборке данных из БД и созданию экземпляров объектов-сущностей. Ниже представлен интерфейс, с методом для подсчета клиентов с заданной фамилией. ``` interface CustomerRepository extends CrudRepository { long countByLastName(String lastName); } ``` Этот интерфейс можно напрямую использовать в Spring сервисах, не создавая никакой имплементации, что сильно ускоряет работу. В CUBA есть API для работы с данными, который включает в себя различную функциональность вроде частично загружаемых сущностей или хитрую систему безопасности с контролем доступа к атрибутам сущностей и строкам в таблицах БД. Но этот API немного отличается от того, к чему привыкли разработчики в Spring Data или JPA/Hibernate. Почему же в CUBA нет JPA репозиториев и можно ли их добавить? ### Работа с данными в CUBA В CUBA три основных класса, отвечающих за работу с данными: DataStore, EntityManager и DataManager. [DataStore](https://doc.cuba-platform.com/manual-latest/data_store.html) — высокоуровневая абстракция для любого хранилища данных: БД, файловой системы или облачного хранилища. Этот API позволяет выполнять базовые операции над данными. В большинстве случаев разработчикам нет нужды работать с DataStore напрямую, кроме случаев разработки своего собственного хранилища, или если требуется какой-то очень специальный доступ к данным в хранилище. [EntityManager](https://doc.cuba-platform.com/manual-latest/entityManager.html) — копия всем хорошо известного JPA EntityManager. В отличие от стандартной имплементации, в нем есть специальные методы для работы с [представлениями CUBA](https://doc.cuba-platform.com/manual-latest/views.html), для "мягкого"(логического) удаления данных, а также для работы с [запросами в CUBA](https://doc.cuba-platform.com/manual-latest/query.html). Как и в случае с DataStore, в 90% проектов обычному разработчику не придется иметь дело с EntityManager, кроме случаев, когда нужно выполнять какие-то запросы в обход системы ограничения доступа к данным. DataManager — основной класс для работы с данными в CUBA. Предоставляет API для манипулирования данными и поддерживает контроль доступа к данным, включая доступ к атрибутам и row-level ограничения. DataManager неявно модифицирует все запросы, которые выполняются в CUBA. Например, он может исключить поля таблицы, к которым у текущего пользователя нет доступа, из оператора `select` и добавить условия `where` для исключения строк таблиц из выборки. И это сильно облегчает жизнь разработчикам, потому что не надо думать, как правильно писать запросы с учетом прав доступа, CUBA это делает автоматически на основе данных из служебных таблиц БД. Ниже — диаграмма взаимодействия компонентов CUBA, которые участвуют в выборке данных через DataManager. ![](https://habrastorage.org/r/w1560/webt/vy/e7/e1/vye7e1axlvkzuky3raw6an4ttl0.png) При помощи DataManager можно относительно просто загружать сущности и целые иерархии сущностей, при помощи предствлений CUBA. В самом простом виде запрос выглядит так: ``` dataManager.load(Customer.class).list(); ``` Как уже упоминалось, DataManager отфильтрует "логически удаленные" записи, уберет из запроса запрещенные атрибуты, а также откроет и закроет транзакцию автоматически. Но, когда дело доходит до запросов посложнее, то в CUBA приходится писать JPQL. Например, если нужно посчитать клиентов с заданной фамилией, как в примере из предыдущего раздела, то нужно написать примерно такой код: ``` public Long countByLastName(String lastName) { return dataManager .loadValue("select count(c) from sample$Customer c where c.lastName = :lastName", Long.class) .parameter("lastName", lastName) .one(); } ``` или такой: ``` public Long countByLastName(String lastName) { LoadContext loadContext = LoadContext.create(Customer.class); loadContext .setQueryString("select c from sample$Customer c where c.lastName = :lastName") .setParameter("lastName", lastName); return dataManager.getCount(loadContext); } ``` В CUBA API нужно передавать JPQL выражение в виде строки (Criteria API ещё не поддерживается), это читаемый и понятный способ создания запросов, но отладка таких запросов может принести немало веселых минут. Кроме того, строки JPQL не верифицируются ни компилятором, ни Spring Framework во время инициализации контейнера, что приводит к возникновению ошибок только в Runtime. Сравните это со Spring JPA: ``` interface CustomerRepository extends CrudRepository { long countByLastName(String lastName); } ``` Код в три раза короче, и никаких строк. Вдобавок, название метода `countByLastName` проверяется во время инициализации Spring контейнера. Если допущена опечатка и вы написали `countByLastNsme`, то приложение вылетит с ошибкой во время деплоя: ``` Caused by: org.springframework.data.mapping.PropertyReferenceException: No property LastNsme found for type Customer! ``` CUBA построена вокруг Spring Framework, так что в приложение, написанное с использованием CUBA, можно подключить библиотеку spring-data-jpa, но есть небольшая проблема — контроль доступа. Имплементация CrudRepository в Spring использует свой EntityManager. Таким образом, все запросы будут выполняться в обход DataManager. Таким образом, чтобы использовать JPA репозитории в CUBA, нужно заменить все вызовы EntityManager на вызовы DataManager и добавить поддержку CUBA представлений. Кто-то может сказать, что spring-data-jpa — это такой неконтролируемый черный ящик и всегда предпочтительнее писать чистый JPQL или даже SQL. Это вечная проблема баланса между удобством и уровнем абстракции. Каждый выбирает тот способ, который ему больше по душе, но иметь в арсенале дополнительный способ работы с данными никогда не помешает. А тем, кому нужно больше управления, в Spring [есть способ определить свой собственный запрос](https://docs.spring.io/spring-data/jpa/docs/current/reference/html/#jpa.query-methods.at-query) для методов JPA репозиториев. Реализация ---------- JPA репозитории реализованы в виде CUBA модуля, с использованием библиотеки [spring-data-commons](https://docs.spring.io/spring-data/data-commons/docs/current/reference/html/). Мы отказались от идеи модификации spring-data-jpa, потому что объем работы был бы сильно больше по сравнению с написанием собственного генератора запросов. Тем более, что spring-data-commons делает большую часть работы. Например, разбор имени метода и связывание имени с классами и свойствами полностью делается в этой библиотеке. Spring-data-commons содержит все необходимые базовые классы для имплементации собственных репозиториев и требуется не так много усилий, чтобы это реализовать. Например, эта библиотека используется в [spring-data-mongodb](https://docs.spring.io/spring-data/mongodb/docs/current/reference/html/). Самым сложным было аккуратно реализовать генерацию JPQL на основе иерархии объектов — результата разбора имени метода. Но, к счастью, в Apache Ignite уже была реализована похожая задача, поэтому код был взят оттуда и немного адаптирован для генерации JPQL вместо SQL и поддержки оператора `delete`. В spring-data-commons используется проксирование для динамического создания реализаций интерфейсов. Когда инициализируется контекст CUBA приложения, то все ссылки на интерфейсы заменяются на ссылки на прокси-бины, опубликованные в контексте. При вызове метода интерфейса он перехватывается соответствующим прокси-объектом. Затем этот объект генерирует JPQL запрос по имени метода, подставляет параметры и отдает запрос с параметрами в DataManager на выполнение. Следующая диаграмма отображает упрощенный процесс взаимодействия ключевых компонентов модуля. ![](https://habrastorage.org/r/w1560/webt/zh/cd/1l/zhcd1lasrsrz4vwcedkgtnsiz2m.png) Использование репозиториев в CUBA --------------------------------- Чтобы исплоьзовать репозитории в CUBA, нужно просто подключить модуль в файле сборки проекта: ``` appComponent("com.haulmont.addons.cuba.jpa.repositories:cuba-jpa-repositories-global:0.1-SNAPSHOT") ``` Можно использовать XML конфигурацию для того, чтобы "включить" репозитории: ``` xml version="1.0" encoding="UTF-8"? ``` А можно воспользоваться аннотациями: ``` @Configuration @EnableCubaRepositories public class AppConfig { //Configuration here } ``` После того, как поддержка репозиториев активирована, можно их создавать в привычном виде, например: ``` public interface CustomerRepository extends CubaJpaRepository { long countByLastName(String lastName); List findByNameIsIn(List names); @CubaView("\_minimal") @JpqlQuery("select c from sample$Customer c where c.name like concat(:name, '%')") List findByNameStartingWith(String name); } ``` Для каждого метода можно использовать аннотации: * `@CubaView` — для задания представления CUBA, которое будет использоваться в DataManager * `@JpqlQuery` — для задания JPQL запроса, который будет выполняться, вне зависимости от названия метода. Этот модуль используется в модуле `global` фреймворка CUBA, следовательно, можно использовать репозитории как в модуле `core`, так и в `web`. Единственное, что нужно не забыть — активировать репозитории в конфигурационных файлах обоих модулей. Пример использования репозитория в сервисе CUBA: ``` @Service(CustomerService.NAME) public class CustomerServiceBean implements PersonService { @Inject private CustomerRepository customerRepository; @Override public List getCustomersBirthDatesByLastName(String name) { return customerRepository.findByNameStartingWith(name) .stream().map(Customer::getBirthDate).collect(Collectors.toList()); } } ``` ### Заключение CUBA — гибкий фреймворк. Если есть желание что-то в него добавить, то нет необходимости исправлять ядро самостоятельно или ждать новую версию. Я надеюсь, что этот модуль сделает разработку с CUBA более эффективной и быстрой. Первая версия модуля доступна на [GitHub](https://github.com/cuba-rnd/cuba-jpa-repositories), протестировано на CUBA версии 6.10
https://habr.com/ru/post/436216/
null
ru
null
# Исследуем результат работы php-транслятора Здравствуйте. Думаю, что большинство веб-программистов знает, как работает php-интерпретатор. Для тех, кто не знает: Вначале, написанный нами код разбирается [лексическим анализатором](https://ru.wikipedia.org/wiki/%D0%9B%D0%B5%D0%BA%D1%81%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7). Далее, полученные лексемы, передаются в [синтаксический анализатор](https://ru.wikipedia.org/wiki/%D0%A1%D0%B8%D0%BD%D1%82%D0%B0%D0%BA%D1%81%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7). Если синтаксический анализатор дал добро, то лексемы передаются [транслятору](https://ru.wikipedia.org/wiki/%D0%A2%D1%80%D0%B0%D0%BD%D1%81%D0%BB%D1%8F%D1%82%D0%BE%D1%80), а он, в свою очередь, генерирует так называемые opcodes (operation codes). И только после этого, в дело вступает виртуальная машина PHP (та самая Zend Engine) которая и выполняет наш алгоритм из получившихся opcodes. Opcodes так же называют эдаким php-шным ассемблером. Данная статья расскажет вам о том, какие opcodes и в каких случаях генерируются. Конечно, рассказать про все opcodes в рамках одной статьи не получится, но в данной статье будет рассмотрен конкретный пример и на его основе мы попытаемся разобраться что к чему у этих opcodes. На мой взгляд, самое главное, что вы узнаете прочитав статью, это то, как на самом деле происходит выполнение ваших исходных текстов и, возможно, это поможет вам в лучшем понимании языка php. Советую вам налить себе чашечку капучино или просто зеленого чая, т.к. под катом листинги opcodes и php-кода… ##### Постановка задачи Не так давно, сидя на одном из php-форумов, я наткнулся на топик, в котором ТС просил помочь ему составить алгоритм, который бы из строки: > Привет {{Виктор|{Антон|Антонио|Антошка}|Сергей}|{Господин|Сэр|Товарищ}}, как {твои|ваши} дела Делал примерно следующие: > Привет Виктор, как твои дела Как вы уже наверное поняли, необходимо было найти все вхождения {...} и достать оттуда фразы разделенные символом "|". Затем, всё вхождение {...} заменить на одну из тех фраз. Фразу нужно было выбрать случайным образом. Здесь отчетливо видны две глобальные группы: > {{Виктор|{Антон|Антонио|Антошка}|Сергей}|{Господин|Сэр|Товарищ}} и > {твои|ваши} По условиям изначальной задачи, уровень вложенности роли не играл, то есть все фразы, разделенные символом "|" в пределах глобальной группы, имели одинаковый вес. Я предложил следующий вариант решения задачи: ``` $str = 'Привет {{Виктор|{Антон|Антонио|Антошка}|Сергей}|{Господин|Сэр|Товарищ}} как {твои|ваши} дела'; $str = preg_replace_callback('#(\{[\s\S]+?\})([^\|\{\}]+)#', function($mathces) { $mathces[1] = str_replace(array('}','{'), '', $mathces[1]); $arr = explode('|', $mathces[1]); return $arr[array_rand($arr)].$mathces[2]; }, $str); echo "$str\n"; ``` Регулярное выражение просто выбирает все последовательности типа: > {.....} какой-то текст В данном случае получатся 2 вхождения по 2 группы в каждом (группы выделены скобками): > **(** {{Виктор|{Антон|Антонио|Антошка}|Сергей}|{Господин|Сэр|Товарищ}} **) (** как **)** и > **(** {твои|ваши} **) (** дела **)** Очищаем их от "{" и "}", чтобы можно было применить explode() к чистенькой строке. И в конце заменяем всю последовательность на случайную фразу из группы, полученную через explode() и rand(). Здесь, думаю, сложностей ни у кого не возникнет, т.к. алгоритм довольно простой. Сразу скажу, что у данного варианта есть некоторые недочеты. Вот некоторые из них: * Если текст заканчивается символом "}", то в конце текста нужно вставить пробел * Если рядом стоят две пары фигурных скобок — {...}{...}, то между ними нужен хотя бы пробел Но это скорее недостатки составленной регулярки. Позже я покажу еще 2 варианта которые лишены данных ограничений, а пока предположим, что работаем с идеальным, для данной регулярки, текстом. Давайте наконец посмотри, что же нам нагенерировал транслятор: **Opcodes dump** ``` filename: /www/patterns/www/scan/simple.php function name: (null) number of ops: 11 compiled vars: !0 = $str line # * op fetch ext return operands --------------------------------------------------------------------------------- 1 0 > ASSIGN !0, 'тут много символов' 2 1 SEND_VAL 'регулярка' 2 DECLARE_LAMBDA_FUNCTION 'имя анонимной функции' 7 3 SEND_VAL ~1 4 SEND_VAR !0 5 DO_FCALL 3 $2 'preg_replace_callback' 6 ASSIGN !0, $2 8 7 ADD_VAR ~4 !0 8 ADD_CHAR ~4 ~4, 10 9 ECHO ~4 10 > RETURN 1 Function %00%7Bclosure%7D%2Fwww%2Fpatterns%2Fwww%2Fscan%2Fsimple.php0x7f68d7e7c0f: filename: /www/patterns/www/scan/simple.php function name: {closure} number of ops: 22 compiled vars: !0 = $mathces, !1 = $arr line # * op fetch ext return operands --------------------------------------------------------------------------------- 2 0 > RECV !0 4 1 INIT_ARRAY ~1 '%7D' 2 ADD_ARRAY_ELEMENT ~1 '%7B' 3 SEND_VAL ~1 4 SEND_VAL '' 5 FETCH_DIM_R $2 !0, 1 6 SEND_VAR $2 7 DO_FCALL 3 $3 'str_replace' 8 ASSIGN_DIM !0, 1 9 OP_DATA $3, $4 5 10 SEND_VAL '%7C' 11 FETCH_DIM_R $5 !0, 1 12 SEND_VAR $5 13 DO_FCALL 2 $6 'explode' 14 ASSIGN !1, $6 6 15 SEND_VAR !1 16 DO_FCALL 1 $8 'array_rand' 17 FETCH_DIM_R $9 !1, $8 18 FETCH_DIM_R $10 !0, 2 19 CONCAT ~11 $9, $10 20 > RETURN ~11 7 21* > RETURN null End of function %00%7Bclosure%7D%2Fwww%2Fpatterns%2Fwww%2Fscan%2Fsimple.php0x7f68d7e7c0f. ``` «Ну вот, куча чего-то непонятного» — можете сказать вы. Но, уверяю вас, тут нет ничего сложного, давайте разбираться. Сразу можно увидеть, что дамп как бы разделен на 2 части: * 1 часть — дамп основного кода скрипта * 2 часть — дамп кода анонимной функции, которую мы передаем в preg\_replace\_callback. ##### Исследуем opcodes Когда мы пишем наш код, мы используем переменные для хранения значений. Интерпретатор PHP делает то же самое когда разбирает наш код, только в чуть большем объеме. Opcode, в пределах скрипта или функции, имеет несколько характеристик: * Номер строки в файле * Порядковый номер opcode в скрипте или функции * Имя * Область видимости * Дополнительная информация (пока что нашел ей только одно применение о котором когда-нибудь расскажу) * Внутренняя переменная в которую будет сохранен результат работы opcode * Операнды (данные) над которыми opcode производит какие-то действия Если говорить проще, то opcode берет операнды, производит над ними какие-то действия и возвращает результат в указанную внутреннюю переменную. Внутренние переменные — это участки памяти, которые выделяет интерпретатор при выполнения opcodes. Эти переменные имеют порядковые номера, начинающиеся с нуля и имею 3 основных типа: * Физические (начинается с символа "!") * Виртуальные (начинается с символа "$") * Временные (начинается с символа "~") Давайте начнем с первого opcode (пока рассматриваем первую часть дампа) и посмотрим что получится: ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 1 0 > ASSIGN !0, 'тут много текста' ``` Видно, что это первая строка скрипта и нулевой по счету opcode. Судя из названия, opcode [ASSIGN](http://php.net/manual/ru/internals2.opcodes.assign.php) присваивает одно значение другому. Вот и в данном случае мы присвоили наш тестовый текст переменной !0, а судя по дампу, !0 — это наша $str в скрипте (посмотрите на первую строку кода чтобы убедиться, что происходит присвоение текста). Opcode в данном случае ничего не возвращает, т.к. выполняет присваивание и результат уже будет храниться в переменной !0. Теперь давайте рассмотрим, что происходит при вызове функции. Чтобы вызвать функцию, нам нужно предать ей на вход определенные аргументы в качестве параметров. Собственно этим и занимаются opcodes под номерами 1,3 и 4 Давайте сопоставим аргументы, которые мы передали в preg\_replace\_callback и соответствующие opcodes: * Передаем регулярку: SEND\_VAL 'текст регулярки' * Объявляем лямбда-функцию: DECLARE\_LAMBDA\_FUNCTION 'внутреннее имя анонимной функции' * Результат (функция) неявно помещается во внутреннюю временную переменную ~1 * Передаем лямбда-функцию: SEND\_VAL ~1 * Передаем целевую строку: SEND\_VAR !0 Вы наверное заметили, что в одном случае используется SEND\_VAL, а в другом — SEND\_VAR. Связано это с тем, что в одних случаях, в качестве параметра, мы передаем переменную (SEND\_VAR), а в других — чистое значение (SEND\_VAL). В соответствии с этим, текст регулряки и лямбду — мы передаем как значения, а исходную строку — как переменную (коей она и является). Всё, аргументы переданы и теперь остается только вызвать функцию: ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 5 DO_FCALL 3 $2 'preg_replace_callback' ``` Здесь, opcode с именем DO\_FCALL вызывает функцию 'preg\_replace\_callback' и помещает результат ее работы во внутреннюю переменную $2. Заметьте, не в физическую переменную $str (как написано в скрипте), а пока что именно во внутреннюю. Ну и чтобы положить результат в $str (!0), используется уже знакомый нам ASSIGN: ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 6 ASSIGN !0, $2 ``` Присваивает значение $2 переменной !0 (наша $str). Из этого следует, что значения возвращаемые функциями не присваиваются ждущим их переменным напрямую, а только через временную переменную. Поехали дальше. Последняя строка скрипта. Необходимо просто вывести получившуюся строку, но мы видим тут аж 3 opcode. Давайте посмотрим: ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 8 7 ADD_VAR ~4 !0 8 ADD_CHAR ~4 ~4, 10 9 ECHO ~4 ``` * Добавляем к временной переменной ~4 (сейчас там ничего нет) нашу переменную !0 ($str) * Добавляем к временной переменной ~4(в которой уже лежит значение от !0) символ переноса строки \n (код символа — 10) * Выводим содержимое ~4 (заметьте, что echo — это не функция, а оператор языка) Собственно, вот и весь основной скрипт. Стоит отметить, что всё это мероприятие завершается через opcode RETURN (хотя функции мы пока не рассматривали). Это такая особенность php — скрипт или функция обязательно должны вернуть что-нибудь в конце, даже если return явно не указан. Окончания скриптов возвращают единицу, а функции возвращают null (если не указано что-либо другое). Теперь давайте рассмотрим анонимную функцию (**вторая часть дампа**). Ее логика проста: * Чистим содержимое группы от "{" и "}" * Разделяем ее по символу "|" * Выбираем случайный вариант Рассмотрим opcodes и сразу обратим внимание на compiled vars для данной функции. Первый opcode — RECV Он получает переданный в функцию аргумент и кладет его содержимое в !0. Теперь нам нужно произвести ряд манипуляций для вызова функции str\_replace(): * Инициализировать массив с символами замены и предать его в качестве первого параметра * Передать второй параметр — пустую строку * Передать первую группу из вхождения в качестве третьего параметра ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 4 1 INIT_ARRAY ~1 '%7D' 2 ADD_ARRAY_ELEMENT ~1 '%7B' 3 SEND_VAL ~1 ``` * Инициализируем массив помещая в него символ "}" (сам массив кладем в ~1) * Добавляем к массиву символ "{", результат помещаем туда же * Передаем аргумент функции ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 4 SEND_VAL '' ``` * Передаем в функцию пустую строку ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 5 FETCH_DIM_R $2 !0, 1 6 SEND_VAR $2 ``` * Берем из массива !0 элемент с индексом 1 и помещаем результат в $2 * Передаем в функцию значение $2 Из этого следует, что чтение значений из массивов происходит в 2 действия: чтение во временную переменную и уже потом использование содержимого этой переменной. ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 7 DO_FCALL 3 $3 'str_replace' 8 ASSIGN_DIM !0, 1 9 OP_DATA $3, $4 ``` Тут мы сначала вызываем функцию str\_replace() и результат кладем в $3. Далее довольно интересный момент… Внятной документации по ASSIGN\_DIM нет, а по OP\_DATA какой-либо документации в принципе нет, поэтому могу предположить, что ASSIGN\_DIM проецирует элементы массива на ячейки памяти и возвращает указатель на ту область памяти, где находится нужный нам элемент. Указатель неявно помещается в $4. В данном случае, судя по операндам и коду, нас интересует элемент с индексом 1 в массиве !0. Далее, OP\_DATA пишет результат функции str\_replace() из $3 в область памяти, указатель на которую хранится в $4. Не понятно почему в данном случае не используется ASSIGN. Видимо это связано со спецификой хранения данных в виде массива. Хотя при модификации указателей тоже используется ASSIGN (правда там ASSIGN\_REF). Если кто-то точно знает, что за связка ASSIGN\_DIM\OP\_DATA и как она действительно работает, напишите пожалуйста в комментах, буду благодарен. Далее по коду, мы вызываем explode(), для того чтобы разбить строку по символу "|": ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 5 10 SEND_VAL '%7C' 11 FETCH_DIM_R $5 !0, 1 12 SEND_VAR $5 13 DO_FCALL 2 $6 'explode' 14 ASSIGN !1, $6 ``` * Отправляем в качестве параметра символ "|" * Считываем из массива !0 элемент с индексом 1 и записываем результат в $5 * Передаем $5 в качестве параметра * Вызываем explode(), записывая результат в $6 * Копируем содержимое $6 в !1 Далее, мы выбираем рандомный элемент из получившегося массива: ``` line # * op fetch ext return operands --------------------------------------------------------------------------------- 6 15 SEND_VAR !1 16 DO_FCALL 1 $8 'array_rand' 17 FETCH_DIM_R $9 !1, $8 18 FETCH_DIM_R $10 !0, 2 19 CONCAT ~11 $9, $10 20 > RETURN ~11 ``` * Отправляем !1 (массив) на вход функции array\_rand(), которая, в свою очередь возвращает результат в $8 * Затем записываем в $9 элемент массива !1 с индексом из $8 * Записываем в $10 элемент массива !0 с индексом 2 * Объединяем $9 и $10 в ~11 * Возвращаем содержимое ~11 Сейчас я сознательно не расписываю всё более детально, т.к. считаю, что это уже итак понятно, ведь я всё это расписывал ранее. Вот мы собственно и разобрали наш первый вариант алгоритма, что называется, по косточкам. Теперь давайте двинемся дальше. ##### Поддержка экранированных символов в тексте Немного подумав, я решил, что в тексте может быть любой порядок слов, не обязательно *{...} текст*. Да и в тексте могут встречаться такие символы как "{", "}" и "|" которые не должны быть обработаны как разделители или группы вариантов. Исходя из этой задумки, решил, что если необходимо использовать "{", "}" и "|" в тексте, то их надо просто заэкранировать слешем, например "\{". Да и нелепые ограничения типа необходимости пробелов в конце строки и между стоящими рядом группами, немного напрягали. Составил себе следующую тестовую строку: > В языке {{C++|C}|{JavaScript|PHP}|C#|Java}, блоки кода можно объединять в фигурные скобки, например \{{ВАШ КОД|КАКОЙ-ТО КОД};\}\nУсловия записываются так {if(1)|if(1\|\|0)}{\{do\_something();\}|\{do\_some\_work();\}} Из которой должно получится что-то вроде: > В языке Java, блоки кода можно объединять в фигурные скобки, например {ВАШ КОД;} > > Условия записываются так if(1||0){do\_some\_work();} Для реализации такого варианта, потребовалось переработать регулярное выражение. Именно во время обдумывание данного варианта, я набил руку в использовании [утверждений в регулярных выражениях](http://php.net/manual/ru/regexp.reference.assertions.php). Отсюда вывод — придумывайте себе задачки, для решения которых нужно иметь знания, которых у вас нет. Или есть, но не было времени их укрепить. Получилось следующее: ``` $str = 'В языке {{C++|C}|{JavaScript|PHP}|C#|Java} блоки кода можно объединять в фигурные скобки, например \{{ВАШ КОД|КАКОЙ-ТО КОД};\} Условия записываются так {if(1)|if(1\|\|0)}{\{do_something();\}|\{do_some_work();\}}'; $str = preg_replace_callback('#(? ```
https://habr.com/ru/post/233129/
null
ru
null
# Дружим ORDER BY с индексами ![](https://habrastorage.org/r/w1560/webt/_f/wk/eb/_fwkeb0vyrt6xnqv9zki8apgxkm.png) Привет, Хабр! Я потихоньку перевожу статьи Маркуса Винанда из блога [use the index luke.](https://use-the-index-luke.com/) [Первой статьей в цикле](https://habr.com/ru/company/tinkoff/blog/485036/) был манифест Маркуса о важности использования безофсетной пагинации на ключах. Мы рассмотрели всего один пример, как этот подход работает на практике. В этой и следующих статьях я буду обосновывать такой подход — с графиками и примерами, как все любят. Начнем с самого начала. В этой статье будет разбор pipelined order by. Мы рассмотрим, что это такое, как достичь и в чем преимущества такого подхода. В следующей статье поговорим про top-N синтаксис и его связь с pipelined order by. И уже потом перейдем к пагинации, которая будет внутри себя использовать все ранее описанные подходы, и тогда станет понятно, как это все работает внутри и почему это действительно круто. Стоит заметить, что оригинальные материалы довольно старые по меркам нашей индустрии: статья про инструментальную поддержку обновлялась последний раз в конце 2017. Поэтому, если у вас есть информация о том, что изменилось за это время, — пишите в комментариях. Я обязательно все проверю и исправлю, в том числе сообщу автору блога. Все свои комментарии и примечания я оставляю с пометкой «прим.», чтобы разделить слова автора и свои собственные. Кроме того, я позволил себе вольность набросать запросы и скрипты для PostgreSQL — мне кажется, это достаточно актуальная база данных, чтобы включить ее в примеры. Скрипт целиком [на Гитхабе.](https://github.com/Zilljian/articles-sql-scripts/blob/master/indexing-pipelined-order-by/postgres_script.sql) ### Введение SQL-запросы, использующие order by, могут избегать явной сортировки результата, если выражение попадает в существующий индекс. Это происходит при условии, что последний предоставляет запрашиваемый порядок записей. Однако это так же значит, что индекс, который покрывает выражение where в запросе, должен покрывать порядок сортировки в order by. Прим.: Для примера пусть задана таблица продаж. В ней создано два атрибута: sale\_date, то есть дата продажи (только дата, без времени), и product\_id — айди вида товара, который был продан; sale\_date при этом покрыт индексом. Рассмотрим следующий запрос, который выбирает вчерашние заказы, сортируя их сначала по дате, а затем по айди продукта: ``` SELECT sale_date, product_id, quantity FROM sales WHERE sale_date = TRUNC(sysdate) - INTERVAL '1' DAY ORDER BY sale_date, product_id ``` Как уже было сказано, sale\_date покрыт индексом и этот индекс может быть использован в условии where. Но база все равно должна явно отсортировать записи, чтобы удовлетворить order by в запросе. Планы выполнения: **DB2** ``` Explain Plan ------------------------------------------------------------ ID | Operation | Rows | Cost 1 | RETURN | | 682 2 | TBSCAN | 394 of 394 (100.00%) | 682 3 | SORT | 394 of 394 (100.00%) | 682 4 | FETCH SALES | 394 of 394 (100.00%) | 682 5 | IXSCAN SALES_DATE | 394 of 1009326 ( .04%) | 19 Predicate Information 5 - START (Q1.SALE_DATE = (CURRENT DATE - 1 DAYS)) STOP (Q1.SALE_DATE = (CURRENT DATE - 1 DAYS)) ``` Из-за специфики DB2 выражение where немного меняется: WHERE sale\_date = CURRENT\_DATE — 1 DAY. Но суть остается такая же. **Oracle** ``` --------------------------------------------------------------- |Id | Operation | Name | Rows | Cost | --------------------------------------------------------------- | 0 | SELECT STATEMENT | | 320 | 18 | | 1 | SORT ORDER BY | | 320 | 18 | | 2 | TABLE ACCESS BY INDEX ROWID| SALES | 320 | 17 | |*3 | INDEX RANGE SCAN | SALES_DATE | 320 | 3 | --------------------------------------------------------------- ``` **PostgreSQL** ``` Sort (cost=27862.15..28359.74 rows=199034 width=16) (actual time=259.075..370.953 rows=200000 loops=1) Sort Key: product_id Sort Method: external merge Disk: 5872kB -> Index Scan using sales_date on sales (cost=0.42..6942.52 rows=199034 width=16) (actual time=0.030..121.512 rows=200000 loops=1) Index Cond: (sale_date = '2020-01-05 00:00:00'::timestamp without time zone) Planning Time: 0.226 ms Execution Time: 458.083 ms ``` Оракловый index range scan всегда предоставляет записи в том порядке, в котором они указаны в индексе. Чтобы использовать это в свою пользу, нам придется немного изменить индекс: ``` DROP INDEX sales_date CREATE INDEX sales_dt_pr ON sales (sale_date, product_id) SELECT sale_date, product_id, quantity FROM sales WHERE sale_date = TRUNC(sysdate) - INTERVAL '1' DAY ORDER BY sale_date, product_id ``` Планы выполнения с новым индексом: **DB2** ``` Explain Plan ----------------------------------------------------------- ID | Operation | Rows | Cost 1 | RETURN | | 688 2 | FETCH SALES | 394 of 394 (100.00%) | 688 3 | IXSCAN SALES_DT_PR | 394 of 1009326 ( .04%) | 24 Predicate Information 3 - START (Q1.SALE_DATE = (CURRENT DATE - 1 DAYS)) STOP (Q1.SALE_DATE = (CURRENT DATE - 1 DAYS)) ``` **Oracle** ``` --------------------------------------------------------------- |Id | Operation | Name | Rows | Cost | --------------------------------------------------------------- | 0 | SELECT STATEMENT | | 320 | 300 | | 1 | TABLE ACCESS BY INDEX ROWID| SALES | 320 | 300 | |*2 | INDEX RANGE SCAN | SALES_DT_PR | 320 | 4 | --------------------------------------------------------------- ``` **PostgreSQL** ``` Index Scan using sales_dt_pr on sales (cost=0.42..18413.96 rows=199034 width=16) (actual time=0.043..206.096 rows=200000 loops=1) Index Cond: (sale_date = '2020-01-05 00:00:00'::timestamp without time zone) Planning Time: 0.259 ms Execution Time: 295.872 ms ``` Как можно заметить, операция sort order by исчезла из плана, хотя запрос мы не меняли и в нем до сих пор содержится order by. База решила использовать проход по индексу и пропустить этап явной сортировки. ### Неочевидные индексы Хотя новый план выполнения имеет меньше операций, его стоимость значительно выше (прим.: в Oracle), потому что фактор кластеризации нового индекса хуже. Тут также надо заметить, что стоимость (cost value) не всегда хороший показатель эффективности выполнения запроса (прим.: под катом вкратце рассказывается, почему так). **Автоматическая оптимизация фактора кластеризации**Прим.: Фактор кластеризации показывает, насколько точно порядок записей в индексе совпадает с их порядком в таблице. База данных Oracle старается держать фактор кластеризации на минимуме с помощью псевдостолбца ROWID, который определяет порядок записей в индексе. В тот момент, когда две индексируемые записи имеют одинаковый ключ, ROWID решает, каким будет их конечный порядок. Получается, что индекс, в свою очередь, также упорядочивается согласно порядку записей в таблице. Следовательно, он имеет минимально возможный фактор кластеризации. При добавлении дополнительного столбца в индекс мы добавляем новый критерий сортировки *перед* ROWID. База данных при этом свободна в выравнивании элементов индекса согласно порядку в таблице, поэтому фактор кластеризации индекса становится только хуже. Несмотря на это, все еще возможно, что индекс слабо, но все-таки соответствует порядку в таблице. Продажи, относящиеся к одному дню, вероятно, все еще кластеризованы вместе как в таблице, так и в индексе — даже если их последовательность уже не совпадает. БД вынуждена читать одни и те же блоки таблицы несколько раз в разном порядке при использовании индекса sale\_dt\_pr. Тем не менее на производительность это может влиять намного меньше, чем вычисленная стоимость в плане выполнения, так как частые запросы к одним и тем же данным попадут в кэш и будут обрабатываться намного быстрее. В нашем случае достаточно, чтобы сканируемый индекс был отсортирован согласно order by. Следовательно, такой подход будет работать в запросе, где мы хотим сортировать только по столбцу product\_id: ``` SELECT sale_date, product_id, quantity FROM sales WHERE sale_date = TRUNC(sysdate) - INTERVAL '1' DAY ORDER BY product_id ``` На рисунке ниже можем заметить, что product\_id — единственный уместный критерий сортировки в сканируемом индексе при таком запросе (прим.: так как дата за один день всегда одинакова для всех записей в этот день). Следовательно, порядок индекса совпадает с порядком в order by *в данном диапазоне индекса*, поэтому база может опустить явную сортировку. ![](https://habrastorage.org/r/w1560/webt/ir/gp/sw/irgpswhsv4lfn6qycpoapkrztig.png) Порядок сортировки в соответствующих диапазонах индекса Прим.: Здесь нужно немного пояснить рисунок. На нем изображено покрытие таблицы индексом и то, как этот индекс разбивается на области. Можно заметить, что дата за один день (столбец именно с датой, без времени) остается без изменений. Но, так как товары могут повторяться (product\_id указывает на айди *типа* товара в таблице товаров) как внутри одной даты, так и между разными датами (например, условный товар-1 был продан вчера 5 раз и сегодня 2 раза). Из-за такой особенности можем получить разные неприятные последствия при попытке попасть в индекс. Наше заигрывание с индексами иногда может приводить к непредвиденным последствиям. Например, когда изменением условия where мы расширяем область сканирования индекса: ``` SELECT sale_date, product_id, quantity FROM sales WHERE sale_date >= TRUNC(sysdate) - INTERVAL '1' DAY ORDER BY product_id ``` Данный запрос получает уже не только вчерашние записи о продажах, но все записи, начиная со вчерашнего дня. Это значит, что запрос уже покрывает больше одной даты. При этом получается, что записи сортируются не только по product\_id (прим.: так как в запрос попадают два дня, а нам интересно увидеть сортировку только по айди товара, то все id записей за эти дни объединяются и из-за того, что отсортированы они только в одном диапазоне индекса — за конкретный день, то их приходится еще раз явно сортировать). Если снова вернемся к картинке выше и расширим сканируемую область индекса до самого низа, то увидим, что у нас повторно появляются меньшие значения с product\_id. База данных, как следствие, должна применить явную сортировку, чтобы удовлетворить order by. Планы выполнения: **DB2** ``` Explain Plan ------------------------------------------------------------- ID | Operation | Rows | Cost 1 | RETURN | | 688 2 | TBSCAN | 394 of 394 (100.00%) | 688 3 | SORT | 394 of 394 (100.00%) | 688 4 | FETCH SALES | 394 of 394 (100.00%) | 688 5 | IXSCAN SALES_DT_PR | 394 of 1009326 ( .04%) | 24 Predicate Information 5 - START ((CURRENT DATE - 1 DAYS) <= Q1.SALE_DATE) ``` **Oracle** ``` --------------------------------------------------------------- |Id |Operation | Name | Rows | Cost | --------------------------------------------------------------- | 0 |SELECT STATEMENT | | 320 | 301 | | 1 | SORT ORDER BY | | 320 | 301 | | 2 | TABLE ACCESS BY INDEX ROWID| SALES | 320 | 300 | |*3 | INDEX RANGE SCAN | SALES_DT_PR | 320 | 4 | --------------------------------------------------------------- ``` **PostgreSQL** ``` Sort (cost=34388.50..34886.08 rows=199034 width=16) (actual time=258.029..367.186 rows=200001 loops=1) Sort Key: product_id Sort Method: external merge Disk: 5872kB -> Bitmap Heap Scan on sales (cost=4610.94..13468.86 rows=199034 width=16) (actual time=19.947..122.290 rows=200001 loops=1) Recheck Cond: (sale_date >= '2020-01-05 00:00:00'::timestamp without time zone) Heap Blocks: exact=1275 -> Bitmap Index Scan on sales_dt_pr (cost=0.00..4561.18 rows=199034 width=0) (actual time=19.742..19.742 rows=200001 loops=1) Index Cond: (sale_date >= '2020-01-05 00:00:00'::timestamp without time zone) Planning Time: 0.141 ms Execution Time: 452.337 ms ``` ### Что же тогда делать со всем этим безобразием? Если БД использует сортировку, хотя вы ожидаете конвейерное выполнение (pipeline execution), то это может означать две вещи: 1. План выполнения с явной сортировкой имеет меньшую стоимость, поэтому оптимизатор предпочел выбрать его. 2. Порядок записей в сканируемом диапазоне индекса не удовлетворяет выражению в order by. Самый простой способ определить, что что-то пошло не так, — подставить в order by полное покрытие индекса. Таким образом мы выравниваем весь запрос по индексу, чтобы исключить второй вариант. В результате, если база продолжает использовать явную сортировку, значит, оптимизатор предпочитает такой план из-за его меньшей стоимости. Если же сортировка пропала, то это свидетельствует о невозможности использовать индекс в order by. В любом случае хочется понимать, можно ли получить конвейер в конкретном случае и как это сделать. Для этого также подойдет выполнение запроса с полным попаданием в индекс в order by и инспекция плана выполнения. Зачастую удается обнаружить ложное восприятие индекса и то, что он не соответствует требованию order by. Поэтому БД не может использовать его в конкретном запросе. ### Заключение Если оптимизатор предпочитает явную сортировку ввиду ее более низкой стоимости, то это обычно происходит потому, что оптимизатор оценивает план выполнения целиком. Другими словами, оптимизатор выбирает тот план, который отдает последнюю запись результата быстрее. Если БД обнаруживает, что запрашиваются не все данные, а, например, только первые N записей, то вероятнее, что конвейер будет выбран в качестве оптимального подхода, если он, конечно же, возможен. Этот случай мы рассмотрим в следующей статье про top-N записей. [Источник](https://use-the-index-luke.com/sql/sorting-grouping/indexed-order-by) Автор: Markus Winand
https://habr.com/ru/post/487412/
null
ru
null
# Парсер формул с помощью метода рекурсивного спуска ![](https://habrastorage.org/r/w1560/storage1/d3f0530f/0aee4eec/cf2e4d21/5109315b.png) Доброго времени суток, уважаемые Хабровчане! Хочу поделится с вами реализацией алгоритма [«Метод рекурсивного спуска»](http://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D1%80%D0%B5%D0%BA%D1%83%D1%80%D1%81%D0%B8%D0%B2%D0%BD%D0%BE%D0%B3%D0%BE_%D1%81%D0%BF%D1%83%D1%81%D0%BA%D0%B0) на примере написания парсера формул с поддержкой переменных и функций на языке Java Эта статья в (скорее всего, во всяком случае я надеюсь :) ) будет интересна для новичков, или кому-то применить как фундамент для своего решения данной задачи. Кому интересно — прошу под кат #### ТЗ Разработать парсер формул который: * соблюдает правильную очередь выполнения операций * поддерживает функции * поддерживает переменные #### Вступление Суть данного метода состоит в том, что он разделяется на свои подзадачи. В свою очередь подзадача должна работать только с тем, с чем умеет работать, если условия не удовлетворяются передавать управление дальше. Если же условия удовлетворены, делаем вычисления и передаем оставшуюся часть необработанного текста. Выполнение происходит до тех пор, пока текст все еще есть или же если ни одна подзадача не может обработать текущее состояние. Также имеет значение приоритет подзадачи. Меняя приоритет подзадачи поменяется и поведение парсера. Поскольку мы будем реализовывать парсер математических формул, то для расставления приоритетов мы будем руководствоваться приоритетами математических операций: 1. функция и переменная 2. скобки 3. умножение и деление 4. сложение и вычитание #### Полетели Ну, теперь за дело. Как я уже выше упомянул, мы будем манипулировать остатком от строки, т.е каждая задача откусывает что ей по зубам и передает дальше, что проглотить не может. Итого нам нужна следующая структура: строковая переменная для хранения остатка строки и так называемый аккумулятор, для хранения текущего состояния процесса вычисления Нужно? Сделаем! ``` class Result { public double acc; public String rest; public Result(double v, String r) { this.acc = v; this.rest = r; } } ``` Теперь приступим за сам парсер: первым делом вызывать мы будем подзадачу с самым низким приоритетом. Подзадачи в свою очередь передают управление подзадачам с более высоким приоритетом и после каждого своего действия, которое повлияло на текст, также передаем управление подзадачи с высоким приоритетом. И как сказано было уже выше, выполнение программы будет продолжаться пока есть что парсить, или мы наткнемся на неизвестную структуру или последовательность данных. Из метода который осуществляет сложение/вычитание мы будем вызывать умножение/деление и так далее Для общего понимания, немного упростим задачу, сделаем парсер, который лишь выполняет операции сложения и вычитания: ``` public class MatchParserPlusMinus { public MatchParserPlusMinus(){} public double Parse(String s) throws Exception { Result result = PlusMinus(s); if (!result.rest.isEmpty()) { System.err.println("Error: can't full parse"); System.err.println("rest: " + result.rest); } return result.acc; } private Result PlusMinus(String s) throws Exception { Result current = Num(s); double acc = current.acc; while (current.rest.length() > 0) { if (!(current.rest.charAt(0) == '+' || current.rest.charAt(0) == '-')) break; char sign = current.rest.charAt(0); String next = current.rest.substring(1); acc = current.acc; current = Num(next); if (sign == '+') { acc += current.acc; } else { acc -= current.acc; } current.acc = acc; } return new Result(current.acc, current.rest); } private Result Num(String s) throws Exception { int i = 0; int dot_cnt = 0; boolean negative = false; // число также может начинаться с минуса if( s.charAt(0) == '-' ){ negative = true; s = s.substring( 1 ); } // разрешаем только цифры и точку while (i < s.length() && (Character.isDigit(s.charAt(i)) || s.charAt(i) == '.')) { // но также проверям, что в числе может быть только одна точка! if (s.charAt(i) == '.' && ++dot_cnt > 1) { throw new Exception("not valid number '" + s.substring(0, i + 1) + "'"); } i++; } if( i == 0 ){ // что-либо похожее на число мы не нашли throw new Exception( "can't get valid number in '" + s + "'" ); } double dPart = Double.parseDouble(s.substring(0, i)); if( negative ) dPart = -dPart; String restPart = s.substring(i); return new Result(dPart, restPart); } } ``` и при вызове: ``` MatchParserPlusMinus pm = new MatchParserPlusMinus(); String f = "10-8+2+6"; try{ System.out.println( "PlusMinus: " + pm.Parse(f) ); }catch(Exception e){ System.err.println( "Error while parsing '"+f+"' with message: " + e.getMessage() ); } ``` Выведет нам: `PlusMinus: 10.0` В данном парсере мной было реализованы следующие функции (расширить этот список своими функциями можно добавив соответствующее условие в **processFunction** ): * sin * cos * tan Над обработкой ошибок я особо не заморачивался (что бы не засорять «полезный» код), а то в итоге кода по обработке ошибок может быть больше чем кода для самого парсера :) Вот полный листиннг класса без упрощения: ``` public class MatchParser { private HashMap variables; public MatchParser() { variables = new HashMap(); } public void setVariable(String variableName, Double variableValue) { variables.put(variableName, variableValue); } public Double getVariable(String variableName) { if (!variables.containsKey(variableName)) { System.err.println( "Error: Try get unexists variable '"+variableName+"'" ); return 0.0; } return variables.get(variableName); } public double Parse(String s) throws Exception { Result result = PlusMinus(s); if (!result.rest.isEmpty()) { System.err.println("Error: can't full parse"); System.err.println("rest: " + result.rest); } return result.acc; } private Result PlusMinus(String s) throws Exception { Result current = MulDiv(s); double acc = current.acc; while (current.rest.length() > 0) { if (!(current.rest.charAt(0) == '+' || current.rest.charAt(0) == '-')) break; char sign = current.rest.charAt(0); String next = current.rest.substring(1); current = MulDiv(next); if (sign == '+') { acc += current.acc; } else { acc -= current.acc; } } return new Result(acc, current.rest); } private Result Bracket(String s) throws Exception { char zeroChar = s.charAt(0); if (zeroChar == '(') { Result r = PlusMinus(s.substring(1)); if (!r.rest.isEmpty() && r.rest.charAt(0) == ')') { r.rest = r.rest.substring(1); } else { System.err.println("Error: not close bracket"); } return r; } return FunctionVariable(s); } private Result FunctionVariable(String s) throws Exception { String f = ""; int i = 0; // ищем название функции или переменной // имя обязательно должна начинаться с буквы while (i < s.length() && (Character.isLetter(s.charAt(i)) || ( Character.isDigit(s.charAt(i)) && i > 0 ) )) { f += s.charAt(i); i++; } if (!f.isEmpty()) { // если что-нибудь нашли if ( s.length() > i && s.charAt( i ) == '(') { // и следующий символ скобка значит - это функция Result r = Bracket(s.substring(f.length())); return processFunction(f, r); } else { // иначе - это переменная return new Result(getVariable(f), s.substring(f.length())); } } return Num(s); } private Result MulDiv(String s) throws Exception { Result current = Bracket(s); double acc = current.acc; while (true) { if (current.rest.length() == 0) { return current; } char sign = current.rest.charAt(0); if ((sign != '\*' && sign != '/')) return current; String next = current.rest.substring(1); Result right = Bracket(next); if (sign == '\*') { acc \*= right.acc; } else { acc /= right.acc; } current = new Result(acc, right.rest); } } private Result Num(String s) throws Exception { int i = 0; int dot\_cnt = 0; boolean negative = false; // число также может начинаться с минуса if( s.charAt(0) == '-' ){ negative = true; s = s.substring( 1 ); } // разрешаем только цифры и точку while (i < s.length() && (Character.isDigit(s.charAt(i)) || s.charAt(i) == '.')) { // но также проверям, что в числе может быть только одна точка! if (s.charAt(i) == '.' && ++dot\_cnt > 1) { throw new Exception("not valid number '" + s.substring(0, i + 1) + "'"); } i++; } if( i == 0 ){ // что-либо похожее на число мы не нашли throw new Exception( "can't get valid number in '" + s + "'" ); } double dPart = Double.parseDouble(s.substring(0, i)); if( negative ) dPart = -dPart; String restPart = s.substring(i); return new Result(dPart, restPart); } // Тут определяем все нашие функции, которыми мы можем пользоватся в формулах private Result processFunction(String func, Result r) { if (func.equals("sin")) { return new Result(Math.sin(Math.toRadians(r.acc)), r.rest); } else if (func.equals("cos")) { return new Result(Math.cos(Math.toRadians(r.acc)), r.rest); } else if (func.equals("tan")) { return new Result(Math.tan(Math.toRadians(r.acc)), r.rest); } else { System.err.println("function '" + func + "' is not defined"); } return r; } } ``` И при вызове: ``` String[] formulas = new String[] { "2+2*2", "2+X*2", "sin(90)+4-cos(0)", "2--4", "2**3*5-----7", "3.5.6-2" }; MatchParser p = new MatchParser(); p.setVariable("X", 2.0 ); for( int i = 0; i < formulas.length; i++){ try{ System.out.println( formulas[i] + "=" + p.Parse( formulas[i] ) ); }catch(Exception e){ System.err.println( "Error while parsing '"+formulas[i]+"' with message: " + e.getMessage() ); } } ``` Выведет: `2+2*2=6.0 2+X*2=6.0 sin(90)+4-cos(0)=4.0 2--4=6.0 Error while parsing '2**3*5-----7' with message: can't get valid number in '*3*5-----7' Error while parsing '3.5.6-2' with message: not valid number '3.5.'` Скачать весь проект можно [тут](http://narod.ru/disk/16776714001/MatchParserRun.zip.html) ( спасибо [flexoid](https://habrahabr.ru/users/flexoid/) за подсказку, куда можно сохранить архив) Спасибо за внимание!
https://habr.com/ru/post/122397/
null
ru
null
# Проект хранилища на MS SQL Server, интеграция с 1С 7.7 и автоматизация разработки в SSDT Время течет и скоро от этой разработки почти ничего не останется, а у меня все никак не находилось времени ее описать. ![](https://habrastorage.org/r/w1560/webt/fi/5s/if/fi5siftwc5fvceqqsjgxfnqubum.png) Речь пойдет о компании федерального уровня с большим числом филиалов и подфилиалов. Но, как обычно, все началось давным-давно с одного маленького магазина. С течением лет шло достаточно быстрое и стихийное развитие, появлялись филиалы, подразделения и прочие офисы, а ИТ-инфраструктуре не уделялось в те времена должного внимания, и это тоже частое явление. Конечно же, везде использовалась 1С77, без задела на какие-либо репликации и масштабирование, поэтому, сами понимаете, в конце пришли к тому, что был порожден спрут-франкенштейн с примотанными изолентой щупальцами — в каждом филиале автономный мутант, который с центральной базой обменивался в «наколеночном» режиме лишь несколькими справочниками, без которых ну вообще никак было нельзя, а остальное автономно. Какое-то время довольствовались копиями (десятки их!) филиальных баз в центральном офисе, но данные в них отставали на несколько дней. Реальность же требует получать информацию более оперативно и гибко, а еще надо что-то с этим делать. Пересесть с одной учетной системы на другую при таких масштабах — то еще болото. Поэтому было решено сделать хранилище данных (ДХ), в которое стекалась бы информация из разных баз, чтобы впоследствии из этого ХД могли получать данные другие сервисы и аналитическая система в виде кубов, SSRS отчетов и протча. Забегая вперед скажу, что переход на новую учетную систему почти уже случился и бОльшая часть проекта, описываемого здесь, будет выпилена в ближайшее время за ненадобностью. Жаль, конечно, но ничего не поделаешь. Далее следует длинная статья, но прежде чем начнете читать, позвольте заметить, что ни в коем случае не выдаю это решение за эталон, однако может кто-то найдет для себя в ней что-то полезное. Начну с общего подхода к проекту, для которого в качестве среды разработки был выбран SSDT, с последующей публикацией проекта в Git. Думаю, на сегодняшний день существует достаточно всевозможных статей и туториалов, описывающих сильные стороны этого инструмента. Но есть несколько моментов, проблема которых лежит за пределами данной среды. #### Хранение перечислений и версии БД Касаемо версий и перечислений требования к проекту подразумевали: * Удобство редактирования и отслеживания изменений версии БД внутри проекта * Удобство просмотра версии БД через SSMS для админов * Сохранение истории изменений версий в самой БД (кто и когда выполнял развертывание) * Хранение в проекте перечислений (enumerations) * Удобство редактирования и отслеживания изменений в перечислениях * Блокировка развертывания БД поверх существующей, если не было инкремента версии * Установка новой версии, запись истории, перечислений и реструктуризация должны выполняться в одной транзакции и полностью откатываться в случае неудачи на любом из этапов Т.к. перечисления часто хранят в себе логику и являются базовыми значениями, без которых добавление записей в другие таблицы становится невозможным (из-за внешних ключей FK), то по сути они являются частью структуры БД, наряду с метаданными. Поэтому изменение любого элемента перечисления ведет к инкременту версии БД и вместе с этой версией должны гарантированно обновиться записи при развертывании. Думаю, все плюсы блокировки развертывания без инкремента версии очевидны, одним из которых которых является невозможность повторного запуска скрипта публикации, если он уже был выполнен успешно ранее. Хотя в сети для баз данных часто предлагается использовать только мажорную версию (без дробей), мы решили использовать версии в формате X.Y, где Y — патч, когда была исправлена опечатка в описании таблицы, столбца, наименовании элемента перечисления или еще что-то мелкое, типа добавления комментария в хранимую процедуру и т.д. Во всех остальных случаях наращивается мажорная версия. Быть может, для кого-то в этом нет ничего *такого* и все очевидно. Но у меня, в свое время, ушло не мало нервов и сил на внутренние споры о том, как хранить перечисления в проекте базы данных, чтобы это было по феншую (*в соответствии с моим представлением о нём*) и чтобы удобно было работать с ними, одновременно минимизировав вероятность ошибок. С перечислениями, в целом, все просто — создаем в проекте файлик PostDeploy и пишем в нем код для заполнения таблиц. С мерджами или транкейтами — это кому как нравится. Мы предпочли мерджить, предварительно проверяя, не превышает ли число записей в целевой таблице то число записей, что находится в источнике (проекте). Если превышает, то вызывается исключение, чтобы обратить на это внимание, ибо странно. Почему в источнике меньше записей? Потому что одна лишняя? С чего вдруг? А если в БД уже есть ссылки на нее? Хоть у нас и используются внешние ключи (FK), которые не позволят удалить запись, если на нее есть ссылки, все же предпочли оставить такой вариант. В результате PostDeploy превратился в нечитаемую простыню, ибо для каждой заполняемой таблицы, помимо самих значений, есть еще и проверочный код, мердж и прочее. Однако если использовать PostDeploy в режиме SQLCMD, то появляется возможность вынести блоки кода в отдельные файлы, в результате для заполнения перечислений в PostDeploy остался только структурированный список имен файлов. С версиями БД есть нюансы. В интернетах давно ведутся споры по поводу того, где хранить версию базы данных, как она должна выглядеть, и вообще, нужно ли ее где-то хранить? Допустим, мы решили, что она нам нужна, в каком месте проекта ее хранить? Где-то в дебрях скрипта PostDeploy или вынести ее в переменную, которая объявлена в первой строке скрипта? На мой взгляд, — ни то, ни другое. Удобнее, когда она хранится в отдельном файле и больше там ничего нет. Кто-то скажет — в свойствах проекта есть же dacpac и в нем можно задать версию. Безусловно, можно даже подтягивать эту версию в свой скрипт, как описано [здесь](https://www.oraylis.de/blog/agile-bi-tools-database-versioning-with-ssdt-1), но это неудобно — чтобы изменить версию БД, нужно пойти куда-то далеко, нажать кучу кнопок. Не понимаю логику микрасофта — они спрятали это в далекий угол наряду с такими параметрами БД, как сортировка, уровень совместимости и прочее, ведь версия базы данных меняется так же «часто», как и параметры сортировки, правда? Когда идет постоянная разработка, версия наращивается с каждым новым деплоем, ну и удобство отслеживания изменений тоже играет немаловажную роль, ведь когда светится измененный файл с понятным именем — это одно, а когда светится файл проекта .sqlproj, в котором множество строк в XML-формате, и среди них где-то в центре строки выделена одна измененная циферка, то как-то не очень. ![](https://habrastorage.org/r/w1560/webt/bg/i3/48/bgi3485rgezdefuaami2weappqy.png) Так лучше ![](https://habrastorage.org/r/w1560/webt/ro/9y/ld/ro9yldaaeoqcmubpi42adq-so50.png) Впрочем, возможно, это только мои тараканы и не стоит обращать на них внимания. Теперь вопрос: где хранить эту версию уже в развернутой БД. Опять же, вроде бы dacpac делает это красиво — пишет всё в системные таблички, но чтобы посмотреть версию, нужно выполнить запрос (или можно иначе, а я просто не умею их готовить? кажется, в старых версиях SSMS был интерфейс для этого, а сейчас нет) ``` select * from msdb.dbo.sysdac_instances_internal ``` для администратора (и не только) это не очень удобно. Куда логичнее, чтобы версия отображалась бы прямо в свойствах самой БД. ![](https://habrastorage.org/r/w1560/webt/ed/ax/le/edaxle3ic1lfwvaeuhhhphmrulo.png) Или нет? Для этого в проект нужно добавить файл, включенный в построение, описывающий расширенные свойства ``` EXECUTE sp_addextendedproperty @name = N'DeployerName', @value = ''; GO EXECUTE sp_addextendedproperty @name = N'DeploymentDate', @value = ''; GO EXECUTE sp_addextendedproperty @name = N'DBVersion', @value = ''; ``` Да, они пустые, и это некрасиво смотрится в скрипте публикации, но без них нельзя. Если их не описать в проекте, а в БД они будут, то студия каждый раз при развертывании будет пытаться их удалить. (Было немало попыток обойти это лаконично и без лишних опций при развертывании, но безрезультатно) Значения для них будем устанавливать в скрипте PostDeploy. ``` declare @username varchar(256) = suser_sname() ,@curdatetime varchar(20) = format(getdate(),'dd.MM.yyyy HH:mm:ss') EXECUTE sp_updateextendedproperty @name = N'DeployerName', @value = @username; EXECUTE sp_updateextendedproperty @name = N'DBVersion', @value = [$(DBVersion)]; EXECUTE sp_updateextendedproperty @name = N'DeploymentDate', @value = @curdatetime; ``` Выполняем `sp_updateextendedproperty` без всяких проверок, потмоу что к моменту запуска блока из PostDeploy все свойства уже созданы, если их не было. Ну, и историю было бы неплохо хранить, на предмет кто и когда разворачивал БД. Развертывание изменений метаданных можно выполнять в транзакции штатными средствами, установив флажок **Включить скрипты транзакций** в окне **Дополнительные параметры публикации**. Но этот флажок не влияет на скрипты (Pre/Post)deploy и они продолжают выполняться без транзакции. Конечно, ничто не мешает в начале скрипта PostDeploy запустить транзакцию, однако это будет отдельная от метаданных транзакция, а у нас задача откатить изменения метаданных, если в PostDeploy произошло исключение. Решение простое — начать транзакцию в PreDeploy, а зафиксировать в PostDeploy, и не использовать для этих целей никаких галочек в параметрах публикации. Чтобы версию БД было удобно хранить в проекте и чтобы она прописывалась в желаемые места при развертывании, можно прибегнуть к переменным SQLCMD. Однако не хочется хранить версию где-то в дебрях кода, хочется чтобы она была на поверхности. ![](https://habrastorage.org/r/w1560/webt/yg/qm/o9/ygqmo9wf5pnwnyx7kfnumsflps8.png) Чтобы на уровне проекта поместить версию базы в отдельный файл и управлять версией оттуда, добавим в .sqlproj следующий блок: ``` ``` Это инструкция для MSBuild перед построением считать строку из файла и создать временный файл на основе считанных данных. MSBuild создаст временный файл `SetPreDepVarsTmp.sql`, в который пропишет строчку `:setvar DBVersion $(ExtDBVersion)`, где `$(ExtDBVersion)` — значение, считанное из нашего файла, хранящего версию БД. После таких манипуляций можно ссылаться на этот временный файл из скрипта PreDeploy и в нем же начнем глобальную транзакцию: ``` :r .\SetPreDepVarsTmp.sql go :r ".\BeginTransaction.sql" ``` **Промежуточная версия**Первоначально в файле ExtendedProperties.sql присваивались не пустые значения, а значения из переменных ``` EXECUTE sp_addextendedproperty @name = N'DeployerName', @value = [$(DeployerName)]; GO EXECUTE sp_addextendedproperty @name = N'DeploymentDate', @value = [$(DeploymentDate)]; GO EXECUTE sp_addextendedproperty @name = N'DBVersion', @value = [$(DBVersion)]; ``` Переменные, в свою очередь, прописывались в файле SetPreDepVarsTmp.sql автоматически MSBuild'ом вот так: ``` $([System.DateTime]::Now.ToString(dd.MM.yyyy HH:mm:ss)) -- ``` При таком подходе не нужно переустанавливать эти свойства в PostDeploy, но беда в том, что SetPreDepVarsTmp.sql содержал статические значения и если скрипт публикации был сгенерирован сейчас, а развернут через час, или, еще хуже, — на следующий день (разработчик его долго перепроверял визуально, например), то дата публикации, прописанная в свойства, будет отличаться от реальной даты публикации и не совпадать с датой в истории. **Содержимое файла BeginTransaction.sql**По сути это просто копипаста из стандартного блока запуска транзакции, который генерирует студия при установке флажка **Включить скрипты транзакций**, но мы используем его по-своему. В скрипте изменено только имя временной таблицы с `#tmpErrors` на `#tmpErrorsManual`, чтобы не было конфликта имен, если кто-то включит флажок. ``` IF (SELECT OBJECT_ID('tempdb..#tmpErrors')) IS NOT NULL DROP TABLE #tmpErrorsManual GO CREATE TABLE #tmpErrorsManual (Error int) GO SET XACT_ABORT ON GO SET TRANSACTION ISOLATION LEVEL READ COMMITTED GO BEGIN TRANSACTION GO ``` **Скрипт PostDeploy** ``` declare @TableName VarChar(255) = null -- переменная содержит имя таблицы назначения для перечислений if $(SkipEnumDeploy) = 0 begin PRINT N'Обновление перечислений...' :r ..\Перечисления\EnumTable1.sql end --обновим версию БД PRINT N'Установка версии БД...'; declare @username varchar(256) = suser_sname() , @curdatetime varchar(20) = format(getdate(),'dd.MM.yyyy HH:mm:ss') if $(DBVersion) > (select isnull( MAX( DBVersion),0) from zDBVersionHistory) begin insert into zDBVersionHistory( DBVersion, DeploymentDate, DeployerName) values ($(DBVersion),@curdatetime,@username) EXECUTE sp_updateextendedproperty @name = N'DeployerName', @value = @username; EXECUTE sp_updateextendedproperty @name = N'DBVersion', @value = [$(DBVersion)]; EXECUTE sp_updateextendedproperty @name = N'DeploymentDate', @value = @curdatetime; end else begin RaisError ( N'ОШИБКА: База данных назначения имеет такую же или более высокую версию, чем разворачиваемая. Если в проект были внесены изменения, то необходимо увеличить версию БД в файле DBVersion в соответствии с правилами и повторно выполнить генерацию скрипта развертывания.' , 16 , 1 ) WITH SETERROR; end GO :r ".\CaptureTransactionError.sql" :r ".\CommitTransaction.sql" ``` Переменная SkipEnumDeploy, как уже стало ясно, позволяет пропустить этап обновления перечислений, это бывает полезно, при мелких косметических правках. Хотя, с точки зрения религии, это может быть и неверно, однако на этапе разработки точно пригождается. Файлы `CaptureTransactionError.sql` и `CommitTransaction.sql` тоже копипасты (с небольшими правками) из стандартного алгоритма работы транзакции, который генерирует студия при установке вышеописанного флажка, и который мы теперь воспроизводим самостоятельно. **Содержимое CaptureTransactionError.sql** ``` IF @@ERROR <> 0 AND @@TRANCOUNT > 0 BEGIN ROLLBACK; END IF @@TRANCOUNT = 0 BEGIN INSERT INTO #tmpErrorsManual (Error) VALUES (1); BEGIN TRANSACTION; END ``` **Содержимое CommitTransaction.sql** ``` IF EXISTS (SELECT * FROM #tmpErrorsManual) ROLLBACK TRANSACTION GO DROP TABLE #tmpErrorsManual GO IF @@TRANCOUNT>0 BEGIN PRINT N'Транзакции обновления базы данных успешно завершены.' COMMIT TRANSACTION END ELSE RaisError ( N'Сбой транзакций обновления базы данных.' , 16 , 1 ); ``` **Содержимое EnumTable1.sql** ``` set @TableName = N'Table1' PRINT N'Обработка таблицы '+@TableName+'...' begin try set nocount on drop table if exists #tmpEnums; select * into #tmpEnums from (values ( 0, 'Значение 1') , ( 1, 'Значение 2') , ( 2, 'Значение 3') ) as tmp ( Id , Title ) set nocount off -- Сверка количества строк в источнике и таблице назначения If ((select count(*) from Table1) > (select count(*) from #tmpEnums)) begin RaisError ( N'ОШИБКА: Количество записей в целевой таблице больше, чем в источнике.' , 0 , 1 ) WITH SETERROR; end set Identity_insert Table1 on Merge Table1 as target Using ( select * from #tmpEnums except select * from dbo.Table1 ) as source on target.Id = source.Id when matched then update set target.Title = source.Title when not matched by target then insert ( Id , Title ) values ( source.Id , source.Title ); set Identity_insert Table1 off drop table if exists #tmpEnums; END TRY begin catch IF @@trancount > 0 ROLLBACK TRANSACTION set @Error_Message = Error_Message(); RaisError ( N'ОШИБКА: %s.' , 0 , 1 , @Error_Message ) WITH SETERROR; end catch :r "..\Скрипты\CaptureTransactionError.sql" ``` При развертывании `Publish` скрипт будет иметь следующую структуру ``` --блок PreDeploy ----:setvar DBVersion "10.6" --это уже вычисленная строчка, содержащая значение из файла DBVersion ----запуск глобальной транзакции --инструкции по корректировке метаданных БД, которые генерирует студия в соответствии с внесенными в проект изменениями --блок PostDeploy ----обновление перечислений ----установка версии БД ----фиксация глобальной транзакции ``` В идеале, конечно, хотелось бы, чтобы версия отображалась в момент публикации ![](https://habrastorage.org/r/w1560/webt/8a/9w/o2/8a9wo2o5lemfglm1ru1kt5yntdm.png) Но не получается подтянуть в это окно значение из файла, хотя MSBuild его считывает и помещает в свойство ExtDBVersion с помощью дополнительных инструкций в файле .sqlproj, как в примере выше, но конструкция ``` $(ExtDBVersion) ``` не прокатывает. Разработчики сиквела в своем [вэбдневничке](https://blogs.msdn.microsoft.com/gertd/2009/06/21/assigning-msbuild-properties-to-sqlcmd-variables/) пишут, как это делается. По их версии, магия заключается в инструкции `SqlCommandVariableOverride`, с которой все просто — добавляем в файл проекта .sqlproj пару строк ``` ``` и готово. Хорошая попытка, но нет. Быть может, когда была опубликована эта запись в блог, все работало, но с тех пор в этих ваших америках успели трижды пройти выборы президента и никто не знает, какая инструкция может перестать работать завтра. ![](https://habrastorage.org/r/w780q1/webt/xv/d9/li/xvd9liiwyjicnv5icr9d1utjnxs.jpeg) А [здесь](https://stackoverflow.com/questions/7955216/msbuild-and-sqlcmd-variables-in-data-tier-applications-postdeployment-sql) один товарищ перепробовал все варианты, но ни один из них не взлетел. Поэтому либо брать версию из dacpac, либо хранить ее в PostDeploy, либо в отдельном файле, либо \_\_\_\_\_\_\_\_\_ (вписать свой вариант). #### Интеграция с 1С Первая проблема заключалась в том, что у 1С77 нет никакого сервера приложений или другого дЕмона, позволяющего взаимодействовать с ней без запуска платформы. Кто работал с 1С77 -знает, что у нее нет полноценного консольного режима. Можно запустить платформу с параметрами и даже что-то выполнить на их основе, но консольных параметров очень мало и цель их была в другом. Но даже с их помощью можно наколхозить целый комбайн. Однако она может непредсказуемо вылететь, может вывести модальное окно и ждать, пока кто-то нажмет ОК и прочие прелести. И, пожалуй, самая большая проблема — скорость работы платформы оставляет желать… Поэтому решение тут только одно — прямые запросы в БД 1С. Учитывая структуру, нельзя просто так взять и написать эти запросы, но благо — есть целое сообщество, которое в свое время разработало прекрасный инструмент — 1C++ (1cpp.dll), невероятное им за это СПАСИБО! Библиотека позволяет писать запросы в терминах 1С, которые далее превращаются в реальные имена таблиц и полей. Если кто не знает, то запрос можно написать с использованием псевдоимен и выглядеть он будет так ``` select Артикул from $Справочник.Номенклатура ``` Такой запрос понятен человеку, но на сервере нет такой таблицы и поля, там другие имена, поэтому 1С++ превратит его в ``` select SP5278 from SC2235 ``` и такой запрос уже понятен серверу. Все довольны, никто не ругается — ни человек, ни сервер. Тут вроде бы вопрос решен. Вторая проблема лежала в плоскости конфигураций: в филиалах использовалась одна конфигурация, в центральном офисе другая, а в подфилиалах — третья! Класс?!!1 Я тоже так думаю. Причем все они не типовые и даже не наследие типовых, а полностью написанные с нуля во времена викингов и, к сожалению, фундамент этих конф закладывали не самые лучшие архитекторы… Документ Реализация, например, в каждой конфигурации имеет разный набор реквизитов. Но отличаются не только названия некоторых полей, куда веселее, когда названия реквизитов одинаковые, но смысл хранящихся в них данных — РАЗНЫЙ. ![](https://habrastorage.org/r/w780q1/webt/hs/jx/sv/hsjxsv_f7qy4xlgpwjiw7uir0ko.jpeg) В конфигурациях почти не используются регистры, всё построено на хитросплетениях документов. Поэтому иной раз приходилось писать целую простыню на чистом транзакте, с кучей кейсов и джойнов, чтобы повторить логику какой-то процедуры из конфигурации, выводящей в текстовое поле на форме некую информацию. Надо отдать должное команде разработчиков, которые все эти годы поддерживали то, что им досталось в наследство от «внедренцев», это огромный труд — поддерживать такое и даже что-то оптимизировать. Пока не увидишь — не поймешь, я сам сначала не верил, что все может быть настолько сложно. Спросите — почему бы не переписать с нуля? Банальная нехватка ресурсов. Компания развивалась так быстро, что, несмотря на большую команду программистов, они просто не успевали за потребностями бизнеса, не говоря уже о переписывании всей концепции. Продолжим повесть о запросах. Очевидно, что все блоки по извлечению данных оборачивались в хранимки, чтобы впоследствии их можно было запускать на стороне сервера минуя платформу 1С. Правило было такое: одна хранимка отвечает за извлечение одной сущности. Т.к. хотелок на этапе старта накопилось уже много, ибо наболело за годы, то хранимок получилось несколько десятков. Третья проблема — как повысить скорость и качество разработки, и как всё это чудовище потом поддерживать? Писать запрос на 1С++ и копипастить результат его конвертации в хранимку? Очень неудобно и нудно, к тому же велика вероятность ошибок — скопировать не то и не туда или не выделить последнюю строчку запроса и скопировать без нее. Это особенно актуально, когда речь идет о прямых запросах 1С, ведь там не видно псевдоимен типа *Справочник.Номенклатура.Артикул*, только реальные имена *SC2235.SP5278* и поэтому закопипастить запрос из под справочника товаров в хранимку, извлекающую клиентов, очень просто. Конечно, запрос, скорее всего, свалится, из-за несоответствия типов и количества полей в таблице-приемнике, но есть и идентичные таблички, типа перечислений, где только две колонки — ИД и Наименование. В общем, тут остается только применять какую-то автоматизацию. Ну, хватит лирики, давайте к делу! Хотелось, чтобы процесс разработки хранимок сводился к примерно таким действиям: 1. Исправляем SQL-запрос с псевдоименами и сохраняем его 2. Жмем **волшебную кнопочку** и получаем на выходе исправленную хранимую процедуру на преобразованном SQL, понятном серверу #### Немного деталей Для решения третьей проблемы была написана внешняя обработка (.ert). В обработке есть ряд процедур, каждая из которых содержит текст запроса для извлечения одной сущности с использованием псевдоимен, типа ``` select * from $Справочник.Номенклатура ``` На форме обработки есть поле для вывода результата работы той или иной процедуры, т.е. запроса, преобразованного в понятный для сервера вид, чтобы можно было его быстро испробовать в деле. Плюс к этому запросу всегда добавляется **отладочный блок**, с объявлением переменных, именами тестовых БД, серверов и прочее. Остается только скопипастить в SSMS и нажать F5. Можно, конечно, выполнить этот запрос и из самой обработки, но план запроса и все такое, ну вы поняли… В общем, так производится отладка. Т.к. конфигураций несколько, в обработке предусмотрена возможность конвертировать одни и те же тексты запросов с псевдоименами объектов в конечные запросы для разных конфигураций. Ведь в одной конфе справочник Номенклатура это SC123, а в другой — SC321. Но 1С++ позволяет в рантайме подгружать в себя разные конфы и для каждой из них генерировать индивидуальный вывод в соответствии со словарем. Далее в обработку был добавлен режим пакетного запуска, когда она автоматически запускает каждую из процедур для каждой конфигурации, а вывод каждой из них записывает в файлы .sql (далее базовые файлы). Таким образом мы получаем кучу комбинаций базовых файлов, которые впоследствии должны автоматически превратиться в хранимые процедуры средствами VS. Стоит отметить, что базовые файлы включают в себя и **блок отладки**. Казалось бы, почему не сделать вывод сразу в конечные файлы хранимых процедур и держать всё в этой обработке? Дело в том, что для некоторых тестов необходимо пакетно запускать именно отладочные версии запросов, в которых объявлены все переменные, плюс хотелось, чтобы именами хранимых процедур можно было управлять из VS, минуя запуск 1С, ведь это логично, не так ли? Кстати, базовые файлы тоже хранятся в проекте, ну, и файлы готовых хранимых процедур, конечно же. В любой момент, не запуская 1С, можно открыть базовый файл в SSMS и выполнить его, не заморачиваясь с объявлением переменных. В обработке все процедуры с запросами тоже шаблонные, имеющие одинаковый набор параметров, но в той или иной процедуре используются только необходимые параметры. В некоторых задействовано всё, а в некоторых достаточно и двух. Поэтому добавление новой процедуры сводится к копированию шаблона и заполнению параметров самими запросами. Код одной из процедур обработки, которая после превратится в хранимую процедуру ![](https://habrastorage.org/r/w1560/webt/ci/ev/sb/cievsb9urq5miainrvoqu9mkig0.png) Конечный запрос собирается примерно так: ``` ТекстЗапросаБезОбработки+ПредТекстЗапроса+"("+OPENQUERY(ТекстЗапроса)+")"+ ПостТекстЗапроса ``` Внешний вид обработки ![](https://habrastorage.org/r/w1560/webt/yv/n4/in/yvn4injz09-m8ljnqhbediqvmqy.png) При переключении конфигураций меняется и список доступных (необходимых) для выгрузки элементов в списке Данные. По возможности, код процедур в 1С максимально унифицировался. Если извлекаются контрагенты и в разных конфигурациях эти справочники имеют нестыковки, то внутри процедуры генерации есть разные кейсы, типа: этот блок фиксированный для всех, вот этот только для такой конфы добавляется в конечный запрос, а вон тот — для другой. Получается, что в хранимые процедуры для одной сущности но разных конфигураций могут отличаться не только именами таблиц, но целыми блоками джойнов, присутствующих в одной и отсутствующих в другой. Набор выходных полей, конечно же, одинаковый и соответствует таблице-приемнику или контейнеру SSIS пакета, какие-то поля забиваются заглушками для конфигураций, в которых этих реквизитов нет в принципе. **Волшебная кнопочка** В Visual Studio есть такие инструменты, как MSbuild и совершенно замечательные шаблоны T4. Поэтому в качестве волшебной кнопки был написан скрипт на C# для T4, который: 1. Регистрирует пустую конфигурацию в реестре (иначе 1С выведет модальное окно с предложением регистрации конфы и ждет действий пользователя) 2. Создает пустую базу данных для этой конфы на SQL сервере, ибо без нее 1С выдаст ошибку 3. Запускает 1С и через OLE говорит ей выполнить обработку (ту самую .ert), так же передавая в 1С уникальный GUID 4. На выходе получается ряд файлов с готовыми (переконвертированными) запросами и маркерный файл, в который пишется GUID, полученный при запуске 5. Удаляется из реестра регистрация конфы и удаляется временная пустая БД с сервера 6. Выполняется проверка содержимого маркерного файла. Если в маркерном файле лежит тот GUID, который мы передали в 1С при ее запуске, значит, она отработала до конца, не вылетела и т.д., тогда переходим к следующему шагу, либо выводим ошибку 7. Создаем хранимки. 8. Декомпилируем .ert файл с помощью gcomp, чтобы получить тексты модуля и формы обработки, ну, и в юникод преобразовываем, для последующей отправки в Git и корректного отображения там. Для тех, кто не работал с 1С: .ert файл — это бинарник и студия вместе с гитом трубят, что .ert файл изменен, но непонятно, что именно в нем изменилось, может просто кто-то кнопку сдвинул влево на один пиксель (что недопустимо без обоснования) Перед созданием хранимок скрипт T4 извлекает из базовых файлов тексты запросов регуляркой, чтобы исключить отладочные куски (ориентируется на специальную метку, обозначающую конец отладочного блока) и оборачивает в единый унифицированный шаблон хранимой процедуры. Во всех хранимках одинаковый набор параметров, но в той или иной процедуре используются только необходимые параметры. Список сопоставления имен базовых файлов и имен хранимых процедур, в которые они должны превратиться, выполнены в проекте в виде отдельного файла, чтобы было удобно с этим работать, не разыскивая в портянке кода нужную строчку и опять-таки — минуя запуск 1С. Также хотелось, чтобы разработчик, впервые присоединившийся к проекту, мог без проблем писать запросы и конвертировать их, не забивая себе голову необходимостью регистрации пустой конфигурации, развертывания пустой базы данных и прочих неприятных и нудных мелочей. Поэтому в проекте хранится всё — необходимые конфигурации 1С, скрипты для корректной работы 1С, сама обработка-конвертер и прочие файлы. В результате сценарий действий разработчика такой: Нужна новая хранимка или нужно исправить существующую? 1. Пишем в обработке новую процедуру/исправляем старую; 2. Добавляем в проекте VS строчку в настроечный файл сопоставлений, если была добавлена новая процедура; 3. Запускаем скрипт Т4; 4. ~~Профит.~~ Готово. **Хинт?**Т.к. базовые файлы выкладываются обработкой в определенную папку и проект о новых файлах ничего не знает, то чтобы они автоматически появлялись в проекте, нужно откорректировать файл .sqlproj, заменив ``` ``` На ``` ``` И забыть про такую операцию как «добавить новый базовый файл в проект». А то знаете, может случиться, что хранимка есть, а базового файла нет :) А еще храните все настройки, разрешения, списки учетных записей (сервисных, разумеется) и прочие мелочи в проекте. Не меняйте никакие настройки и наборы прав в базе напрямую (минуя проект), чтобы не приходилось после чистого деплоя бегать высунув язык, из-за того что где-то что-то перестало работать и не тратить массу времени, перепроверяя все ли клиентские приложения и прочие сервисы имеют нужный доступ и функционал. На выходе получаем измененный файл модуля и формы обработки, новый базовый файл и саму хранимку. Студия прекрасно подсвечивает все измененные строки. Много, конечно, ушло времени на все эти красоты, чтобы обработка не пересоздавала базовые файлы, если в коде обработки ничего не изменилось, а то они светились как измененные (потому что дата файла изменилась), но при построчном сравнении нет разницы. Кстати, в базовый файл (в ту его часть, которая впоследствии уйдет в хранимую процедуру) записывается комментарий, с информацией о дате и времени генерации файла, версии конфигурации, на основе которой он был создан и кто это выполнял. Поэтому в любой хранимой процедуре всегда можно увидеть кто генерировал код, находящийся в ней. Обработка, перед перезаписью существующего базового файла, сверяет его полезный текст с тем, который планируется в него записать, если отличий нет, то файл остается нетронутым (это все ради того, чтобы не было ложных подсвечиваний изменений при изменении конфигурации 1С, например, когда изменилась версия MD файла). Еще пришлось помучиться с текстами запросов, потому что они выполняются к удаленным серверам через *OPENQUERY*, а имена баз данных 1С в филиалах отличаются, как отличаются и имена серверов, поэтому текст запроса собирается динамически из строки, с подстановкой этих значений из параметров хранимки, помещается в переменную и запускается в конце через *EXEC*. *OPENQUERY* изначально заточен выполнять строку, поэтому уже получается строка в строке, кавычка в кавычке, экранирование и прочее. И 1С77 (в базовом исполнении) функционирует на SQL2000, а там varchar(max) не работает, максимум varchar(8000), а общий текст запроса 9к, например… Значит, надо определить уже две переменные и выполнить их в EXEC(@SQL1+@SQL2). Не смотря на то, что процедуры хранятся и выполняются на SQL2016, их части проверялись на SQL2000. Руками переменные определять не хотелось, хотелось минимизировать число ненужных телодвижений, чтобы все было автоматически. **В обработке текст запроса выглядит примерно так** ``` select ... from ( select ... from @1CDBName.dbo.$Документ.ххх join @1CDBName.dbo.$Справочник.ууу join ... where xxx = 'hello!' ^--на этой точке уже заканчивается лимит в 8к символов, значит, это слово целиком нужно перенести в следующую переменную, но анализировать слова и дополнительные экранирования сложно, проще переносить построчно. Если после добавления следующей строки запроса в переменную превышается лимит, то создается новая переменная и эта строка помещается уже в нее и т.д. ... join ... ) join ... ``` **А текст хранимки имеет следующий вид** ``` CREATE PROCEDURE [dbo].[SP1] @LinkedServerName varchar(24) ,@1CDBName varchar(24) AS BEGIN Declare @TSQL0 varchar(8000), @TSQL1 varchar(8000), @TSQL2 varchar(8000) set @TSQL0=' select ... from OPENQUERY('+@LinkedName+','' select ... from '+@1CDBName+'.dbo.DH123.ххх join '+@1CDBName+'.SC123.ууу ... where '; set @TSQL1=' xxx = ''''hello!'''' join ... join ... )'' join ... '''; set @TSQL2=' ... EXEC(@TSQL0+@TSQL1+@TSQL2) END ``` Как видно из кода — хранимая процедура не имеет форматирования. При создании базового файла всё форматирование (пробелы, табуляции) слева и справа, которые были в оригинале запроса с псевдоименами, удаляется, ведь серверу плевать на форматирование, а для экономии имеет прямой смысл, ибо переменных можно наплодить сколько угодно, а у OPENQUERY лимит 8к символов. .ert обработка определяет длину конечного запроса с учетом удаленного форматирования и вычисляет количество переменных, в которое все это должно разместиться и т.д. В общем, много крови выпила эта обработка. Вручную никаких изменений в сами хранимые процедуры никогда не вносится, только через исправление обработки. #### ETL Пожалуй, в этой части нет ничего особенного (на мой взгляд). Классическая схема с промежуточной БД (Stage). Можно лишь отметить, что ETL реализована с помощью SSIS пакетов, которые, в свою очередь, выполняют те самые хранимые процедуры, о которых говорилось в предыдущем разделе. Есть основной пакет и несколько дочерних. Для возможности многопоточного выполнения основной пакет параллельно запускает несколько экземпляров одного и того же дочернего пакета с разными параметрами (для разных филиалов), в результате удается получить данные от связанных серверов за максимально короткий период. Если в процессе получения данных один или несколько экземпляров дочернего пакета не смогли подключиться к удаленным серверам, то список таких серверов (с неудачной попыткой подключения) запоминается, а после того, как закончится выполнение всех потоков дочерних пакетов (т.е. через несколько минут), основной пакет вновь запускает потоки для серверов из списка с неудачной попыткой, пытаясь таки достучаться и ему это иногда удается. Если не удалось получить данные из одного или нескольких филиалов, то это не критическая ошибка, система будет функционировать и без них. Разумеется, пакет уведомляет о таких ситуациях. В нашем случае через zabbix. Все полученные данные сбрасываются в промежуточную БД из которой уже переливаются в основную. Т.к. в используемых конфигурациях 1С нет никаких механизмов регистрации изменений, а о событийной интеграции и вспоминать не стоит, приходится каждый раз перезапрашивать данные из всех баз за несколько последних месяцев. Чтобы не тратить время на удаление, используется секционирование таблиц, позволяющее выполнять `truncate` для секции. Разумеется, со временем главный пакет стал увеличиваться (обрастая дочерними пакетами) и в него добавились взаимодействия с веб-сервисами, различными «не 1С-ными» базами данных и прочими источниками. Поток управления одного из SSIS пакетов ![](https://habrastorage.org/r/w1560/webt/al/nl/u_/alnlu_3yriilaxfcwlhq_mcf_ce.png) Один из потоков данных пакета ![](https://habrastorage.org/r/w1560/webt/rh/eh/c8/rhehc8b9jtn6qf6polrfqjiduuk.png) #### Несколько советов, если позволите Для повышения скорости вставки данных в БД через SSIS используйте компонент потока данных [Назначение SQL Server](https://docs.microsoft.com/ru-ru/sql/integration-services/data-flow/sql-server-destination) (SQL Server Destination), он работает в разы быстрее, чем [Назначение OLE DB](https://docs.microsoft.com/ru-ru/sql/integration-services/data-flow/ole-db-destination) (OLE DB Destination). Для повышения скорости отката при сбоях, а вернее для отсутствия необходимости в нем, есть вариант с ротацией БД, когда рядом с основной БД создается копия и начинает пополняться без всяких транзакций. Если пополнение прошло успешно, то копия переименовывается в основную либо остается нетронутой, в случае ошибки. (Разумеется, если на сервере достаточно места) Никогда не исправляйте вручную данные в БД. Только скриптами и обязательно сохраняйте каждый из них с адекватным именем, датой и комментариями внутри, из которых должно быть понятно кто, когда и на каком основании это делал (ошибка/служебка и прочее). Делайте блокирующую проверку версии БД внутри таких скриптов и не допускайте выполнение в случае несоответствия версий в скрипте и в БД назначения. И еще бы я рекомендовал завести в БД специальную таблицу, в которой будет храниться история запусков таких скриптов (из предыдущего абзаца). Т.е. скрипт не только вносит изменения в данные, но и регистрирует факт своего запуска в журнале. Есть смысл не только регистрировать запуск, но и блокировать его повторный запуск в случае, если в журнале уже есть информация о предыдущем выполнении. А если по какой-то причине нужно выполнить тот же скрипт повторно — сделайте его копию и присвойте ему новую дату и номер. Это существенно облегчит жизнь и избавит от лишних претензий при разборе полетов. В качестве настроек по умолчанию для развертывания установите строки подключения и пути отличные от продуктивных путей и имен, чтобы для публикаций в продуктив нужно было целенаправленно (т.е. осознанно) выбрать конкретную настройку. Не ленитесь делать всевозможные защиты от дурака, они лишними никогда не бывают, какой бы высокой квалификацией и уровнем ответственности не обладали разработчики. #### P.S. Я не претендую на истину, каждый решает для себя сам, исходя из своего опыта и предпочтений, полезно ли все то, что было описано. Все примеры — это только примеры, сделанные на скорую руку. Статья писалась несколько месяцев с десятками подходов и большими интервалами из-за нехватки времени, поэтому могут быть некоторые нестыковки в тексте, уж не обижайтесь.
https://habr.com/ru/post/423205/
null
ru
null
# Как сделать много форм, не сделав ни одной Меня зовут Виталий Павленко, я фулстек-разработчик в Профи. Расскажу, как мы построили универсальный сервис по созданию форм в продукте. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9fa/0e7/3f7/9fa0e73f7c9f3d798f2c6a6b1713e66b.png)Мы постоянно имеем дело с формами: регистрация, заполнение анкеты, составление отзыва. Первое, что нам хочется сделать как разработчикам,— максимально выделить общие компоненты, чтобы как можно меньше дублировать код.  Допустим, мы можем сделать простые компоненты вроде инпутов или составные, типа окна с формой. Но всё равно бы пришлось постоянно собирать такие композиции во всех местах, не говоря уже о разном бэкенде для всех форм. На самом деле есть другое решение. И об этом моя статья. ### Что хотим получить Наша главная цель — ускорить внедрение форм в продуктовых командах и сократить количество написанного кода (и на фронтенде, и на бэкенде).  Ответственность распределяем так: **Фронтенд.** На фронтенде храним внешний вид элементов формы, т.е. дёргаем type элемента и рисуем как надо, бэкенд при этом ничего не знает о внешнем виде. Приложение просто получает список элементов, рисует, а потом отправляет введённые значения пользователей обратно на бэк. **Бэкенд.** На бэкенде формируем интерфейсы шагов и элементов для фронтенда. Бэкенд записывает введённое пользователем значение в базу данных. Если пользователь уже заполнял поле ранее, то бэкенд берёт значение из базы данных и отдаёт предзаполненное поле на фронт. **Данные.** В базе данных сервиса хранятся все формы, шаги формы, список элементов на текущем шаге, на каком шаге пользователь закончил заполнение и значения, которые он вписал. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/983/8d6/d82/9838d6d8233164a488091f44455ba3bf.png)Выше на схеме идеальная картинка, к которой мы стремимся. Сюда ещё можно добавить админку для составления таких форм. Как обычно, ответственность может переползать на соседние зоны: вместо базы данных формы могут собираться сразу на бэкенде, а с бэкенда отдавать некоторые стили в параметрах элементов на фронт. ### Как устроены наши формы Для примера возьмём форму регистрации психологов и попробуем выделить модули. В реальности форма немного сложнее, но нам этого хватит для понимания подхода. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/48d/bf5/1a3/48dbf51a324d7f208769b65106036c59.png)Какие элементы мы видим:  * `RadioGroup` (блок с радиокнопками), * `Text` (простой текст «Чтобы откликаться…»), * `Row` (обёртка, где несколько элементов подряд), * `Input` (поле ввода). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ba2/153/0c7/ba21530c71534f98f7eb02bf87dd754c.png)Эти элементы условно можно разделить на несколько категорий по предназначению: | | | | | --- | --- | --- | | **Категория** | **Элементы** | **Назначение** | | Статические элементы | `Text` | Отображают неизменяемую информацию, обычно дополняют изменяемые элементы | | Элементы разметки | `Row` | Формируют разметку, добавляют отступы | | Изменяемые элементы | `Input`, `RadioGroup` | Ждут действий от пользователя, валидируют полученную информацию, выводят ошибки | В каждой категории в реальности будет намного больше элементов. Например, статические могут быть более сложными, типа инфоблоков или медиа. Элементы разметки могут содержать другие элементы для формирования колонок. Про изменяемые вы и так знаете (чекбоксы, тумблеры, загрузка файлов, календарь). Ещё в форме есть заголовок и кнопки управления (*«Назад», «Вперёд», «Отправить»*). Но эти вещи нам не нужны для составления композиции, так как они плюс-минус статичные. Но мы будем получать их с бэкенда, чтобы максимально освободить фронтенд от бизнес-логики. ### Делаем красиво Начнём с фронтенда. На этом этапе нужно сверстать все кусочки нашей формы, чтобы в дальнейшем сделать из них любую композицию. Создаём универсальный компонент `Element`, который будет подхватывать нужный компонент, в зависимости от типа: ``` // Element.tsx import {FC} from 'react'; import {Text, Input, Row, RadioGroup} from '../elements'; import {ElementVariant, ElementType} from '../types'; export type ElementProps = { element: ElementVariant; }; export const Element: FC = ({element}) => { switch (element.type) { case ElementType.input: return ; case ElementType.text: return ; case ElementType.radioGroup: return ; case ElementType.row: return ; default: return null; } }; ``` Добавляем типы. Скажем, что у каждого элемента будут обязательны `id` и `type`, а дополнительные поля опциональны: ``` // types.ts export type ElementBase = { type: Type; id: string; } & ExtraProps; export enum ElementType { text = 'Text', input = 'Input', radioGroup = 'RadioGroup', row = 'Row', } export type ElementText = ElementBase< ElementType.text, { text: string; } >; export type ElementInput = ElementBase< ElementType.input, { value?: string; placeholder: string; } >; export type ElementRadioGroup = ElementBase< ElementType.radioGroup, { activeId?: string; items: { id: string; value: string; }[]; } >; export type ElementRow = ElementBase< ElementType.row, { element: ElementVariant; } >; export type ElementVariant = | ElementText | ElementInput | ElementRadioGroup | ElementRow; ``` Обратите внимание, что `ElementRow` содержит вложенный элемент, который будет вкладываться рекурсивно. Эта опция очень полезна для компонентов обёрток или более высокоуровневых компонентов, которые создают композиции особым образом. Теперь нужно сделать кнопки переключения шагов. ``` // ProfiForm.tsx // Навигация приходит с бэкенда примерно в таком виде: // navigations: [ // { // type: 'secondary', // text: 'Назад', // stepId: 'specialization', // }, // { // type: 'primary', // text: 'Продолжить', // stepId: 'experience', // }, // ], data.navigations.map(button => { return ( getData(button.stepId)} > {button.text} ); }); ``` Подразумевается, что по клику на кнопку навигации мы просто перезапрашиваем данные для текущей страницы с новым `id` шага. ### Управляем состоянием На этом этапе главная задача — собрать всё состояние на верхнем уровне формы. Конечно, можно сделать это через обычный реактовский контекст, но быстрее и удобнее взять [библиотеку react-use-form](https://react-hook-form.com/). Первым делом оборачиваем нашу форму в `FormProvider` и передаём в него методы из `useForm()`. Эта библиотека позволит эффективно работать с состоянием формы и устанавливать предзаполненные значения, полученные с бэкенда. ``` // ProfiForm.tsx import React, {useEffect, useState} from 'react'; import {useForm, FormProvider} from 'react-hook-form'; export const ProfiForm = () => { const form = useForm(); return ( {/\* здесь все элементы, навигация и т.д. \*/} ); }; ``` Теперь посмотрим на примере `Input`, как работать с заполненным значением. Главное, чтобы этот элемент находился внутри провайдера: ``` // Input.tsx import {FC} from 'react'; import {useFormContext} from 'react-hook-form'; import {ElementInput} from '../../types'; export const Input: FC = ({placeholder, value, id}) => { const {register} = useFormContext(); return ; }; ``` Состояние формы можно будет достать в любой момент. Например, если `id` нашего инпута будет выше `university` и написать в инпуте «Какой-то универ», то получим такое состояние: ``` // ProfiForm.tsx import React, {useEffect, useState} from 'react'; import {useForm, FormProvider} from 'react-hook-form'; export const ProfiForm = () => { const form = useForm(); console.log(form.getValues()); // { university: 'Какой-то универ', ... } return ( {/\* здесь все элементы, навигация и т.д. \*/} ); }; ``` А дальше понятно, что с этим делать 🙂. К примеру, отправлять на сервер текущее состояние в нужные моменты. При этом вы сами решаете, когда отправлять изменения на бэкенд: * каждый раз при вводе символа; * при расфокусе инпута; * после переключения на следующий шаг; * или ещё какие-то варианты. Мы решили сохранять изменения после переключения на следующий шаг. ### Идём в бэкенд Мы используем GraphQL на бэкенде, он хорошо подходит под такой тип задач, но сейчас не будем усложнять пример. Одна из основных задач сервиса — формировать нужную структуру данных, отдавая такой ответ на фронт: ``` const response = { title: 'Какое у вас высшее образование?', elements: [ { id: 'education-info-row', type: 'Row', element: { id: 'education-info', type: 'Text', text: 'Чтобы откликаться на заказы по психологии, нужно психологическое или медицинское высшее образование.', }, }, { id: 'university-row', type: 'Row', element: { id: 'university', type: 'Input', placeholder: 'Вуз', }, }, { id: 'speciality-row', type: 'Row', element: { id: 'speciality', type: 'Input', placeholder: 'Специальность', }, }, ], navigations: [ { type: 'secondary', text: 'Назад', stepId: 'specialization', }, { type: 'primary', text: 'Продолжить', stepId: 'experience', }, ], }; ``` Можно по-разному сформировать такой объект. Например, сделать базовый класс и классы для каждого элемента. Посмотрим на примере того же инпута: ``` // server side class BaseElement { constructor(id) { this.id = id; } setValue(value) { this.value = value; return this; } } class InputElement extends BaseElement { type = 'Input'; setPlaceholder(placeholder) { this.placeholder = placeholder; return this; } } ``` Тогда можно формировать предыдущий ответ так (*предварительно получив контент из базы данных или из другого сервиса*): ``` const response = { title: 'Какое у вас высшее образование?', elements: [ new RowElement('education-info-row').setElement( new TextElement('education-info').setText( 'Чтобы откликаться на заказы по психологии, нужно психологическое или медицинское высшее образование.', ), ), new RowElement('university-row').setElement( new InputElement('university').setPlaceholder('Вуз').setValue('МГУ'), ), new RowElement('speciality-row').setElement( new InputElement('speciality').setPlaceholder('Специальность'), ), ], navigations: [ { type: 'secondary', text: 'Назад', stepId: 'specialization', }, { type: 'primary', text: 'Продолжить', stepId: 'experience', }, ], } ``` Обратите внимание на `setValue()`: значение «МГУ» пойдёт как предзаполненное на фронтенд. Сюда можно подложить значение, предварительно получив его из базы данных (табличка `state` в примере). ### Используем сервис на фронтенде Теперь собираем всё вместе: ``` // ProfiForm.tsx import React, {useEffect, useState} from 'react'; import {useForm, FormProvider} from 'react-hook-form'; import {Form, Title, Elements, Button, Footer} from './styled'; import {ElementVariant} from './types'; import {Element} from './Element'; type Button = { type: 'secondary' | 'primary'; text: string; stepId: string; }; type FormData = { title: string; elements: ElementVariant[]; navigations?: Button[]; }; export const ProfiForm = () => { const [isLoading, setIsLoading] = useState(false); const [data, setData] = useState(null); const form = useForm(); const getData = (stepId: string | null) => { setIsLoading(true); fetch('/api/form', { method: 'POST', headers: { 'Content-Type': 'application/json', }, body: JSON.stringify({ stepId: stepId, values: form.getValues(), }), }) .then(response => response.json()) .then(data => setData(data)) .finally(() => setIsLoading(false)); }; useEffect(() => { getData(null); }, []); if (isLoading) { return Lading...; } if (!data) { return Нет данных; } return ( {data.title} {data.elements.map(element => ( ))} {data.navigations && ( {data.navigations.map((button, index) => { return ( getData(button.stepId)} > {button.text} ); })} )} ); }; ``` В итоге у нас получился универсальный компонент `ProfiForm`, который сам ходит в сервис и рисует любую форму по полученной структуре данных! Достаточно добавить новый параметр в эндпойнт (`formType`) и обрабатывать любые формы в любом месте приложения, просто вызвав компонент или . Главное, не забыть добавить этот пропс в эндпойнт сервиса. Ниже демка нашего примера. Или [вот проект на гитхабе](https://github.com/pavlenkovit/profi-forms), если хотите запустить демо локально. ![](https://habrastorage.org/getpro/habr/upload_files/92e/aa1/96c/92eaa196c7ce54ed2511e61dff7b793c.gif)Спасибо за внимание. Надеюсь, наш опыт будет полезен для вас!
https://habr.com/ru/post/681398/
null
ru
null
# Взаимные превращения JSON, YAML, XML JSON, YAML сейчас популярны, а XML технологии считаются пережитком прошлого. ![](https://habrastorage.org/r/w780q1/webt/5j/y1/iu/5jy1iumpoueja_audbs7tose_9a.jpeg) Попробуем использовать «ретро технологии» для работы с данными в формате JSON и YAML. И порассуждаем о причинах применять их в наши дни. Есть задача — логику трансформации данных вынести в конфигурацию приложения, желательно в декларативном стиле и унифицировано для разных форматов. Данные могут быть в различных текстовых форматах сериализации json, yaml, xml, java properties, ini file. Но при этом Data Lake слишком тяжелая артиллерия для этого. Помещать данные в документоориентированную или объектно-реляционную базу и пытаться выполнять запросы по загруженным туда данным тоже over engineering для первого этапа ETL трансформации. [JsonPath](http://goessner.net/articles/JsonPath/) повторяет подмножество XPath, но только к JSON формату. И написать декларативный запрос без программирования не выйдет — нет аналога XQuery. Как вариант — можно было бы использовать какую-либо embedded database в jvm с ее декларативным языком запросом, но это тема для отдельной публикации и исходная модель данных в json, yaml не реляционная. Подход к запросам данных из JSON/YAML ------------------------------------- XQuery можно выполнять над данными в Document Object Model. Как бы преобразовать данные из JSON/YAML в DOM объект… Можно воспользоваться [camel-xmljson](http://camel.apache.org/xmljson.html) или [json2xml](https://github.com/lukas-krecan/json2xml). В этих библиотеках источник данных только json. Поэтому помчим на своем [dom-transformation](https://github.com/igor-suhorukov/dom-transformation) велосипеде. Эта библиотека умеет принимать на вход Map и превращать его в org.w3c.dom.Node, а так же есть обратное преобразование. Осталось научиться превращать JSON и YAML в Map. Например, это можно сделать с помощью класса com.fasterxml.jackson.databind.ObjectMapper из [jackson](https://github.com/FasterXML/jackson). Превращаем JSON в Map: ``` ObjectMapper mapper = new ObjectMapper(); Map objectTree = mapper.readValue(yaml, new TypeReference>() {}); ``` Превращаем YAML в Map: ``` ObjectMapper mapper = new ObjectMapper(new YAMLFactory()); Map objectTree = mapper.readValue(yaml, new TypeReference>() {}); ``` Превращаем Map в Document Object Model, подключив к проекту [библиотеку](https://mvnrepository.com/artifact/com.github.igor-suhorukov/dom-transformation/1.2): ``` DomTransformer toDom = new DomTransformer(new TypeAutoDetect()).transform(objectTree.size() == 1 ? objectTree : Collections.singletonMap("root", objectTree)); Node document = toDom.translate(objectTree); ``` Можно использовать любую реализацию XQuery для выполнения запросов. Мне нравится [basex](http://basex.org) как до сих пор развивающийся open source проект. Подключаем к проекту зависимость [org.basex:basex:jar:9.0](https://mvnrepository.com/artifact/org.basex/basex/9.0) и выполняем декларативный запрос: ``` String yaml = IOUtils.toString(TranslateTest.class.getResource("/pipeline.yml").toURI(), StandardCharsets.UTF_8); ObjectMapper mapper = new ObjectMapper(new YAMLFactory()); Map objectGraph = mapper.readValue(yaml, new TypeReference>() {}); Node document = new DomTransformer(new TypeAutoDetect()).transform( objectGraph.size() == 1 ? objectGraph : Collections.singletonMap("root", objectGraph)); try(QueryProcessor proc = new QueryProcessor("declare variable $extDataset external; " + " $extDataset//\*[text()='git-repo']", new Context())) { proc.bind("extDataset", document); Value queryResult = proc.value(); // execute the query queryResult.iter().forEach(System.out::println); } ``` Результаты работы для данных из [pipeline.yml](https://github.com/spring-projects/spring-boot/blob/a938c372eaa7bc8d8d36ee448aeca5054b364226/ci/pipeline.yml) ![](https://habrastorage.org/r/w1560/webt/i4/dy/lv/i4dylvccuvhzjcobkbevj29x9cc.png) Если же нужно преобразовать DOM/XML в JSON/YAML с помощью jackson, то [transform(Node currentNode)](https://github.com/igor-suhorukov/dom-transformation/blob/master/src/main/java/com/github/igorsuhorukov/dom/transform/DomTransformer.java#L143) может помочь в этом. Выводы ------ С помощью XQuery можно выполнять запросы не только к XML данным. С чем этот язык запросов до сих пор успешно справляется и этот «старичок» еще поживет в java проектах по трансформации данных даже в форматах JSON и YAML. Конечно, слабоструктурированные данные это не только JSON, YAML и XML. И ставить точку в обработке всего на свете еще рано… ![](https://habrastorage.org/r/w1560/webt/7-/jc/8s/7-jc8szna_uo2udpxliv-wt4fpu.png) Надеюсь, что подход из публикации поможет вам выполнять в приложении декларативные запросы по разнородным данным. Или же вы сталкивались с подобной задачей в JVM и у вас есть идеи лучше, делитесь в комментариях! **26 апреля мы с коллегой проводим открытый java meetup в московском офисе. Будем рады гостям!**Вы сможете отдохнуть после рабочего дня, узнать что-то новое, подискутировать, перекусить пиццой и пообщаться с разработчиками. Встреча пройдёт 26 апреля 2018 19:00-21:00 в московском офисе «Aligh Technology» по адресу Варшавское ш., 9, стр. 4. Регистрация по ссылке: [Amazon Web Services и JVM для server side проектов.](https://align-technology.timepad.ru/event/698367/) В программе три доклада. Эмуляция Amazon web services в JVM процессе: ускоряем разработку, тестирование и экономим деньги. ------------------------------------------------------------------------------------------------- Спикер: [Игорь Сухоруков](https://github.com/igor-suhorukov) Как эффективно разрабатывать Big Data приложения на инфраструктуре Amazon Web Services‎. Постараемся чтобы локально разрабатывать решение было просто, а интеграционные тесты работали быстро и максимально дешево для нас. Помним об экономии, пока глава Amazon — Джефф Безос запускает ракеты в Blue Origin и гуляет с роботом SpotMini от Boston Dynamics. В докладе расскажу как получилось эмулировать S3 filesystem, Redshift data warehouse, SQS queues, PostgreSQL RDS service в JVM процессе на основе open source проектов. В рамках доклада также будет сравнение популярных Big Data решений для BI аналитики. Код для продакшена. ------------------- Спикер: [Юрий Геиниш](https://github.com/wilem82) Простые, но не очевидные советы для разработчиков по созданию устойчивых и диагностируемых серверных приложений. Доклад будет сфокусирован на основных принципах, поэтому может оказаться полезным разработчикам на разных языках программирования и платформах. Мельдоний для Groovy: витаем в «облаках» или погружаемся в «кровавый enterprise» -------------------------------------------------------------------------------- Спикер: [Игорь Сухоруков](https://github.com/igor-suhorukov) В «облаках» с Groovy на стероидах можно сделать больше и удобнее. Поговорим о динамической загрузке классов из maven артефактов и о том как удобно запускать скрипты в Amazon Web Services‎ и Docker контейнерах. Как выжить скриптам в изолированном корпоративном окружении. И конечно же похоливарим тему зачем нужен Groovy, когда есть Kotlin.
https://habr.com/ru/post/352810/
null
ru
null
# Способы бэкапирования Persistent Volumes в Kubernetes кластере с помощью Velero В данной статье рассмотрен процесс бэкапирования Kubernetes кластера с помощью Velero в общих чертах, а также освещены аспекты бэкапирования Persistent Volumes. В дальнейшем резервные копии могут быть использованы для миграции, восстановления кластера на определенную дату, а также клонирования стендов. О Velero -------- Velero – [программный продукт](https://velero.io/) с открытым исходным кодом, предназначенный для безопасного бэкапирования и восстановления после сбоев и миграции Ресурсов Kubernetes кластера и постоянных хранилищ (PV). Входит в пакет программных продуктов [Vmware-tanzu](https://github.com/vmware-tanzu) для production использования, предназначенных для упрощения и автоматизации задач по администрированию Kuberntetes кластера. Распростаняется под лицензией Apache License 2.0. Kubernetes – сложная и комплексная платформа, обладающая богатым функционалом по запуску и управлению контейнерными нагрузками, но в тоже время требущая значительных технических компетенций. Также часть задач администрирования кластера в нативном Kubernetes нуждается в автоматизации, в частности - бэкапирование. И в этом случае мы можем воспользоваться Velero. Всегда ли нужно бэкапирование? Думаю, нет. Возможно у вас реализован подход IaC и описание инфраструктуры хранится в Git, возможно настроено бэкапирование etcd. Эти способы подходят для определенных конфигураций, хотя можно привести некоторые недостатки. Но если нужно создать бэкап как манифестов так и Persistent Volumes, то приведенные подходы в чистом виде не подойдут, надо добавлять сторонний функционал. Как раз в этом случае наиболее удобно воспользоваться Velero и решить задачу в целом одним инструментом. Установка Velero и бэкапирование манифестов Kubernetes ------------------------------------------------------ Процесс установки и использования Velero достаточно прост, но следует иметь ввиду ряд нюансов: * Velero хранит копии манифестов в S3 Storage. Можно использовать облачный bucket, либо установить Minio; * Для бэкапирования Velero использует [плагины](https://velero.io/docs/v1.8/supported-providers/). Один для манифестов, другой для PV, либо общий для манифестов и PV; * Рассмотрев страницу плагинов можно обнаружить, что для вашего облака (или платформы) плагин не представлен. В этом случае для хранения манифестов в S3 (от облака или minio) нужно использовать AWS plugin. Что использовать для PV, будет рассмотрен ниже. После подготовки s3 бакета порядок развертывания Velero следующий: 1. Установка Velero клиента Velero состоит из серверного и клиентского компонентов. Серверный компонент – kubernetes operator, отслеживающий определенные CRDs и делающий операции backup/restore. Его можно установить через helm или через клиентский компонент. Также с помощью клиентского компонента можно создавать задачи backup/restore. Установим клиентский компонент на Linux (также есть для mac OS): ``` curl -L https://github.com/vmware-tanzu/velero/releases/download/v1.8.1/velero-v1.8.1-linux-amd64.tar.gz -o velero-v1.8.1-linux-amd64.tar.gz tar -zxvf velero-v1.8.1-linux-amd64.tar.gz sudo cp velero-v1.8.1-linux-amd64/velero /usr/local/bin/ velero version ``` 2. Подготовка конфигурации На текущем шаге создадим файл `credentials-velero` с учетными данными s3 бакета следующего содержания: ``` cat credentials-velero [default] aws_access_key_id = aws\_secret\_access\_key = ``` 3. Установка По умолчанию команда установки создает namespace velero и устанавливает туда необходимые ресурсы. Выполним установку: ``` velero install \ --provider aws \ --plugins velero/velero-plugin-for-aws:v1.4.1 \ --bucket velero \ --secret-file ./credentials-velero \ --use-volume-snapshots=false \ --backup-location-config region=s3ForcePathStyle="true",s3Url= ``` 4. Проверка Работспособность проверяется командой `kubectl logs deployment/velero -n velero.`В выоде должно быть строчки, свидетельствующие об установке связи с s3 хранилищем: ``` time="2022-05-25T13:47:57Z" level=info msg="Validating backup storage location" backup-storage-location=default controller=backup-storage-location logSource="pkg/controller/backup_storage_location_controller.go:114" time="2022-05-25T13:47:57Z" level=info msg="Backup storage location valid, marking as available" backup-storage-location=default controller=backup-storage-location logSource="pkg/controller/backup_storage_location_controller.go:121" ``` 5. Первый бэкап В velero можно сделать бэкап кластера целиком, неймспейса или ресурсов по лейблам. Сделаем бэкап неймспейса с помощью команды `velero backup create test-backup --include-namespaces test-namespace` Результат можно проверить командой `velero backup describe test-backup.` 6. Восстановление из бэкапа Для восстановления выполним команду `velero restore create --from-backup test-backup --namespace-mappings test-namespace:test-namespace-restore`. Соответственно будет создан namespace `test-namespace-restore` и в нем развернуты ресурсы. В итоге у нас получилось забэкапить/восстановить манифесты. Однако как же быть с данными в PV? Рассмотрим далее. Варианты бэкапирования PV ------------------------- Возможны следующие варианты: 1. Plugin для Cloud Provider; 2. Restic; 3. CSI-plugin для Kubernetes. Далее рассмотрим варианты подробней. Plugin для Cloud Provider ------------------------- Наверно, это самый удобный вариант. В этом случае плагин обращается к api Облака, с помощью которого делаются Снапшоты дисков. Это быстрая и экономичная процедура. Однако есть недостатки и ограничения: * Не полчится мигрировать между облаками/теннантами; * Возможно у вас используется тип хранилища, не поддерживающий снапшоты (диск типа NFS или Object Storage); * Для вашего облака или инсталляции нет плагина. Подробности установки можно посмотреть в документации соответствующего провайдера, [например](https://github.com/vmware-tanzu/velero-plugin-for-aws#setup). В общем случае в команде установки нужно указать следующие флаги: `--provider --plugins --use-volume-snapshots=true`. Бэкап/ресторе делается командами из прошлого раздела. Restic ------ [Restic](https://restic.net/) является отдельным программным продуктом, предназначенным для бэкапирования на уровне файловой системы. В этом случае производится бэкапирование файловой структуры PV на S3 бакет, указанный для манифестов. [Документация Velero](https://velero.io/docs/v1.8/restic/). Очевидное приемущество – универсальность. Подходит для миграции внутри облака, между облаками, в baremetal инсталляциях. Недостатки – требуется дополнительное место, относительно низкая скорость. Вначале создается полный бэкап, далее – инкрементные. Для установки достаточно добавить флаг `–use-restic`(`-use-volume-snapshots=false` остается). У restic есть две стратегии бэкапа: бэкапить все volumes по-умолчанию или бэкапить только указанные. Рассмотрим вторую стратегию (она используется по умолчанию). Для того, чтобы Volume пода попал в бэкап у пода должна быть следующая аннотация:`kubectl -n test-namespaces annotate pod/nginx backup.velero.io/backup-volumes=pvc-volume` После того как аннотации поставлены на все нужные volumes, можно делать бэкап обычной командой. CSI-Snapshort plugin -------------------- Для настройки этого способа должны быть выполнены следующие условия: 1. В kubernetes имеется нативный механизм создания PV snapshots через CSI. Ваш csi driver должен поддерживать этот механизм; 2. Должны быть созданы ресурсы `StorageClass` и `SnapshotStorageClass`. При этом `provisioner` в `storageClass` должен совпадать с `driver` в `SnapshotStorageClass`. Если это условие не выполняется, то вы получите следующую ошибку при бэкапировании: ``` rpc error: code = Unknown desc = failed to get volumesnapshotclass for storageclass : failed to get volumesnapshotclass for provisioner ..Ю ``` 3. У нужного SnapshotStorageClass должен быть установлен label: `velero.io/csi-volumesnapshot-class: "true"`; 4. PV для бэкапирования должны быть созданы через PVC с указанным storageClass. Если вы создадите PV вручную и укажите PVC через claimRef, то получите следующую ошибку в логах: ``` rpc error: code = Unknown desc = Cannot snapshot PVC nginx-example/example-pvc, PVC has no storage class ``` Бэкап/ресторе делается обычной командой. При установке Velero должны быть указаны следующие флаги: `--features=EnableCSI --plugins velero/velero-plugin-for-aws:v1.4.1,velero/velero-plugin-for-csi:v0.2.0 --use-volume-snapshots=false` Хотелось бы отметить, что механизм интересный, но все еще находится в beta стадии. Также специфическая логика реализации (совпадение provisioner в StorageClass c driver в snapshotStorageClass) накладывает ряд ограничений. Заключение ---------- В заключении хотелось бы отметить ряд моментов: * На мой взгляд Velero – достаточно развитый и зрелый программный продукт для бэкапирования, который можно использовать в production среде. Активно разрабатывается и поддерживается сообществом; * Velero является достаточно удобрым для использования: простая процедура установки, бэкапирования/восстановления, информативные логи; * Бэкапирование PV хорошо реализовано через плагины для популярных облачных платформ – AWS, Azure, GCP; * Если для вашего облака нет плагина, то следует использовать либо Restic, либо CSI-snapshot. Поддержки CSI-snapshot в вашей инсталляции kubernetes может не быть, также она может оказаться несовместимой с логикой csi-plugin Velero.
https://habr.com/ru/post/671706/
null
ru
null
# Что такое шаблоны проектирования? Вы когда-либо задавались вопросом, что такое шаблоны проектирования? В этой статье будет разъяснено, почему шаблоны проектирования имеют существенное значение, и будет приведено несколько примеров на PHP, поясняющих, когда и где их следует использовать. Шаблоны проектирования — это допускающие многократное использование оптимизированные решения проблем программирования, с которыми мы сталкиваемся каждый день. Шаблон проектирования — это не класс или библиотека, которые мы можем просто вставить в нашу систему. Он — много больше. Это — некоторый шаблон, который должен быть реализован в надлежащей ситуации. Он не зависит от языка. Хороший шаблон проектирования должен быть таким, чтобы его можно было использовать с большинством языков (если не со всеми) в зависимости от характеристик языка. Чрезвычайно важно то, что любой шаблон проектирования необходимо использовать очень осторожно — если он применён в ненадлежащем месте, то его действие может быть разрушительным и породить много проблем для вас. Однако применённый в нужном месте в нужное время он может стать вашим спасителем. Есть три основных типа шаблонов проектирования: **• структурный • порождающий • поведенческий** **Структурные** шаблоны, в общем случае, имеют дело с отношениями между объектами, облегчая их совместную работу. **Порождающие** шаблоны обеспечивают механизмы инстанцирования, облегчая создание объектов способом, который наиболее соответствует ситуации. **Поведенческие** шаблоны используются в коммуникации между объектами, делая её более лёгкой и гибкой. Почему их следует использовать? =============================== Шаблоны проектирования в принципе являются хорошо продуманными решениями проблем программирования. Многие программисты уже сталкивались ранее с этими проблемами и использовали для преодоления эти «решения». Встречая какую-то проблему, зачем заново искать решение, когда можно применить уже проверенное? Пример ====== Давайте представим, что вам поручено создать способ объединить два класса, которые выполняют два разных действия в зависимости от ситуации. Эти два класса интенсивно используются существующей системой в разных местах, что затрудняет их удаление и изменение существующего кода. Дополнительно к этому изменение существующего кода требует проверки всего изменённого кода, т.к. правка такого рода в системе, построенной на разных компонентах, почти всегда вносит новые ошибки. Вместо перечисленного можно использовать вариант шаблона «Стратегия» и шаблона «Адаптер», которые могут легко обращаться с названными типами сценариев. ``` 01 php 02 class StrategyAndAdapterExampleClass { 03 private $_class_one; 04 private $_class_two; 05 private $_context; 06 07 public function __construct( $context ) { 08 $this-_context = $context; 09 } 10 11 public function operation1() { 12 if( $this->_context == "context_for_class_one" ) { 13 $this->_class_one->operation1_in_class_one_context(); 14 } else ( $this->_context == "context_for_class_two" ) { 15 $this->_class_two->operation1_in_class_two_context(); 16 } 17 } 18 } ``` Довольно просто, не так ли? Теперь посмотрим внимательнее на шаблон «Стратегия». Шаблон «Стратегия» ================== ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/5f8/f04/3a6/5f8f043a66676b1d3db5e1bd992ba30f.jpg) *Изображение размещено с разрешения владельцев сайта [cioinnervoice.wordpress.com](http://cioinnervoice.wordpress.com)* ***Шаблон «Стратегия»** является поведенческим шаблоном проектирования, который позволяет вам решать, какой план действий должна принять программа, основываясь на определённом контексте при выполнении. Вы закладываете два различных алгоритма внутри двух классов и решаете в ходе выполнения, с какой стратегией следует работать.* В нашем примере выше стратегия устанавливается в зависимости от того, какой была переменная **$context** в то время, когда класс подвергался обработке. Если вы даёте ей контекст для **класса\_один**, то будет использован класс\_один и наоборот. Замечательно, но где я могу использовать это? ============================================= ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1d5/396/88f/1d539688f879176fd1166100c30231e3.jpg) Предположим, что вы в данный момент разрабатываете класс, который может или обновить или создать новую пользовательскую запись. Хотя ему требуются те же самые входы (имя, адрес, номер мобильного телефона и т.п.), но в зависимости от ситуации он должен использовать различные функции при обновлении и создании. Здесь для выполнения можно, вероятно, сразу же использовать условный переход «if-else», но как быть, если этот класс понадобится и в другом месте? Тогда нужно будет переписать полностью весь этот оператор условного перехода. Не было бы проще просто указать ваш контекст? ``` 01 php 02 class User { 03 04 public function CreateOrUpdate($name, $address, $mobile, $userid = null) 05 { 06 if( is_null($userid) ) { 07 // Это значит, что пользователь ещё не существует, надо создать новую запись 08 } else { 09 // Это значит, что пользователь уже существует, необходимо обновить на базе данного идентификатора пользователя 10 } 11 } 12 } </code ``` Теперь «обычный» шаблон «Стратегия» предполагает помещение ваших алгоритмов внутри другого класса, но в данном случае другой класс был бы нерациональным решением. Помните, что вы не обязаны точно следовать шаблону. Варианты работают, пока концепция остаётся прежней, и это решает проблему. Шаблон «Адаптер» ================ ![](https://s3.amazonaws.com/nettuts/733_design/images/adapterintro.jpg) Изображение размещено с разрешения владельцев сайта [www.uxcell.com](http://www.uxcell.com) ***Шаблон «Адаптер»** является структурным шаблоном проектирования, который позволяет перепрофилировать класс с другим интерфейсом, делая его доступным для системы, которая использует различные методы вызова.* Это также позволяет изменять некоторые из входов, получаемых от класса клиента, превращая его в нечто совместимое с функциями класса Adaptee. Как можно использовать это? =========================== ![](https://s3.amazonaws.com/nettuts/733_design/images/adapter.jpg) Другим понятием для ссылки на класс адаптера является **«обёртка»**, которая по существу позволяет «обернуть» действия в класс и повторно использовать эти действия в надлежащих ситуациях. Классическим примером может быть создание доменного класса для классов таблиц. Вместо вызова различных классов таблиц и последовательного вызова их функций можно вложить все эти методы в один, используя класс адаптера. Это не только позволяет вам повторно использовать любые требуемые действия, но также избавляет от необходимости переписывать код, если вам нужно использовать то же действие в другом месте. Сравните эти две реализации: **Подход без адаптера** ``` 1 php 2 $user = new User(); 3 $user-CreateOrUpdate( //inputs ); 4 5 $profile = new Profile(); 6 $profile->CreateOrUpdate( //inputs ); ``` Если бы нам нужно было сделать это снова в другом месте или даже использовать этот код в другом проекте, то мы должны были бы набрать всё заново. **Лучше** Указанное противоположно действиям вроде приведённых ниже: ``` 1 php 2 $account_domain = new Account(); 3 $account_domain-NewAccount( //inputs ); ``` В данной ситуации мы имеем обёрточный класс, который был бы нашим доменным классом Account: ``` 01 php 02 class Account() 03 { 04 public function NewAccount( //inputs ) 05 { 06 $user = new User(); 07 $user-CreateOrUpdate( //subset of inputs ); 08 09 $profile = new Profile(); 10 $profile->CreateOrUpdate( //subset of inputs ); 11 } 12 } ``` Таким образом, можно использовать домен Account снова везде, где требуется, — дополнительно вы оказываетесь в состоянии обёртывать другие классы также под вашим доменным классом. Шаблон «Фабричный метод» ======================== ![](https://s3.amazonaws.com/nettuts/733_design/images/factoryintro.jpg) *Изображение размещено с разрешения владельцев сайта [www.lankanewspappers.com](http://www.lankanewspappers.com)* ***Шаблон «Фабричный метод»** является порождающим шаблоном проектирования, который делает именно то, что означает это слово: этот класс действует как фабрика экземпляров объектов.* Основной целью этого шаблона является вложение порождающей процедуры, которая может свести различные классы в одну функцию. Если фабричному методу обеспечить надлежащий контекст, то он будет в состоянии вернуть правильный объект. Когда можно использовать это? ============================= ![](https://s3.amazonaws.com/nettuts/733_design/images/factory.jpg) Наилучшей ситуацией для использования шаблона «Фабричный метод» является наличие нескольких различных вариантов одного объекта. Допустим, имеется класс «кнопка»; у этого класса есть различные варианты — например, ImageButton (кнопка изображения), InputButton (кнопка ввода) и FlashButton (флэш-кнопка). В зависимости от места может потребоваться создать различные кнопки — именно здесь можно использовать «фабрику» для создания кнопок для вас! Начнём с создания наших трёх классов: ``` 01 php 02 abstract class Button { 03 protected $_html; 04 05 public function getHtml() 06 { 07 return $this-_html; 08 } 09 } 10 11 class ImageButton extends Button { 12 protected $_html = "..."; //Здесь должен быть задан HTML, требуемый для вашей кнопки на базе изображения 13 } 14 15 class InputButton extends Button { 16 protected $_html = "..."; //Здесь должен быть задан HTML, требуемый для вашей нормальной кнопки (); 17 } 18 19 class FlashButton extends Button { 20 protected $_html = "..."; //Здесь должен быть задан HTML, требуемый для вашей флэш-кнопки 21 } ``` Теперь можно создать наш фабричный класс: ``` 01 php 02 class ButtonFactory 03 { 04 public static function createButton($type) 05 { 06 $baseClass = 'Button'; 07 $targetClass = ucfirst($type).$baseClass; 08 09 if (class_exists($targetClass) && is_subclass_of($targetClass, $baseClass)) { 10 return new $targetClass; 11 } else { 12 throw new Exception("The button type '$type' is not recognized."); 13 } 14 } 15 }</code ``` Полученный код можно использовать, например, так: ``` 1 $buttons = array('image','input','flash'); 2 foreach($buttons as $b) { 3 echo ButtonFactory::createButton($b)->getHtml() 4 } ``` Выходом должен быть HTML всех ваших типов кнопок. Таким образом, вы могли бы указать, какую кнопку создать в зависимости от ситуации, а также повторно использовать условие. Шаблон «Декоратор» ================== ![](https://s3.amazonaws.com/nettuts/733_design/images/decoratorintro.jpg) *Изображение размещено с разрешения владельцев сайта [www.decoratorsdarlington.co.uk](http://www.decoratorsdarlington.co.uk)* ***Шаблон «Декоратор»** является структурным шаблоном проектирования, который позволяет нам добавлять новое или дополнительное поведение к объекту в ходе выполнения в зависимости от ситуации.* Целью является сделать так, чтобы расширенные функции могли быть применены к одному конкретному экземпляру и в то же время иметь возможность создать оригинальный экземпляр, который не имеет этих новых функций. Это также позволяет комбинировать несколько декораторов для одного экземпляра, благодаря чему отсутствует привязка к одному декоратору для каждого экземпляра. Этот шаблон является альтернативой созданию подкласса, что относится к созданию класса, который наследует функциональность от родительского класса. В противоположность к созданию подкласса, которое добавляет поведение во время компиляции, «декорирование» позволяет добавить новое поведение в ходе выполнения, если ситуация требует этого. Чтобы реализовать шаблон «Декоратор», можно выполнить следующие шаги: 1. Выделите оригинальный класс «Компонент» как подкласс класса «Декоратор». 2. В классе «Декоратор» добавьте указатель «Компонент» как поле. 3. Переместите «Компонент» в конструктор «Декоратора», чтобы инициализировать указатель «Компонент». 4. В классе «Декоратор» перенаправьте все методы «Компонент» на указатель «Компонент». 5. В классе «Декоратор» отмените любой метод (любые методы) «Компонент», поведение которого (которых) должно быть модифицировано. *Данные этапы размещены с разрешения владельцев сайта [en.wikipedia.org/wiki/Decorator\_pattern](http://en.wikipedia.org/wiki/Decorator_pattern)* Когда можно использовать это? ============================= ![](https://s3.amazonaws.com/nettuts/733_design/images/decorator.jpg) Наиболее удобно использовать шаблон «Декоратор» для объекта, требующего нового поведения, только когда на это имеется запрос по ситуации. Допустим, имеется HTML-элемент компоновки, ссылка на выход из системы, и вы желаете, чтобы она делала немного различающиеся действия, основываясь на текущей странице. Для этого можно использовать шаблон «Декоратор». Сначала зададим различные требуемые «декорации»: • Если мы находимся на главной странице и зарегистрированы, то эта ссылка должна быть «обёрнута» в теги h2. • Если мы находимся на другой странице и зарегистрированы, то эта ссылка должна быть «обёрнута» в теги подчёркивания. • Если мы зарегистрированы, то эта ссылка должна быть «обёрнута» в теги полужирного шрифта. После задания наших «декораций» можно их запрограммировать: ``` 01 php 02 class HtmlLinks { 03 //Некоторые способы, имеющиеся для всех html-ссылок 04 } 05 06 class LogoutLink extends HtmlLinks { 07 protected $_html; 08 09 public function __construct() { 10 $this-_html = "[Logout](\"logout.php\")"; 11 } 12 13 public function setHtml($html) 14 { 15 $this->_html = $html; 16 } 17 18 public function render() 19 { 20 echo $this->_html; 21 } 22 } 23 24 class LogoutLinkH2Decorator extends HtmlLinks { 25 protected $_logout_link; 26 27 public function __construct( $logout_link ) 28 { 29 $this->_logout_link = $logout_link; 30 $this->setHtml("" . $this->\_html . " --------------------- "); 31 } 32 33 public function __call( $name, $args ) 34 { 35 $this->_logout_link->$name($args[0]); 36 } 37 } 38 39 class LogoutLinkUnderlineDecorator extends HtmlLinks { 40 protected $_logout_link; 41 42 public function __construct( $logout_link ) 43 { 44 $this->_logout_link = $logout_link; 45 $this->setHtml("" . $this->\_html . ""); 46 } 47 48 public function __call( $name, $args ) 49 { 50 $this->_logout_link->$name($args[0]); 51 } 52 } 53 54 class LogoutLinkStrongDecorator extends HtmlLinks { 55 protected $_logout_link; 56 57 public function __construct( $logout_link ) 58 { 59 $this->_logout_link = $logout_link; 60 $this->setHtml("**" . $this->\_html . "**"); 61 } 62 63 public function __call( $name, $args ) 64 { 65 $this->_logout_link->$name($args[0]); 66 } 67 } ``` Затем мы должны быть в состоянии использовать это, например, следующим образом: ``` 01 $logout_link = new LogoutLink(); 02 03 if( $is_logged_in ) { 04 $logout_link = new LogoutLinkStrongDecorator($logout_link); 05 } 06 07 if( $in_home_page ) { 08 $logout_link = new LogoutLinkH2Decorator($logout_link); 09 } else { 10 $logout_link = new LogoutLinkUnderlineDecorator($logout_link); 11 } 12 $logout_link->render(); ``` Здесь можно видеть, как мы оказываемся в состоянии скомбинировать несколько декораторов, если это требуется. Поскольку все декораторы используют магическую функцию **\_\_call**, то мы можем всё ещё вызвать методы оригинальной функции. Если принять, что мы в настоящий момент находимся внутри главной страницы и зарегистрированы, то HTML-выход должен быть следующим: ``` 1 **[Logout](logout.php) --------------------** ``` Шаблон «Одиночка» ================= ![](https://s3.amazonaws.com/nettuts/733_design/images/singletonintro.jpg) *Изображение размещено с разрешения владельцев сайта [intoxicologist.wordpress.com](http://intoxicologist.wordpress.com)* *Шаблон проектирования **«Одиночка»** является порождающим шаблоном проектирования, который обеспечивает наличие одного единственного экземпляра какого-то конкретного класса во время выполнения и глобальную точку доступа к этому единственному экземпляру.* Это облегчает задание точки «координации» для других объектов, также использующих данный единственный экземпляр, поскольку его переменные будут неизменными для любых вызовов. Когда можно использовать это? ============================= ![](https://s3.amazonaws.com/nettuts/733_design/images/singleton.jpg) Если требуется перевести какой-либо специфический экземпляр из одного класса в другой, то можно использовать шаблон «Одиночка», чтобы устранить проведение этого экземпляра через конструктор или аргумент. Предположим, вы создали класс Session, который имитирует глобальный массив $\_SESSION. Поскольку для этого класса его экземпляр требуется создать только один раз, то можно реализовать шаблон «Одиночка», как, например: ``` 01 php 02 class Session 03 { 04 private static $instance; 05 06 public static function getInstance() 07 { 08 if( is_null(self::$instance) ) { 09 self::$instance = new self(); 10 } 11 return self::$instance; 12 } 13 14 private function __construct() { } 15 16 private function __clone() { } 17 18 // Мы можем использовать любые другие способы сеанса 19 ... 20 ... 21 ... 22 } 23 24 // Получить экземпляр сеанса 25 $session = Session::getInstance(); </code ``` Сделав так, мы можем получать доступ к нашему экземпляру сеанса из различных частей нашего кода, даже в разных классах. Эти данные будут сохраняться в течение всех вызовов getInstance. Заключение ---------- Имеется ещё много шаблонов проектирования, которые полезно знать; в этой статье я остановился только на некоторых из наиболее известных, которые я использую при программировании. Если есть интерес прочитать о других шаблонах проектирования, то страница Википедии [Design Patterns](http://en.wikipedia.org/wiki/Design_pattern_%28computer_science%29) (Шаблоны проектирования) содержит много информации об этом. Если этого недостаточно, то вы всегда можете прочитать книгу [«Design Patterns: Elements of Reusable Object-Oriented Software»](http://www.amazon.com/o/asin/0201633612) («Шаблоны проектирования: элементы многократно используемого объектно-ориентированного программного обеспечения»), которая считается одной из лучших по рассматриваемой теме. И последнее: используя эти шаблоны проектирования, всегда проверяйте, что вы пытаетесь решить правильно поставленную задачу. Как я упоминал ранее, эти шаблоны проектирования необходимо использовать очень осторожно: они — при использовании в ненадлежащем контексте — могут ухудшить ситуацию, но при правильном использовании они просто жизненно необходимы. Если вы нашли данную статью полезной, то почему бы не ознакомиться с предложением [PHP-скриптов](http://codecanyon.net/category/php-scripts) на Envato Market. Там представлены тысячи полезных скриптов, которые могут ускорить вашу разработку и улучшить конечный результат. Имеются [системы бронирования](http://codecanyon.net/item/booking-system/87919), [контактные формы AJAX](http://codecanyon.net/item/ajax-contact-form/50846), [системы информационных бюллетеней](http://codecanyon.net/item/newsletter-system/52667) и многое другое.
https://habr.com/ru/post/307942/
null
ru
null
# Как строить, развертывать и тестировать Waves RIDE dApp *Здравствуйте! В статье я покажу, как написать и запустить на ноде Waves обычный dApp. Рассмотрим необходимые инструменты, методы и пример разработки.* ![](https://habrastorage.org/r/w1560/webt/ct/ez/2o/ctez2oksuspqfa_irunreiyiqt8.png) *Схема разработки dApps и обычных приложений почти не отличается: * Пишем код * Пишем автоматизированное тестирование * Запускаем приложение * Тестируем* ### Инструменты 1. `docker` для запуска ноды и Waves Explorer Если не хотите запускать ноду, можете пропустить этот шаг. Ведь есть тестовая и экспериментальная сеть. Но без развертывания своей ноды процесс тестирования может затянуться. * Вам постоянно будут нужны новые аккаунты с тестовыми токенами. Кран тестовой сети переводит по 10 WAVES каждые 10 минут. * Среднее время блоков в тестовой сети – 1 минута, в ноде – 15 секунд. Это особенно ощутимо, когда транзакция требует нескольких подтверждений. * В общедоступных тестовых нодах возможно агрессивное кэширование. * Еще они могут быть временно недоступны из-за технического обслуживания. Далее буду считать, что вы работаете со своей нодой. 2. Инструмент командной строки Surfboard * Скачайте и установите Node.js с помощью ppa, homebrew или exe здесь: <https://nodejs.org/en/download/>. * Установите Surfboard – инструмент, который позволит запустить тесты на существующей ноде. ``` npm install -g @waves/surfboard ``` 3. Плагин Visual Studio Code Шаг необязателен, если вы – не фанат IDE и предпочитаете текстовые редакторы. Все необходимые инструменты – это утилиты командной строки. Если используете vim, обратите внимание на плагин [vim-ride](https://github.com/rosmanov/vim-ride). Скачайте и установите Visual Studio Code: <https://code.visualstudio.com/> Откройте VS Code и установите плагин waves-ride: ![](https://habrastorage.org/r/w1560/webt/9l/cb/f8/9lcbf8wgqnwljbv_ays4zitiqs4.png) Браузерное расширение Waves Keeper: <https://wavesplatform.com/products-keeper> Готово! ### Запустите ноду и Waves Explorer 1. Запустите ноду: ``` docker run -d -p 6869:6869 wavesplatform/waves-private-node ``` Проследите, чтобы нода запускалась через REST API в <http://localhost:6869>: ![](https://habrastorage.org/r/w1560/webt/mo/yn/kn/moynkn4-ttspn4enqevslyahzwa.png) *Интерфейс Swagger REST API для ноды* 2. Запустите экземпляр Waves Explorer: ``` docker run -d -e API_NODE_URL=http://localhost:6869 -e NODE_LIST=http://localhost:6869 -p 3000:8080 wavesplatform/explorer ``` Откройте браузер и перейдите в <http://localhost:3000>. Увидите, как быстро строится пустая цепь локальной ноды. ![](https://habrastorage.org/r/w1560/webt/e9/ij/tb/e9ijtba7cv70_9yp0nmaplzqaum.png) *Waves Explorer отображает экземпляр локальной ноды* ### Структура RIDE и инструмент Surfboard Создайте пустую директорию и выполните в ней команду ``` surfboard init ``` Команда инициализирует директорию со структурой проекта, приложения типа «hello world» и тесты. Если откроете эту папку с VS Code, то увидите: ![](https://habrastorage.org/r/w1560/webt/hl/ps/ft/hlpsftkbcerslkoonncswxylvva.png) *Surfboard.config.json* * Под папкой ./ride/ найдете одиночный файл wallet.ride – директорию, где расположен код dApp. Мы кратко проанализируем dApp в следующем блоке. * Под папкой ./test/ найдете файл \*.js. Здесь хранятся тесты. * ./surfboard.config.json – конфигурационный файл для запуска тестов. Envs – важная секция. Каждая среда настраивается так: * Конечная точка REST API ноды, которая будет использоваться для запуска dApp и CHAIN\_ID сети. * Секретная фраза для аккаунта с токенами, которые будут источниками токенов вашего теста. Как видите, surfboard.config.json по умолчанию поддерживает несколько сред. По умолчанию выставлена локальная среда (ключ defaultEnv – изменяемый параметр). ### Приложение Wallet-demo Эта секция – не справочник по языку RIDE. Скорее, взгляд на приложение, которые разворачиваем и тестируем, чтобы лучше понять, что происходит в блокчейне. Рассмотрим простое приложение Wallet-demo. Каждый может отправить на адрес dApp токены. Вывести можно только свои WAVES. Две @Callable функции доступны через InvokeScriptTransaction: * `deposit()`, которое требует прикрепленного платежа в WAVES * `withdraw(amount: Int)`, который возвращает токены На протяжении всего жизненного цикла dApp, структура (address → amount) будет поддерживаться: | Action | Resulting state | | --- | --- | | initial | empty | | Alice deposits 5 WAVES | alice-address → 500000000 | | Bob deposits 2 WAVES | alice-address → 500000000 bob-address → 200000000 | | Bob withdraws 7 WAVES | DENIED! | | Alice withdraws 4 WAVES | alice-address → 100000000 bob-address → 200000000 | Вот код для полного понимания ситуации: ``` # In this example multiple accounts can deposit their funds and safely take them back. No one can interfere with this. # An inner state is maintained as mapping `address=>waves`. {-# STDLIB_VERSION 3 #-} {-# CONTENT_TYPE DAPP #-} {-# SCRIPT_TYPE ACCOUNT #-} @Callable(i) func deposit() = { let pmt = extract(i.payment) if (isDefined(pmt.assetId)) then throw("works with waves only") else { let currentKey = toBase58String(i.caller.bytes) let currentAmount = match getInteger(this, currentKey) { case a:Int => a case _ => 0 } let newAmount = currentAmount + pmt.amount WriteSet([DataEntry(currentKey, newAmount)]) } } @Callable(i) func withdraw(amount: Int) = { let currentKey = toBase58String(i.caller.bytes) let currentAmount = match getInteger(this, currentKey) { case a:Int => a case _ => 0 } let newAmount = currentAmount - amount if (amount < 0) then throw("Can't withdraw negative amount") else if (newAmount < 0) then throw("Not enough balance") else ScriptResult( WriteSet([DataEntry(currentKey, newAmount)]), TransferSet([ScriptTransfer(i.caller, amount, unit)]) ) } @Verifier(tx) func verify() = false ``` Пример кода можно также найти на [GitHub](https://github.com/wavesplatform/ride-examples/blob/0c40cbb5bcc94e5ac9a5370550be36836fd350d3/ride4dapps/wallet/ride/wallet.ride). Плагин VSCode поддерживает непрерывную компиляцию при редактировании файла. Поэтому вы всегда можете следить за ошибками во вкладке PROBLEMS. ![](https://habrastorage.org/r/w1560/webt/e2/n9/89/e2n989kg7fhgcgkr_krnpwqfdlk.png) *Если хотите использовать другой текстовый редактор при компиляции файла, используйте* ``` surfboard compile ride/wallet.ride ``` Это выведет ряд base64 скомпилированного кода RIDE. ### Тестовый сценарий для ‘wallet.ride’ Посмотрим на [тестовый файл](https://github.com/wavesplatform/ride-examples/blob/c9290437fe475f76e073a25a44c06c97937ae76d/ride4dapps/wallet/test/wallet.js). Работает на фреймворке JavaScript’s Mocha. Есть функция «Before» и три теста: * «Before» финансирует несколько аккаунтов через MassTransferTransaction, компилирует скрипт и развертывает его в блокчейне. * «Can deposit» отправляет в сеть InvokeScriptTransaction, активируя функцию deposit() для каждого из двух аккаунтов. * «Can't withdraw more than was deposited» тестирует, что никто не сможет украсть чужие токены. * «Can deposit» проверяет, что выводы обрабатываются корректно. ### Запуск тестов с Surfboard и анализ результатов в Waves Explorer Для запуска теста выполните ``` surfboard test ``` Если у вас есть несколько сценариев (например, нужен отдельный скрипт развертывания), можете запустить ``` surfboard test my-scenario.js ``` Surfboard соберет тестовые файлы в папке ./test/ и запустит сценарий в ноде, которая настроена в surfboard.config.json. Спустя несколько секунд вы будете наблюдать что-то подобное: ``` wallet test suite Generating accounts with nonce: ce8d86ee Account generated: foofoofoofoofoofoofoofoofoofoofoo#ce8d86ee - 3M763WgwDhmry95XzafZedf7WoBf5ixMwhX Account generated: barbarbarbarbarbarbarbarbarbar#ce8d86ee - 3MAi9KhwnaAk5HSHmYPjLRdpCAnsSFpoY2v Account generated: wallet#ce8d86ee - 3M5r6XYMZPUsRhxbwYf1ypaTB6MNs2Yo1Gb Accounts successfully funded Script has been set √ Can deposit (4385ms) √ Cannot withdraw more than was deposited √ Can withdraw (108ms) 3 passing (15s) ``` Ура! Тесты пройдены. Теперь взглянем на то, что происходит при использовании Waves Explorer: просмотрим блоки или вставим один из указанных выше адресов в поиск(например, соответствующий `wallet#`. Там можно найти историю транзакций, состояние dApp, декомпилированный двоичный файл. ![](https://habrastorage.org/r/w1560/webt/b7/gj/ho/b7gjhoibtnpaotigfcmycucnpje.png) *Waves Explorer. Приложение, которое только что развернули.* Несколько советов по Surfboard: 1. Чтобы тестировать в среде testnet, используйте: ``` surfboard test --env=testnet ``` [Получить тестовые токены](https://wavesexplorer.com/testnet/faucet) 2. Если хотите посмотреть JSON-версии транзакций и как они обрабатываются нодой, запустите тест с -v (означает ‘verbose’): ``` surfboard test -v ``` ### Использование приложений с Waves Keeper 1. Настройте Waves Keeper для работы: <http://localhost:6869> ![](https://habrastorage.org/r/w1560/webt/su/4i/35/su4i35dyfs6e8zzsk54g8i-foow.png) *Настройка Waves Keeper для работы с локальной нодой* 2. Импортируйте секретную фразу с токенами для сети? Для простоты используйте начальное seed вашей ноды: `waves private node seed with waves tokens`. Адрес: `3M4qwDomRabJKLZxuXhwfqLApQkU592nWxF`. 3. Вы можете запустить одностраничное безсерверное приложение самостоятельно, используя npm. Или перейдите к существующему: [chrome-ext.wvservices.com/dapp-wallet.html](https://chrome-ext.wvservices.com/dapp-wallet.html) 4. Введите адрес кошелька из тестового запуска (подчеркнут выше) в текстовое поле адреса dApp 5. Впишите небольшую сумму в поле «Deposit» и нажмите кнопку: ![](https://habrastorage.org/r/w1560/webt/19/wk/kf/19wkkfmlyuu5uhthjkjzax77b5e.png) *Waves Keeper запрашивает разрешение, чтобы подписать InvokeScriptTransaction с платежом 10 WAVES.* 6. Подтвердите транзакцию: ![](https://habrastorage.org/r/w1560/webt/fp/ep/l_/fpepl_tgwmruhltgggwflpmaezu.png) *Транзакция создана и транслируется в сеть. Теперь видно ее ID* 7. Наблюдайте за транзакцией с помощью Waves Explorer. Введите ID в поисковое поле ![](https://habrastorage.org/r/w1560/webt/1u/dz/5f/1udz5fiiqj-zbkpjybdvs0hzjyw.png) ### Выводы и дополнительная информация Мы рассмотрели инструменты разработки, тестирования, развертывания и использования простых dApps на Waves Platform: * Язык RIDE * Редактор VS Code * Waves Explorer * Surfboard * Waves Keeper Ссылки для тех, кто хочет продолжить изучать RIDE: [Больше примеров](https://github.com/wavesplatform/ride-examples) [Онлайн IDE с примерами](https://ide.wavesplatform.com/) [Документация Waves](https://docs.wavesplatform.com/) [Чат разработчиков в Телеграме](https://t.me/waves_ride_dapps_dev) [Waves и RIDE на stackoverflow](https://stackoverflow.com/questions/tagged/wavesplatform) [NEW! Онлайн-курсы по созданию dApps на Waves Platform](https://stepik.org/course/54415/syllabus) Продолжайте углубляться в тему RIDE и создайте свой первый dApp! TL;DR: [bit.ly/2YCFnwY](https://bit.ly/2YCFnwY)
https://habr.com/ru/post/459773/
null
ru
null
# Виртуальная АТС Ростелекома: что и как можно сделать через API ![](https://habrastorage.org/r/w1560/webt/9p/4z/il/9p4zilg_eledccytuo6hslf19f0.png) Современный бизнес воспринимает городские телефоны как устаревшую технологию: сотовая связь обеспечивает мобильность и постоянную доступность сотрудников, соцсети и мессенджеры являются более легким и быстрым каналом общения. Чтобы не отставать от своих конкурентов, офисные АТС все больше становятся похожи на них: они переходят в облака, управляются через web-интерфейс и интегрируются с другими системами через API. В этом посте мы расскажем, какие есть функции у API виртуальной АТС «Ростелекома» и как через него работать с основными функциями виртуальной АТС. Основная задача API виртуальной АТС «Ростелекома» —  взаимодействие с CRM или сайтами компаний. Например, на API реализованы виджеты «обратный звонок» и «звонок с сайта» для основных систем управления: WordPress, Bitrix, OpenCart. API позволяет: * Получать информацию, уведомлять о статусе и совершать вызовы по запросу из внешней системы; * Получить временную ссылку на запись разговора; * Управлять и получать параметры ограничений у пользователей; * Получить информацию о пользователе вирутальной АТС; * Запросить истории списаний и начислений по вызовам; * Выгрузить журнал звонков. Как работает API ---------------- Интеграционный API и внешняя система взаимодействуют между собой при помощи HTTP-запросов. В личном кабинете администратор задает адреса, куда должны приходить запросы к API и куда должны отправляться запросы от API. У внешней системы должен быть публичный адрес, доступный из интернета, с установленным SSL-сертификатом. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/aef/32c/8c5/aef32c8c5b54534a5b002a87166cb724.png) Также в личном кабинете администратор домена может ограничить по IP источники запросов при обращении к API.  Получаем информацию о пользователях виртуальной АТС --------------------------------------------------- Чтобы получить список пользователей или групп, нужно отправить в виртуальной АТС запрос методом */users\_info*. ``` {         "domain":"example.ru" } ``` В ответ придет список, который можно сохранить. ``` { "result":0, "resultMessage":"", "users":[                            {                             "display_name":"test_user_1",                             "name":"admin",                             "pin":^_^quotʚquot^_^,                            "is_supervisor":true,                             "is_operator":false,                             "email":"test_user_1@mail.gov","recording":1                              },                             {                             "display_name":"test_user_2",                             "name":"test",                             "pin":^_^quotʿquot^_^,                             "is_supervisor":true,                             "is_operator":false,                             "email":"",                            "recording":1                             }               ], "groups":               [                             {                             "name":"testAPI",                             "pin":^_^quotǴquot^_^,                             "email":"Ivanov@mail.gov",                             "distribution":1,                            "users_list":[^_^quotʚquot^_^,^_^quotʿquot^_^]                             }               ] ``` В данном методе передается два массива. Один с пользователями домена, один с группами домена. У группу также есть возможность указать электронную почту, которая будет передаваться в запросе. Обрабатываем информацию о входящем вызове ----------------------------------------- Подключение корпоративной телефонии к различным системам CRM экономит время сотрудников, которые взаимодействуют с клиентами, и ускоряет обработку входящих звонков. Например, по звонку от текущего клиента CRM может открыть его карточку, а из CRM можно отправить вызов клиенту и соединить его с сотрудником. Чтобы получить информацию о вызовах через API, нужно использовать метод */get\_number\_info*, который формирует список вызовов с информацией о группе, в которую вызов распределяется. Предположим, что на номер виртуальной АТС поступил входящий вызов с номера 1234567890. Тогда от АТС отправится запрос: ``` {         "session_id":"SDsnZugDFmTW7Sec",         "timestamp":"2019-12-27 15:34:44.461",         "type":"incoming",         "state":"new",         "from_number":"sip: ``` Далее нужно подключить обработчик */get\_number\_info*. Запрос должен выполняться при поступлении входящего вызова на входящую линию до маршрутизации вызовов. Если ответ на запрос не получен за установленное время, то вызов маршрутизируется по установленным в домене правилам. Пример обработчика на стороне CRM. ``` if ($account) {          $data = [              'result' => 0,              'resultMessage' => 'Абонент найден',              'displayName' => $account->name,              //'PIN' => $crm_users,          ];      }          else                  {          $data = [              'result' => 0,              'resultMessage' => 'Абонент не найден',              'displayName' => 'Неизвестный абонент '.$contact,              //'PIN' => crm_users,          ];      }      return $data; ``` Ответ от обработчика. ``` {         "result":0,         "resultMessage":"Абонент найден",         "displayName":"Иванов Иван Иванович +1 234-56-78-90*" }* ``` Отслеживаем статус и скачиваем записи разговоров ------------------------------------------------ В виртуальной АТС «Ростелекома» запись разговоров активируется в личном кабинете. При помощи API можно отслеживать статус этой функции. При обработке завершения вызова в *call\_events* можно увидеть флаг *‘is\_record’,* который уведомляет пользователя о статусе записи: *true* означает, что функция записи разговора у пользователя подключена. Чтобы скачать запись, нужно по идентификатору сессии вызова *session\_id* отправить запрос на *api.cloudpbx.rt.ru/get\_record.* ``` {         "session_id":"SDsnZugDFmTW7Sec" } ``` В ответ придет временная ссылка на скачивание файла с записью разговора. ``` {         "result": ^_^quotquot^_^,         "resultMessage": "Операция выполнена успешно",      "url": "https://api.cloudpbx.rt.ru/records_new_scheme/record/download/501a8fc4a4aca86eb35955419157921d/188254033036" } ``` Время хранения файла задается в настройках личного кабинета. После файл будет удален. Статистика и отчетность ----------------------- В личном кабинете на отдельной странице можно увидеть статистику и отчетность по всем вызовам и применить фильтры по статусу и времени. Через API нужно сначала обработать вызов методом */call\_events*: ```       {         "session_id":"SDsnZugDFmTW7Sec",         "timestamp":"2019-12-27 15:34:59.349",         "type":"incoming",         "state":"end",         "from_number":"sip: ``` Затем вызвать метод *call\_info* для обработки массива и отображения вызова в CRM системе. ```     {         "session_id":"SDsnZugDFmTW7Sec" } ``` В ответ придет массив данных, который можно обработать для хранения данных в журнале CRM. ``` {         "result":0,         "resultMessage":"",         "info":         {                 "call_type":1,                 "direction":1,                 "state":1,                 "orig_number":"sip: ``` Другие полезные функции виртуальной АТС --------------------------------------- Кроме API, у виртуальной АТС есть еще несколько полезных функций, которые можно использовать. Например, это интерактивное голосовое меню и объединение сотовой и фиксированной связи. Интерактивное голосовое меню (IVR — Interactive Voice Response) — то, что мы слышим в трубке до того, как ответит человек. По сути, это электронный оператор, который перенаправляет вызовы в соответствующие отделы и отвечает на часть вопросов в автоматическом режиме. Скоро с IVR можно будет работать через API: сейчас мы разрабатываем ПО, которое позволит отслеживать прохождение вызова через IVR и получать информацию о нажатиях клавиш тонального набора при нахождении абонента в голосовом меню. Для переноса корпоративной телефонии на мобильные телефоны можно либо использовать приложения-софтфоны, либо отдельно подключить услугу Fixed Mobile Convergence (FMC). При любом из способов звонки внутри сети бесплатны, появляется возможность работать с короткими номерами, а звонки можно записывать и вести по ним общую статистику.  Отличие заключается в том, что софтфонам для связи нужен интернет, но они не привязаны к оператору, а FMC привязана к определенному оператору, но может использоваться даже на старых кнопочных телефонах.
https://habr.com/ru/post/484180/
null
ru
null
# Как я чуть не подхватил вирус, пытаясь продать сапоги ![](https://habrastorage.org/r/w1560/webt/wf/yz/a_/wfyza_3hf3mtbnqlffsve6xijoo.png) Я из тех людей, кто с наступлением осени старается проводить на улице меньше времени. В Москве это не сложно: ограничиваешься маршрутом от дома до офиса и обратно. Однако промозглая погода может причинить дискомфорт и в помещении, особенно если ваше рабочее место, как и моё, находится у окна, а каждый второй коллега, жалуясь на духоту, просит проветрить кабинет. Чтобы не впасть в хандру, этой осенью я обновил гардероб. Размышляя о судьбе ненужных вещей, я прикидывал, что с ними делать: выкинуть, порезать на тряпки, отдать донашивать младшему брату? Но для одной вещи ни один из этих способов не годился: то были кожаные сапоги 44 размера приличного вида, но порядком мне надоевшие. Их я решил продать на Avito. Загрузил фотографии, указал ненастоящее имя (информационная безопасность же), выставил сапоги, пару других вещей и пошёл спать. Откуда мне было знать, что это обернётся длительным анализом приложения на предмет скрытых угроз? ![](https://habrastorage.org/r/w1560/webt/2m/re/zj/2mrezjviqrbnbh6xwbn__ps6j4u.png) Приятная неожиданность ---------------------- На следующий день после пары сомнительных звонков мне пришло интересное смс-сообщение со следующим содержимым: ![](https://habrastorage.org/r/w780q1/webt/je/mo/fs/jemofsiwbf3qmf5fsslki95roz8.jpeg) Спустя пару дней я получил ещё одно похожее сообщение: ![](https://habrastorage.org/r/w780q1/webt/ru/k3/ap/ruk3apc1cjlrzjdqinme0ucnmgc.jpeg) Удивившись, что кто-то каким-то образом смог перевести мне деньги по интернету (видимо, один я старый — пользуюсь до сих пор бумажными сберегательными книжками), я перешёл по ссылке в СМС. После этого мне предложили скачать приложение для Android (apk-файл). Радостно скачав файл, я увидел следующее: ![](https://habrastorage.org/r/w1560/webt/ab/c7/kd/abc7kd6qq9puqe7y7mc4f_vmaks.png) Вызывает доверие! Я с нетерпением захотел побыстрее всё установить и покончить с этим. Но здесь, как обычно бывает, надоедливая операционная система Android почему-то не позволила мне запустить файл. «Да отдайте уже деньги!» — негодовал я. Пришлось перейти в настройки и включить какую-то опцию «Неизвестные источники», неужели телефон настолько глуп в 2018? Кстати, мой телефон — Xiaomi Remdi c Andoid 6.0.1 (примечание для технарей). ![](https://habrastorage.org/r/w1560/webt/hp/jf/0z/hpjf0z2umptn_vvgxee1qiosvw8.png) ![](https://habrastorage.org/r/w1560/webt/y2/-8/8o/y2-88olz-wcbay7wpanhxlwf3fw.png) Далее последовала цепочка странных событий. Телефон продолжал сообщать о недостоверных источниках. Но ведь Avito — это **достоверный источник**! Пришлось погуглить, разобраться, как это обойти, и после отключить в настройках. Вскоре появился и некий антивирус, который я не устанавливал. ![](https://habrastorage.org/r/w1560/webt/nl/ur/6c/nlur6cxmseun_mdsyj-uzqvls8a.png) ![](https://habrastorage.org/r/w1560/webt/u7/qg/gg/u7qgggolf8mjgrf29o7ldijdpty.png) ![](https://habrastorage.org/r/w1560/webt/52/le/x9/52lex9ukzmeujeoxah1bbraecsi.png) ![](https://habrastorage.org/r/w1560/webt/b9/st/2g/b9st2gunjymlfnui5hogoyxp074.png) Наконец-то я увидел заветное стандартное окно установки — *смотреть на разрешения в наше время нет смысла*, сейчас даже блокнот не запустится, пока не дашь ему полный доступ к телефону. Радостный миг окончания установки приложения и ЗАПУСК! Я с нетерпением ждал обещанных денег. Дополнительно приложение запросило администраторские привилегии, с чем я радостно согласился. К сожалению, приложение странно себя вело и не хотело производить оплату, а вскоре и вовсе пропало из списка приложений на общем экране. ![](https://habrastorage.org/r/w1560/webt/2l/og/wo/2logwomobffteufrjrghz6mtnme.png) ![](https://habrastorage.org/r/w1560/webt/cl/qp/nl/clqpnlxzkas8ij9z1zx1beteckq.png) ![](https://habrastorage.org/r/w1560/webt/3n/qw/r_/3nqwr_xdxrtrnsbdnwypzu02obo.png) ![](https://habrastorage.org/r/w1560/webt/cu/oy/tk/cuoytkopc5plrkilwany_tizlpy.png) ![](https://habrastorage.org/r/w1560/webt/jp/y6/b2/jpy6b2sosh_zxdtn5bbwohhnkug.png) **Cпойлер**Позже я проверил на другом телефоне — Lenovo с Android 4.4.2 на борту. Список разрешений при установке оказался гораздо больше. И никакие Play Защита и Антивирус не мешают, необходимо только разрешить установку из недостоверных источников. ![](https://habrastorage.org/r/w1560/webt/j_/9i/w1/j_9iw1jlp7dtyroivluxzlhftne.png) ![](https://habrastorage.org/r/w1560/webt/ku/ay/h1/kuayh1icnuip2mwccqzdsrghvci.png) ![](https://habrastorage.org/r/w1560/webt/lf/lc/v8/lflcv85sqajn4ju5-7qimh14rgu.png) ![](https://habrastorage.org/r/w1560/webt/pk/2w/ps/pk2wpsjo3csovecieetanlqouki.png) ![](https://habrastorage.org/r/w1560/webt/nu/ka/8a/nuka8a6nsp79yjtdibadpld5huw.png) Альтруизм --------- Итак, к чему мы пришли: * На установку потрачено 20 минут времени. * Деньги я не получил. Подумал, что проблема в ошибке кода, как это часто бывает у программистов. Решил выявить, какие ошибки возникают при работе приложения на моём телефоне, и отправить отчёт об этом разработчику. **Cпойлер**Сейчас так мало осталось бескорыстных людей, один из них — я. Понятно, что приложение такого типа должно работать при подключенном интернете, поэтому для начала я попробовал проанализировать трафик между телефоном и сервером приложения. **Техническая инструкция по настройке прокси**Можно прослушать интернет-трафик в любой точке, проходящей по пути от телефона до сервера, будь то домашний роутер, местный интернет-провайдер, магистральный интернет-провайдер или сервер приложения. Проблемы: * Необходим доступ к данному оборудованию. * Требуется отделить трафик нужного приложения от остального. * В случае шифрования (а в 2018 шифруется уже всё) — необходимо знание ключа. Я задумал пройти более классическим путём и настроить прокси на телефоне с прокси сервером на собственном ноутбуке. Чтобы нивелировать проблему шифрования, решил импортировать свой сертификат, а для отделения трафика приложения не стал запускать другие приложения. В качестве программы прокси-сервера выбрал [burp suite](https://portswigger.net/burp). Настроил прокси-сервер и экспортировал сертификат на телефон. ![](https://habrastorage.org/r/w1560/webt/h6/fl/tn/h6fltnqujuaa37og8s77oejovh8.png) ![](https://habrastorage.org/r/w1560/webt/xy/xz/6k/xyxz6knuzcxtjobyss5-cpvpyrg.png) ![](https://habrastorage.org/r/w1560/webt/-a/4e/vd/-a4evdiy2zz3pspeaai7idntxzk.png) ![](https://habrastorage.org/r/w1560/webt/ol/52/82/ol528281ja24jszgftyz_hhpyes.png) После настройки специализированного программного обеспечения мне удалось увидеть, какие запросы приложение отправляет на сервер: [![](https://habrastorage.org/r/w1560/webt/ar/0v/fu/ar0vfughbbfcewogzbpklk6egh0.png)](https://habrastorage.org/webt/z6/86/3x/z6863xwckephcr0buldqrqb8m3a.png) Как видно, данные не отправляются (в столбце IP указано значение «unknown host»), более того, их нельзя проанализировать из-за наличия дополнительного шифрования на уровне самого приложения. Судя по ошибке, телефон не мог определить IP-адрес сервера и его поддоменов **https://\*.sky-sync.pw** по его доменному имени. Это могло означать только следующие варианты: * **Доменное имя перестало существовать** + Его заблокировал сам владелец. + Его заблокировал регистратор по жалобе. * **Проблема с DNS-сервером** + DNS-сервер не знает адреса, так как разработчик в production выкатил локальный DNS-адрес. + DNS-сервер специально блокировал данный запрос, что не удивительно в эпоху интернет-цензуры. Чтобы проверить предположение о проблеме с DNS-сервером, я попробовал сделать запросы с разных крупных DNS-серверов: Google, Yandex, OpenDNS (обычно цензуре подвергаются местные DNS): ![](https://habrastorage.org/r/w1560/webt/8n/-q/me/8n-qmebbunqccfns6anpcdghsg8.png) Здесь видно, что ни один из них ничего не знает о таком имени. Дальше я посмотрел whois-сведения о регистрации домена: ![](https://habrastorage.org/r/w1560/webt/dd/hw/ms/ddhwmsu4lilowe1twixzng6klqs.png) Любопытно: домен зарегистрирован, то есть, скорее всего, он не локальный, но поскольку домен не резолвится, возможно, он был заблокирован регистратором по жалобе (abuse). Но за что? Что плохого он сделал? Чтобы выяснить, что же это всё-таки за приложение и как мне забрать свои деньги, я решил воспользоваться ~~магией~~ обратной разработкой. Погружение в пучину ------------------- Если вы гуманитарий и дочитали до этого места, то это уже хорошо — за освоение последующего вы достойны награды ~~посмертно~~. ### *Инструментарий* Для выяснения, что же находится «под капотом» у приложения, нам понадобится скачать специализированные инструменты. Можно загрузить их по отдельности: * **Распаковщик apk-контейнера** + Классика — [ApkTool](http://code.google.com/p/android-apktool/). + Можно распаковать обычным архиватором, но тогда все бинарые ресуры, включая приложения и файл Manifest, будут нечитабельны. * **Декомпилятор smali-кода** + Стандартом является [Dex2Jar](http://code.google.com/p/dex2jar/), но учите, что данная программа часто криво отрабатывает. + Нужно подойти к делу очень внимательно, потому что декомпилятор декомпилятору рознь, рассмотрим это позднее. * **Программа для просмотра декомпилированного кода**, я бы рекомендовал [jd-gui](http://jd.benow.ca/) Либо можно воспользоваться продуктом, обычно платным, где есть всё сразу. Я предпочитаю [JebDecompiler](https://www.pnfsoftware.com/jeb/): ему можно просто подать на вход apk-приложение, и он сам аккуратно разложит всё по вкладочкам, плюс в нём удобно переключаться между smali и декомпилированным Java-кодом. Отдельно хочется отметить: * При наличии нативных либ (папка /libs в структуре приложения) понадобился бы [дизассемблер](https://www.hex-rays.com/products/ida/). * Может понадобиться [набор утилит](http://baksmali.com/) для работ со smali-кодом (dex-to-smali, smali-to-dex). * [Подсветка синтаксиса](https://github.com/Jasi2169/smali-syntax-highlighting-for-notepad-) в Notepad++, чтобы не ломать глаза. ### *В бой идут одни старики* #### Обзор При открытии декомпилированного кода сразу становится понятно, что он обфусцирован. ![](https://habrastorage.org/r/w1560/webt/jg/m4/ah/jgm4ahs5rxpts6cfz_lmq9ycp5m.png) Как я это понял? * Человеко-нечитаемые названия классов `isqpwcmx.isfdztgb.adscjobz.nxscomkr.jypbdxnt.utagwpym.wprtdznb.swldgrhm.yrbjpktq.wukovicq;` * Недостижимый код ``` if(0 != 0) { ``` String v1 = "flnwznvh"; if(v1.length() != 661 && v1.charAt(0) == 104) { v1.length(); }* Шифрование строк ``` vcgrnfjx.execSQL(nvhdzjfo.xipswfqb(new String[]{"f741f04a4991fc2f0a0029f610bbd1c250dfe115fb7770b892f75d8718b822d273251013991b4407e224fa3f9d4e92f6","378f40211b6e32a5406cd97e85bcf9ad","6378a459b1c20edf", "gexnfwok", "meazfhdp", "bsmotaxn"}) ``` Вряд ли программист настолько рехнулся, чтобы изначально так разрабатывать код. Скорее всего, он использовал один из общедоступных обфускаторов. Этот шаг вполне обычный для усложнения анализа кода с целью защиты интеллектуальной собственности, например, но какой же это «вырвиглаз» для исследователя. Обратим внимание на основную функцию шифрования: ![](https://habrastorage.org/r/w1560/webt/ok/y9/dz/oky9dzmhwwrdykheiepdiuzzlao.png) Сама функция шифрования принимает на вход 3 строки (если больше, то остальные не имеют смысла): 1. шифротекст 2. ключ 3. вектор инициализации для CBC — AES На эту функцию ссылаются в программе минимум 213 раз: ![](https://habrastorage.org/r/w1560/webt/ok/y9/dz/oky9dzmhwwrdykheiepdiuzzlao.png) Отмечу, что она является важным ключом для нормального анализа кода. Дальше ~~[нужно думать](https://serg-ver.com/?p=124)~~ у нас есть следующие пути анализа программы: 1. Восстановить логику работы функции, собрать все вызовы в статическом анализе, дешифровать строки. Может быть, сложно и долго, зато даст 100%-ый результат. 2. Внести изменения в smali-код приложения, скомпилировать заново, запустить приложение и ловить в логах дешифрованные строки. Делается легко, но как поведёт себя приложение в конкретном запуске — неизвестно, и можно не увидеть всей картины в целом (не получить вызовы всех функций). К тому же, возможны проблемы с самопроверкой приложением сертификата и (или) целостности. 3. Если восстановить логику работы функции сложно, то можно собрать все вызовы функций и дергать самим эти функции с нужными параметрами прямо в динамике (с помощью, например, ПО [Frida](https://www.frida.re/docs/android/). Мы выберем способ №1 как самый ~~суровый~~ надежный. Деобфускация ------------ Сразу оговорюсь, деобфускация — это часто долгий и нудный процесс, поэтому нужно правильно оценить свои временные рамки. Для нашего анализа достаточно расшифровать все строки хоть каким-нибудь способом и сделать это за минимальное время, пусть даже костыльным способом, чем месяц возиться ради смутного идеального варианта. Качественная деобфускация имеет смысл в случае полной обратной разработки, например, это приходится делать ворам интеллектуальной собственности, когда они пытаются скопировать решение конкурента, либо, если вам часто приходится анализировать программы, обработанные одним обфускатором, но это не наш случай. Исходный код после декомпилятора JEB Decompiler v.1.4 **Cпойлер** ``` public static String podxiwkt(String[] args) { int v6; int v4; byte[] v2; Cipher v1; String v10 = args[0]; String v7 = args[1]; String v0 = args[2]; if(v10 == null) { goto label_9; } if(v10.length() != 0) { goto label_11; } goto label_9; label_11: IvParameterSpec v5 = new IvParameterSpec(v0.getBytes()); try { v1 = Cipher.getInstance("AES/CBC/NoPadding"); goto label_15; } catch(NoSuchPaddingException v3) { } catch(NoSuchAlgorithmException v3_1) { } String v11 = ""; goto label_10; label_15: SecretKeySpec v9 = new SecretKeySpec(v7.getBytes(), "AES"); int v11_1 = 2; try { v1.init(v11_1, ((Key)v9), ((AlgorithmParameterSpec)v5)); v2 = Base64.decode(v1.doFinal(bwdoclkr.xkvasepi(v10)), 0); if(v2.length <= 0) { goto label_48; } v4 = 0; v6 = v2.length - 1; label_29: if(v6 < 0) { goto label_38; } if(v2[v6] != 0) { goto label_33; } } catch(Exception v3_2) { goto label_51; } ++v4; label_33: --v6; goto label_29; label_38: if(v4 <= 0) { goto label_48; } try { byte[] v8 = new byte[v2.length - v4]; System.arraycopy(v2, 0, v8, 0, v2.length - v4); v2 = v8; } catch(Exception v3_2) { label_51: v11 = ""; goto label_10; } label_48: v11 = new String(v2); goto label_10; label_9: v11 = ""; label_10: return v11; } } ``` **Примечание о декомпиляторах**Кстати, dex2jar часто даёт сбои. Так, на рисунке ниже видно, что dex2jar версии 2.0 не смог справиться и просто выдал smali-код. ![](https://habrastorage.org/r/w1560/webt/qr/gw/wa/qrgwwazampyf69hicr0-0evyrxe.png) Его свежая версия, собранная из исходников, выдала декомпилированный код данной функции, но не смогла декомпилировать многие другие (вот так фокусы). ![](https://habrastorage.org/r/w1560/webt/66/3v/kp/663vkp2d0rmiwxsbblllpyxpytm.png) ![](https://habrastorage.org/r/w1560/webt/i7/n_/8p/i7n_8p01cstevantsmbaxamb7xe.png) Итог: внимательно отнеситесь к выбору декомпилятора — это сэкономит вам кучу времени и будет проще, чем анализ smali-кода. Итак, если мы сейчас просто вставим данный код в IDE, то он не отработает из-за ошибок. **Важно запомнить:** Декомпилятор не обязан выдавать валидный код, написанный разработчиком. Он всего лишь палочка-выручалочка при анализе и делает предположения, как код мог быть написан. В большинстве случаев после оптимизации компилятором задача восстановления оригинального кода и вовсе перестает быть тривиальной. Пример плохой декомпиляции: ``` if(v10 == null) { goto label_9; } if(v10.length() != 0) { goto label_11; } goto label_9; … label_9: v11 = ""; return v11; ``` Видим, что получилось плохо и неработоспособно. Перепишем: ``` if ((v10 == null) || (v10.length() == 0)) { return ""; } ``` Теперь стало намного понятнее, здесь обычная проверка входных данных. В данном случае нам нужно: * Заменить все «goto» другими конструкциями языка, т.к. «goto» уже давно невалидный оператор. * Заменить вызовы библиотек Android на вызовы библиотек Java (если мы пытаемся выполнить код в Java IDE). * Вставить зависимые классы, на которые ссылается наш код. * Подумать самим, что не так. В итоге получаем: ``` package com.company; //package isqpwcmx.isfdztgb.adscjobz.nxscomkr.jypbdxnt.utagwpym.wprtdznb.swldgrhm.yrbjpktq; import java.util.Base64; //import android.util.Base64; //import bnxvhlyg.nkhoirul.zfxogwqi.mdpqejcw.srnepbly.pcbvwxrs.vixdqclm.wnuqvrhp.bnvceayd.bwdoclkr; //вставим свой класс import java.security.Key; import java.security.NoSuchAlgorithmException; import java.security.spec.AlgorithmParameterSpec; import javax.crypto.Cipher; import javax.crypto.NoSuchPaddingException; import javax.crypto.spec.IvParameterSpec; import javax.crypto.spec.SecretKeySpec; public abstract class Main { public Main() { super(); } //hex to ascii public static byte[] xkvasepi(String str) { byte[] v0 = null; if(str != null && str.length() >= 2) { int v2 = str.length() / 2; v0 = new byte[v2]; int v1; for(v1 = 0; v1 < v2; ++v1) { v0[v1] = ((byte)Integer.parseInt(str.substring(v1 * 2, v1 * 2 + 2), 16)); } } return v0; } public static String podxiwkt(String[] args) { int v6; int v4; byte[] v2; Cipher v1; String v10 = args[0]; //text String v7 = args[1]; //key String v0 = args[2]; //IV //check if ((v10 == null) || (v10.length() == 0)) { return ""; } IvParameterSpec v5 = new IvParameterSpec(v0.getBytes()); try { v1 = Cipher.getInstance("AES/CBC/NoPadding"); } catch(NoSuchPaddingException v3) { return ""; } catch(NoSuchAlgorithmException v3_1) { return ""; } SecretKeySpec v9 = new SecretKeySpec(v7.getBytes(), "AES"); int v11_1 = 2; try { v1.init(v11_1, ((Key)v9), ((AlgorithmParameterSpec)v5)); //v2 = Base64.decode(v1.doFinal(bwdoclkr.xkvasepi(v10)), 0); v2=v1.doFinal(xkvasepi(v10)); //check if(v2.length <= 0) { return new String(v2); } } catch(Exception v3_2) { return ""; } v4=0; for (v6=v2.length-1;v6>=0;v6--){ if (v2[v6]==0) ++v4; } if(v4 > 0) { try { byte[] v8 = new byte[v2.length - v4]; System.arraycopy(v2, 0, v8, 0, v2.length - v4); v2 = v8; } catch (Exception v3_2) { return ""; } } v2 = Base64.getDecoder().decode(v2); return new String(v2); } public static void main(String[] args) { // write your code here System.out.println(podxiwkt(new String[] { "b1acd584a6eae4ca6321b1f7cdf9ba9617112b4fb39e76c8def876346e3032fbd32b2d188a09715f27124c1bf9facfdc", "637904cd08aeb2d3f6a21b5c7e84f519", "8f4c796d5a3120eb", "zcmwgvdn", "mkngbsyr", "rwcdaieu" })); } } ``` Данный код успешно отрабатывает. После того, как становится понятна его работа, его можно упрощать и упрощать, приводя к предполагаемому изначально лаконичному виду, написанному программистом (если это, конечно, у него руки не были кривыми изначально). **Примечание**Кстати, в данном случае дешифрование строк можно продемонстрировать с помощью связки онлайн-ресурсов. Пример вызова шифрованной строки внутри программы: ![](https://habrastorage.org/r/w1560/webt/wk/0q/h4/wk0qh4-_qox9qigts4orp76gu2u.png) Здесь вектор инициализации нужно сначала перевести в Hex-формат: ![](https://habrastorage.org/r/w1560/webt/ey/us/ob/eyusob7yodb8dkmiucxaf8mfrpi.png) Подставляем все значения: ![](https://habrastorage.org/r/w1560/webt/5j/xd/fg/5jxdfg4z4xyl1qoiqxpdtjzv1hc.png) И в конце декодируем из base64: ![](https://habrastorage.org/r/w1560/webt/p6/s4/oy/p6s4oyvyfxrwkoodlfqj0l8c6ii.png) В результате получаем обычную строку, и вызов приобретает осмысленный вид. Таким образом, нужно пройтись по всему коду и собрать все шифрованные строки, теперь мы можем самостоятельно их дешифровать. Важный момент здесь в том, что на этапе «модификации и комментирования кода» мы можем работать как на уровне smali, так и на уровне Java (декомпилированный smali). | | | | | --- | --- | --- | | | Плюсы модификации | Минусы модификации | | Smali | Можно внести изменения, заново собрать в dex и декомпилировать с новыми строками | Не всегда просто работать по smali-коду. При неправильном изменении приложение не соберется | | Java | Чаще гораздо проще извлекать данные из высокоуровневых операций | Редактировать в большинстве Java-просмотрщиках кода нельзя. | Ещё один пример строки ``` vcgrnfjx.execSQL(nvhdzjfo.xipswfqb(new String[]{"f741f04a4991fc2f0a0029f610bbd1c250dfe115fb7770b892f75d8718b822d273251013991b4407e224fa3f9d4e92f6","378f40211b6e32a5406cd97e85bcf9ad","6378a459b1c20edf", "gexnfwok", "meazfhdp", "bsmotaxn"}) ``` Отсюда очень легко забрать параметры с помощью регулярного выражения, чем написать регулярку на следующий код: **Smali-код, пример 1** ``` 00000280 new-instance v13, Ljava/lang/StringBuilder; 00000284 invoke-direct {v13}, Ljava/lang/StringBuilder;->()V 0000028A const/4 v14, 0x6 0000028C new-array v14, v14, [Ljava/lang/String; 00000290 const/4 v15, 0x0 00000292 const-string v16, "f741f04a4991fc2f0a0029f610bbd1c250dfe115fb7770b892f75d8718b822d273251013991b4407e224fa3f9d4e92f6" 00000296 aput-object v16, v14, v15 0000029A const/4 v15, 0x1 0000029C const-string v16, "378f40211b6e32a5406cd97e85bcf9ad" 000002A0 aput-object v16, v14, v15 000002A4 const/4 v15, 0x2 000002A6 const-string v16, "6378a459b1c20edf" 000002AA aput-object v16, v14, v15 000002AE const/4 v15, 0x3 000002B0 const-string v16, "gexnfwok" 000002B4 aput-object v16, v14, v15 000002B8 const/4 v15, 0x4 000002BA const-string v16, "meazfhdp" 000002BE aput-object v16, v14, v15 000002C2 const/4 v15, 0x5 000002C4 const-string v16, "bsmotaxn" 000002C8 aput-object v16, v14, v15 ``` **Smali-код, пример 2** ``` 0000008E new-array v0, v0, [Ljava/lang/String; 00000092 move-object/from16 v89, v0 00000096 const/16 v90, 0x0 0000009A const-string v91, "4500b5e2e2ad26b7545eb54d70ab360ae28c9d031e2afcc3f6a2b2ac488ea440" 0000009E aput-object v91, v89, v90 000000A2 const/16 v90, 0x1 000000A6 const-string v91, "da96f678922d4b07350b3a184ecc1f5e" 000000AA aput-object v91, v89, v90 000000AE const/16 v90, 0x2 000000B2 const-string v91, "0cf69e3d2745a1b8" 000000B6 aput-object v91, v89, v90 000000BA const/16 v90, 0x3 000000BE const-string v91, "jhiqsaoe" 000000C2 aput-object v91, v89, v90 000000C6 const/16 v90, 0x4 000000CA const-string v91, "khbqxurn" 000000CE aput-object v91, v89, v90 ``` **Smali-код, пример 3** ``` 00000D3E new-array v0, v0, [Ljava/lang/String; 00000D42 move-object/16 v298, v0 00000D48 const/4 v0, 0x0 00000D4A move/16 v299, v0 00000D50 const-string v0, "b286945744e085f4d5c19916fd261481" 00000D54 move-object/16 v300, v0 00000D5A move-object/from16 v0, v300 00000D5E move-object/from16 v1, v298 00000D62 move/from16 v2, v299 00000D66 aput-object v0, v1, v2 00000D6A const/4 v0, 0x1 00000D6C move/16 v299, v0 00000D72 const-string v0, "df6883742b2911ac5ac7b4dee065390f" 00000D76 move-object/16 v300, v0 00000D7C move-object/from16 v0, v300 00000D80 move-object/from16 v1, v298 00000D84 move/from16 v2, v299 00000D88 aput-object v0, v1, v2 00000D8C const/4 v0, 0x2 00000D8E move/16 v299, v0 00000D94 const-string v0, "90a463ce2df17b58" 00000D98 move-object/16 v300, v0 00000D9E move-object/from16 v0, v300 00000DA2 move-object/from16 v1, v298 00000DA6 move/from16 v2, v299 00000DAA aput-object v0, v1, v2 00000DAE const/4 v0, 0x3 00000DB0 move/16 v299, v0 00000DB6 const-string v0, "cupyzsgq" 00000DBA move-object/16 v300, v0 00000DC0 move-object/from16 v0, v300 00000DC4 move-object/from16 v1, v298 00000DC8 move/from16 v2, v299 00000DCC aput-object v0, v1, v2 ``` Как мы видим, внутренние переменные меняются, последовательность команд различается, количество аргументов тоже разнится, вдобавок в программе функция дешифрования вызывается не напрямую, а через функции прослойки. Попробуйте написать правило самостоятельно для поиска данной конструкции, не допустить ошибок по захвату строк из других функций и всё это сделать быстро (~~удачи~~). План-капкан: 1. Извлечём все значения из декомпилированного кода. 2. Дешифруем. 3. Заменим шифротекст на открытый в smali-коде. Подставим, например, взамен первого оператора. (Профессиональнее будет вырезать весь вызов функции и оставить возвращаемую дешифрованную строку, но тогда опять же есть большой риск сломать программу). 4. Соберём smali-код в dex-файл. 5. Дальше будем удобно смотреть в анализаторе кода, с чего и начали. Если собрать весь декомпилированный код в один файл, то получится около 20000 строк, что для ручного анализа требует много времени, которое стоит явно больше, чем выставленные мной на продажу сапоги. Для начала соберём регулярным выражением все строки. ![](https://habrastorage.org/r/w1560/webt/gq/42/ln/gq42ln2llsfpoxt2yjw0orhfr2m.png) Видим 593 совпадения, плюс с десяток, которые не попали под данное правило, ~~в семье не без урода~~. Пример: ![](https://habrastorage.org/r/w1560/webt/zw/bn/5y/zwbn5y1ghfnrf8i3auethghnzdo.png) Сортируем, отсеиваем, итого 422 уникальные строки: ![](https://habrastorage.org/r/w1560/webt/en/c1/ji/enc1jiwqkssvsa3irluzvvxfyzu.png) Пропускаем через функцию дешифрования, восстановленную нами ранее. Результат: ![](https://habrastorage.org/r/w1560/webt/cv/no/op/cvnoopawvfln2h4yq-ducg3zite.png) Заменим шифротекст на открытый в smali-коде при помощи Python: ``` import os words_replace=dict() words_replace["0018aacad3d146266317d8d8c51785fd"]="imei" words_replace["016d15e4d0a72667c61428e736a6f3b8"]="WakeLock" words_replace["032c534efb6c9990cd845a08c5a08b95"]="inbox" #… и т.д. #Открыть smali-файл #Найти все вхождения массива и заменить def change(path): print("file="+path) file_handle = open(path, 'r') context_full = file_handle.read() file_handle.close() for i in words_replace: context_full=context_full.replace(i, words_replace[i]) #print (i+""+words_replace[i]) file_handle = open(path, 'w') context_full = file_handle.write(context_full) file_handle.close() #Пройтись по всем подпапкам и открыть smali-файлы for top, dirs, files in os.walk('C:\\work\\test'): for nm in files: path=os.path.join(top, nm) print (path) change(path) ``` Cобираем smali-файлы в dex: ![](https://habrastorage.org/r/w1560/webt/dz/41/qz/dz41qzrvcue-bl2j-vb2jp4cw_w.png) Теперь это можно хоть как-то анализировать (читая из всей конструкции первый аргумент): ![](https://habrastorage.org/r/w1560/webt/ik/5g/ro/ik5grom-c0igb9zqgh-hzdhf6yg.png) Анализ ------ Итак, имеем 20 000 более-менее читабельных строк кода, задачи делать полный разбор перед нами не стоит. Необходимо понять функционал в целом. Здесь, по сути, требуется только навык чтения исходного кода на Java. Ходить по коду, смотреть на перекрёстные ссылки, переименовывать переменные и функции. Как же лучше анализировать Android-приложение, особенно большое? **Вариант 1: Можно двигаться от файла Manifest** Например, последовательно от LAUNCHER попытаться раскрутить всю цепочку вызовов. Кстати, не забывайте, что ещё есть «Receiver» и «Service», которые могут изменить линейное выполнение программы. ![](https://habrastorage.org/r/w1560/webt/hk/rd/j1/hkrdj1deeuxaq294dxfpgswr1pu.png) **Полный файл Manifest** ``` xml version="1.0" encoding="utf-8" standalone="no"? ``` **Вариант 2: Можно двигаться от интересных строк** ![](https://habrastorage.org/r/w1560/webt/ey/vs/oe/eyvsoe_svrnkzau5dfdp4yvht7g.png) **Часть дешифрованных строк** ``` system_update.apk (Общее) (Перехват) , error = , unregistered = , в .permission.C2D_MESSAGE //sky-sync.pw/ //sms/inbox /system_update.apk ALLCONTACTS ALLMSG AUTHENTICATION_FAILED Acquiring wakelock Application BLOCKER_BANKING_START BLOCKER_EXTORTIONIST_START BLOCKER_STOP BLOCKER_UPDATE_START Banking CHANGE_GCM_ID CONTACTS CONTACTS_PRO CREATE TABLE IF NOT EXISTS END Error|No process list|No access Extortionist Foreground GCM returned invalid number of GCMBaseIntentService GCMBroadcastReceiver GCMIntentService- GCMRegistrar GCM_LIB GET MESSAGE Mobile Network NEWMSG Not retrying failed operation ONLINE PAGE POST Process finished with exit code 0 RESTART Received deleted messages Registering receiver Releasing wakelock SERVICE_NOT_AVAILABLE SSL START STOP Saving regId on app version Scheduling registration retry, backoff = Setting registeredOnServer status as Stop System UNBLOCK UPDATE UPDATE_PATTERNS URL UTF-8 Update WakeLock Wakelock reference is null Wi-Fi WiMax _success add_msg_ok address android.intent.action.QUICKBOOT_POWERON answer_text answer_to api_url app appVersion application application/vnd.android.package-archive apps_list ask backoff_ms blocker blocker_banking blocker_banking_autolock blocker_banking_forced_access blocker_banking_success blocker_extortionist blocker_extortionist_autolock blocker_extortionist_forced_access blocker_extortionist_success blocker_update blocker_update_forced_access blocker_update_success body build callback cardSuccess check com.android.settings com.google.android.c2dm.intent.RECEIVE com.google.android.c2dm.intent.REGISTER com.google.android.c2dm.intent.REGISTRATION com.google.android.c2dm.intent.UNREGISTER com.google.android.gcm com.google.android.gcm.intent.RETRY com.google.android.gsf com.htc.intent.action.QUICKBOOT_POWERON command command_receive contactslist country data date delete deleted_messages device_block disableDataConnectivity enableDataConnectivity error failure file deleted. first_start force-locked gafzpjxb.cix gcm gcm_id gcm_register gcm_register_ok getITelephony get_message_list id integer primary key autoincrement, id=? imei immunity inbox init_bootable init_imei is_admin is_awake_display is_imunnity is_locked is_network_type is_top_activity job job_date job_id komgejif.hqr locked message message_delivered message_type method model msg msg_id msglist name not nypjtinq.nvp ok onServer onServerExpirationTime onServerLifeSpan operator org.android.sys.admin.disabled org.android.sys.admin.enabled org.android.sys.admin.request org.android.sys.command.receive org.android.sys.launch.first org.android.sys.sms.pro.sent org.android.sys.sms.push org.android.sys.sms.sent outbox page params pattern patterns personal phone phone_list privet process_list protocol qwertyuiopasdfghjklzxcvbnm receive regId regex register register_ok registrationId = registration_id repeat resetting backoff for ru save_contacts_list save_message_history sender sent sent_status sid ss status stop_blocker text text, text/html time token total_deleted type unknown unregistered until url useragent utf-8 value version xpls yes Идет инициализация приложения! Не удалось установить приложение Подождите... Приложение вылетело в Приложение лишилось прав администратора в Приложение получило права администратора в Приложение проверено и является полностью безопасным! Выполнить запуск? Приложение пытаются лишить прав администратора в Устройство перезапущено в отказ безопасности в перезапускаем его является системным! ``` **Вариант 3: Можно двигаться от интересных ресурсов (assets, libs)** В данном случае 3 вариант оказался предпочтительным. В папке /assets (apk-контейнера) лежат три интересные html-файла. Вот их вид в браузере: ![](https://habrastorage.org/r/w1560/webt/4y/rg/ep/4yrgepcm5xja-nfzbjpcbsiuvzc.png) ![](https://habrastorage.org/r/w1560/webt/y8/8q/jw/y88qjwn-fy-fikqujjbxsbq3are.png) ![](https://habrastorage.org/r/w1560/webt/eo/cf/um/eocfum1acs28e-4ljvqt3yiufci.png) Выглядит сомнительно для официальной программы Avito по передаче платежей, вам так не кажется? Отследим, что происходит при нажатии клавиши отправки банковских данных на странице с логотипом Сбербанка. JavaScript’ом вызывается функция `sendCardData()`: ![](https://habrastorage.org/r/w1560/webt/v5/aq/sy/v5aqsyuab0lbn4clzhpk4uy4r88.png) И дальше передается в Java-код через вызов `ok.performClick()`: ![](https://habrastorage.org/r/w1560/webt/p4/cv/av/p4cvavqi00ja2bdmryikgcotn34.png) В Java-коде выполняется обработка: ![](https://habrastorage.org/r/w1560/webt/sq/2m/x_/sq2mx_tfwvmi0iudzgksecj6dcs.png) Далее всё это шифруется в классе `mcrypt`: ![](https://habrastorage.org/r/w1560/webt/cr/aw/00/craw00nuksdczckxfxc04gclvru.png) Внутри функции происходит шифрование данных аналогично рассмотренному ранее: ![](https://habrastorage.org/r/w1560/webt/ov/-j/vk/ov-jvkpta1b6qodmshafhthurya.png) Но для всего остального ключи жёстко вшиты: ![](https://habrastorage.org/r/w1560/webt/rd/uc/2b/rduc2bigmg29xzvjmkuuetekd68.png) Пробуем расшифровать через online-ресурс: ![](https://habrastorage.org/r/w1560/webt/yx/uw/we/yxuwwe6fls64izf_rcxbky_0m3a.png) И преобразовать из base64. Успех! Мы можем дешифровать все данные приложения: проверено на трафике, захваченном ранее. **Приложение сообщает на сервер обо всех событиях** ``` { "sid":15, "imei":"861117030537111", "phone":"System", "message":"Приложение получило права администратора в 22.10.2018 23:30:47", "time":"1540240247", "msg_id":1, "status":"unknown", "type":"inbox", "method":"message" } ``` **А также периодически передает все запущенные приложения** ``` { "sid": 15, "imei": "861117030537111", "country": "ru", "operator": "MTS RUS", "phone": "", "model": "Xiaomi Redmi 3X", "version": "6.0.1", "application": "ПРК", "build": "30.0.2", "process_list": [ "Background|com.android.bluetooth|com.android.bluetooth.hid.HidService", "Background|com.android.settings:remote|com.android.settings.wifi.MiuiWifiService", "Background|com.android.phone|org.codeaurora.ims.ImsService", "Background|system|com.qualcomm.location.LocationService", ..., "Background|xfmpuwon.mtnbupnc.ihqdgjal.ndgmqawx.bjunzerq.cznfpnoq.fzevcuym.jmpdiqft|ltvsrezg.ehxndrat.twnnyxrf.nqynefws.dhbalcnr.ynjkuxod.nhoxmsbq.nackoyhn.voycgfek.znhwkqba.taxvnfyn" ], "apps_list": [ "com.introspy.config", "com.google.android.youtube", "com.google.android.googlequicksearchbox", "org.telegram.messenger", ..., "com.google.android.inputmethod.latin", "jakhar.aseem.diva" ], "method": "register" } ``` Если бы мне в динамике выпало окно ввода банковских данных, то и данные были бы в трафике. Таким образом, можно сделать вывод, что это «фишинговое» приложение. Те, кто были внимательны, заметили, что в файле Manifest довольно много разрешений, и приложение обладает более богатым функционалом. Глубокий разбор функционала мы проведём в другой статье. А пока успехов! Выводы ------ Я разочарован тем, что не продал сапоги. А выводы такие: * ~~Не продавайте сапоги на Avito~~ * Не переходите по непонятным ссылкам (даже если от друзей и даже если «нужно срочно занять 100 рублей — вопрос жизни и смерти») * Не скачивайте приложения, кроме как с Google Play или AppStore + Отключите установку из «недостоверных источников», если реально не разбираетесь, что к чему. + Не отключайте «Play Защиту». + Помните, что и в Google Play [может быть вредоносное ПО](https://fakty.com.ua/ru/lifestyle/20171129-v-google-play-z-yavyvsya-virus-shho-krade-bankivski-paroli/) * Установите антивирус на телефон (реально работает). * Если вы разработчик, не обфусцируйте код, дайте людям убедиться в ваших добрых намерениях *(шутка)* * Если вы исследователь, не работайте за еду анализируйте приложения в свободное время и публикуйте отчеты. Вместе мы сделаем мир лучше. P.S. Я постарался написать статью слегка в юмористическом формате и подать максимально просто, потому что даже мне не захотелось бы, наверное, читать в пятницу серьезный лонгрид с названием «Реверс-инжиниринг обфусцированного вредоносного приложения на ОС Android».
https://habr.com/ru/post/430074/
null
ru
null
# Money-моноид ![](https://habrastorage.org/r/w1560/webt/it/u9/_u/itu9_uqtno_v0dp_vxk24qow2zo.png) Mark Seeman рассказывает о функциональном программировании просто и быстро. Для этого он начал писать цикл статей, посвященных связи между [паттернами проектирования и теорией категорий](http://blog.ploeh.dk/2017/10/04/from-design-patterns-to-category-theory/). Любой ООПшник, у которого есть 15 минут свободного времени, сможет заполучить в свои руки принципиально новый набор идей и инсайтов, касающихся не только функциональщины, но и правильного объектно-ориентированного дизайна. Решающим фактором является то, что **все примеры — это реальный код на C#, F# и Haskell**. Этот хабрапост — вторая статья из цикла статей о моноидах: * [Моноиды, полугруппы и все-все-все](https://habrahabr.ru/company/jugru/blog/340178/) * **Money-моноид** * Convex hull monoid * Tuple monoids * Function monoids * Endomorphism monoid * Monoids accumulate Прежде чем начать, хотелось бы сделать небольшое отступление относительно названия статьи. В 2003-м году вышла, ставшая уже бестселлером, книга Кента Бека: [«Экстремальное программирование: разработка через тестирование»](https://habrahabr.ru/company/piter/blog/326662/), которая в оригинале называется «Test-Driven Development by example». Одним из таких «example» стал «Money example» — пример написания и рефакторинга приложения, которое умеет выполнять мультивалютные операции, например сложение 10 долларов и 10 франков. Название данной статьи является отсылкой к данной книге, и я настоятельно рекомендую ознакомиться с ее первой частью, чтобы лучше понимать, о чем идет речь в статье. *«Money example» Кента Бека имеет некоторые любопытные свойства.* Если коротко, моноид — это ассоциативная бинарная операция, имеющая нейтральный элемент (иногда также называемый *единицей*). В первой части своей книги Кент Бек исследует возможность создания простого и гибкого «денежного API», используя принцип «разработка через тестирование». В итоге у него получается решение, дизайн которого требует дальнейшей проработки. #### API Кента Бека В этой статье используется код из книги Кента Бека, переведенный [Яваром Амином](http://yawar.blogspot.ru/) на [язык С#](https://github.com/yawaramin/TDDMoney) (оригинальный код был написан на Java), который я [форкнул и дополнил](https://github.com/ploeh/TDDMoney). Кент Бек в своей книге занимался разработкой объектно-ориентированного API, способного обрабатывать деньги в нескольких валютах, с возможностью работы с выражениями (*expressions*), такими как «5 USD + 10 CHF». К концу первой части он создает интерфейс, который (переведенный на язык C#), выглядит так: ``` public interface IExpression { Money Reduce(Bank bank, string to); IExpression Plus(IExpression addend); IExpression Times(int multiplier); } ``` Метод `Reduce` преобразует объект `IExpression` в некую валюту (параметр `to`), представленную, как объект `Money`. Это полезно, если у вас есть выражение, которое имеет несколько валют. Метод `Plus` прибавляет объект `IExpression` к текущему объекту `IExpression` и возвращает новый `IExpression`. Это могут быть деньги как в одной валюте, так и в нескольких. Метод `Times` умножает `IExpression` на определенный множитель. Вы, наверное, заметили, что во всех примерах мы используем целые числа для множителя и суммы. Я думаю, Кент Бек сделал это, чтобы не усложнять код, но в реальной жизни при работе с деньгами мы бы использовали дробные числа (например, `[decimal](https://docs.microsoft.com/en-us/dotnet/api/system.decimal?view=netframework-4.7.1)`). Метафора *«expression»* заключается в том, что мы можем моделировать работу с деньгами, как работу с математическими выражениями. Простое выражение будет выглядеть как *5 USD*, но также могут быть и *5 USD + 10 CHF* или *5 USD + 10 CHF + 10 USD*. Несмотря на то, что вы легко можете вычислить (*reduce*) некоторые простые выражения, например, *5 CHF + 7 CHF*, вы не можете вычислить выражение *5 USD + 10 CHF*, если у вас нет обменного курса. Вместо того, чтобы пытаться сразу вычислить денежные операции, в данном проекте мы создаем дерево выражений, а уже затем производим его преобразование. Звучит знакомо, не так ли? Кент Бек в своих примерах реализует интерфейс `IExpression` двумя классами: * `Money` представляет собой некоторое количество в денег конкретной валюте. Он содержит свойства «Amount» (количество) и «Currency» (название валюты). Это — ключевой момент: `Money` является *объектом-значением* (*value object*). * `Sum` является суммой двух других объектов `IExpression`. Он содержит два слагаемых, именуемых *Augend* (первое слагаемое) и *Addend* (второе слагаемое). Если мы захотим описать выражение *5 USD + 10 CHF*, оно будет выглядеть примерно так: ``` IExpression sum = new Sum(Money.Dollar(5), Money.Franc(10)); ``` где `Money.Dollar` и `Money.Franc` — это два статических фабричных метода, которые возвращают объекты `Money`. #### Ассоциативность Вы заметили, что `Plus` — это бинарная операция? Можем ли мы считать ее моноидом? Чтобы быть моноидом, она должна удовлетворять *законам моноида*, первый из которых гласит, что операция должна быть ассоциативной. Это означает, что для трех объектов `IExpression`, `x`, `y` и `z`, выражение `x.Plus(y).Plus(z)` должно быть равно `x.Plus(y.Plus(z))`. Как мы должны понимать здесь равенство? Возвращаемое значение метода `Plus` — это интерфейс `IExpression`, а интерфейсы не имеют такого понятия, как «равенство». Значит, либо, равенство зависит от конкретных реализаций (`Money` и `Sum`), где мы можем определить соответствующие методы, либо мы можем использовать *тестовое соответствие* (паттерн тестирования, [test-specific equality](http://xunitpatterns.com/test-specific%20equality.html), — *прим. пер.*). Библиотека для тестирования [xUnit.net](https://xunit.github.io/) поддерживает тестовое соответствие через реализацию пользовательских компараторов (для детального изучения возможностей юнит-тестирования автор предлагает пройти его курс [Advanced Unit Testing](https://www.pluralsight.com/courses/advanced-unit-testing?utm_medium=affiliate&utm_source=1017843) на Pluralsight.com). Однако, в оригинальном Money API уже имеется возможность сравнения объектов типа `IExpression`! Метод `Reduce` может преобразовать любой `IExpression` в объект типа `Money` (то есть к единой валюте), а поскольку `Money` — объект-значение, он имеет *структурное равенство* (подробнее о value objects и их особенностях можно почитать, например, [тут](https://habrahabr.ru/post/268371/)). И мы можем использовать это свойство для сравнения объектов `IExpression`. Все, что нам нужно, это обменный курс. В своей книге Кент Бек использует обменный курс 2:1 между CHF и USD. На момент написания этой статьи обменный курс составлял 0,96 швейцарского франка к доллару, но поскольку код примера везде использует целые числа для операций с деньгами, мне придется округлить курс до 1:1. Это, однако, довольно дурацкий пример, поэтому вместо этого я буду придерживаться первоначального курса обмена 2:1. Теперь давайте напишем [адаптер](https://ru.wikipedia.org/wiki/%D0%90%D0%B4%D0%B0%D0%BF%D1%82%D0%B5%D1%80_(%D1%88%D0%B0%D0%B1%D0%BB%D0%BE%D0%BD_%D0%BF%D1%80%D0%BE%D0%B5%D0%BA%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F)) между `Reduce` и xUnit.net в виде класса `IEqualityComparer`: ``` public class ExpressionEqualityComparer : IEqualityComparer { private readonly Bank bank; public ExpressionEqualityComparer() { bank = new Bank(); bank.AddRate("CHF", "USD", 2); } public bool Equals(IExpression x, IExpression y) { var xm = bank.Reduce(x, "USD"); var ym = bank.Reduce(y, "USD"); return object.Equals(xm, ym); } public int GetHashCode(IExpression obj) { return bank.Reduce(obj, "USD").GetHashCode(); } } ``` Вы заметили, что компаратор использует объект `Bank` с обменным курсом 2:1. Класс `Bank` — еще один объект из кода Кента Бека. Сам он не реализует какой-либо интерфейс, но используется как аргумент метода `Reduce`. Чтобы сделать код нашего теста более читаемым, добавим вспомогательный статический класс: ``` public static class Compare { public static ExpressionEqualityComparer UsingBank = new ExpressionEqualityComparer(); } ``` Это позволит нам написать ассерт, который проверяет равенство для операции ассоциативности: ``` Assert.Equal( x.Plus(y).Plus(z), x.Plus(y.Plus(z)), Compare.UsingBank); ``` В моем форке кода Явара Амина я добавил этот ассерт к тесту FsCheck, и он используется для всех объектов `Sum` и `Money`, которые генерирует FsCheck. В текущей реализации `IExpression.Plus` ассоциативен, но стоит отметить, что данное поведение не гарантируется, и вот почему: `IExpression` является интерфейсом, поэтому кто-нибудь может легко добавить третью реализацию, которая будет нарушать ассоциативность. Условно мы будем считать, что операция `Plus` ассоциативна, но ситуация деликатная. #### Нейтральный элемент Если мы согласимся с тем, что `IExpression.Plus` ассоциативен, то это кандидат в моноиды. Если существует нейтральный элемент, то это точно моноид. Кент Бек не добавлял в свои примеры нейтральный элемент, поэтому добавим его сами: ``` public static class Plus { public readonly static IExpression Identity = new PlusIdentity(); private class PlusIdentity : IExpression { public IExpression Plus(IExpression addend) { return addend; } public Money Reduce(Bank bank, string to) { return new Money(0, to); } public IExpression Times(int multiplier) { return this; } } } ``` Поскольку может существовать только один нейтральный элемент, имеет смысл сделать его [синглтоном](https://ru.wikipedia.org/wiki/%D0%9E%D0%B4%D0%B8%D0%BD%D0%BE%D1%87%D0%BA%D0%B0_(%D1%88%D0%B0%D0%B1%D0%BB%D0%BE%D0%BD_%D0%BF%D1%80%D0%BE%D0%B5%D0%BA%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F)). Приватный класс `PlusIdentity` является новой реализацией `IExpression`, которая ничего не делает. Метод `Plus` просто возвращает входное значение. Это такое же поведение, как и для сложения чисел. При сложении, ноль — нейтральный элемент, и то же самое имеет место и здесь. Это более явно видно в методе `Reduce`, где вычисление «нейтральной» валюты просто сводится к нулю в запрошенной валюте. Наконец, если вы умножаете нейтральный элемент на что-нибудь, вы получаете нейтральный элемент. Здесь, что интересно, `PlusIdentity` ведет себя аналогично нейтральному элементу для операции умножения (1). Теперь мы напишем тесты для любого `IExpression` `x`: ``` Assert.Equal(x, x.Plus(Plus.Identity), Compare.UsingBank); Assert.Equal(x, Plus.Identity.Plus(x), Compare.UsingBank); ``` Это property-тест, и он выполняется для всех `x`, сгенерированных FsCheck. Осторожность, применимая к ассоциативности, также применима и здесь: `IExpression` является интерфейсом, поэтому вы не можете быть уверены, что `Plus.Identity` будет нейтральным элементом для всех реализаций `IExpression` которые кто-то может создать, но для трех существующих реализаций моноидные законы сохраняются. Теперь мы можем утверждать, что операция `IExpression.Plus` — моноид. #### Умножение В арифметике оператор умножения называется «раз» (в англ. «times» — *прим. пер.*). Когда вы пишете *3 \* 5*, это буквально означает, что у вас есть `3` пять раз (или `5` три раза?). Другими словами: `3 * 5 = 3 + 3 + 3 + 3 + 3` Существует ли аналогичная операция для `IExpression`? Возможно, мы cможем найти подсказку в языке Haskell, где моноиды и полугруппы являются частью основной библиотеки. Позднее вы узнаете о полугруппах, но на данный момент просто отметим, что класс `Semigroup` определяет функцию `stimes`, которая имеет тип `Integral b => b -> a -> a`. Это означает, что для любого целочисленного типа (16-разрядное целое, 32-разрядное целое и т.д.) функция `stimes` принимает целое число и значение `a` и «умножает» значение на число. Здесь `a` — тип, для которого существует бинарная операция. В языке C# функция `stimes` будет выглядеть как метод класса `Foo`: ``` public Foo Times(int multiplier) ``` Я назвал метод `Times`, а не `STimes`, так как сильно подозреваю, что буква `s` в названии `stimes` означает `Semigroup`. И обратите внимание, что этот метод имеет такую же сигнатуру, что и метод `IExpression.Times`. Если можно определить универсальную реализацию такой функции в Haskell, можно ли сделать то же самое в C#? В классе `Money` мы можем реализовать `Times`, используя метод `Plus`: ``` public IExpression Times(int multiplier) { return Enumerable .Repeat((IExpression)this, multiplier) .Aggregate((x, y) => x.Plus(y)); } ``` Статический метод `Repeat` библиотеки LINQ возвращает `this` столько раз, сколько указано в `multiplier`. Возвращаемое значение представляет собой `Enumerable`, но в соответствии с интерфейсом `IExpression` `Times` должен возвращать одно значение `IExpression`. Воспользуемся методом `Aggregate` для многократного объединения двух значений `IExpression` (`x` и `y`) в одно, используя метод `Plus`. Эта реализация вряд ли будет так же эффективна, как предыдущая, конкретная реализация, но здесь речь идет не об эффективности, а об общей, переиспользуемой абстракции. Точно такую же реализацию можно использовать для метода `Sum.Times`: ``` public IExpression Times(int multiplier) { return Enumerable .Repeat((IExpression)this, multiplier) .Aggregate((x, y) => x.Plus(y)); } ``` Это точно такой же код, что и для `Money.Times`. Вы также можете скопировать и вставить этот код в `PlusIdentity.Times`, но я не буду повторять его здесь, потому что это тот же код, что и выше. Это значит, что вы можете удалить метод `Times` из `IExpression`: ``` public interface IExpression { Money Reduce(Bank bank, string to); IExpression Plus(IExpression addend); } ``` вместо этого реализовав его как метод-расширение (*extension method*): ``` public static class Expression { public static IExpression Times(this IExpression exp, int multiplier) { return Enumerable .Repeat(exp, multiplier) .Aggregate((x, y) => x.Plus(y)); } } ``` Это сработает, потому что любой объект `IExpression` имеет метод `Plus`. Как я уже сказал, это, вероятно, будет менее эффективно, чем специализированные реализации `Times`. В Haskell это устраняется путем включения `stimes` в класс типов (*typeclass*), так что разработчики могут реализовать более эффективный алгоритм, чем реализация по умолчанию. В C# такой же эффект может быть достигнут путем реорганизации `IExpression` в абстрактный базовый класс с использованием `Times` как публичного виртуального (overridable) метода. #### Проверка корректности Поскольку язык Haskell имеет более формальное определение моноида, мы можем попытаться переписать API Кента Бека на Haskell, просто как доказательство самой идеи (*proof of concept*). В своей последней модификации мой форк на C# имеет три реализации `IExpression`: * `Money` * `Sum` * `PlusIdentity` Поскольку интерфейсы расширяемы, мы должны позаботиться об этом, поэтому в Haskell мне кажется более безопасным реализовать эти три подтипа как тип `sum`: ``` data Expression = Money { amount :: Int, currency :: String } | Sum { augend :: Expression, addend :: Expression } | MoneyIdentity deriving (Show) ``` Более формально мы можем сделать это, используя `Monoid` ``` instance Monoid Expression where mempty = MoneyIdentity mappend MoneyIdentity y = y mappend x MoneyIdentity = x mappend x y = Sum x y ``` Метод `Plus` из нашего примера на C# здесь представлен функцией `mappend`. Единственным оставшимся членом класса `IExpression` является метод `Reduce`, который можно реализовать следующим образом: ``` import Data.Map.Strict (Map, (!)) reduce :: Ord a => Map (String, a) Int -> a -> Expression -> Int reduce bank to (Money amt cur) = amt `div` rate where rate = bank ! (cur, to) reduce bank to (Sum x y) = reduce bank to x + reduce bank to y reduce _ _ MoneyIdentity = 0 ``` Обо всем остальном позаботится механизм тайпклассов, так что теперь мы можем воспроизвести один из тестов Кента Бека следующим образом: ``` λ> let bank = fromList [(("CHF","USD"),2), (("USD", "USD"),1)] λ> let sum = stimesMonoid 2 $ MoneyPort.Sum (Money 5 "USD") (Money 10 "CHF") λ> reduce bank "USD" sum 20 ``` Так же, как `stimes` работает для любой `Semigroup`, `stimesMonoid` определен для любого `Monoid`, и поэтому мы также можем использовать его с `Expression`. С историческим обменным курсом 2:1, «5 долларов + 10 швейцарских франков умножить на 2» как раз и будет 20 долларов. #### Резюме В 17-й главе своей книги Кент Бек описывает, как он неоднократно пытался придумать различные варианты Money API, прежде чем попробовал сделать его «на выражениях», который он в итоге и использовал в книге. Другими словами, у него был большой опыт, как с конкретно этой проблемой, так и с программированием в целом. Очевидно, что эту работу проделывал высококвалифицированный программист. И мне показалось любопытным, что он, кажется, интуитивно приходит к «моноидному дизайну». Возможно, он специально это сделал (он не говорит об этом в книге), поэтому я скорее предположу, что он пришел к такому дизайну просто потому, что осознал его превосходство. Именно по этой причине мне кажется интересным рассматривать *конкретно этот* пример, как моноид, потому что это дает представление о том, что есть что-то в высшей степени понятное в отношении API на основе моноида. Концептуально — это просто «небольшое дополнение». В данной статье мы вернулись к коду девятилетней (на самом деле, 15-летней, *— прим. пер.*) давности, чтобы идентифицировать его как моноид. В следующей статье я собираюсь пересмотреть код 2015-го года. #### Заключение На этом мы завершаем эту статью. Впереди еще очень много информации, которая будет публиковаться так же, как в оригинале — в виде последовательных постов на Хабре, связанных обратными ссылками. Здесь и далее: оригиналы статей — [Mark Seemann](http://blog.ploeh.dk/2017/10/16/money-monoid) 2017, переводы делаются силами java-сообщества, переводчик — Евгений Федоров.
https://habr.com/ru/post/341398/
null
ru
null
# Введение в SOLID: новый редецентрализованный интернет Тима Бернерса-Ли Создание нового децентрализованного интернета долгие годы волнует умы специалистов. Профессор Тим Бернерс-Ли пошел еще дальше и нашел способ редецентрализовать интернет. Что это значит, как с этим связан проект Solid и что такое «поды»? Читайте в нашем переводе статьи [Arnav Bansal](https://medium.freecodecamp.org/@its.arnav.b), опубликованной на сайте [freeCodeCamp](https://medium.freecodecamp.org/). ![](https://habrastorage.org/r/w1560/webt/8g/mo/eo/8gmoeop3zu9wizn_7uond5ousza.png) Недавно профессор [Тим Бернерс-Ли](https://en.wikipedia.org/wiki/Tim_Berners-Lee) представил проект под названием Solid. Я решил ознакомиться с ним. В этой статье я объясню, для чего нужен Solid и как вы можете начать работать с ним. Что такое Solid? ---------------- Solid — это попытка редецентрализовать интернет. *Ре*децентрализовать? Раньше интернет представляли как децентрализованное общее пространство для считывания и записи данных. Первый браузер, который назывался WorldWideWeb, был также и [редактором](https://www.w3.org/People/Berners-Lee/WorldWideWeb.html). Однако с развитием интернета структура веб-приложений по целому ряду причин стала централизоваться. Данные пользователей превратились в источник силы и дохода интернет-компаний. Solid — решение этой проблемы. Solid — это новая парадигма для веб-приложений, которая обратно совместима с существующим интернетом. Solid — это набор технологий, группа связанных протоколов и внедрений, а также растущее сообщество. Совсем как интернет. Разделение приложений и данных ------------------------------ До появления интернета ваши данные хранились на личном компьютере. Как только люди начали пользоваться множеством компьютеров, а в повседневную жизнь вошли еще и смартфоны, модель «ваши данные остаются с вами» сменилась на «ваши данные находятся в одном или нескольких крупных центрах обработки и хранения информации по всему миру, которыми управляют разработчики приложений». Таким образом, приложения оказались тесно связаны с данными пользователей. Создание какого-либо приложения для сети предполагает глобальное управление персональными данными. Приложения и их способность приносить деньги измеряются тем, как построена их база данных. Ваши данные тяжело переносить, поскольку в разных приложениях хранение информации сильно различается. Что в результате? Почти каждое приложение является изолированным. Это снижает мотивацию разработчиков вводить новшества на уровне приложений. Существующие платформы защищены от сбоев, так как блокировка данных ограничивает пользователей в перемещениях. Правила защиты данных --------------------- В некоторых странах были приняты законы о защите данных. Компании обязаны сделать вашу личную информацию управляемой, чтобы вы могли скачать или удалить ее. Таким образом пользователям пытаются вернуть контроль над их данными. Это законное предписание, но не техническая реальность. Вся информация о пользователях по-прежнему находится у разработчиков, и от возможности скачать свои данные мало толка, если вы не можете перенести их в другое приложение. Поды: держите свои данные при себе ---------------------------------- Проект Solid решает технический аспект этой проблемы. Он позволяет создавать приложения таким образом, чтобы они могли считывать и записывать данные, которые хранятся в вашем *поде* (англ. «pod» — personal online data). У вас и ваших друзей есть поды, которые содержат информацию. Вы даете приложениям разрешение на доступ к вашему поду. У вас их может быть несколько: один вы используете дома, другой на работе. Ваш *под* может существовать на компьютере, или распределяться между вашими устройствами, или храниться для вас на каком-то ресурсе. Поды содержат *связанные данные*. Ваш под может быть связан с информацией на моем поде или где-то в интернете. Мы хотим, чтобы приложения работали на разных устройствах, но при этом наши данные были независимыми. И нам нужно, чтобы различные приложения могли использовать одни и те же данные и имели к ним доступ. Идеи, лежащие в основе Solid ---------------------------- Изучение проекта Solid напомнило мне, как я делал первые шаги в веб-разработке. Помню, как одновременно осваивал HTML, CSS, JavaScript и фреймворки, которые использовались на тот момент. Отличие лишь в том, что Solid это новый проект и найти помощь в его освоении сложнее. Если подумываете начать разработку для Solid, то перед вами собрание основных концептов. (P.S. Если вы хотите сразу перейти к делу, читайте раздел «Первые шаги»). ### Связанные данные Сила Solid и интернета в целом заключается в том, как все данные скрепляются гиперссылками. В Solid вы храните созданные вами данные где угодно. Ваша личная информация, скорее всего, хранится в вашем поде. Как и в интернете, для доступа к этим данным вам нужно перейти по URL-адресу. Самое время представить вам расшифровку названия Solid: **SO**cial **LI**nked **D**ata (общественные связанные данные). Читайте подробности [о связанных данных в контексте проекта Solid](https://solid.inrupt.com/docs/intro-to-linked-data). ### Среда описания ресурса (RDF) RDF — это способ представления связанных данных посредством утверждений вида `subject-predicate-object`. Их также называют триплетами. RDF — это абстрактная модель. Ее даже можно представить на примере английских предложений. Перед вами задание из списка задач: `T1 is a task T1 is labelled "Write an article about Solid" T1 is due October 5rd 2018 T1 is assigned to @itsarnavb T1 is incomplete` ### Turtle Turtle — это компактный способ представления данных RDF с помощью URL для передачи `subject`, `predicate` и `object`. ``` . . . ``` *Три ссылки в каждой строке — Subject, Predicate и Object соответственно.* Они повторяются, их тяжело читать, поэтому у turtle есть система префиксов и условных обозначений. Это особенно важно при работе с большими документами. ``` @prefix p: . @prefix rel: . @prefix book: . p:Nassim_Taleb rel:author book:The_Black_Swan, book:Antifragile, book:Skin_in_the_Game. ``` Читайте больше о [turtle](https://solid.inrupt.com/docs/expressing-ld-with-turtle). Также вы можете ознакомиться с полным документом о turtle [здесь](https://ruben.verborgh.org/profile/#me). Это подробный публичный профиль профессора Рубена Вербора, который является частью команды создателей Solid. ### Семантическая паутина Тим Бернерс-Ли наилучшим образом объясняет смысл всего этого: > «Я мечтаю о том, чтобы интернет [с помощью компьютеров] мог анализировать все сетевые данные — контент, ссылки и транзакции между людьми и компьютерами. «Семантическую паутину», которая сделает это возможным, еще только предстоит разработать, но когда это произойдет, ежедневными механизмами торговли, бюрократическими процедурами и нашей повседневной жизнью будут заниматься машины, общающиеся между собой. [«Интеллектуальные агенты»](https://en.wikipedia.org/wiki/Intelligent_agent), которых люди так давно расхваливают, наконец-то станут реальностью». Первые шаги ----------- Выполняйте эти задачи в любой удобной для вас последовательности. * [Получите свой под](https://solid.inrupt.com/get-a-solid-pod): зарегистрируйтесь на любом бесплатном провайдере подов или, если хотите, запустите свой собственный сервер. * [Создайте Solid-приложение с помощью этого урока](https://solid.inrupt.com/docs/app-on-your-lunch-break). * [Прочтите о следующих возможностях Solid](https://solid.gitbook.io/solid-hacks/). * [Ознакомьтесь с документацией Solid](https://solid.inrupt.com/docs). Переходите на Solid ------------------- Вы поможете экосистеме Solid, если: * вложитесь в разработку самого проекта Solid и инфраструктуры, связанной с ним; * будете разрабатывать приложения, используя Solid. ![](https://habrastorage.org/r/w780q1/webt/bc/fg/gj/bcfggjyfnwqsnbt7v1otsckvmwo.jpeg) Но имейте в виду, что в данный момент разработка для Solid — это тернистый путь со множеством проб и ошибок, на котором вам придется задавать глупые вопросы и искать на них ответы. Тут нет Stack Overflow, куда можно было бы обратиться. Для того, чтобы отладить некоторые ошибки, вам, вероятно, потребуется погрузиться в исходный код. Вот сообщества, в которых вам могут помочь: * [r/solid](https://www.reddit.com/r/solid) (я являюсь одним из модераторов); * [gitter.im/solid](https://gitter.im/solid/home). И наконец, вот мой Twitter для личных сообщений: @itsarnavb. Я попытаюсь ответить на все поступающие вопросы или найду того, кто сможет это сделать. Я буду поддерживать актуальность этой статьи, опираясь на лучшие ресурсы для изучения Solid. Дополнительные материалы ------------------------ * [Веб-сайт Solid — solid.mit.edu](https://solid.mit.edu/) * [Изменения парадигмы для децентрализованного интернета — Рубен Вербор](https://ruben.verborgh.org/blog/2017/12/20/paradigm-shifts-for-the-decentralized-web/) * [Один маленький шаг для интернета — Тим Бернерс-Ли](https://medium.com/@timberners_lee/one-small-step-for-the-web-87f92217d085)
https://habr.com/ru/post/429360/
null
ru
null
# Сделаем код чище: Нюансы вывода отладочных сообщений в драйверах Linux Как многим извесно вывод отладочных сообщений в Linux в отношении драйверов осуществляется несколькими подмножествами макросов и функций. Не все аналоги взаимозаменяемы и работают так, как кажется логичным на первый взгляд. Вот об этом и пойдёт речь в этой короткой заметке. Для начала посмотрим, какие известные функции вывода сообщений предоставлены во внутреннем API ядра. Базовая функция ``` printk(LEVEL "message\n"); ``` От неё есть набор макросов (наиболее часто используемые): ``` pr_err("message\n"); pr_warn("message\n"); pr_info("message\n"); pr_debug("message\n"); ``` И так далее. Для драйверов же используется набор функций с префиксом `dev_*` с соответствющими уровнями вывода, и отдельно для драйверов сетевых карт c префиксом `netdev_*`. И вообще, общее правило, что подсистема ядра или драйвер использует свой префикс с суффиксом уровня вывода сообщения. Все они являются полноценными аналогами записи `printk(LEVEL …)` для `pr_*` и таким же образом для `dev_*` и `netdev_*` за исключением `pr_debug()`, `dev_dbg()` и, как уже все догадались, `netdev_dbg()`. Итак, при каких условиях мы увидим сообщение, выводимое разными вариантами? С помощью `printk(KERN_DEBUG "message\n")`: * уровень вывода в командной строке ядра выставлен равным или более 7 **или** передан параметр *ignore\_loglevel* и `pr_debug("message\n")`: * уровень вывода в командной строке ядра выставлен равным или более 7 **или** передан параметр *ignore\_loglevel* * интересуемый нас модуль собран с опцией `DEBUG` **или** включена опция конфигурации ядра `CONFIG_DYNAMIC_DEBUG`, а соответствующие сообщения (например, указанием имя модуля: номер строки) включены в список выводимых То же самое и для `dev_dbg()`, и для `netdev_dbg()`. Помимо этого особое внимание стоит уделить полезной опции `CONFIG_DYNAMIC_DEBUG`. При всей её динамичности работать она начинает не самой загрузки ядра, поэтому не во всех модулях можно полагаться на неё. Ещё одна дилемма о том, что использовать в продуктовой версии: `CONFIG_DYNAMIC_DEBUG` **или** стандартный вывод, префиксируемый условием типа: ``` #define mydbg(dev, format, arg…) \ do { \ if (mycooldriver->debug > 0) \ dev_printk(KERN_DEBUG, dev, format, ##arg); \ } while (0) ``` Так вот разница здесь вполне очевидна, если копнуть в недра исходного кода ядра, а именно в первом случае вывод будет приравнен к no-op (пустой операции), что не так во втором случае. Соответственно критичные по времени исполнения модули не стоит заполнять кодом, показанным выше. Более того, лучшим вариантом будет применение трассировочных точек в таких местах, но об этом я расскажу когда-нибудь в будущем. Бонусом добавлю, что функция `print_hex_dump_bytes()` относительно недавно обзавелась поддержкой со стороны Dynamic Debug.
https://habr.com/ru/post/262791/
null
ru
null
# PVS-Studio Learns What strlen is All About ![0824_DataFlow_And_Strlen/image1.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/8fd/813/55c/8fd81355c4108834ac257be55ca393cb.png) Somehow, it so happens that we write about our diagnostics, but barely touch upon the subject of how we enhance the analyzer's internal mechanics. So, for a change, today we'll talk about a new useful upgrade for our data flow analysis. How It Started: a Tweet from JetBrains CLion IDE ------------------------------------------------ A few days ago I saw a post from JetBrains about new features offered by CLion's built-in static analyzer. ![0824_DataFlow_And_Strlen/image2.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/7df/cfe/db4/7dfcfedb471be1358b340e803800035e.png) Since we are soon planning to release the PVS-Studio plugin for CLion, I could not just ignore their announcement! I had to point out that PVS-Studio is also powerful. And that the PVS-Studio plugin for CLion can find even more mistakes. ![0824_DataFlow_And_Strlen/image3.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/061/dd6/069/061dd60690edfc735f09f1befe459923.png) So I had a nice little chat with JetBrains: * [This, you can find with clang-analyzer](https://twitter.com/clion_ide/status/1382313594033946629); * [And this, you can not](https://twitter.com/Code_Analysis/status/1382325263380398083) :) I pondered this all for a little bit. Very nice! They enhanced their data flow analysis and told the world about it. We are no worse! We're always enhancing the analyzer's engine — including that very data flow analysis mechanics. So here I am, writing this note. What's up with Our Data Flow ---------------------------- One of our clients described an error that PVS-Studio unfortunately failed to find. A couple of days ago we upgraded the analyzer so that it can find this error. Sometimes, in case of an overflow, the analyzer got confused with unsigned variable values. The code that caused the problem looked something like this: ``` bool foo() { unsigned N = 2; for (unsigned i = 0; i < N; ++i) { bool stop = (i - 1 == N); if (stop) return true; } return false; } ``` The analyzer could not understand that the *stop* variable was always assigned the *false* value. Why *false*? Let's do a quick calculation: * the variable's value range is *i = [0; 1]*; * *the* expression's possible result *is i-1 = [0; 0] U [UINT\_MAX; UINT\_MAX]*; * the N variable equals two and falls beyond the *{ 0, UINT\_MAX } set;* * the expression is always false. **Note.** There is no undefined behavior here, because numbers are overflown (wrapped) when you work with an unsigned type. Now we have taught PVS-Studio to process these expressions correctly and to issue an appropriate warning. Interestingly, this change led to other improvements. For example, the initial change caused false positives related to string length processing. While fighting them, we introduced more enhancements and taught the analyzer about functions like *strlen* — how and why they are used. Now I'll go ahead and show you the analyzer's new abilities. There is an open-source project test base that we use for our core's regression testing. The project test base contains the [FCEUX](https://github.com/TASVideos/fceux) emulator. The upgraded analyzer found an interesting error in the Assemble function. ``` int Assemble(unsigned char *output, int addr, char *str) { output[0] = output[1] = output[2] = 0; char astr[128],ins[4]; if ((!strlen(str)) || (strlen(str) > 0x127)) return 1; strcpy(astr,str); .... } ``` Can you see it? To be honest, we did not notice it immediately and our first thought was, "Oh no, we broke something!" Then we saw what was up and took a minute to appreciate the advantages of static analysis. PVS-Studio warned: V512 A call of the 'strcpy' function will lead to overflow of the buffer 'astr'. asm.cpp 21 Still don't see the error? Let's go through the code step by step. To start with, we'll remove everything irrelevant: ``` int Assemble(char *str) { char astr[128]; if ((!strlen(str)) || (strlen(str) > 0x127)) return 1; strcpy(astr,str); .... } ``` The code above declares a 128-byte array. The plan is to verify a string and then pass it to the *strcpy* function that copies the string to the array. The string should not be copied if it is empty or contains over 127 characters (not counting the terminal zero). So far, all is well and good, right? Wait, wait, wait. What do we see here? What kind of a constant is **0x127**?! It's not 127 at all. Far from it! This constant is set in hexadecimal notation. If you convert it to decimal, you get 295. So, the code above is equivalent to the following: ``` int Assemble(char *str) { char astr[128]; if ((!strlen(str)) || (strlen(str) > 295)) return 1; strcpy(astr,str); .... } ``` As you can see, the *str* string check does not prevent possible buffer overflows. The analyzer correctly warns you about the problem. Previously, the analyzer could not find the error. The analyzer could not understand that both *strlen* function calls work with the same string. And the string does not change between them. Although things like this one are obvious to developers, this is not the case for the analyzer. It needs to be taught expressly. Now PVS-Studio warns that the *str* string length is in the [1..295] range, and thus may exceed the array bounds if copied to the *astr* buffer. ![0824_DataFlow_And_Strlen/image4.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/e91/499/232/e91499232cd5554642bc35187c34c164.png) New Challenges -------------- The error above also exists in the FCEUX project's current code base. But we will not find it, because now the string's length is written to a variable. This breaks the connection between the string and its length. For now, the analyzer is oblivious to this error in the code's new version: ``` int Assemble(unsigned char *output, int addr, char *str) { output[0] = output[1] = output[2] = 0; char astr[128],ins[4]; int len = strlen(str); if ((!len) || (len > 0x127)) return 1; strcpy(astr,str); .... } ``` This code is easy for a human to understand. The static analyzer, however, has a difficult time tracking values here. It needs to know that the *len* variable represents the *str* string's length. Additionally, it needs to carefully track when this connection breaks. This happens when the *len* variable or the string contents are modified. So far, PVS-Studio does not know how to track these values. On the bright side, now here's one more direction to grow and develop! Over time, the analyzer will learn to find the error in this new code as well. By the way, the reader may wonder why we analyze projects' old code and do not upgrade the test projects regularly. It's simple, really. If we update the test projects, we won't be able to perform regression testing. It will be unclear what caused the analyzer to behave differently — the analyzer's or the test projects' code changes. This is why we do not update open-source projects we use for testing. Of course, we need to test the analyzer on modern code written in C++14, C++17 etc. To do this, we add new projects to the database. For example, one of our recent [additions](https://pvs-studio.com/en/b/0770/) was a header-only C++ library collection ([awesome-hpp](https://github.com/p-ranav/awesome-hpp)). Conclusion ---------- It's always interesting and useful to enhance data flow analysis mechanisms. Do you think so too? Do you want to know more about how static code analysis tools work? Then we recommend you read the following articles: 1. [The Code Analyzer is wrong. Long live the Analyzer!](https://pvs-studio.com/en/b/0779/) 2. [False Positives in PVS-Studio: How Deep the Rabbit Hole Goes](https://pvs-studio.com/en/b/0612/) 3. [Technologies used in the PVS-Studio code analyzer for finding bugs and potential vulnerabilities](https://pvs-studio.com/en/b/0592/) 4. [Machine Learning in Static Analysis of Program Source Code](https://pvs-studio.com/en/b/0706/) On a final note, I invite you to [download](https://pvs-studio.com/en/pvs-studio-download/) the PVS-Studio analyzer and check your projects.
https://habr.com/ru/post/554692/
null
en
null
# Все, что хотел [Hotel](https://github.com/typicode/hotel) – приют для localhost. Запуск и управление всех ваших веб-проектов с одного адреса. Больше, разных портов костылей. ------------------------------- Можно держать зоопарк портов для каждого проекта: 9000, 8000, 8080, 3000, 3001… Или настраивать веб-сервер, править /etc/hosts файл или DNS для каждого проекта. А еще помнить, как запускать девелоперский веб-сервер для каждого проекта: * gulp * gulp serve * gulp watch * ionic serve * browser-sync start --server --no-open --directory --files * http-server -p 9000 * python -m http.server 8000 * php -S localhost:8000 * и так далее... Сделать жизнь проще поможет hotel. ### 1. Поставьте и запустите отель: ``` npm install -g hotel && hotel start ``` ### 2. Заселите проекты в отель: ``` # foo project cd ~/foo hotel add 'gulp' -n foo -o foo-hotel.log # bar project cd ~/bar hotel add 'gulp serve' -n bar -o bar-hotel.log # baz project cd ~/baz hotel add 'gulp watch' -n baz -o baz-hotel.log # etc... hotel add 'ionic serve' hotel add 'browser-sync start --server --no-open --directory --files' hotel add 'http-server -p $PORT' hotel add 'python -m http.server $PORT' hotel add 'php -S localhost:$PORT' ``` ### 3. Теперь они живут в отеле <http://localhost:2000/> Как открыть проект? ------------------- * <http://localhost:2000/foo> * <http://localhost:2000/bar> * <http://localhost:2000/baz> Как работает hotel.dev? ----------------------- Hotel позовляет открывать %любой%.dev адрес в браузере, заботливо поднимая ваш веб сервер и проксируя в него. Достаточно [указать прокси в браузере](https://github.com/typicode/hotel/blob/master/docs/README.md) Используя небольшой сценарий [proxy auto-config](https://en.wikipedia.org/wiki/Proxy_auto-config) для браузера <http://localhost:2000/proxy.pac> ``` function FindProxyForURL (url, host) { if (dnsDomainIs(host, '.dev')) { return 'PROXY 127.0.0.1:2000'; } return 'DIRECT'; } ``` Если скормить этот сценарий бразуеру, то все, что кончается на .dev будет ходить через 127.0.0.1:2000 на ваш веб. Теперь отель будет доступен по адресу hotel.dev. А ваши проекты по адресам foo.dev, bar.dev, baz.dev. GitHub проекта: <https://github.com/typicode/hotel> Прошу про очепятки чепятать в личку.
https://habr.com/ru/post/282511/
null
ru
null
# Один бит сломал, другой потерял: задачка по передаче данных Здравствуй, Хабр! ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c13/cdd/3fc/c13cdd3fc35f27047395fa5175dfc129.jpg)[Картинка отсюда](http://pikabu.ru/story/odin_slomal_vtoroy_poteryal_4778012) Предлагаю в качестве тренировки для мозга следующую задачку: > Общаются между собой две машины. Шлют друг другу цифровые данные, натурально нули и единицы. Только канал между ними не очень: биты регулярно то искажаются, то пропадают вовсе. Допустим, наш канал из 20 бит в среднем **один бит ломает, другой теряет**. А теперь пишем алгоритм, наиболее оптимально эти данные передающий. > > Нужно найти компромисс между оверхедом над полезной нагрузкой сети, и временем работы передающей и принимающей машин. И если искаженные биты можно чинить, используя [известные](https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B4_%D0%A5%D1%8D%D0%BC%D0%BC%D0%B8%D0%BD%D0%B3%D0%B0) или самописные алгоритмы коррекции, то для потерянных, так и не дошедших до принимающей машины битов, нужно будет организовывать повторную отправку. А ведь запрос о повторной отправке от принимающей машины тоже может потеряться… Чувствуете челлендж? Вы скажете, серьезные ребята из IEEE и смежных организаций уже всё давно придумали, и будете правы. Но когда это мешало переизобретать, just for lulz? И вылезти ненадолго из зоны комфорта надежных и простых сокетов (Не подсматривая какие-нибудь [RFC](https://tools.ietf.org/html/rfc1661))? Тем более, делать это будем на JavaScript, в браузере, без сторонних библиотек, еще желательно чтобы на один экран влезло: [Вот прямо тут](https://kilchichakov.com/dtc/data-transfer.html) Понимаю предвзятое отношение многих к JavaScript, однако его единственного можно за 5 минут встроить в браузер и дать возможно редактировать и исполнять. Несложный базовый синтаксис, пишешь будто на псевдкоде. Весь код исполняется локально. Подключен [CodeMirror](https://codemirror.net/) для редактора кода. Пишем содержимое двух функций, периодически вызываемых на передающей (Sender \ Source) и принимающей (Receiver \ Destination) машинах. В нашем распоряжении контекст `this`, имеющий аж 5 методов: ``` var runs = this.counter(); ``` Счетчик того, сколько раз была вызвана основая функция. Помогает ориентироваться во времени, для отсчета таймуатов например. ``` var frame = this.getPayload(n); ``` Доступен на передающей машине. Считывает и возвращает следующие `n` бит полезной нагрузки. ``` this.write(frame); ``` Передает `frame`, являющийся массивом бит, другой машине. Проходя по каналу передачи, сообщение, возможно, будет искажено. ``` var frame = this.read(n); ``` Считывает из входящего сетевого буфера до `n` бит. Если ничего нет, вернет пустой массив. ``` this.acceptPayload(frame); ``` Доступен на принимающей машине. Помещает `frame` в результирующий массив. Если основная функция вернет `true`, значит она хочет быть вызвана еще раз в будущем. Иначе, машина завершает свое исполнение. На принимающей машине вызовется проверка целостности принятых данных, а также подсчитается оверхед. Я добавил несколько примеров исходного кода: * **Tutorial** — чуть более подробное описание возможностей передающих и принимающих машин. * **No Corrections** — простейший алгоритм, не следящей за целостностью передаваемых данных. Оверхед отсутствует, но целостность оставляет желать лучшего. * **Naive 900% Overhead** — думаю, понятно из названия. Шлем не торопясь по одному биту, продублированному десять раз. Работает более-менее стабильно (хотя изредка целостность нарушалась), но оверхед по нагрузке сети 900%. * **+ resend requests** — несложный вариант, предложенный [haldagan](https://habrahabr.ru/users/haldagan/), хоть и не обеспечивающий 100% целостности, но уменьшающий оверхед до ~550% и пытающийся корректировать ошибки запросом о переотправке. Между первой идеей и последней точкой (первой версии) этой статьи пока что еще прошло меньше 12 часов, так что не обессудьте, если что пропустил. Пишите, поправлю как можно оперативней. **UPD:** вот и мой вариант подоспел к шапочному разбору: * **Author's proposal** отправляет короткие сообщения с кодами обнаружения ошибок, переподает по запросу. Неисправимо искаженных данных примерно 3 бит на 107
https://habr.com/ru/post/332134/
null
ru
null
# Yii 2.0.5 (исправление безопасности) Вышел Yii 2.0.5 исправляющий проблему с безопасностью, найденную в классе `yii\web\ViewAction`. Настоятельно [рекомендуется обновиться](http://www.yiiframework.com/download/). Обновление полностью совместимо с 2.0.4, содержит только исправление безопасности и не поломает ваш код. Уязвимость в `ViewAction` и заключается в возможности запускать любой PHP файл (или файл с расширением `.php`) на диске передав относительный путь через параметр `view`. Так как о проблеме сообщили через публичный трекер, мы исправили её и выпустили обновление немедленно. Для этой уязвимости мы зарезервировали номер CVE-2015-5467.
https://habr.com/ru/post/262315/
null
ru
null
# Два года успешного использования Edition-Based Redefiniton в базах Oracle ### Хранимый код в базе? Не смешите, на дворе 2017 год! В этом году бренду QIWI исполнилось 10 лет. За это время в нашей основной транзакционной базе накопилось более чем 130 тысяч строк хранимого PL/SQL кода. На Хабре регулярно встречаются статьи о том, как различные команды разработчиков категорически не используют хранимый код в БД, стараясь убрать излишнюю нагрузку с БД и таким образом удешевить систему. По этой теме можно долго дискутировать, и такая точка зрения опровергается, например, [вот в этом видео](http://www.youtube.com/watch?v=8jiJDflpw4Y). Что бесспорно — хранимый PL/SQL код традиционно имел один существенный минус: релиз PL/SQL программы требовал остановки сервиса, поскольку процесс компиляции этого кода должен был получить эксклюзивную блокировку в словаре БД (так называемый *library cache pin*). Не вовремя запущенная случайная рекомпиляция могла подвесить всю систему. Приходилось регулярно выделять технические окна для релиза PL/SQL кода. Заверенные скриншоты жалоб наших возмущённых клиентов, попавших в такие окна, бережно хранятся в наших архивах. Однако не прошло и 20 лет от создания PL/SQL, как Oracle этот недостаток если не устранил полностью, то существенно смягчил. ### Welcome to Oracle Edition-Based Redefinition Мы не будем приводить детальные примеры кода с использованием Edition-Based Redefinition, а опишем несколько ключевых пунктов проекта по его внедрению. С некоторой натяжкой этот механизм, который принято сокращать до EBR, можно считать системой контроля версий объектов БД внутри самой БД. Теперь приложения способны работать с разными версиями одних и тех же процедур, пакетов и представлений. Однако в БД, кроме кода, есть еще и структуры данных в виде таблиц, и Oracle пришлось придумать способ межверсионной трансформации как самих таблиц, так и данных в них. Сразу оговоримся, что наши разработчики используют EBR только для представлений (view) и PL/SQL кода, и не используют для таблиц. Предметная область хорошо изучена и структуры данных вполне стабильны. В течение года столбцы в горячих таблицах менялись или добавлялись от силы раз пять, при этом изменений кода было в десятки раз больше. ### Приложение Наше Java-приложение умеет само переключаться на использование новой версии PL/SQL кода. Текущий edition можно извлечь из базы таким нехитрым запросом: ``` select property_value from database_properties where property_name = 'DEFAULT_EDITION' ``` Приложение хранит это значение и регулярно опрашивает базу, не изменилось ли оно. Успешный релиз новой версии PL/SQL кода выполняет команду вида ``` alter database default edition = ED_1180_23185307 ``` а приложение, узнав, что edition изменился, в подходящий момент выполняет команду вида ``` alter session set edition = ED_1180_23185307 ``` и тем самым переключается на использование новой версии хранимого кода. Теоретически возможен и откат PL/SQL кода на предыдущую версию – для этого надо выполнить команду *alter database* с установкой предыдущего edition, а приложение должно на него переключиться. ### Баги СУБД Oracle внутри крайне сложна, в её оптимизацию и развитие вложено столько человеко-лет, что любые новые возможности в её ядре не проходят безболезненно для остального функционала. Речь конечно же идёт о багах и устраняющих их патчах. EBR был вовсе не исключением, а, наоборот, существенным возмутителем спокойствия. Скажем так: без техподдержки обойтись невозможно. К сожалению, отдельного списка патчей, устраняющих связанные с EBR баги, Oracle не ведёт. Однако Oracle активно использует EBR в одной из своих популярных ERP-систем – Oracle E-Business Suite (OEBS). Поэтому можно взять набор патчей, который Oracle рекомендует к установке на базу OEBS, и установить на вашу базу те из них, которые потенциально наиболее вероятны для вашего приложения. Найти его можно на сайте поддержки Oracle в Section 3 документа Oracle E-Business Suite Release 12.2: Consolidated List of Patches and Technology Bug Fixes (Doc ID 1594274.1) Подводные камни --------------- При работе с Oracle Edition-Based Redefinition мы нашли четыре недостатка: 1. Ограничение на число editions, равное 2000. Со скоростью 2 релиза в неделю мы исчерпаем их за 20 лет. Надеемся, к тому времени Oracle сподобится-таки убрать это ограничение. 2. Плоская, а не древовидная структура editions, 1 parent <–> 1 child. Нам это пока что никак не мешает. 3. Не-версионируемые (non-editioned) объекты не могут ссылаться на версионируемые (например, в версии 11g такие объекты, как materialized view, являются non-editioned и не могут ссылаться на editioned view). 4. Специфика в раздаче прав на версионируемый код. На последнем пункте хочется остановиться поподробнее, так как этот эффект описан крайне скудно. Дело в том, что выдача прав на версионируемый объект, последний раз изменявшийся в каком-либо предыдущем edition, копирует этот объект в текущий edition, со всеми уже знакомыми нам симптомами перекомпиляции и, если не повезет, зависаниями на словарной блокировке *library cache pin*. По всей видимости, это связано с внутренней реализацией editioned схем в БД. Поэтому процедуру раздачи прав пришлось слегка изменить: сначала мы находим edition, в котором искомый объект был изменен последний раз, устанавливаем этот edition в нашей сессии с помощью вышеописанной команды *alter session*, и лишь после этого выдаем нужные права. Как говорится, не баг 26654363, а expected behavior. Что ж, обходной путь не слишком трудозатратен и с ним в подавляющем большинстве случаев можно ужиться. Итог проекта: минус 16 часов планового простоя в год 99.8% -> 99.98% P.S. Мы ищем DBA и разработчиков БД! -------------------------------------------------------------------------------------------------------------
https://habr.com/ru/post/343782/
null
ru
null
# Пишем торговых роботов с помощью графического фреймворка StockSharp. Часть 1 [![](https://habrastorage.org/r/w1560/webt/f-/uo/a9/f-uoa9b5v33o_a22qip5tgvjg6o.png)](https://habr.com/company/iticapital/blog/432812/) В нашем блоге мы много пишем о технологиях и полезных инструментах, связанных с биржевой торговлей. Один из них – бесплатная платформа [StockSharp](https://stocksharp.ru/), которую можно использовать для профессиональной разработки торговых терминалов и торговых роботов на языке C#. В данной статье мы покажем, как использовать графический фреймворк, входящий в S#.API, с целью создания торгового терминала с возможностью запуска алгоритмических стратегий. Что понадобится --------------- 1. Visual Studio 2017 (Community, бесплатная версия), в ней мы будем программировать. 2. Подключение к торгам на бирже, в примерах в данном тексте используется интерфейс [SMARTcom от ITI Capital](https://iticapital.ru/software/smartcom/). Создание проекта ---------------- Создадим новое WPF-приложение в Visual Studio: ![](https://habrastorage.org/r/w1560/webt/nq/j3/sb/nqj3sbywjx9_xny7tjyac_kn3pc.png) После чего необходимо добавить S#.API библиотеки. О том, как это сделать, можно узнать [в документации](https://doc.stocksharp.ru/html/b9f672db-e0c9-4208-9759-179e5de17fd8.htm). Оптимальный вариант – установка с помощью Nuget. Так как все графические элементы S#.API созданы на базе DevExpress, а библиотеки DevExpress идут вместе с S#.API, глупо будет ими не воспользоваться. Перейдем в редактор окна MainWindow.xaml: ![](https://habrastorage.org/r/w1560/webt/ni/q2/zz/niq2zzalyspdk8ztdf9uatdfnps.png) Заменим Window на DXWindow, это нам понадобится для использования разных цветовых схем: ![](https://habrastorage.org/r/w1560/webt/ok/jo/h1/okjoh1ouxpadw48b2scjw8x1df4.png) Visual Studio нам сама предложит вставить необходимые библиотеки. Разобьем окно на три части – сверху будет полоса с кнопками настройки подключений и подключения, внизу – окно с логами, а в середине все остальные панели. Проще всего так разбить окно с помощью LayoutControl от DevExpress. В получившиеся три части мы и будем добавлять необходимые нам элементы. ``` ``` Настройка подключения к коннектору ---------------------------------- Добавим две кнопки, одна кнопка настройки подключения, а вторая кнопка подключения. Для этого воспользуемся кнопкой SimpleButton от DevExpress. Кнопки будут расположены в верхней части приложения. В каждую кнопку поместим картинки, привычные по [S#.Designer](https://stocksharp.ru/products/designer/), [S#.Data](https://stocksharp.ru/products/hydra/) и [S#.Terminal](https://stocksharp.ru/products/terminal/). ``` ``` В верхнем правом углу экранной формы увидим такую картину: ![](https://habrastorage.org/r/w1560/webt/6w/yo/wd/6wyowd9ztiixrpaygfcs-v6eaj4.png) Двойным кликом на каждую кнопку создадим обработчики событий нажатия на кнопку. В коде MainWindow необходимо объявить коннектор, а также место и имя файла в котором будут храниться настройки коннектора. ``` public readonly Connector Connector; private const string _dir = "Data"; private static readonly string _settingsFile = $@"{_dir}\connection.xml"; ``` В обработчике события нажатия на кнопку настроек коннектора будем открывать окно конфигурации коннектора и сохранять его в файл. ``` private void SettingsButton_Click(object sender, RoutedEventArgs e) { if (Connector.Configure(this)) { new XmlSerializer().Serialize(Connector.Save(), \_settingsFile); } } ``` В конструкторе будем проверять, есть ли каталог и файл с настройками коннектора, и если он есть, будем его загружать в коннектор: ``` //---------------------------------------------------------------------------------- Directory.CreateDirectory(_dir); Connector = new Connector(); if (File.Exists(_settingsFile)) { Connector.Load(new XmlSerializer().Deserialize(\_settingsFile)); } //---------------------------------------------------------------------------------- ``` Большинство объектов S#.API имеют методы Save и Load, с помощью которых можно сохранить и загрузить этот объект из XML-файла. В методе обработчике нажатия на кнопку подключения подключаем коннектор. ``` private void ConnectButton_Click(object sender, RoutedEventArgs e) { Connector.Connect(); } ``` Теперь можно запустить программу и проверить ее. Установка темной темы --------------------- Многие трейдеры предпочитают темные темы торговых приложений. Поэтому сразу делаем так, чтобы тема программы была темной. Для нужно найти файл App.xaml: ![](https://habrastorage.org/r/w1560/webt/dc/el/xz/dcelxz29jsvbpysoimfdml5lp1m.png) И заменить в нем Application на charting:ExtendedBaseApplication, и Visual Studio нам сама предложит вставить необходимые библиотеки. ``` ``` А в файле App.xaml.cs нужно удалить «: Application». ``` namespace ShellNew { /// /// Interaction logic for App.xaml /// public partial class App { } } ``` В конструкторе MainWindow пишем `ApplicationThemeHelper.ApplicationThemeName = Theme.VS2017DarkName;` Полный код на текущий момент: ``` public partial class MainWindow { public readonly Connector Connector; private const string _dir = "Data"; private static readonly string _settingsFile = $@"{_dir}\connection.xml"; public MainWindow() { //---------------------------------------------------------------------------------- ApplicationThemeHelper.ApplicationThemeName = Theme.VS2017DarkName; //---------------------------------------------------------------------------------- Directory.CreateDirectory(_dir); Connector = new Connector(); if (File.Exists(_settingsFile)) { Connector.Load(new XmlSerializer().Deserialize(\_settingsFile)); } //---------------------------------------------------------------------------------- InitializeComponent(); } private void SettingsButton\_Click(object sender, RoutedEventArgs e) { if (Connector.Configure(this)) { new XmlSerializer().Serialize(Connector.Save(), \_settingsFile); } } private void ConnectButton\_Click(object sender, RoutedEventArgs e) { Connector.Connect(); } } ``` Запускаем для проверки темной темы: ![](https://habrastorage.org/r/w1560/webt/mk/lh/3v/mklh3vcxuf88y7zil2ub58n_js4.png) Создание панели инструментов ---------------------------- Добавим папку, где мы будем хранить все созданные нами контроллы, и назовем ее XAML. Добавим в нее свой первый UserControll, дадим ему имя SecurityGridControl. ![](https://habrastorage.org/r/w1560/webt/y9/ye/oi/y9yeoioudundf5rke7k2vwh9wau.png) В него добавляем один элемент SecurityPicker. В нем будут отображаться имеющиеся инструменты. По аналогии с главным окном будем использовать LayoutControl от DevExpress. ``` ``` Перейдем в конструктор главного окна и изменим центральную часть в вид закладок. В одной из закладок расположим созданный нами контролл с SecurityPicker: ``` ``` Теперь, когда у нас есть панель инструментов, надо задать ей источник данных, в нашем случае это коннектор. Можно было просто в конструкторе `MainWindow написать SecurityPanel.SecPicker.SecurityProvider = Connector;`. Но не стоит засорять MainWindow кодом, который к нему не относится. Поэтому создадим статическую переменную Instance а в конструкторе MainWindow присвою ему значение MainWindow: ``` … public static MainWindow Instance; … Instance = this; … ``` Теперь в любом месте нашей программы мы можем обращаться к свойствам MainWindow через код MainWindow.Instance.XXX. В конструкторе SecurityGridControl таким образом указываем Connector как источник данных: ``` public SecurityGridControl() { InitializeComponent(); SecPicker.SecurityProvider = MainWindow.Instance.Connector; } ``` Запустим для проверки: ![](https://habrastorage.org/r/w1560/webt/kv/yc/ez/kvycezcrwoqeghzdaw2puoagmmc.png) Добавление логирования ---------------------- Работу программы, коннектора или робота необходимо контролировать. Для этого в S#.API есть специальный класс LogManager. Данный класс принимает сообщения от источников и передает их в слушатели. В нашем случае источниками будут Connector, стратегии и т.д., а слушателем будет файл и панель логов. В коде MainWindow объявляем объект LogManager и место, где он будет храниться: ``` public readonly LogManager LogManager; private static readonly string _logsDir = $@"{_dir}\Logs\"; ``` В конструкторе MainWindow создаем LogManager, задаем ему источник Connector и файл слушателя: ``` //---------------------------------------------------------------------------------- LogManager = new LogManager(); LogManager.Sources.Add(Connector); LogManager.Listeners.Add(new FileLogListener { SeparateByDates = SeparateByDateModes.SubDirectories, LogDirectory = _logsDir }); //---------------------------------------------------------------------------------- ``` По аналогии с панелью инструментов создадим, панель логов в папку XAML добавляем еще один UserControl. Дадим ему имя MonitorControl. В него добавим элемент Monitor. ``` ``` В конструкторе MonitorControl зададим в LogManager еще и Monitor как слушателя: ``` public MonitorControl() { InitializeComponent(); MainWindow.Instance.LogManager.Listeners.Add(new GuiLogListener(Monitor)); } ``` В нижнюю часть MainWindow добавляем созданный MonitorControl: ``` ``` Запускаем для проверки: ![](https://habrastorage.org/r/w1560/webt/ky/xg/mw/kyxgmwzz8wd1cnl91bhpt1007be.png) Создание панели стаканов ------------------------ По аналогии с предыдущими панелями создадим панель стаканов, в папку XAML добавляем еще один UserControl. Дадим ему имя MarketDepthControl. В MainWindow мы уже использовали LayoutControl, в этом контроле тоже воспользуемся LayoutControl. Разобьем панель на две части по горизонтали: ``` ``` В левую часть добавим SecurityPicker – с ним мы встречались, когда создавали панель инструментов. ``` Правую часть разобьем на части по вертикали. Сверху правой части будет стакан: ``` У MarketDepthControl необходимо задать какое-нибудь значение MaxHeight, иначе приложение не будет запускаться. Под стаканом расположим элементы задания портфеля, цены, и объёма заявки: ``` ``` Здесь стоит отметить свойство Label у LayoutItem, оно позволяет задать текст перед элементом. А также элемент SpinEdit от DevExpress в котором удобно задавать численные значения. Выглядят эти элементы следующим образом: ![](https://habrastorage.org/r/w1560/webt/gr/ix/9j/grix9jsfrxcmaftyx6bpdylnxi4.png) Еще ниже расположим кнопки купить и продать: ``` ``` Полный код: ``` ``` В конструкторе MarketDepthControl зададим источник инструментов для SecurityPicker и источник портфелей для PortfolioComboBox, в нашем случае это будет Connector: ``` public MarketDepthControl() { InitializeComponent(); SecPicker.SecurityProvider = MainWindow.Instance.Connector; PortfolioComboBox.Portfolios = new PortfolioDataSource(MainWindow.Instance.Connector); } ``` Создадим обработчик события выделения инструмента в SecurityPicker. В нем проверяем не равен ли нулю полученный инструмент. Если он не равен нулю, сохраняем полученный инструмент в локальную переменную, нам он пригодится при обновлении стакана. После чего очищаем и регистрируем полученный инструмент в Connector на получение стакана с помощью метода RegisterMarketDepth. С помощью метода GetMarketDepth получаем текущий стакан по инструменту, чтобы им обновить MarketDepthControl. ``` private Security _selectedSecurity; private void SecPicker_SecuritySelected(Security security) { if (security == null) return; _selectedSecurity = security; MainWindow.Instance.Connector.RegisterMarketDepth(_selectedSecurity); var marketDepth = MainWindow.Instance.Connector.GetMarketDepth(_selectedSecurity); MarketDepth.UpdateDepth(marketDepth); } ``` Чтобы стакан постоянно обновлялся в конструкторе MarketDepthControl, подпишемся на событие изменения стакана MarketDepthChanged у коннектора. В обработчике этого события будем проверять, какому инструменту принадлежит полученный стакан, и если он принадлежит выделенному инструменту в SecurityPicker, то обновляем им: MarketDepthControl. ``` public MarketDepthControl() { InitializeComponent(); SecPicker.SecurityProvider = MainWindow.Instance.Connector; PortfolioComboBox.Portfolios = new PortfolioDataSource(MainWindow.Instance.Connector); MainWindow.Instance.Connector.MarketDepthChanged += Connector_MarketDepthChanged; } private void Connector_MarketDepthChanged(MarketDepth marketDepth) { if (_selectedSecurity == null || marketDepth.Security != _selectedSecurity) return; MarketDepth.UpdateDepth(marketDepth); } ``` В центральную части MainWindow добавляем созданную панель MarketDepthControl: ``` ``` На данном этапе можно запустить программу и проверить работу обновления стаканов. Создадим обработчика события нажатия на кнопки купить и продать. В каждом обработчике создаем Order, в нем указываем инструмент выбранный в SecurityPicker, портфель выбранный в PortfolioComboBox, объём и цену из соответствующих SpinEdit. Регистрируем заявку в Connector с помощью метода RegisterOrder. ``` private void BuyButton_Click(object sender, RoutedEventArgs e) { Order order = new Order() { Security = _selectedSecurity, Portfolio = PortfolioComboBox.SelectedPortfolio, Volume = SpinEditVolume.Value, Price = SpinEditPrice.Value, Direction = StockSharp.Messages.Sides.Buy, }; MainWindow.Instance.Connector.RegisterOrder(order); } private void SelltButton_Click(object sender, RoutedEventArgs e) { Order order = new Order() { Security = _selectedSecurity, Portfolio = PortfolioComboBox.SelectedPortfolio, Volume = SpinEditVolume.Value, Price = SpinEditPrice.Value, Direction = StockSharp.Messages.Sides.Sell, }; MainWindow.Instance.Connector.RegisterOrder(order); } ``` Оба обработчика отличаются только направлением заявки. Сделаем чтобы при выделении котировки в стакане значение SpinEditPrice менялось на цену выделенной котировки. Для этого создадим обработчик события SelectionChanged у MarketDepthControl. В котором будем обновлять значение SpinEditPrice ценой выделенной котировки если выделенная котировка не равна нулю. ``` private void MarketDepth_SelectionChanged(object sender, GridSelectionChangedEventArgs e) { if (MarketDepth.SelectedQuote == null) return; SpinEditPrice.Value = MarketDepth.SelectedQuote.Price; } ``` Запускаем для проверки: ![](https://habrastorage.org/r/w1560/webt/p9/15/of/p915of4vabbulkuyg8zjlvxzsei.png) Сохранение маркет-данных ------------------------ Для сохранения портфелей, инструментов, площадок нам необходим класс CsvEntityRegistry. В него надо переделать место хранения сущностей и вызвать метод Init, для их загрузки. ``` _csvEntityRegistry = new CsvEntityRegistry(_csvEntityRegistryDir); _csvEntityRegistry.Init(); ``` Для сохранения свечей, сделок и т.д. нам понадобится StorageRegistry: ``` _storageRegistry = new StorageRegistry { DefaultDrive = new LocalMarketDataDrive(_storageRegistryDir), }; ``` Также нам понадобится реестр хранилищ-снэпшотов SnapshotRegistry: ``` _snapshotRegistry = new SnapshotRegistry(_snapshotRegistryDir); ``` Все это мы передаем в Connector при его создании: ``` Connector = new Connector(_csvEntityRegistry, _storageRegistry, _snapshotRegistry) { IsRestoreSubscriptionOnReconnect = true, StorageAdapter = { DaysLoad = TimeSpan.FromDays(3) }, }; Connector.LookupAll(); ``` Здесь мы также указали, что Connector будет переподключаться при разрыве подключения, а также указали сколько дней истории необходимо загружать. Строка Connector.LookupAll(); запрашивает имеющиеся данные: ``` //---------------------------------------------------------------------------------- Directory.CreateDirectory(_dir); _csvEntityRegistry = new CsvEntityRegistry(_csvEntityRegistryDir); _csvEntityRegistry.Init(); _storageRegistry = new StorageRegistry { DefaultDrive = new LocalMarketDataDrive(_storageRegistryDir), }; _snapshotRegistry = new SnapshotRegistry(_snapshotRegistryDir); Connector = new Connector(_csvEntityRegistry, _storageRegistry, _snapshotRegistry) { IsRestoreSubscriptionOnReconnect = true, StorageAdapter = { DaysLoad = TimeSpan.FromDays(3) }, }; Connector.LookupAll(); if (File.Exists(_settingsFile)) { Connector.Load(new XmlSerializer().Deserialize(\_settingsFile)); } //---------------------------------------------------------------------------------- ``` После загрузки приложения перейдя в папку Data мы увидим, что появились новые папки: ![](https://habrastorage.org/r/w1560/webt/ur/5a/jx/ur5ajx_3klmkbkcfzkyrqqamuza.png) При повторном подключении панели инструментов и портфелей уже будут заполнены. Мы плавно подошли к окончанию первой части. На данном этапе программа позволяет выводить на экран все доступные нам маркет-данные. В следующей части будет продемонстрирована самое лакомое — а именно торговля как в ручном, так и в автоматическом режиме. *Продолжение следует...* **Автор**: Иван Залуцкий
https://habr.com/ru/post/432812/
null
ru
null
# 10 задач администрирования Active Directory, решаемых с помощью PowerShell ![](https://habrastorage.org/r/w780q1/storage2/eef/1be/c68/eef1bec6878c24a31ad68b76ed06356e.jpg)[Джеффери Хикс](http://jdhitsolutions.com/) подготовил [статью на Windows IT Pro](http://www.windowsitpro.com/article/windows-powershell/top-10-active-directory-tasks-solved-powershell-144567), посвященную использования PowerShell для администрирования AD. В качестве исходного пункта автор решил взять 10 типичных задач администрирования AD и рассмотреть то, как их можно упростить, используя PowerShell: 1. Сбросить пароль пользователя 2. Активировать и деактивировать учетные записи 3. Разблокировать учетную запись пользователя 4. Удалить учетную запись 5. Найти пустые группы 6. Добавить пользователей в группу 7. Вывести список членов группы 8. Найти устаревшие учетные записи компьютеров 9. Деактивировать учетную запись компьютера 10. Найти компьютеры по типу Помимо этого автор ведет блог (по PowerShell, конечно), рекомендуем заглянуть — [jdhitsolutions.com/blog](http://jdhitsolutions.com/blog/). А самое актуальное Вы можете получить из его твиттера [twitter.com/jeffhicks](http://twitter.com/jeffhicks). Итак, ниже приводим перевод статьи “Top 10 Active Directory Tasks Solved with PowerShell”. Управление Active Directory (AD) с помощью Windows PowerShell – это проще, чем Вы думаете, и я хочу доказать Вам это. Вы можете просто взять приведенные ниже скрипты и с их помощью решить ряд задач по управлению AD. #### Требования Чтобы использовать PowerShell для управления AD, нужно соблюсти несколько требований. Я собираюсь продемонстрировать, как командлеты для AD работают на примере компьютера на Windows 7. Чтобы использовать командлеты, контроллер домена у Вас должен быть уровня Windows Server 2008 R2, или же Вы можете скачать и установить [Active Directory Management Gateway Service](http://www.microsoft.com/download/en/details.aspx?id=2852) на наследуемых контроллерах домена (legacy DCs). Внимательно прочитайте документацию перед установкой; требуется перезагрузка КД. На стороне клиента, скачайте и установите **Remote Server Administration Tools** (RSAT) либо для [Windows 7](http://www.microsoft.com/download/en/details.aspx?id=7887), либо для [Windows 8](http://www.microsoft.com/download/en/details.aspx?id=28972). В Windows 7, Вам необходимо будет открыть в *Панели управления (Control Panel)* раздел *Программы (Programs)* и выбрать *Включить или выключить функции Windows (Turn Windows Features On or Off)*. Найдите *Remote Server Administration Tools* и раскройте раздел *Role Administration Tools*. Выберите подходящие пункты для AD DS and AD LDS Tools, особенно обратите внимание на то, что должен быть выбран пункт *Active Directory Module for Windows PowerShell*, как показано на рисунке 1. (В Windows 8 все инструменты выбраны по умолчанию). Теперь мы готовы работать. ![](https://habrastorage.org/r/w780q1/storage2/90d/472/d83/90d472d83296fbe2ef85b3c7c4959e56.jpg) Рис.1 Включение AD DS и AD LDS Tools Я вошел в систему под учетной записью с правами доменного администратора. Большинство командлетов, которые я буду показывать, позволят Вам уточнить альтернативные полномочия (credentials). В любом случае я рекомендую прочитать справку (**Get-Help**) и примеры, которые я буду демонстрировать ниже. Начните сессию PowerShell и импортируйте модуль: ``` PS C:\> Import-Module ActiveDirectory ``` В результате импорта создается новый PSDrive, но мы не будем использовать его. Однако, Вы можете посмотреть, какие команды имеются в импортированном модуле. ``` PS C:\> get-command -module ActiveDirectory ``` Прелесть этих команд в том, что если я могу использовать команду для одного объекта AD, то ее можно использовать для 10, 100 и даже 1000. Посмотрим, как некоторые из этих командлетов работают. #### Задача 1: Сброс пароля пользователя Давайте начнем с типичной задачи: сброс пароля пользователя. Сделать это легко и просто можно через командлет **Set-ADAccountPassword**. Сложная часть заключается в том, что новый пароль должен быть уточнен как защищенная строка: фрагмент текста, который зашифрован и хранится в памяти на протяжении PowerShell сессии. Во-первых, создадим переменную с новым паролем: ``` PS C:\> $new=Read-Host "Enter the new password" -AsSecureString ``` Затем, введем новый пароль: ``` PS C:\> ``` Теперь мы можем извлечь учетную запись (использование **samAccountname** – лучший вариант) и задать новый пароль. Вот пример для пользователя Jack Frost: ``` PS C:\> Set-ADAccountPassword jfrost -NewPassword $new ``` К сожалению, в случае с этим командлетом наблюдается баг: *-Passthru*, *-Whatif*, и *–Confirm* не работают. Если Вы предпочитаете короткий путь, попробуйте следующее: ``` PS C:\> Set-ADAccountPassword jfrost -NewPassword (ConvertTo-SecureString -AsPlainText -String "P@ssw0rd1z3" -force) ``` В итоге мне необходимо, чтобы Jack сменил пароль при следующем входе в систему, и я модифицирую учетную запись используя **Set-ADUser**. ``` PS C:\> Set-ADUser jfrost -ChangePasswordAtLogon $True ``` Результаты выполнения командлета не пишутся в консоль. Если это необходимо сделать, используйте **–True**. Но я могу узнать, успешно или нет прошла операция, произведя извлечения имени пользователя с помощью командлета **Get-ADUser** и уточнив свойство **PasswordExpired**, как показано на рисунке 2. ![](https://habrastorage.org/r/w780q1/storage2/278/1ee/f74/2781eef746da3defe31843b339e5f0e2.jpg) Рис. 2. Результаты работы командлета Get-ADUser Cmdlet со свойством PasswordExpired Итог: сбросить пароль пользователя с помощью PowerShell совсем не сложно. Признаюсь, что сбросить пароль также просто через оснастку *Active Directory Users and Computers* консоли *Microsoft Management Console (MMC).* Но использование PowerShell подходит в том случае, если Вам необходимо делегировать задачу, Вы не хотите разворачивать вышеупомянутую оснастку или сбрасываете пароль в ходе большого автоматизированного ИТ-процесса. #### Задача 2: Активировать и деактивировать учетные записи А теперь давайте деактивируем учетную запись. Продолжим работать с Jack Frost. Этот код использует параметр **–Whatif**, который Вы можете встретить в других комадлетах, которые осуществляют изменения, чтобы проверить мою команду не запуская ее. ``` PS C:\> Disable-ADAccount jfrost -whatif What if: Performing operation "Set" on Target "CN=Jack Frost, OU=staff,OU=Testing,DC=GLOBOMANTICS,DC=local". ``` А теперь деактивируем по-настоящему: ``` PS C:\> Disable-ADAccount jfrost ``` А когда настанет время активировать учетную запись, какой командлет нам поможет? ``` PS C:\> Enable-ADAccount jfrost ``` Эти командлеты могут быть использованы в конвейерном выражении (pipelined expression), позволяя активировать или деактивировать столько учетных записей, сколько душе угодно. Например, этот код деактивирует все учетные записи в отделе продаж (Sales) ``` PS C:\> get-aduser -filter "department -eq 'sales'" | disable-adaccount ``` Конечно, писать фильтр для **Get-ADUser** довольно-таки сложно, но именно здесь использование параметра **–Whatif** вместе с командлетом **Disable-ADAccount** приходит на помощь. #### Задача 3: Разблокировать учетную запись пользователя Рассмотрим ситуацию, когда Jack заблокировал свою учетную запись, пытаясь ввести новый пароль. Вмест того, чтобы пытаться найти его учетную запись через GUI, процедуру разблокировки можно осуществить с помощью простой команды. ``` PS C:\> Unlock-ADAccount jfrost ``` Командлет также поддерживает параметры **-Whatif** и **-Confirm**. #### Задача 4: Удалить учетную запись Неважно, сколько пользователей Вы удаляете, — это просто осуществить с помощью командлета **Remove-ADUser**. Мне не хочется удалять Jack Frost, но если бы я захотел, то использовал бы такой код: ``` PS C:\> Remove-ADUser jfrost -whatif What if: Performing operation "Remove" on Target "CN=Jack Frost,OU=staff,OU=Testing,DC=GLOBOMANTICS,DC=local". ``` Или я могу ввести несколько пользователей и удалить их с помощью одной простой команды: ``` PS C:\> get-aduser -filter "enabled -eq 'false'" -property WhenChanged -SearchBase "OU=Employees, DC=Globomantics,DC=Local" | where {$_.WhenChanged -le (Get-Date).AddDays(-180)} | Remove-ADuser -whatif ``` С помощью этой команды будут найдены и удалены все деактивованные учетные записи подразделения (OU) Employees, которые не менялись в течение 180 и более дней. #### Задача 5: Поиск пустых групп Управление группами – занятие бесконечное и неблагодарное. Существует множество способов найти пустые группы. Некоторые выражения могут работать лучше, чем другие, в зависимости от Вашей организации. Код, приведенный ниже, позволит найти все группы в домене, включая встроенные (built-in). ``` PS C:\> get-adgroup -filter * | where {-Not ($_ | get-adgroupmember)} | Select Name ``` Если у Вас есть группы с сотнями членов, тогда использование этой команды может занять много времени; **Get-ADGroupMember** проверяет каждую группу. Если Вы можете ограничить или настроить, это будет лучше. Вот еще один подход: ``` PS C:\> get-adgroup -filter "members -notlike '*' -AND GroupScope -eq 'Universal'" -SearchBase "OU=Groups,OU=Employees,DC=Globomantics, DC=local" | Select Name,Group* ``` Эта команда находит все универсальные группы (Universal groups), которые не имеют членство в OU Groups и выводит некоторые из свойств. Результат приведен на рисунке 3. ![](https://habrastorage.org/r/w780q1/storage2/1bf/3b6/f8b/1bf3b6f8bb103d8ecf02ec7fd1ab1654.jpg) Рис. 3. Поиск и фильтрация универсальных групп #### Задача 6: Добавление пользователей в группу Давайте добавим Jack Frost в группу Chicago IT: ``` PS C:\> add-adgroupmember "chicago IT" -Members jfrost ``` Да, все так просто. Вы можете также легко добавлять сотни пользователей в группы, хотя, на мой взгляд, это слегка неудобно: ``` PS C:\> Add-ADGroupMember "Chicago Employees" -member (get-aduser -filter "city -eq 'Chicago'") ``` Я использовал вводное конвейерное выражение (parenthetical pipelined expression), чтобы найти всех пользователей, у которых имеется свойство City в Chicago. Код в скобках выполняется, и полученные объекты передаются в параметр –Member. Каждый пользовательский объект добавляется в группу Chicago Employees. Неважно, имеем ли мы дело с 5 или 5000 пользователей, обновление членства в группах занимает всего несколько секунд. Это выражение может также быть написано с использованием **ForEach-Object**, что может быть удобнее: ``` PS C:\> Get-ADUser -filter "city -eq 'Chicago'" | foreach {Add-ADGroupMember "Chicago Employees" -Member $_} ``` Задача 7: Выводим список членов группы Вы возможно захотите узнать, кто находится в определенной группе. Например, Вы должны периодически узнавать, кто входит в группу доменных администраторов (Domain Admins): ``` PS C:\> Get-ADGroupMember "Domain Admins" ``` На рисунке 4 приведен результат. ![](https://habrastorage.org/r/w780q1/storage2/88e/995/b0d/88e995b0d0b3efd253bba72856e7d29e.jpg) Рис. 4. Члены группы Domain Admins Командлет выводит объект AD для каждого члена группы. А что делать с вложенными группами? Моя группа Chicago All Users является коллекцией вложенных групп. Чтобы получить список всех учетных записей, я всего лишь должен использовать параметр **–Recursive**. ``` PS C:\> Get-ADGroupMember "Chicago All Users" -Recursive | Select DistinguishedName ``` Если Вы хотите пойти другим путем – найти, в каких группах пользователь состоит, — используйте свойство пользователя **MemberOf**: ``` PS C:\> get-aduser jfrost -property Memberof | Select -ExpandProperty memberOf CN=NewTest,OU=Groups,OU=Employees, DC=GLOBOMANTICS,DC=local CN=Chicago Test,OU=Groups,OU=Employees, DC=GLOBOMANTICS,DC=local CN=Chicago IT,OU=Groups,OU=Employees, DC=GLOBOMANTICS,DC=local CN=Chicago Sales Users,OU=Groups,OU=Employees, DC=GLOBOMANTICS,DC=local ``` Я использовал параметр **-ExpandProperty**, чтобы вывести имена **MemberOf** как строки. #### Задача 8: Найти устаревшие учетные записи компьютеров Мне часто задают этот вопрос: “Как найти устаревшие учетные записи компьютеров?”. И я всегда отвечаю: “А что для вас является устаревшим?” Компании по-разному определяют то, когда учетная запись компьютера (или пользователя, неважно), признается устаревшей и не подлежит дальнейшему использованию. Что касается меня, то я обращаю внимание на те учетные записи, у которых пароли не менялись в течение определенного периода времени. Этот период для меня составляет 90 дней – если компьютер не сменил пароль вместе с доменом за этот период, скорее всего он находится оффлайн и является устаревшим. Используется командлет **Get-ADComputer**: ``` PS C:\> get-adcomputer -filter "Passwordlastset -lt '1/1/2012'" -properties *| Select name,passwordlastset ``` Фильтр замечательно работает с жестким значением, но этот код будет обновляться для всех учетных записей компьютеров, которые не изменили своих паролей с 1 января 2012 года. Результаты приведены на рисунке 5. ![](https://habrastorage.org/r/w780q1/storage2/759/524/588/7595245888d0c0bed70e391143191fa8.jpg) Рис. 5. Находим устаревшие учетные записи компьютеров Другой вариант: предположим, вы хотя бы на функциональном уровне домена Windows 2003. Поставьте фильтр по свойству **LastLogontimeStamp**. Это значение – число 100 наносекундных интервалов с 1 января, 1601 года, и храниться в GMT, поэтому работа с этим значением слегка сложно: ``` PS C:\> get-adcomputer -filter "LastlogonTimestamp -gt 0" -properties * | select name,lastlogontimestamp, @{Name="LastLogon";Expression={[datetime]::FromFileTime ($_.Lastlogontimestamp)}},passwordlastset | Sort LastLogonTimeStamp ``` Я взял на себя ответственность и добавил кастомное свойство, которое берет значение **LastLogontimeStamp** и конвертирует его в привычный формат. На рисунке 6 показан результат. ![](https://habrastorage.org/r/w780q1/storage2/759/524/588/7595245888d0c0bed70e391143191fa8.jpg) Рис. 6. Конвертируем значение LastLogonTimeStamp в привычный формат Чтобы создать фильтр, мне необходимо конвертировать дату, например, 1 января 2012, в корректный формат. Конвертация осуществляется в FileTime: ``` PS C:\> $cutoff=(Get-Date "1/1/2012").ToFileTime() PS C:\> $cutoff 129698676000000000 ``` Теперь я могу использовать эту переменную в фильтре для **Get-ADComputer**: ``` PS C:\> Get-ADComputer -Filter "(lastlogontimestamp -lt $cutoff) -or (lastlogontimestamp -notlike '*')" -property * | Select Name,LastlogonTimestamp,PasswordLastSet ``` Приведённый код находит те же самые компьютеры, что были показаны на рисунке 5. #### Задача 9: Деактивировать учетную запись компьютера Возможно, когда Вы найдете неактивные или устаревшие учетные записи, Вы захотите деактировать их. Сделать это довольно просто. Мы будем использовать тот же командлет, что использовали в работе с учетными записями пользователей. Вы можете уточнить его, использовав **samAccountname** учетной записи. ``` PS C:\> Disable-ADAccount -Identity "chi-srv01$" -whatif What if: Performing operation "Set" on Target "CN=CHI-SRV01, CN=Computers,DC=GLOBOMANTICS,DC=local". ``` Или же использовав конвейерное выражение: ``` PS C:\> get-adcomputer "chi-srv01" | Disable-ADAccount ``` Я также могу использовать мой код, чтобы найти устаревшие учетные записи и все их деактивировать: ``` PS C:\> get-adcomputer -filter "Passwordlastset -lt '1/1/2012'" -properties *| Disable-ADAccount ``` #### Задача 10: Найти компьютеры по типу Мне также часто задают вопрос, как найти учетные записи компьютеров по типу, например, серверы или рабочие станции. С вашей стороны это требует определенной креативности. В AD нет ничего такого, чтобы отличало сервер от клиента, разве что ОС. Если Ваш компьютер работает под Windows Server 2008, придется слегка сделать несколько дополнительных действий. Для начала необходимо получить список ОС, а затем осуществляем фильтрацию учетных записей по имеющимся ОС. ``` PS C:\> Get-ADComputer -Filter * -Properties OperatingSystem | Select OperatingSystem -unique | Sort OperatingSystem ``` Результаты показаны на рисунке 7. ![](https://habrastorage.org/r/w780q1/storage2/07b/756/849/07b75684942bcfad1d49f78653dd5b86.jpg) Рис. 7. Извлечение списка ОС Я хочу найти все компьютеры, на которых стоит серверная ОС: ``` PS C:\> Get-ADComputer -Filter "OperatingSystem -like '*Server*'" -properties OperatingSystem,OperatingSystem ServicePack | Select Name,Op* | format-list ``` Результаты приведены на рисунке 8. ![](https://habrastorage.org/r/w780q1/storage2/9bf/48b/594/9bf48b594685febd6f9dafcff27b53ee.jpg) Как и другими командлетами AD Get, Вы можете настроить поисковые параметры и ограничить запрос отдельными OU, если это необходимо. Все выражения, которые я показал, могут быть интегрированы в большие PowerShell выражения. Например, Вы можете сортировать, группировать, применять фильтры, экспортировать в CSV или создавать и отправлять на почту HTML отчеты – и все это из PowerShell! При этом Вам не придется писать ни единого скрипа. Вот Вам бонус: отчет о возрасте пароля пользователя (user password-age report), сохраненный в HTML файле: ``` PS C:\> Get-ADUser -Filter "Enabled -eq 'True' -AND PasswordNeverExpires -eq 'False'" -Properties PasswordLastSet,PasswordNeverExpires,PasswordExpired | Select DistinguishedName,Name,pass*,@{Name="PasswordAge"; Expression={(Get-Date)-$_.PasswordLastSet}} |sort PasswordAge -Descending | ConvertTo-Html -Title "Password Age Report" | Out-File c:\Work\pwage.htm ``` Хотя это выражение может выглядеть слегка пугающим, при минимальном знании PowerShell им легко воспользоваться. И остается лишь последний совет: как определить кастомное свойство под названием **PasswordAge**. Значение представляет собой промежуток между сегодняшним днем и свойством PasswordLastSet. Затем я сортирую результаты для моего нового свойства. На рисунке 9 показан выход для моего небольшого тестового домена. ![](https://habrastorage.org/r/w780q1/storage2/4c3/770/7bf/4c37707bffd173bda977864cd0c63f74.jpg) Upd: В посте приведен перевод статьи на портале [WindowsITPro](http://www.windowsitpro.com) [Top 10 Active Directory Tasks Solved with PowerShell](http://www.windowsitpro.com/article/windows-powershell/top-10-active-directory-tasks-solved-powershell-144567) Бонус: PowerShell для целей системного администрирования \\ Статьи на Хабре * [Уведомления об истечении срока действия пароля в Active Directory средствами PowerShell](http://habrahabr.ru/post/160599/) * [Аудит удаления и доступа к файлам и запись событий в лог-файл средствами Powershell](http://habrahabr.ru/post/150149/) * Аудит Active Directory средствами Powershell с оповещением об изменениях. [Часть 1](http://habrahabr.ru/post/147750/) и [Часть 2](http://habrahabr.ru/post/150122/) * [Потерянная группа. Выясняем назначение «странных» групп в AD](http://habrahabr.ru/post/138600/) А как вы используете PowerShell для того, чтобы упростить вашу работу?
https://habr.com/ru/post/160837/
null
ru
null
# Автоматическая публикация npm пакета из gitlab ci/cd ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a06/356/2d0/a063562d08eb6e04f9edd566ea805032.png)Всем привет! Сегодня я расскажу как реализовать автоматическую публикацию npm пакета в cicd gitlab, с помощью каких инструментов мы генерируем CHANGELOG файл и обновляем версию package.json. А так же как публикуем изменения в gitlab репозитории. Я постараюсь дать вам простую инструкцию, расскажу с какими сложностями мы столкнулись и как их решили. ### Задача * Настроить ci/cd таким образом, чтобы новая версия npm пакета автоматически публиковалась в реестре пакетов при изменении master ветки в git репозитории. * Автоматически определить следующий номер версии npm пакета * Сгенерировать CHANGELOG.md файл * Опубликовать изменения в gitlab репозитории * Опубликовать пакет в реестре npm пакетов ### Реализация: Давайте посмотрим на результат и разберем код более подробно ``` # .gitlab-ci.yml image: "node:16-slim" stages: - publish publish: stage: publish variables: GIT_STRATEGY: clone before_script: - apt-get update && apt-get install git -y script: # Конфигурация npm - echo "//registry.npmjs.org/:_authToken=${NPM_TOKEN}" > .npmrc # Конфигурация git - git config --global user.email "${GIT_USER_EMAIL}" - git config --global user.name "${GIT_USER_NAME}" # Установка зависимостей и сборка проекта - yarn - yarn build # Определение новой версии npm пакета и генерация CHANGELOG.md файла - yarn standard-version - commitMessage=$(git log -1 --pretty=%B) - tagname=$(git tag --points-at HEAD) - version=${tagname:1} # Решение проблемы с циклическим вызовом - git tag -d $tagname - git commit --amend -m "[ci skip] ${commitMessage}" --no-verify - git tag -a $tagname -m '' # Публикация в gitlab - git push <https://${GIT_SYNC_USER}:${GIT_SYNC_TOKEN}@git.nlmk.com/$CI_PROJECT_PATH.git> --follow-tags master:master # Публикация в npm - yarn publish --new-version $version --verbose only: - master ``` Для публикации пакета в npm и для отправки коммита в репозиторий нам требуется настроить конфигурацию для npm и git, а так же установить зависимости проекта. Опубликовать пакет в npm репозитории можно c помощью авторизованного пользователи, либо с применением accessToken. Использование accessToken в ci/cd более предпочтительный вариант, потому что вам не придется хранить логин и пароль пользователя в переменных gitlab. #### Конфигурация npm: ``` # Конфигурация npm - echo "//registry.npmjs.org/:_authToken=${NPM_TOKEN}" > .npmrc ``` `NPM_TOKEN` - имя ci переменной, в которой хранится npm токен Более подробно про access tokens в npm можно прочитать в [документации](https://docs.npmjs.com/creating-and-viewing-access-tokens). Более подробно ознакомиться с gitlab переменными можно [здесь](https://docs.gitlab.com/ee/ci/variables/#list-all-environment-variables) #### Конфигурация git: Для конфигурации git пользователя мы используем технического пользователя, чьё имя и email хранятся в ci переменных: ``` # Конфигурация git - git config --global user.email "${GIT_USER_EMAIL}" - git config --global user.name "${GIT_USER_NAME}" ``` `GIT_USER_EMAIL` `GIT_USER_NAME`- имя ci переменной, в которой хранится имя и email git пользователя, от которого будет создаваться коммит (В нашем случае это специальный технический пользователь) #### Установка зависимостей и сборка проекта С установкой зависимостей и сборкой проекта все просто: ``` # Установка зависимостей и сборка проекта - yarn - yarn build ``` Данные команды установят зависимости и соберут наш проект. #### Определение новой версии npm пакета и генерация CHANGELOG.md файла Для генерации CHANGELOG файла мы используем библиотеку [standard-version](https://www.npmjs.com/package/standard-version). При запуске команды `standard-version` происходит следующее: * Вычисляется новая версия npm пакета в соответствие с [conventional commit](https://www.conventionalcommits.org/en/v1.0.0/) и [semver](https://semver.org/) * Обновляется версия пакета в package.json * Обновляется `CHANGELOG.md` файл * Создается тег указывающий на новую версию (например`v1.13.2`) * Создается коммит с изменениями (текст коммита`chore(release): 1.13.2`) ``` # Определение новой версии npm пакета и генерация CHANGELOG.md файла - yarn standard-version - commitMessage=$(git log -1 --pretty=%B) - tagname=$(git tag --points-at HEAD) - version=${tagname:1} ``` После выполнения команды `standard-version` я сохраняю в переменных сообщение созданного коммита commitMessage (`chore(release): 1.13.2`), имя созданного тега tagname (`v1.13.2`) и номер новой версии пакета: version (`1.13.2`) Они понадобятся нам позже #### Решение проблемы с циклическим вызовом После обновления версии пакета нам требуется вылить наши изменения в git, но есть одна маленькая проблема: если мы просто опубликуем новую версию в git и обновим master ветку то запустится новый pipeline и так далее, по бесконеному циклу. чтобы этого не происходило коммит должен начинаться с [ci-skip]. Для того, чтобы решить эту проблему, следует изменить текст созданного коммита, и не забыть про теги. ``` # Решение проблемы с циклическим вызовом # Удаляем поседний созданный тег - git tag -d $tagname # Добавляем [ci-skip] в последний коммит git commit --amend -m "[ci skip] ${commitMessage}" --no-verify # Создаем новый тег на последнем коммите git tag -a $tagname -m '' ``` Как вы можете заметить я удаляю тег, меняю сообщение коммита и снова добавляю тег. Если мы просто попытаемся изменить сообщение коммита с помощью команды `- git commit --amend` то будет создан новый коммит. Такое поведение связано с тем, что к изменяемому коммиту привязан тег. Чтобы решить эту проблему мы удаляем тег, далее меняем сообщение коммита, а потом создаем тег на измененном коммите. #### Публикация в gitlab: Для обновления кодовой базы нам требуется внести изменения в master ветке. ``` # Публикация в gitlab - git push --follow-tags master:master ``` `GIT_SYNC_USER` - имя пользователя, которое будет указано в коммите `GIT_SYNC_TOKEN` - gitlab токен технического пользователя. Более подробно про gitlab токены можно прочитать [тут](https://docs.gitlab.com/ee/user/profile/personal_access_tokens.html)) `CI_PROJECT_PATH` - предопределенная переменная, в которой хранится path проекта с включенным именем проекта. Более подробно со списком доступных переменных можно ознакомиться в [документации](https://docs.gitlab.com/ee/ci/variables/predefined_variables.html) #### Публикация в npm ``` # Публикация в npm - yarn publish --new-version $version --verbose ``` При публикации пакета используется переменная `$version`, в которой сохранена новая версия пакета. Мы явно указываем с какой версией требуется опубликовать npm пакет. #### CI/CD переменные `NPM_TOKEN` - npm токен. `GIT_USER_EMAIL` - email технического пользователя gitlab `GIT_USER_NAME` - username технического пользователя gitlab `GIT_SYNC_USER` - имя пользователя, которое будет указано в коммите `GIT_SYNC_TOKEN` - gitlab токен технического пользователя `CI_PROJECT_PATH` - path проекта с включенным именем проекта --- ### Ссылки по теме: [Gitlab CI/CD variables](https://docs.gitlab.com/ee/ci/variables/#list-all-environment-variables) [Gitlab access tokens](https://docs.gitlab.com/ee/user/profile/personal_access_tokens.html) [Standart-version utility](https://www.npmjs.com/package/standard-version) [Semver](https://semver.org/) [Conventional Commits](https://www.conventionalcommits.org/en/v1.0.0/) [Predefined Gitlab variables reference](https://docs.gitlab.com/ee/ci/variables/predefined_variables.html)
https://habr.com/ru/post/598033/
null
ru
null
# Процессоры, ядра и потоки. Топология систем В этой статье я попытаюсь описать терминологию, используемую для описания систем, способных исполнять несколько программ параллельно, то есть многоядерных, многопроцессорных, многопоточных. Разные виды параллелизма в ЦПУ IA-32 появлялись в разное время и в несколько непоследовательном порядке. Во всём этом довольно легко запутаться, особенно учитывая, что операционные системы заботливо прячут детали от не слишком искушённых прикладных программ. ![](https://habrastorage.org/r/w1560/files/b1a/f1f/27c/b1af1f27c3c54e6d9b4c238eb735111f.png) Используемая далее терминология используется в документации процессорам Intel. Другие архитектуры могут иметь другие названия для похожих понятий. Там, где они мне известны, я буду их упоминать. Цель статьи — показать, что при всём многообразии возможных конфигураций многопроцессорных, многоядерных и многопоточных систем для программ, исполняющихся на них, создаются возможности как для абстракции (игнорирования различий), так и для учёта специфики (возможность программно узнать конфигурацию). **Предупреждение о знаках ®, ™, © в статье** Мой [комментарий](http://habrahabr.ru/company/intel/blog/204838/#comment_7087466) объясняет, почему сотрудники компаний должны в публичных коммуникациях использовать знаки авторского права. В этой статье их пришлось использовать довольно часто. #### Процессор Конечно же, самый древний, чаще всего используемый и неоднозначный термин — это «процессор». В современном мире процессор — это то (package), что мы покупаем в красивой Retail коробке или не очень красивом OEM-пакетике. Неделимая сущность, вставляемая в разъём (socket) на материнской плате. Даже если никакого разъёма нет и снять его нельзя, то есть если он намертво припаян, это один чип. ![](https://habrastorage.org/r/w780q1/files/b87/467/87e/b8746787eed04380936f34318098a53d.jpg) Мобильные системы (телефоны, планшеты, ноутбуки) и большинство десктопов имеют один процессор. Рабочие станции и сервера иногда могут похвастаться двумя или больше процессорами на одной материнской плате. Поддержка нескольких центральных процессоров в одной системе требует многочисленных изменений в её дизайне. Как минимум, необходимо обеспечить их физическое подключение (предусмотреть несколько сокетов на материнской плате), решить вопросы идентификации процессоров (см. далее в этой статье, а также мою [предыдущую](http://habrahabr.ru/company/intel/blog/220851/) заметку), согласования доступов к памяти и доставки прерываний (контроллер прерываний должен уметь маршрутизировать прерывания на несколько процессоров) и, конечно же, поддержки со стороны операционной системы. Я, к сожалению, не смог найти документального упоминания момента создания первой многопроцессорной системы на процессорах Intel, однако Википедия [утверждает](http://en.wikipedia.org/wiki/Sequent_Computer_Systems), что Sequent Computer Systems поставляла их уже в 1987 году, используя процессоры Intel 80386. Широко распространённой поддержка же нескольких чипов в одной системе становится доступной, начиная с Intel® Pentium. Если процессоров несколько, то каждый из них имеет собственный разъём на плате. У каждого из них при этом имеются полные независимые копии всех ресурсов, таких как регистры, исполняющие устройства, кэши. Делят они общую память — RAM. Память может подключаться к ним различными и довольно нетривиальными способами, но это отдельная история, выходящая за рамки этой статьи. Важно то, что при любом раскладе для исполняемых программ должна создаваться иллюзия однородной общей памяти, доступной со всех входящих в систему процессоров. ![](https://habrastorage.org/r/w780q1/files/1d7/95b/162/1d795b162c8c4f30a9e13181877dbdc5.jpg) *К взлёту готов! Intel® Desktop Board D5400XS* #### Ядро Исторически многоядерность в Intel IA-32 появилась позже Intel® HyperThreading, однако в логической иерархии она идёт следующей. Казалось бы, если в системе больше процессоров, то выше её производительность (на задачах, способных задействовать все ресурсы). Однако, если стоимость коммуникаций между ними слишком велика, то весь выигрыш от параллелизма убивается длительными задержками на передачу общих данных. Именно это наблюдается в многопроцессорных системах — как физически, так и логически они находятся очень далеко друг от друга. Для эффективной коммуникации в таких условиях приходится придумывать специализированные шины, такие как Intel® QuickPath Interconnect. Энергопотребление, размеры и цена конечного решения, конечно, от всего этого не понижаются. На помощь должна прийти высокая интеграция компонент — схемы, исполняющие части параллельной программы, надо подтащить поближе друг к другу, желательно на один кристалл. Другими словами, в одном процессоре следует организовать несколько *ядер*, во всём идентичных друг другу, но работающих независимо. Первые многоядерные процессоры IA-32 от Intel были представлены в 2005 году. С тех пор среднее число ядер в серверных, десктопных, а ныне и мобильных платформах неуклонно растёт. В отличие от двух одноядерных процессоров в одной системе, разделяющих только память, два ядра могут иметь также общие кэши и другие ресурсы, отвечающие за взаимодействие с памятью. Чаще всего кэши первого уровня остаются приватными (у каждого ядра свой), тогда как второй и третий уровень может быть как общим, так и раздельным. Такая организация системы позволяет сократить задержки доставки данных между соседними ядрами, особенно если они работают над общей задачей. ![](https://habrastorage.org/r/w780q1/files/cf5/aa3/9ea/cf5aa39ea95a488fbfda486ff9cc987b.jpg) Микроснимок четырёхядерного процессора Intel с кодовым именем Nehalem. Выделены отдельные ядра, общий кэш третьего уровня, а также линки QPI к другим процессорам и общий контроллер памяти. #### Гиперпоток До примерно 2002 года единственный способ получить систему IA-32, способную параллельно исполнять две или более программы, состоял в использовании именно многопроцессорных систем. В Intel® Pentium® 4, а также линейке Xeon с кодовым именем Foster (Netburst) была представлена новая технология — гипертреды или гиперпотоки, — Intel® HyperThreading (далее HT). Ничто не ново под луной. HT — это частный случай того, что в литературе именуется одновременной многопоточностью (simultaneous multithreading, SMT). В отличие от «настоящих» ядер, являющихся полными и независимыми копиями, в случае HT в одном процессоре дублируется лишь часть внутренних узлов, в первую очередь отвечающих за хранение архитектурного состояния — регистры. Исполнительные же узлы, ответственные за организацию и обработку данных, остаются в единственном числе, и в любой момент времени используются максимум одним из потоков. Как и ядра, гиперпотоки делят между собой кэши, однако начиная с какого уровня — это зависит от конкретной системы. Я не буду пытаться объяснить все плюсы и минусы дизайнов с SMT вообще и с HT в частности. Интересующийся читатель может найти довольно подробное обсуждение технологии во многих источниках, и, конечно же, в [Википедии](http://en.wikipedia.org/wiki/Hyper-threading). Однако отмечу следующий важный момент, объясняющий текущие ограничения на число гиперпотоков в реальной продукции. ###### Ограничения потоков В каких случаях наличие «нечестной» многоядерности в виде HT оправдано? Если один поток приложения не в состоянии загрузить все исполняющие узлы внутри ядра, то их можно «одолжить» другому потоку. Это типично для приложений, имеющих «узкое место» не в вычислениях, а при доступе к данным, то есть часто генерирующих промахи кэша и вынужденных ожидать доставку данных из памяти. В это время ядро без HT будет вынуждено простаивать. Наличие же HT позволяет быстро переключить свободные исполняющие узлы к другому архитектурному состоянию (т.к. оно как раз дублируется) и исполнять его инструкции. Это — частный случай приёма под названием latency hiding, когда одна длительная операция, в течение которой полезные ресурсы простаивают, маскируется параллельным выполнением других задач. Если приложение уже имеет высокую степень утилизации ресурсов ядра, наличие гиперпотоков не позволит получить ускорение — здесь нужны «честные» ядра. Типичные сценарии работы десктопных и серверных приложений, рассчитанных на машинные архитектуры общего назначения, имеют потенциал к параллелизму, реализуемому с помощью HT. Однако этот потенциал быстро «расходуется». Возможно, по этой причине почти на всех процессорах IA-32 число аппаратных гиперпотоков не превышает двух. На типичных сценариях выигрыш от использования трёх и более гиперпотоков был бы невелик, а вот проигрыш в размере кристалла, его энергопотреблении и стоимости значителен. Другая ситуация наблюдается на типичных задачах, выполняемых на видеоускорителях. Поэтому для этих архитектур характерно использование техники SMT с бóльшим числом потоков. Так как сопроцессоры Intel® Xeon Phi (представленные в 2010 году) идеологически и генеалогически довольно близки к видеокартам, на них может быть *четыре* гиперпотока на каждом ядре — уникальная для IA-32 конфигурация. #### Логический процессор Из трёх описанных «уровней» параллелизма (процессоры, ядра, гиперпотоки) в конкретной системе могут отсутствовать некоторые или даже все. На это влияют настройки BIOS (многоядерность и многопоточность отключаются независимо), особенности микроархитектуры (например, HT отсутствовал в Intel® Core™ Duo, но был возвращён с выпуском Nehalem) и события при работе системы (многопроцессорные сервера могут выключать отказавшие процессоры в случае обнаружения неисправностей и продолжать «лететь» на оставшихся). Каким образом этот многоуровневый зоопарк параллелизма виден операционной системе и, в конечном счёте, прикладным приложениям? Далее для удобства обозначим количества процессоров, ядер и потоков в некоторой системе тройкой (*x*, *y*, *z*), где *x* — это число процессоров, *y* — число ядер в каждом процессоре, а *z* — число гиперпотоков в каждом ядре. Далее я буду называть эту тройку *топологией* — устоявшийся термин, мало что имеющий с разделом математики. Произведение *p* = *xyz* определяет число сущностей, именуемых *логическими процессорами* системы. Оно определяет полное число независимых контекстов прикладных процессов в системе с общей памятью, исполняющихся параллельно, которые операционная система вынуждена учитывать. Я говорю «вынуждена», потому что она не может управлять порядком исполнения двух процессов, находящихся на различных логических процессорах. Это относится в том числе к гиперпотокам: хотя они и работают «последовательно» на одном ядре, конкретный порядок диктуется аппаратурой и недоступен для наблюдения или управления программам. Чаще всего операционная система прячет от конечных приложений особенности физической топологии системы, на которой она запущена. Например, три следующие топологии: (2, 1, 1), (1, 2, 1) и (1, 1, 2) — ОС будет представлять в виде двух логических процессоров, хотя первая из них имеет два процессора, вторая — два ядра, а третья — всего лишь два потока. ![](https://habrastorage.org/r/w1560/files/1e4/804/abe/1e4804abe34340eaaa96d2dbc80a4ca1.png) *Windows Task Manager показывает 8 логических процессоров; но сколько это в процессорах, ядрах и гиперпотоках?* ![](https://habrastorage.org/r/w1560/files/3f0/814/1c9/3f08141c94c74786b95e4eb0e7884fc3.png) *Linux `top` показывает 4 логических процессора.* Это довольно удобно для создателей прикладных приложений — им не приходится иметь дело с зачастую несущественными для них особенностями аппаратуры. #### Программное определение топологии Конечно, абстрагирование топологии в единственное число логических процессоров в ряде случаев создаёт достаточно оснований для путаницы и недоразумений (в жарких Интернет-спорах). Вычислительные приложения, желающие выжать из железа максимум производительности, требуют детального контроля над тем, где будут размещены их потоки: поближе друг к другу на соседних гиперпотоках или же наоборот, подальше на разных процессорах. Скорость коммуникаций между логическими процессорами в составе одного ядра или процессора значительно выше, чем скорость передачи данных между процессорами. Возможность неоднородности в организации оперативной памяти также усложняет картину. Информация о топологии системы в целом, а также положении каждого логического процессора в IA-32 доступна с помощью инструкции CPUID. С момента появления первых многопроцессорных систем схема идентификации логических процессоров несколько раз расширялась. К настоящему моменту её части содержатся в листах 1, 4 и 11 CPUID. Какой из листов следует смотреть, можно определить из следующей блок-схемы, взятой из статьи [2]: ![](https://habrastorage.org/r/w1560/files/632/1ab/b0b/6321abb0b653443284417a041ae99d01.png) Я не буду здесь утомлять всеми подробностями отдельных частей этого алгоритма. Если возникнет интерес, то этому можно посвятить следующую часть этой статьи. Отошлю интересующегося читателя к [2], в которой этот вопрос разбирается максимально подробно. Здесь же я сначала кратко опишу, что такое APIC и как он связан с топологией. Затем рассмотрим работу с листом 0xB (одиннадцать в десятичном счислении), который на настоящий момент является последним словом в «апикостроении». ###### APIC ID Local APIC (advanced programmable interrupt controller) — это устройство (ныне входящее в состав процессора), отвечающее за работу с прерываниями, приходящими к конкретному логическому процессору. Свой собственный APIC есть у каждого логического процессора. И каждый из них в системе должен иметь уникальное значение APIC ID. Это число используется контроллерами прерываний для адресации при доставке сообщений, а всеми остальными (например, операционной системой) — для идентификации логических процессоров. Спецификация на этот контроллер прерываний эволюционировала, пройдя от микросхемы Intel 8259 PIC через Dual PIC, APIC и xAPIC к x2APIC. В настоящий момент ширина числа, хранящегося в APIC ID, достигла полных 32 бит, хотя в прошлом оно было ограничено 16, а ещё раньше — только 8 битами. Нынче остатки старых дней раскиданы по всему CPUID, однако в CPUID.0xB.EDX[31:0] возвращаются все 32 бита APIC ID. На каждом логическом процессоре, независимо исполняющем инструкцию CPUID, возвращаться будет своё значение. ###### Выяснение родственных связей Значение APIC ID само по себе ничего не говорит о топологии. Чтобы узнать, какие два логических процессора находятся внутри одного физического (т.е. являются «братьями» гипертредами), какие два — внутри одного процессора, а какие оказались и вовсе в разных процессорах, надо сравнить их значения APIC ID. В зависимости от степени родства некоторые их биты будут совпадать. Эта информация содержится в подлистьях CPUID.0xB, которые кодируются с помощью операнда в ECX. Каждый из них описывает положение битового поля одного из уровней топологии в EAX[5:0] (точнее, число бит, которые нужно сдвинуть в APIC ID вправо, чтобы убрать нижние уровни топологии), а также тип этого уровня — гиперпоток, ядро или процессор, — в ECX[15:8]. ![](https://habrastorage.org/r/w1560/files/84c/a02/77f/84ca0277f9b548ef82b3cb755e1c1481.png) У логических процессоров, находящихся внутри одного ядра, будут совпадать все биты APIC ID, кроме принадлежащих полю SMT. Для логических процессоров, находящихся в одном процессоре, — все биты, кроме полей Core и SMT. Поскольку число подлистов у CPUID.0xB может расти, данная схема позволит поддержать описание топологий и с бóльшим числом уровней, если в будущем возникнет необходимость. Более того, можно будет ввести промежуточные уровни между уже существующими. Важное следствие из организации данной схемы заключается в том, что в наборе всех APIC ID всех логических процессоров системы могут быть «дыры», т.е. они не будут идти последовательно. Например, во многоядерном процессоре с выключенным HT все APIC ID могут оказаться чётными, так как младший бит, отвечающий за кодирование номера гиперпотока, будет всегда нулевым. Отмечу, что CPUID.0xB — не единственный источник информации о логических процессорах, доступный операционной системе. Список всех процессоров, доступный ей, вместе с их значениями APIC ID, кодируется в таблице MADT ACPI [3, 4]. #### Операционные системы и топология Операционные системы предоставляют информацию о топологии логических процессоров приложениям с помощью своих собственных интерфейсов. В Linux информация о топологии содержится в псевдофайле `/proc/cpuinfo`, а также выводе команды `dmidecode`. В примере ниже я фильтрую содержимое cpuinfo на некоторой четырёхядерной системе без HT, оставляя только записи, относящиеся к топологии: **Скрытый текст** ``` ggg@shadowbox:~$ cat /proc/cpuinfo |grep 'processor\|physical\ id\|siblings\|core\|cores\|apicid' processor : 0 physical id : 0 siblings : 4 core id : 0 cpu cores : 2 apicid : 0 initial apicid : 0 processor : 1 physical id : 0 siblings : 4 core id : 0 cpu cores : 2 apicid : 1 initial apicid : 1 processor : 2 physical id : 0 siblings : 4 core id : 1 cpu cores : 2 apicid : 2 initial apicid : 2 processor : 3 physical id : 0 siblings : 4 core id : 1 cpu cores : 2 apicid : 3 initial apicid : 3 ``` В FreeBSD топология сообщается через механизм sysctl в переменной kern.sched.topology\_spec в виде XML: **Скрытый текст** ``` user@host:~$ sysctl kern.sched.topology_spec kern.sched.topology_spec: 0, 1, 2, 3, 4, 5, 6, 7 0, 1, 2, 3, 4, 5, 6, 7 0, 1 THREAD groupSMT group 2, 3 THREAD groupSMT group 4, 5 THREAD groupSMT group 6, 7 THREAD groupSMT group ``` В MS Windows 8 сведения о топологии можно увидеть в диспетчере задач Task Manager. **Скрытый текст**![](https://habrastorage.org/r/w1560/files/d98/731/7f6/d987317f66c244dfbf223697161b9526.png) Также их предоставляет консольная утилита [Sysinternals Coreinfo](http://technet.microsoft.com/en-us/sysinternals/cc835722.aspx) и API вызов [GetLogicalProcessorInformation](http://blogs.technet.com/b/winserverperformance/archive/2008/09/13/getting-system-topology-information-on-windows.aspx). #### Полная картина Проиллюстрирую ещё раз отношения между понятиями «процессор», «ядро», «гиперпоток» и «логический процессор» на нескольких примерах. ###### Система (2, 2, 2) ![](https://habrastorage.org/r/w1560/files/dfb/e05/4f1/dfbe054f1cbc4d0cb51ba1abca3961a2.png) ###### Система (2, 4, 1) ![](https://habrastorage.org/r/w1560/files/bc3/9b6/358/bc39b6358048467fb87a6789ec83c63c.png) ###### Система (4, 1, 1) ![](https://habrastorage.org/r/w1560/files/76d/bb8/694/76dbb8694eff44409c654004ff121c73.png) #### Прочие вопросы В этот раздел я вынес некоторые курьёзы, возникающие из-за многоуровневой организации логических процессоров. ###### Кэши Как я уже упоминал, кэши в процессоре тоже образуют иерархию, и она довольно сильно связано с топологией ядер, однако не определяется ей однозначно. Для определения того, какие кэши для каких логических процессоров общие, а какие нет, используется вывод CPUID.4 и её подлистов. ###### Лицензирование Некоторые программные продукты поставляются числом лицензий, определяемых количеством процессоров в системе, на которой они будут использоваться. Другие — числом ядер в системе. Наконец, для определения числа лицензий число процессоров может умножаться на дробный «core factor», зависящий от типа процессора! ###### Виртуализация Системы виртуализации, способные моделировать многоядерные системы, могут назначить виртуальным процессорам внутри машины произвольную топологию, не совпадающую с конфигурацией реальной аппаратуры. Так, внутри хозяйской системы (1, 2, 2) некоторые известные системы виртуализации по умолчанию выносят все логические процессоры на верхний уровень, т.е. создают конфигурацию (4, 1, 1). В сочетании с особенностями лицензирования, зависящими от топологии, это может порождать забавные эффекты. Спасибо за внимание! #### Литература 1. Intel Corporation. Intel® 64 and IA-32 Architectures Software Developer’s Manual. Volumes 1–3, 2014. [www.intel.com/content/www/us/en/processors/architectures-software-developer-manuals.html](http://www.intel.com/content/www/us/en/processors/architectures-software-developer-manuals.html) 2. Shih Kuo. Intel® 64 Architecture Processor Topology Enumeration, 2012 — [software.intel.com/en-us/articles/intel-64-architecture-processor-topology-enumeration](https://software.intel.com/en-us/articles/intel-64-architecture-processor-topology-enumeration) 3. OSDevWiki. MADT. [wiki.osdev.org/MADT](http://wiki.osdev.org/MADT) 4. OSDevWiki. Detecting CPU Topology. [wiki.osdev.org/Detecting\_CPU\_Topology\_%2880x86%29](http://wiki.osdev.org/Detecting_CPU_Topology_%2880x86%29)
https://habr.com/ru/post/243385/
null
ru
null
# Flaky tests Что неприятнее «красного теста»? Тест, который то зелёный, то красный, и непонятно, почему. На нашей конференции Heisenbug 2017 Moscow **Андрей Солнцев** (Codeborne) рассказывал, из-за чего они могут возникать и как снижать их число. Примеры в его докладе такие, что прямо-таки кожей ощущаешь боль, возникавшую при столкновении с ними. А советы полезные — причём ознакомиться с ними стоит как тестировщикам, так и разработчикам. Есть и неожиданное: можно узнать, как порой можно разобраться в проблеме, если оторваться от экрана и поиграть с дочкой в кубики. В итоге зрители высоко оценили доклад, и мы решили не просто опубликовать видеозапись, а ещё и сделать для Хабра текстовую версию доклада. На мой взгляд, flaky-тесты — это самая актуальная тема в мире автоматизации. Потому что на вопрос «что вообще в мире делается, как у вас дела с автоматизацией?» все отвечают: «Стабильности нет! Падают наши тесты периодически». Ты запустил у себя тест, он зелёный, ещё два дня зелёный, а потом раз и внезапно упал на Jenkins. Ты пытаешься это повторить, запускаешь, а он снова зелёный. И в итоге никогда не знаешь: это баг или это просто тест глюканул? И каждый раз надо разбираться. Зачастую после ночного запуска тестов на Jenkins тестировщик сначала видит «30 тестов упало, надо изучить», но все знают, что происходит дальше… ![](https://habrastorage.org/r/w780q1/webt/fz/vg/jh/fzvgjhfo6snzfs6qa0d9clltgcc.jpeg) Вы, конечно, догадались, какое неприличное слово замаскировано: «перезапущу». Мол, «сегодня неохота разбираться…» Вот так это обычно происходит, и это прямо беда. Точной статистики нет, но я часто слышал от разных людей, что у них примерно 30% тестов — flaky. Грубо говоря, запускают тысячу, из них 300 периодически красные, и дальше руками проверяют, а на самом ли деле они упали. Google пару лет выпустил [статью](https://testing.googleblog.com/2016/05/flaky-tests-at-google-and-how-we.html): там сообщается, что у них 1,5% процента flaky-тестов, и рассказано, как они бьются за снижение их числа. Я могу чуть похвастаться и сказать, что в моём проекте в Codeborne сейчас 0,1%. Но на самом деле всё это плохо, даже 0,1%. Почему? Возьмём 1,5%, это число кажется маленьким, но что оно значит на практике? Допустим, в проекте тысяча тестов. Это может значить, что в одном билде упало 15 тестов, в следующем 12, затем 18. И это ужасно плохо, потому что в этом случае почти все билды красные, и постоянно нужно проверять руками, правда это или нет. И даже наш один промилле (0,1%) — всё равно плохо. Допустим, у нас 1000 тестов, тогда 0,1% означает, что регулярно один билд из десяти валится с 1-2 красными тестами. Вот реальная картина с нашего Jenkins, так и получается: при одном запуске упал один flaky-тест, при другом запуске другой. ![](https://habrastorage.org/r/w780q1/webt/dv/gx/da/dvgxdacsvc67zygojg18pu50v-q.jpeg) Получается, ни дня без красного билда у нас не проходит. Так как много зелёного, вроде бы всё хорошо, но клиент вправе спросить нас: «Ребята, мы вам платим деньги, а вы нам постоянно красноту поставляете! Что за дела?» Я бы на месте клиента был недоволен, и объяснять «вообще-то по отрасли это нормально, у всех всё красное» нехорошо, да? Поэтому, на мой взгляд, это очень актуальная проблема, и давайте вместе разбираться, как же с ней бороться. План такой: 1. Моя коллекция нестабильных тестов (из моей практики, абсолютно реальные случаи, сложные и интересные детективные истории) 2. Причины нестабильности (на исследование некоторых уходили даже годы) 3. Как с ними бороться? (надеюсь, это будет самая полезная часть) Итак, начнём с моей коллекции, которой я очень дорожу: она стоила мне многих ночных часов жизни и дебага. Начнем с простого примера. Пример 1: классика ------------------ Для затравки — классический Selenium-скрипт: ``` driver.navigate().to("https://www.google.com/"); driver.findElement(By.name("q")).sendKeys("selenide"); driver.findElement(By.name("btnK")).click(); assertEquals(9, driver.findElements(By.cssSelector("#ires .g")).size()); ``` 1. Мы открываем WebDriver; 2. Находим элемент q, вбиваем туда слово для поиска; 3. Находим элемент «Кнопка» и кликаем; 4. Проверяем, что в ответе девять результатов. Вопрос: какая строчка здесь может сломаться? Правильно, мы все хорошо знаем, что любая! Может сломаться абсолютно любая строчка, по совершенно разным причинам: Первая строчка — медленный интернет, сервис упал, админы что-то не настроили. Вторая строчка — элемент еще не успел отрисоваться, если он динамически отрисовывается. Что может сломаться в третьей строчке? Тут для меня было неожиданно: я написал это тест для конференции, запустил локально, и он именно на третьей строчке свалился с вот такой ошибкой: ![](https://habrastorage.org/r/w780q1/webt/8n/qu/4l/8nqu4l-8byopdwjdkbcrcgkhery.jpeg) Это говорит, что элемент в этой точке некликабельный. Казалось бы, простая элементарная Google-форма. Секрет оказался в том, что во второй строке мы вбили слово, и пока мы его вводили, Google уже нашёл первые результаты, показал несколько первых результатов в таком поп-апчике, и они закрыли следующую кнопку. И это происходит не во всех браузерах и не всегда. У меня с этим скриптом такое происходило примерно один раз из пяти. Четвёртая же строчка может упасть, например, потому что этот элемент отрисовывается динамически и еще не успел отрисоваться. На этом примере хочу сказать, что, по моему опыту, 90% flaky-тестов имеют в основе одни и те же причины: * Скорость Ajax-запросов: иногда они запускаются медленнее, иногда быстрее; * Порядок Ajax-запросов; * Скорость JS. К счастью, для этих причин есть лекарство! [Selenide](http://selenide.org/) решает эти проблемы. Как решает? Перепишем наш гугловский тест на Selenide — почти всё похоже, только знаки $ используются: ``` @Test public void userCanLogin() { open(“http://localhost:8080/login”); $(By.name(“username”).setValue(“john”); $(“#submit”).click(); $(“.menu”).shouldHave(text(“Hello, John!”)); } ``` Вот этот тест проходит всегда. За счёт того, что методы setValue(), click() и shouldHave() — умные: если что-то не успело подрисоваться, они чуть-чуть ждут и пробуют ещё (это называется «умные ожидания»). Если посмотреть чуть подробнее, то все эти should\*-методы умные: ![](https://habrastorage.org/r/w780q1/webt/gq/x8/uq/gqx8uq3gjj6wudrx0n3uajntzdy.jpeg) Они могут подождать, если надо. По умолчанию ждут до 4 секунд, и этот тайм-аут, конечно, настраивается, можно задать любой другой. К примеру, так: mvn -Dselenide.timeout=8000. Пример 2: nbob -------------- Итак, 90% проблем с flaky-тестами решаются с помощью Selenide. Но остаются 10% гораздо более изощрённых случаев со сложными запутанными причинами. Вот именно о них я и хочу сегодня поговорить, потому что это такая «серая область». Приведу один из примеров: flaky-тест, на который я сразу же наткнулся в новом проекте. На первый взгляд, этого просто не может случиться, вот это-то и интересно. Тестировали приложение-клавиатуру для логина в киосках. Тест хотел залогиниться как юзер «bob», то есть в поле «логин» ввести три буквы: b-o-b. Для этого использовались кнопки на экране. Как правило, это срабатывало, но иногда тест падал, и в поле «логин» оставалось значение «nbob»: ![](https://habrastorage.org/r/w780q1/webt/7u/hp/zs/7uhpzsf9wrppgubv_cra_ldg2ri.jpeg) Естественно, ломишься искать по коду, где у нас могло быть написано «nbob» — но в целом проекте этого вообще нет (ни в базе данных, ни в коде, ни даже в Excel-файлах). Как это возможно? Смотрим подробнее код — казалось бы, всё просто, никаких загадок: ``` @Test public void loginKiosk() { open(“http://localhost:9000/kiosk”); $(“body”).click(); $(By.name(“username”)).sendKeys(“bob”); $(“#login”).click(); } ``` Стали дальше дебажить, идти по шагам, и таким методом удалось понять: это ошибка иногда появляется после строки $(“body”).click(). То есть на этом шаге в поле «логин» появляется «n», затем уже на последующих добавляется «bob». Кто уже догадался, откуда берется «n»? Так получилось, что буква N находилась посередине экрана, а функция click() как минимум в Chrome работает так: высчитывает центральную координату элемента и кликает в неё. Поскольку body — это большой элемент, она кликала в центр всего экрана. ![](https://habrastorage.org/r/w780q1/webt/56/xh/k_/56xhk_clrm85lqkyn-wqeaa5hg4.jpeg) И это падало не всегда. Кто знает, почему? На самом деле, я сам не до конца знаю. Возможно, из-за того, что окно браузера всё время открывалось разного размера, и это не всегда попадало в букву N. У вас, вероятно, возник вопрос: зачем кто-то делал $(“body”).click()? Тоже до конца не знаю, но предполагаю, чтобы убрать фокус с поля. В Selenium есть такая проблема, что click() есть, а unclick() нет. Если фокус в поле есть, то его никак оттуда ни снять, можно только кликнуть на какой-нибудь другой элемент. А поскольку там не было никаких других разумных элементов, кликнули на body, и получили такой эффект. Отсюда мораль: не надо вставлять что попало в . Другими словами, не нужно в панике делать какие-то лишние движения. На самом деле, это нередко случается: поскольку я занимаюсь Selenide, мне часто приходят жалобы «что-то не работает», а потом выясняется что у них где-то в setup-методах было 15 лишних строчек, которые ничего полезного не делают и мешают. Не нужно суетиться и вставлять абы что в тесты типа «вдруг будет надёжнее». В итоге расширяем список причин нестабильных тестов: * Скорость Ajax-запросов; * Порядок Ajax-запросов; * Скорость JS; * Размер окна браузера; * Суета! И заодно моя рекомендация: не запускать тесты в maximized (то есть не открывать браузер на полное окно). Как правило, все так делают, и в Selenide так было по умолчанию (или до сих пор есть). Вместо этого я советую всегда запускать браузер со строго определенным разрешением экрана, потому что тогда исключается вот этот случайный фактор. И советую выставлять на минимальный размер, который ваше приложение поддерживает по спецификации. Пример 3: фантомные счета ------------------------- Пример интересен тем, что тут совпало сразу всё, что только может совпасть. Был тест, который проверял, что на этом экране должно быть 5 счетов. ![](https://habrastorage.org/r/w780q1/webt/td/hp/vl/tdhpvl7b-2ar4jxetsboygszf7m.jpeg) Он, как правило, был зелёный, но иногда при непонятно каких условиях падал и говорил, что на экране не пять, а шесть счетов. Я стал исследовать, откуда берётся лишний счёт. Абсолютно непонятно. Возник вопрос: может быть, у нас есть другой тест, который в ходе теста создает новый счёт? Оказалось, что да, есть такой LoansTest. А между ним и падающим AccountsTest (который ожидает пять счетов) может оказываться миллион каких-то других тестов. Пытаемся понять, как же так: разве LoansTest, который создаёт счёт, не должен его удалять в конце? Смотрим его код — да, должен, в конце для этого есть функция After. Тогда, по идее, всё должно быть хорошо, в чём же проблема? Может, тест его удаляет, но он остаётся где-то закэшированным? Смотрим продакшн-код, который грузит счета — в нём действительно есть аннотация @CacheFor, он кэширует счета на пять минут. Возникает вопрос: но разве тест не должен был очистить этот кэш? Было бы логично, не может же быть такой косяк? Смотрим его код — да, он действительно очищает кэш перед каждым тестом. Что за дела? Тут уже теряешься, потому что гипотезы закончились: объект удаляется, кэш очищается, ёлки-палки, что же ещё может быть проблемой? Дальше стал уже просто лазать по коду, это заняло некоторое время, возможно, даже несколько дней. Пока я наконец не посмотрел в этот класс и суперкласс, и не нашёл там одну подозрительную вещь: ![](https://habrastorage.org/r/w780q1/webt/ug/iz/qz/ugizqze3zr1gmexqfzgxfzqtb_o.jpeg) Кто-то уже заметил, да? Совершенно верно: и в дочернем, и в родительском классе есть метод с одним и тем же названием, и он не вызывает super. И в Java это очень легко сделать: нажимаешь в IntelliJ IDEA или Eclipse сочетание Alt+Enter или Ctrl+Insert, он по умолчанию создаёт тебе метод setUp(), и не замечаешь, что он оверрайдит метод в суперклассе. То есть кэш все-таки не вызывался. Когда я увидел это, я был дико зол. Это сейчас мне радостно. Отсюда мораль: 1. В тестах очень важно следить за clean code. Если в продакшн-коде все внимательно к этому относятся, проводят code review, то в тестах — не всегда. 2. Если продакшн-код проверен тестами, то кто проверит тесты? Поэтому тут особенно важно использовать проверки в IDE. Я после этого случая нашёл в IDEA такую инспекцию, выключенную по умолчанию, которая проверяет: если метод где-то переопределён, но нет аннотации @Overridе, то она помечает это как ошибку. Теперь я всегда истерически ставлю эту галочку. Давайте подытожим ещё раз: как это получилось, почему тест падал не всегда? Во-первых, он зависел от порядка этих двух тестов, они же всегда запускаются в случайном порядке. Ещё тест зависел от того, сколько времени прошло между ними. Счета кэшируются пять минут, если проходило больше, то тест был зелёный, а если меньше — падал, и такое случалось редко. Расширяем список того, почему тесты могут быть нестабильны: * Скорость Ajax-запросов; * Порядок Ajax-запросов; * Скорость JS; * Размер окна браузера; * Кэш приложения; * Данные от предыдущих тестов; * Время. Пример 4: Время Java -------------------- Был тест, который работал на всех наших компьютерах и на нашем Jenkins, но иногда падал на Jenkins заказчика. Смотрим в тест, разбираемся, почему. Оказывается, падал, потому что при проверке «дата платежа должна быть сейчас или в прошлом» она оказывалась «в будущем». ``` assert payment.time <= new Date(); ``` Смотрим в код, вдруг при каких-то условиях мы можем поставить дату в будущем? Не можем: в единственном месте, где инициализируется время платежа, используется new Date(), а это всегда текущее время (в крайнем случае оно может оказаться в прошлом, если вдруг тест был очень медленным). Как такое вообще возможно? Долго бились головой, не могли понять. А однажды заглянули в лог приложения. Отсюда первая мораль — очень полезно при исследовании тестов заглядывать в лог самого приложения. Поднимите руки, кто это делает. В общем, не большинство, увы. А там есть полезная информация: к примеру, request log, такой-то URL в такое время выполнился, выдал такой-то ответ. ![](https://habrastorage.org/r/w780q1/webt/z5/ca/cv/z5cacvqul4e4p9gw_lltdzoqk2c.jpeg) Здесь есть кое-что подозрительное, заметили? Смотрим время: этот запрос обрабатывался минус три секунды. Как такое может быть? Долго бились, не могли понять. Наконец, когда у нас кончились теории, сделали тупое решение: в Jenkins написали простенький скрипт, который в цикле раз в секунду логирует текущее время. Запустили его. На следующий день, когда этот flaky-тест один раз ночью упал, стали смотреть выдержку из этого файла за то время, когда он упал: ![](https://habrastorage.org/r/w780q1/webt/yn/et/wx/ynetwxiyv1bc7kzmcgfafqolso8.jpeg) Итак: 34 секунды, 35, 36, 37, 35, 39… Круто, что мы это нашли, но как это вообще возможно? Снова теории закончились, ещё два дня чесали голову. Это реально тот случай, когда Матрица шутит над тобой, да? Пока наконец не стукнула в голову одна идея… И вот, что оказалось. В Linux есть сервис для синхронизации времени, который бегает на центральный сервер и спрашивает «а столько сейчас милисекунд?» И оказывается, на этом конкретном Jenkins было запущено два разных сервиса. Тест начал падать, когда на этом сервере обновили Ubuntu. Там раньше был сконфигурирован ntp-сервис, который обращался на специальный банковский сервер и брал время оттуда. А с новой версией Ubuntu по умолчанию включался новый легковесный сервис, к примеру, systemd-timesyncd. И работали оба. Никто этого не заметил. Почему-то центральный банковский сервер и какой-то центральный Ubuntu-сервер выдавали ответ с разницей в 3 секунды. Естественно, эти два сервиса друг другу мешали. Где-то глубоко в документации Ubuntu сказано, что, конечно, не допускайте такой ситуации… Ну, спасибо за информацию :) Кстати, заодно я узнал один интересный нюанс Java, который до этого, несмотря на мой многолетний опыт, не знал. Один из самых базовых методов в Java называется System.currentTimeMillis(), с помощью него обычно засекают время вызова чего-то, многие писали такой код: ``` long start = System.currentTimeMillis(); // ... long end = System.currentTimeMillis(); log.info("Loaded in {} ms", end-start); ``` Такой код есть в библиотеках Apache Commons, Guava. То есть, если нужно засечь, сколько миллисекунд занял вызов чего-то, обычно делают так. И многие, наверное, слышали, что так делать нельзя. Я тоже слышал, но не знал, почему, и лень было разбираться. Я думал, вопрос в точности, потому что в какой-то версии Java появился System.nanoTime() — он более точный, выдаёт наносекунды, которые в миллион раз точнее. А поскольку, как правило, мои вызовы длятся секунду или полсекунды, то мне такая точность не важна, и я продолжал использовать System.currentTimeMillis(), что мы и увидели в том логе, где было -3 секунды. Так вот, на самом деле правильный способ такой, и вот теперь я узнал, почему: ``` long start = System.nanoTime(); // ... long end = System.nanoTime(); log.info("Loaded in {} ms", (end-start)/1000000); ``` На самом деле, в документации методов это написано, я же просто никогда не читал её. Я всю жизнь думал, что System.currentTimeMillis() и System.nanoTime() — одно и то же, только с разницей в миллион раз. А оказалось, что это принципиально разные вещи. System.currentTimeMillis() возвращает реально текущую дату — сколько сейчас миллисекунд прошло с 1 января 1970-го. А System.nanoTime() — некий абстрактный счётчик, который не привязан к реальному времени: да, он гарантированно растёт каждую наносекунду на единичку, но он не связан с текущим временем, он может быть даже отрицательным. При старте JVM как-то случайным образом выбирается момент времени, и он начинает расти. Это для меня был сюрприз. Для вас тоже? Вот, не зря приехал. Пример 5: Проклятие зелёной кнопки ---------------------------------- Тут у нас тест заполняет некую форму, нажимает зелёную кнопку Confirm, и иногда не идёт дальше. Почему не идёт — непонятно. ![](https://habrastorage.org/r/w1560/webt/cb/wq/fe/cbwqfenxe6_sfzyescgepr5m8tg.png) Вбиваем четыре нуля и висим, не идём на следующую страничку. Клик происходит без ошибок. Я посмотрел всё: Ajaх-запросы, ожидание, таймауты, логи приложений, кэш — ничего не нашёл. Пока не появилась библиотека [Video Recorder](https://github.com/SergeyPirogov/video-recorder-java), написанная Сергеем Пироговым. Она позволяет, добавив в код одну аннотацию, записывать видео. Тогда я смог снять [видео](https://vimeo.com/246787182?ref=em-share) этого теста, посмотреть его в замедленном виде, и это наконец-то прояснило ситуацию, которую до видео я не мог разгадать несколько месяцев. ![](https://habrastorage.org/r/w1560/webt/i_/gz/_j/i_gz_jsw_vswjbeql9s2lwsefga.png) Прогресс-бар перекрыл кнопку на доли секунды, а клик сработал ровно в этот момент и попал по этому прогресс-бару. То есть прогресс-бар схавал клик и пропал! И его не будет видно ни на одном скриншоте, ни в одном логе, никогда не узнаешь, что произошло. В принципе, это в каком-то смысле баг приложения: прогресс-бар появился, потому что приложение реально вылезает за край экрана, и если прокрутить, там оказывается куча полезных данных. Но пользователи на это не жаловались, потому что на большом экране всё помещалось, не помещалось только на маленьком. Пример 6: почему зависает Chrome? --------------------------------- Детективное расследование длиной в два года, абсолютно реальный случай. Ситуация такая: наши тесты довольно часто были flaky и падали, и в стек-трейсах было видно, что Chrome зависает: не тест наш, а именно Chrome. В логах было видно «Build is running 36 hours...» Стали снимать тред-дампы и стак-трейсы — они показывают, что в тестах всё хорошо, зависает обращение к Chromedriver и, как правило, в момент закрытия (вызываем метод close, и этот метод ничего не делает, висит 36 часов). Если интресно, то стек-трейс выглядел так: ![](https://habrastorage.org/r/w780q1/webt/fz/ew/1e/fzew1eu0u-e3oatl1age_oqhnso.jpeg) Пытались сделать всё, что только может прийти в голову: * Сконфигурировать таймаут для открытия/закрытия браузера (если за 15 секунд не смогли открыть/закрыть браузер, пробуем снова через 15 секунд, до трёх попыток). Открывать и закрывать браузер в отдельном потоке. Результат: висело так же все три попытки. * Убивать старые процессы Chrome. Создали отдельный джоб в Jenkins ‘kill-chrome’, к примеру, вот так можно «убить» все процессы старее часа: killall --older-than 1h chromedriver killall --older-than 1h chrome Это хотя бы освобождало память, но не давало ответ на вопрос «что же происходит?». По сути, эта штука только оттянула нам момент решения. * Включить debug-логи приложения. * Включить debug-логи WebDriver. * Переоткрывать браузер после каждых 20 тестов. Может показаться смешным, но мысль была такая: «А вдруг Chrome зависает, потому что он устал?» Ну, утечка памяти или ещё что-то. Результат последней попытки оказался совершенно неожиданным: проблема стала повторяться чаще! А мы-то надеялись, что это поможет стабилизировать Chrome, чтобы он лучше работал. Это вообще вынос мозга. Но на самом деле, когда проблема начинает повторяться чаще, надо не грустить, а радоваться! Это даёт возможность лучше её изучить. Если она стала чаще повторяться, надо цепляться за это: «Да-да, сейчас добавлю ещё чего-нибудь, логов, брейкпойнтов…» Пытаемся повторить проблему: пишем цикл от 1 до 1000, в цикле просто открываем браузер, первую страничку в нашем приложении и закрываем. Написали такой цикл, и… бинго! Результат: проблема стала повторяться стабильно (правда, примерно через каждые 80 итераций)! Круто! Правда, это достижение долго ничего не давало. Запустил ты, дождался 80-й итерации, завис Chrome… а дальше что делать? Смотришь в стак-трейсы, дампы, логи — ничего полезного там нет. Developer Tools в Chrome, возможно, помог бы, но до сентября 2017-го вместе с Selenium эти тулы не работали (конфликтовали порты: запускаешь Chrome из Selenium, и DevTools не открываются). Долгое время не мог придумать, что сделать. И тут в этой истории начинается сказочный момент. Однажды, после бесконечного количества попыток, я снова запустил эти тесты, он у меня снова на какой-то итерации вроде 56-й завис, я думаю «давай ещё что-нибудь покопаю» (правда, не знаю, куда ещё брейкпойнт поставить или какой-то лог добавить). В этот момент дочка предлагает поиграть в кубики, а у меня тут как раз тест завис. Я говорю «Подожди», она мне: «Ты что, не понял, у меня тут **к у б и к и**!» Что поделать, с грустью оставил компьютер, пошёл играть в кубики… И вдруг, примерно через 20 минут, случайно бросаю взгляд на экран, и вижу совершенно неожиданную картину: ![](https://habrastorage.org/r/w780q1/webt/hm/7o/6p/hm7o6peoyj0zroryt-8g-osfvkc.jpeg) Что получается: идёт отсчёт, через сколько минут истечёт сессия, а я строю башню из кубиков, остаётся две, одна… сессия истекает, тест продолжается, бежит до конца и падает (элемента уже нет, сессия истекла). Что получается: Chrome на самом деле не зависал, как мы думали всё это время, он всё это время что-то ждал. Когда сессия истекала, дожидался, шёл дальше. Чего именно ждал Chrome — абсолютно непонятно, чтобы это понять, пришлось перелопатить весь код методом бинарного поиска: выкидываешь половину JavaScript и HTML, снова пытаешься повторить 80 итераций — не зависло, о, значит, где-то там… В общем, экспериментальным путем поняли, что проблема вот здесь: ``` var timeout = setTimeout(sessionWatcher); ``` Был на всех наших страницах JavaScript — тот самый, который показывает окошко, что сессия истекает. Наверно, все JavaScript-программисты знают, что так делать не очень правильно: всё, что запускается в тегах
https://habr.com/ru/post/416757/
null
ru
null
# Самостоятельный хостинг сторонних ресурсов: хороший, плохой, злой В последние годы всё больше платформ для оптимизации фронтенд-проектов предлагают возможности по самостоятельному хостингу или проксированию сторонних ресурсов. Akamai позволяет задавать [специфические параметры](https://community.akamai.com/customers/s/article/5-ways-to-prevent-slow-3rd-party-front-end-services?language=en_US) для самостоятельно создаваемых URL. У Cloudflare есть технология Edge Workers. Fasterzine может [переписывать](https://www.fasterize.com/en/blog/https-the-impact-on-your-loading-times/) URL на страницах так, чтобы они указывали бы на сторонние ресурсы, находящиеся на основном домене сайта. [![](https://habrastorage.org/r/w1560/webt/ak/ui/qp/akuiqpw02td9hovfkxqtbxgocck.png)](https://habr.com/ru/company/ruvds/blog/481574/) Если известно, что сторонние сервисы, используемые в вашем проекте, изменяются не слишком часто, и то, что процесс их доставки клиентам может быть улучшен, то вы, наверняка, задумываетесь о проксировании подобных сервисов. При таком подходе вы вполне можете «приблизить» эти ресурсы к пользователям и обрести более полный контроль над их кэшированием на клиентской стороне. Это, кроме того, позволяет защитить пользователей от неприятностей, вызванных «падением» стороннего сервиса или деградацией его производительности. Хороший: повышение производительности ------------------------------------- Самостоятельный хостинг чужих ресурсов улучшает производительность вполне очевидным образом. Браузеру не нужно лишний раз обращаться к DNS, ему не надо устанавливать TCP-соединение и выполнять TLS-рукопожатие на стороннем домене. То, как самостоятельный хостинг чужих ресурсов влияет на производительность, можно увидеть, сравнив два следующих рисунка. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/828/0d5/2dd/8280d52dd448afd4d0be39a19ef9dbdb.png) *Сторонние ресурсы загружаются из внешних источников (взято [отсюда](https://csswizardry.com/2019/05/self-host-your-static-assets/))* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8cb/fb0/da2/8cbfb0da2fc370ddd2da10630c0bc40b.png) *Сторонние ресурсы хранятся там же, где и остальные материалы сайта (взято [отсюда](https://csswizardry.com/2019/05/self-host-your-static-assets/))* Ситуацию улучшает ещё и то, что браузер будет использовать возможности по мультиплексированию и приоритизации данных HTTP/2-соединения, которое уже установлено с основным доменом. Если не размещать у себя сторонние ресурсы, то, так как они будут загружаться с домена, отличного от основного, их нельзя будет приоритизировать. Это приведёт к тому, что они будут конкурировать друг с другом за полосу пропускания клиента. Это может привести к тому, что время загрузки материалов, критически важных для формирования страницы, окажется гораздо большим, чем время, достижимое при идеальном стечении обстоятельств. [Вот](https://www.youtube.com/watch?v=nOW-i6bbRdo) выступление об HTTP/2-приоритизации, в котором всё это очень хорошо разъясняется. Можно предположить, что использование в ссылках на внешние ресурсы атрибутов `preconnect` поможет в решении проблемы. Однако если таких ссылок на различные домены будет слишком много, это может, на самом деле, перегрузить линию связи в самый ответственный момент. Если хостить сторонние ресурсы самостоятельно — можно контролировать то, как именно эти ресурсы отдаются клиенту. А именно, речь идёт о следующем: * Можно обеспечить применение алгоритма сжатия данных, наилучшим образом подходящего для каждого браузера (Brotli/gzip). * Можно увеличить время кэширования ресурсов, которые обычно, даже у наиболее известных провайдеров, не особенно велико (например, соответствующее значение для тега GA установлено в 30 минут). Можно даже расширить показатель TTL для ресурса, например, до года, включив соответствующие материалы в свою стратегию управления кэшированием (URL-хэши, версионирование и так далее). Об этом мы поговорим ниже. ### ▍Защита от перебоев в работе сторонних сервисов или от их отключения Ещё один интересный аспект самостоятельного хостинга сторонних ресурсов заключается в том, что это позволяет смягчить риски, связанные с перебоями в работе сторонних сервисов. Предположим, что используемое вами стороннее решение для проведения A/B-тестирования реализовано в виде блокирующего скрипта, загружаемого в заголовочном разделе страницы. Этот скрипт загружается медленно. Если соответствующий скрипт загрузить не удастся — будет пустой и страница. Если на его загрузку потребуется очень много времени — страница появится с большой задержкой. Или, предположим, в проекте используется библиотека, загружаемая со стороннего CDN-ресурса. Представим, что этот ресурс испытал сбой или был заблокирован в некоей стране. Подобная ситуация приведёт к нарушению логики работы сайта. Для того чтобы узнать о том, как ваш сайт работает в условиях недоступности некоего внешнего сервиса, можете воспользоваться разделом SPOF на [webpagetest.org](https://www.webpagetest.org/). ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/bda/89e/935/bda89e935be22061d7f28f4833b00cac.png) *Раздел SPOF на webpagetest.org* ### ▍Как насчёт проблем с кэшированием материалов в браузерах? (подсказка: это миф) Можно подумать, что использование общедоступных CDN автоматически приведёт к лучшей производительности ресурсов, так как эти службы обладают достаточно качественными сетями и распределены по всему миру. Но всё, на самом деле, немного сложнее. Предположим, у нас имеется несколько разных сайтов: website1.com, website2.com, website3.com. На всех этих сайтах используется библиотека jQuery. Мы её к ним подключаем, пользуясь CDN, например — googleapis.com. Можно ожидать, что браузер один раз загрузит и кэширует библиотеку, а потом будет использовать её при работе со всеми тремя сайтами. Это могло бы уменьшить нагрузку на сеть. Возможно, это позволит где-то сэкономить и поможет улучшить производительность ресурсов. С практической же точки зрения всё выглядит иначе. Например, в Safari реализована возможность, называемая [Intelligent Tracking Prevention](https://webkit.org/blog/7675/intelligent-tracking-prevention/): в кэше используются двойные ключи, основанные на источнике документа и на источнике стороннего ресурса. [Вот](https://andydavies.me/blog/2018/09/06/safari-caching-and-3rd-party-resources/) хорошая статья на эту тему. Старые исследования [Yahoo](https://yuiblog.com/blog/2007/01/04/performance-research-part-2/) и [Facebook](https://code.facebook.com/posts/964122680272229/web-performance-cache-efficiency-exercise/), а так же более свежее [исследование](https://discuss.httparchive.org/t/analyzing-resource-age-by-content-type/1659) Пола Кальвано, показывают, что ресурсы не хранятся в браузерных кэшах так долго, как мы могли бы ожидать: «Имеется серьёзный разрыв между временем кэширования собственных и сторонних ресурсов проекта. Речь идёт о CSS и о веб-шрифтах. А именно, срок кэширования 95% собственных шрифтов превышает неделю, в то время как срок кэширования 50% сторонних шрифтов составляет меньше недели! Это даёт веб-разработчикам веские основания для самостоятельного хостинга файлов шрифтов!». В результате, если вы будете хостить у себя чужие материалы, то не заметите проблем с производительностью, вызванных браузерным кэшированием. Теперь, когда мы рассмотрели сильные стороны самостоятельного хостинга сторонних ресурсов, давайте поговорим о том, как отличить хорошую реализацию этого подхода от плохой. Плохой: дьявол кроется в деталях -------------------------------- Перемещение сторонних ресурсов на собственный домен нельзя выполнить автоматически, не позаботившись о правильном кэшировании таких ресурсов. Одна из основных проблем здесь — время кэширования. Например, сведения о версиях включаются в имена сторонних скриптов примерно так: `jquery-3.4.1.js`. Такой файл в будущем не изменится, в результате это не вызовет каких-либо проблем с его кэшированием. Но если некая схема версионирования при работе с файлами не применяется, кэшированные скрипты, содержимое которых меняется при неизменном имени файла, могут устаревать. Это способно стать серьёзной проблемой, так как это, например, не позволяет в автоматическом режиме вносить в скрипты исправления безопасности, которые как можно скорее должны получить клиенты. Разработчику придётся приложить усилия к тому, чтобы обновить подобные скрипты в кэше. Кроме того, это может вызвать сбои в работе приложения, вызванные тем, что код, используемый на клиенте из кэша, отличается от свежей версии кода, на которую рассчитана серверная часть проекта. Правда, если говорить о материалах, которые обновляются часто (менеджеры тегов, решения для A/B-тестирования), то их кэширование средствам CDN — задача хотя и решаемая, но уже гораздо более сложная. Сервисы вроде Commanders Act, решения для управления тегами, при публикации новых версий используют веб-хуки. Это даёт возможность организовать сброс кэша на CDN, или, что ещё лучше, возможность вызова обновления хэша или версии URL. ### ▍Адаптивная выдача материалов клиентам Кроме того, когда мы говорим о кэшировании, нужно учитывать и тот факт, что настройки кэширования, используемые на CDN, могут не подходить для неких сторонних ресурсов. Например, такие ресурсы могут использовать технологию сниффинга пользовательского агента (user agent sniffing, adaptive serving) для того, чтобы выдавать конкретным браузерам версии материалов, оптимизированные специально для этих браузеров. Эти технологии, для того, чтобы выяснить возможности браузера, полагаются на регулярные выражения, или на базу данных, в которой собраны сведения об HTTP-заголовке `User-Agent`. Узнав о том, с каким браузером они имеют дело, они отдают ему материалы, рассчитанные на него. Тут можно вспомнить два сервиса. Первый — googlefonts.com. Второй — polyfill.io. Сервис Google Fonts предоставляет, для некоего ресурса, различный CSS-код, зависящий от возможностей браузера (давая ссылки на woff2-ресурсы, используя `unicode-range`). Вот результаты пары запросов к Google Fonts, выполненных из разных браузеров. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/4c7/ecc/36a/4c7ecc36ad0cd11dcc1455f3b59f1ab0.png) *Результат запроса к Google Fonts, выполненный из Chrome* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d57/8b2/170/d578b2170268cd61bf608b7cc87120c4.png) *Результат запроса к Google Fonts, выполненный из IE10* Polyfill.io выдаёт браузеру только те полифиллы, которые ему нужны. Делается это из соображений производительности. Например, взглянем на то, что произойдёт, если выполнить следующий запрос из разных браузеров: <https://polyfill.io/v3/polyfill.js?features=default> В ответ на такой запрос, выполненный из IE10, придёт 34 Кб данных. А ответ на него, выполненный из Chrome, будет пустым. Злой: некоторые соображения о приватности ----------------------------------------- Этот пункт последний по порядку, но не по важности. Речь идёт о том, что самостоятельный хостинг сторонних ресурсов на главном домене проекта или на его поддомен способен поставить под угрозу приватность пользователей и негативно сказаться на основном веб-проекте. Если ваша CDN-система настроена неправильно, всё может кончиться тем, что вы будете отправлять куки вашего домена стороннему сервису. Если на уровне CDN не будет организована правильная фильтрация, то ваши сессионные куки, которыми в обычных условиях нельзя воспользоваться в JavaScript (с атрибутом `httponly`), могут быть отправлены на посторонний хост. Именно это может произойти с трекерами наподобие Eulerian или Criteo. Сторонние трекеры могли устанавливать уникальный идентификатор в куки. Они, если входили в состав материалов сайтов, могли читать идентификатор по своему усмотрению в ходе работы пользователя с разными веб-ресурсами. В наши дни большинство браузеров включают в себя защиту от подобного поведения трекеров. В результате теперь трекеры используют технологию [CNAME Cloaking](https://medium.com/nextdns/cname-cloaking-the-dangerous-disguise-of-third-party-trackers-195205dc522a), маскируясь под собственные скрипты различных проектов. А именно, трекеры предлагают владельцам сайтов добавить в свои настройки CNAME для некоего домена, адрес которого обычно выглядит как случайный набор символов. Хотя и не рекомендуется делать так, чтобы куки веб-сайта были доступными для всех поддоменов (например — \*.website.com), на многих сайтах это делается. В таком случае подобные куки автоматически отправляются замаскированному стороннему трекеру. Как результат — ни о какой приватности уже можно не говорить. Кроме того, то же самое происходит и с HTTP-заголовками [Client-Hints](https://developers.google.com/web/updates/2015/09/automating-resource-selection-with-client-hints), которые отправляются лишь главному домену, так как они могут быть использованы для создания [цифрового отпечатка](https://github.com/httpwg/http-extensions/issues/767) пользователя. Обратите внимание на то, чтобы используемая вами CDN-служба правильно фильтровала бы подобные заголовки. Итоги ----- Если вы собираетесь в скором времени внедрить самостоятельный хостинг сторонних ресурсов — позвольте дать вам несколько советов: * Хостите у себя свои самые важные JS-библиотеки, шрифты и CSS-файлы. Это снизит риск отказа сайта или снижения его производительности в результате того, что ресурс, жизненно необходимый для работы сайта, оказался недоступным по вине стороннего сервиса. * Прежде чем кэшировать сторонние ресурсы на CDN, убедитесь в том, что при именовании их файлов используется некая система версионирования, или в том, что вы можете управлять жизненным циклом этих ресурсов, вручную или автоматически сбрасывая кэш CDN при публикации новой версии скрипта. * Очень внимательно относитесь к настройкам CDN, прокси-сервера, кэша. Это позволит вам не допустить отправки куки-файлов своего проекта или заголовков `Client-Hints` сторонним сервисам. **Уважаемые читатели!** Размещаете ли вы на своих серверах чужие материалы, которые чрезвычайно важны для работы ваших проектов? [![](https://habrastorage.org/r/w1560/webt/u9/qa/nk/u9qankiogj61jowwkrc-v8c8rgm.png)](https://ruvds.com/ru-rub) [![](https://habrastorage.org/r/w1560/files/1ba/550/d25/1ba550d25e8846ce8805de564da6aa63.png)](https://ruvds.com/ru-rub/#order)
https://habr.com/ru/post/481574/
null
ru
null
# Книга «Kali Linux от разработчиков» [![image](https://habrastorage.org/r/w780q1/webt/u5/j9/z7/u5j9z7uvbhipymy9n2igvy9fvvy.jpeg)](https://habr.com/company/piter/blog/422939/) Привет, Хаброжители! Авторы шаг за шагом познакомят вас с основами и возможностями Kali Linux. В книге предложен краткий курс работы с командной строкой Linux и ее концепциями, описаны типичные сценарии установки Kali Linux. Прочитав эту книгу, вы научитесь конфигурировать, отлаживать и защищать Kali Linux, а также работать с мощным менеджером пакетов дистрибутива Debian. Научитесь правильно устанавливать Kali Linux в любых окружениях, в том числе в крупных корпоративных сетях. Наконец, вам предстоит познакомиться и со сложными темами: компиляцией ядра, созданием собственных образов ISO, промышленным шифрованием и профессиональной защитой конфиденциальной информации. ### Глава 7. Защита и контроль Kali Linux Как только вы начнете использовать Kali Linux для более конфиденциальных и высокопрофильных задач, вам, скорее всего, придется серьезнее отнестись к безопасности вашей установки. В этой главе мы вначале обсудим политику безопасности, выделив наиболее важные моменты при ее определении, и обратим внимание на некоторые угрозы для вашей системы и для вас как профессионала по безопасности. Мы также обсудим меры безопасности для ноутбуков и настольных систем и рассмотрим отдельно брандмауэры и фильтрацию пакетов. В завершение затронем инструменты и стратегии мониторинга и покажем наиболее эффективные способы их использования для обнаружения потенциальных угроз для вашей системы. ### 7.1. Определение политики безопасности Нецелесообразно обсуждать безопасность в общих чертах, поскольку это понятие представляет собой широкий спектр концепций, инструментов и процедур, которые не являются универсальными. Выбор среди них требует точного представления ваших целей. Защита системы начинается с ответов на несколько вопросов. Поспешное и безрассудное внедрение произвольного набора утилит ведет к риску ошибочного определения аспектов безопасности. Лучше всего изначально определить конкретную цель. Правильным подходом к решению этой задачи будут ответы на следующие вопросы. 1. Что вы пытаетесь защитить? Политика безопасности будет отличаться в зависимости от того, что вы хотите защитить: компьютеры или данные. В последнем случае вам также нужно знать, какая именно информация требует защиты. 2. От чего вы пытаетесь защититься? От утечки конфиденциальных данных? От случайной потери информации? От убытка, вызванного сбоем в предоставлении услуг? 3. От кого вы пытаетесь защититься? Меры безопасности будут совершенно разными для защиты от опечатки простого пользователя системы и защиты от определенной группы злоумышленников. Термин «риск» обычно используется для общего определения указанных факторов: что нужно защитить, что следует предотвратить и по чьей вине это может произойти. Для моделирования риска требуются ответы на все три вопроса. Основываясь на полученной модели, можно разработать политику безопасности и реализовать ее с помощью конкретных действий. > Брюс Шнайер, мировой эксперт по вопросам безопасности (не только компьютерной), пытается противостоять одному из основных мифов безопасности, действуя под девизом: «Безопасность — это процесс, а не продукт». Активы, которые нуждаются в защите, со временем меняются, так же как и угрозы и средства, доступные потенциальным злоумышленникам. Даже если политика безопасности изначально была идеально разработана и реализована, вы никогда не должны останавливаться на достигнутом. Компоненты риска развиваются, и методы его предотвращения должны развиваться соответственно. Кроме того, следует учитывать дополнительные сдерживающие факторы, которые могут ограничивать диапазон доступных политик. На что вы готовы пойти ради защиты системы? Этот вопрос имеет большое значение для выбора политики. Очень часто ответ определяется только с точки зрения денежных издержек, но следует учитывать и другие элементы, такие как возможные неудобства, которым подвергнутся пользователи системы, или ухудшение ее производительности. Как только риск смоделирован, вы можете задумываться о разработке подходящей политики безопасности. Существуют крайности, которые стоит рассматривать при принятии решения об уровне необходимой безопасности. С одной стороны, чрезвычайно просто обеспечить базовую безопасность системы. Например, если система, определенная для защиты, включает только подержанный компьютер, который используется лишь для сложения пары чисел в конце дня, то вполне разумным решением было бы не предпринимать ничего особенного для ее защиты. Истинная ценность такой системы низкая, а ценность данных и вовсе равна нулю, так как они не хранятся на компьютере. Потенциальный злоумышленник, проникший в эту систему, получит только калькулятор. Стоимость защиты подобной системы, вероятно, будет больше, чем убытки от взлома. Противоположной ситуацией станет случай защиты конфиденциальности секретных данных самым полным способом с преодолением любых ограничений. В этом случае подходящим решением будет полное уничтожение информации (безопасное стирание файлов, измельчение жестких дисков на мелкие кусочки, затем растворение этих кусочков в кислоте и т. д.). Если существует дополнительное требование о том, что данные должны храниться для дальнейшего использования (не обязательно в постоянной доступности) и стоимость по-прежнему не является сдерживающим фактором, то лучшей идеей будет хранение данных на пластинах из сплава иридия и платины в бомбоубежищах под горами по всему миру, каждое из которых (разумеется) засекречено и охраняется целой армией. Хотя эти методы могут показаться преувеличенными, тем не менее они могут быть подходящими решениями для определенных рисков, поскольку позволяют достичь намеченных целей при заданных ограничениях. Исходя из обоснованного решения, никакая политика безопасности не является более или менее достаточной, чем любая другая. Возвращаясь к более типичному случаю, информационная система может быть сегментирована в совместимые и преимущественно независимые подсистемы. Все они имеют собственные требования и ограничения, поэтому оценку риска и разработку политики безопасности следует проводить отдельно для каждой из таких подсистем. Нужно всегда помнить о том, что малую поверхность атаки легче защитить, чем большую. Сетевые организации должны быть спроектированы так: уязвимые сервисы необходимо сконцентрировать на небольшом количестве компьютеров, и последние должны быть доступны через минимальное количество маршрутов или контрольных точек. Логика проста: легче защитить контрольные точки, чем все уязвимые компьютеры от всего внешнего мира. Именно в этот момент становится очевидной польза сетевой фильтрации (в том числе брандмауэрами). Данную фильтрацию можно реализовать с помощью специального оборудования, но более простым и гибким решением является использование программного брандмауэра, подобного тому, что интегрирован в ядро Linux. ### 7.2. Возможные меры безопасности Как было сказано выше, нет единого ответа на вопрос о том, как защитить Kali Linux. Все зависит от способа его использования и от того, что именно вы пытаетесь защитить. **На сервере** Если вы используете Kali Linux на общедоступном сервере, то стоит защитить сетевые сервисы, изменив все пароли по умолчанию, которые могут быть настроены, и, вероятно, путем ограничения доступа к ним с помощью брандмауэра (разделы 7.3 «Защита сетевых сервисов» и 7.4 «Брандмауэр или фильтрация пакетов» соответственно, см. ниже). Если вы передаете данные учетных записей пользователей непосредственно на сервере либо на одном из сетевых сервисов, убедитесь, что установили надежные пароли (они должны выдерживать атаки полным перебором). В то же время можно настроить программу fail2ban, которая значительно усложняет взлом паролей полным перебором по сети (отфильтровывая IP-адреса, превышающие лимит неудачных попыток входа в систему). Установить fail2ban можно с помощью команды apt update и затем apt install fail2ban. Если вы используете веб-сервисы, настраивайте их работу через протокол HTTPS, чтобы сетевые посредники не отслеживали ваш трафик (который может включать файлы аутентификации cookie). **На ноутбуке** Ноутбук специалиста по тестированию на проникновение не претерпевает тех же рисков, что и открытый сервер: например, вы менее подвержены случайным атакам взломщика-дилетанта, а если это и произойдет, у вас, вероятно, не будет активных сетевых сервисов в этот момент. Реальный риск часто возникает, когда вы едете от одного клиента к другому. Например, ваш ноутбук может быть украден во время поездки или изъят таможенниками. Вот почему стоит использовать полное шифрование диска (см. подраздел «Установка на полностью зашифрованную файловую систему» раздела 4.2) и, возможно, также настроить функцию nuke (см. врезку «Установка пароля самоуничтожения для дополнительной безопасности» в главе 9): данные, которые вы собрали во время вашей работы, являются конфиденциальными и требуют максимальной защиты. Вам также могут потребоваться правила брандмауэра (см. ниже раздел 7.4), но не для той же цели, что и на сервере. Вероятно, вы захотите запретить весь исходящий трафик, кроме трафика, генерируемого вашим VPN-доступом. Эти настройки подобны настройкам безопасности сети, так что когда VPN перестанет работать, вы сразу же заметите это (вместо того, чтобы возвращаться к локальному сетевому доступу). Таким образом, вы не выдаете IP-адреса своих клиентов при просмотре веб-страниц или других сетевых действиях. Кроме того, если вы выполняете локальное внутреннее взаимодействие, то лучше всего непрестанно контролировать свою деятельность, чтобы уменьшить шум, создаваемый в сети, который может привлечь внимание клиентов и их системы защиты. ### 7.3. Защита сетевых сервисов Рекомендуется отключить сервисы, которые вы не используете. Kali упрощает эту задачу, поскольку большинство сетевых сервисов по умолчанию уже отключены. Пока сервисы остаются отключенными, они не представляют угрозы безопасности. Однако вы должны быть осторожны при их включении ввиду следующих факторов. 1. По умолчанию у них нет брандмауэра, поэтому, если они прослушивают все сетевые интерфейсы, то в значительной степени доступны для общественности. 2. Некоторые сервисы не имеют учетных данных и позволяют устанавливать их при первом использовании; другие имеют стандартные (и, следовательно, широко известные) учетные данные. Убедитесь, что вы (пере)установили пароль, который известен только вам. 3. Многие сервисы выпускаются с правами root (с полными правами администратора), поэтому последствия несанкционированного доступа или нарушения безопасности обычно являются серьезными. > Мы не будем перечислять здесь все инструменты, которые поставляются с учетными данными по умолчанию. Вместо этого вы должны проверить файл README.Debian для соответствующих пакетов, а также страницы [docs.kali.org](https://docs.kali.org/) и [tools.kali.org](https://tools.kali.org/) с целью узнать, нуждается ли сервис в специальном обслуживании, чтобы обеспечить необходимую безопасность. > > > > Если вы запускаетесь в режиме реального времени, то паролем учетной записи root является toor. Таким образом, вы не должны включать SSH перед сменой пароля учетной записи root или прежде чем настроить в конфигурации учетной записи запрет входа на основе пароля. > > > > Обратите внимание также на известный факт, что проект BeEF (из уже установленного пакета beef-xss) имеет учетные данные по умолчанию: имя пользователя beef и пароль beef, которые заданы «принудительно» в файле конфигурации. > > ### 7.4. Брандмауэр или фильтрация пакетов Брандмауэр — это часть компьютерного оборудования с аппаратным обеспечением, программным обеспечением или и тем и другим, которая анализирует входящие или исходящие сетевые пакеты (приходящие или исходящие из локальной сети) и пропускает только те, которые соответствуют определенным предварительно заданным условиям. Фильтрующий сетевой шлюз — тип брандмауэра, который защищает всю сеть. Обычно он устанавливается на специально выделенный компьютер, сконфигурированный как шлюз для сети, таким образом, что может анализировать все входящие и исходящие из сети пакеты. В качестве альтернативы существует локальный брандмауэр, представляющий собой сервис ПО, работающий на одном определенном компьютере, чтобы фильтровать или ограничивать доступ к ряду сервисов на этом компьютере или, возможно, предотвращать исходящие соединения от шпионского программного обеспечения, которое пользователь мог установить случайно или умышленно. В ядро Linux встроен брандмауэр netfilter. Не существует единого решения для настройки любого брандмауэра, так как требования сети и пользователя разнятся. Тем не менее вы можете контролировать netfilter из пользовательского пространства с помощью команд iptables и ip6tables. Разница между последними заключается в том, что первая работает для сетей IPv4, тогда как вторая функционирует на IPv6. Поскольку оба стека сетевых протоколов, вероятно, будут работать в течение многих лет, то оба инструмента должны использоваться параллельно. Вы также можете применять отличную утилиту fwbuilder на основе графического интерфейса, который обеспечивает графическое представление правил фильтрации. Однако если вы решили настроить netfilter (реализация брандмауэра Linux), то рассмотрим подробнее, как он работает. **Поведение сетевого фильтра Netfilter** Фильтр Netfilter использует четыре различные таблицы, в которых хранятся правила, регламентирующие три вида операций над пакетами: 1. filter касается правил фильтрации (принятие, отказ или игнорирование пакета); 2. nat (Network Address Translation — трансляция сетевых адресов) касается трансляции исходных или целевых адресов и портов пакетов; 3. mangle относится к другим изменениям в IP-пакетах (включая поле ToS (Type of Service — тип сервиса) и опции); 4. raw допускает другие изменения в пакетах, проведенные вручную, до того как они (пакеты) достигнут системы отслеживания соединения. Каждая таблица содержит списки правил, называемые цепями. Брандмауэр использует стандартные цепи для обработки пакетов на основе предопределенных условий. Администратор может создавать другие цепи, которые будут применяться только при передаче одной из стандартных цепей (прямо или косвенно). Таблица filter содержит три стандартные цепи: 1. INPUT — касается пакетов, целью которых является сам брандмауэр; 2. OUTPUT — относится к пакетам, исходящим от брандмауэра; 3. FORWARD — относится к пакетам, проходящим через брандмауэр (который не является ни их источником, ни местом назначения). Таблица nat также имеет три стандартные цепи: 1. PREROUTING — для изменения пакетов сразу после их поступления; 2. POSTROUTING — для изменения пакетов, когда они готовы к отправке; 3. OUTPUT — для изменения пакетов, сгенерированных самим брандмауэром. Эти цепи изображены на рис. 7.1. ![image](https://habrastorage.org/r/w1560/webt/js/ay/4r/jsay4rupgg9yg_2skcyxdx1w2gs.png) Каждая цепь представляет собой список правил; каждое правило есть набор условий и действие, выполняемое при выполнении условий. При обработке пакета брандмауэр сканирует соответствующую цепь, одно правило за другим, и когда условия для одного правила выполняются, перескакивает (jump) (отсюда параметр -j в командах) к указанному действию для продолжения обработки. Наиболее распространенные типы поведения стандартизированы, и для них существуют специальные действия. Выполнение одного из этих стандартных действий прерывает обработку цепочки, поскольку дальнейшая судьба пакетов уже предрешена (не принимая во внимание исключение, упомянутое ниже). Далее перечислены действия Netfilter. 1. ACCEPT (ПРИНЯТЬ) — разрешить пакету двигаться далее по своему маршруту. 2. REJECT (ОТКЛОНИТЬ) — отклонить пакет с помощью пакета ошибок ICMP (Internet control message protocol — протокол межсетевых управляющих сообщений) (параметр --reject-with тип для iptables определяет тип ошибки для отклонения). 3. DROP (СБРОСИТЬ) — удалить (игнорировать) пакет. 4. LOG (ЗАРЕГИСТРИРОВАТЬ) — зарегистрировать (через демон syslogd) сообщение с описанием пакета. Обратите внимание, что это действие не прерывает обработку, а выполнение цепи продолжается со следующего правила, поэтому регистрация отклоненных пакетов требует как правила LOG, так и REJECT/DROP. Общие параметры, связанные с регистрацией, включают: * --log-level, с предупреждением по умолчанию, указывает уровень серьезности syslog; * --log-prefix позволяет указать префикс текста, чтобы различать зарегистрированные сообщения; * --log-tcp-sequence, --log-tcp-options и --log-ip-options обозначают дополнительные данные, которые должны быть помещены в сообщение: порядковый номер TCP, параметры TCP и параметры IP соответственно. 5. ULOG — зарегистрировать сообщение через ulogd, который может быть лучше адаптирован и более эффективен, чем syslogd для обработки большого количества сообщений; обратите внимание, что это действие, подобно LOG, также возвращает обработку к следующему правилу в вызывающей цепи. 6. имя\_цепи — перейти к указанной цепи и оценить ее правила. 7. RETURN (ВЕРНУТЬ) — прервать обработку текущей цепи и вернуться к вызывающей цепочке; если текущая цепочка является стандартной, то вызывающей цепочки нет, поэтому вместо нее выполняется действие по умолчанию (определенное с помощью параметра -P для iptables). 8. SNAT (только в таблице nat) — применить источник трансляции сетевых адресов (Source Network Address Translation, SNAT). Дополнительные параметры описывают точные изменения, которые нужно применить, включая параметр --to-source адрес: порт, который определяет новый источник IP-адреса и/или порта. 9. DNAT (только в таблице nat) — применить назначение трансляции сетевых адресов (Destination Network Address Translation, DNAT). Дополнительные параметры описывают точные изменения, которые нужно использовать, включая параметр --to-destination адрес: порт, который определяет новый источник IP-адреса и/или порта. 10. MASQUERADE (МАСКИРОВКА) (только в таблице nat) — применить маскировку (особый случай Source NAT). 11. REDIRECT (ПЕРЕНАПРАВЛЕНИЕ) (только в таблице nat) — открыто перенаправить пакет в данный порт самого брандмауэра. Можно использовать для настройки открытого сервера веб-прокси, который работает без конфигурации на стороне клиента, и в то время, когда клиент считает, что подключается к получателю, фактически сообщения проходят через прокси-сервер. Параметр --to-ports порт(-ы) указывает порт или диапазон портов, куда должны быть перенаправлены пакеты. Другие действия, особенно те, которые касаются таблицы mangle, не вошли в данный подраздел. Их полный список вы найдете на страницах руководств iptables (8) и ip6tables (8). ### Синтаксис команд iptables и ip6tables Команды iptables и ip6tables используются для управления таблицами, цепями и правилами. Их параметр -t table указывает, с какой таблицей работать (по умолчанию таблица filter). **Команды** Ниже перечислены основные параметры для взаимодействия с цепями. 1. -L цепь выводит список правил, содержащихся в цепи. Используется вместе с параметром -n для отключения разрешения имен (например, iptables -n -L INPUT выводит правила, относящиеся ко входящим пакетам). 2. -N цепь создает новую цепь. Вы можете создавать новые цепи для целого ряда целей, включая тестирование нового сетевого сервиса или отражение сетевой атаки. 3. -X цепь удаляет пустую и неиспользуемую цепь (например, iptables -X ddos-attack). 4. -A цепь правило добавляет правило в конце заданной цепи. Помните, правила обрабатываются сверху вниз, не забывайте учитывать этот момент при добавлении правил. 5. -I цепь номер\_правила правило вставляет правило перед правилом с указанным номером. Как и в параметре -A, учитывайте порядок обработки при вводе новых правил в цепь. 6. -D цепь номер\_правила (или -D цепь правило) удаляет правило в цепи; первый синтаксис указывает, что правило под определенным номером должно быть удалено (команда iptables -L --line-numbers выводит на экран номера правил), а второй идентифицирует правило к удалению по его сути. 7. -F цепь сбрасывает цепь (удаляет все ее правила). Например, чтобы удалить все правила, связанные с исходящими пакетами, вы должны ввести команду iptables -F OUTPUT. Если ни одна цепь не указана, то удаляются все правила в таблице. 8. -P цепь действие определяет действие по умолчанию или «политику» для данной цепи. Обратите внимание: такая политика присуща только для стандартных цепей. Чтобы удалить весь входящий трафик по умолчанию, вы должны выполнить команду iptables -P INPUT DROP. **Правила** Каждое правило задается в соответствии со следующим синтаксисом: условия -j действие параметры\_действия. Если в одном правиле описано несколько условий, то критерием является объединение (логическое И) условий, которое обладает ограничением, по меньшей мере таким же, как и каждое отдельно взятое условие. Условие -p протокол соответствует полю протокола IP-пакета. Наиболее распространенными значениями являются tcp, udp, icmp и icmpv6. Это условие можно дополнить условиями касательно TCP-портов с помощью параметров --source-port порт и --destination-port порт. > Отрицательные условия > > > > Добавление восклицательного знака перед условием означает его отрицание. Например, отрицание условия по параметру -p означает «любой пакет с протоколом, отличным от того, который указан». Этот механизм отрицания можно применять к любым другим условиям. > > Условие -s адрес или -s сеть/маска соответствует исходному (source) адресу пакета. Соответственно, -d адрес или -d сеть/маска соответствует адресу назначения (destination). Условие -i интерфейс выбирает пакеты, исходящие из заданного сетевого интерфейса; -o интерфейс — пакеты, выходящие на определенный интерфейс. Условие --state статус соответствует статусу пакета в соединении (для этого требуется модуль ядра ipt\_ conntrack для отслеживания соединения). Статус NEW описывает пакет, запускающий новое соединение, статус ESTABLISHED соответствует пакетам, принадлежащим к уже существующему соединению, и статус RELATED соответствует пакетам, инициирующим новое соединение, связанное с существующим (что полезно для соединений ftp-данных в активном режиме протокола FTP). Существует множество доступных параметров для iptables и ip6tables, и для их освоения потребуется немало времени. Однако один из них, который вы будете использовать чаще всего, — это параметр, блокирующий вредоносный сетевой трафик с хоста или диапазона хостов. Например, чтобы незаметно блокировать входящий трафик с IP-адреса 10.0.1.5 и 31.13.74.0/24 класса C подсети, нужно выполнить ряд команд: ``` # iptables -A INPUT -s 10.0.1.5 -j DROP # iptables -A INPUT -s 31.13.74.0/24 -j DROP # iptables -n -L INPUT Chain INPUT (policy ACCEPT) target prot opt source destination DROP all -- 10.0.1.5 0.0.0.0/0 DROP all -- 31.13.74.0/24 0.0.0.0/0 ``` Другая команда iptables часто применяется с целью разрешения сетевого трафика для определенного сервиса или порта. Чтобы пользователи могли подключаться к SSH, HTTP и IMAP, вы должны выполнить следующие команды: ``` # iptables -A INPUT -m state --state NEW -p tcp --dport 22 -j ACCEPT # iptables -A INPUT -m state --state NEW -p tcp --dport 80 -j ACCEPT # iptables -A INPUT -m state --state NEW -p tcp --dport 143 -j ACCEPT # iptables -n -L INPUT Chain INPUT (policy ACCEPT) target prot opt source destination DROP all -- 10.0.1.5 0.0.0.0/0 DROP all -- 31.13.74.0/24 0.0.0.0/0 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:22 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:80 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:143 ``` Правилом хорошей компьютерной гигиены является очистка старых и ненужных правил. Самый простой способ удалить правило iptables — ссылаться на правила по номеру строки, которые вы можете получить с помощью параметра --line-numbers. Будьте внимательны: при сбросе правила все последующие правила в цепочке будут перенумерованы. ``` # iptables -n -L INPUT --line-numbers Chain INPUT (policy ACCEPT) num target prot opt source destination 1 DROP all -- 10.0.1.5 0.0.0.0/0 2 DROP all -- 31.13.74.0/24 0.0.0.0/0 3 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:22 4 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:80 5 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:143 # iptables -D INPUT 2 # iptables -D INPUT 1 # iptables -n -L INPUT --line-numbers Chain INPUT (policy ACCEPT) num target prot opt source destination 1 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:22 2 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:80 3 ACCEPT tcp -- 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:143 ``` Существуют более специфические условия, зависящие от общих условий, описанных выше. Для получения дополнительной информации обратитесь к руководствам iptables (8) и ip6tables (8). ### Создание правил Для каждого нового правила требуется один вызов iptables или ip6tables. Ввод этих команд вручную может быть утомительным, так что вызовы обычно хранятся в сценарии, и, как следствие, система автоматически настраивается одинаково при каждой загрузке компьютера. Данный сценарий можно написать вручную, но вам может быть также интересно подготовить его с помощью высокоуровневого инструмента, такого как fwbuilder. ``` # apt install fwbuilder ``` Принцип прост. На первом этапе опишите все элементы, которые будут задействованы в новых правилах: 1. сам брандмауэр с его сетевыми интерфейсами; 2. сети с соответствующими диапазонами IP-адресов; 3. серверы; 4. порты, принадлежащие службам, размещенным на серверах. Затем создайте правила с помощью простых действий перетаскивания объектов, как показано на рис. 7.2. Несколько контекстных меню могут изменить условие (например, отрицать его). Затем нужно выбрать и настроить действие. ![image](https://habrastorage.org/r/w1560/webt/xo/cj/xc/xocjxc7arenjvm28orxvp-a4spa.png) Что касается IPv6, то вы можете либо создать два разных набора правил для IPv4 и IPv6, либо создать только одно и позволить fwbuilder преобразовывать правила в соответствии с адресами, назначенными объектам. Инструмент fwbuilder создаст сценарий, настраивающий брандмауэр в соответствии с правилами, которые вы определили. Его модульная архитектура позволяет генерировать сценарии, предназначенные для разных систем, включая iptables для Linux, ipf для FreeBSD и pf для OpenBSD. ### Установка правил при каждой загрузке Чтобы внедрять правила брандмауэра при каждой загрузке машины, вам необходимо зарегистрировать сценарий конфигурации в директиве up файла /etc/network/interfaces. В следующем примере сценарий хранится в /usr/local/etc/arrakis.fw. ``` auto eth0 iface eth0 inet static address 192.168.0.1 network 192.168.0.0 netmask 255.255.255.0 broadcast 192.168.0.255 up /usr/local/etc/arrakis.fw ``` В этом примере предполагается, что вы используете пакет ifupdown для настройки сетевых интерфейсов. Если вы применяете что-то другое (скажем, NetworkManager или systemd-networkd), то обратитесь к соответствующей документации, чтобы узнать, как выполнить сценарий после запуска интерфейса. ### 7.5. Мониторинг и протоколирование Конфиденциальность и защита данных — важные аспекты безопасности, но не менее важно обеспечить доступность сервисов. В качестве администратора и специалиста по безопасности вы должны следить за тем, чтобы все работало должным образом, и ваша ответственность — своевременно выявлять аномальное поведение и ухудшения в работе сервисов. Программное обеспечение для мониторинга и протоколирования играет ключевую роль в этом аспекте безопасности, обеспечивая понимание того, что происходит в системе и в сети. В этом разделе мы рассмотрим ряд инструментов, которые можно использовать для мониторинга нескольких аспектов системы Kali. ### Мониторинг журналов с помощью программы logcheck Программа logcheck отслеживает файлы журнала каждый час по умолчанию и отправляет нестандартные сообщения журнала в сообщения электронной почты администратору для их дальнейшего анализа. Список контролируемых файлов хранится по адресу /etc/logcheck/logcheck.logfiles. Значения по умолчанию будут работать должным образом, если файл /etc/rsyslog.conf не был полностью перестроен. Программа logcheck может отчитываться, используя разные уровни детализации: paranoid (параноидальный), server (серверный) и workstation (для рабочих станций). Режим paranoid очень многословен и, вероятно, должен быть ограничен конкретными серверами, такими как брандмауэры. Режим server используется по умолчанию и рекомендуется для большинства серверов. Режим workstation, очевидно, предназначен для рабочих станций и чрезвычайно сжат, отфильтровывая больше сообщений, чем другие «собратья». Во всех трех случаях logcheck, вероятно, должен быть настроен для исключения дополнительных сообщений (в зависимости от установленных сервисов), если вы не хотите получать ежечасные партии длинных незарегистрированных электронных писем. Поскольку механизм выбора сообщений довольно сложный, то файл /usr/share/doc/logcheck-database/README.logcheck-database.gz обязателен к прочтению при возникновении сложностей. Применяемые правила можно разделить на несколько типов: 1. те, которые квалифицируют сообщение как попытку взлома (хранятся в файле в каталоге /etc/logcheck/cracking.d/); 2. проигнорированные попытки взлома (/etc/logcheck/cracking.ignore.d/); 3. те, которые классифицируют сообщение как предупреждение системы безопасности (/etc/logcheck/violations.d/); 4. проигнорированные предупреждения системы безопасности (/etc/logcheck/violations.ignore.d/); 5. наконец те, которые применяются к остальным сообщениям (рассматриваются как системные события). Файлы ignore.d используются (очевидно) для игнорирования сообщений. Например, сообщение, помеченное как попытка взлома или предупреждение системы безопасности (по правилу, хранящееся в файле /etc/logcheck/violations.d/myfile), может быть проигнорировано только правилом в файле /etc/logcheck/violations.ignore.d/myfile или в файле /etc/logcheck/changes.ignore.d/myfile-расширение. О системном событии всегда сообщается, если только правило в одном из каталогов /etc/logcheck/ignore.d.{paranoid, server, workstation}/ не указывает, что это событие следует игнорировать. Разумеется, учитываются лишь те каталоги, чьи уровни детализации равняются выбранному режиму работы или превышают его. ### Мониторинг активности в режиме реального времени Интерактивный инструмент top отображает список процессов, запущенных в данный момент. Сортировка по умолчанию основана на текущей загруженности процессора и может быть получена с помощью ключа P. Другие сортировки указаний содержат сортировку по занятой памяти (ключ М), общему времени процессора (ключ Т) и идентификатору процесса (ключ N). Ключ k завершает процесс с введенным идентификатором. Ключ r изменяет приоритет процесса. Когда система кажется перегруженной, top — отличный инструмент, позволяющий увидеть, какие процессы конкурируют за процессорное время или потребляют слишком много памяти. Так, часто бывает интересно проверить, соответствуют ли процессы, потребляющие ресурсы, реальным сервисам, которые должны быть размещены на компьютере. Неизвестный процесс, работающий как www-data, должен действительно выделяться из списка, и его следует изучить, поскольку он, вероятнее всего, является примером программного обеспечения, установленного и выполняемого в системе с помощью уязвимости в веб-приложении. Инструмент top очень гибкий, и руководство к нему содержит подробную информацию о том, как настроить его интерфейс и адаптировать к вашим личным потребностям и привычкам. Графический инструмент gnome-system-monitor похож на top и обеспечивает выполнение примерно тех же функций. » Более подробно с книгой можно ознакомиться на [сайте издательства](https://www.piter.com/collection/new/product/kali-linux-ot-razrabotchikov) » [Оглавление](https://storage.piter.com/upload/contents/978544610548/978544610548_X.pdf) » [Отрывок](https://storage.piter.com/upload/contents/978544610548/978544610548_p.pdf) Для Хаброжителей скидка 20% по купону — **Linux**
https://habr.com/ru/post/422939/
null
ru
null
# Пишем Hello World на ассемблере под Windows RT с использованием winapi Однажды, совсем недавно, на планшетах с Windows Microsoft [потеряла](http://www.ixbt.com/news/hard/index.shtml?17/04/73) миллионы долларов. Ну а мы сегодня просто будем писать под них на ассемблере. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f30/fa0/f21/f30fa0f21ff363bbdb38e591ab488d17.png) Нам понадобятся следующие вещи. * Установленная Microsoft Visual Studio с поддержкой ARM ассемблера, например 2012. * Jailbreak'нутый планшет с установленной Windows RT, например Microsoft Surface RT. Для начала создадим отдельную папку для проекта, в которой создадим файл arm.asm, содержимое которого под катом. ``` AREA data, DATA Text DCB "Hello world(text)", 0x0 Caption DCB "Hello world(caption)", 0x0 EXPORT WinMainCRTStartup IMPORT __imp_MessageBoxA IMPORT __imp_ExitProcess AREA text, CODE WinMainCRTStartup PROC movs r3,#0 ldr r2,Caption_ptr ldr r1,Text_ptr movs r0,#0 ldr r4,MessageBoxA_ptr ldr r4,[r4] blx r4 movs r0,#0 ldr r4,ExitProcess_ptr ldr r4,[r4] blx r4 MessageBoxA_ptr DCD __imp_MessageBoxA ExitProcess_ptr DCD __imp_ExitProcess Text_ptr DCD Text Caption_ptr DCD Caption ENDP END ``` Причем у ассемблера в составе Visual Studio 2012 замечана странность: [макросы](http://infocenter.arm.com/help/index.jsp?topic=/com.arm.doc.dui0489g/Cacigaci.html) и [инструкции](http://infocenter.arm.com/help/index.jsp?topic=/com.arm.doc.dui0489g/Cjafgdih.html) обязательно должны содержать перед собой хотя бы один символ табуляции, а вот метки и имена областей памяти наоборот, не должны ничего перед собой содержать(т.е. должны начинаться сразу с начала строки), иначе будут ошибки. Итак, текст мы набрали, теперь приступим к компиляции. Из меню «Пуск» запускаем: > *Microsoft Visual Studio 2012 — Visual Studio Tools — Командная строка VS2012 ARM Cross Tools*. Из открывшегося окна ввода команд переходим в каталог с исходниками, например: ``` cd \my_arm_proj ``` Далее последовательно вводим команды: ``` armasm arm.asm link arm.obj user32.lib kernel32.lib /subsystem:windows ``` В итоге на выходе в директории программы получим исполняемый файл arm.exe. Копируем его на планшет, и вуаля! ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/924/f76/479/924f76479454d1236eb673e8639e44bd.png)
https://habr.com/ru/post/199094/
null
ru
null
# Что я узнал после 1000 code review Во время работы в LinkedIn большая часть моей работы составляло код-ревью. Вышло так, что некоторые рекомендации я давал много раз, поэтому я решил составить список, которым поделился с командой. Вот мои 3 (+1 бонусная) наиболее распространенные рекомендации по код-ревью. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/2c4/684/8f3/2c46848f34aa4fc0a1ba109fc95d025d.jpg) ### Рекомендация 1: Выбрасывайте исключения, если что то идет не так Зачастую паттерн выглядит так: ``` List getSearchResults(...) { try { List results = // make REST call to search service return results; } catch (RemoteInvocationException e) { return Collections.emptyList(); } } ``` Этот паттерн вызвал перебои в одном из мобильных приложений, над которыми я работал. Поиск на стороне сервера, который мы использовали, начал выбрасывать исключения. Оказалось, на серверном API приложения был некоторый код, похожий на приведенный выше. Поэтому приложение получало 200 ответ сервера и с радостью показывало пустой список для каждого поискового запроса. Если бы вместо этого API выбросил исключение, то наши системы мониторинга сразу бы обработали его и исправили. Существует много случаев, когда может возникнуть соблазн просто вернуть пустой объект после того, как вы поймали исключение. Примерами пустых объектов в Java являются Optional.empty(), null и пустой список. Один из случаев, где так и хочется вернуть null значение это парсинг URL. Вместо того, чтобы возвращать null, если URL-адрес не может быть получен из строки, спросите себя: «Почему URL-адрес неверен? Является ли это проблемой данных, которые мы должны исправлять на входном потоке?». Пустые объекты не являются подходящим инструментом для этой работы. Если ситуация исключительная, вы должны выбрасывать исключение ### Рекомендация 2: Пользуйтесь наиболее специфическими типами данных Эта рекомендация — альтернатива [stringly typed programming](http://wiki.c2.com/?StringlyTyped). Слишком часто я вижу такой код: ``` void doOperation(String opType, Data data); // where opType is "insert", "append", or "delete", this should have clearly been an enum String fetchWebsite(String url); // where url is "https://google.com", this should have been an URN String parseId(Input input); // the return type is String but ids are actually Longs like "6345789" ``` Использование наиболее специфического типа позволяет избежать целого ряда ошибок и в основном является основной причиной выбора языка со со строгой типизацией, такого как Java. Итак, теперь встает вопрос: как преуспевающие программисты в конечном итоге пишут плохой код со со строгой типизацией? Ответ: потому что внешний мир не сильно типизирован. Есть несколько разных мест, откуда программа получает строки, например: * параметры запроса и пути в URL-адресах * JSON * базы данных, которые не поддерживают перечисления * плохо написанные библиотеки Во всех этих случаях вы должны использовать следующую стратегию, чтобы избежать этой проблемы: обрабатывайте и сериализуйте строки в начале и конце программы. Вот пример: ``` // Step 1: Take a query param representing a company name / member id pair and parse it // example: context=Pair(linkedin,456) Pair companyMember = parseQueryParam("context"); // this should throw an exception if malformed // Step 2: Do all the stuff in your application // MOST if not all of your code should live in this area // Step 3: Convert the parameter back into a String at the very end if necessary String redirectLink = serializeQueryParam("context"); ``` Это даст ряд преимуществ. Неправильные данные обнаруживаются сразу; приложение выдает ошибку заранее. Кроме того, не нужно выполнять перехват исключений при анализе во всем приложении после однократной проверки данных. В дополнение, сильная типизация подразумевает более наглядную сигнатуру методов и вам не обязательно писать кучу javadocs для каждого из методов. ### Рекомендация 3: Используйте Optional вместо Null Одно из лучших нововведений в Java 8, — это класс `Optional`, который представляет собой объект, который может существовать или не существовать. Тривиальный вопрос: какое исключение имеет свой собственный акроним? Ответ: NPE или Null Pointer Exception. Это, безусловно, самое распространенное исключение на Java, которое часто называют [ошибкой в миллиард долларов](https://www.infoq.com/presentations/Null-References-The-Billion-Dollar-Mistake-Tony-Hoare). `Optional` позволяет полностью убрать NPE из вашей программы. Однако он должен использоваться правильно. Вот несколько советов, использование `Optional`: * Вы не должны просто вызывать `.get ()` в любое время, когда у вас есть `Optional`, чтобы использовать его, вместо этого тщательно подумайте о том случае, когда `Optional` отсутствует и придумайте рациональное значение по умолчанию. * Если у вас еще нет рационального значения по умолчанию, то методы, как `.map ()` и `.flatMap ()` позволит отложить его выбор на потом. * Если внешняя библиотека возвращает NULL, чтобы указать пустой кейс, сразу же оберните значение используя `Optional.ofNullable ()`. Поверьте мне, вы поблагодарите себя позже. nulls имеют тенденцию «всплывать» внутри программ, поэтому лучше всего остановить их в источнике. * Используйте `Optional` в качестве возвращаемого значения метода. Это здорово, потому что вам не нужно читать javadoc, чтобы выяснить, можно ли опустить это значение. ### Бонусная рекомендация: «Unlift» методов, когда это возможно Вы должны попытаться избежать методов, которые выглядят следующим образом: ``` // AVOID: CompletableFuture method(CompletableFuture ~~param); // PREFER: T method(S param); // AVOID: List method(List ~~param); // PREFER: T method(S param); // AVOID: T method(A param1, B param2, Optional param3); // PREFER: T method(A param1, B param2, C param3); T method(A param1, B param2); // This method is clearly doing two things, it should be two methods // The same is true for boolean parameters~~~~ ``` Что общего у этих методов? Они используют объекты контейнера, такие как Optional,List или Task как параметры метода. Еще хуже, когда тип возвращаемого значения является одним и тем же контейнером (т. е. Один параметр метода принимает Optional и возвращает Optional). Почему? 1) `Promise A method(Promise B param)` Это менее гибко, зато проще. 2) `A method(B param)`. Если у вас есть `Promise B` , вы можете использовать первый способ, или вы можете использовать второй способ путем «Lifting» функции с помощью `.map`. (т.е. `promise.map(method)`). Однако, если у вас есть только B, вы можете легко использовать второй способ, но вы не сможете использовать первый, что делает второй способ гораздо более гибким вариантом. Мне нравится называть эту технику «unlifting», потому что она противоположна распространённому функциональному служебному методу «lift». Если переписать методы подобным образом, то они станут более гибкими и простыми при вызове. --- *Перевод выполнен при поддержке компании [EDISON Software](https://www.edsd.ru/razrabotka-programm-na-c), которая профессионально занимается [интеграцией систем видеонаблюдения Axxon Next и SureView Immix](https://www.edsd.ru/integratsiya-sistem-videonablyudeniya-axxon-next-i-sureview-immix) и создает полезное [приложение против прокрастинации](https://www.edsd.ru/findfocus-prilozhenie-protiv-prokrastinatsii).*
https://habr.com/ru/post/344094/
null
ru
null
# Создание 3D-сетки из изображения с помощью Python [![](https://habrastorage.org/r/w780q1/webt/2-/rr/e1/2-rre17qookkka2659plexwgp4w.jpeg)](https://habr.com/ru/company/skillfactory/blog/693338/) Несколько лет назад генерация 3D-сетки из единственного двумерного изображения была сложной задачей. Но сегодня благодаря продвижению глубокого обучения разработано множество монокулярных моделей оценки глубины, дающих точную оценку карты глубины изображения. С помощью этой карты, выполнив реконструкцию поверхности, можно создать сетку. Подробности — к старту нашего [курса по Fullstack-разработке на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_281022&utm_term=lead). Введение -------- Монокулярная оценка глубины — это задача оценки значения глубины (расстояния относительно камеры) каждого пикселя для одного (монокулярного) изображения RGB. Результат такой оценки — карта глубины, которая в основном представляет собой матрицу, где каждый элемент соответствует спрогнозированной глубине соответствующего пикселя входного изображения: ![](https://habrastorage.org/r/w780q1/webt/bv/c6/zz/bvc6zzuku1vglipmo46rdsqrcno.jpeg) *Карта глубины* Точки на карте глубины можно рассматривать как множество точек с координатами по трём осям. Карта — это матрица, а значит, каждый её элемент имеет компоненты `x`, `y` (столбец и строка соответственно), а `z` — значение спрогнозированной глубины в точке `(x, y)`. Список точек `(x, y, z)` в области обработки трёхмерных данных называется **облаком точек**. ![](https://habrastorage.org/r/w1560/webt/j1/4x/ht/j14xhtneiuwjnlclhs5msosmony.png) *Облако точек. Оригинальный файл [Open3D](https://github.com/isl-org/Open3D)* Можно начать с неструктурированного облака точек и получить сетку, то есть трёхмерное представление объекта из множества вершин и многоугольников [полигонов]. Самый распространённый тип сетки — треугольная сетка, состоящая из множества соединённых общими рёбрами или вершинами трёхмерных треугольников. В литературе вы найдёте несколько методов получения треугольной сетки из облака точек; самые популярные — альфа-форма¹, шаровое вращение² и реконструкция поверхности Пуассона³. Эти методы называют алгоритмами реконструкции поверхности. ![](https://habrastorage.org/r/w1560/webt/p8/vi/v5/p8viv57fbfpmh2upm5gksdmhy8k.png) *Треугольная сетка. Оригинальный файл [Open3d](https://github.com/isl-org/Open3D)* Процедура создания сетки из изображения в этом руководстве состоит из трёх этапов: 1. Оценка глубины: с использованием монокулярной модели оценки глубины создаётся карта глубины входного изображения. 2. Построение облака точек: карта глубины преобразуется в облако точек. 3. Генерация сетки: с помощью алгоритма реконструкции поверхности из облака точек создаётся сетка. Чтобы выполнить эту процедуру, вам понадобится изображение. Если его нет под рукой, скачайте его здесь: ![](https://habrastorage.org/r/w1560/webt/wl/7h/az/wl7hazb2ul4y0nqpa1neela4dog.png) *Спальня. Изображение из [NYU-Depth V2](https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html)* 1. Оценка глубины ----------------- Выбранная для этого руководства модель монокулярной оценки глубины — GLPN⁴. Получить её можно в [Hugging Face Model Hub](https://huggingface.co/models) с помощью библиотеки [Transformers](https://huggingface.co/docs/transformers/index) от Hugging Face. Для этого установите последнюю версию Transformers из PyPI: ``` pip install transformers ``` Приведённый ниже код оценивает глубину входного изображения: ``` import matplotlib matplotlib.use('TkAgg') from matplotlib import pyplot as plt from PIL import Image import torch from transformers import GLPNFeatureExtractor, GLPNForDepthEstimation feature_extractor = GLPNFeatureExtractor.from_pretrained("vinvino02/glpn-nyu") model = GLPNForDepthEstimation.from_pretrained("vinvino02/glpn-nyu") # load and resize the input image image = Image.open("image.jpg") new_height = 480 if image.height > 480 else image.height new_height -= (new_height % 32) new_width = int(new_height * image.width / image.height) diff = new_width % 32 new_width = new_width - diff if diff < 16 else new_width + 32 - diff new_size = (new_width, new_height) image = image.resize(new_size) # prepare image for the model inputs = feature_extractor(images=image, return_tensors="pt") # get the prediction from the model with torch.no_grad(): outputs = model(**inputs) predicted_depth = outputs.predicted_depth # remove borders pad = 16 output = predicted_depth.squeeze().cpu().numpy() * 1000.0 output = output[pad:-pad, pad:-pad] image = image.crop((pad, pad, image.width - pad, image.height - pad)) # visualize the prediction fig, ax = plt.subplots(1, 2) ax[0].imshow(image) ax[0].tick_params(left=False, bottom=False, labelleft=False, labelbottom=False) ax[1].imshow(output, cmap='plasma') ax[1].tick_params(left=False, bottom=False, labelleft=False, labelbottom=False) plt.tight_layout() plt.pause(5) ``` Для работы с GLPN библиотека Transformers предоставляет два класса: `GLPNFeatureExtractor` — для предварительной обработки входных данных, и класс модели — `GLPNForDepthEstimation`. Из-за архитектуры выходной размер модели составляет: ![](https://habrastorage.org/r/w1560/webt/l9/vs/li/l9vslilu_nkj3uxody-c1gy-bry.png) *Выходной размер. Изображение сгенерировано с помощью [CodeCogs](https://www.codecogs.com/latex/eqneditor.php)* Таким образом, размер `image` изменяется так, чтобы высота и ширина были кратны 32, а иначе выходные данные модели окажутся меньше входных. Это необходимо, поскольку облако точек будет прорисовано с использованием пикселей изображения, для чего входное изображение и выходная карта глубины должны обладать одинаковым размером. Монокулярные модели оценки глубины пытаются получить прогнозы высокого качества вблизи границ, поэтому выходные данные (`output`) обрезаются по центру (строка 33). Чтобы сохранить одинаковые размеры, также обрезается по центру `image` (строка 34). Вот некоторые прогнозы: ![](https://habrastorage.org/r/w1560/webt/se/6v/i7/se6vi7jq3ed75y4idyxpn7i_14i.png) *Прогноз глубины спальни. На входе изображение из [NYU-Depth V2](https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html)* ![](https://habrastorage.org/r/w1560/webt/qc/aq/sv/qcaqsvezrqbbzygheeececnpmzu.png) *Прогноз глубины игровой комнаты. На входе изображение из [NYU-Depth V2](https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html)* ![](https://habrastorage.org/r/w1560/webt/ix/mh/fg/ixmhfghu7qnu2zmnrvtxw1hl7yq.png) *Прогноз глубины офиса. На входе изображение из [NYU-Depth V2](https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html)* 2. Построение облака точек -------------------------- В части 3D-обработки будет использоваться Open3d⁵. Наверное, это лучшая библиотека Python для задач такого рода. Установите последнюю версию Open3d из PyPI: ``` pip install open3d ``` Код ниже преобразует предполагаемую карту глубины в объект облака точек Open3D: ``` import numpy as np import open3d as o3d width, height = image.size depth_image = (output * 255 / np.max(output)).astype('uint8') image = np.array(image) # create rgbd image depth_o3d = o3d.geometry.Image(depth_image) image_o3d = o3d.geometry.Image(image) rgbd_image = o3d.geometry.RGBDImage.create_from_color_and_depth(image_o3d, depth_o3d, convert_rgb_to_intensity=False) # camera settings camera_intrinsic = o3d.camera.PinholeCameraIntrinsic() camera_intrinsic.set_intrinsics(width, height, 500, 500, width/2, height/2) # create point cloud pcd = o3d.geometry.PointCloud.create_from_rgbd_image(rgbd_image, camera_intrinsic) ``` Изображение RGBD — это просто комбинация RGB-изображения и соответствующего изображения глубины. Класс `PinholeCameraIntrinsic` хранит так называемую внутреннюю матрицу камеры. С этой матрицей Open3D может создать облако точек из изображения RGBD с правильным расстоянием между точками. Внутренние параметры оставьте как есть. Дополнительные сведения смотрите в дополнительных ресурсах в конце руководства. Для визуализации выполните эту строку: ``` o3d.visualization.draw_geometries([pcd]) ``` 3. Генерация сетки ------------------ Среди различных методов для этой задачи, которые вы найдёте в литературе, здесь используется алгоритм реконструкции поверхности Пуассона³: он обычно даёт результаты лучше и мягче других. С помощью алгоритма из полученного на последнем шаге облака точек Пуассона этот код генерирует сетку: ``` # outliers removal cl, ind = pcd.remove_statistical_outlier(nb_neighbors=20, std_ratio=20.0) pcd = pcd.select_by_index(ind) # estimate normals pcd.estimate_normals() pcd.orient_normals_to_align_with_direction() # surface reconstruction mesh = o3d.geometry.TriangleMesh.create_from_point_cloud_poisson(pcd, depth=10, n_threads=1)[0] # rotate the mesh rotation = mesh.get_rotation_matrix_from_xyz((np.pi, 0, 0)) mesh.rotate(rotation, center=(0, 0, 0)) # save the mesh o3d.io.write_triangle_mesh(f'./mesh.obj', mesh) ``` Сначала код удаляет выбросы из облака точек. Облако может содержать шум и артефакты по разным причинам. В этом сценарии модель могла бы предсказать некоторые глубины, которые слишком сильно различаются с соседними глубинами. Следующий шаг — оценка нормали. Нормаль — это вектор (естественным образом обладающий величиной и направлением), перпендикулярный поверхности или объекту, и для обработки алгоритмом Пуассона их необходимо оценить. Дополнительные сведения об этих векторах смотрите в дополнительных ресурсах в конце руководства. Наконец, алгоритм выполняется. Уровень детализации сетки определяется значением `depth`. Помимо повышения качества сетки более высокое значение глубины увеличивает размеры вывода. Для визуализации сетки советую скачать [MeshLab](https://www.meshlab.net/), потому что есть программы 3D-визуализации только в ч/б. Вот окончательный результат: ![](https://habrastorage.org/r/w1560/webt/lm/qr/km/lmqrkmom1-hsuwjccukymp8ajsi.png) *Сгенерированная сетка* ![](https://habrastorage.org/r/w1560/webt/xk/ot/mm/xkotmmje9gy4vzl64ayqqsl4ghg.png) *Сетка с другого ракурса* Поскольку окончательный результат изменяется в зависимости от значения `depth`, это сравнение его различных значений: ![](https://habrastorage.org/r/w780q1/webt/wq/ya/fc/wqyafcian20sku_ttj8mjpbwves.jpeg) *Сравнение различных значений глубины* Алгоритм с `depth=5` привёл к сетке в 375 КБ, `depth=6` — к 1,2 МБ, `depth=7` — к 5 МБ, `depth=8` — к 19 МБ, `depth=9` — к 70, а `depth=10` — к 86 МБ. Вывод ----- Несмотря на использование одного изображения, итог достаточно хороший. Подправив 3D, можно достичь результатов ещё лучше. Это руководство не может полностью охватить все детали обработки 3D-данных, а потому я советую вам прочитать другие ресурсы (они перечислены ниже), чтобы лучше разобраться со всеми аспектами. **Дополнительные ресурсы:** * [Модель камеры-обскуры;](https://en.wikipedia.org/wiki/Pinhole_camera_model) * [Внутренние и внешние матрицы;](https://en.wikipedia.org/wiki/Camera_resectioning) * [Нормали](https://en.wikipedia.org/wiki/Normal_(geometry)); * [Официальная документация Open3D](http://www.open3d.org/docs/release/). Спасибо, что прочитали. Надеюсь, вы нашли материал полезным. **Литература** [1] H. Edelsbrunner, and E. P. Mücke, [Three-dimensional Alpha Shapes](https://arxiv.org/abs/math/9410208) (1994) [2] F. Bernardini, J. Mittleman, H. Rushmeier, C. Silva, and G. Taubin, [The ball-pivoting algorithm for surface reconstruction](<http://The> ball-pivoting algorithm for surface reconstruction) (1999) [3] M. Kazhdan, M. Bolitho and H. Hoppe, [Poisson Surface Reconstruction](https://www.cs.jhu.edu/~misha/MyPapers/SGP06.pdf) (2006) [4] D. Kim, W. Ga, P. Ahn, D. Joo, S. Chun, and J. Kim, [Global-Local Path Networks for Monocular Depth Estimation with Vertical CutDepth](https://arxiv.org/abs/2201.07436) (2022) [5] Q. Zhou, J. Park, and V. Koltun, [Open3D: A Modern Library for 3D Data Processing](https://arxiv.org/abs/1801.09847) (2018) [6] N. Silberman, D. Hoiem, P. Kohli, and Rob Fergus, [Indoor Segmentation and Support Inference from RGBD Images](https://cs.nyu.edu/~silberman/papers/indoor_seg_support.pdf) (2012) А мы научим работать с Python, чтобы вы прокачали карьеру или стали востребованным IT-специалистом: * [Профессия Fullstack-разработчик на Python (16 месяцев)](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_281022&utm_term=conc) * [Профессия Data Scientist (24 месяца)](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_281022&utm_term=conc) Чтобы посмотреть все курсы, кликните по баннеру: [![](https://habrastorage.org/r/w1560/webt/cq/na/88/cqna880todtt287i6ffb12uzzwk.png)](https://skillfactory.ru/catalogue?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=sf_allcourses_281022&utm_term=banner) **Краткий каталог курсов** **Data Science и Machine Learning** * [Профессия Data Scientist](https://skillfactory.ru/data-scientist-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dspr_281022&utm_term=cat) * [Профессия Data Analyst](https://skillfactory.ru/data-analyst-pro?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=analytics_dapr_281022&utm_term=cat) * [Курс «Математика для Data Science»](https://skillfactory.ru/matematika-dlya-data-science#syllabus?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mat_281022&utm_term=cat) * [Курс «Математика и Machine Learning для Data Science»](https://skillfactory.ru/matematika-i-machine-learning-dlya-data-science?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_matml_281022&utm_term=cat) * [Курс по Data Engineering](https://skillfactory.ru/data-engineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_dea_281022&utm_term=cat) * [Курс «Machine Learning и Deep Learning»](https://skillfactory.ru/machine-learning-i-deep-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mldl_281022&utm_term=cat) * [Курс по Machine Learning](https://skillfactory.ru/machine-learning?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_ml_281022&utm_term=cat) **Python, веб-разработка** * [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fpw_281022&utm_term=cat) * [Курс «Python для веб-разработки»](https://skillfactory.ru/python-for-web-developers?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_pws_281022&utm_term=cat) * [Профессия Frontend-разработчик](https://skillfactory.ru/frontend-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_fr_281022&utm_term=cat) * [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_webdev_281022&utm_term=cat) **Мобильная разработка** * [Профессия iOS-разработчик](https://skillfactory.ru/ios-razrabotchik-s-nulya?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_ios_281022&utm_term=cat) * [Профессия Android-разработчик](https://skillfactory.ru/android-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_andr_281022&utm_term=cat) **Java и C#** * [Профессия Java-разработчик](https://skillfactory.ru/java-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_java_281022&utm_term=cat) * [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer-testirovshik-po?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_qaja_281022&utm_term=cat) * [Профессия C#-разработчик](https://skillfactory.ru/c-sharp-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cdev_281022&utm_term=cat) * [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-razrabotchik-na-unity-i-c-sharp?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_gamedev_281022&utm_term=cat) **От основ — в глубину** * [Курс «Алгоритмы и структуры данных»](https://skillfactory.ru/algoritmy-i-struktury-dannyh?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_algo_281022&utm_term=cat) * [Профессия C++ разработчик](https://skillfactory.ru/c-plus-plus-razrabotchik?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_cplus_281022&utm_term=cat) * [Профессия «Белый хакер»](https://skillfactory.ru/cyber-security-etichnij-haker?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_hacker_281022&utm_term=cat) **А также** * [Курс по DevOps](https://skillfactory.ru/devops-ingineer?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=coding_devops_281022&utm_term=cat) * [Все курсы](https://skillfactory.ru/catalogue?utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=sf_allcourses_281022&utm_term=cat)
https://habr.com/ru/post/693338/
null
ru
null
# Vanessa-Automation — инструмент автодокументирования прикладных решений на платформе «1С: Предприятие». Кино и BDD Что это и для чего надо ======================= ![Cinema](https://habr.com/images/px.gif#%3D%22https%3A%2F%2Fimageshack.com%2Fa%2Fimg923%2F4036%2FGNstEc.jpg%22 "Cinema") Меня не интересуют истории, которые оставляют зрителя безразличным. Я хочу, чтобы выходя из кинотеатра человек думал: «Черт возьми, мне нужно выпить». (с) Киллиан Мёрфи Так, что это значит Кино и BDD?! Добро пожаловать под кат. Я расскажу об инструменте, который из сценария, написанного на Gherkin (есть такой язык сценариев), делает инструкцию, а точнее — **актуальную документацию** (Living documentation). Чтобы вас не томить — сразу покажу результат моих (и не только) трудов. Я расскажу вам как из сценария, написанного ниже, сделать вот такой вот [ролик](https://youtu.be/zkPZtI0lvQQ) одним кликом. Замечу, что сценарии можно писать не только на русском языке, но и на других языках. Не секрет — документация со временем устаревает, а поддерживать её в актуальном состоянии затратно, да и “ломает”. Документация уже есть, но постоянно надо что-то дополнять, менять скрины и т.п. Тут из ниоткуда выныривают бородатые дядьки и уверяют, что есть волшебный способ сделать всю вашу разработку по крутому (все эти ваши модные TDD/BDD/и т.д.), с помощью которого весь ваш код пишется сам, сам себя тестирует и документирует. И вот, движимые ленью и верой в светлое будущее, программисты 1С решили реализовать этот концепт. Я буду показывать как это работает на примере инструмента [Vanessa-Automation](https://habr.com/post/418303/). Забыл сказать (на самом деле, конечно не забыл, а сознательно оттягивал :-) — этот инструмент для 1С. Моя цель рассказать вам об инструменте, дополняющем 1С. Да, такие инструменты есть, даже больше — они выложены на github и активно развиваются. Позволю себе небольшое отступление. Многие знают, что сейчас есть много фреймворков для JavaScript, то есть живут настоящим, но почему-то многие в отношения 1С живут прошлым. Я хочу показать, что мир 1С развивается. Есть нормальные Open Source инструменты для 1С. Итак. Одним пользователем нужна документация в виде текстовой документации (HTML, Markdown), другим в виде скринкаста, третьим в виде автовидео. И для всех "хотелок" есть решение в одном флаконе. Генерация HTML и Markdown ========================= Для того, чтобы генерировать HTML и текст в markdown, необходимо установить утилиту для снятия скриншотов (IrfanView, nircmd или подобное). Далее включаем данную настройку. (Сервис — Автоинструкции. Ищем раздел HTML и Markdown). Настраиваем папку, в которую будем сохранять автоматически сгенерированные автоинструкции. Пример: ![autoinstruction](https://habr.com/images/px.gif#%3D%22https%3A%2F%2Fimageshack.com%2Fa%2Fimg921%2F1275%2F7K64OS.png%22 "autoinstruction1") Запускаем нашу feature, если не было ошибок — сохраняется автоинструкция: ![autoinstruction](https://habr.com/images/px.gif#%3D%22https%3A%2F%2Fimageshack.com%2Fa%2Fimg923%2F420%2FWXtrpq.png%22 "autoinstruction2") Генерация видео =============== Без всякого труда мы можем сделать видео. Для этого необходимо настроить окружение для записи видео по [инструкции](https://github.com/Pr-Mex/vanessa-automation/blob/develop/MakeAutoVideo.md) и наслаждаться процессом. Не надо нарезать видео, склеивать и накладывать звук. Это всё делается автоматически. ![autoinstruction](https://habr.com/images/px.gif#%3D%22https%3A%2F%2Fimageshack.com%2Fa%2Fimg922%2F6929%2FBlbPDO.png%22 "autoinstruction3") Каждое видео идёт с субтитрами. Можем поставить на паузу и почитать. Не сложно. Делаем максимально удобно для пользователя. Если скучно читать, можно сделать озвучку голосом. Для этого устанавливаем [библиотеку](https://github.com/Pr-Mex/vanessa-automation/blob/develop/MakeAutoVideo.md) и запускаем наш сценарий. Через пару минут видео с озвучкой будет готово. ![autoinstruction](https://habr.com/images/px.gif#%3D%22https%3A%2F%2Fimageshack.com%2Fa%2Fimg924%2F6136%2F80u3Wv.png%22 "autoinstruction4") Есть функция накладывания водяного знака, подсветки активного элемента на экране (эта фича работает для версий платформы 8.3.11 и ниже) (да, пользователи любят когда им всё разжевывают) и движения мышки туда, где происходит “Экшн”. Гибкая кастомизация видео ========================= Всё начинается со сценария и на нём же заканчивается. Именно так. Можно настроить ваш CI сервер так, чтобы он генерировал не для всех сценариев документацию, а только для необходимых. Для этого в сценариях, предназначенных для автодоков добавляем тег, например `@tree` (далее будет работать отбор по этому тегу) и… наслаждаемся процессом. По идее, когда вы пишете большой сценарий, вам всё равно придётся его делить на логические блоки, делать в нём комментарии (что вот этот супер важный флажок надо установить, иначе ничего работать не будет). Идея автовидео в том, чтобы эти комментарии стали частью “истории”, которую мы показываем пользователю. Для этого, например, можно изменить текст шага, сделать его более “человечным”, так как мы пишем сценарий на Gherkin, но для пользователей не всегда удобно слушать бизнес язык и поэтому есть директива `#[autodoc.text]`. Для меня это одна из важных фич Vanessa-Automation, так как пользователи разные по компетенции — стараюсь писать максимально понятно. Некоторые шаги в сценарии хочется объединить в один (часто это касается каких-то очевидных операций). Например, добавить данные в табличную часть. Или когда один шаг бизнес сценария (заполнение шапки какого-нибудь документа) состоит из десятков действий. Тогда используется директива `#[autodoc.groupsteps]`. Хочу заметить, что директивы автодоков работают как для видео, так и для html и markdown инструкций. Остальные директивы описаны во `встроенной справке` проекта. Когда мы смотрим сгенерированное видео, то там изначально будет только видео без звука. Мелькают какие-то скриншоты и текст, становится скучно и перестаёшь вникать. Да и грустно как-то без музыки. Фоном к видео можно поставить “лёгкую” музыку (или какую-нибудь тяжесть, любой каприз), чтобы веселее читалось. Процесс изучения пойдёт быстрее :) Опыт создания таких видео показал, что когда фоном играет музыка, то видео воспринимается проще. Без музыки — сухо как-то. При записи видео не отображается курсор и не видно куда мы нажимаем, на какой элемент. Для этого есть настройка отображения курсора и подсветка элемента формы. Все вышеперечисленные настройки показаны в видео и в сценарии, которые сгенерировались после успешного прохождения сценария. Автообновление видео на ютуб ============================ Для ночной сборки (ну мы же не собираемся заливать ролики на ютуб руками, правда?) можно реализовать автоматическое выкладывание видео на youtube канал. Натравливаем на папку с нашими feature скрипт, который определяет, что файл изменился, затем делает сборку видео и заливает его куда надо. Для автовидео я сделал простое [приложение](https://github.com/hawk911/youtube_api) на `Golang` (почему на нём? Изучал go и появилась реальная задача, где можно его применить. Если было бы что-то другое, было бы на чём-то другом), которое отправляет готовый ролик на youtube канал. Это, конечно, просто пример. Видео можно добавлять в ваши Wiki или базу знаний и т.п. Заключение ========== Привожу вам тестовый сценарий, по которому сгенерировано видео. Пример, feature. ``` #language: ru @tree Функциональность: Некоторые возможности автоинструкций. Контекст: Дано Я запускаю сценарий открытия TestClient или подключаю уже существующий #[autodoc.ignore.scenarioslide] Сценарий: Новые возможности. #[autodoc.text] Начнём с того, что у шага можно указывать произвольный текст. И В командном интерфейсе я выбираю "Основная" "Приветы Для Habr" И текст субтитров "Тут можно писать текст какой нам хочется! А не - в командном интерфейсе я выбираю..." И обратите внимание "А тут могла быть ваша реклама :-)" #[autodoc.groupsteps] Выполняется группа шагов. Но в видео она работает как один шаг, с одним текстом для всей группы. И я нажимаю на кнопку "Создать" И в поле с именем "Наименование" я ввожу текст "Привет Habr" И в поле "Число" я ввожу текст "14,00" И в поле "Дата" я ввожу текст "14.08.2018" И в поле с именем "Текст" я ввожу текст "Передаю всем привет!" И я нажимаю на кнопку "Записать и закрыть" И обратите внимание "Спасибо за внимание." ``` Краткая инструкция как настраивать автодокументирование лежит [тут](https://github.com/Pr-Mex/vanessa-automation/blob/develop/MakeAutoVideo.md). Инструкция как настраивать [автодокументацию](https://www.youtube.com/watch?v=BfXowJH5uP0). Спасибо за потраченное время. Как бы дико это не звучало, но 1С сообщество шагнуло вперёд (~~и в чём-то даже кого-то обогнало~~), появились opensource инструменты тестирования, CI — интеграция. 1С делает для своих продуктов API — это и позволяет энтузиастам автоматизировать участки, до которых 1С пока не дошла, но потихоньку идёт. А скоро нас ожидает новый дивный мир :) Я в ожидании, когда мы сможем без критических ошибок творить в EDT. P.S. ==== Поддержите [проект](https://github.com/Pr-Mex/vanessa-automation) добрым словом, лайком, критикой (чат проекта в Gitter находится [здесь](https://gitter.im/vanessa-automation/Lobby)) авторам это всегда приятно. Ссылки ====== * [Вебинар](https://youtu.be/KbImzcrj_58) * [Доклад на infostart event 2015](https://youtu.be/m9o6pMDTM3U) * [Доклад на infostart event 2016](https://youtu.be/FtkSS2VvHQA) и [ответы на вопросы](https://youtu.be/sha1_at1FQo)
https://habr.com/ru/post/420175/
null
ru
null
# Как сделать будильник при помощи Asterisk, FreeBSD и наличии небольшого количества свободного времени Сижу я на работе утром. Коллега опаздывает, делать особо нечего. Скучно. Наконец приходит опоздавший и жалуется, что не проснулся по своему будильнику. То ли не завел, то ли не услышал, этого я уже не помню. Почему бы не устроить ему звонок с работы, с утра пораньше? Сказано — сделано. Решил я написать будильник. #### Как будем реализовывать? Диалплан решил не трогать, ибо он и так уже не самый маленький, и усложнять его не хочется. Поэтому было решено написать shell скрипт, который запускается по крону и создает call-файлы с нужными данными. Записывать кому и когда звонить в сам скрипт мне показалось неудобным, поэтому был создан текстовый файл alarmnumbers.txt вида: ``` 89993332211 1000 1100 1200 1300 1400 1500 1600 /recs/macroform-robot_dity 89993332211 1005 1105 1205 1305 1405 XXXX XXXX /recs/macroform-robot_dity ``` Где первое это номер телефона, на который будет совершен звонок, дальше идут 7 блоков, разделенных пробелами, с указанием времени звонка: первый блок для понедельника, второй для вторника, и так далее. В самом конце путь к файлу, который будет воспроизведен, если поднимут трубку. Это должен быть любой звуковой файл, который астериск сможет скушать. Имя файла пишется без разрешения, астер сам выберет, какое ему нужно. Можно звуковой файл и вовсе не указывать, в таком случае при поднятии трубки звонок будет сразу же сброшен. Ну а XXXX вместо времени указывает не совершать побудку. К примеру, в выходные. В файлике может быть сколько угодно строк, повторения номеров тоже допустимы. Решение, конечно, не самое оптимальное, но поскольку использование будильника предполагается только внутри IT отдела, то вполне подходящее. Разместил я его на шаре win сервера, подцепив её к FreeBSD при помощи mount\_smbfs. Сам скрипт запускается по крону раз в сутки. Т.е. обновление данных кому и куда звонить происходит каждый день в 00.02. #### Разберем, что делает скрипт: ``` #!/bin/sh echo 'START!' filename=/recs/alarmnumbers.txt CallFileName=AlarmFile NewCallFilesPath=/var/spool/asterisk/outgoing_new/ AsteriskCallFilePath=/var/spool/asterisk/outgoing/ ``` Указываем, где что лежит и как называть call-файлы для asterisk (ему, кстати, имя файла не важно, можете указать любое) **filename** — наш файл со списком кому и когда **CallFileName** — имя call-файла, только для нашего удобства **NewCallFilesPath** — каталог для создаваемых call-файлов. Создавать их там, откуда их берет астер, нельзя — читает он их быстро и часто, может прочитать неполный. Этот каталог должен быть на том же разделе с каталогом, где астер ищет call-файлы для выполнения. **AsteriskCallFilePath** – каталог, из которого астер читает call-файлы. Т.к. у меня FreeBSD, у вас они могут располагаться в другом месте. ``` currentdate=$(date +%Y%m%d) weekday=$(date +%u) var0=0 ``` Запоминаем текущее время и день недели. ``` case "$weekday" in 1)wd="13-16";; 2)wd="18-21";; 3)wd="23-26";; 4)wd="28-31";; 5)wd="33-36";; 6)wd="38-41";; 7)wd="43-46";; esac ``` В зависимости от дня недели будем выбирать соответствующий блок в **alarmnumbers.txt**. Это параметры для **cut**. ``` cat $filename | while read line do DialTime=$(echo $line | cut -c$wd) var0=`expr $var0 + 1` number=$(echo $line | cut -c1-11) dialwavfile=$(echo $line | cut -c48-200) ``` Читаем **alarmnumbers.txt**. построчно, выбирая нужные параметры из каждой строки. **DialTime** — время звонка, тут используется параметр **wd**, который мы задали раньше. **number** — номер, на который будет совершен звонок **dialwavfile** — звуковой файл ``` echo "Channel: SIP/providername/$number" > "$NewCallFilesPath$CallFileName$DialTime$var0.call" echo "CallerID: CompanyNumber" >> "$NewCallFilesPath$CallFileName$DialTime$var0.call" echo "MaxRetries: 2" >> "$NewCallFilesPath$CallFileName$DialTime$var0.call" echo "RetryTime: 450" >> "$NewCallFilesPath$CallFileName$DialTime$var0.call" echo "WaitTime: 20" >> "$NewCallFilesPath$CallFileName$DialTime$var0.call" echo "Application: Playback" >> "$NewCallFilesPath$CallFileName$DialTime$var0.call" echo "Data: $dialwavfile" >> "$NewCallFilesPath$CallFileName$DialTime$var0.call" echo "Archive: yes" >> "$NewCallFilesPath$CallFileName$DialTime$var0.call" ``` Создаем call-файл. Структура у него получится вот такая: ``` Channel: SIP/providername/89993332211 CallerID: CompanyNumber MaxRetries: 2 RetryTime: 450 WaitTime: 20 Application: Playback Data: /recs/macroform-robot_dity Archive: yes ``` **Channel** — Через что звонить, указывается любой канал. У меня указан пир для внешних звонков. Если вы собираетесь звонить и на внутренние номера, то придется дописать условие, по которому будут подставляться различные каналы. **CallerID** – Думаю, понятно. Не актуально, если это звонок на внешнюю линию и провайдер не позволяет менять CallerID **MaxRetries** — Не поднял трубку? Не беда! Позвоним еще, вдруг не проснулся? Параметр сообщает сколько раз пытаться вызвать абонента **RetryTime** — Через столько перезвонить, в секундах **WaitTime** — Дозваниваться до абонента столько секунд. **Application** — Это то приложение астериска которое будет использовано если абонент поднял трубку. **Data** — Данные для приложения с предыдущей строки **Archive** — Сохранять выполненные call-файлы, для анализа к примеру ``` chmod 755 $NewCallFilesPath$CallFileName$DialTime$var0.call chown asterisk $NewCallFilesPath$CallFileName$DialTime$var0.call chgrp asterisk $NewCallFilesPath$CallFileName$DialTime$var0.call ``` Выдаем права на чтение, изменение и удаление пользователю, от которого запущен астериск. ``` time=$(echo $line | cut -c$wd) case $time in XXXX) rm $NewCallFilesPath$CallFileName$DialTime$var0.call ;; "") rm $NewCallFilesPath$CallFileName$DialTime$var0.call ;; *) touch -t "$currentdate$time" "$NewCallFilesPath$CallFileName$DialTime$var0.call" ;; esac ``` Тут мы правим время изменения или удаляем call-файл в том случае если вместо времени указано XXXX. Один из важных моментов в работе с call-файлами. Астериск будет читать только файлы с датой и временем изменения меньше или равной текущей. Таким образом, если мы укажем время модификации в будущем, астер будет ждать, пока не наступит нужное время. ``` mv $NewCallFilesPath$CallFileName$varr$var0.call $AsteriskCallFilePath ``` Перемещаем наш созданный файл к астеру на съедение. ``` done echo "HAPPY END!!!" exit 0 ``` Завершаем скрипт. С ним все. Осталось только запихать его выполнение в крон. Не забудьте дать ему права на исполнение. ``` 2 0 * * * /usr/bin/my/alarm.sh ``` Ну, в общем-то, будильник готов. Заполняем **alarmnumbers.txt** и ждем звонка. У нас исправно работает уже 3 недели. Глюков пока не обнаружено. #### Что в итоге? Мы получили будильник с расписанием. Есть возможность исключать любые дни недели из расписания. Система будет создавать call-файлы, а астериск выполнять, когда наступит подходящее время. Ничего сложного. #### Что плохо: * Запуск раз в сутки. Если захочется проснуться сегодня через 4 часа, астер ничего не сделает, звонок будет только через неделю. * Критично содержание alarmnumbers.txt. Если в нем будет косяк по неаккуратному заполнению, звонка не будет. Самому астеру ничего, конечно, не будет, но все равно неприятно. * Требуется заранее конвертировать звуковой файл в нужный формат. Автоконвертацию прикрутить поленился. * Коллега все равно не реагирует и на этот будильник. Приветствуется критика, замечания, пожелания по улучшению.
https://habr.com/ru/post/158327/
null
ru
null
# Android UI. Делаем кнопки в стиле Twitter Bootstrap Ниже рассказывается как создать кнопки в стиле Twitter Bootstrap для Android приложения. Данный стиль взят для примера что бы разобраться в концпеции создания собственных стилей. Пример кода выложен на [github](https://github.com/xreader/android-custom-style-ui). Репозиторий будет попoлняться примерами для других элементов. Так что можно подписываться. ![](https://habrastorage.org/r/w1560/storage2/830/5ae/6a2/8305ae6a25f37e1429d8ab285808ce53.png) Android SDK предлагает несколько вариантов для создания собственных стилей. Начнём с самого простого. Создададим кнопку на основе нескольких графических файлов отображающих отдельные состояни кнопок. (default, selected, focused, pressed и т.д.) Поддерживаются форматы .png, .jpg, или .gif. Добавляем в активити код для кнопки. ``` ``` В папке res/drawable создаём файл button\_primary\_selector.xml ``` xml version="1.0" encoding="utf-8"? ``` Этот файл делает роутинг графиков в зависимости от текущего состояния кнопки Добавляем графики для каждого состояния кнопки в ту же папку. Расширение файла указывать не надо. Недостатком данного примера является невозможность динамического скалирования кнопок. ##### Использование формата Nine-Patch File Решаем проблему скалирования элементов следующим образом. В случае кнопки нужны по крайней мере два png файла соответствующие нормальному и нажатому состояниям. Исходный график нормального состояния для primary button ![](https://habrastorage.org/r/w1560/storage2/568/0e4/1ee/5680e41ee67902d84c661b4fa984e78c.png) Конвертация происходит с помощью утилиты draw9patch. Её можно найти в ANDROID\_SDK\_HOME/tools/. После запуска перетягиваем график в открывшееся окно. И по краю картинки помечаем пиксели входящие в скалируемого контента. Примерно так ![](https://habrastorage.org/r/w1560/storage2/cd3/326/b8e/cd3326b8e66bb6defa1eba59ada0cc85.png) Справа предлагается превью. Если результат удовлетворительный. Через меню сохраняем файл в папку drawable. Повторяем процедуру для графиков всех состояний кнопки. Подключение кнопки происходит также как в предыдущем примере ##### Shape Drawable Вместо графиков можно описывать элементы с помощью XML. **Пример селектора для двух состояний:** ``` xml version="1.0" encoding="utf-8"? ``` При изменении состояния файл читается сверху вниз и первый элемент с подходящим статусом будет выполнен. Последний элемент в данном примере будет выполнятся если состояние предыдущих элементов не соответствует состоянию кнопки. Этот пример можно дополнить для отображения других состояний добавив элементы item с соответствующим атрибутом Например для selected ``` ... android:state_selected="true" ... ``` Описание состояний можно также вынести в отдельные файлы. Например нажатая кнопка будет описываться так в файле button\_primary\_pressed.xml ``` xml version="1.0" encoding="utf-8"? ``` **В селекторе расширение (.xml) также не указывается.** Вместо StateList можно также использовать LayerList. Этот подход отличается от предудыщего тем что элементы не имеют атрибута состояния. Все элементы будут отработаны. Последний элемент отрисовывается сверху. **Пример:** ``` xml version="1.0" encoding="utf-8"? ``` В результате получаем ![](https://habrastorage.org/r/w1560/storage2/af9/e02/845/af9e02845021d0f53d2e4e6d2e067f63.png) Примеры кода для создания стиля кнопок с помощью StateList и Shape Drawable можно посмотреть здесь[android-custom-style-ui](https://github.com/xreader/android-custom-style-ui). Дополнительная информация и источники [можно найти здесь.](http://developer.android.com/guide/topics/resources/drawable-resource.html)
https://habr.com/ru/post/151963/
null
ru
null
# Дилетант в opensource — lessons learned за 3 года Давно, в 2014 году я сделал для себя небольшую утилитку, чтобы перегонять C#-вьюмодели в TypeScript-код. Она сэкономила мне немало времени и нервов. И вот, в сентябре 2015 я решил оформить свои "эксперименты на коленке" в некую удобоваримую форму и вылить их на GitHub. Так началось моё дилетантское участие в разработке открытого ПО. Время шло. И вот, вчера в репозитории с этим проектом, наконец, появился юбилейный, трёхсотый коммит. В связи с этим знаменательным событием, я бы хотел поделиться своим дилетантским опытом о том, с чем придётся столкнуться, если вам вдруг взбредёт в голову разработать что-то "на благо развития индустрии". Я изложу некоторые цифры, расскажу несколько прохладных историй, а так же поделюсь впечатлениями каково это — написать и поддерживать opensource-проект без ~~мам, пап и кредитов~~ поддержки компании, оплаты и… и свободного времени. Заходите под кат, присаживайтесь, мы начинаем. "Делайте полезное" ================== Начнём с того, что на GitHub более [90 миллионов репозиториев](https://octoverse.github.com/). Какие-то из них известны, какие-то не очень, какие-то вообще приватные. В виду массовой популярности, Github начали использовать студенты для заданий, преподаватели для лекций, авторы книг для туториалов и даже [энтузиасты для законодательства](https://github.com/bundestag/gesetze). Вы только представьте какая же это долбанная бездна кода и проектов! Однако же, ставлю бутыль коньяку что если к вам прямо сейчас привяжется журналист и попросит назвать известные репозитории, то навскидку вы назовёте… ну где-то 15-30. Что же это значит? А значит это то, что GitHub — это огроменная вселенная программных продуктов, большинство из которых, я уверен, известны только их авторам. И, может быть, 5-10 их друзьям. > Стать более-менее заметным в этой толпе довольно сложно, скажу я вам. Даже если вы украдёте данные банковских карт всех-всех пользователей мира и выложите их на GitHub — то я уверен, что ~~вас забанят и возбудят уголовное дело~~ этого *просто никто не заметит*. Зачем я рассказываю настолько очевидные вещи, спросите вы? А вот… вот ни черта они не очевидные! Особенно для автора этих строк :) Особенно 3 года назад. Тогда я наивно считал, что достаточно сделать что-то действительно полезное, указать теги, написать README и люди сами всё найдут, сами всё скачают. Ну серьёзно, раз уж какой-то [left-pad](https://github.com/stevemao/left-pad), состоящий по существу из 47 строк кода набрал тысячу звёзд, то моей штуковине-то, которая объективно упрощает разработку — ну 300-то наберётся, так ведь? Ммм… нет. К сожалению, так это не работает. left-pad создан в 2014 и был решительно никому неизвестен до [известных событий 2016 года](https://habr.com/post/280039/). Если посмотреть на график распределения звёзд, то можем наблюдать взлёт почти под 90 градусов как раз в то самое злополучное время. Из этой дивной истории, очевидно, есть несколько печальных выводов: > Без должного маркетинга ваша самая лучшая идея в мире останется незамеченной. > > Чёрный пиар — тоже пиар. > > Не всегда сумасшедшее количество звёзд говорит о том, что проект хорош. Но не всё так плохо. Если вы уже приготовились впасть в депрессию по этому поводу, то мой вам совет — отложите носовые платочки и подушку для рыданий. > Лучше делайте что-то полезное. Прежде всего — полезное для себя. Прикиньте без какого программного продукта вам жизнь не в радость. Вот вам лично, читающим этот пост. Какого приложения, фреймворка, сервиса ~~чёрта~~ вам не хватает? На вашей работе или в вашей повседневной жизни. Прикинули? Отлично. Забейте в гугл и если от выдачи по вашему запросу веет тоской и невнятностью — вперёд! Заводите репозиторий, открывайте IDE и пишите. Пишите то, о чём мечтали, собирайте и выкладывайте. Разгадка проста — если конкретно вам ваш же проект приносит пользу, то во всём мире, скорее всего, наберётся тысяча-другая человек, которым это так же поможет и которые будут вам благодарны. Уверен, на первое время вам такой аудитории более чем хватит. Далее дело за малым — донести свои наработки до всех этих замечательных людей и не расплескать по дороге. Пиар без штанов =============== Слышал я, в некоторых компаниях есть такая практика. Если на собеседовании, кандидат упоминает свой opensource-проект, то следующим же пунктом его начинают распинать на тему "а сколько звёзд?", "сколько скачиваний?", "в скольких живых проектах используется?". Так вот, ответственно вам заявляю: таких вопрошающих надо быстрым и решительным движением языка посылать в пень, вставать и уходить с собеседования, навсегда забывая имя этой компании и друзьям о нём рассказывая. Если менеджеру (или кто там вас собеседует) приходит в голову такой вопрос, то с близкой к стопроцентной вероятностью, он с разработкой свободного ПО никогда дела не имел, о маркетинге не слыхал, да и в целом мало придаёт значения звукам, которые сам же издаёт. Работать с таким не получится. > Печально, но, видимо, факт: по моим наблюдениям, за популярными и крупными проектами так или иначе стоят компании. Например в виде прямого финансирования разработки: если проект делается в рабочее время, то он де-факто оплачивается. Да да, даже если у вас есть "пятница-для-своих-проектов" — что, думаете её нет в бюджете? Или в виде информационной поддержки (статьи, конференции, видео). Ну или в виде поддержки "персоналом", а-ля "Вася, иди помоги Олегу сделать фичу в его проекте". И это если не говорить о совсем уж откровенных случаях финансирования opensource-разработки вроде EntityFramework или .NET Core, когда есть целые отделы, занимающиеся такими проектами. Или всё и сразу (тут конспирологи могут задать вопрос "кому же это выгодно", но мы и до этого дойдём). Мне же из ресурсов компания предоставила разве что бесплатное тестирование моих наработок на живых людях. И нет, я не жалуюсь — я сам на этом настоял, чтобы все права и контроль над разработкой остались у меня. Да и для компании, с которой контракторские отношения связывают меня последние 4 года, IT — это не то чтобы профильный бизнес. Неудобно как-то людей отвлекать. В общем, в сухом остатке сошлись на следующем: компания относится с пониманием, поддерживает морально и предоставляет свою систему для проверки и обкатки проекта на живых пользователях. Взамен получает приоритетное право на поддержку и багфиксы, а так же консультации, внедрение и обучение персонала. Божечки, я говорю словами крупного интегратора, хотя в моём проекте всего-то около 5 тысяч строк (без тестов). **Лирическое отступление про помощь компаний**Ой, а был ещё такой интересный случай. У меня куплена 2015 студия, 2017я Community Edition, но помимо этого я пользуюсь ReSharper-ом от JetBrains. И он у меня тоже куплен. Помимо прочего, у меня так же есть аккаунт на Azure, где за символические деньги размещён простенький веб-сайт с информацией обо мне, ссылками на проекты и документацией. Так и вот. У JetBrains есть [программа](https://www.jetbrains.com/buy/opensource/) бесплатных лицензий для опенсорс-разработчиков. Ну я и думаю — дай, заапплаюсь. Копеечку, но сэкономлю. Будет у меня подарочный ReSharper. Почему бы и нет? Написал, значит, письмо на требуемый адрес. Мол, так и так. Делаю такой-то проект, вроде как опенсорс. Дайте, мол, лицензию. В ответ приходит такое: > We have checked your Open Source project to see if it meets all the requirements of JetBrains’ Open Source License Program. > > We have to inform you that according to the rules of our program, if the project provides any paid services (training, consulting etc), we cannot issue free licenses on general terms. > > As I can see on your project’s website it does provide some commercial services (<http://www.reinforced-sc.com/Info/Contact>), therefore, unfortunately, I won’t be able to provide free open source licenses for your project. Короче, опуская подробности. По существу им не понравилось, что на своём сайте (который посещают 3,5 анонимуса) я написал что готов предоставлять коммерческие консультации и индивидуальную коммерческую поддержку по любому своему проекту (из двух, хе-хе). Ни стоимости услуг, ни каких-то конкретных условий — просто, мол, "если вдруг надо — вы пишите, договоримся". Как вы понимаете, предложений, конечно же, не поступало. Что я сотруднику JetBrains и попытался объяснить в непродолжительной переписке. В конечном счёте получил такой ответ: > If your project does not provide commercial services then please remove the commercial section from the website and let me know once you do it — i will then issue an open source license for you. "Ну ни фига себе" — подумал я — "это значит получается я должен удалить с сайта информацию об *открытости* к коммерческим предложениям в обмен на 200 долларов (стоимость лицензии на ReSharper) в год?! Нет, ребята, это так себе предложение. Спасибо, не надо". И не стал продолжать диалог. Тут, конечно много вопросов: во-первых, ~~сколько маны небесной рекомендуется употреблять во время разработки, чтобы не потолстеть?~~ если мой проект используется в компании, в которой я работаю, но разрабатываю я его в свободное время — это считается оказанием коммерческих услуг? Во-вторых: ~~если мой проект не используется в бизнесе — он получается бесполезен? JetBrains готов финансировать бесполезные проекты?~~ а если я указываю свой opensource-проект в резюме и это повышает мои шансы быть нанятым — это же тоже коммерческое использование? Так может его ещё и в резюме не указывать? А вот ещё бывает что компании поддерживают контрибьютора информационно — это же тоже деньги просто в другом виде? Необходимо уточнить! Совсем ничего не понимаю. В общем, как вы понимаете, я встал перед задачей раскрутки и пиара в одиночку. Первая же идея, которая пришла мне в голову — надо написать как этим всем пользоваться. Здесь я решил схитрить и совместил полезное с полезным — я написал первую статью об RT на хабр (за которую и был приглашен НЛО). Идея была не столько в "я сделяль"-пиаре, сколько в том, чтобы разместить на хабре ну хоть какую-то русскоязычную документацию. Мои коллеги всё равно из России, поэтому для них нужен был хотя бы небольшой мануал, а объяснять каждому в переписке или голосом одно и то же не хотелось. Так и родились первые три статьи, которые были довольно холодно встречены аудиторией. Это и понятно — вряд ли кому-то из хабра-сообщества они были полезны, так что по этому поводу я не переживаю. О документации ============== Мысль о том, что неплохо бы дать людям какие-нибудь знания о том, как моим фреймворком пользоваться не давала мне покоя, пока я её окончательно не сформулировал в таком виде: > С документацией вот какая штука: она бесполезна без кода проекта, а код проекта бесполезен без неё. Замечательная идея, только вот о написании документации я знал катастрофически мало. Помимо мемчиков и шутеечек про недокументированный код, задней мыслью-то было понятно, что для описания методов вроде как надо использовать глаголы, а конструкторы документировать необязательно. На этом мои знания, пожалуй, исчерпывались. Я сверстал [первую версию README](https://github.com/reinforced/Reinforced.Typings/blob/161898b929a32936e976aa47113979b4cb91a2a6/README.md), заполнил описание проекта и стал думать. Как дилетант подходит к написанию документации? Конечно же через doxygen, что же ещё может прийти в голову программисту? Сказано — сделано. Я задался целью запилить XMLDOC (это как javadoc, только в C#) таким образом, чтобы сборка в Release не выдавала ворнингов "об отсутствующих комментариях для публично-видимых членов". К публично-видимым членам компилятор C# относит типы, методы и свойства, видимые "снаружи", при использовании вашей сборки другими пользователями. В общем всё, что не `internal` и не `private` в понимании C#. В настоящее время статистика такова: в проекте около 150 публичных типов (всего — около 250), которые содержат суммарно около 700 публичных методов и 260 пропертей. И всё это надо как-то пользователю объяснить. Я приуныл, но сел писать. Через первые 20 задокументированных пропертей я заметил, что мой писательский потенциал как-то поиссяк, а словарный запас поистощился. Как, скажите мне, в одном предложении сформулировать на что влияет поле класса? Желательно при этом не использовать пассивный залог, причастные обороты и громоздкие описания обстоятельств времени. Я зауважал технических писателей. Ребят, правда: берегите технических писателей — у них действительно собачья работа. Меня осенило: можно подсмотреть как решают проблему с пропертями в MSDN! Это действие подарило мне абсолютно дивную словесную конструкцию. > Попробуйте начать описание свойства класса со слов "Gets or sets whether..." — каким-то магическим образом концовка сама приходит к вам в голову! Словом, стало легче. Через 30 задокументированных классов я начал понимать, что что-то в моём проекте слишком дофига этих самых "публично видимых членов". Процесс документирования был прекращён, код был тщательно проанализирован на предмет того, что пользователю действительно нужно, а без чего пользователь обойдётся. В результате примерно на треть хлама, нуждающегося в документировании, лёг ровным слоем модификатор `internal` (это как `package` в Java). Вот как истинные профессионалы решают проблемы с документацией, да! Скрывай лишнее. Словом, стало легче. К моменту, когда примерно половина предупреждений компилятора про комментарии была починена, я почти что впал в депрессию. > Выяснилось, что одних лишь стандартизированных комментариев в коде недостаточно! И doxygen не спасёт. Дело в том, что в суровой реальности пользователь смотрит на reference-портянку, заботливо сгенерированную doxygen-ом, и видит 150 классов, интерфейсов и enum-ов, которые чёрт ногу сломит как между собой связаны. А запихивать примеры использования в каждый класс и каждый метод — это утопиться ж можно! К завершению написания XMLDOC-а я подошёл в полной уверенности, что без "человеческой" документации обойтись не получится. Внезапно, стало совсем плохо. Покончив с XMLDOC-ом, я решил посмотреть как устроена документация в уже существующих проектах и остановиться на варианте, который мне больше всего бы понравился. Выбор пал на казавшуюся мне дивной документацию к Autofac, сделанную на [платформе ReadTheDocs.ord](https://readthedocs.org/). Меня впечатлил формат reStructuredText. Решение принято, я засел за написание плана документации. И представляете что? Получалась полная фигня. В какой последовательности излагать? Как пользователь будет это читать? Что сначала, что потом? На что откуда должны быть ссылки? Тонна вопросов и вот уже черновики планов летят в урну. Я решил попросить помощи и обратился к замечательному [chebureque](https://habr.com/users/chebureque/), который на ту пору только начинал своё большое дело по оказанию услуг технической документации. Его усилиями мне был выделен студент, желающий познать тайны искусства технического текста. В ходе нескольких недель работы, студент был замучен описаниями и звонками о том, что и как надо писать. Пришло осознание, что проект весьма специфичен и требует знания многих технических деталей. Если я начну их описывать текстом, то… То в итоге это, чёрт побери, и будет документация! А если я буду говорить голосом и контролировать процесс, то на работу, обсуждения, согласования и ревью у нас уйдёт никак не менее полугода. Столько времени и свободных денег на оплату работы студента у меня попросту не было. Так что последний был вознаграждён за месяц усилий и отправлен с миром, да благословением. > Я остался один на один с пониманием, что хорошая документация к проекту — это долго и дорого. Сделать её усилиями одного человека за вменяемое время фактически невозможно. Закончилась же эта история в лучших традициях: автор психанул, взял встроенную в репозиторий github wiki и просто начал чистым markdown-ом писать то, что ему приходит в голову про проект. Как только всё, что пришло в голову было записано, я переставил блоки текста в последовательности, которая мне кажется правильной, разделил по страницам и вылил в GitHub. Хай будет. Так и живём. ![image](https://habrastorage.org/r/w780q1/webt/wo/nz/9m/wonz9m9mvtf5t6bvbuov8hg0vfo.jpeg) Это сейчас я знаю про эту картинку. Но переписывать что-либо, если честно, сил просто нет. Констатирую, что в вопросах документации я-таки сдался. Печально. ~~Отсутствие пользователей и конференция~~ ========================================== Отсутствие конференции и пользователи ===================================== Прошло время. Я выпустил ещё 9 версий пакета в NuGet, починил баги, добавил функциональности. Итак, шёл 2016 год и я снова подумал что неплохо было бы рассказать о своём проекте ещё кому-либо. В то время я находился в Эстонии (потому что почему бы и нет?) и меня осенила гениальная идея! > А почему бы не сходить на конференцию и не показать там что у меня есть в репозитории? Выдача гугла по запросу "european it conferences 2016" озадачила меня. Нигде не говорили про C# и TypeScript. Везде web, мобильные устройства, роботы, криптовалюты, IoT. Темы максимально абстрактные, формулировки максимально широкие. Столько всего, а пойти некуда! Походив по сайтам, почитав анонсы и заголовки, я с удивлением обнаружил, что огромное количество конференций проходят, буквально, "ни о чём". Описания гласили нечто в духе "вызовы бизнесу в эпоху повсеместного Интернета", "облачные технологии в современной экономике", "эволюция коммерции на рубеже веков". Воистину, паранойя и футурология! В названиях прямо читается немая просьба "эй, кто-нибудь, пожалуйста придите и расскажите что же со всеми нами будет!". Но да ладно. Поскитавшись изрядно и почитав всякого, я нашёл неприметную, почти что местячковую конференцию [DeveloperDays 2016](http://developerdays.pl/) в Польше. Я написал организаторам и спросил — можно ли? Довольно быстро мне ответил один из организаторов, парень с трудно произосимым именем Кржиштов и сказал что можно. Только, говорит, у нас правило есть — все, кто регистрируется слушателем выбирают по 10 интересующих их спикеров. Пройдёте этот отбор — мы вам и билет подарим, и размещение оплатим. Я отправил описание, с меня так же попросили фотографию, и я стал ждать. Через пару недель молчания в почте, я сделал смелую догадку что меня не выбрали. Написал Кржиштову и тот подтвердил мою догадку. Говорит, ваша тема, к сожалению, заинтересовала только двоих человек. > — Не расстраивайтесь — говорит мне Кржиштов — всё равно приходите. > > — Ага, щаз! Делать мне не фиг в Краков тащиться! —… думаю я. Но пишу, конечно же — Ничего, всё в порядке. Удачи вам с конференцией. Непредвиденные последствия начались после. Счётчик скачиваний в NuGet неожиданно пошёл вверх, а в проект добавилось ажно порядка 10 звёзд. Конечно же, от пользователей с подозрительно польскими именами и удивительно польскими фамилиями. Я бы даже сказал, с катастрофически польскими, потому что эти люди начали создавать issues! Что странно: багов почти не находили. Всё больше просили фич и задавали вопросы, которые не освещались в документации. В итоге, после третьего же бейджика faq, присвоенного очередному закрытому тикету, ко мне пришла, вероятно, самая лучшая маркетинговая стратегия для своего проекта. > StackOverflow! Черт побери, это гениально! Я зарегистрировался и первым же делом [пошёл](https://stackoverflow.com/questions/12957820/how-to-reuse-existing-c-sharp-class-definitions-in-typescript-projects) [и](https://stackoverflow.com/questions/36154235/end-to-end-type-safety-of-json-between-c-sharp-and-typescript) [нашёл](https://stackoverflow.com/questions/26238455/typelite-poco-class-generation) целых три вопроса про экспорт C#-классов в TypeScript, на которые незамедлительно и ответил наглым самопиаром. И о чудо — моим ответам поставили плюсики! В срочном порядке был [переписан README](https://github.com/reinforced/Reinforced.Typings/blob/7e64745d0f002fe3c9868bbe30bbe266e9459c5e/README.md) на более доходчивый, а чуть позже была добавлена секция Support policy. Там было указано что отныне все вопросы принимаются на StackOverflow по определённому хэштегу, о создании которого я попросил одного из пришедших пользователей. Потому что ну реально удобный формат для хранения FAQ. На хэштег я подписался через RSS и с энтузиазмом приступил к этапу поддержки проекта. Поддержка ========= После того, как RT засветился на StackOverflow — в проект начали медленно, но верно течь звёзды. При том от людей из абсолютно разных мест и компаний! В списке stargazers отметились люди из Barclays и Microsoft. Географически же звёзды приходили из разных уголков мира — США, Дания, Германия, Румыния, Канада, Австралия… И даже Беларусь! По секрету скажу, что одно время в Insights было видно, что за некоторыми страницам документации упорно наблюдают из JIRA какой-то американской компании. На StackOverflow же я получил несколько вопросов, на которые оперативно ответил, за что был вознаграждён плюсиками и репутацией. Приятно. В issues периодически приходили багрепорты, которые я старался более-менее оперативно чинить. Неприятно. В какой-то момент в проекте появились тесты. Я естественным путём пришёл к их необходимости, не пытаясь покрыть тестами что-либо заранее. Это простенькие, но гордые регрессионные тесты, в которых я воспроизводил присланные баги (к сожалению, не все — по техническим причинам) и чинил, закрывая баг ссылкой на тест. > TDD — удобно, но только с определённого этапа и только для контроля регрессии. И знаете — люди-таки приятно удивляются, когда их баг во фреймворке более-менее оперативно фиксится. Это ясно из лайков и коротких, но душевных благодарностей вроде ![image](https://habrastorage.org/r/w1560/webt/ak/s5/ft/aks5ftfxjbrmpimgwdahthizsok.png) Было получено несколько небольших, но хороших пулл-реквестов. Почти все они были смерджены в мастер (пусть и с изменениями), что прибавило проекту контрибьюторов — их уже целых 10, хотя 99% кода по-прежнему остаётся за мной. Самые большие проблемы поддержки были с несколькими конфликтующими фич-реквестами, а так же с тем, что как C# так и TypeScript довольно быстро меняются. Экосистема развивается настолько быстро, что я буквально не успеваю выкатывать обновления! > За время существования RT, успел уйти dnx, появится .NET Standard, пройти 3 релиза .NET Core, выйти около 20 релизов TypeScript и под всё это добро мне приходилось оперативно выпускать апдейты, чтобы не выпасть из тренда. А вчера я узнал, что один из фреймворков-конкурентов до сих пор не выпустил поддержку .NET Core :) И вот я здесь ============= Ощущения, как ни странно, тревожные. Несмотря на все получаемые благодарности, поддерживать такой проект и обратную связь с пользователям довольно сложно (кто бы мог подумать!). Да, я делаю полезное дело, но… мне-то это зачем? Да, это опыт: опыт общения с аудиторией, написания документации, несения публичной ответственности, планирования. Технический опыт в конце концов (сдался мне этот .NET Core, да купила баба порося). Однако что это даёт помимо опыта? Если честно, то ничего. За последние 3 года никто этим проектом не интересовался помимо его непосредственных пользователей. Работодатели? Рекрутёры? Пха! Не смешите мои тапки. Ссылка на проект торчит во всех профилях, но не упоминается ни в одном письме с предложением о работе. Как будто его не существует. А отдельные индивиды даже просили меня приложить к резюме пример кода zip-архивом — вот настолько у ссылок на GitHub развит навык мимикрии и невидимости! В общем, приготовьтесь к тому, что в карьерном плане небольшой, но живой OSS-проект вам не особо-то поможет. > Что даёт opensource-проект своему автору? Да на самом деле почти ничего. Зачем же тогда? Я могу понять зачем OSS нужен компаниям: они таким образом поднимают себе репутацию на ровном месте (opensource как форма публичной благотворительности) и увеличивают доступность своих технологий для потенциальных пользователей (повышают охват). Показателен интерес Microsoft к OSS — через .NET Core и "Microsoft loves Linux" активно привлекаются пользователи на MS-инфраструктуру, в которой немало интересных коммерческих продуктов — Azure в частности. И как по мне — имеют право! Цель благородная, средства законные. Компании зарабатывают на opensource. Да-да, вот например [Percona](https://www.percona.com/) берёт mysql, собирает кастомные билды, фиксит баги и допиливает фичи "под заказчика". Иногда, разумеется, и в сам mysql коммитит, и на вопросы отвечает. Но в основном продаёт свою экспертизу в области использования mysql для ваших тёмных делишек. Бесчисленное множество разнокалиберных интеграторов, а так же мелких системных администраторов не гнушаются продавать свои услуги по установке и настройке OSS-программного обеспечения, скажем, для офисных нужд. И это — их хлеб с маслом: во многих OSS-проектах даже с документацией чёрт ногу сломит, а эти вроде как разбираются. Правда, за денежку. Так же используют OSS, внезапно, и для политических целей — я слышал историю о том, что, якобы, через разработку Apache Harmony, ныне почивший Sun Microsystems принуждали открыть исходники JRE (могу ошибаться, слухи всё-таки). Я могу понять зачем OSS нужен сотрудникам компаний, если такую деятельность компании готовы оплачивать. Делов-то — убедить босса в том, что занимаешься очень полезным делом, "делаешь мир лучше" — и готово. Можно получать зарплату и самому себе ставить задачи. Компания же может использовать этот проект для технопиара — показать, мол, "смотрите как удобно работается в нашей компании — сотрудники ~~от безделия~~ ажно свои проекты создают, а мы открыты к идеям" и т.п. И такую версию событий слышал. Я могу понять зачем OSS нужен молодым разработчикам — получить промышленный международный опыт, показать себя. Здесь лучший вариант — выбрать какой-нибудь существующий проект и основательно в него покоммитить. Поучаствовать в обсуждениях, войти в user group, community, поотвечать на вопросы, пооказывать поддержку. С таким опытом хорошо идти на собеседование в серьёзные компании — будешь знать что примерно происходит в живой разработке, интереснее отвечать на вопросы на собеседовании. Да и английский попрактикуешь в конце-то концов. Можно гордо повесить на себя бейджик "member of *something* user group, contributor". Сделать же большой и сколько-нибудь известный OSS-проект самому, с нуля, *в современных реалиях* практически невозможно, как мне кажется. Именно поэтому я называю свой опыт дилетантским. > И дело вовсе не в том, что вы — плохой программист. Нет, программист вы, скорее всего, честный и хороший. А вот маркетолог, сотрудник техподдержки и технический писатель в одном лице — скорее всего нет. Для того, чтобы проект всерьёз работал на ваши карьерные и рекламные цели, вам нужно построить вокруг него заметных размеров community. А чтобы его построить — нужны или деньги, или огромное количество времени и сил, которыми, опять же, у вас нет возможности разбрасываться — иначе у вас станет существенно меньше денег и, как следствие, еды в холодильнике. Мне кажется, что единственное место, где бесплатные продукты, сделанные одиночками с нуля действительно ждёт целевая аудитория — это, пожалуй, linux. Особенно дивный мир "настольного" Linux. Система не то чтобы сильно популярная, много чего из программного обеспечения нет — вот пользователи и рады любой разработке. Однако уже и туда компании принесли свои ресурсы и деньги. Вообще как-то даже обидно, что из "творческого порыва", смелого экспериментаторства и возможности самореализации для разработчиков, opensource превратился в один из инструментов ведения бизнеса и маркетинга для компаний. Но рынок есть рынок. В конце концов деньги потрачены, результаты есть. Без такой помощи открытому ПО было бы гораздо хуже, чем есть сейчас. Но давайте просто будем честными. Если какая-то коммерческая структура заявляет, что она-де "поддерживает opensource", подразумевая повышенную духовную чистоту и благодетель — это в большинстве случаев наглая ложь и передёргивание. > Компании не делают то, что им не выгодно. Поддерживая opensource, компании как бы входят в "воображаемый уставной капитал" и сохраняют за собой право использовать побочные эффекты спонсируемой opensource-разработки в своих целях — будь то маркетинг, или прямая монетизация. Из этого следует > Тревожный вывод: полезность OSS-проекта для целевых пользователей и полезность OSS-проекта для спонсирующей его компании — вещи зачастую диаметрально противоположные. И печальная реальность такова, что для успешности проекту нужно быть полезным прежде всего для своего спонсора. А не для пользователей. Нет, я не призываю, разумеется, к коммунистической революции, "отнять и поделить" и "изгнать всю коммерцию из opensource". Я призываю снять розовые очки и не думать, что если компания поддерживает OSS, то это безвозмездная забота об индустрии и делается от большой доброты душевной. Вовсе нет. Я бы сказал, что компании выгодно вкладывать копеечку при условии, что её уши будут торчать из проекта во все стороны. И в этом нет никакой благотворительности. Как только это условие нарушается, компания теряет к проекту всяческий интерес. А если интерес есть, то будьте уверены — компания свой гешефт получит. Но получите ли его вы? Вот в чём вопрос... Ладно, будем прощаться. Напоследок я приведу некоторые цифры о своём проекте: * около 5000 строк кода, 225 классов, 1428 методов, 380 пропертей; * 43 релиза выпущено; * 84 issues закрыто; * 10 контрибьюторов; * 107 звёзд; * 28 форков; * 1100 посетителей за неделю; * ~50 000 скачиваний-установок в NuGet (примерно 40 раз в день); Ссылка на [GitHub](https://github.com/reinforced/Reinforced.Typings), ссылка на [NuGet](https://www.nuget.org/packages/Reinforced.Typings/). Успехов!
https://habr.com/ru/post/435878/
null
ru
null
# API для работы с сервисами: Базовые моменты [![](https://habrastorage.org/r/w780q1/files/643/1f7/a83/6431f7a83b844a7392f7a4247b2b7379.jpg)](https://habrahabr.ru/company/1cloud/blog/277499/) *По своей сути API являет собой набор готовых классов, функций, переменных и констант, предоставляемых приложением для использования во внешних программных продуктах. Эти интерфейсы находят применение в самых разнообразных сферах: от IoT до аналитики и интеграции сервисов.* Роберто Медрано (Roberto Medrano) из SOA Software считает, интерфейсы программирования приложений помогут развивать инновации в двух направлениях. Во-первых, компании смогут открыть свои данные, чтобы подстегнуть разработку креативных решений от компаний-партнеров и сторонних разработчиков (пример реализации клиентского приложения для API 1cloud на C# можно найти [здесь](https://github.com/partyz0ne/OneCloudNet)). Во-вторых, по словам Медрано, продукты и сервисы, снабженные API, предоставляют разработчикам инструменты, чтобы те могли сконцентрироваться на создании новых полезных продуктов, не думая об управлении backend-разработкой и серверами. Еще API не просто обеспечивают передачу и обмен данными, но позволяют их проанализировать. «API предоставляют нам огромное количество данных о поведении покупателя, которые невозможно было бы получить другими способами», – отмечает Медрано. На их основе можно попытаться понять, нужны ли модификации и изменения в работающих системах. Развивая сервис [1cloud](https://1cloud.ru/api/), мы столкнулись с необходимостью повышения качества интеграции клиентских приложений с нашим облаком. Иными словами, облегчить взаимодействие с нашей инфраструктурой для клиентов и партнеров. Для решения этой задачи мы разработали [свой API](https://1cloud.ru/api/). API 1cloud позволяет автоматизировать процесс масштабирования виртуальной инфраструктуры. Например, можно подключить дополнительные виртуальные машины при повышении нагрузки, а когда произойдет спад активности – автоматически их отключить. Таким образом, интерфейсы программирования приложений можно использовать для совершения всех действий, доступных пользователям в графическом интерфейсе системы управления. Одним из самых часто встречающихся [применений](https://habrahabr.ru/company/1cloud/blog/260523/) API является [создание](https://1cloud.ru/api/server/createserver) нового виртуального сервера. Сформировав и отправив POST-запрос, пользователь «поднимает» новую ВМ с указанными параметрами. Вот один из вариантов запросов: ``` curl -X POST -H 'Content-Type: application/json' -H 'Authorization: Bearer 75bb9805c018b1267b2cf599a38b95a3a811e2ef7ad9ca5ed838ea4c6bafaf50' "https://api.1cloud.ru/Server" -d '{"Name":"testAPI","CPU":1,"RAM":1024,"HDD":40,"imageID":1,"HDDType":"SSD","IsHighPerformance":true}' ``` 
В ответ на него придет JSON-объект с атрибутами созданного сервера: ``` { "ID":777, "Name":"testAPI", "State":"Active", "IsPowerOn":true, "CPU":1, "RAM":1024, "HDD":40, "IP":"5.200.XX.XX", "AdminUserName":"1CloudAdmin", "AdminPassword":"XXXXXXXX", "Image":"WinServer2008R2x64En", "IsHighPerformance":false, "HDDType":"SAS", "LinkedNetworks":[{"NetworkID":57, "IP":"10.0.1.1"}, {"NetworkID":98, "IP":"10.0.2.4"}] } ``` Еще один вид выполняемых задач – это создание [шаблона](https://1cloud.ru/api/image/imagecreate) виртуального сервера. Для этого пользователю нужно отправить POST-запрос по адресу api.1cloud.ru/image. Вот пример: ``` curl -X POST -H 'Content-Type: application/json' -H 'Authorization: Bearer 75bb9805c018b1267b2cf599a38b95a3a811e2ef7ad9ca5ed838ea4c6bafaf50' "https://api.1cloud.ru/image" -d '{"Name":"Шаблон","TechName":"TemplateAPI","ServerID":6940}' ``` Ответом будет JSON-объект, содержащий все атрибуты созданного шаблона. Например: ``` { "ID":72, "Name":"testAPITemplate" } ``` 
Созданный шаблон впоследствии можно удалить – просто отправляем запрос DELETE по адресу api.1cloud.ru/image{id}, где {id} – это идентификатор удаляемого шаблона. ``` curl -X DELETE -H 'Content-Type: application/json' -H 'Authorization: Bearer 75bb9805c018b1267b2cf599a38b95a3a811e2ef7ad9ca5ed838ea4c6bafaf50' "https://api.1cloud.ru/image/72" ``` Таким образом, с помощью методов API можно развернуть сервер, отправив всего один запрос. Автоматизировать мы можем все задачи по управлению хостингом. API-интерфейс может быть полезен как частным пользователям, которые не хотят разбираться со сложными технологиями, так и крупным клиентам, в планах которых начало предоставления собственных услуг на базе инфраструктуры провайдера. ![](https://habrastorage.org/r/w1560/files/1d7/4fd/f44/1d74fdf44d6e430e81a7879bf8ca6657.png) Кстати об инфраструктуре. При её создании мы хотели как можно сильнее разделить компоненты хостинга. В этом случае при увеличении нагрузки мы сможем просто перенести нужный сервис на новый сервер. Система 1cloud содержит следующие элементы: сайт, внутренняя панель, панель администратора и службы поддержки, сервис нотификации, сервис обработки задач, платежный сервис, сервис отработки асинхронных заданий, сервис мониторинга. Сайт 1cloud, о редизайне которого мы недавно [рассказывали](https://habrahabr.ru/company/1cloud/blog/277155/), служит своеобразной витриной, которую в первую очередь видят посетители. Для повышения удобства использования нами были добавлены важные для пользователей элементы, вроде калькулятора, позволяющего произвести расчет стоимости услуг. Другие сервисы отвечают за тарификацию и списание денег с клиентов, отправку автоматических сообщений с уведомлениями и мониторинг системы с целью поиска «зависших» задач. Подробнее об этом вы можете прочитать вот [здесь](https://1cloud.ru/news/Kak_stroitsja_infrastruktura_hosting_provajdera). Если вернуться к вопросу об API, то он также способен помочь в развитии Интернета вещей. «Интернета вещей без API не бывает – каждый бит информации, переходящей с устройства на устройство, передается с помощью API», – говорит Медрано. Более того, IoT позволяет проводить «передачу данных на уровне устройств, не тратя время на их стороннюю обработку». Так что же [значит](https://1cloud.ru/news/Kak_internet_veshhej_menjaet_podhod_k_bezopasnosti_v_korporacijah) Интернет вещей для бизнеса? То, чем он является для отдельно взятой организации зависит от того, чем компания собирается заниматься. Тем не менее, определенный «скелет» все же существует и, по словам исследователя компании 451 Research Брайана Партриджа (Brian Partridge), состоит из устройств, объединяющей их сети и облачного сервиса. Интернет вещей подразумевает наличие связей между множеством элементов, что серьезно усложняет инфраструктуру. Однако, согласно данным Tech Pro Research, 29% из опрошенных американских компаний уже используют IoT для сбора данных, а еще 26% планируют это делать в ближайшем будущем. ![](https://habrastorage.org/r/w780q1/files/99b/0ea/8ed/99b0ea8edc974136b0f4dde6c71cfc3c.jpg) А ведь, по данным Gartner, количество генерируемых данных с каждым годом будет только увеличиваться и к 2020 году достигнет 40 зеттабайт. ![](https://habrastorage.org/r/w1560/files/914/c1a/69f/914c1a69ff5e4524a89195dedf2333c2.png) Данные всегда были основной Интернета вещей, соответственно нужно позаботиться об их безопасности. По [словам](https://1cloud.ru/news/Kak_internet_veshhej_menjaet_podhod_k_bezopasnosti_v_korporacijah) Партриджа, существуют три главные опасности, связанные с передачей данных в Интернете вещей: * Обеспечение конфиденциальности – предотвращение доступа к данным со стороны третьих лиц * Сохранение целостности – передача данных с невозможностью перехвата или изменения * Аутентификация – способ определения того, достигли ли передаваемые данные точки назначения Задача заключается не только в том, чтобы безопасно подключить устройство к сети, а обеспечить безопасность взаимодействия разных устройств. Партридж говорит, что ему часто задают один и тот же вопрос: «Так стоит ли избегать Интернета вещей?» Он всегда отвечает, что бояться IoT-технологий не нужно, поскольку они дают компаниям большие возможности по развитию бизнеса. При этом точкой интереса в обеспечении безопасности должны стать не устройства и программное обеспечение, а способы взаимодействия различных элементов связанной системы. Все это открывает новые возможности для провайдеров услуг – они могут предложить в качестве сервиса защиту «точек взаимодействия» и шлюзов. Это поможет бизнесу обеспечить безопасность своих данных. Не все компании смогут самостоятельно обеспечить безопасность данных IoT-систем, потому им будет проще обратиться к сторонним поставщикам, которые помогут защитить корпоративные системы. *P.S. Пара наших публикаций по теме на Хабре: * [How-to: Автоматизация бухгалтерских задач хостинг-провайдера](http://habrahabr.ru/company/1cloud/blog/248983/) * [Высокая производительность и хостинг-инфраструктура: Опыт 1cloud](http://habrahabr.ru/company/1cloud/blog/252719/) * [Как мы создавали систему отслеживания нагрузки на серверы пользователей](http://habrahabr.ru/company/1cloud/blog/255271/)*
https://habr.com/ru/post/277499/
null
ru
null